Académique Documents
Professionnel Documents
Culture Documents
Etudes de Marché
Etudes de Marché
4$
$|
\/|
By
4$
$|
\/|
By
4$
$|
\/|
Sommaire
Avant-propos
Introduction
Conclusions et recommandations
Présentation du rapport d’étude et mise en œuvre
Annexes
Bibliographie générale
Index
\/|
$|
4$
By
Avant-propos
Positionnement
Le positionnement n’a pas varié depuis la première édition de cet ouvrage, parue en 1995 : être le
manuel de référence des étudiants qui suivent un cursus marketing faisant appel aux études de
marché, tout en étant le support indispensable des professionnels des études.
Le domaine couvert est vaste et complexe. Pour traiter le sujet, trois approches étaient
envisageables :
• L’approche du généraliste, centrée sur une description rapide des principales techniques.
• L’approche du spécialiste, fondée sur une présentation approfondie des méthodes indispensables à
une bonne maîtrise du domaine.
• L’approche du chercheur, reposant sur une analyse exhaustive et minutieuse des outils et
\/|
démarches d’études disponibles à ce jour.
$|
Nous avons délibérément opté pour une perspective de spécialiste, pour combler le vide qui existe
4$
entre les ouvrages d’introduction aux études de marché, forcément sommaires, et ceux orientés vers
la recherche, plus proches de préoccupations académiques.
By
Nous y avons ajouté un regard pragmatique : faire une étude de marché, c’est nécessairement
réaliser des compromis, compte tenu du budget, de la pression du temps et des exigences du client.
Nous nous attacherons à dégager les points forts et les limites des techniques, à formuler des
recommandations simples pour faciliter leur mise en œuvre. Nous souhaitons aussi faciliter
l’appropriation des résultats par les clients en montrant, pas à pas, comment formuler un bon projet
et comment interpréter les résultats d’une étude de marché.
Objectifs
Notre objectif majeur est de donner au lecteur un bagage méthodologique solide et une maîtrise
réelle du domaine des études, de façon à :
• Être capable de choisir la technique d’étude la plus adéquate, selon la nature du problème posé et
en fonction du coût et des difficultés de mise en œuvre.
• Pouvoir réaliser de bout en bout une démarche complète d’étude, depuis l’identification du
problème, en passant par la collecte et le traitement des données, jusqu’à la présentation et la mise
en œuvre du rapport d’étude.
• Savoir négocier avec un institut d’études de marché, bien gérer l’appel d’offres et comprendre les
recommandations formulées.
Notre volonté est d’atteindre ces objectifs en gardant un langage accessible au plus grand nombre,
mais sans transiger sur la nécessaire rigueur qui s’impose pour toute démarche d’étude sérieuse.
Cibles visées
À qui est plus particulièrement destiné cet ouvrage ? Notre positionnement le destine
prioritairement à trois types de publics :
• Les élèves des écoles de management et les étudiants des universités/IAE.
• Les chargés d’études en entreprise ou en institut.
• Les managers Marketing d’entreprise ou d’administration et les acheteurs d’études.
Une quatrième édition actualisée pour suivre l’évolution du marché des études
La troisième édition de ce manuel datait de 2012. Si nous ne souhaitons pas inonder le marché en
proposant de trop fréquentes mises à jour, plus proches d’un suivi de modes passagères que d’un
véritable progrès dans l’appréhension ou la compréhension des marchés et des comportements
d’achat, il est clair que, depuis cette date, l’environnement marketing et le monde des études ont
encore évolué. La pénétration de plus en plus massive d’Internet et des réseaux sociaux en ligne
obligent à remettre en cause certaines méthodes. Par ailleurs, de nouveaux instruments d’étude et de
\/|
nouvelles technologies digitales sont apparus. Enfin, les préoccupations en matière de coûts et les
$|
exigences des managers, confrontés à l’immédiateté et à l’urgence de la décision, modifient les
4$
Plan de l’ouvrage
Dans un souci pédagogique, l’ouvrage se structurera à la fois autour de ces quatre grandes étapes, et
adoptera la dichotomie utilisée par les professionnels qui distinguent la démarche qualitative et la
démarche quantitative lors de la phase de terrain et d’analyse des données. Le plan adopté est
retracé dans la figure de la page suivante qui servira de trame à ce livre.
\/|
$|
4$
By
Les quatre grandes phases d’une étude de marché
\/|
$|
4$
By
calculs statistiques, un guide statistique et un panorama des principales lois de distribution d’une
variable. Les corrigés des tests de connaissance y sont également proposés.
By
Première partie
\/|
$|
4$
By
By
4$
$|
\/|
Chapitre 1
Cadrage de l’étude
Dynamitez vos certitudes...
A. SOLÉ
Cadrer une étude c’est définir correctement le périmètre des investigations. Cela commence par une
analyse minutieuse du problème posé, puis, le cas échéant, par une reformulation. En effet, selon un
adage bien connu, un problème bien formulé est déjà à moitié résolu. Si tel est bien le cas, ce
chapitre montre au lecteur pourquoi bon nombre de problèmes ne sont finalement pas résolus de
manière satisfaisante...
Le chargé d’études néophyte est parfois surpris par la manière dont le problème est posé par le
\/|
manager : exprimé de manière vague, en quelques lignes, ou, au contraire, développé de manière
$|
excessive, embrassant des pans entiers de stratégie marketing. De manière surprenante, lors des
4$
discussions préliminaires, des suggestions concernant les résultats attendus sont parfois énoncées.
Nous verrons au cours de ce chapitre les raisons pour lesquelles la compréhension du problème,
By
puis la définition des objectifs de l’étude ne sont pas si faciles à réaliser. Comme le montre la
figure 1.1., nous réaliserons cela en deux temps : analyse du problème à résoudre, puis
compréhension de l’objectif de l’étude.
Figure 1.1. Plan du chapitre
\/|
$|
4$
des résultats.
– Le demandeur est généralement un dirigeant ou un cadre d’une organisation : entreprise,
administration, collectivité territoriale, association, syndicat, etc.
– Le réalisateur, appelé chargé d’études, est membre de l’organisation ou appartient à un institut
extérieur qui se voit confier l’étude. C’est l’expert technique, à la fois architecte, puisqu’il dessine
le plan de l’étude (la méthodologie), et conducteur de travaux, parce qu’il supervise chaque étape
de sa réalisation. Il faut ajouter que celui-ci peut, à son tour, sous-traiter une part de l’étude à un ou
plusieurs prestataires extérieurs : la réalisation du terrain (entretiens, réunion de groupe) et les
traitements statistiques sont souvent externalisés.
– L’utilisateur est variable : il peut s’agir des dirigeants ou des cadres qui sont à l’origine de la
demande initiale, mais aussi des clients ou des membres de l’organisation. Ainsi, les résultats des
études d’audience (radios ou télévisions) sont largement diffusés auprès des annonceurs et agences
publicitaires potentiels pour les convaincre de confier leur budget publicitaire.
A. Émergence du problème
Un problème surgit généralement quand un manager est confronté à une décision incertaine.
L’incertitude existe lorsque celui-ci envisage plusieurs solutions ou événements sans pouvoir
déterminer lequel est préférable. Or la valeur ajoutée de l’étude de marché est la réduction de
l’incertitude du décideur par la production d’informations utilisables pour résoudre un problème
spécifique. Les renseignements fournis permettent d’évaluer les risques associés à chaque solution,
par exemple :
« Quels sont les risques d’échec respectifs d’un lancement de produit effectué avec l’emballage A,
B ou C ? »
« Quel prix retenir pour le lancement : 1,50 euro, 1,75 euro ou 1,80 euro ? »
Dans cette perspective, un des critères d’appréciation de l’efficacité d’une étude réside dans sa
capacité à orienter le manager vers les « bonnes » décisions.
Lorsque le problème à résoudre atteint un seuil critique, c’est-à-dire quand le décideur perçoit que
les conséquences (financières, commerciales, organisationnelles, etc.) découlant d’un mauvais
choix seront néfastes et durables, l’étude s’impose comme une solution possible pour réduire les
risques.
La plupart du temps, le demandeur fournit une quantité d’informations suffisante pour guider le
chargé d’études. En effet, grâce à sa connaissance du marché et de l’environnement de son
entreprise, le manager a une idée ou une intime conviction sur les causes majeures du problème
rencontré. De ce fait, le néophyte a tendance à considérer qu’il s’agit là du véritable et unique
problème à résoudre. En s’arrêtant à cette première vision des choses, le chargé d’études risque
fort de partir sur une fausse piste. Après avoir sélectionné la méthodologie convenable, il peut
découvrir en cours de route que le véritable problème se situait ailleurs.
Exemple
Imaginons le cas suivant. Monsieur Businaisse est directeur général d’une importante
société de matériel hi-fi haut de gamme destiné aux mélomanes exigeants. Depuis
quelque temps, Monsieur Businaisse voit ses parts de marché s’éroder et son chiffre
d’affaires stagner. Il demande alors à Mademoiselle Jouvencelle, responsable de
recherche marketing, « une petite étude pour découvrir les causes de cette situation ».
Ainsi posé, le problème n’est pas directement soluble, car il ne permet pas d’orienter
les futures investigations. Pour répondre à cette question managériale, il existe en effet
un faisceau de réponses possibles qui constituent autant d’hypothèses de travail, donc
autant de sujets potentiels d’études.
En se fondant sur sa bonne connaissance des grandes surfaces spécialisées, acquise au
cours d’un emploi précédent, Monsieur Businaisse est persuadé que la mévente
actuelle vient d’un prix de vente public trop élevé par rapport à la concurrence. En
oubliant que cette information n’est qu’une simple hypothèse, Mademoiselle
Jouvencelle opte pour une méthode d’investigation fondée sur l’observation : elle
relève les prix pratiqués par les principaux concurrents dans les différents canaux.
L’analyse des résultats est claire : ce n’est pas un problème de prix. En formulant cette
conclusion, la chargée d’étude va probablement s’attirer la réflexion suivante :
\/|
« Alors, puisqu’il ne s’agit pas d’un problème de prix, vous allez certainement me dire
$|
maintenant quelle est la cause, que j’ignore toujours, de la mévente actuelle. Après
4$
Nous avons réuni, dans la figure 1.2., quelques exemples courants de préoccupations managériales
et leurs traductions possibles en questions d’étude. On notera la multiplicité des orientations
découlant d’une interrogation managériale en apparence fort simple. Une part importante du métier
de responsable d’études réside dans sa capacité à sélectionner « la » ou « les » bonnes questions
parmi une foule d’investigations possibles. Les rencontres préliminaires avec les demandeurs et
utilisateurs des travaux sont souvent indispensables pour effectuer une conversion correcte des
préoccupations managériales en choix d’étude.
Quand nous avons créé l’iTunes Music Store, nous l’avons fait parce que nous pensions que ce
serait bien de pouvoir acheter de la musique de manière digitale, pas parce que nous voulions
By
redéfinir l’industrie musicale. Je veux dire que c’est comme écrire sur un mur que toute la
musique devrait être distribuée de manière électronique. Cela semblait évident. Pourquoi
supporter un coût [de distribution] ? L’industrie musicale fait des profits énormes. Pourquoi
accepter cette charge quand vous pouvez simplement envoyer des électrons si facilement ? »
Plus précisément, les critiques formulées par les opposants aux études s’appuient sur deux
arguments :
a. Une contribution mineure des consommateurs
Cette réticence s’explique par la conviction que le consommateur formule difficilement ses attentes.
En outre, il lui serait très difficile d’imaginer les futurs possibles offerts par la technologie. Ceci
serait particulièrement vrai dans les secteurs faisant appel à des technologies innovantes ou à la
créativité : la mode (habillement, communication, culture, etc.), l’informatique, l’audiovisuel,
l’automobile, les biens et services industriels, etc. Dans ces domaines, l’interrogation d’acheteurs
potentiels n’apporterait que des « gazouillis » sans intérêt ou, à l’inverse, des propositions
irréalisables.
b. Une valeur ajoutée inférieure à celle offerte par l’intuition
managériale
Un grand nombre de « success stories » proclament que la réussite de leurs auteurs tient à leur
capacité à ne pas s’encombrer d’études et avoir su faire preuve de flair : tel manager est fier
d’annoncer qu’il ne fait aucune étude de marché parce qu’il n’y croit pas, tel autre raconte qu’il n’a
pas hésité à commercialiser avec le plus grand succès un produit pour lequel les études étaient
défavorables.
L’inconvénient de ce type de raisonnement, fondé sur quelques expériences, est qu’il est souvent
possible de fournir de nombreux contre-exemples. Ainsi, si le flash-étude 1.1. célébrait des
exemples de réussites d’Apple, le flash-étude 1.2. montre que même Steve Jobs a enregistré durant
sa carrière une longue série de revers. Ainsi, la meilleure intuition n’est jamais une garantie
absolue de réussite et, sur le long terme, l’apport des études de marché se révèle souvent supérieur
à celui de l’intuition pure.
\/|
$|
4$
By
Flash-Étude 1.2.
Quelques déboires marketing dus à l’absence d’études...
Voici quelques-unes des créations d’Apple qui furent des échecs notoires, car l’un ou l’autre des
éléments du marketing-mix n’était pas en adéquation avec les attentes des consommateurs. Ou
plus simplement, parce que les patrons successifs d’Apple, John Sculley puis Steve Jobs, de
retour dans l’entreprise en 1993, voyaient les choses comme cela...
Apple III. Créé en 1980 après le succès de l’Apple II, il s’adressait à une clientèle
professionnelle. Il dut sa disparition, quatre ans plus tard, essentiellement à cause de problèmes
de surchauffe. Parce qu’il en détestait le bruit, Steve Jobs n’avait pas voulu qu’il soit équipé
d’un ventilateur.
Macintosh portable. Lancé en 1989, son retrait intervient deux ans plus tard. Il coûtait
6 500 dollars et pesait plus de 7 kg. Une véritable méconnaissance des attentes des
consommateurs.
Newton. Ancêtre du Palm (l’organisateur de poche), ce produit, très en avance sur son temps,
sortit en 1993. Mais il souffrait de problèmes techniques importants : difficulté à reconnaître
l’écriture manuelle, lenteur décourageante et un prix jugé astronomique (1 000 $). Il fut retiré du
marché six ans plus tard. \/|
Macintosh TV. Premier Macintosh à tuner TV intégré, véritable hybride qui mêlait un téléviseur
$|
Sony Trinitron et un Apple Performa 520, il fut lancé en 1993. Il permettait de regarder la
4$
télévision, mais on ne pouvait pas l’utiliser en même temps en tant qu’ordinateur. Il était peu
évolutif et peu puissant. Produit à 10 000 exemplaires, il disparut six mois plus tard.
By
Pippin. Développée en partenariat avec le fabricant Bandai dans le courant de l’année 1996,
cette console vidéo ne disposait que d’une vingtaine de jeux à sa sortie. Elle ne réussit jamais à
s’imposer sur un marché ultra-concurrentiel où s’affrontaient déjà la Nintendo 64, la Saturn de
Sega et la PlayStation de Sony.
G4 Cube. Sorti en juillet 2000, ce nouveau micro-ordinateur proposait un design original en
forme de cube, avec une éjection verticale des CD, comme pour un grille-pain. Bien que ciblant
les professionnels, son prix était considéré comme trop élevé. Le Power Mac G4, plus
performant, l’éclipsa totalement. Le Cube fut retiré du marché environ un an plus tard.
À l’opposé, la co-création marketing considère que les consommateurs sont capables de formuler
des attentes innovantes et sont sources d’idées intéressantes pour de nouveaux produits ou services.
En effet, certains individus ressentent avant les autres des besoins particuliers (i.e. le « lead-
user »(3)) et ont des idées pour résoudre leur problème ; d’autres disposent d’une ouverture d’esprit
et d’un sens pratique pour imaginer facilement de nouvelles applications (i.e. le consommateur de
« nature émergente »(4)). Ces consommateurs sont des cibles intéressantes pour les études marketing.
Par ailleurs, le développement d’Internet et des réseaux sociaux permet de créer des plates-formes
interactives qui sont un creuset privilégié pour observer, tester, développer de nouveaux concepts
de produits ou services avec les clients de la marque. Cette co-création se fait sous la forme
d’appels à concours gérés par des instituts d’études ou au sein de communautés de marques(5).
Le flash-étude 1.3. montre l’intérêt d’une co-création marketing. De telles études de marché ne
reposent pas sur une interrogation unique d’un échantillon de clients. Elles mobilisent une série de
méthodes d’observation on line des pratiques, étalée sur plusieurs mois, un ciblage d’individus clés
et un processus d’interrogation des consommateurs récurrent et interactif.
Flash-Étude 1.3.
De l’utilité des études avec les consommateurs
Nivea a lancé en Allemagne en 2011 un nouvel anti-transpirant, baptisé « Invisible for black &
white » qui offre une solution à un besoin des consommateurs, hommes ou femmes, longtemps
non résolu. Ce produit évite les tâches jaunâtres sur les vêtements blancs et les auréoles blanches
sur les vêtements noirs dues à une transpiration excessive. Ce nouveau produit a été co-créé avec
les consommateurs à la suite d’un appel à concours de la marque Nivea qui a été géré par Hyve,
un institut d’études spécialisé. Plus de 700 idées et solutions pour résoudre les problèmes de
transpiration ont été recueillies. Les suggestions les plus intéressantes ont fait l’objet d’un
processus d’interaction continu entre les consommateurs et les services R & D internes de
Nivea, durant les différentes phases de mise au point du produit.
\/|
$|
En 2006, Nike lance une nouvelle chaussure Nike+, en partenariat avec Apple(6). Ce nouveau
produit intègre un capteur intelligent, inséré dans la chaussure, capable de communiquer avec un
4$
développé une plate-forme interactive sur Internet où les membres téléchargent leurs données
personnelles : objectifs, distances parcourues, durée, nombre de calories brûlées, etc. Des
applications dérivées de Google Maps permettent de tracer de nouveaux parcours, de les
visualiser et de les diffuser dans le monde entier. Les informations sont fournies par un simple
téléchargement des données contenues dans le capteur. Un réseau mondial de parcours, créé par
les 600 000 membres de la communauté issus de 170 pays, est disponible, couvrant tous les
coins du globe. Le site comporte une partie musicale, où chacun peut publier sa « play-list »
préférée pour tel ou tel parcours, la possibilité d’un coaching personnalisé pour atteindre tel ou
tel objectif, des stages à des prix négociés, etc. Les données montrent les différents types de
parcours, les températures et conditions météo lors des sorties, le type de musique le plus adapté
à telle ou telle expérience, et permettent d’apprendre que la durée moyenne d’un jogging est de
35 minutes Le marketing regarde ce laboratoire vivant où chacun crée, expérimente et partage.
Nike comprend ce qui fait sens dans les expériences et offre sur la plate-forme des moyens
techniques pour stimuler ces co-créations. Il est à l’affût des nouvelles tendances, connaît les
préférences des consommateurs et leurs évolutions, ce qui lui permet de concevoir les produits
les plus adaptés. En 2007, Nike captait 57 % du marché américain de la chaussure de course,
contre 47 % en 2006 ; en 2009, sa part de marché atteignait 67 %.
elles ne peuvent prétendre à la suppression du risque. Par exemple, les méthodes quantitatives
fondées sur un échantillonnage aléatoire suivent la loi des grands nombres qui assortit toute
By
estimation d’une « marge de fluctuation » statistique. Ainsi, les marchés tests simulés, utilisés pour
prévoir les ventes et parts de marché d’un nouveau produit, ont une précision moyenne d’environ
10 %. Il n’en demeure pas moins que ce score est nettement supérieur à celui que l’on obtiendrait,
en moyenne, avec des prévisions fondées sur le seul « flair » du manager.
C. Clarification du problème
Comment faciliter cette clarification ? Nous proposons une démarche en deux temps : connaître les
sources habituelles de difficultés, déterminer le niveau de décision auquel se situe l’étude.
c. L’enchevêtrement
L’expérience montre que l’efficacité ultérieure de l’étude de marché dépend en grande partie du
\/|
soin avec lequel le problème initial a été décomposé en sous-parties. Ce travail préliminaire
$|
facilite la compréhension d’un problème complexe. Le groupe Danone, après l’audit d’un
4$
échantillon de 88 études réalisées pour son compte, a observé que la cause de la mauvaise qualité
de ces dernières venait, dans 20 % des cas, d’un problème initial mal formulé(11).
By
Exemple
Soit, par exemple, la préoccupation suivante : « Comment réaliser une campagne de
publicité efficace ? » Toute une série d’études sont envisageables si l’on ne répond
pas clairement aux questions suivantes :
– Faut-il mesurer cette efficacité par l’image de marque ou par la notoriété
spontanée ?
– Doit-on définir un budget publicitaire optimal ou arbitrer entre divers plans médias ?
– S’agit-il de choisir un axe de communication ?
Traitement du
Décision tactique Décision stratégique
problème
Rapide. Lente.
Perception du problème Problème manifeste. Problème latent.
Facilement identifié. Nécessité d’un diagnostic.
Niveau d’incertitude Très faible à assez grand. Très grand.
Faciles à recenser. Difficiles à cerner.
Identification des solutions
Connues lors de la décision. Certaines options sont inconnues.
d’informations, plus grandes seront les chances que l’étude produise des résultats efficaces. Cette
logique n’est pas toujours respectée, car parfois les objectifs réels des acheteurs d’études ne sont
By
pas faciles à avouer ; en outre, l’utilisation des résultats peut prendre des aspects surprenants.
A. Principaux obstacles
Nous avons vu que le but le plus courant assigné à l’étude de marché est la réduction de
l’incertitude pour faciliter la prise de décision. En réalité, les finalités d’une étude sont multiples.
1. Information ou décision
Le postulat de départ : « l’étude doit apporter une meilleure information pour une meilleure
décision » tend à être transformé en « toujours plus d’informations », d’où le risque de
surinformation. Ce fait pose deux questions : l’information sert-elle à décider et aide-t-elle à
décider ? Certains travaux montrent que, beaucoup plus souvent que l’on ne croit, le manager
demande de l’information « non pas pour décider, ou pour mieux décider, mais au contraire pour ne
pas décider(13) ». La collecte d’informations demande du temps, et donc permet d’obtenir un délai
supplémentaire de « réflexion » vis-à-vis de la décision à prendre. Lorsqu’elle est achevée,
l’analyse débouche généralement sur la conclusion que le problème est « complexe », que les
solutions envisagées au départ sont risquées, qu’il convient de faire preuve d’une grande prudence,
les informations disponibles sont contradictoires ou incomplètes... bref, les études peuvent
légitimer l’absence de décision.
2. Finalités multiples de l’étude
Les recherches portant sur le processus de prise de décision montrent que les acteurs d’une
organisation poursuivent des objectifs complexes, parfois contradictoires avec l’objectif rationnel
attribué au départ à l’étude. L’investigation devient une « pseudo-recherche » dans les situations
suivantes(14) :
– Acquisition ou conservation d’un pouvoir. Ces motifs sont justifiés par des considérations de
politique interne à une organisation.
– Promotion d’un service ou d’une personne. Il s’agit de montrer que l’on ne reste pas inactif face à
une situation donnée. Le simple fait de recueillir des informations a plus d’importance que les
conclusions.
– Satisfaction personnelle. Un manager entreprend une étude pour se faire plaisir ou pour se
rassurer.
Phases du
processus Manager Chargé d’études
de décision
– Interprétation selon des
– Floue. schémas théoriques.
Formulation initiale – Hypothèses établies selon ses – Développe des relations entre
du problème contraintes et selon une vue plus des variables (modélisation).
ou moins partielle de la réalité. – Cherche les hypothèses
implicites du décideur.
– Langage formalisé ou
– Langage qualitatif. scientifique, culture spécialisée.
– Culture générale. – Raisonnement global, souci de
– Raisonnement sur des exemples la représentativité.
Clarification du problème
locaux. – Simplifie, décompose, réduit.
– Urgence conditionne le temps – Exigence de la qualité
disponible pour l’étude. scientifique détermine le temps
nécessaire à l’étude.
\/|
– Accorde peu d’intérêt aux
$|
– Accorde peu d’intérêt au
circonstances qui ont motivé
4$
déroulement de l’étude.
l’étude.
– Peut contrôler la démarche en
– Situation de conseiller,
By
objectifs sont clairs et la recommandation est considérée comme un jugement. La méthodologie et les résultats seront passés au crible
et probablement contestés par l’une ou l’autre des parties prenantes.
By
\/|
$|
4$
By
Exemple
Poursuivons l’exemple pris au début de ce chapitre. Pour faciliter l’établissement du
diagnostic marketing, Mademoiselle Jouvencelle doit examiner quelques-unes des
pistes suivantes, considérées comme causes potentielles de la baisse des ventes, avant
d’entreprendre toute démarche d’étude :
1 – Action de la concurrence : baisse des prix de vente, forte hausse des budgets de
publicité, lancement de nouveaux produits, etc.
2 – Mauvais choix de positionnement du produit : cible visée en déclin,
communication incohérente, prix inadapté, etc.
3 – Problème d’image : baisse de la satisfaction des acheteurs, production de
mauvaise qualité, communication insuffisante ou pas comprise.
4 – Problème de force de vente ou de distribution : vendeurs peu motivés,
argumentaire de vente à revoir, marge des distributeurs insuffisante, etc.
5 – Organisation d’entreprise : système d’information inopérant, structure inadaptée,
absentéisme du personnel provocant des retards, climat social tendu, etc.
6 – Évolution des comportements d’achat : marché globalement en déclin, apparition
\/|
d’autres concurrents indirects : chaîne hi-fi intégrée dans les micro-ordinateurs,
$|
baladeurs, TV et vidéo.
4$
Outre l’exactitude du diagnostic marketing, la formulation des questions d’étude peut nécessiter la
recherche d’informations complémentaires pour délimiter et hiérarchiser les problèmes posés :
différentes techniques sont utilisables, telles que l’analyse documentaire, l’utilisation des panels,
les rencontres avec les commanditaires de l’étude. Ces différentes investigations préliminaires sont
traitées dans le chapitre suivant. Lorsque le chargé d’études dispose de ces informations, la fixation
des questions d’étude ne pose pas de difficulté majeure. Nous proposons, dans la fiche
technique 1.1., un exemple d’application illustrant les différentes phases de ce travail(17).
Les développements précédents révèlent que le succès de l’étude dépend en grande partie de la
qualité de la collaboration entre les partenaires. La figure 1.7. présente le partage des
responsabilités entre le manager et le chargé d’études pour un bon cadrage de la future étude. La
validation du diagnostic marketing est au cœur du processus de cadrage. Elle élimine les fausses
pistes d’études, c’est-à-dire les études inutiles car elles n’apporteront pas de valeur ajoutée au
manager. En second lieu, elle permet de hiérarchiser les questions d’étude, en évitant la
prolifération de questions secondaires, souvent coûteuses et finalement peu utiles pour les
décisions ultérieures. Enfin, la rédaction du projet d’étude est facilitée par un diagnostic marketing
clair et précis.
Figure 1.7. Partage des responsabilités pour le cadrage d’une étude
\/|
$|
4$
By
Le lecteur sera peut-être surpris par l’importance que nous avons donnée à la phase de cadrage de
l’étude. Il est vrai que dans la pratique, faute de temps ou par excès de confiance, cette étape est
rapidement parcourue, voire carrément occultée, au profit des questions ultérieures de collecte et
d’analyse des données. Mais les conséquences d’un cadrage raté, voire d’une absence d’étude
préliminaire, sont toujours dommageables pour l’entreprise. Le flash-étude 1.4. qui revient sur
l’échec du lancement du New Coke et sur le retrait prématuré d’Artic Coca le montre clairement.
Flash-Étude 1.4.
De l’étude mal cadrée à l’absence d’étude : échec du New Coke et retrait prématuré
de l’Artic Coke(18)
Le marketing de Coca-Cola est réputé pour être l’un des meilleurs du monde. Pourtant, l’échec
du lancement du New Coke en 1985 est resté célèbre et a souvent été présenté comme un
exemple d’une défaillance des études de marché. Le recul et les différents audits montrent
aujourd’hui que les causes résident en grande partie dans une mauvaise formulation des
questions d’étude. Un quart de siècle plus tard, en 2011, Coca apporte son obole au marketing
durable en changeant la couleur de sa célèbre canette et en s’engageant à verser 3 millions de
dollars au WWF. En apparence, il n’y a aucune raison d’envisager une étude sur la perception du
nouveau packaging, puisqu’il s’agit d’une opération caritative qui, de surcroît, est limitée dans le
temps. Et pourtant, cela aurait été nécessaire...
révèle que l’origine du problème réside dans la médiocre perception du goût. Ainsi, le succès de
Diet Coke (sans sucre) s’expliquerait par une plus grande proximité de saveur avec Pepsi que le
By
Coke standard. La mise au point d’une nouvelle formule est urgente. Près de 200 000 personnes
sont soumises à des tests de produit en aveugle (évaluation du produit sans la marque Coke) et en
identifié (avec la marque), pour un coût total de 4 millions de $. En septembre 1984, le succès
est à portée de main : une nouvelle formule, testée en aveugle, obtient des écarts significatifs (6 à
8 points) par rapport à Pepsi qui surpasse lui-même le Coke standard de 10 à 15 points.
L’amélioration entre l’ancien et le nouveau Coke est indéniable : 18 points en moyenne. Le
23 avril 1985, New Coke est lancé en fanfare et la production de l’ancien produit cesse à la fin
de la semaine. Pourtant, durant le mois de juin, les consommateurs de l’ancien Coke manifestent
de façon virulente leur hostilité au nouveau Coke : un marché noir s’organise, 60 000 appels
assaillent le standard de Coca-Cola ; plus surprenant, de nouveaux tests en identifié donnent des
évaluations très négatives pour New Coke, du genre « eau de vaisselle », « cire pour meuble »,
« Pepsi ouvert depuis deux jours », etc.
Le 11 juillet 1985, au cours d’une conférence de presse spéciale, Donald Keough annonce le
retour de l’ancien Coke et révèle indirectement la faille des études : « Le simple fait que tout ce
temps, cet argent et ces compétences aient été dépensés dans la recherche marketing ne pourrait
mesurer ou indiquer la profondeur de l’attachement émotionnel ressenti par tant de personnes au
Coca-Cola original. Cette passion, oui c’est bien le mot, nous a réellement surpris. C’est un
mystère merveilleux, une énigme américaine bouleversante, et vous ne pouvez mesurer cela, de
même que vous ne pouvez mesurer l’amour, l’orgueil ou le patriotisme. » L’erreur stratégique
des études de marché précédentes est là : en fait, la vraie question d’étude n’était pas
d’« évaluer la préférence des consommateurs pour la nouvelle ou l’ancienne formule », mais
plutôt de « déterminer la préférence pour le nouveau produit, sachant qu’il doit remplacer
l’ancien ». Le capital de marque lié à l’ancien produit est énorme, puisqu’il renvoie au drapeau
américain, à Roosevelt ; certains interviewés parlent de « violation de la liberté de choix » et
font référence à la déclaration d’indépendance !
Cette décision spectaculaire est suivie d’effets stupéfiants : très rapidement, le Classic Coke
dépasse les ventes du New Coke et rattrape Pepsi dès le début de 1986 ; quant au New Coke, sa
part de marché atteint 3 % en 1986 et, même s’il est rebaptisé Coke II en 1990, ses ventes
sombrent : 0,1 % en 1997. Et pourtant, en test en aveugle, le goût de New Coke surpassait
largement celui de Classic Coke...
d’un million de dollars. Mais, le 3 décembre 2011, l’opération est stoppée brutalement, suite à
de nombreuses plaintes de consommateurs qui confondaient la canette spéciale arctique, avec les
By
canettes argentées de Coca Light ; d’autres indiquaient que le goût du Coca classique était
différent dans ces canettes blanches, d’autres enfin considéraient que toucher à la célèbre canette
rouge relevait du sacrilège...
Conclusion
La première phase des réflexions nécessaires pour un bon cadrage de l’étude de marché est
achevée. Nous avons montré que la formulation du problème, primordiale pour l’efficacité de
l’étude, comportait nombre de difficultés.
Il ne faudrait cependant pas en déduire trop rapidement que toutes les formulations sont complexes
et nécessitent un flair digne de Sherlock Holmes. La plupart du temps, le problème est clairement
posé, le diagnostic marketing a été validé avec soin, les questions d’étude sont bien délimitées.
Dans un tel cas, le chargé d’études peut directement passer à la rédaction du projet, à condition
qu’il dispose d’une bonne connaissance générale du marché correspondant aux produits ou services
qui font l’objet de l’étude. Mais dans le cas contraire, il doit, préalablement à la rédaction du
projet, engager des études documentaires préliminaires. Ce sera l’objectif du prochain chapitre.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Les questions managériales et questions d’étude sont le plus souvent :
(1) identiques
(2) voisines
(3) différentes
Q2. L’étude de marché conduit le plus souvent :
(1) au maintien de l’incertitude
(2) à la réduction de l’incertitude
(3) à la suppression de l’incertitude
Q3. Les objectifs de l’étude, le plus souvent :
(1) sont clairement formulés par le demandeur
(2) sont vaguement formulés par le demandeur
\/|
(3) ne sont pas du tout formulés par le demandeur
$|
4$
Q4. Pour une étude traitant d’un problème stratégique, les solutions à adopter sont :
(1) connues et faciles à recenser
By
Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
no 134, 1991/4, pp. 35-49.
FAIVRE J.-P., « Des études classiques aux études stratégiques », Revue française du marketing,
no 142-143, 1993/2-3, pp. 75-88.
FLORES L., « Web 2.0 et études de marché : vers une nouvelle génération d’études de marché ? »,
Revue française du marketing, no 220, 2008, pp. 7-16.
GILLES M., « Le consommateur change, les études aussi. État des lieux après la tempête », Revue
française du marketing, no G201, 2005, pp. 111-126.
LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
NICHOLSON P., « Marketing : réconcilier les hommes d’études et les décideurs », Revue française
de gestion, no 61, janvier/février 1987, pp. 22-32.
SMITH S.M., « Research and pseudo research in marketing », Harvard Business Review, avril 1974,
pp. 73-76.
SOLE A., « L’information aide-t-elle la décision ? », Revue française du marketing, no 142-143,
1993/2-3, pp. 89-96.
WALISER B., « Évaluation des études d’aide à la décision dans les administrations centrales », « Le
processus de décision dans les organisations », Journée d’études AFCET, Paris, 1980.
\/|
$|
4$
By
Chapitre 2
Études préparatoires
Je ne crois pas qu’avoir étudié soit
une si grande chose, si l’on n’étudie plus.
Alain
Les travaux préliminaires ne sont généralement guère appréciés par les clients et les chargés
d’études. Les premiers, pas toujours convaincus de l’utilité de l’opération, considèrent qu’il s’agit
là d’une source de retard imputable à l’inexpérience du réalisateur de l’étude. Les seconds, plus
favorables à cette perspective, seraient prêts à y consacrer le temps nécessaire, mais les contraintes
de leur planning militent pour une réduction, voire une suppression, de ces travaux.
\/|
Pourtant l’étude préparatoire facilite souvent la compréhension du problème et précise les
$|
directions pour les investigations ultérieures. Cette étape affine, voire modifie, le cadrage initial du
4$
problème, et oriente plus clairement le projet d’étude (voir figure 2.1.). Nous verrons d’abord les
diverses catégories d’informations utiles et les solutions envisageables pour une étude préliminaire.
By
Puis nous présenterons les différentes méthodes permettant une recherche rapide de ces éléments.
Enfin, nous consacrerons une dernière partie au fonctionnement des panels, sources privilégiées
d’approfondissement des informations existantes.
Figure 2.1. Plan du chapitre
\/|
$|
4$
By
Caractéristiques de
Type de circonstances
l’étape
– Formulation claire du problème.
Facultative – Existence d’un diagnostic marketing solide.
– Questions d’étude précises ou routinières.
– Formulation vague du problème.
– Possibilité de pistes d’étude multiples.
– Méconnaissance de l’environnement de l’étude
Préliminaire
(concurrence, produits, consommateurs, législation, etc.).
(orientation du projet d’étude)
– Apprentissage d’un vocabulaire spécifique (préparation
d’un questionnaire).
– Recensement d’hypothèses ou de scénarios d’études.
– Point rapide sur une question urgente ou importante.
Finale – Estimer l’importance d’un problème ou la nécessité
d’un approfondissement.
\/|
1. Étape facultative (ou inutile)
$|
Un problème clairement posé ou bien délimité et bien maîtrisé par le chargé d’études, par exemple
4$
dans le cas de travaux routiniers, rend cette étape inutile. Ces conditions sont fréquentes pour une
décision relevant de la tactique : par exemple, le choix d’un emballage, d’une publicité, d’un nom
By
de marque. Dans ce cas, on passe directement à l’étape suivante, c’est-à-dire la rédaction du projet
d’étude.
2. Étape préliminaire
Si la formulation du problème est floue ou complexe, il est utile de rechercher les informations déjà
existantes pour cerner plus facilement le périmètre de l’étude ultérieure et pour choisir une
méthodologie adéquate pour les investigations ultérieures. De même, si on hésite entre plusieurs
directions, pour des raisons évidentes de coût et de temps, il n’est guère possible d’engager une
étude complète sur chaque piste. Dans ces conditions, l’étude préliminaire est indispensable pour
débroussailler rapidement chaque axe, puis justifier la direction qui devra être approfondie. Cette
étape sert de fondation au futur projet.
3. Étape finale
Dans d’autres circonstances, l’étude préliminaire se suffit à elle-même ; elle donne lieu à la
rédaction d’un rapport de synthèse qui répond au problème initial. Tel est le cas lorsqu’une
entreprise souhaite connaître l’environnement d’un marché pour évaluer l’opportunité d’une
diversification ou d’un rachat de concurrent. Si les opportunités identifiées n’apparaissent pas
intéressantes, les investigations s’arrêtent là ; dans le cas contraire, la pré-étude permet de justifier
l’engagement ultérieur d’un budget plus important pour approfondir le marché.
B. Nature des informations à identifier
Il existe trois catégories d’informations (voir figure 2.3.). Selon le problème, le chargé d’études
privilégiera l’une ou l’autre.
1 – Primaires : les informations sont obtenues par interrogation ou observation directe d’individus.
Ces données de « première main » sont collectées durant la phase de terrain d’une étude
quantitative ou qualitative ad hoc.
2 – Secondaires : les informations résultent de l’accumulation de connaissances antérieures au
problème étudié. Elles préexistaient à l’étude, d’où leur appellation de données de « seconde
main ». L’analyse documentaire se nourrit d’informations secondaires.
3 – Paramétrées : les informations simulent différentes réalités. Introduites dans des modèles, leur
variation permet de juger les résultats de plusieurs scénarios. Les marchés-tests simulés (MTS)
fonctionnent ainsi.
Figure 2.3. Nature des sources d’information
Nature des
Définitions Exemples
informations
– Informations spécifiquement élaborées pour
\/| – Interviews de
répondre aux objectifs de l’étude en cours.
$|
Primaires consommateurs.
– Elles sont collectées auprès de
– Observations d’achats.
4$
« répondants ».
– Informations de « seconde main », c’est-à- – Statistiques de ventes.
By
2. Omnibus
L’omnibus est une étude périodique, hebdomadaire ou mensuelle, réalisée par une société de
conseil pour le compte de plusieurs clients (multi-souscription). La population enquêtée est parfois
la même d’une étude à l’autre, mais les questions posées sont différentes. Chaque client achète le
droit de poser une ou plusieurs questions. Les données recueillies font l’objet de quelques analyses
simples avant leur livraison. Il n’est pas, en principe, possible d’obtenir les résultats des questions
posées par les autres souscripteurs. Les médias (presse et télévision) sont de gros consommateurs
d’études omnibus : il suffit d’acheter cinq ou six questions pour bâtir un article autour d’un sondage
« exclusif ». L’intérêt de l’omnibus tient dans sa rapidité de réponse : un à deux jours avec un
sondage par Internet, trois ou quatre jours par téléphone, trois à quatre semaines si l’interview est
réalisée au domicile des enquêtés. Véritable tude « à la carte », l’omnibus fournit une réponse
rapide à un problème simple. \/|
3. Panel
$|
4$
Sur le plan statistique, un panel est un échantillon sur lequel on effectue des mesures répétées à
intervalles réguliers et dans des conditions similaires ; par extension, on donne le nom de panel à la
By
4. Baromètre
L’étude barométrique suit périodiquement l’évolution d’indices propres à une marque, un produit ou
un secteur d’activité. Généralement, ce ne sont pas les mêmes personnes qui sont interrogées, mais
elles sont issues d’une même population. Les questions sont les mêmes d’une enquête à l’autre. Là
encore, la lourdeur de gestion conduit à une sous-traitance auprès d’instituts spécialisés. L’achat se
fait par souscription collective : plusieurs clients achètent tout ou une partie des résultats.
Les baromètres calculent quelques valeurs pour synthétiser une activité quelconque. La cote de
popularité des hommes politiques constitue un exemple connu : tous les mois, un échantillon de
répondants indique s’il se sent « proche ou éloigné » d’une liste d’hommes politiques. On compare
ainsi l’évolution des scores, mois par mois. D’autres baromètres contrôlent la satisfaction d’une
\/|
clientèle ; les compagnies aériennes, les chaînes hôtelières et les entreprises de location de voitures
$|
utilisent ces informations pour ajuster leurs actions marketing. D’autres enfin suivent de la
conjoncture économique : moral des ménages, confiance des chefs d’entreprise, etc.
4$
C’est une étude réalisée pour le compte d’un seul client, dont l’objectif est d’évaluer les chances de
succès commercial d’un produit(19). Le marché-test est ici simulé : à la différence d’un panel-test où
l’on observe des ventes réelles, les achats sont fictifs, car ils ne donnent pas lieu à un véritable
paiement. Ils sont effectués dans un laboratoire qui reconstitue à l’identique un ou plusieurs rayons
d’un point de ventes. On applique un modèle quantitatif aux données recueillies (comportement
d’achat et questionnaire spécifique au produit testé) pour prévoir les ventes futures. Tout comme
pour le marché test réalisé sur un panel, on extrapole les futures ventes et/ou parts de marché au
niveau national. La précision est comparable à celle des panels-tests : de l’ordre de plus ou moins
10 %. Le marché-test simulé est proche de l’étude ad hoc, puisqu’il s’adapte au besoin spécifique
d’un client, mais il s’en différencie dans la mesure où la procédure d’étude est standardisée.
6. Synthèse
La figure 2.4. présente les points communs et les différences des diverses techniques.
Figure 2.4. Comparaison des techniques d’études
\/|
$|
4$
By
\/|
$|
a. Sources internes
4$
Déjà disponibles dans l’entreprise, ces sources touchent à l’environnement interne ou externe de
By
l’entreprise ; une partie d’entre elles forme le système d’information marketing et figure dans le
tableau de bord. Leur localisation est parfois délicate, car elles sont dispersées dans un grand
nombre de fichiers : commercial, marketing, comptable et financier, etc. (voir figure 2.6.).
L’analyste doit restructurer les informations en fonction de l’objectif de l’étude documentaire.
Figure 2.6. Types d’informations fournies par les sources secondaires
Nature Producteurs de
Nature de l’information
des sources l’information
Chiffres d’affaires, parts de marché –
Gamme de produits, catalogues –
Liste des points de vente – Publicités
Services commerciaux et marketing.
passées, salons – Prix publics
(concurrence) – Études de marché
antérieures.
Fichiers facturation clientèle – Tarifs,
Sources internes Services financiers et juridiques. remises – Coûts de revient produit –
à l’entreprise Délais de règlement, contentieux.
Services du contrôle qualité et Rotation des stocks, délai livraison.
logistique. Taux de rebut et défauts, retours des
produits.
Coût du personnel et rotation –
Services des relations humaines et
Journaux internes. Dossiers de presse,
extérieures.
rapports d’activité.
Statistiques et indices macro-
Organismes mondiaux et
économiques, sociodémographiques –
communautaires.
Flux d’échanges (import-export).
État, ministères, Insee.
Analyses industrielles.
Analyses sectorielles nationales et
Chambre de commerce, COB. Greffes régionales – Études commerciales et
tribunaux. financières – Bilans et comptes de
résultats (SA, SARL).
Bibliothèques universitaires et Ouvrages, périodiques.
communales. Statistiques Insee.
Bases d’informations privées. Rapports de stage, mémoires, thèses.
Prix concurrents, présence en linéaire
Distributeurs.
– Arguments de vente, PLV.
\/|
Chiffres d’affaires (agrégés) du
$|
secteur – Études de tendance :
4$
professionnels.
Annuaire des exposants – Tendance
Salons, foires, expositions. économique du secteur – Nouveaux
produits.
Études sectorielles et d’entreprises
Presse professionnelle et presse des
(chiffres d’affaires, part de marché) –
affaires.
Produits actuels et futurs. Annuaires.
Journaux internes – Dossiers de
Presse d’entreprise (concurrents). presse sur les produits. Rapports
d’activité.
Études sectorielles – Interrogation des
Sociétés de conseils. banques de données – Veille
concurrentielle et technologique.
Avis et recommandations sur les
produits et marques (bouche-à-
Blogs, forums, sites web,
oreille), informations personnelles
communautés on line.
(opinions), attentes, usages et
transformations de produits.
Avis, recommandations, défaillances
de produits ou marques (bouche-à-
Réseaux sociaux.
oreille), informations personnelles,
modalités et lieux et fréquence de
consommation.
Jusqu’au début des années quatre-vingt-dix, les informations étaient produites sur un support papier
et archivées par le service émetteur. L’interconnexion des réseaux informatiques de l’entreprise, via
un système local intranet, offre aujourd’hui de nouvelles perspectives, car la totalité des fichiers
devient accessible au sein de l’entreprise. Dans un second temps, via un site Internet sécurisé,
chaque membre de l’entreprise peut accéder, à tout moment et du monde entier, au serveur de
l’entreprise pour y rechercher les informations dont il a besoin. Différents systèmes assurent le
filtrage des utilisateurs et la protection contre les attaques externes. Ces interconnexions de fichiers
nécessitent une restructuration des bases de données pour s’adapter aux demandes d’informations
multiples et hétérogènes.
Les principaux indices et ratios disponibles sont les suivants :
– Chiffre d’affaires (valeur et volume)
Ventilation par produit, pays, région, canal, vendeur. \/|
Calcul des variations annuelles, comparaison avec la concurrence.
$|
– Part de marché (valeur et volume)
4$
– Budget publicitaire
Décomposition par produit (en % du chiffre d’affaires).
Part de voix.
– Veille concurrentielle
Prix publics (relevés de prix), barèmes et remises accordées aux distributeurs.
Gammes (catalogue), fiche technique, mode d’emploi.
Date des derniers lancements de produits, positionnements retenus.
Variation des parts de marché et chiffres d’affaires.
Pige des budgets publicitaires.
– Résultats des études antérieures
Notoriété et image de marque, attentes et taux de satisfaction des clients.
Segmentation du marché : poids, évolution.
Taux de retour des produits, réclamations clients.
Rapports de vente trimestriels, comptes rendus de salons (tendance de la profession).
– Rentabilité produits ou marques
Contribution aux frais fixes, marges brute et nette.
b. Sources externes
Elles se répartissent en cinq grandes catégories :
1 – Sources publiques ou parapubliques
Eurostat, Insee, chambres de commerce, douanes, Banque de France, chambres syndicales des
entreprises sont quelques-unes de ces sources. Elles sont quasi gratuites et fournissent la plupart
des données économiques, sociales et démographiques de base.
2 – Sources professionnelles et associatives
La presse professionnelle édite de nombreux périodiques couvrant un secteur d’activité ou un
métier spécifique : par exemple, Libre Service Actualités pour la grande distribution, CB News
pour la publicité, Marketing Magazine pour le marketing. Les associations professionnelles
(ADETEM ou l’AFM en marketing) émettent des annuaires professionnels ou gèrent leur propre
centre de documentation. Les comités d’organisation des différents salons professionnels éditent
des dossiers de presse complets sur le secteur d’activité (tendance de la conjoncture, part de
marché, nouveaux produits et technologies, etc.).
3 – Sources commerciales
\/|
Les consultants (Forrester Research, eConsultancy, Fla Consultants,etc.), les instituts spécialisés
$|
dans la veille concurrentielle (Bipe, Credoc, Dafsa, Eurostaf, Euromitor, Xerfi, etc.), les sociétés
4$
d’études en marketing digital (ex. : eMarketer) proposent des études sur les marchés du monde
entier. La réponse est immédiate par téléchargement d’études ou de rapports déjà rédigés. D’autres
By
http://www.ebscohost.com
Science-direct
By
http://www.sciencedirect.com/
Selon les cas, on obtient le texte complet ou un résumé de l’article. À noter que certains éditeurs de revues ou
associations scientifiques proposent d’acheter à l’unité les articles par paiement direct en ligne sur leur site
propre.
Le moteur de recherche Google Scholar, proposé par GoogleŽ 6, permet de localiser, puis d’accéder aux sources
et contenus d’articles et d’ouvrages scientifiques disponibles sur Internet. Il bénéficie de la qualité de
l’algorithme Page Rank propre à Google et donne la possibilité de télécharger gratuitement un nombre très
important de textes complets au format PDF.
3 – Vous recherchez des informations sur un marché ou un concurrent ?
Un grand nombre de sociétés d’études sont spécialisées sur la veille documentaire et réalisent régulièrement
des études documentaires sur un très grand nombre de marchés. Ces sources sont payantes. On peut trouver
une liste de ces ressources sur des sites internet personnels orientés vers la veille marketing, tels Intelligence
center http://c.asselin.free.fr/french/etude-de-marche.htm. Voici, parmi d’autres, quelques sociétés
spécialisées dans la réalisation d’études sectorielles :
Bipe (http://www.bipe.fr/)
Credoc (http://www.credoc.fr/)
Dafsa (http://www.ihsglobalinsight.fr/)
Euromonitor (http://www.euromonitor.com)
Eurostaf (http://www.eurostaf.fr)
Forrester (http://www.forrester.com/rb/research)
Xerfi (http://www.xerfi.fr/)
Voici un exemple de la page d’accueil du site Internet de cette dernière société, leader en France des études
sectorielles.
\/|
$|
4$
4 – Vous recherchez des résultats de sondages en marketing (ou sur d’autres thèmes) ?
Parmi d’autres, l’Institut Ipsos propose gratuitement sur son site une banque de sondage
(http://www.ipsos.fr/sondages). Celle-ci offre la possibilité de combiner plusieurs critères (dates, thèmes, type,
By
En résumé, l’analyse documentaire est une technique flexible capable de s’adapter à une grande
diversité de problèmes. Internet décuple sa puissance et sa capacité de réactivité. Cependant, quel
que soit le support d’investigation, la méthode n’est pas infaillible : la figure 2.7. résume ses
avantages et ses inconvénients.
\/|
$|
Figure 2.7. Évaluation d’une analyse documentaire
4$
Avantages Inconvénients
By
Trois types de personnes sont susceptibles d’être interrogés par le chargé d’études durant
By
ces rencontres : les demandeurs de l’étude, les distributeurs et les prescripteurs. Nous avons listé
dans la figure 2.8. les principales informations que l’on peut obtenir auprès de chacun de ces
interlocuteurs.
Figure 2.8. Préparation d’une réunion de calage
En pratique, des obstacles ou des situations particulières rendent ces informations parfois difficiles
à obtenir :
1 – Budget d’étude faible : pour de petits budgets (2 000 à 4 000 euros), une société d’étude ne peut
consacrer beaucoup de temps à ces entretiens, sous peine de travailler avec une marge négative.
2 – Contrainte de temps : il arrive fréquemment que les partenaires ne puissent dégager le temps
nécessaire à ces rendez-vous. L’un freine parce qu’il a d’autres études en cours, l’autre parce qu’il
souhaite que l’étude commence au plus tôt ou parce que son agenda est déjà surchargé.
3 – Objectifs d’étude inavouables ou obscurs : nous avons vu dans le chapitre précédent qu’il
existe de nombreux cas où les objectifs réels d’une étude de marché sont assez éloignés du
traditionnel but de « réduction de l’incertitude pour faciliter la prise de décision ».
La figure 2.9. liste un ensemble de questions à poser pour mieux cerner les objectifs et la
problématique du demandeur d’étude. Les réponses faciliteront grandement la rédaction du projet
d’étude.
Figure 2.9 Check-list pour cadrer un brief étude
Thématiques Questionnements
Histoire et culture d’entreprise.
Degré de familiarité de l’entreprise avec le problème
Environnement de l’étude rencontré.
Destinataires et utilisateurs des résultats.
Compétences par rapport aux études.
Situation par rapport à la concurrence.
Compétences distinctives et savoir-faire particulier.
Contexte marketing
Diagnostic et choix marketing (validation).
Contraintes particulières.
Certitude, quasi-certitude ou incertitude, incertitude
totale ?
Existence d’études antérieures sur ce problème (ou
Anticipation des résultats problèmes voisins)
– Si oui : combien et quand ? Qu’a-t-on pensé des
résultats ?
– Si non : depuis quand a-t-on décidé de faire une étude ?
\/|
Hypothèses et scénarios retenus.
$|
Recensement des questions d’études Liste des objectifs d’études.
4$
opportunité ?
Investissements financiers découlant de l’étude.
Enjeux marketing Décision à prendre après l’étude : gravité, ampleur des
conséquences.
Délais pour la remise des résultats.
Évaluation du budget consacré à l’étude.
Types et
Collecte des
noms des Instituts Orientation Échantillons
données
panels
Panels de base (consommateurs)
Carte
d’identification lors
du passage en caisse
+ saisie électronique
à domicile
\/| (homescanner :
terminal optique).
Comportement
$|
Transfert des
Nielsen d’achat :
4$
données
Homescan (The Nielsen alimentation, 14 000 foyers
hebdomadaire
Company) entretien, hygiène,
By
(par Internet).
beauté, textile.
Cumuls mensuels,
trimestriels et
annuels.
Livraison des
résultats 22 jours
après la fin de
période.
Comportement Saisie électronique
d’achat grande à domicile
consommation en (« scannette » :
Kantar GMS : alimentation, terminal optique) et
28 000 individus
Worldpanel Worldpanel entretien, hygiène, saisie manuelle du
1,4 million de codes
Usage (Groupe WPP- beauté, textile prix, quantités, lieux
EAN
Kantar) (900 000 références d’achat, budget total,
en code-barres + date, promotion.
livret Envoi quotidien (par
complémentaire). Internet).
Panels de base (distributeurs)
9 600 points de
ventes représentant
97 % du chiffre Lecture optique lors
d’affaires des du passage en
hypermarchés et des caisse.
Produits de grande supermarchés (dont
consommation avec Drive) et de la
Enquêteurs pour
code-barres collecte mensuelle
Infoscan Census Symphony IRI relever les données
(alimentaire, des ventes du hard causales (suivi
hygiène, beauté, discount. hebdomadaire des
textile).
promotions).
Dont 490 Synthèse
(210 hypermarchés hebdomadaire.
et
280 supermarchés)
pour les données
causales
Lecture optique lors
du passage en
caisse, supports
\/|
informatiques.
$|
4$
Enquêteurs pour le
5 500 points de
relevé manuel des
Produits de grande vente
By
données causales
consommation dont 522
(têtes de gondoles,
Scan Track (alimentaire, (210 hypermarchés
Nielsen facings en linéaires,
e-CENSiel hygiène, beauté, et
promotions, ruptures
textile, bricolage, 312 supermarchés)
de stock).
etc.). pour les données
Cumuls ventes
causales
hebdomadaires et
mensuelles.
Livraison des
résultats entre 5 et
11 jours après la
période.
Produits
technologiques et Lecture optique lors
culturels du passage en
(électronique grand caisse.
public, multimédia, 360 familles de Codification
Retail & informatique, produits. spécifique de
Technology GfK téléphonie, 41 circuits de certains produits.
consoles, DVD, CD, Cumuls ventes
photo, optique, distribution. adaptés selon le
livres, 25 000 magasins. cycle d’achat :
électroménager, bimestre, mois,
bricolage, semaine.
jardinage).
Lecture optique en
caisse couplée avec
By
la carte
d’identification du
Distributeurs :
Behavior Scan consommateur.
54 (hypermarchés et
(Marketing Durée : 16 à
GfK (50 %) et supermarchés)
Scan) Grande 24 semaines.
Médiamétrie 11 enseignes.
(fusion avec consommation. 6 villes : Angers
(50 %) Consommateurs :
Scannel en (TV), Brive (TV),
22 000 foyers.
2011) Château-Thierry,
Test TV : 3 villes.
Le Mans, Poitiers
(TV), Sens.
Population totale :
680 000 habitants.
quotidiennement, puis envoyés, via un modem, sur le serveur de Kantar Worldpanel. Le système informatique
contient un dictionnaire de 1,4 million de références EAN. Des menus spécifiques permettent d’enregistrer
manuellement la quantité, le prix, le lieu d’achat, le jour et l’individu du foyer pour chaque acte d’achat.
By
Worldpanel Usage couvre un total de 10 millions d’actes d’achat annuels. Les résultats sont édités
mensuellement (15 jours après la fin du mois) sur support électronique, avec une ventilation hebdomadaire des
indices.
3 – Indices calculés
Les résultats sont présentés par grande catégorie, puis sous-catégorie de produits, puis marque par marque. Le
marché des barres céréalières est ainsi décomposé en trois segments principaux : les barres de céréales pures,
les semi-enrobées et les enrobées de chocolat. Tous les mois, voire pour certains produits courants toutes les
semaines, une dizaine d’indices de base sont calculés. Les principaux sont les suivants :
– NA P100 : nombre d’acheteurs pour 100 ménages, c’est-à-dire le taux de pénétration du produit dans
l’échantillon du panel.
– QA P100 : quantités achetées pour 100 ménages de l’échantillon.
– QA/NA : quantités achetées moyennes par ménage acheteur du produit ou de la marque.
– SD P100 : somme dépensée pour 100 ménages, c’est-à-dire le chiffre d’affaires en valeur du produit ou de la
marque (cumulées sur la période).
– SD/NA : somme moyenne dépensée par ménage acheteur, c’est-à-dire le budget moyen consacré au produit ou
à la marque par un consommateur.
– Nbact/NA : nombre d’actes d’achat effectué par acheteur.
– QAact : quantité moyenne achetée par acte d’achat.
– PRIX MOYEN : prix public moyen payé pour obtenir une unité type du produit.
– PDM QA : part de marché en volume de la sous-catégorie de produit ou de la marque.
– PDM SD : part de marché en valeur de la sous-catégorie de produit ou de la marque.
– TN : taux de nourriture, soit la part de marché de la marque chez ses acheteurs ; c’est un indicateur de la
fidélité à la marque.
Tous les trimestres, Kantar Worldpanel ventile les résultats selon plusieurs variables, telles que l’âge de la
ménagère, les régions, la profession du chef de famille, le type de point de vente, les étapes de vie, le nombre
d’enfants présents dans le foyer, etc. D’autres indices évaluent la fidélité de l’acheteur, les transferts d’une
marque vers l’autre : cela permet de tracer un profil type de l’acheteur fidèle et de l’occasionnel, de déterminer
les marques concurrentes les plus dangereuses. Les indices de ventilation sont les suivants :
REP POP : répartition de la population. C’est la décomposition de l’échantillon du panel selon l’âge, le nombre de
personnes vivant au foyer, la classe de revenu, etc.
REP QA : répartition des quantités achetées. C’est le poids (en %) de chacun des segments acheteurs du produit.
Ces indices sont très précieux pour le chargé d’études qui dispose, non seulement du profil type de l’acheteur
d’une catégorie de produits, mais aussi des profils des consommateurs pour chacune des marques du panel.
REP NA : répartition des acheteurs. Elle représente la ventilation du nombre total de ménages acheteurs sur
chacun des segments considérés.
IND QA : indice des quantités consommées par le segment. Le niveau du segment « acheteur moyen » a
l’indice 100. Cela permet de repérer rapidement le segment sur- ou sous- consommateur du produit.
Le panel offre deux niveaux d’analyse : une série de base et une série de résultats complémentaires.
interrogations suivantes :
– Quelle est la situation globale de la marque ? La position de La Sportive est satisfaisante au
By
premier abord : sa part de marché en volume gagne 0,4 point en un an (figure 2.12.) ; mais les
chiffres du 4e trimestre 2000 sont préoccupants, car on constate un effritement de 0,3 point (5,5 %
contre 5,8 %) par rapport à l’année précédente.
– Quels sont les leviers de croissance du chiffre d’affaires ? Faut-il développer la consommation
par ménage acheteur (QAact, QA/NA) ou le nombre de ménages acheteurs (taux de pénétration :
NA P100) ? La progression de La Sportive résulte d’un gain de 4,3 points du taux de pénétration :
le NA P100 passe de 28,4 à 32,7. En revanche, les quantités consommées baissent de 4 % : le
QA/NA chute de 38,5 à 36,9 litres. La stabilité du QAact (8,3 à 8,4 litres) révèle que cette
contraction s’explique par la diminution du nombre d’achats sur la période.
– Quel est le cœur de clientèle de la marque ? Le format 1,5 litre représente l’essentiel des ventes
de La Sportive (NA/100 et QA/ NA) ; l’introduction de la bouteille de 75 cl en 1998 est un succès,
puisque la pénétration dans la cible est de 12,6 % en 1999, avec un taux de réachat en progression.
L’âge n’est pas une variable discriminante : toutes les catégories sont également pénétrées (NA/100
compris entre 29,9 % et 36,2 %), mais une marge de progression existe pour les moins de 35 ans.
\/|
$|
4$
By
1 – Marchés couverts
Deux approches sont offertes : un quasi-recensement (census) et un échantillon de points de ventes.
By
– Le census se fait sur 5 500 points de vente, soit une couverture à 96 % de l’univers des magasins généralistes
de plus de 400 m2 de surface de vente ayant au moins un rayon alimentaire (hypermarchés, supermarchés et
hard discounters). Les secteurs alimentaire, hygiène-beauté, droguerie, beauté-parfumerie sont suivis. Les
grands magasins, collectivités, kiosques, cinémas et les marchés sont exclus du panel. Les supérettes et les
libres-services de moins de 400 m2 sont observés sur une base trimestrielle et pour un nombre limité de
marchés (liquides, produits frais, confiserie). Les stations-service font l’objet d’un suivi spécifique ; les
pharmacies font partie d’un autre panel, dénommé Scantrack-pharma. Le census couvre les neuf régions définies
par Nielsen. Les informations proviennent du scanning des produits effectué lors du passage en caisse. Cette
quasi-exhaustivité fournit à la force de vente les mêmes chiffres de ventes que ceux dont disposent les chefs de
rayons ou les acheteurs d’une enseigne : les négociations se font sur des bases précises, l’acheteur et le vendeur
connaissant les ventes d’une référence donnée dans un point de vente donné.
– L’échantillon comporte 522 points de vente (210 hypermarchés et 312 supermarchés). Les données fournies
par scanning sont complétées par un relevé manuel de données causales, c’est-à-dire des informations qui
déterminent les volumes de ventes : linéaire au sol, linéaire développé, facing, rupture de stock, présence en tête
de gondole, etc. Ce complément d’information permet d’optimiser l’allocation du linéaire aux marques et de
calculer les effets d’une mise en avant temporaire du produit sur les ventes.
2 – Informations relevées et production des résultats
La couverture de l’activité du magasin est assurée par la lecture électronique en sortie de caisse des codes-
barres EAN et par relevés manuels. La saisie du code donne, grâce à un dictionnaire de correspondances, quatre
informations : la référence exacte, la catégorie du produit, le format, la marque. Les bases de données propres à
chaque magasin donnent le prix de vente TTC de la référence, la quantité, le rayon d’origine, le montant du panier
total. Les données sont cumulées par code EAN durant une période mensuelle, puis ventilées sur une base
hebdomadaire, par magasin, par référence, par segment de marché, par marque, etc. Des inspecteurs, équipés de
micro-ordinateurs portables avec lecteur de code EAN, complètent le dispositif en enregistrant
700 informations supplémentaires par hypermarché et 450 par supermarché. Les promotions des distributeurs
(tête de gondole, linéaire permanent, distribution de prospectus) et des fabricants (ventes par lots, offre
spéciale, x % gratuits) sont relevées quotidiennement, sauf pour le linéaire qui fait l’objet de quatre relevés par
an. Les résultats sont édités 13 fois par an, chaque période étant fractionnée par semaine ; la livraison se fait
12 jours après la fin de la période écoulée sous forme de CD-ROM ou de fichier électronique.
3 – Indices calculés (30)
Ils donnent des informations sur la position concurrentielle des produits et des marques de l’entreprise et sur
plusieurs variables du marketing-mix. Leur analyse permet d’identifier les tendances d’un marché, de la
catégorie de produit à la référence, avec ventilation par canal de distribution et par région de vente.
Position concurrentielle
– Ventes volume (VQ) : ventes aux consommateurs exprimées dans l’unité de mesure choisie par le client.
– Ventes valeur (VV) : ventes en volume valorisées par le prix de vente aux consommateurs.
– Part de marché :
– Distribution Valeur Vendant (DV) : c’est la part de chiffre d’affaires de la classe de produits réalisé par les
magasins ayant vendu la ligne au cours de la période. Une DV de 83 veut dire que les 75 % d’hypermarchés qui
proposent la bière X représentent 83 % des ventes totales de bière.
By
– Ruptures Numériques Vendants (RN) : c’est le pourcentage de magasins de l’univers dont les ventes de la ligne
ont été nulles sur une semaine et non nulles la semaine précédente. Les ruptures correspondent à une absence
de ventes due au fait que le produit n’est pas présent en linéaire.
– Ruptures Valeur Vendants (RV) : c’est la part de chiffre d’affaires du marché réalisé par les magasins ayant été
en rupture de ventes pendant la période.
– Ventes par point de DV : Ventes/DV. Cet indicateur est utilisé pour quantifier un potentiel (ou une perte) de
ventes lié à des gains (ou pertes) de distribution ; il mesure la performance absolue d’un produit dans les
magasins où il est vendu.
Merchandising
Nombre moyen de références : c’est le nombre de codes EAN, standards et promotionnels, vendus en moyenne
par semaine.
– Linéaire à la référence (Linéaire en cm/Nombre de références).
Cet indicateur permet de quantifier le linéaire alloué à chaque référence ; lorsqu’il augmente, on parle
d’amélioration de la visibilité en linéaire.
– Duplication marques/formats : nombre moyen de marques/formats.
– Linéaire : longueur totale (en cm) occupée par une référence dans un rayon permanent. Il mesure l’espace
attribué à un produit de façon régulière, et exclut donc tous les emplacements temporaires (mises en avant,
têtes de gondole) : il est développé, car il fait la somme des longueurs d’étagères occupées par un produit. En
revanche, les niveaux d’empilement de produits sur une même étagère ne sont pas pris en compte ; pour les
produits exposés en présentation massive, on affecte un linéaire en cm égal à deux fois la largeur du support de
l’empilement.
– Part de linéaire (PDL) :
La part de linéaire mesure l’importance du linéaire accordé au produit en relativisant par rapport au linéaire
moyen du marché et permet ainsi de comparer un produit à ses concurrents. Il est souvent plus pertinent
d’utiliser la part de linéaire vendant pour tenir compte des mouvements de distribution et pour raisonner
uniquement dans les magasins vendants.
– Indice d’exposition : Part de linéaire/Part de marché
Une marque est surexposée quand son indice d’exposition est supérieur à 100 (PDL > PDM) et sous-exposée
quand son indice d’exposition est inférieur à 100 (PDM > PDL).
Prix
– Prix moyen = Ventes valeur totales/Ventes volume totales
– Prix hors promo = Ventes valeur hors promo./Ventes volume hors promo
– Prix promo. = Ventes valeur promo/Ventes volume promo
Ventes réalisées sous promotion
C’est la somme des ventes faisant l’objet d’une promotion (mise en avant, distribution de prospectus, réduction
de prix exceptionnelle) dans les magasins, et pendant les semaines où ces promotions ont été actives.
– Part de marché promo/100 % promo :
\/|
$|
4$
L’homme d’étude dispose, avec cette batterie d’indices, de quantité d’informations permettant
d’orienter les investigations ultérieures : par exemple, selon les résultats, il s’orientera plutôt vers
une étude de prix, de promotion ou vers une modification du positionnement de la marque. La
figure 2.14 propose un exemple simplifié d’application.
Exemple
Le chef de la marque BÊTA constate que son concurrent direct, la marque ALPHA, a
réalisé un gain de part de marché important (+ 6 points) en un an, alors que sa propre
marque n’a progressé que d’un point. L’analyse de la DV montre les gros efforts
réalisés par les commerciaux de BÊTA pour accroître le référencement auprès des
points de vente importants, puisque 25 points ont été gagnés en un an ; cependant, cet
effort n’est guère payant car, en contrepartie, la demande s’effondre dans les points de
vente référençant la marque (– 7 points), donc l’amélioration de la part de marché
\/|
globale risque d’être de courte durée. Après avoir vérifié que ce problème ne vient
pas d’un problème de rupture des stocks, le chef de produit BÊTA aurait intérêt à
$|
commander une étude d’image de sa marque, puis à accroître son budget publicitaire.
4$
offre des arguments solides pour obtenir des référencements supplémentaires dans
d’autres points de vente.
Les limites d’un panel-test tiennent au fait que, pour l’instant, seuls les produits de grande
consommation à rotation rapide (épicerie, hygiène, parfumerie, etc.) sont testables. Par ailleurs, la
By
2 – Principes méthodologiques
Les six villes retenues (Angers, Brive, Château-Thierry, Le Mans, Poitiers et Sens) ont des populations moyennes
de l’ordre de 150 000 habitants, soit environ 60 000 foyers. Les villes ont chacune un panel de 4 000 foyers
représentatifs de la population française. Leur structure sociodémographique est proche des moyennes
nationales, avec une bonne diversité des enseignes implantées. 11 enseignes sont partenaires et 54 points de
vente sont membres du panel distributeurs. Dans chaque ville, le panel se compose de 9 points de vente
(6 hypermarchés et 3 supermarchés) qui assurent plus de 95 % des ventes de la zone : l’évasion (achats des
panélistes effectués en dehors du panel) est très faible. Le schéma ci-après décrit les grandes lignes du dispositif
de collecte des informations. La durée du test varie de 16 à 24 semaines.
\/|
$|
Dans trois villes (Angers, Brive et Poitiers), les panels consommateurs sont reliés à un réseau de télévision câblé
qui diffuse les principales chaînes de la TNT nationale (Tf1, France 2, France 3, Canal+, France 5, M6, Direct 8,
4$
W9, TMC, NRJ12, NT1,Virgin 17, Gulli) et sept chaînes thématiques (LCI, Eurosport, Paris Première, CanalJ,
RT9, MCM). Les panélistes sont subdivisés en deux sous-échantillons de structure comparable : l’un reçoit les
By
publicités-tests grâce à un boîtier spécifique (groupe TV test), l’autre est exposé aux publicités nationales
(groupe de contrôle national). Un plan média est mis en place, avec possibilité d’insérer des publicités dans deux
hebdomadaires (Femme Actuelle et Téléloisirs), dans les quotidiens locaux et la presse gratuite et dans plusieurs
cinémas ; une campagne d’affichage extérieur et une distribution de prospectus peuvent compléter ce dispositif.
\/|
$|
4$
By
3 – Informations fournies
Les résultats permettent de réduire l’incertitude des décisions marketing, grâce au calcul du taux de pénétration
prévisionnel du nouveau produit, du volume d’achat, du taux de réachat, les parts de marchés prévisionnelles
(valeur et volume) et du prix moyen de vente. Les indices sont décomposables sur les deux groupes de
consommateurs (témoin et test) afin d’évaluer les effets respectifs des plans médias. Le schéma suivant montre
les résultats obtenus par le produit « Test » face aux marques concurrentes A, B, C.
\/|
$|
4 – Limites
4$
Le marché test est conçu sur la base d’une DN égale à 100 pour le nouveau produit, d’où la nécessité d’un
redressement ultérieur des résultats pour le lancement national. Enfin, comme tout marché test réel, Behavior
By
Scan suppose que les prix de vente futurs et les réactions des concurrents seront identiques à ceux pratiqués
durant le test.
La fixation du niveau de récompense est une opération délicate : s’il est trop élevé, le risque de
professionnalisation des répondants est réel (voir flash-étude 2.3.) et s’il est trop faible, le taux
d’abandon s’accroît rapidement. Les systèmes proposent des points échangeables en cadeau ou une
loterie pour gagner un cadeau important (la probabilité d’être tiré au sort dépend du nombre de
points de participation), ou encore des points échangeables contre des euros. Certains sites
annoncent(33) des rémunérations alléchantes, telles que 30 euros pour un sondage de 10 minutes.
Dans la pratique, c’est nettement moins : de l’ordre de 1 à 2 euros par enquête.
\/|
$|
4$
By
Flash-Étude 2.3.
Attention aux panélistes professionnels !
Il suffit de taper « sondage rémunéré » sur son moteur de recherche : des centaines de sites
proposent d’alléchantes contreparties. « J’ai découvert le filon en discutant sur un forum »,
confie une mère de famille du Loir-et-Cher. Elle surfe sur Internet pendant les siestes de ses deux
fillettes. « Je me suis inscrite sur plusieurs sites. La marche à suivre est simple. On te demande
de définir ton profil ‘‘mariée, mère, salariée...’’ et on te propose des sondages pour un yaourt,
des commentaires sur telle marque de poussette. » C’est bien payé ? « Oh non, (rires). Parfois,
on gagne 0,50 € par sondage, 5 € pour d’autres. Il faut y passer du temps. Mais, depuis janvier, je
rembourse l’abonnement Internet avec ça. Pas si mal. »(34)
Ainsi, chez GfK(35), 100 points correspondent à 1 euro. À chaque questionnaire complété, le
répondant est crédité d’une valeur point correspondant à la durée de l’enquête. À partir de 2 500
points (soit 25 euros), on peut échanger les points contre de l’argent et faire virer ses gains sur
son compte bancaire en remplissant le formulaire de transfert. Chez Ipsos, on ne propose pas
d’argent, mais des points transformables en cadeaux, mais ces réponses à sondages rémunérés ne
concernent pas les enquêtes d’opinion politique et de santé.
Comment les consommateurs panélistes vivent-ils la contrainte du scanning des produits à
\/|
domicile ? Voici ce qu’en pense une panéliste : « C’est ennuyeux quand on rentre avec un Caddie
$|
plein et que ce jour-là comme par hasard on n’a pas le temps de le faire. Parce qu’un caddy
plein, ça met bien 30 minutes. Sinon je trouve ça rigolo. Je scanne en plus les vêtements et les
4$
produits de beauté. Le principe c’est d’accumuler des points tous les trimestres. On t’envoie un
catalogue d’objets divers et variés que tu peux t’offrir en échange d’un certain nombre de points.
By
F. Bilan
Les panels ont réalisé une mutation totale sous le double effet de la lecture optique et d’Internet.
Cela s’est traduit par des gains importants en termes de réactivité : les résultats sont fournis sous
huit jours, contre quinze jours au tout début des années 2000. Les distributeurs ont largement joué le
jeu, ce qui a permis d’améliorer et d’automatiser la collecte des données, avec des gains importants
en fiabilité. Par ailleurs, le développement du recensement (census) des hypermarchés et
\/|
supermarchés a fortement amélioré la couverture des circuits, renforcée par le suivi des circuits
$|
spécialisés (magasins de proximité, hard discount).
4$
En termes de résultats, les panels permettent aujourd’hui d’obtenir des informations précises pour
une référence d’une marque, au niveau d’une enseigne. Plus qu’avant, ils sont devenus des outils
By
cruciaux pour les négociations entre les fabricants et les distributeurs. Enfin, les relevés manuels
permettent de mesurer précisément les effets des décisions prises au niveau marketing (offres
spéciales, promotions, etc.) et merchandising (linéaires, présence en tête de gondole, etc.).
Progressivement, les sociétés de panels sont passées du statut de vendeur de données à celui de
consultant marketing. Elles proposent de l’information directement accessible en ligne que les chefs
de produits ou de rayon peuvent retravailler en fonction de leurs besoins spécifiques. À côté de
cela, les analyses spéciales (effet d’une variation de prix, optimisation de linéaires) et des modèles
de marketing-mix sont proposés.
Conclusion
Nous avons montré dans ce chapitre le potentiel et l’intérêt d’une étude préparatoire. L’analyse
documentaire fait un point rapide sur les informations disponibles, pour éviter de rechercher à
grands frais des informations déjà existantes ou pour comprendre rapidement les traits majeurs de
l’environnement d’un marché. Les discussions avec le commanditaire de l’étude permettent de
cerner les axes majeurs de l’investigation. Les panels scannérisés offrent une multiplicité
d’informations sur les comportements d’achat, la position concurrentielle des marques et la
connaissance de leurs marketing-mix respectifs.
Dans bon nombre de cas, l’analyse approfondie des données collectées rend superflue une nouvelle
étude. Mais, dans d’autres cas, les informations disponibles sont insuffisantes ou inadaptées aux
préoccupations de l’entreprise. Les travaux préliminaires réalisés facilitent alors l’élaboration du
projet d’étude. Le chapitre suivant présente les opérations nécessaires à sa construction.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’étude omnibus pose :
(1) plusieurs fois les mêmes questions à un même échantillon
(2) plusieurs fois les mêmes questions à un échantillon variable d’une étude à l’autre
(3) des questions différentes à un échantillon variable d’une étude à l’autre
Q2. Un panel impose théoriquement :
(1) de conserver le même échantillon d’une étude à l’autre
(2) de changer d’échantillon d’une étude à l’autre \/|
(3) de renouveler la moitié de l’échantillon d’une étude à l’autre
$|
Q3. Une donnée secondaire est :
4$
(2) une information obtenue après une étude spécifiquement conçue dans ce but
(3) une donnée préexistante et provenant d’une étude antérieure
Q4. Une étude documentaire se fait à partir :
(1) des discussions préliminaires avec le demandeur de l’étude
(2) des sources secondaires externes ou internes à l’entreprise
(3) des seuls documents commerciaux de l’entreprise
Q5. La distribution valeur d’une marque est égale :
(1) au nombre de points de vente qui référencent la marque
(2) au pourcentage de points de vente qui référencent la marque
(3) à la part de marché représentée par les points de vente qui référencent la marque
Réponses : voir annexes téléchargeables sur www.vuibert.fr
Bibliographie
DECAUDIN J.M. et SAINT-MARTIN T., Les panels, Pearson, 2013.
MARS A., Les panels, outils incontournables de l’étude de marché, Heures de France, 2004.
VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, p. 211.
VERNETTE É., Techniques d'études de marché, Vuibert, coll. « Vuibert entreprise », 2011.
\/|
$|
4$
By
Chapitre 3
Projet d’étude
Le chemin est long, du projet à la chose.
Molière
représente la dernière phase avant le démarrage de l’étude proprement dite. Celui-ci concrétise les
réflexions et les investigations préliminaires. Sa rédaction se fonde sur les différentes décisions
By
prises dans les étapes précédentes. Nous terminerons ce chapitre par la présentation du marché des
études.
Figure 3.1. Plan du chapitre
\/|
I. Qui fait l’étude ?
$|
Nous présenterons d’abord les avantages respectifs de l’étude interne et de la sous-traitance, puis
4$
nous formulerons quelques recommandations sur la gestion d’un appel d’offres, lorsque la sous-
traitance est retenue.
By
\/|
$|
4$
By
Flash-Étude 3.1.
Portrait-robot d’un service d’études en interne
Les chiffres suivants sont tirés d’une enquête réalisée pour l’UDA par TNS Sofres auprès d’un
échantillon de 251 personnes travaillant dans un service études en entreprise (dont
138 responsables).
Le service études est organisé par pays (40 %), par pôle ou direction (17 %) ou par entreprise
(15 %), parfois par marque (9 %) ou business unit (8 %). La fonction est rattachée à la direction
marketing (55 %), contre 28 % pour la direction générale (40 % pour les entreprises de moins
de 500 salariés) et, plus rarement, à la direction de la communication et à la direction
commerciale (8 % chacune). Il peut y avoir plusieurs services études dans l’entreprise (49 %).
La fonction études est reconnue lorsqu’elle dépend de la direction marketing ou de la direction
générale. Elle est le plus souvent (49 %) située à deux échelons du principal décideur. Les
études sont de plus en plus stratégiques : pour 40 % des interviewés (51 % en grande
consommation), les responsables études travaillent sur la connaissance des comportements des
consommateurs, qui permet d’identifier des insights et de faire des recommandations stratégiques
au service de toutes les directions de l’entreprise. 65 % des interviewés estiment que leur
service a une influence grandissante, malgré un pessimisme sur l’avenir du budget (21 % des
\/|
sondés envisagent une baisse, contre 25 % une hausse). Le service études compte en moyenne
quatre personnes, et 7 % des services en ont plus de onze. C’est une femme (à 59 % pour les
$|
responsables et 67 % pour l’ensemble des répondants), de plus de 40 ans (38 % des
4$
responsables), exerçant cette fonction depuis plusieurs années (28 %, 10 ans et plus ; et 26 %, de
3 à 5 ans) et issue d’instituts (55 % y ont déjà travaillé). Il existe des passerelles entre
By
3. Synthèse
Les deux systèmes remplissent des fonctions complémentaires. L’équilibre actuel, à savoir
prédominance des cabinets d’études externes et maintien d’une structure légère en entreprise, offre
une bonne flexibilité et un bon contrôle de la qualité des études réalisées. La figure 3.2. récapitule
les avantages et les inconvénients des deux systèmes.
Figure 3.2. Choisir une étude interne ou externe
préliminaire avec les sociétés intéressées. Ces informations figurent dans un document décrivant le
cahier des charges de l’étude. En retour, les sociétés candidates font parvenir à l’entreprise leur
By
Les études proposées par l’État ou les collectivités territoriales font l’objet de procédures
d’attribution définies par la loi (Code des marchés publics) ; celles-ci sont plus ou moins
contraignantes selon le montant total des prestations annuelles envisagées (voir figure 3.4.)(37).
Il existe quatre procédures principales :
– la mise en concurrence simplifiée : l’entreprise est choisie à la suite de négociations avec
plusieurs candidats, après publicité et mise en concurrence préalable. Elle concerne les commandes
inférieures au seuil de 125 000 euros HT pour l’État et 193 000 euros HT pour les collectivités
territoriales.
– l’appel d’offres : l’organisme public choisit l’offre la plus avantageuse, sans négociation, sur la
base de critères objectifs préalablement portés à la connaissance des candidats. L’appel d’offres
peut être ouvert (tous les candidats peuvent remettre une offre) ou restreint (seuls peuvent remettre
des offres les candidats qui y ont été autorisés après une présélection, c’est l’équivalent d’une
short-list).
– la négociation : l’attributaire du marché est choisi après consultation de plusieurs candidats et
négociation des conditions du marché avec un ou plusieurs d’entre eux. Cette procédure est soumise
à des conditions particulières (suite d’appel d’offres infructueux, spécifications techniques, travaux
complémentaires, urgence, secret, etc.).
– le dialogue compétitif : après publication d’un appel public à la concurrence, l’organisme public
va dialoguer avec les candidats retenus, pour ensuite attribuer le marché à l’un d’entre eux en
fonction des offres proposées. Cette procédure est également soumise à des conditions particulières
(marchés complexes, etc.). \/|
$|
4$
By
Figure 3.4. Conditions pour les offres sur les marchés publics (fournitures et services)
de 15 000 € de 90 000 €
Administrations < 15 000 € > 130 000 €
à 90 000 € à 130 000 €
étatiques HT HT
HT HT
Publication au
Publication au
BOAMP et
BOAMP (*)
Pas de publicité au JOUE (***)
Publicité adaptée ou au JAL (**)
imposée (marché et, fortement
Formalités au montant du et, si nécessaire,
passé de gré conseillée,
marché publication dans
à gré) publication dans
la presse
la presse
spécialisée
spécialisée
Collectivités de 15 000 € de 90 000 €
< 15 000 € > 200 000 €
territoriales et à à 200 000 €
HT HT
EPIC locaux 90 000 € HT HT
Publication au
Publication au
\/| BOAMP et
BOAMP ou au
$|
Pas de publicité au JOUE
Publicité adaptée JAL
imposée (marché et fortement
4$
la presse
la presse
spécialisée
spécialisée
(*) BOAMP : Bulletin officiel des annonces des marchés publics
(**) JAL : Journal d’annonces locales
(***) JOUE : Journal officiel de l’Union européenne
Source : http://www.marchespublicspme.com/fonctionnement-annonces-boamp-marches-publics.html
2. Conduite
L’intérêt majeur d’un appel d’offres est la comparaison, sur une base équivalente (définition du
problème et des objectifs d’étude, contraintes particulières), de solutions méthodologiques et de
coûts respectifs associés de plusieurs propositions. L’avantage recherché est une réduction du prix
d’achat de l’étude grâce à la concurrence.
En contrepartie, l’appel d’offres consomme du temps et de l’énergie. Il faut prévoir un délai
minimum pour la clôture des offres, généralement trois à quatre semaines ; puis dépouiller plusieurs
projets, parfois fort volumineux, consacrer du temps aux éventuelles questions des candidats et
sélectionner le vainqueur. De leur côté, les concurrents sollicitent des rendez-vous pour « caler »
leur projet, ce qui revient à faire préciser tel ou tel point du brief étude. Enfin, si le budget n’est pas
fixé par l’annonceur, les cabinets d’étude rédigent plusieurs propositions fondées sur des
hypothèses de prix différentes, d’où un accroissement du travail de sélection. Nous proposons, dans
la fiche technique 3.1., quelques recommandations pour mettre en place une procédure d’appel
d’offres efficace.
résoudre, sans se préoccuper du coût réel des contraintes méthodologiques. Si la fourchette budgétaire prévue
est large, il est préférable de ne pas indiquer le budget pour identifier le « moins-disant », à qualité de proposition
équivalente. Mais cette solution conduit les sociétés d’études à multiplier les scénarios de devis (« Avec un
By
budget de x francs, nous faisons ceci, avec y francs nous faisons cela »), d’où des difficultés accrues de
comparaison. La meilleure approche consiste à disposer d’un spécialiste interne, capable d’évaluer
approximativement le budget nécessaire, puis à annoncer clairement le montant lors de l’appel d’offres.
4 – Réunion de calage
Par téléphone ou sur rendez-vous, ces réunions permettent de lever les éventuelles zones d’ombre et de préciser
tel ou tel point concernant les objectifs d’études. Nous avons déjà présenté dans le chapitre précédent (figures
2.8. et 2.9.) les différents points à aborder lors de ces réunions entre le demandeur de l’étude et l’institut.
5 – Attentes vis-à-vis d’un institut d’études
Les attentes des entreprises vis-à-vis des instituts sont les suivantes (42) :
% fois cité
Critères % citations
en premier
Qualité des analyses (facilite
24 % 64 %
les décisions)
Suivi de l’étude 17 % 44 %
Méthodologie 15 % 41 %
Rapport d’étude 4% 36 %
6 – Délais de réponse pour le choix de la société d’études
Le devis d’une société d’études n’est normalement ferme que pour une durée de quatre mois à compter de
l’envoi(43), il est donc logique de considérer qu’il s’agit d’une limite extrême. Parfois, le client s’octroie un temps
de réflexion supérieur au temps qu’il est prêt à accorder pour la réalisation de l’étude, ce qui est problématique.
Un délai de réflexion d’un à deux mois maximum est souhaitable.
7 – Le devis est-il payant ?
Si l’appel d’offres n’implique pas de recherches documentaires ou d’approfondissements méthodologiques
particuliers, il est gratuit ; dans le cas contraire, les sociétés d’études sont fondées à demander une
rémunération.
A. Perspectives différentes
By
La figure 3.5. suggère que la différence majeure entre les deux démarches réside dans leurs finalités
respectives :
Figure 3.5. Finalités respectives
– une recherche s’évalue par sa contribution à la progression des connaissances dans la discipline
marketing, dans un strict respect des exigences de la démarche scientifique(44) ;
– la valeur ajoutée d’une étude réside dans sa capacité à apporter une réponse simple, précise et
efficace aux questions marketing initiales ; le cas échéant, celle-ci se fonde sur des aspects
théoriques simplifiés, ou adapte des instruments (méthodes, mesures) élaborés par les chercheurs
en marketing.
Comme le montre la figure 3.6., l’étude ou la recherche n’ont pas forcément les mêmes
préoccupations durant le déroulement de leurs différentes phases :
Figure 3.6. Contenu des phases du processus de recherche et d’étude de marché
Caractéristiques
Recherche marketing Étude marketing
des phases
Traduction du problème managérial
Intérêt et situation du problème sur
en questions d’étude.
un plan théorique.
Analyse documentaire, rencontres
Revue critique des recherches
pour « caler » le projet.
antérieures.
Identification du domaine
Définition des concepts,
Réflexions préalables d’investigation : stratégique ou
opérationnalisation des variables,
variables du marketing-mix.
validation des mesures (prétest).
Rédaction (éventuellement) de
Formulation (éventuellement) et
scénarios sur les variables
justifications théoriques des
extérieures à l’étude (concurrence,
hypothèses.
économie, etc.).
Instruments (souvent) simplifiés,
Instruments (souvent) complexes.
faciles et rapides à administrer.
Lourdeur d’administration.
Faible implication des individus
Forte implication des individus
Collecte des données interrogés ou observés.
interrogés ou observés.
\/|
Souci de représentativité plus
Échantillon (souvent) de
$|
fréquent dans la constitution de
convenance et de taille restreinte.
l’échantillon.
4$
fréquents aux
Vérification du bien-fondé des
statistiques descriptives.
analyses (distribution statistique,
Analyse des données Préférence pour les analyses
adéquation des tests).
permettant de visualiser les
Fixation d’un seuil de confiance
résultats (cartes perceptuelles,
pour l’interprétation des tests.
graphiques).
Discussion des résultats observés Discussion des résultats en fonction
en fonction des résultats antérieurs. des possibilités (forces, faiblesses)
Implications des résultats dans une de l’entreprise.
perspective d’application Orientation vers la prise de
Contenu du rapport
managériale. décision, réalisme des conclusions
Indication des limites des résultats ou des recommandations.
et des conditions de généralisation. Précautions et conditions pour
Nouvelles pistes de recherche. l’application des recommandations.
– caractère cumulatif ou ponctuel. Le processus de recherche est cumulatif et s’inscrit dans une
perspective de longue durée, la résolution étant partielle. L’étude est plus axée sur la
compréhension d’un problème particulier auquel il faut généralement apporter une réponse
complète, précise et rapide ;
– prise en compte des résultats antérieurs. La recherche marketing tient compte des travaux
antérieurs : elle situe clairement le travail entrepris dans son arrière-plan théorique, puis précise la
nature de l’apport de la recherche entreprise. L’analyse critique de la littérature existant sur le
problème revêt une grande importance. Un grand soin est apporté aux conditions dans lesquelles se
déroule le recueil des informations ; les analyses sont multiples, toutes les pistes sont explorées
pour renforcer, améliorer la compréhension des résultats observés. Le rapport souligne les progrès
enregistrés dans la compréhension du domaine, dégage (rapidement) les implications managériales
des résultats, sans omettre de préciser les limites de la recherche ;
L’étude marketing ad hoc utilise rarement les résultats des études antérieures, considérant que ceux-
ci sont souvent périmés, l’environnement ayant évolué. L’important est de réunir l’ensemble des
informations pour cerner la nature du problème à résoudre. Seules les études répétitives (panels et
baromètres) utilisent les résultats passés, mais comme repères pour apprécier les évolutions de
marques ou de segments ;
– pragmatisme et simplicité de la démarche. Dans une étude de marché, l’investigation préliminaire
permet de gagner du temps dans la connaissance des spécificités d’un marché ou pour comprendre
plus facilement une question. La collecte des données est conditionnée par le respect des délais, le
recrutement des enquêteurs et le nombre de questionnaires ou d’entretiens correctement effectués.
Les analyses sont généralement plus simples et privilégient les représentations graphiques à deux
dimensions qui permettent de communiquer plus facilement les résultats. La clarté du rapport
\/|
d’étude est essentielle. Les conclusions de l’étude doivent être simples, réalistes et convaincantes.
$|
Dans une recherche, l’accent méthodologique est généralement plus prononcé, quitte à compliquer
4$
les résultats observés sont discutés à la lumière des résultats antérieurs, et une autocritique sur les
limites du travail réalisée.
B. Préoccupations convergentes
La recherche et l’étude marketing sont toutes deux soumises à trois séries d’exigences identiques :
– une démarche globale valide. La résolution globale d’un problème – recherche ou étude – doit
s’inscrire dans un cadre méthodologique valide pour que les résultats observés aient un sens.
L’appréciation de la validité globale d’une investigation comporte deux examens successifs : la
validité interne et la validité externe. La première partie de la fiche technique 3.2. développe ces
deux points ;
Fiche technique 3.2. Évaluer la fiabilité et la validité(45)
1 – Validité de la démarche globale d’une recherche ou d’une étude(46)
– Validité interne. C’est la réponse à la question : mesure-t-on bien ce que l’on cherche à mesurer, ou s’agit-il
d’autre chose ? Cette validité concerne la cohérence globale d’un plan et d’un mode de collecte ou d’analyse. On
vérifie que l’ensemble de la procédure (dispositif expérimental) permet d’affirmer que les effets mesurés par les
instruments sont bien dus aux effets des traitements spécifiques étudiés. On cherche, en d’autres termes, à
déterminer si une covariation observée peut être considérée comme une relation causale. Les principaux
facteurs qui mettent en péril la validité interne d’une étude ou d’une recherche sont : l’histoire (événements
intervenus entre deux mesures), la maturation des répondants (lassitude due à un questionnaire trop long),
l’effet propre à l’instrument (ex. : la pression de l’enquêteur, l’ordre de présentation, l’interprétation des
résultats, etc.), la régression statistique (l’investigation a eu lieu dans des circonstances exceptionnelles), les
biais de sélection (connaissance préalable du produit, interviews trop fréquentes), la mortalité expérimentale
(absence de réponse, abandons en cours d’expérience) et l’effet de test (sentiment d’être observé, recherche du
résultat attendu).
– Validité externe. Elle indique si les résultats observés peuvent être généralisés sans risques à d’autres
personnes, dans d’autres lieux ou dans des horizons temporels différents. Cette validité dépend en grande partie
du degré de représentativité des répondants par rapport à la population étudiée.
2 – Instrument de mesure (méthode d’interrogation ou d’observation) (47)
– Fiabilité. C’est le degré de stabilité des résultats lorsque l’on applique une nouvelle fois l’instrument dans des
conditions identiques. Plus un instrument est fiable, plus les résultats enregistrés sont précis. Plusieurs facettes
existent : stabilité temporelle (répétition du résultat lorsqu’on administre deux fois de suite l’instrument),
stabilité des contenus ou cohérence interne (deux versions différentes de l’instrument donnent des résultats
\/|
identiques), stabilité d’administration ou robustesse (l’application par deux personnes différentes donne le
$|
même résultat). La fiabilité est une condition nécessaire, mais pas suffisante pour s’assurer de la validité de
l’instrument. Les principales méthodes pour vérifier les différentes facettes de la fiabilité sont : le partage en
4$
Jöreskog) (48).
– Validité de construction(49). La première composante est la validité convergente ; deux instruments différents
appliqués à la mesure d’un même concept doivent aboutir à un résultat identique. La seconde branche est
appelée validité discriminante : un instrument de mesure d’un concept doit produire des résultats divergents
lorsqu’il est appliqué à la mesure d’un autre concept notoirement différent du premier. La validité de
construction impose donc de multiples confrontations entre les résultats obtenus avec le nouvel instrument et
des instruments classiques. Pour établir la convergence, on souhaite que les mesures du nouvel instrument
soient fortement corrélées à celles des instruments proches ; pour le caractère discriminant, les mesures entre
les concepts supposés différents ne doivent pas être significativement corrélées. La validité de construction
s’apprécie de deux manières : en élaborant une matrice multitraits – multi-méthodes (50) ou par équations
structurelles (51).
– Validité prédictive. C’est l’aptitude d’un instrument de mesure d’un concept à prédire la valeur d’un autre
concept. Elle est particulièrement importante pour un manager, puisqu’elle permet d’anticiper un résultat
inconnu (par exemple la part de marché, la mémorisation d’une publicité) en se fondant sur des mesures connues,
et donc de prendre à temps des actions correctrices.
– des instruments fiables et valides. Les études et les recherches utilisent des instruments de mesure
(questionnaires, entretiens, méthodes d’observation) et d’analyse (grilles, statistiques). La fiabilité
et la validité de ceux-ci doivent être établies. La fiabilité indique le degré de précision et de
reproductibilité des résultats fournis par un instrument ; la validité permet de s’assurer que
l’instrument employé mesure bien ce que l’on pense mesurer et pas autre chose.
La vérification systématique de la fiabilité et de la validité des instruments est, il faut bien le
reconnaître, rarement effectuée par les chargés d’études, compte tenu des délais disponibles et de
l’augmentation des coûts que cela engendre. De plus, même si la fiabilité et la validité ont déjà été
établies, il faudrait logiquement renouveler ces vérifications dès que l’instrument est utilisé dans un
nouveau domaine (produits, segments, pays, etc.). Les cas 2, 3 et 4 de la figure 3.7. mettent pourtant
clairement en évidence les risques pris lorsque ces conditions ne sont pas remplies ;
Figure 3.7. Illustration de la fiabilité et de la validité d’une mesure
\/|
$|
4$
Source : adapté de ÉVRARD Y., PRAS B. ET ROUX E., Market : études et recherche en marketing,
By
L’insight consommateur est quelque peu différent : il qualifie plus modestement une idée lumineuse
By
2. Enjeux et perspectives
Quelles sont les incidences pour la recherche marketing et les études d’un centrage sur l’insight des
consommateurs ?
– Les hommes de marketing reprochent fréquemment aux études de marché de ne pas fournir de
résultats opérationnels, tant d’un point de vue stratégique qu’opérationnel. Leurs conclusions ne
sont pas assez stimulantes pour le marketing. De fait, les hommes d’étude sont rarement consultés
lors des choix stratégiques de l’entreprise et ils ne font pas partie des comités de direction. Les
études ne prennent pas la parole, tendent à devenir routinières et s’en remettent trop souvent à la
technologie ; de surcroît, elles sont contraintes par une pression grandissante sur les coûts et les
délais (voir figure 3.8.).
Figure 3.8. Évaluation et perspectives des études de marché
clients
Source : Étude SWOT/Esomar Linkedin Group 2010.
– L’insight marketing offre de nouvelles perspectives et objectifs aux études de marché. Il apporte
des éléments concrets et utiles pour les orientations stratégiques et tactiques de l’entreprise, en
assumant un rôle de porte-parole du consommateur et/ou des clients. De nouvelles fonctions, telles
que celle d’insight manager (flash-étude 3.2.), concrétisent ce repositionnement des études dans
l’entreprise. Certains praticiens considèrent même qu’en 2020 les instituts d’études de marché
seront devenus des « consultants d’insight » et que les directeurs d’études des entreprises auront
tous été formés dans les plus grands cabinets de consultants en stratégies (ex. : Mc Kinsey, BCG)
(53)
.
Flash-étude 3.2.
Missions d’un consumer insight manager(54)
Il ne suffit plus de regarder les individus au travers du prisme des seuls produits qu’on leur
vend, il faut les saisir dans la globalité de leur vie. On passe d’un insight lié à une catégorie de
produit à un insight plus large, qui saisit des citoyens dans leur vie globale. Et surtout dans leur
évolution : de produits répondant à des motivations ponctuelles, on passe à la création de
produits accompagnant les individus dans leurs évolutions. À partir de là, la fonction de
consumer insight manager (CIM) est simple à définir : « comprendre la vie des gens et les
tendances sociétales qui y sont liées, c’est-à-dire observer, comprendre, traquer des
comportements, des tendances ». Les apports de la sociologie et de l’anthropologie sont
nécessaires et utiles. L’observation, les études ethnologiques font de plus en plus souvent partie
des méthodologies demandées et employées par les CIM. Il s’agit de dépasser la compilation de
données quantitatives, pour arriver à l’insight, à la « révélation ». L’enjeu est d’appréhender le
consommateur dans sa globalité : avant d’être acheteur de marques, celui-ci a une vie, des
comportements, des opinions. L’objectif est de développer une compréhension transversale du
consommateur et de dégager une synergie. Cette conjugaison de toutes les expertises
(documentation, études, observations) doit déboucher sur des plans d’action pointus.
L’anticipation du changement constitute la seconde mission de ce nouveau métier. Dès que de
\/|
nouvelles tendances sont identifiées, il convient d’être proactif vis-à-vis du marketing pour
$|
l’inciter à travailler sur ces nouvelles attentes du consommateur. Ce rôle de veilleur, de leader
4$
consommateur. Le consumer insight manager doit sans cesse convaincre les marketeurs
d’évolutions dont ils n’ont pas nécessairement conscience. Ce rôle d’influenceur, de conseil
exige une grande dimension relationnelle : ce manager travaille comme force de proposition. La
dernière tâche du CIM est de remettre les choses dans leurs perspectives et de conseiller les
chefs de produits marketing : il s’agit de passer du « J’ai besoin d’une étude » à « J’ai tel
problème à résoudre ». L’insight manager intervient comme expert qui dit s’il y a besoin ou non
d’une étude, et si oui, laquelle.
– Pour mieux prendre en compte les évolutions des comportements de consommation, les études
marketing doivent évoluer et s’enrichir(55). Tout d’abord, en passant d’un marketing de laboratoire à
un marketing de terrain. En effet, trop souvent, les comportements sont étudiés sur la base du
déclaratif (ce que le consommateur dit) et non pas en fonction des pratiques, c’est-à-dire à partir
d’observations réalisées sur les lieux de consommation. Nous présenterons les différentes méthodes
d’observation utilisables dans le chapitre 6. En second lieu, en ne faisant plus des études « sur » le
consommateur, mais « avec » le consommateur. Il s’agit de co-construire la connaissance avec ce
dernier, en l’intégrant plus profondément dans le processus d’étude, en tant qu’acteur et non pas
comme un simple répondant. Nous verrons ainsi dans le chapitre 5 différentes formes d’appel à
participation qui permettent à l’entreprise de développer des nouveaux produits en impliquant les
consommateurs dans un processus de co-création.
– Cette nouvelle focalisation sur le consommateur stimule la recherche marketing. La
compréhension des insights pousse les managers marketing et les chargés d’études à nourrir
régulièrement leur réflexion avec les résultats des recherches académiques. Celles-ci reposent sur
des arrière-plans théoriques solides permettant de cadrer, de comprendre, d’expliquer ou de
prévoir les comportements d’achat et de consommation. Ainsi, par exemple, le marketing
expérientiel, la culture de consommation, la consommation co-créatrice, les communautés de
marques, l’influence dans les réseaux sociaux on line sont autant de concepts et d’orientations
stratégiques qui sont issus des travaux menés par la communauté des chercheurs en marketing. Ils
permettent notamment de comprendre le sens d’une consommation et, par là même, de découvrir de
nouveaux insights marketing. Les résultats de ces recherches menées depuis plus de 40 ans sur le
comportement du consommateur sont publiés dans des revues scientifiques, en très grande majorité
anglo-saxonnes. Seules trois revues scientifiques françaises font exception : Recherche et
Applications en Marketing, Décisions Marketing, Perspectives culturelles de la consommation. Ces
publications font l’objet de recensements et de classements réguliers(56). Si la lecture de ces revues
est loin d’être une tâche aisée, les praticiens marketing y découvriront pourtant des nouvelles
théories, des nouveaux concepts et instruments d’études utiles pour comprendre et suivre les
évolutions des consommateurs.
clivage est suffisamment fort pour que les instituts d’études se présentent eux-mêmes comme
spécialistes de l’une ou l’autre. Nous verrons aussi, à la fin de ce paragraphe, que ces deux
approches peuvent être utilisées de manière complémentaire dans une même étude.
A. Approche qualitative
Une des caractéristiques majeures de la démarche qualitative est sa nature exploratoire. C’est le
cas, par exemple, lorsque l’on aborde un domaine inconnu (marché, produits, consommateur,
environnement, etc.). Ce type d’approche permet de dégrossir un problème en identifiant et en
recensant ses différentes composantes. Dans un même ordre d’idée, l’étude qualitative cherche
aussi à comprendre la nature des forces susceptibles d’expliquer un comportement : motivation et
frein pour l’achat d’un produit ou d’une marque. Par abus de langage, certains réduisent les études
qualitatives à l’étude de motivation. Même s’il est fréquent, la figure 3.9. montre bien que cet
objectif est loin d’être unique.
Figure 3.9. L’approche qualitative
Principales Limites
Objectifs
hypothèses méthodologiques
Généralisation des résultats
Non-représentativité de
Apprendre un vocabulaire, Approche en profondeur
l’échantillon ; taille
recenser des caractéristiques L’individu ne connaît pas les
d’échantillon réduite
d’un produit ou d’une marque. raisons de ses décisions, le
(≤ 20 personnes) ; analyse des
discours est stéréotypé,
résultats (souvent) manuelle.
Explorer un secteur d’activité rationalisé (réponses
inconnu (concurrents, conventionnelles).
Validité des techniques
distributeurs, etc.).
utilisées
Approche en surface
Identifier les grandes Rôle des signes marqueurs, du Rarement précisée (ou
vérifiée) ; interprétation des
dimensions d’un problème. sens latent ; importance du
contexte. données variables selon
l’analyste.
Formuler des hypothèses.
Rôle de l’inconscient
Le « non-dit » est important Caractère interprétatif
Interpréter le sens d’un
\/|
L’analyse revendique la
discours ou d’un acte. (silence, regard, lapsus, etc.).
$|
subjectivité de l’interprète : ce
qui compte c’est la cohérence,
4$
Pour atteindre ces différents buts, la démarche qualitative se fonde généralement sur une analyse en
profondeur, longue et méticuleuse, du discours de chaque interviewé. Les techniques les plus
utilisées pour recueillir ces discours sont l’entretien semi-directif (voir chapitre 4) et la réunion de
groupe (voir chapitre 5). Les méthodes qualitatives cherchent à recueillir des informations
beaucoup plus riches et chargées de sens. Elles travaillent en profondeur, pour aller au-delà des
rationalités de façade inhérentes à l’esprit humain.
Un autre courant recherche le sens d’un discours en se focalisant sur l’observation des
consommateurs (voir chapitre 6). Enfin, un mouvement qualitatif plus récent aborde la question du
sens de manière différente : l’analyse des associations, projections, métaphores, images et signes
permet d’accéder au sens caché et/ou à l’inconscient du consommateur. Nous présentons ces
approches dans le chapitre 7.
Le corollaire des points précédents est que la quasi-totalité des études qualitatives ne se sent pas
concernée par les problèmes de représentativité de l’échantillon(57). Il s’agit surtout de ne rien
oublier pour la compréhension d’une question. Dans ces conditions, il n’est pas possible de
généraliser, sur d’autres personnes, les résultats observés dans les interviews. D’où une limite
majeure : l’étude qualitative ne peut que rarement trancher une question, elle éclaire le sens en
donnant des pistes. Par exemple, on ne peut pas dire que telle motivation est plus importante que
telle autre pour l’achat d’un produit, mais que cette motivation exerce une influence sur le
comportement de consommation ou d’achat.
Un second aspect préoccupant réside dans le fait que bon nombre d’instruments qualitatifs, fort
séduisants en apparence, n’ont pas été validés dans des conditions solides, telles que nous les
avons définies dans la fiche technique 3-2. Il faut cependant noter que les praticiens commencent à
se sentir concernés par ce souci, mais beaucoup de travail reste à faire sur cette question(58).
Une dernière limite des méthodes qualitatives concerne l’interprétation des données et le style
ésotérique de certains rapports d’études. Le flash-étude 3.3. donne un aperçu de ce type de
critiques.
Flash-Étude 3.3.
Les réticences vis-à-vis du qualitatif
L’univers ésotérique des motivations profondes(59)
« Ésotérique, car on peut faire dire un peu n’importe quoi à ce type d’études. Suivant l’éclairage,
ou les idées préconçues de l’observateur, on pourra dire qu’une ménagère aime que la lessive
\/|
lave plus blanc, car elle veut atteindre l’objectif rationnel de la propreté, ou parce qu’une
$|
fixation au stade anal lui fait viscéralement haïr la saleté, ou parce que la propreté la justifie aux
4$
yeux de son mari, ou enfin parce que le linge propre symbolise la famille unie, le foyer, etc.
L’être humain est d’une telle complexité que le pourquoi profond est presque toujours
By
inaccessible. Il vaut mieux s’en tenir au pourquoi immédiat : quelles sont les caractéristiques
d’un produit ou d’une marque qui le font préférer par tel ou tel segment de consommateurs ? Dire
que le consommateur masculin aime les Ferrari rouges car ce sont des symboles phalliques ne
fait guère progresser Ferrari. En revanche, établir que “l’exclusivité” est importante pour
l’acheteur d’une Porsche peut conduire à diminuer la production annuelle, pour éviter de diluer
la rareté de la marque. »
Les obstacles du qualitatif(60)
« Du côté de l’entreprise, la question de l’appropriation des résultats d’une étude qualitative
reste lancinante. On n’utilise pas, ou mal, ce qu’on ne comprend pas bien : qu’est-ce qui permet
de penser que les résultats d’une étude qualitative sont crédibles ? Comment distinguer une étude
qualitative bien faite d’une étude qui ne l’est pas ? Pourquoi tant de modes passagères, pourquoi
ce langage ésotérique ? Quel sera le retour sur investissement ? “Where is the beef ?” disent les
Anglo-Saxons. De leur côté, les praticiens des études qualitatives se sentent parfois mal
compris. Leur travail de collecte et d’analyse des données est lourd, fastidieux parfois, mais le
soin apporté à l’interprétation et à la compréhension du sens des données est réel. Les techniques
qualitatives se prêtant mal aux gains de productivité offerts par les nouvelles technologies, la
pression exercée par les annonceurs sur les prix est d’autant plus forte. Même s’il existe
quelques exceptions telles que les logiciels d’analyse textuelle des discours, de reconnaissance
et de synthèse vocale, ou encore les focus groups on line, la gêne persiste, de part et d’autre. »
B. Approche quantitative
L’objectif majeur des études quantitatives réside dans la volonté de « compter et comparer pour
décider ». Par abus de langage, les techniques quantitatives sont souvent appelées sondage, alors
que, d’un point de vue statistique, le sondage n’est qu’une procédure de constitution de
l’échantillon.
Tout comme l’approche qualitative, l’approche quantitative repose sur différentes hypothèses et
comporte des limites (voir figure 3.10).
Figure 3.10. L’approche quantitative
Principales Limites
Objectifs
hypothèses méthodologiques
Qualité des réponses :
Évaluer des attitudes, des
Possibilité de mesurer, rationalisation, respect des
comportements.
contrôler, paramétrer toutes les normes sociales, capacité à se
erreurs ; construire un souvenir, réponses au hasard.
Pondérer des variables.
instrument de mesure adéquat.
Qualité du plan de sondage :
Associer ou regrouper \/|
Possibilité de généraliser : contrôle des variables
différentes variables.
respect des exigences exogènes, influence de
$|
statistiques, reproductibilité l’enquêteur et du mode de
4$
Visualiser géographiquement
des résultats observés. collecte sur les réponses
des individus, marques.
fournies.
By
La première caractéristique des études quantitatives est le souci de représentativité des résultats :
on doit pouvoir généraliser, avec une marge d’erreur restreinte, pour l’ensemble de la population
étudiée ce qui a été observé pour une fraction (un échantillon) de celle-ci. Les lois statistiques sur
lesquelles repose l’approche quantitative conduisent à des tailles d’échantillon variant entre 200 et
2 000 personnes, selon le degré de précision souhaité pour la généralisation ultérieure des résultats
(voir chapitre 8).
La deuxième préoccupation réside dans la construction d’instruments de mesure standardisés et
aisément codifiables pour des traitements informatisés. Ceci conduit à la réalisation de
questionnaires structurés et fermés (voir chapitre 9). La difficulté majeure est d’arriver à concilier
flexibilité, pour couvrir une grande variété de situations, et rigidité de l’instrument, pour minimiser
l’influence de l’enquêteur ou de l’analyste. Les risques majeurs sont de tomber dans le
questionnaire routinier et sans imagination, ou encore de s’abriter derrière la force rassurante du
nombre de répondants et des chiffres. Le flash-étude 3.4. illustre ce paradoxe.
Flash-Étude 3.4.
Les paradoxes du quantitatif
« Dessine-moi un mouton » (*)
Antoine de Saint-Exupéry n’a jamais été chargé d’études. Pourtant, son Petit Prince, poète
rêveur, mais fin observateur d’un monde réel, avait une position intéressante à propos de
l’approche quantitative :
« Les grandes personnes aiment les chiffres. Quand vous leur parlez d’un nouvel ami, elles ne
vous questionnent jamais sur l’essentiel. Elles ne vous disent jamais : “Quel est le son de sa
voix ? Quels sont les jeux qu’il préfère ? Est-ce qu’il collectionne les papillons ?” Elles vous
demandent : “Quel âge a-t-il ? Combien a-t-il de frères ? Combien pèse-t-il ? Combien gagne
son père ?” Alors seulement, elles croient le connaître. Si vous dites aux grandes personnes :
“J’ai vu une belle maison en briques roses, avec des géraniums aux fenêtres et des colombes sur
le toit”, elles ne parviennent pas à s’imaginer cette maison. Il faut leur dire :“J’ai vu une maison
de cent mille francs.” Alors elles s’écrient : “Comme c’est joli !” »
Des résultats exactement faux ? (**)
« Nous nous focalisons à l’excès sur les données, les analyses et les techniques, la fiabilité, la
représentativité, etc. C’est sûr que c’est important, mais souvent cela mène à des résultats qui
\/|
sont exactement faux, plutôt qu’à des résultats qui sont approximativement bons. Les études
$|
s’accommodent trop facilement du fait que les clients veulent “plus et moins cher” et du coup ne
4$
sont plus des sources de changement ou de valeur ajoutée. Nous avons beaucoup trop abusé
d’études ennuyeuses et répétitives pour répondre aux besoins d’informations, de telle sorte que
By
nos ressources se sont épuisées. Nous devons faire preuve d’imagination pour interroger les
consommateurs sur des choses qui les intéressent, pour qu’ils puissent visualiser les questions
(par des photos ou des vidéos), ou pour demander au consommateur d’explorer son
environnement et d’interpréter les résultats et les observations, ou encore faire appel aux réseaux
sociaux pour résoudre les problèmes et utiliser des méthodes qui font plus appel à l’expérience.
Prenons un exemple : si nous voulons savoir pourquoi les gens adoptent un produit, un
comportement ou une marque, nous leur demandons la plupart du temps de donner leur avis sur
des échelles de Likert. Alors qu’il serait plus fructueux de demander aux personnes qui ont
adopté le produit de ne plus l’utiliser pendant un certain temps et, à l’inverse, d’activer les non-
adopteurs en leur donnant la possibilité d’utiliser le produit pendant un moment. Et de demander
ensuite aux consommateurs de parler de leurs sentiments et de partager leurs expériences,
images, films et photos avec leurs pairs pour générer des insights plus riches à partir de cette
expérience naturelle. »
Source : (*) SAINT-EXUPÉRY A., Le Petit Prince, Gallimard, 1946, pp. 19-20.
(**) Extraits traduits et adaptés de SCHILLEWAERT N., « Market research is in a state of limbo »,
International Journal of Market Research, vol. 53, no 4, 2011, pp. 560-562.
C. Synthèse
En résumé, nous dirons que l’étude qualitative cherche prioritairement à répondre aux questions
« Pourquoi ? », « Comment ? », « Dans quelles conditions ? », « Qu’est-ce qui fait sens ? ». De son
côté, l’étude quantitative donne des réponses à des interrogations du type : « Qui fait quoi ? »,
« Combien ? », « Quand et où ? ».
Ceci explique que, les objectifs précédents étant souvent complémentaires, on dégrossisse d’abord
un problème par l’étude qualitative, et que l’on décide ensuite, grâce aux informations obtenues, de
mettre en place une démarche quantitative. L’investigation qualitative est alors une étape
préliminaire à la démarche quantitative.
Toutefois, il existe des situations où l’étude qualitative se suffit à elle-même, soit parce qu’elle
apporte l’information souhaitée, soit parce que l’approche quantitative sera, par nature, inutilisable.
Par exemple :
1 – Lorsque l’objectif de l’étude n’impose pas la représentativité statistique de l’échantillon. C’est
fréquemment le cas pour une enquête en milieu industriel, lorsque la cible est étroite (quelques gros
clients) ou très homogène par rapport au sujet de l’étude.
2 – Lorsque le sujet de l’étude se révèle non pertinent, par exemple si un test d’idée d’un nouveau
produit se révèle nettement défavorable.
Nous considérons que les deux approches sont également utiles à la décision marketing, à condition
de connaître les limites de chacune d’entre elles : refuser d’utiliser des méthodes qualitatives dont
\/|
la fiabilité et la validité n’ont pas été établies, refuser de quantifier « l’inquantifiable » (i.e.
l’inconscient, pulsions et freins, etc.).
$|
4$
La proposition se concrétise par un projet d’étude rédigé par un institut pour le compte d’un client,
à partir des réflexions et discussions préliminaires entre les partenaires. Son élaboration constitue
la dernière phase des travaux préparatoires au lancement de l’étude. Elle s’établit sur la base des
questions d’études retenues et s’achève par la remise au demandeur d’un plan de travail détaillé.
Ce document est analogue à un devis détaillé qui, en cas d’acceptation, engage contractuellement la
société d’études et son client. Il comporte plusieurs rubriques que nous allons présenter.
1. Objectifs d’étude
La formulation des objectifs d’étude correspond aux questions prioritaires auxquelles l’étude doit
By
répondre. Il est important de définir avec soin les concepts employés, surtout s’ils sont peu
courants. Les objectifs sont, de préférence, hiérarchisés et limités à quatre ou cinq. Au-delà, l’étude
risque de s’éparpiller et ne pourra traiter que de manière superficielle chacun d’entre eux. Dans le
même temps, l’institut résume le contexte de l’étude et montre sa maîtrise de la problématique du
client.
Certains cabinets ou instituts n’hésitent pas à faire figurer sous cette rubrique quelques exemples de
décisions ou de recommandations que le demandeur de l’étude sera en mesure de prendre au vu des
résultats fournis.
Voici par exemple les objectifs de deux études imaginaires.
Exemple
Étude ALPHA :
1 – Déterminer, pour l’ensemble des segments, les critères utilisés pour le choix du
produit.
2 – Identifier les critères de choix pour chacun des segments.
3 – Évaluer l’image de la marque ALPHA sur chacun de ces critères.
4 – Comparer avec les images des marques concurrentes (X, Y, Z).
5 – Formuler des recommandations pour un repositionnement d’ALPHA.
Étude BÊTA :
1 – Déterminer les potentiels de ventes respectifs des deux concepts de produits B1 et
B2.
2 – Proposer une fourchette de prix publics conseillés.
3 – Proposer un barème de prix pour les distributeurs.
2. Choix méthodologiques
\/|
$|
La méthodologie correspond aux différents choix à opérer durant les phases de collecte et d’analyse
des données(61) :
4$
• Variables à examiner : définition des concepts étudiés (motivation, attitude, image, attentes des
consommateurs, satisfaction, fidélité à la marque, etc.) ; utilisation éventuelle de produits, de
marques (fictives ou réelles), de publicités ou de dessins, etc.
• Échantillonnage : définition de la population visée, taille d’échantillon, plan de sondage ou
d’observation, lieu et date pour la collecte des informations, relances prévues.
• Instrument de collecte des informations : nature (interviews ou observations), support utilisé
(grille d’observation, guide d’entretien, questionnaire ou appareillage spécifique), mode de recueil
(à domicile, téléphone, poste, Internet).
– Phase d’analyse des données
• Dépouillement des informations : lecture, visionnage, transcription manuelle, saisie informatique,
etc.
• Traitement des données : analyse de contenu, tests et analyses statistiques, etc.
3. Coût
La moyenne du budget annuel études des entreprises est de 1,3 million d’euros (1,9 million pour la
grande consommation et 1,7 million pour les entreprises de plus de 500 salariés) ; le budget moyen
d’une étude est de 31 000 euros(62). Les études sont soumises à une forte pression sur les coûts et les
délais, les acheteurs estimant que la diffusion des technologies on line permet des gains importants
de productivité (voir flash-étude 3.5.). Nous allons donner quelques repères pour les différentes
catégories d’études.
Flash-Étude 3.5.
La pression sur les coûts et les délais
« Chacun sait dans l’institut qu’un client : a) est difficile à vivre ; b) change d’avis tous les deux
jours ; c) tarde à donner son accord sur le démarrage du terrain pour exiger d’anticiper de deux
semaines la date de remise des résultats ; d) que toutes les études réalisées pour ce client sont
des gouffres financiers, que le client le sait, mais qu’il n’en a rien à faire... Il sera difficile de
maintenir un focus sur la qualité. Rien n’est plus démotivant pour les équipes que de savoir que
leur travail a une contribution négative sur la profitabilité de leur entreprise. C’est à l’institut
qu’incombe la responsabilité d’alerter le client pour sortir d’une logique improductive. Mais,
c’est au client d’être à l’écoute de l’institut quand lui sont remontés des messages relatifs à la
non-rentabilité du projet. Le marché des études marketing est fortement concurrentiel et les
clients peuvent être tentés de “consommer” des instituts. Il faut insister ici sur les avantages à
établir un partenariat durable entre le client et son institut. Un des outils de pilotage de la
relation reste l’évaluation de la performance des instituts. Rien n’est plus important pour un
\/|
institut que de disposer d’un feed-back sur la prestation réalisée. Si le feed-back est honnête,
$|
dénué de langue de bois et réalisé avec un minimum de recul, l’institut aura en main les cartes
4$
nécessaires pour optimiser sa prestation. Une revue semestrielle ou annuelle des instituts est
recommandée. »
By
• Étude ad hoc. Le coût global hors taxes(63) de l’étude facturé par les instituts dépend avant tout de
la nature de l’étude : l’étude quantitative ad hoc est généralement facturée plus cher que l’étude
qualitative. En effet, la source majeure de coût d’une étude vient de la taille de l’échantillon. Les
devis couvrent la totalité du coût de l’étude, depuis la phase de négociation jusqu’à la présentation
des résultats au client. On distingue deux cas de figure :
– Étude quantitative. Le coût de l’administration d’un questionnaire par un enquêteur varie de
10 euros à 25 euros, selon la durée, le type de population interrogée et la méthode de collecte. En
incorporant les frais fixes (préparation, analyse des données et rédaction du rapport), il faut prévoir
un budget moyen de l’ordre de 20 000 à 30 000 euros HT pour interroger 1 000 personnes
(représentatives de la population française de plus de 15 ans). La figure 3.12. donne les variations
des coûts selon le mode d’administration, sur la base d’un échantillon représentatif de la population
française : l’administration par Internet présente un net avantage en termes de coûts, ce qui
explique, comme nous le verrons dans le paragraphe suivant, la très importante progression. Par
ailleurs, les tarifs faisant fréquemment l’objet d’une négociation commerciale, la facture finale peut
être réduite de 10 % à 20 % par rapport aux chiffres indiqués.
Figure 3.12. Coût d’une étude quantitative ad hoc
– Étude qualitative. Le devis standard se compose d’une vingtaine d’entretiens individuels semi-
directifs, éventuellement complétés par une à deux réunions de groupe (ce qui amène à prévoir un
budget global de l’ordre de 25 000 euros). Tous frais compris (préparation, terrain, analyse,
rapport d’étude), le budget pour une réunion de groupe en face-à-face (8 à 10 personnes) sera
compris entre 5 000 et 10 000 euros selon la nature des participants (voir figure 3.13.). Ce coût
comprend la rémunération des participants (en argent, bon d’achat ou cadeau à choisir dans une
liste), qui est devenue un usage bien établi : elle tourne autour de 35 à 45 euros pour un
\/|
consommateur adulte et peut aller jusqu’à 150 euros pour un médecin généraliste, voire jusqu’à
$|
300 euros pour un spécialiste(64).
4$
Réunion de
Réunion de
groupe en face-
groupe
Entretien semi- à-face
Population à distance
directif (8 à
interrogée (Internet, 6 à
(une heure) 10 personnes
8 personnes
pour une demi-
pour 2 heures)
journée)
Personnes au foyer
300 à 600 € 5 000 € 2 000 à 3 000 €
Étudiants
Cadres
1 000 à 1 200 € 10 000 € 6 000 €
Professions libérales
5. Modalités de règlement
L’usage veut que le règlement de la société de conseil se fasse en deux temps : 50 % à la commande
et 50 % à la présentation du rapport.
6. Synthèse
Le Syntec, organisme fédérateur des professions du conseil et des études, a « normalisé » la liste
des éléments devant figurer dans une proposition d’étude qualitative ou quantitative. La fiche
technique 3.3. recense les principaux points.
Langue de travail (si ce n’est pas le français), présentation des résultats (lieu et durée), utilisation de sous-
traitants, publication éventuelle, mode d’acheminement des documents, conditions de fourniture des tris
supplémentaires. Nom et qualité des responsables de l’étude. Garanties relatives à la qualité de l’institut. Clause
de confidentialité.
2 – Étude qualitative(65)
a. Échantillon
Définition de l’univers, critères servant de base à l’échantillonnage, taille de l’échantillon (nombre de
questionnaires exploitables), nombre de contacts nécessaires pour obtenir une interview, responsable de la
fourniture des listes.
b. Collecte des données
Entretien individuel : méthodes d’enquête (non directif, semi-directif, centré), durée, mode de consignation
(papier, crayon, magnétophone, vidéo), qualification de l’enquêteur, lieu d’enquête.
Réunion de groupe : type de réunion, durée, types de salle et enregistrement.
c. Analyse et rapport
Prestation fournie : bande magnéto ou vidéo, transcription, rapports oraux et écrits, analyses fournies.
d. Délais : identiques à l’étude quantitative.
e. Divers : identiques à l’étude quantitative.
l’entreprise. Les critères proposés dans la figure 3-15 sont utilisés par une multinationale
américaine pour apprécier la qualité des interventions de ses fournisseurs d’études.
By
Figure 3.15. Critères d’évaluation des prestations des instituts d’études
Source : Adapté de CHURCHILL G.A. Jr., Marketing Research : Methodological Foundations, 7e éd.,
By
Nous terminerons ce paragraphe sur une note humoristique, en présentant dans la figure 3.16. tout ce
qu’il convient de faire « pour être sûr(e) de rater son étude »... Certains points sont bien sûr un peu
caricaturaux, mais ils témoignent aussi de pratiques quelque peu abusives.
(67)
Figure 3.16. Dix conseils pour rater son étude (67)
1. Évolution globale
Le marché français des études s’est fortement développé durant les années 2000 à 2005, avec une
progression annuelle de l’ordre de 5 % à 10 %. La croissance s’est ralentie à partir de 2006,
accusant en 2009 une première baisse depuis plus de 15 ans. La reprise a eu lieu l’année suivante.
Depuis 2011, la situation est de nouveau ralentie avec un taux de croissance nul.
Figure 3.17. Chiffres d’affaires des études en France
Chiffres d’affaires
Années Variation annuelle (en %)
(en millions d’euros)
2013 2 000 – 0,1%
2012 2 013 \/| – 1,7%
2011 2 067 +1,3%
$|
2010 2 041 + 5,8 %
4$
2. Structure
Depuis une vingtaine d’années, le secteur des produits de grande consommation est le plus fort
demandeur d’études, l’alimentaire représentant la majeure partie du chiffre d’affaires. En 2013, la
grande consommation représente 37 % du total, suivie par la distribution (8 %), la finance-banque-
assurance (7 %), l’automobile (6 %) et les administrations (6 %)(68).
3. Méthodes
Les méthodes quantitatives progressent de manière constante depuis plus de trente ans au détriment
des méthodes qualitatives : ainsi, elles représentaient 65 % des études en 1985 contre 90 % en
2013 (voir figure 3.18). Les techniques de collecte des données sont, depuis 2010, majoritairement
effectuées via Internet. Si la percée est fulgurante dans le domaine des études quantitatives, elle
reste plus modeste pour les études qualitatives. Elle reste plus modeste pour les études qualitatives,
mais une percée se manifeste depuis 2012.
Figure 3.18. Répartition des études ad hoc selon l’approche et le mode d’administration
\/|
$|
4$
By
La ventilation des budgets selon les objectifs et le type d’étude est globalement assez équilibrée
(voir figure 3.19.). Les études répétitives (panels et baromètre) représentent 43 % du budget et les
études ad hoc 51 %. Dans cette dernière catégorie, les études quantitatives ont un poids
prépondérant par rapport aux études qualitatives.
Figure 3.19. Ventilation des budgets d’études des entreprises
Type
Objectif Répartition Répartition
d’études
Études longitudinales (panel et
43 % Panels 22 %
baromètres)
Baromètres 21 %
Études ad hoc 51 %
Études stratégiques 22 % quantitatives 37 %
qualitatives 14 %
Études tactiques (marketing-mix) 35 % Autres 6%
Source : TNS-Sofres pour UDA, 2011.
4. Instituts
Marketing Magazine publie chaque année, dans son numéro de mai(69), le classement des
100 premiers instituts d’études marketing. Malheureusement ce classement n’est plus représentatif
du marché français, du fait de la législation américaine : cette dernière interdit aux filiales
\/|
françaises de fournir leur bilan. Cela explique que ni Nielsen, ni Kantar-TNS ne figurent dans ce
$|
classement. Par ailleurs, les informations fournies reposent sur les déclarations des instituts et non
4$
résoudre ce problème. La figure 3.20 montre le classement conforme à la réalité du marché, avec un
trio de tête composé des instituts d’études Kantar, Ipsos et GfK. On observe que le marché est très
concentré, les 10 premiers instituts représentent 40 % du chiffre d’affaires total.
Figure 3.20. Les dix premiers instituts d’études en France (2013)
Taux de
CA 2013 Part de
Région croissance*
(Millons $) marché
(2012/2013)
Europe 16 005 \/| – 1,4 % 40 %
Amérique du Nord 15 705 +2,9 % 39 %
$|
Asie-Pacifique 5 998 +1,6 % 15 %
4$
Figure 3.22. Les cinq premiers marchés mondiaux des études en 2013
Chiffres
Part de
Pays Rang d’affaires
marché
(Millions $)
USA 1 14 991 37 %
GB 2 5 065 13 %
Allemagne 3 3 468 9%
France 4 2 679 7%
Japon 5 1 843 5%
Reste du monde 12 242 30 %
Source : Esomar Global Market Research 2014.
Figure 3.23 Le top 10 des sociétés d’études mondiales en 2013
Conclusion \/|
Nous avons vu, dans le présent chapitre, les principales décisions qui doivent être prises avant le
$|
démarrage effectif d’une étude de marché : adoption d’une démarche d’investigation et choix d’une
4$
approche méthodologique. C’est sur ces bases que la rédaction du projet d’étude est réalisée. Cette
dernière tâche marque la fin des travaux préparatoires.
By
Nous aborderons dans les chapitres suivants les phases de terrain et d’analyse des données. Dans
un souci pédagogique, et parce que les méthodes sont sensiblement différentes, notre présentation
distinguera les techniques qualitatives, qui font l’objet de la deuxième partie de cet ouvrage, puis
les outils quantitatifs, exposés dans la troisième partie.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’objectif majeur d’une étude qualitative est de :
(1) pondérer des variables
(2) regrouper des hypothèses ou des variables
(3) formuler des hypothèses
Q2. L’étude quantitative vise à :
(1) la représentativité des résultats
(2) neutraliser l’influence de l’inconscient
(3) recenser les composantes d’un problème
Q3. Un instrument fiable doit :
(1) mesurer ce qu’il cherche à mesurer
(2) reproduire le même résultat dans des conditions d’administration identique
\/|
(3) permettre de généraliser les résultats sur d’autres populations
$|
4$
(2) offrir plusieurs sujets d’étude à une même société d’études de marché
(3) offrir plusieurs sujets d’étude à plusieurs sociétés d’études de marché
Réponses : voir annexes téléchargeables sur www.vuibert.fr
Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
no 134, 1991/4, pp. 35-49.
BRUN M. et THOMAS J., « Plus vite et moins cher : avons-nous encore besoin de bonnes études de
marché ? », Revue française du marketing, no 217, mai 2008, pp. 9-26.
CHURCHILL G.A. Jr., « A paradigm for developing better measures of marketing constructs »,
Journal of Marketing Research, février 1979, pp. 64-73.
DION D. et SITZ L., « Enrichir la compréhension des comportements de consommation : pistes
opérationnelles et enjeux organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FAIVRE J.-P., « 12 conseils pour rater vos études », Revue française du marketing, nos 142-143,
1993/2-3, pp. 109-111.
LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
PETER J. P., « Reliability : a review of psychometric basics and recent marketing practice », Journal
of Marketing Research, février 1979, pp. 6-17.
PETER J.P., « Construct validity : a review of basic issues and marketing practices », Journal of
Marketing Research, mai 1981, pp. 133-145.
SCHILLEWAERT N., « Market research is in a state of limbo », International Journal of Market
Research, vol. 53, no 4, 2011, pp. 560-562.
SYKES W., « Validity and reliability in qualitative market research : a review of the literature »,
Journal of the Market Research Society, vol. 23, no 3, juillet 1990, pp. 289-328.
VERNETTE É., « L’efficacité des instruments d’études : évaluation des échelles de mesure »,
Recherche et Applications en marketing, vol. 6, no 2,1991, pp. 43-66.
\/|
$|
4$
By
Deuxième partie
Approche qualitative
Cette deuxième partie de l’ouvrage présente les principales formes d’investigation qualitatives et
les techniques associées. Elle montre au lecteur comment recueillir et traiter les informations en
fonction de la démarche suivie.
Nous commencerons par les investigations fondées sur l’entretien individuel (chapitre 4), nous
aborderons ensuite celles faisant appel aux interactions entre membres d’un groupe (chapitre 5) et
poursuivrons avec les investigations effectuées par observation (chapitre 6), pour terminer par la
présentation des principales techniques d’exploration et d’interprétation du sens (chapitre 7).
\/|
$|
4$
By
By
4$
$|
\/|
Chapitre 4
L’entretien individuel est la façon la plus simple d’approcher un consommateur. Cette investigation
qualitative permet de mieux comprendre les ressorts d’une décision humaine. Nées aux États-Unis
dans les années 1940, sous la conduite d’Ernest Dichter(70), les premières études qualitatives
appliquées aux problèmes de marketing ont été baptisées « études de motivation ». Leur utilisation
s’est développée de manière spectaculaire dans les années 1950 à 1970, puis a lentement décliné
jusqu’au milieu des années 1980, probablement en grande partie parce que les praticiens
\/|
« qualitatifs » ne se sont guère sentis concernés par la nécessité de valider leurs techniques, à la
$|
différence des partisans de l’approche quantitative.
4$
Depuis la fin des années 1990, l’entretien qualitatif individuel a connu un regain d’intérêt, avec la
nécessité de comprendre l’expérience de consommation dans sa globalité et les perspectives
By
ouvertes par des logiciels de plus en plus performants. Après une présentation générale des
approches, ce chapitre détaille les méthodes d’investigation traditionnelles issues de la
psychanalyse, puis il en développe les nouvelles formes, issues des courants philosophiques du
début et du milieu du XXe siècle (voir la figure 4.1.).
Figure 4.1. Plan du chapitre
\/|
$|
4$
Comportements
Motivations et
Attitudes et expériences
freins
de consommation
Connaissance
Forces, pulsions
Opinions : « Ce qu’on pense » ; Environnement
« Ce qui pousse vers »
« Ce qui se dit » « Pourquoi cela passe comme
« Pourquoi agit-on comme
« Quels a priori ? Quels cela, ici et maintenant ? »
cela ? »
stéréotypes ? »
Affectif
Jugements :
« Ce qu’il faut faire » ; « Ce qui
Émotion
est bien ou mal »
« Que ressent-on ? »
Conventions, valeurs
« Quelles formes de plaisir,
Freins, inhibitions Évaluations :
joie, colère, angoisse, peur ? »
« Ce qui retient » « On aime ou aimerait ceci, mais
« Quelles sensations ? »
« Ce qui fait peur » pas cela. »
« Pourquoi n’a-t-on pas fait Attentes, idéal, points favorables
\/|
cela ? » et défavorables
$|
Usage et expérience
4$
L’investigation individuelle part, dans un premier temps, d’une vision imprécise, non structurée et
superficielle de l’information, puis elle s’efforce de la décoder ou de l’interpréter en termes de
motivations, d’attitudes, de comportements ou d’expérience.
Ces approches sont sous-tendues par trois postulats communs(72) :
– les comportements individuels ne sont pas aléatoires. Toute conduite a une signification et une ou
plusieurs raisons que l’on peut mettre au jour en utilisant une forme d’investigation appropriée. Si
l’interview individuelle en profondeur est un moyen privilégié, d’autres formes sont envisageables,
comme l’entretien introspectif, phénoménologique ou herméneutique ;
– la signification d’un comportement n’est pas immédiatement accessible au sujet lui-même. En
conséquence, l’individu n’est pas toujours en mesure d’expliquer la raison de ses actes : l’analyse
et l’interprétation de ceux-ci nécessitent une approche indirecte. Il convient de distinguer
l’apparent, le manifeste qui sont directement accessibles, du latent, enfoui dans les profondeurs de
l’inconscient ;
– la réalité n’est pas unique. Elle est sujette à plusieurs interprétations et/ou constructions. Plus
particulièrement, la réalité est sujette à une double perception : celle du sujet qui la vit ou qui la
ressent au travers d’une « expérience » personnelle, et celle du chercheur qui doit en comprendre le
sens, puis le restituer de manière intelligible. Dès lors, la subjectivité est revendiquée, l’analyse
privilégie le « je », marque d’une vision personnelle de cette réalité.
\/|
$|
4$
By
Nous détaillerons dans les paragraphes suivants ces différents temps pour chaque forme d’entretien
individuel.
Les différentes approches de l’entretien qualitatif individuel présentent deux caractéristiques
méthodologiques communes :
– questions flexibles. Alors que les techniques quantitatives privilégient les questionnaires
rigoureux comprenant un éventail de réponses limité, les études qualitatives considèrent que de tels
instruments n’ont guère de sens. Dans un questionnaire, les questions sont posées de la même
manière et dans le même ordre pour chaque interviewé. Or, si ces contraintes facilitent la
quantification des données, elles présupposent que tous les répondants réfléchissent de la même
manière et abordent dans les mêmes termes une question donnée. De surcroît, les questions
contraignent les interviewés à n’utiliser que des réponses standardisées et prévues : que faire si les
réponses proposées ne conviennent pas ? Par conséquent, lorsqu’il est nécessaire de poser des
questions, les méthodes d’entretien individuel s’efforcent de s’adapter le plus possible à chaque
enquêté. Pour ce faire, elles offrent à l’enquêteur un guide d’entretien, plus ou moins structuré et
détaillé, mais très différent, comme nous le verrons plus loin, d’un questionnaire ;
– subjectivité dans l’interprétation des données. C’est un axiome majeur, parfois déroutant au
premier abord. Certaines techniques d’analyse de données qualitatives sont puissantes, mais
d’autres peuvent prêter le flanc à la critique, dans la mesure où leurs validité et fiabilité n’ont pas
clairement été établies dans un contexte d’étude du consommateur.
Principaux
By
A. Arrière-plan théorique
Ces techniques d’investigation trouvent leurs racines théoriques dans la psychanalyse – ou
« psychologie des profondeurs » – dont l’objet principal est la compréhension de la vie psychique
de l’individu. Elles s’intéressent prioritairement au « pourquoi » d’un comportement d’une
personne ; c’est la raison pour laquelle, par abus de langage, ces techniques sont souvent
dénommées « étude de motivation ».
1. Concepts fondamentaux
La psychanalyse, née à la fin du XIXe siècle, est aujourd’hui fragmentée en une nébuleuse d’écoles ;
son enseignement s’est progressivement déplacé de la médecine à la psychologie(73).
La fiche technique 4.1. présente les concepts de conscience, d’inconscient et de besoin, jugés
prioritaires par Freud, Adler et Jung, pour la compréhension de l’investigation en profondeur(74),(75).
extérieur ; le surmoi inhibe les pulsions du « ça ». Le « moi », stade du préconscient, est l’intermédiaire entre le
sur-moi et le ça ; il gère les besoins en prenant des décisions qui conduisent à la satisfaction ou au refoulement
des pulsions et besoins initiaux.
By
Les trois instances du psychisme freudien
\/|
$|
4$
By
Source : WEINBERG A., « Comment Freud a inventé la psychanalyse », Sciences humaines, no 113, février 2001,
p. 29.
2 – Alfred Adler
Adler, né à Vienne en 1870, est un contemporain de Freud. À la différence de ce dernier, il considère que l’instinct
sexuel n’est pas le moteur déterminant du comportement humain. L’accent est mis sur la dimension sociale et les
rapports avec l’entourage. L’homme est gouverné par des pulsions sociales qui se concrétisent par un style de vie
et une recherche de rapports de coopération. La conscience est le centre de la personnalité. L’homme est
conscient de ses motivations et de ses infériorités. En revanche, ses actions peuvent être planifiées pour
atteindre un futur but inconscient ou confus.
Le comportement résulte d’arbitrages entre des pulsions primaires qui sont le pendant de la constatation d’un
manque ou d’un état d’infériorité (physique ou psychologique) et des pulsions supérieures qui visent à
compenser, sous une forme plus agressive ou créative, le déséquilibre constaté.
Cet équilibre est difficile à atteindre et à maintenir : les défauts de la personnalité sont une déficience de
l’adaptation. Si le sentiment de l’état d’infériorité est permanent, on entre dans le domaine de la névrose du
complexe d’infériorité ; le symétrique est le complexe de supériorité, qui est une forme de surcompensation
agressive (culte du héros, abus de pouvoir, etc.). En marketing, on fait l’hypothèse que ces équilibres ou
traumatismes s’exprimeront, de façon généralement inconsciente, lors des choix d’un acheteur.
3 – Carl Gustav Jung
Né en 1875, Jung a été le grand rival de Freud. Leurs théories se sont d’abord enrichies mutuellement, puis ont
nettement divergé à partir de 1913. Un des désaccords majeurs porte sur les mécanismes du refoulement. Jung
développe une vision de la personnalité plus philosophique et mystique ; il explore les profondeurs du « monde de
l’âme ». Pour lui, être conscient, « c’est percevoir et reconnaître le monde extérieur ainsi que soi-même dans ses
relations avec le monde extérieur ». Sa vision de l’homme est plus optimiste que celle de Freud, car la
perturbation psychologique est pour Jung une chance à saisir pour élargir sa personnalité. Sa pensée, complexe
et touffue, contient de nombreux germes qui alimenteront les théories postmodernes, comme l’intérêt pour la
globalité – le « holisme » – et les phénomènes d’opposition et de complémentarité : l’individu et le cosmos,
l’individualisme et l’universalisme, l’âme et la matière(76).
La structure de la personnalité totale, la psyché, est formée de cercles en interaction. La « persona », masque
construit par les règles de l’entourage, est le reflet idéal de l’individu, censé répondre aux attentes de la
collectivité ; elle protège le « moi » des regards indiscrets. Le « moi » est une constellation de représentations
conscientes ; il possède un pouvoir propre, celui des sentiments et des pensées personnelles que nous taisons,
s’ils sont contraires à nos projets et intentions véritables. Le « soi » est l’essence de la véritable personnalité,
une sorte de guide intérieur qui n’apparaît que si le « moi » accepte de se mettre à son écoute : il est en partie
conscient et inconscient. Pour Jung, « l’inconscient personnel forme une couche psychique faite d’éléments qui
pourraient être tout aussi bien conscients, mais qui, pour certains motifs, de nature fort diverse, demeurent
\/|
inconscients ». Une partie de ce soi est enchâssée dans « l’ombre » qui se compose d’un mélange de traits
personnels et de potentialités ignorés de l’individu ; seules des techniques projectives, telle la méthode des mots
$|
inducteurs, permettent sa mise au jour (voir le paragraphe I-A du chapitre 7). L’animus est la personnification du
4$
principe féminin pour l’homme, l’anima représentant le principe masculin pour la femme ; ce sont les expressions
de l’image de l’âme dont la connaissance réciproque dans un couple rendrait les relations durables et
harmonieuses. Les représentations inconscientes et récurrentes de la personnalité humaine sont dénommées
By
« archétypes » ; elles découlent du patrimoine culturel et biologique de l’homme et « elles donnent la possibilité
formelle de reproduire des idées semblables ou au moins analogues ».
Les besoins fondamentaux de l’homme sont satisfaits par les sources physiologiques (nourriture), mais surtout
par l’adaptation de l’énergie psychique aux modifications de l’environnement. La sérénité est atteinte par
l’exploration intérieure, la recherche d’une expérience personnelle fondée sur le « laisser-venir », la
différenciation et la confrontation étant un préalable à cette unité.
Structure de la psyché jungienne
Source : EDINGER E. F., « An outline of analytical psychology », Quadrant, no 1, 1968, cité par PELLEMANS P.,
1998, p. 292.
\/|
$|
2. Implications pour l’entretien qualitatif
4$
Pour conduire et analyser un entretien en profondeur, le chargé d’études doit garder à l’esprit les
principaux axiomes des théories psychanalytiques. Trois points émergent :
By
’
1 – Un acheteur n’est pas forcément conscient de ses motivations.
Les angoisses, les complexes ou les traumatismes passés resurgissent fréquemment lors de l’achat
d’un produit. Pour Freud, les véritables besoins sont latents (inconscients) et leur satisfaction
s’exprime par une réaction d’opposition. Chez Adler, les besoins d’estime et d’affirmation de soi
sont source de motivations (pulsions, désirs de compensation) et de créativité. Chez Jung,
l’archétype, le mythe et la sublimation (besoin de se transcender) motivent le comportement ; ainsi,
le produit ou la marque représenterait un miroir de soi sur lequel l’individu projette des contenus
psychiques inconscients.
’
2 – Les mécanismes de défense de la personnalité compliquent l’investigation.
Les différentes strates de notre personnalité peuvent être source de conflits intérieurs. La protection
du psychisme met en jeu des mécanismes de défense (tel le refoulement) qui sont autant de pistes
délicates que le chargé d’études doit explorer. L’achat d’une marque ou d’un produit peut être un
moyen de réduire ces tensions, par un phénomène de projection inconsciente (identification à autrui,
déplacement, transfert, sublimation), ou un moyen de compenser un manque quelconque (le
complexe).
’
3 – Les discours ne peuvent être analysés directement : ils doivent être interprétés.
Les différentes théories s’opposent sur le sens des symboles et actes inconscients de l’individu :
interprétation des rêves, association d’idées, lapsus, archétypes, etc. En revanche, l’écoute non
directive et le test projectif (voir chapitre 7) sont des techniques d’interprétation communes aux
différents auteurs.
B. Échantillonnage
Si, dans une démarche qualitative, l’échantillonnage ne vise pas à la représentativité quantitative de
la population mère étudiée, il doit néanmoins être effectué avec méthode. Deux questions se posent.
1. Qui interroger ?
Le choix des répondants ne s’effectue pas au hasard : il est orienté, c’est-à-dire qu’il répond à une
logique dictée par les questions d’études. Plusieurs séquences sont envisageables(77).
piste. Par exemple, si le sujet est « le moment du goûter à l’école primaire », on commence par
interroger différents enfants de la maternelle au cours moyen, puis leurs parents. Il peut apparaître,
By
par exemple, qu’au cours des entretiens, les instituteurs et institutrices jouent un rôle de
prescripteur en suggérant ou en bannissant des aliments particuliers, des emballages, etc. Dans ce
cas, on interrogera des professeurs d’école, voire des directeurs (directrices) d’école. S’il apparaît
ensuite que le mode de transport influence la nature du goûter, on diversifiera les entretiens en
fonction de ce critère et de la distance du domicile par rapport à l’école.
b. Homogénéité vs hétérogénéité
L’homogénéité permet d’approfondir une question d’étude récurrente ou très délimitée.
L’hétérogénéité est préférable si l’on veut explorer ou découvrir un nouveau marché. Dans le
premier cas, les répondants sont homogènes (sexe, âge, professions, etc.), en cohérence avec
l’objectif d’étude, et inversement pour le second. Les critères découlent de la cible marketing
visée : selon le cas, on définira plusieurs groupes hétérogènes sur une ou plusieurs variables (par
exemple l’âge et le sexe) et homogènes sur une autre (par exemple, le niveau de revenus).
c. Typique/normal vs atypique/extrême
La confrontation des contextes typiques de consommation à des situations extrêmes ou à des
consommateurs atypiques est intéressante, si l’on désire identifier des constantes et des régularités.
Le cas extrême ou déviant permet des découvertes à partir de manifestations inhabituelles du
phénomène étudié ; le cas typique met en évidence ce qui relève de la norme ou de la moyenne.
2. Combien de personnes interroger ?
Dans la pratique des études, la taille usuelle d’un échantillon qualitatif est d’une vingtaine de
répondants, oscillant dans une fourchette comprise entre 15 et 30. Ce nombre assure une
« saturation » satisfaisante des données, c’est-à-dire qu’un interviewé supplémentaire n’apportera
pas de nouvelles informations pour enrichir ce que l’on avait déjà obtenu. La saturation théorique
ou sémantique est atteinte si l’on n’obtient pas de nouveaux éléments dignes d’intérêt, depuis au
moins deux interviews. Au-delà, il est contre-productif de continuer la collecte, car la surcharge
d’informations peut nuire à la compréhension du problème(78).
Les recommandations pour fixer le nombre d’interviews optimal varient selon le type
d’investigation individuelle et les champs théoriques (voir figure 4.5.). Certains considèrent que le
point de saturation peut être atteint dès 10, voire 6 interviews(79).
Figure 4.5. Taille de l’échantillon pour une étude qualitative
Source : D’après MASON M., « Sample Size and Saturation in PhD Studies Using Qualitative Interviews »,
Qualitative Social Research, vol. 11, no 3, 2010, 14 pages.
3. Méthode de collecte
Il existe trois grands principes de conduite d’un entretien en profondeur : la non-directivité pure, la
semi-directivité et l’investigation « papier-crayon ». La figure 4.6. compare ces approches. Le
point commun de ces formes d’entretien est leur caractère de discussion « non structurée ».
L’enquêteur est plutôt en retrait, l’interviewé est le véritable centre de l’investigation. La forme non
directive pure est très proche de l’entretien clinique en profondeur : compte tenu des contraintes de
collecte des données et des difficultés d’interprétation, elle est modérément utilisée en marketing.
Nous ne présenterons donc que l’entretien semi-directif et l’entretien papier-crayon.
Figure 4.6. Les différentes formes d’entretien en profondeur
Formation de
« clinicien ». Formation spécifique Investigation
By
Inconvénients
Adaptation à un des enquêteurs. superficielle.
contexte marketing ?
10-20 personnes. 20-30 personnes. 30-50 personnes.
Échantillonnage
Profils variés. Profils très variés. Profils plus segmentés.
Quand tous les thèmes prévus ont été creusés, l’entretien pourrait s’arrêter là. Mais ce type
d’investigation n’étant pas sans danger, il convient de ramener le répondant à la réalité quotidienne,
By
très différente du « rêve éveillé » que l’on a pu conduire durant une à deux heures. Il est important,
avant de clôturer l’entretien et durant quelques minutes, d’aider le répondant à reconstituer ses
défenses psychologiques.
Quel mode de transport ? Faire décrire le premier jour, une journée type, l’organisation générale de la semaine.
Évoquer le rôle de l’animateur et/ou accompagnateur (faire décrire le « bon » et le « mauvais »), etc. Relancer à
fond.
By
b. Rôle de l’enquêteur
Dans l’entretien semi-directif, l’enquêteur applique trois principes de base :
– respect des silences, minimum de 10 à 15 secondes, avant d’utiliser en dernier recours les
différents types de relances présentés ci-dessous ;
– initiative laissée au répondant pour aborder les thèmes prévus dans l’ordre qu’il souhaite. Éviter
de l’interrompre, mais relancer plutôt ultérieurement sur les thèmes effleurés ou partiellement
évoqués. Ne pas hésiter à faire référence à l’imaginaire, au rêve éveillé, etc. ;
– absence de commentaires des réponses, ou de marques de surprise. Bannir toutes les interjections
du type « Ah oui ? Tiens ? Ah bon ? ». Se contenter d’encourager par des « oui » réguliers et
hochements fréquents de la tête. Au besoin, une installation légèrement décalée par rapport à
l’interviewé et une mise du magnétophone à droite ou à gauche de l’enquêté favorisent la création
\/|
d’un climat de confiance.
$|
– Relance différée
L’objectif de cette relance est de revenir sur un point précédemment évoqué par le répondant, mais
de manière jugée superficielle par l’interviewer. Comme la règle est le respect du fil du discours,
cette relance ne doit être utilisée que lorsque le répondant a épuisé les thèmes qui le préoccupent.
L’enquêteur reprend les mots utilisés par le répondant, lorsque le point avait été abordé, en faisant
précéder son intervention de : « Tout à l’heure, vous m’avez dit que... ».
\/|
Exemple
$|
4$
– Interviewer (ton calme et neutre) « Tout à l’heure, vous m’avez dit que vous n’aimiez
pas trop partir avec des gens que vous ne connaissiez pas... »
By
– Répondant « ... Oui, c’est vrai, je n’aime pas cela. On ne sait jamais à l’avance sur
qui l’on va tomber, etc. »
– Relance interprétative
Cette technique permet à l’enquêteur de clôturer un aspect important de l’étude, avant de passer à
un autre point. Elle permet d’être sûr que le répondant a bien dit tout ce qu’il avait en tête. Parfois,
elle sert à faire reformuler par l’interviewé des propos jugés obscurs ou ambigus.
Exemple
– Interviewer « Si je vous comprends bien, pour vous, les vacances en groupe c’est
quelque chose que vous rejetez définitivement... »
– Répondant « C’est exactement cela ! Et même, je dirai que si on m’en offrait je les
refuserais ! Croyez-moi, rien ne vaut les vacances que l’on organise soi-même... »
Le guide-répertoire est plus rigide que le guide d’entretien semi-directif, dans la mesure où l’ordre
dans lequel les questions sont posées tend à être le même. Mais celles-ci restent toujours formulées
de façon ouverte.
Exemple
Pour les deux premiers points de la phase d’introduction du guide-répertoire, la
formulation retenue était :
« D’après vous, quelles sont les conséquences de la croissance économique sur la
production de déchets ? »
« Est-ce que cela pourrait être un danger pour notre environnement ? »
Tout comme pour l’entretien semi-directif, on évacue, le plus tôt possible, le discours rationnel ou
les « clichés » liés à la protection de l’environnement, en démarrant par la croissance économique,
la consommation de matières premières, etc. Ici, cependant, on entre plus vite dans le vif du sujet.
La phase no 1 part du vécu des interviewés, en leur demandant de décrire concrètement ce qu’ils
font des produits utilisés pour la préparation de leurs repas, puis des déchets restant après le repas.
Les thèmes prévus sont généralement abordés spontanément, parfois dans un ordre différent selon
les individus. Dans ce cas, l’enquêteur enregistre les réponses en face du thème prévu dans la
rubrique de la grille.
La phase no 2 permet de relever les réactions spontanées des individus face à l’énoncé du projet.
\/|
Leurs évaluations sont plus lucides et critiques, car ils gardent en mémoire leur propre
$|
comportement, évoqué dans la phase précédente. Ceci limite le biais de complaisance, c’est-à-dire
donner un jugement trop indulgent par rapport à sa position réelle.
4$
6. Analyse de contenu
By
\/|
$|
4$
By
’
2 – Définition de l’unité d’analyse de contenu
Ce choix majeur découle directement de l’objectif poursuivi par l’étude, et est important à un
double titre : il détermine la nature du schéma de codage permettant l’interprétation du discours et
conditionne le choix des indices de quantification. Les trois niveaux les plus fréquemment utilisés
sont(85) :
– le mot : c’est l’unité primaire d’analyse. Par extension, on peut élargir ce niveau aux synonymes.
Cela suppose la création de tables d’équivalence. Ce choix peut être intéressant pour l’analyse
d’une campagne publicitaire, le recensement de caractéristiques de produits ou de marques, ou
encore pour la construction d’un questionnaire nécessitant un vocabulaire technique ;
– la phrase : cette solution est intéressante pour repérer des enchaînements systématiques ou des
relations de dépendance entre deux ou plusieurs phrases. Par exemple, on peut choisir ce type
d’unité pour l’étude d’argumentaires ou d’entretiens de vente ;
– le thème : c’est un groupe de phrases jugées équivalentes, car faisant référence à des situations, à
des objectifs ou des concepts proches. Il est possible d’affiner ces thèmes en développant une
arborescence fondée sur des sous-thèmes successifs. Les études d’image de marque, d’usage
produit adoptent souvent cette solution.
La figure 4.8. récapitule les principaux types d’analyse de contenu pratiqués selon l’unité de
\/|
traitement retenue. Dans une étude de marché, l’analyse thématique est la plus fréquente, complétée
$|
éventuellement par l’analyse lexicale.
4$
construction se fait par tâtonnements successifs et vise à identifier et à dénommer les rubriques
(catégories) qui apparaissent comme les plus pertinentes pour l’analyse. Ces rubriques
s’appelleront, par exemple : « Confort », « Agressivité » ou « Arguments », etc.
Figure 4.8. Types d’analyse de contenu
\/|
$|
4$
By
Figure 4.9. Types de catégorisation pour établir la grille générale
La figure 4.10. présente les catégories retenues dans une étude conduite auprès de futurs dentistes.
L’objectif était d’identifier les relations existant entre les patients et les praticiens. On remarquera
que chaque catégorie de thèmes est identifiée par un code, ce qui facilite les traitements ultérieurs.
Figure 4.10. Exemple de catégories (étude menée auprès de dentistes)
1. École
1.1. Travaux pratiques avant tout
1.2. Écoute du patient possible, pas possible en cabinet
2. Sanction
2.1. La sanction affecte la représentation que le praticien a de sa compétence
2.2. La sanction affecte la relation praticien/patient
2.3. La douleur est perçue comme une sanction par le praticien
3.Typologie des clients
3.1. Le type de client influence la relation praticien/client
3.2. La typologie est fonction de critères affectifs (sympathique, antipathique)
3.3. La typologie est fonction de la peur
4. Douleur
4.1. Objective ou subjective
4.2. Élément de dissymétrie patient/praticien
4.3. Nécessité d’une empathie du praticien
Source : Extraits adaptés de GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A.,
\/|
Manuel d’analyse de contenu, Armand Colin, 1980, p. 55.
$|
4$
et on affecte à chaque unité du discours le code prévu. D’un point de vue pratique, on peut utiliser
des fiches bristol comportant trois colonnes : une pour le codage, une pour le texte de l’entretien,
une pour les éventuels commentaires ou observations de l’analyste.
Une bonne codification des interviews doit être fiable, c’est-à-dire que la même grille utilisée par
deux codeurs différents doit conduire à des affectations aussi proches que possible. Le degré de
fiabilité du codage entre deux analystes peut être calculé avec la formule suivante(88) :
Exemple
Deux analystes A et B ont codé indépendamment dix interviews en utilisant une grille
identique. Pour simplifier, imaginons qu’ils devaient catégoriser l’ensemble discours
en deux catégories : motivation vs frein pour l’achat. L’unité de traitement est la
phrase. L’échantillon a produit un total de 200 phrases qui ont été codées de la
manière suivante :
Juge A
Motivations Freins Total
Juge B
Motivations 72 16 88
Freins 25 87 112
Total 97 103 200
contingence (voir chapitre 14), c’est-à-dire les fréquences absolues associées à chaque couple de
catégories. On obtient un coefficient Kappa pour chaque catégorie et un coefficient global. Le
premier permet d’identifier précisément les catégories sur lesquelles il existe un désaccord entre
les analystes, le second donne une idée de l’intensité de la concordance des jugements entre les
deux partenaires(89).
Le coefficient Kappa varie entre 1 et – 1. S’il est proche de 1, il indique un très fort degré d’accord
entre les juges et un degré marqué de désaccord s’il est négatif. Dans la pratique, on estime que
l’accord est moyen si le coefficient est compris entre 0,4 et 0,6 ; l’accord est jugé bon dans
l’intervalle 0,6 à 0,8 et excellent au-delà(90).
Lorsque toutes les interviews ont été codifiées, on établit une feuille de synthèse, à partir des
éléments les plus significatifs de chaque entretien. On enrichit cela par des verbatims, c’est-à-dire
des citations courtes et illustratives des propos des répondants, jugées parlantes ou
caractéristiques. La figure 4.11. donne un aperçu de ce type de document. Il s’agit d’extraits
d’interviews (fictives), portant sur les attentes des hommes d’affaires vis-à-vis d’une compagnie
aérienne.
Figure 4.11. Grille de synthèse des attentes vis-à-vis d’une compagnie aérienne
Catégories
Interview no 1 Interview no 2 Interview no 3
de thèmes
« par téléphone,
1. Avant le vol « rapide et fiable »
Internet »
1.1. Réservation « très aimable »
« reports possibles »
« impersonnelle, « trouver un coin
1.2. Attente aéroport
froide, longue » tranquille »
« parc à moutons » « combien de temps
1.3. Enregistrement
« dure une éternité » avant le vol ? »
1.4. Embarquement
2. Pendant le vol
« sourire mielleux » « superbe » « impersonnel »
2.1. Accueil
« me laisser
« reste à votre
tranquille »
2.2. Services disposition »
« discrétion »,
« ni trop, ni pas assez »
\/| « souple »
« se reposer dans le « sièges, espaces,
$|
2.3. Confort « très bien fait »
calme » ambiance feutrée »
4$
« grande ponctualité »
3. Après le vol « que des retards » « respect des rendez-
« difficile,
By
De la même façon, on calcule les fréquences d’apparition sur la base de l’analyse horizontale : cela
permet de comparer, sur l’ensemble des interviewés, les différents poids des catégories. En
d’autres termes, on cherche à savoir quels sont les mots, phrases ou thèmes qui reviennent le plus
\/|
souvent auprès des interviewés.
$|
Figure 4.12. Analyses horizontale et verticale
4$
By
Figure 4.13. Exemple d’analyse par les fréquences d’apparition
(1) 3 signifie que cette catégorie a été évoquée trois fois par l’interviewé. (2) 50 % = (3 + 2 + 2)/14. (3) 17 % = 6/35.
Exemple
Dans notre exemple, les attentes des trois hommes d’affaires sont, dans l’ensemble, un
peu plus fortes durant le déroulement du vol, puisqu’elles représentent 37 % du
\/|
nombre total des catégories évoquées. Rappelons que la généralisation de ce résultat
$|
n’a de sens que si l’échantillon est représentatif de la population « Homme
4$
d’affaires », ce qui est très rarement le cas dans une telle étude.
By
Cependant on peut tester, au sein de l’échantillon, la pertinence des classements proposés par
l’analyse horizontale. Les tests non paramétriques (voir chapitre 13) permettent de valider des
différences observées ou des associations entre deux variables, dans le cas d’échantillons de très
petite taille (inférieure à 20 personnes). Par ailleurs, le calcul des fréquences en analyse verticale
garde tout son sens, puisqu’il se déroule sur une même interview. Ainsi il sera possible, toujours
grâce aux tests non paramétriques, de dire que, pour une interview donnée, tel thème ou tel mot
revient plus souvent qu’un autre.
• Fréquence de concomitance ou d’association. Le principe consiste à relier les catégories qui se
précèdent ou se succèdent durant le discours d’un individu, puis à comptabiliser leur fréquence
d’association. Tout comme le calcul des fréquences d’apparition, l’analyse des associations peut se
faire à différents niveaux de catégories : mots, phrases, thèmes. Cette analyse permet de découvrir
les différents sens d’une même catégorie, les contextes dans lesquels les enquêtés l’emploient et les
enchaînements logiques existant entre deux catégories. L’analyste peut ainsi aisément orienter sa
réflexion sur les couples dont la fréquence d’association est particulièrement élevée.
Exemple
Imaginons qu’un chef de produit d’un fabricant de voitures veuille déterminer les
attentes des consommateurs en matière de confort. On a extrait d’une dizaine
d’interviews en profondeur tous les fragments de discours contenant le mot « confort »
et ses dérivés : « confortable », « confortablement ». Voici la liste obtenue :
1 : ... piloter pour juger du confort de conduite...
2 : ... une tenue de route confortable, c’est un plaisir...
3 : ... le confort, c’est le silence...
4 : ... un siège confortable évite la fatigue...
5 : ... le confort d’un siège enveloppant...
6 : ... conduire confortablement, sans fatigue...
7 : ... rouler confortablement assis...
L’analyse des associations montre que le confort est associé à :
* des conditions : silence, tenue de route, siège (5 mentions) ;
* un but : piloter, conduire, rouler (4 mentions) ;\/|
* des sensations : plaisir, fatigue (3 mentions).
$|
Il est possible d’analyser et de représenter graphiquement les associations entre les différentes
catégories. Deux perspectives sont envisageables :
– analyse des couples d’associations. On construit d’abord un tableau à double entrée, avec en
ligne les catégories i et en colonne les différents mots j associés aux catégories. Dans chaque
cellule ij, on note le nombre de fois où une catégorie i a été reliée à un mot j par les répondants.
Nous verrons dans le paragraphe 8 comment une analyse textuelle quantifiée permet de visualiser la
proximité de ces couples d’associations dans un espace géométrique ;
– élaboration des réseaux associatifs. Les associations peuvent relier plusieurs catégories entre
elles : l’ensemble des chaînes forme le réseau associatif d’un individu. Par exemple, « confort » est
associé à « siège » qui est associé à « moelleux », lui-même relié à « mal au cœur », etc. Les
réseaux individuels peuvent être agrégés et déboucher sur une carte graphique qui montre les poids
des nœuds et la proximité des associations (voir chapitre 7).
7 – Rapport de synthèse
C’est le document remis au demandeur de l’étude. En ce sens, sa construction suit les grandes lignes
que nous développerons dans le chapitre Conclusions et recommandations. Cependant, il convient,
dès à présent, de préciser les spécificités du rapport qualitatif. Celui-ci a pour ambition de rendre
clair un raisonnement souvent complexe. Le cheminement suivi par l’analyste doit être
compréhensible par l’homme de marketing : l’obscurité ou un discours jargonnant décrédibilise le
document. En revanche, la (ou les) théorie(s) qui a (ont) guidé l’interprétation des données
devrai(en)t être précisée(s). Voici quelques recommandations pour la rédaction du rapport.
• Préciser le schéma global d’interprétation des données. Un diagramme clair, par exemple une
arborescence, subdivise le problème initial en plusieurs dimensions, elles-mêmes éclatées en sous-
dimensions. Chaque composante fait l’objet d’une partie spécifique.
• Ne pas bâtir le rapport sur une succession d’extraits d’interviews (verbatims). Il est utile de
sélectionner les verbatims jugés les plus parlants pour illustrer telle ou telle interprétation ou
conclusion. Néanmoins, il convient d’être sélectif et de ne pas tomber dans l’excès. Le document de
synthèse cherche surtout à dégager les thèmes majeurs révélés par l’analyse. Sa valeur ajoutée
consiste, par exemple, à faire apparaître le plus clairement possible les grandes composantes du
problème, les différentes hypothèses que l’on est en mesure de formuler, etc.
\/|
• Résister à la tentation de la « pseudo-quantification ». L’inconvénient du calcul des fréquences de
citation ou d’association est qu’il permet d’établir une hiérarchie entre les différents thèmes ou
$|
aspects d’un problème : on sera tenté de dire que celui-ci est plus important (ou plus souvent
4$
associé à) que celui-là. Cette quantification n’a de sens que si l’on dispose d’un échantillon
représentatif de la cible étudiée. Or, nous avons vu que, compte tenu de leur objectif, la grande
By
majorité des études qualitatives n’ont pas à respecter cette contrainte. Il est donc important de
cerner les limites des conclusions, en indiquant dans quelle mesure celles-ci peuvent être étendues
à d’autres segments ou populations.
• Éviter le jargon systématique. L’analyse qualitative utilise un vocabulaire spécifique découlant
principalement des théories psychologiques ou sociologiques. Il est nécessaire de définir, dès le
début du rapport (ou éventuellement dans une brève annexe), les principaux termes et concepts
employés.
7. Analyse transactionnelle
Alors que l’analyse de contenu vise à expliquer le pourquoi d’un comportement passé, l’analyse
transactionnelle, dérivée des travaux de Berne, se focalise sur la compréhension « ici et
maintenant » des transactions entre les individus. Cette dernière technique complète la précédente
en appliquant aux données une grille d’investigation particulière (voir fiche technique 4.4.).(91)
\/|
$|
1 – Analyse structurale : les trois états du « moi »
4$
– Le moi « parent », domaine de l’appris, représente l’ensemble des comportements reproduits par imitation des
valeurs parentales et des règles sociales ; par exemple, « Tiens-toi droit à table » ou « Tu joueras quand tes
devoirs seront finis » sont des manifestations du moi « parent ». La plupart du temps, la relation s’exprime du plus
By
âgé vers le plus jeune ou du chef vers l’employé ; le contraire est possible, comme par exemple lorsqu’une
adolescente dit à sa mère : « Ta coiffure est démodée. »
– Le moi « adulte » est le siège du raisonnement et du traitement des informations en vue d’une décision, comme
pour les interrogations suivantes : « Qu’est-ce qui est important dans cette affaire ? » ou « Pourquoi aller dans
cette direction ? » Une délibération intervient, même si la logique sous-jacente est erronée ou tortueuse. L’adulte
est souvent en conflit avec le parent qui impose des décisions conditionnées par le passé.
– Le moi « enfant » est le refuge de l’inné, des sensations, des émotions et désirs, comme dans les phrases
suivantes : « J’ai envie d’un bon film pour me détendre » ou « Non, je ne ferai pas cela, un point c’est tout ». Il se
décompose en enfant adapté (celui qui intériorise les règles) et en enfant spontané (celui qui joue, imagine et
invente). Cet état existe tout au long de la vie et remonte à la surface, plus ou moins fortement selon la maturité
de l’individu.
2 – Analyse transactionnelle : l’échange avec autrui
Tout rapport d’échange entre personnes s’apparente à une transaction. La rencontre se caractérise par des
signes non verbaux qui indiquent que l’on reconnaît la présence d’autrui, tels le hochement de tête, le
haussement des sourcils, etc. La réponse à cette manifestation est appelée « réaction transactionnelle » : c’est
l’unité de mesure de l’échange. Les transactions peuvent être simples (interprétables au premier degré) ou à
double sens (deuxième degré). L’analyse les décode pour leur donner du sens. Dans le premier degré, l’émetteur
vise un certain état du moi du récepteur et c’est celui-là qui répond, comme dans : « Pourriez-vous venir, c’est
urgent ? » (adulte) et « J’arrive tout de suite, Monsieur » (adulte) ; la relation est qualifiée de parallèle. Elle peut
aussi être croisée, si c’est un autre état du « moi » du récepteur qui répond : « Vous devriez faire une pause, vous
êtes épuisé » (adulte) avec « D’accord, c’est vous qui terminez mon rapport » (parent).
Les transactions du second degré sont plus complexes, car le message est en apparence adressé à un état du
« moi », mais s’adresse en fait à un autre état. Le sens caché (message réel) est derrière une transaction écran.
Par exemple, un directeur général convoque son responsable achat : « Nos coûts d’approvisionnement ont
progressé de 10 % l’année dernière » ; la réponse du subordonné est : « Notre concurrent principal a subi une
hausse de 13 % ». En apparence les états « adulte » sont sollicités ; dans la réalité, le directeur induit une relation
parent-enfant cachée : « Votre incompétence en matière de négociation pose un problème » ; la réponse codée
est celle de l’enfant : « Qu’est-ce que cela peut faire, nos concurrents font pire que nous. »
Dans un contexte d’étude de marché, l’analyse confère au produit ou à la marque une personnalité
propre supposée refléter les traits de personnalité conscients ou inconscients de l’acheteur.
L’analyse de contenu repère dans un premier temps les catégories du discours, leur structuration et
leur fréquence d’apparition. L’analyse transactionnelle identifie ensuite la nature des relations
profondes qui existent entre le consommateur et une marque : les besoins et désirs latents sont
décelés au travers de l’analyse des transactions simples ou à double sens. Elle conduit ainsi à des
orientations utiles pour le positionnement d’un produit, le choix d’un axe de communication ou la
compréhension des composantes d’une image de marque. Le flash-étude 4.1. développe un exemple
portant sur le papier recyclé.
Flash-Étude 4.1.
Freins et motivations vis-à-vis du papier recyclé
Contexte
\/|
$|
Comment développer l’usage du papier recyclé chez les étudiants, cible importante de
consommation ? Quels sont leurs obstacles à l’usage et leurs motivations ? Les discours d’un
4$
échantillon d’étudiants ont été retranscrits et soumis à une analyse de contenu. Ensuite, les
différents registres du « moi » appelés par les relations entre les étudiants et le produit ont été
By
recherchés. La projection porte sur la personne qui utilise du papier recyclé et sur le produit en
lui-même.
Résultats
Si les trois états du « moi » sont présents, c’est le discours orienté « parent » qui l’emporte
largement, puisque 47 % des jugements émis sur l’utilisateur entrent dans cette catégorie et 80 %
des évaluations sont jugées favorables. Par exemple, l’utilisateur est vu comme « quelqu’un qui
protège les générations futures », « Ne gaspille pas les ressources naturelles ». En revanche,
lorsqu’il s’agit de juger le produit, le registre « parent » est nettement moins utilisé (31 %) et
80 % des jugements deviennent négatifs, comme par exemple : « l’environnement fait vendre »,
« c’est le papier des pauvres », etc. Le registre « adulte » est le plus employé pour évoquer le
produit (34 %), mais les jugements sont là encore majoritairement négatifs : « On voit rarement
de la publicité pour le papier recyclé », « le recyclé coûte cher ». L’état « enfant » représente
34 % des jugements émis sur l’utilisateur et 35 % pour le produit ; à la différence des états
précédents, les croyances favorables et défavorables sont également réparties : « Soyez pas
ringards, achetez du recyclé », « On a l’impression de toucher l’arbre » ou « Le recyclé me fait
penser à une idée de déchets », etc. L’analyse des transactions montre par ailleurs que la
majorité des relations entre le consommateur et le produit se déroulent au niveau « parent à
parent », mais les réponses se situent sur le plan « adulte à adulte ».
Conclusion
L’étude montre l’existence de croyances défavorables solidement ancrées vis-à-vis du produit.
Les freins l’emportent sur les motivations : l’étudiant « parent » est convaincu que l’avenir
appartient à la protection de l’environnement, mais l’étudiant « adulte » rejette le produit, car il
lui reproche de ne pas être compétitif et de renvoyer une image dévalorisante. La communication
devrait privilégier une relation du type « parent à parent » ou « adulte à adulte », sur un registre
informatif démontrant les qualités objectives du produit, la compétitivité des processus de
fabrication, les gains concrets pour la protection de l’environnement.
Source : OBSOMER C., PONDEVILLE S. et PELLEMANS P., « Une application de l’analyse
transactionnelle »,
Revue française du marketing, no 163, 1997, 3, pp. 81-99.
a. La lexicologie
By
Elle utilise le texte d’un discours comme donnée d’entrée. Son objectif est de disséquer,
« démonter » un discours pour mettre au jour et dénombrer ses traits originaux.
Les statistiques révèlent d’éventuels écarts significatifs dans les discours, selon les individus ou
selon les situations. La lexicologie analyse les « énoncés », c’est-à-dire le contenu intrinsèque des
messages, dans deux perspectives(93) :
– identification et analyse des écarts, sur le plan du lexique (liste des mots différents contenus dans
le discours) et de la syntaxe (arrangement des mots selon les règles de la grammaire) ;
– mise au jour des relations entre la structure d’un énoncé et ses destinataires pour apprécier
l’efficacité du message.
• Définitions de base (94)
L’unité d’analyse est la « forme graphique », c’est-à-dire toute chaîne de caractères qui n’est pas
séparée par un espace, un tiret ou un signe de ponctuation : par exemple, « écart-type » se
décompose en deux formes graphiques « écart » et « type ». La plupart du temps, le mot est l’unité
de base. On distingue les mots « outils » (article, préposition, conjonction) qui servent de liaison
dans un texte, et les mots pleins (tous les autres mots) qui portent généralement le sens du message.
Le texte à analyser est appelé « corpus » : ce peut être un texte brut, tous les mots sont conservés,
ou un texte réduit, les mots outils sont supprimés. Avant l’interprétation, la lemmatisation des unités,
c’est-à-dire des opérations de différenciation et de regroupement, est opérée. La différenciation
revient à séparer les homonymes et résoudre les ambiguïtés syntaxiques. Par exemple « avions »
sera reconnu, selon le contexte, comme une forme verbale ou comme un nom commun. Le
regroupement dépend des définitions des champs lexicaux, ce qui conduit à établir une table de
correspondance pour les synonymes et les évocations qui renvoient au même concept. De la même
façon, les différentes formes grammaticales d’un même mot (singulier et pluriel, temps de
conjugaison, genre) sont souvent regroupées. Les champs lexicaux correspondent aux catégories de
l’analyse de contenu.
• Statistiques textuelles
La figure 4.14. définit les principales statistiques applicables aux textes bruts ou réduits. Des
logiciels sont disponibles pour effectuer les traitements automatisés des discours, tels que
ALCESTE, NeuroText, SPADT, SPHINX lexica, TROPES, etc(95).
L’indice d’intensité lexicale i est équivalent à la fréquence d’apparition d’une catégorie i dans
l’analyse de contenu, dans le cas où les champs lexicaux sont égaux aux catégories. En effet nous
avons vu que la fréquence d’une catégorie est égale au nombre de fois où une catégorie i est
évoquée (= nombre d’unités d’un même champ lexical i divisée par le nombre total d’évocations (=
taille du texte).
Figure 4.14. Principales statistiques textuelles
Indices
\/|
Définitions
$|
Taille Nombre total d’unités (mots) contenues dans un texte (corpus)
4$
Méthodologie
L’échantillon est composé de 630 répondants. Il comprend 48 % d’hommes et 52 % de femmes ;
56 % des répondants ont des enfants. L’âge moyen est de 42 ans. 73 % de l’échantillon habitent
en zone urbaine ou périurbaine. La répartition des revenus se rapproche de la moyenne française.
Les réponses à trois questions ouvertes ont été traitées sous Alceste : (1) « Pour vous, à quoi
ressemblerait un voyage durable par excellence ? » (2) « D’après vous, quelles formes de
voyage seraient contraires au principe du tourisme durable ? » (3) « Pour vous, qu’est-ce qui
symboliserait le mieux le tourisme durable (un lieu, un personnage, un objet, etc.) ? ».
\/|
$|
Résultats
4$
Les représentations globales du tourisme durable se structurent en quatre segments qui permettent
de classer 90 % des unités de contexte élémentaires (UCE). La classe 1 renvoie à des vacances
By
Source : FRANÇOIS-LECOMPTE A. et PRIME I., « Les Français et le tourisme durable. Étude des
représentations »,
o
Décisions Marketing, n 64, octobre-décembre 2011, pp. 47-58.
• Champ d’application
Le calcul de statistiques textuelles satisfait plusieurs objectifs d’étude :
– connaissance, caractérisation et comparaison d’un vocabulaire. Celle-ci permet de construire
des messages publicitaires spécifiques pour chaque cible, de bâtir un argumentaire de vente
compréhensible par les clients potentiels ou encore de décrire des concepts de produits nouveaux.
Ainsi, la connaissance des indices de richesse ou de fluidité d’une cible facilite la construction
d’un message en donnant une idée sur l’étendue de son vocabulaire, le nombre moyen de mots par
phrase, etc. De même, la segmentation de discours en classes lexicales permet de décrire les
attentes ou les représentations de consommateurs pour une catégorie de produits ou de services ;
– recensement des positionnements. Si l’intensité d’un champ lexical est significativement plus
forte pour une cible, il est possible de positionner un nouveau produit répondant à l’attente sous-
jacente au champ lexical ;
– évaluation du capital d’image. La richesse d’un champ lexical d’une marque et l’intensité des
champs lexicaux des concurrents donnent un aperçu du volume et de la nature des croyances
attachées à chaque marque.
b. Lexicométrie
La lexicométrie prolonge la lexicologie, car elle cherche des associations entre des formes
particulières d’expression (style, vocabulaire, etc.) et une cible particulière.
• Objectifs et principes
L’analyse ventile les discours dans des tableaux à double entrée, appelés tableaux de contingence ;
elle offre la possibilité de projeter dans un espace à plusieurs dimensions l’emplacement des mots
ou des champs lexicaux. Par exemple, on croise les lieux de vacances préférés avec l’âge : à
chaque intersection ligne/colonne, on comptabilise le nombre de fois où le champ i (ou la
catégorie) a été évoqué par la tranche d’âge j. La représentation graphique fait appel à l’analyse
factorielle (ACP ou AFC) que nous exposons dans le chapitre 14.
• Domaine d’application \/|
Cette technique est utile pour rechercher un positionnement pour un nouveau produit, pour
$|
comprendre la structure d’une image de marque ou celle des concurrents, pour préparer la copy
4$
stratégie d’une campagne publicitaire, ou encore pour analyser les valeurs d’une cible. On ainsi
montré qu’un acheteur peut être sensible à la tradition lorsqu’il achète une voiture, tout en
By
recherchant l’aventure pour ses vacances. À titre d’illustration, nous présentons ci-dessous deux
résultats d’études lexicométriques, l’une faisant appel à l’AFC et l’autre à l’ACP.
Flash-Étude 4.3.
Les Français et les mots
Les inquiétudes des Français selon l’âge(96)
Contexte
L’étude a pour but d’analyser l’évolution des préoccupations des Français selon leur âge. La
question, posée à un échantillon représentatif de la population, est la suivante : « Qu’est-ce qui
vous inquiète le plus en ce moment en ce qui concerne votre avenir ? » Les réponses sont libres.
Source : LEBART L., Revue française du marketing, op. cit., 1998, p. 41.
\/|
$|
Résultats
4$
L’analyse lexicologique fait apparaître 400 mots cités au moins 10 fois par les répondants ;
4 tranches d’âge sont retenues. On repartit, selon l’âge de chaque individu, les différents mots
By
dans l’une des 1 600 cellules (= 4 × 400). L’analyse factorielle des correspondances est
appliquée à ce tableau. La représentation graphique donne un axe horizontal orienté « Passé-
Présent » et un axe vertical « Vie privée-Vie sociale ». L’étude montre que les préoccupations
varient nettement selon l’âge : santé, argent, retraite pour les plus de 60 ans, études,
environnement pour les moins de 30 ans.
Contexte
La profession de la fourrure a été confrontée, au début des années 1990, à une crise dont les
professionnels suspectent les écologistes d’être à l’origine. Une étude lexicométrique, baptisée
par la Sofres « sémiométrie », évalue les valeurs respectives des consommatrices et non-
consommatrices de fourrure. Une liste de 270 mots concepts est notée par un échantillon de
femmes âgées de plus de 18 ans, sur la base de leur plus ou moins grande proximité par rapport à
leurs propres centres d’intérêt ou préoccupations. Ainsi, une note de 3 attribuée au mot
« Argent » signifie qu’il est jugé proche de soi, une note de – 3 pour « Musique » évoque un
centre d’intérêt très éloigné.
\/|
$|
4$
Source : DEUTSCH E., Revue française du marketing, op. cit., 1989, p. 13.
By
Résultats
L’ACP identifie deux grandes dimensions : un axe horizontal « tradition-ouverture » et un axe
vertical « rigueur-plaisir ». Chaque mot est projeté sur ces dimensions. On calcule ensuite les
scores moyens du segment des consommatrices régulières de fourrure : elles sur-notent des mots
tels que vertu, souverain, noble, prier, ancien, règle. De leur côté, les non-consommatrices
préfèrent des mots comme différent, vitesse, féconder, eau, montagne, fleuve, légèreté, gratuit.
Ces résultats montrent que l’image de la fourrure est très typée et associée à des valeurs
traditionnelles et de récompense ; en outre, les non-consommatrices sont plus sensibles aux
valeurs écologiques et au naturel.
c. Évaluation
Les analyses textuelles jettent un pont entre les approches qualitatives et quantitatives. Elles
enrichissent l’approche qualitative par une lecture quantifiée des données, tout en respectant les
spécificités de l’investigation en profondeur. Des recommandations originales et innovantes
peuvent être formulées à partir de cet éclairage. Cependant, l’échantillon sur lequel les statistiques
textuelles sont calculées doit être représentatif de la population étudiée, si l’on désire généraliser
les résultats observés à l’ensemble du marché visé (voir chapitre 8).
III. Entretien introspectif
A. Définition
Sous un angle philosophique, l’introspection est vue comme l’effort d’une conscience qui se prend
comme objet, dans un but de connaissance de soi. En psychologie, l’introspection est une méthode
d’observation et d’analyse de soi, en vue d’étudier sa propre personne pour acquérir une meilleure
connaissance de soi.
Dans son application aux études de marché, elle se présente comme une investigation individuelle
auto-centrée qui consiste à faire appel à sa propre mémoire pour explorer un sujet particulier, pour
extraire des souvenirs ou des événements jugés significatifs. L’individu revit alors une expérience
particulière, souvent forte et intime, puis il rapporte à lui-même ou à un enquêteur ce qu’il
découvre. Ces éléments intimes sont progressivement accessibles à la conscience du narrateur, au
fur et mesure qu’il s’immerge dans ses souvenirs.
B. Spécificités méthodologiques
Fondamentalement, l’introspection revient à « penser à voix haute » sur un sujet d’étude, tout en
\/|
interprétant soi-même les informations qui viennent à notre conscience. Les données sont
$|
consignées par écrit ou enregistrées par un magnétophone.
4$
Le rôle de l’enquêteur varie selon les formes d’introspection : il peut être absent, interagir ou
guider la production d’informations. Parmi les différentes formes d’introspection, il convient
By
notamment de mentionner(98) :
– l’introspection subjective personnelle. Dans cette forme, le chercheur s’étudie lui-même : il est à
la fois producteur et analyste des informations ;
– l’introspection interactive. L’interviewer et l’interviewé pratiquent simultanément l’introspection
sur le sujet d’étude et s’assistent mutuellement dans leur propre parcours introspectif. L’empathie
crée un climat favorable qui facilite la production d’informations ;
– l’introspection guidée. Un échantillon de répondants pratique une introspection personnelle en
relation avec l’objet de l’étude. Concrètement, les sujets répondent à un questionnaire comportant
une série de questions ouvertes. Leurs discours peuvent être enregistrés par un enquêteur ; ce
dernier, au besoin, fait préciser tel ou tel point. D’une façon générale, la consigne est de « penser à
voix haute », tout comme pour la méthode d’observation par protocoles verbaux (voir chapitre 6) ;
– l’introspection syncrétique. Dans cette dernière forme, l’introspection du chercheur et celles des
répondants sont combinées pour former l’échantillon, mais elles sont analysées séparément. Dans
les premiers temps, Sigmund Freud a appliqué cette démarche, combinant une auto-analyse de ses
rêves personnels, parallèlement à celle pratiquée par ses patients.
La mise en œuvre d’un entretien introspectif amène à résoudre différentes questions
méthodologiques. La figure 4.16. récapitule les plus importantes et formule des recommandations
pour orienter le chargé d’études.
(99)
Figure 4.16. Questions et recommandations méthodologiques (99)
Aspects Évaluations
Alternatives
méthodologiques et recommandations
Perte de mémoire, sélectivité et
– Sur le passé (proche ou reconstruction du souvenir passé
éloigné). sont des biais fréquents.
– Présent (direct ou léger Recours à la prise de note
Focalisation temporelle
différé). quotidienne.
– Futur (projection dans un état Réduire l’intervalle temporel
possible ou imaginaire). entre l’événement et
l’introspection.
Difficulté pour l’individu de
– Général (expérience usuelle : dégager des lois de
ce qui arrive toujours ou comportement régulier :
d’habitude). tendance à généraliser à partir
Champ de focalisation
d’un événement singulier.
– Spécifique (événement Préférence pour introspection
critique). \/| sur des expériences jugées
significatives, emblématiques.
$|
– Enregistrement.
4$
C. Évaluation(100)
L’introspection a du sens dans des contextes de consommation où les émotions et les sensations
ressenties sont fortes, tels les loisirs, les spectacles culturels ou sportifs. Dans d’autres situations
évoquant la nostalgie, le rêve ou au contraire angoissantes ou stressantes, cette technique
d’investigation peut également être intéressante pour restituer les vécus expérientiels des
consommateurs. L’introspection immédiate, pratiquée sur les lieux d’achat ou de consommation, et
dans le feu de l’action, favorise la restitution d’événements, des sensations ou des émotions
saillantes, avant qu’un travail de rationalisation a posteriori ou de sélectivité mémorielle
n’intervienne.
Néanmoins, l’accès à l’expérience personnelle pratiquée par introspection n’est pas sans risque. La
sélectivité de la mémoire, l’égocentrisme et le narcissisme constituent des biais majeurs. La
méthode nécessite donc une grande prudence et du discernement. Par ailleurs, dans un contexte
commercial, l’introspection subjective personnelle du chargé d’études n’a guère de sens,
l’introspection guidée étant plus défendable..
En résumé, l’introspection doit plutôt être réservée à des événements expérientiels récents,
suffisamment forts sur le plan émotionnel ou totalement atypiques. Le flash-étude 4.4. développe un
exemple d’application intéressant montrant comment le consommateur novice s’immerge dans une
expérience musicale, ici un concert à l’Auditorium de Milan.
Flash-Étude 4.4.
L’introspection d’une immersion expérientielle
Contexte
L’objectif de la recherche est la compréhension des modalités d’immersion d’un consommateur
dans des expériences de consommation. Quels sont les chemins et les modalités qui lui
permettent de s’approprier cette expérience ?
Méthodologie
Une introspection guidée, conduite durant deux concerts, a été effectuée sur 11 personnes (3 au
\/|
premier, 10 au second, deux personnes ayant participé aux deux concerts) non habituées à
$|
participer à tous les concerts. Les personnes étaient novices et peu enclines à ce type de loisirs.
Les instructions étaient limitées à « porter son attention sur le sentiment de proximité/distance
4$
vis-à-vis de toutes les composantes de l’expérience, et à prendre des notes selon un schéma
chronologique (avant, pendant, après) en prenant en compte le vécu individuel et les interactions
By
avec les autres personnes présentes ». Les comptes-rendus d’expérience sont remis le lendemain
de l’événement sous forme dactylographiée (deux à quatre pages). Les discours ont été soumis à
une analyse thématique de contenu intra et intertextuelle.
Résultats
Contrairement au modèle postulé au départ, l’immersion dans l’expérience ne passe pas par un
chemin unique et commun (nidification, exploration, marquage), mais par des va-et-vient
successifs entre ces trois opérations. Par ailleurs, l’immersion ressemble moins à « un grand et
unique plongeon [mais] ressemble plutôt à une répétition de petits bains de pied ».
Source : COVA B. et CARU A., « Approche empirique de l’immersion dans l’expérience de
consommation »,
o
Recherche et Applications en Marketing, vol. 18, n 2, 2003, pp. 47-66.
A. Objectifs
La phénoménologie se propose de dégager l’essence d’un phénomène, tel que l’individu le vit. Il
s’agit de révéler à la conscience (dans le sens d’intelligibilité) l’expérience vécue. Plus
précisément, la phénoménologie vise à décrire les phénomènes mentaux, tels qu’ils se manifestent
aux sujets, dans le temps et l’espace. Elle ambitionne d’être la science de l’expérience et des vécus
psychiques de la conscience. \/|
Dans un entretien phénoménologique, l’individu propose une description personnelle d’une
$|
expérience qui laisse à sa conscience subjective la capacité de se comprendre elle-même et de se
4$
saisir des objets de façon évidente(101). On laisse les choses devenir manifestes, telles qu’elles sont,
sans les forcer à entrer dans des catégories prédéfinies.
By
La fiche technique 4.5. replace cette approche dans le cadre des sciences humaines. Dans son
application à l’étude d’un marché, les comportements de consommation sont analysés dans une
perspective psychologique ou sociologique, parfois complétée par un regard d’ethnologue (voir
chapitre 6). Ainsi, des actes en apparence insignifiants, tels que le type d’ordures ménagères
rejetées ou le mode de lavage du linge, sont considérés comme révélateurs de structures sociales et
de valeurs culturelles.
Fiche technique 4.5. La phénoménologie dans les sciences humaines
1 – Arrière-plan historique et conceptuel(102)
La phénoménologie trouve ses racines dans les réflexions philosophiques sur l’étude de la connaissance. Hegel a
défini en 1807 la phénoménologie comme une « science de la conscience, la conscience étant en général le savoir
d’un objet extérieur ou intérieur ; [c’est] la science de l’expérience que fait la conscience ». Les travaux du
philosophe et mathématicien allemand Edmund Husserl (1859-1938) sont considérés comme fondateurs d’un
courant qu’il voyait comme la composante majeure d’une philosophie qualifiée de « science rigoureuse ».
Heidegger, disciple d’Husserl, a contribué à ces travaux, avant de faire dissidence, en proposant de compléter,
voire de remplacer, la description phénoménologique par une interprétation herméneutique (voir fiche technique
4.6.). Le courant des philosophes existentialistes français, Maurice Merleau-Ponty (1905-1961), Jean-Paul
Sartre (1905-1980) et Paul Ricœur (1919-2005), qui considère notamment que l’être humain définit l’essence
de sa vie par ses propres actions et expériences, prolonge cette vision, en s’attachant aux concepts de
perception, d’imaginaire, de volonté et d’intentionnalité, considérés comme des modes d’accès au monde du vécu.
2 – Objets et démarche
Les objets étudiés ne sont pas des objets du monde, ni les choses qui existent dans la réalité, mais seulement des
objets qui existent en nous, ceux que l’on rencontre dans notre tête. Par exemple, nous voyons un nuage, nous
approuvons une opinion. Tous ces objets sont des objets du monde. Mais ce ne sont pas les nuages, ni les opinions
qui intéressent le phénoménologue, mais les « vécus » dans lesquels les objets du monde sont pensés, vus,
remémorés, approuvés.
L’approche phénoménologique d’un discours propose une lecture originale, un « savoir-voir » des expériences, une
description de l’ensemble des vécus de la conscience humaine(103). Elle convertit le regard pour aboutir à une
« réduction transcendantale ». Ceci revient à extraire les idées pures, les « essences » qui structurent,
\/|
transcendent notre pensée et qui donnent le véritable sens aux objets. Les essences représentent les formes
$|
épurées, invariantes des choses, des personnes ou des situations. Pour ce faire, il nous faut mettre entre
parenthèses le monde, tel qu’il se présente au niveau de notre expérience ordinaire, en d’autres termes, adopter
4$
un regard radicalement nouveau. Notre champ d’expériences, c’est finalement la conscience elle-même : « La
conscience est toujours conscience de quelque chose. » Chaque chose ou objet porte la marque particulière du
By
sujet qui les produit, sous la forme d’une représentation mentale qui exprime une intention, un désir ou une
volonté. Cette représentation intentionnelle exprime le sens que l’individu attribue aux choses. Les
représentations mentales – qu’il s’agisse d’un parfum, d’une perceuse ou d’un enfant ne sont pas des images
objectives. Elles portent la marque de l’intention du sujet qui les produit : ses désirs, sa volonté, son attirance ou
ses peurs, bref, son « rapport au monde ».
3 – Champs d’application
La phénoménologie embrasse les sciences humaines, dont elle constitue une introduction logique, dans la
mesure où elle cherche à en définir l’objet, antérieurement à toute expérimentation ; elle analyse de façon
critique l’outillage mental utilisé pour produire les résultats.
Elle touche trois disciplines : la psychologie, la sociologie et l’histoire. Dans son approche psychologique, elle
privilégie la réflexion par rapport à l’introspection : en effet, la réflexion permet à l’individu de décrire des faits
pour restituer le vécu « brut » d’une expérience, alors que l’introspection met en jeu une rationalisation et une
interprétation subjective de l’expérience. Les thèses de la Gestalttheorie (psychologie de la forme) dérivent de
l’approche phénoménologique : il ne s’agit pas de savoir si nous percevons le réel tel qu’il est, car le réel est
précisément identifié à ce que nous percevons. Appliquée à la sociologie, la démarche est similaire : le social est
saisi comme un vécu qu’il convient de décrire de manière adéquate pour en reconstituer le sens. Cette
description se fait sur la base de données sociologiques antérieures et du contexte : l’observation de type
ethnologique est précieuse pour opérer cette tâche. Dans sa vision historique, la phénoménologie considère que
l’histoire ne peut se lire au travers d’un facteur, qu’il soit politique, économique ou racial ; elle propose plutôt une
reprise réflexive des faits, une analyse fondée sur les intentions culturelles.
B. Approche méthodologique
1. Collecte des données
L’interview se fonde sur le postulat que les répondants prennent progressivement conscience, au
travers de leurs récits, des relations et des contradictions qui existent entre leurs comportements et
leurs idées. La collecte est centrée sur le recueil des « expériences » : faits, comportements et
points de vue des consommateurs ; les interviews sont enregistrées(104). L’entretien suppose une
égalité entre répondant et enquêteur : ni effacement de l’interviewer, comme pour l’interview semi-
directive, ni domination, comme pour le questionnaire structuré. Un guide d’entretien détaillé n’est
pas nécessaire, seules quelques questions ouvertes portant sur les différentes expériences
potentielles des répondants sont utiles. Bien que proche d’un entretien en profondeur, le mode
d’interrogation comporte quelques particularités :
– faire parler le répondant de ses expériences à la première personne. La référence aux expériences
vécues favorise la mise au jour de faits concrets qui révèlent les véritables motivations ou freins
d’un comportement. L’emploi de la troisième personne produirait un discours banal dont
l’interprétation serait ambiguë ;
Exemple \/|
$|
Si un vendeur dit : « Le client a attendu 10 minutes devant le rayon des chemises et a
finalement choisi une taille trop grande », on ne sait pas si c’est le client qui a refusé
4$
l’aide du vendeur, parce qu’il voulait choisir tout seul, ou si le vendeur était occupé
ailleurs, ou encore si la bonne taille était manquante. À l’inverse, le sens de la
By
narration suivante est clair : « J’ai proposé d’aider ce client, mais il m’a indiqué qu’il
souhaitait regarder les modèles ; je l’ai vu déballer dix chemises, hésiter et s’apprêter
à choisir une taille trop grande ; c’est alors que je suis intervenu en lui suggérant
un 40... »
– établir un dialogue circulaire, plutôt que linéaire. Une conversation à bâtons rompus permet au
répondant de revenir en arrière sur une expérience à sa guise, puis d’enchaîner sur un fait récent
jugé comparable pour expliquer ce qui s’est passé antérieurement. La progression du récit d’une
expérience peut en effet s’écarter de la voie chronologique et nécessiter des apartés pour prendre
conscience de ce qui s’est passé ;
– éviter les questions commençant par « Pourquoi ». Des questions de ce type conduisent à des
justifications empreintes de rationalité et mettent le répondant sur la défensive, car il risque de
percevoir des préjugés de la part de l’interviewer. L’introspection favorise les réponses de façade.
La figure 4.17 récapitule les principales erreurs à éviter durant un entretien phénoménologique.
Figure 4.17. Conduite d’un entretien phénoménologique
du compte rendu de l’expérience vécue : ainsi, un client désire un service discret, un autre entend
par là un bon accueil et une disponibilité totale ;
By
– l’autonomie. Les discours des répondants sont considérés comme des données brutes qui n’ont
pas à être corroborées par une investigation complémentaire. C’est une interprétation
compréhensive des faits, plutôt qu’explicative. C’est la conception que les consommateurs se font
du monde qui constitue l’objet essentiel de l’analyse et, plus particulièrement, le sens assigné aux
objets, aux situations et aux symboles. Par exemple, si un consommateur X dit que l’achat d’une
crème solaire est important pour lui et qu’il a besoin du conseil de son pharmacien Y, ces faits sont
considérés comme véridiques : ce qui compte, ce sont les représentations que X associe à l’achat
du produit, et non pas le fait que Y soit effectivement compétent ;
– le caractère provisoire. Les modèles théoriques explicatifs sous-jacents ne doivent pas
être appliqués directement aux données pour les interpréter. Il ne s’agit pas de valider des relations
de cause à effet, mais plutôt de décrire les différentes thématiques qui structurent les expériences.
L’interprétation fait abstraction de tout présupposé pour faire émerger le sens.
Les discours sont analysés dans une perspective proche de celle de l’herméneutique, c’est-à-dire
par itérations successives, d’abord au sein d’une même interview pour découvrir le sens des
données, puis sur l’ensemble des interviews pour identifier les thèmes globaux. La grille
thématique est validée par une relecture de chaque entretien. Les analyses se font en équipe, sous
forme de discussion collective, de façon à multiplier les perspectives et pour éviter la monotonie
due à la grande masse d’informations à traiter. Plus spécifiquement, le groupe se pose les questions
suivantes :
– L’interprétation s’appuie-t-elle sur un fait tiré d’un entretien ?
– L’interprétation proposée est-elle cohérente avec ce qui a été dit précédemment par
l’interviewé ?
– Quels sont les autres angles possibles pour décrire ce qui s’est passé ?
V. Entretien herméneutique
L’herméneutique est un courant philosophique qui vise à interpréter les expériences et les choses de
ce monde. Elle propose de compléter et de prolonger le « savoir-voir » phénoménologique par un
« savoir-comprendre ».
A. Objectifs et principes
Dans une perspective herméneutique, l’interprétation du sens ne peut se réaliser par la seule lecture
d’un texte. Celui-ci doit être appréhendé, non seulement à partir de connaissances préalables de son
environnement culturel ou social, mais aussi par une intégration dans une perspective dynamique.
Ainsi, la connaissance du projet de vie individuel occupe une place déterminante dans la
compréhension du discours. Le présent est interprété en termes de trajectoire dans un futur construit,
à la lumière de l’expérience passée.
\/|
$|
La fiche technique 4.6. donne quelques repères pour comprendre les différentes démarches
herméneutiques mises en œuvre dans les sciences humaines.
4$
By
à-dire des directives d’interprétation. Cette méthodologie interprétative varie selon les pays, les juridictions et
les écoles de la théorie juridique.
By
L’herméneutique comprend une réalité cachée (ou une histoire antérieure) en l’interprétant sur la
base du « hors-texte » : « La première étape d’une investigation herméneutique consiste en une
immersion dans un arrière-plan historique et culturel relevant du domaine d’intérêt. [...]
L’interprétation d’un texte ne saurait se résumer à l’application d’une méthode, mais doit considérer
qu’une méthode fait partie d’un cadre de référence comportant des propositions-clés(109). »
L’objectif est de rechercher ce qui fait sens dans un texte, en partant du langage et des formes
narratives : histoires, mythes et expériences. L’hétérogénéité des histoires personnelles de
consommation structure la perception des besoins, de façon différente selon les individus.
L’expérience ne prend pas nécessairement une forme narrative, mais ce sont plutôt les histoires qui
sont des tentatives pour expliquer et comprendre une expérience.
En résumé, la compréhension d’un élément ne peut se faire que si l’on a une connaissance
approfondie du contexte : « le tout est en relation avec les parties et vice versa ». Le sens apparaît
progressivement par un va-et-vient entre une lecture individuelle et une lecture globale des
interviews.
La figure 4.18. retrace la construction du sens en herméneutique : chaque événement personnel se
replace dans le cadre plus large de l’identité de soi, en y intégrant ses propres contradictions et
croyances. L’individu se construit un sens cohérent qui le conduit à comprendre ses expériences de
vie ; le cadre culturel (appartenance à une catégorie sociale, valeurs et croyances) fournit un
canevas complémentaire pour aider l’analyste à comprendre les constructions personnelles.
Figure 4.18. Modèle de construction du sens : le « cercle herméneutique »
B. Méthodologie
La conduite d’une démarche herméneutique comporte deux phases(110).
\/|
$|
1. Recueil des textes
4$
Ils sont obtenus à partir d’interviews individuelles non structurées, relativement longues
(1 heure 30 à 2 heures 30), centrées sur les expériences de consommation. Pour chaque participant,
By
deux séries d’interviews sont pratiquées. La première aborde les styles de vie et les perceptions
des situations de consommation, la seconde traite des thèmes de consommation quotidienne. Il
n’existe pas de guide d’entretien commun à toutes les interviews, les questions ouvertes étant
fonction des profils et histoires propres aux répondants. Les interrogations doivent faciliter la
production des « tranches de vie » et des histoires vécues ; l’enquêteur demande ensuite aux
participants de commenter et d’interpréter ces situations. Les questions types sont les suivantes :
« Quand est-ce arrivé ? », « À quelle occasion ? », « Que s’est-il passé avant, après ? »,
« Pourquoi est-ce arrivé à ce moment-là ? », etc.
Flash-Étude 4.5.
L’interprétation herméneutique du nettoyage d’un sol
1 – Objectif \/|
Il s’agit d’évaluer le degré de scepticisme des consommateurs vis-à-vis de publicités télévisées.
$|
L’étude est conduite dans le sud-ouest des États-Unis auprès d’un échantillon d’une cinquantaine
4$
C. Domaines d’application
4$
L’analyse des freins et des motivations des acheteurs constitue un premier champ d’application.
By
Ainsi, le processus de consommation a été étudié sous l’angle du scepticisme des consommateurs
vis-à-vis des publicités télévisées et de leur nostalgie du passé ; de même, la participation à un
groupe de discussion sur Internet a été interprétée dans une perspective herméneutique(111).
Conclusion
Nous avons examiné, tout au long de ce chapitre, les techniques qualitatives individuelles les plus
courantes, en commençant par celles fondées sur l’interview en profondeur des individus,
l’interview introspective, pour finir par les investigations phénoménologiques et herméneutique.
Sur le plan méthodologique, ces outils présentent un point commun : ils fondent leurs mesures sur
l’étude de chaque individu pris isolément. Les données obtenues grâce aux interviews sont
directement attribuées à chaque sujet. On cherche à éliminer, durant la collecte, les influences que
pourrait avoir l’entourage du sujet (amis, famille, etc.) sur les réponses ou sur le comportement de
l’individu.
Le chapitre suivant procédera d’une logique inverse. Sa démarche reposera sur la collecte et
l’analyse de données résultant des interactions qui surviennent au sein d’un groupe d’individus.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le guide d’entretien comporte :
(1) une série de thèmes précis devant être abordés par l’interviewé
(2) une série de questions vagues laissées à l’appréciation de l’enquêteur
(3) une liste de thèmes servant de canevas pour le déroulement de l’interview
Q2. Un entretien papier-crayon comporte :
(1) une série de thèmes précis devant être abordés par l’interviewé
(2) une série de questions vagues laissées à l’appréciation de l’enquêteur
(3) une liste de thèmes servant de canevas pour le déroulement de l’interview
Q3. L’analyse de contenu permet :
(1) une analyse de l’influence des enquêteurs sur les réponses obtenues
(2) une analyse structurée du discours des interviewés
\/|
(3) une analyse informelle du discours des interviewés
$|
4$
Bibliographie
BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquête en sciences
sociales, Dunod, 1987.
DICHTER E., Handbook of Consumer Motivations, McGraw-Hill, New York, 1964.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FREUD S., Totem et tabou, Payot, 1965.
FRISCH F., Les études qualitatives, Éditions d’Organisation, 1999.
GAILLARD C., Jung, PUF, 2001.
GAUZENTE C., et PEYRAT-GUILLARD D., Analyse statistique des données textuelles en sciences de
gestion, EMS, 2007.
GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., Manuel d’analyse de contenu, Armand
Colin, 1980.
GUELFAND G., Les études qualitatives. Fondamentaux, méthodes, analyses, techniques, EMS, 2013.
HUBERMAN A. et MILES M., Analyse des données qualitatives, Éd. De Boeck Université, Bruxelles,
1991.
JUNG C. G., Essai d’exploration de l’inconscient, Folio essais, 1964.
KASSARJIAN H. H., « Content analysis in consumer research », Journal of Consumer Research,
vol. 4, juin 1977, pp. 8-18.
LAGACHE D., La psychanalyse, PUF, 2005.
LEBART L. et SALEM A., Statistiques textuelles, Dunod, 1994.
LYOTARD J.-F., La phénoménologie, PUF, 1992. \/|
PELLEMANS P., Le marketing qualitatif, perspective psychoscopique, De Bœck Université, 1998.
$|
WEBER R. P., Basic Content Analysis, Sage University Paper, no 49, 2e éd., Londres, 1990.
4$
By
Chapitre 5
Les techniques de groupe forment la deuxième branche des études qualitatives. Bon nombre d’entre
elles reposent sur des principes de collecte et des modes d’analyse similaires aux méthodes
individuelles : nous retrouverons des termes déjà connus, comme non-directivité, analyse de
contenu, etc.
Il ne faudrait pas pour autant en conclure que l’approche suivie par les techniques individuelles a
été simplement transposée au niveau d’un groupe. Cela tient à deux raisons. D’une part, parce qu’un
\/|
groupe n’est pas égal à la somme des éléments qui le composent : des interactions entre individus
$|
conduisent à des résultats différents. D’autre part, il existe des principes et des hypothèses
4$
spécifiques à certaines techniques de groupe, sans équivalent dans les méthodes d’entretien
individuel.
By
Nous commencerons ce chapitre en exposant les principes généraux des techniques de groupe. Nous
développerons ensuite quatre familles, particulièrement adaptées aux études de marché : le focus
group, le groupe nominal, la créativité et l’idéation, le groupe Delphi (voir figure 5.1.).
Figure 5.1. Plan du chapitre
\/|
$|
4$
groupe
Nous présenterons les grandes lignes de différentes familles de méthodes, puis nous comparerons,
dans une perspective d’étude de marché, les techniques de groupe et l’entretien individuel.
Lieu et
Types de Principes Applications Taille
moment
groupes théoriques et objectifs Durée
d’interaction
Non-directivité de
l’animateur. Présence sur un même
4à
Groupe de Projection de Motivations et freins. lieu physique ;
8 membres.
discussion l’individu. Thérapie de groupe. interactions au même
3 à 4 heures.
Investigation non moment (synchrone).
structurée.
Non-directivité de Formulation Présence sur un même
Variante : 4à
l’animateur. d’hypothèses. lieu physique ;
interview de 8 membres.
Plusieurs thèmes Apprentissage d’un interactions au même
groupe. 3 à 4 heures.
abordés. vocabulaire. moment (synchrone).
Dynamique des
\/|
Recueil d’éléments
groupes
$|
Groupe de d’image. Présence sur un même
restreints. 6 à 12
4$
Focus group
Un seul thème vocabulaire.
familier au groupe.
Recueil d’éléments
d’image.
Identification des axes Présence sur des lieux
Groupe virtuel.
d’un physiques différents.
Investigation
Variante : problème. 6à
structurée.
Focus group Apprentissage d’un Connexion sur un 8 membres.
on line vocabulaire. même site Web et 1 à 2 heures.
Un seul thème
Segmentation d’un interactions au même
familier au groupe.
marché. moment (synchrone).
Choix d’un
positionnement.
3à
Alternance de phases
Présence sur un même 4 membres.
non structurées et Recherche d’idées et
Variante : lieu physique. Demi-
structurées. de solutions.
mini-groupe Interactions au même journée
Groupe familier avec Motivations et freins.
moment (synchrone). à journée
le thème.
complète.
Dynamique des
groupes restreints.
Réduction de la
pression vers la Génération de critères 8 à 12
Présence sur un même
Groupe conformité. de choix d’un produit. membres.
lieu physique.
nominal Investigation très Recueil d’éléments 1 à 2 heures.
Interactions au même
(TGN) structurée. d’image. Plusieurs
moment (synchrone).
Phases de groupe et Recherche d’idées. étapes.
individuelles.
Un seul thème
familier par groupe.
Dynamique des
groupes restreints.
5 à 10
Projection et
Présence sur un même membres.
Groupe psychodrame.
Recherche d’idées et lieu physique. Demi-
de créativité
de solutions. Interactions au même journée
ou d’idéation Expertise des
moment (synchrone). à journée
membres réduite. complète.
Investigation non
structurée.
\/|
$|
Co-création Présence sur des lieux
(innovation). Recherche d’idées et physiques différents. 10 à 30
4$
\/|
Fiche technique 5.1. Principes théoriques et application des groupes
$|
1 – Dynamique des groupes restreints
4$
Cette théorie a été initiée par Kurt Lewin(113) et développée dans le cadre de la psychosociologie. Ses travaux
ont montré qu’un groupe développe une dynamique propre, source de synergie : la production totale du groupe
By
un consensus de qualité, car chacun joue un rôle prévisible. L’anonymat est donc indispensable. Le consensus
s’obtient progressivement selon un processus de va-et-vient très structuré.
Le groupe Delphi constitue la méthode la plus connue dans cette famille. À l’origine, son application était surtout
By
réservée au domaine de la prévision technologique à long terme. Des adaptations sont possibles pour l’étude
d’image de marque, l’identification de critères de choix. De même, il est envisageable de remplacer les experts
par des leaders d’opinion.
5 – Communauté et réseau social
La communauté traditionnelle chez Aristote renvoie aux habitants d’un village vivant heureux et en autarcie : la
famille, le voisinage ou les compétences individuelles définissent la structure et la nature des liens entre les
individus et créent un sentiment commun d’appartenance, source d’influence. En élargissant, l’appartenance à
une classe sociale, une culture, une ethnie ou un groupe de pairs constituent d’autres sources d’influence du
comportement. Le rôle des groupes de référence a été étudié par Hyman(116), notamment leur capacité à édicter
des normes et valeurs qui s’imposent à leurs membres. Le réseau social(117) ajoute au point précédent la
dimension informationnelle. Par le bouche-à-oreille, l’information se diffuse au sein du groupe, via les liens
existant entre les membres. Internet a permis la création de communautés virtuelles (118) qui mettent en
relation à distance des personnes ayant des passions ou des centres d’intérêt communs sur la consommation de
produits, et reliées entre elles par des plates-formes d’échanges sociaux on line (Facebook, Twitter, etc.). Le
repérage des individus qui jouent un rôle d’influenceur dans ces interactions communautaires (leaders d’opinion)
est un objectif majeur. Les techniques varient sensiblement(119) : observation neutre ou participante (voir
chapitre 6), algorithmes comportementaux, questionnaire individuel d’auto-évaluation. Ces études sont
fécondes pour le marketing communautaire, la communication virale, la recherche de positionnement,
l’identification des critères de choix d’un produit ou d’une marque.
6 – La co-création
Une source d’innovation consiste à associer les consommateurs, en amont ou en aval de la création du produit, à
des opérations de co-création avec l’entreprise : recherche d’idées, développement et test de prototypes,
nouveaux usages et services liés à la consommation de produits (120). Cette co-création utilise principalement le
potentiel offert par les communautés virtuelles, via des plates-formes internet dédiées (121). Les groupes se
mobilisent autour de projets communs, soit de manière autonome, soit en répondant à des appels à contribution
(concours, études) gérés par des instituts d’études spécialisés (ex. : e-Yeka, Innocentive, etc.).
Le degré de structuration des réunions de groupe varie sensiblement selon les techniques :
– Le groupe Delphi, le groupe nominal et le focus group sont les plus structurés et les plus directifs.
Pour les deux derniers, l’animateur dispose d’un « plan d’animation » listant les principaux points à
aborder ; pour le groupe Delphi, il s’agit d’un questionnaire structuré complet.
– Le groupe de discussion, le groupe de créativité, l’interview de groupe sont peu ou pas structurés.
La non-directivité de l’animateur est la règle la plus fréquente.
Les qualités demandées aux participants d’un groupe diffèrent également :
– Expertise relative au problème à résoudre : elle est vitale pour la réussite du groupe Delphi.
– Familiarité préalable avec le problème posé ou le sujet de la réunion : elle est requise pour
participer à un groupe de discussion, un focus group, un groupe nominal ou un mini-groupe.
– Distance par rapport au sujet de la réunion : elle est nécessaire pour la plupart des groupes de
créativité.
Enfin, la nature et le lieu des interactions entre les participants sont variables :
\/|
– Réunion dans un même lieu et au même moment : groupe de discussion, focus group traditionnel,
$|
groupe nominal et groupe de créativité.
4$
– Réunion dans des lieux différents (mais connexion à un même site internet) et au même moment :
focus group on line.
By
– Réunion dans des lieux différents (mais connexion à un même site internet) à des moments
différents : Bulletin board, méthode Delphi et ses variantes.
L’avantage majeur de l’entretien individuel est d’ordre pratique : il est plus facile à organiser
qu’une réunion de groupe. De plus, le matériel nécessaire est moindre : la vidéo n’est pas requise,
puisqu’il n’y a pas à suivre les interactions non verbales entre individus. Le lieu de l’entretien
individuel est flexible : domicile du répondant, sur le lieu de travail, dans les locaux de la société
d’étude. Enfin, les entretiens individuels permettent généralement d’obtenir une information plus
précise et, selon le cas, plus profonde, que les méthodes de groupe.
\/|
La réunion de groupe offre un recueil rapide d’informations pour un coût raisonnable. Elle est
$|
particulièrement adaptée aux produits dont la consommation est soumise à l’influence
4$
interpersonnelle : voitures, parfums, vêtements, cigarettes, vacances, etc. On détecte ainsi plus
facilement l’existence de normes sociales ou de tabous communs.
By
En synthèse, nous dirons que la réunion de groupe permet une récolte d’informations large et
rapide ; de son côté, l’entretien individuel favorise la détection des freins et des motivations
profondément enracinées dans les individus. Mais l’inconvénient majeur de la réunion de groupe
réside dans la pression vers la conformité exercée par les membres du groupe sur l’individu
« déviant » (voir flash-étude 5.1.). Pour l’entretien individuel, l’obstacle majeur réside dans le coût
lié au recrutement, difficile, d’enquêteurs qualifiés.
Flash-Étude 5.1.
Pression vers la conformité dans un groupe
« On demanda à un groupe de huit individus de juger une série de relations perceptuelles simples
et clairement structurées, à savoir ‘‘trouver, parmi trois lignes inégales, celle qui correspond à la
longueur d’une ligne donnée’’. Chaque membre du groupe annonce publiquement son jugement.
Au cours de cet exercice monotone, un individu se trouve soudainement en contradiction avec le
reste du groupe, et cette contradiction se répète tout au long de l’expérience. Le groupe en
question avait, à l’exception d’un de ses membres, préalablement rencontré l’expérimentateur et
reçu des instructions pour répondre à certaines questions avec un jugement faux et unanime. Les
erreurs étaient importantes (variant entre 1,5 cm et 4,5 cm) et présentées aléatoirement. La
personne principale – sujet critique – que nous avions placée en position de minorité totale face
à une majorité unanime, était l’objet de l’expérience. Elle se trouvait, peut-être pour la première
fois de sa vie, face à une situation dans laquelle un groupe contredit de manière unanime
l’évidence de ses sens [...]
Les résultats quantitatifs [de l’expérience] sont clairs et sans ambiguïté. Il existe un mouvement
marqué vers la majorité : un tiers de toutes les estimations des sujets critiques sont identiques
aux erreurs ou dans la direction des estimations erronées des groupes. Ceci est largement
significatif en comparaison de ce que l’on a observé dans le groupe de contrôle où les individus
\/|
enregistraient leurs évaluations par écrit. [...] À titre d’illustration, nous donnons une brève
$|
description d’un individu indépendant, puis d’une personne ayant suivi le groupe.
4$
croire ça, c’est 1.’’ Sa dernière réponse vint dans un murmure, accompagnée d’un sourire
désapprobateur.
Suiveur : ce sujet suivit la majorité 11 fois sur 12. Il apparut nerveux et quelque peu confus,
mais il ne chercha pas à éviter la discussion : au contraire, il était bien intentionné et cherchait à
répondre du mieux possible. Il ouvrit la discussion avec ce jugement : ‘‘Si j’avais commencé,
j’aurais probablement changé.’’ Il perçut la majorité comme un groupe décidé, agissant sans
hésitation : ‘‘S’ils avaient manifesté quelques doutes, j’aurais probablement changé d’avis, mais
ils répondaient avec tant d’assurance...’’ »
Source : Extraits traduits de ASCH S., « Effects of group pressure upon the modification and
distortion of judgments », in KASSARJIAN H. H., Perspectives in Consumer Behavior, Éd. Scott,
Foresman and Co., Glenview, Illinois, 1973, pp. 315-324.
A. Constitution du groupe
Deux questions principales se posent : qui réunir et combien ?
1. Taille du groupe
La taille optimale est de 7 à 10 personnes (voir figure 5.4.). Cela permet à l’animateur,
éventuellement assisté d’un observateur, de faire parler plus librement chacun des participants. Des
groupes de taille inférieure sont fortement sensibles au charisme d’un leader éventuel. Un effectif
supérieur à 10 personnes ne permet pas à chaque personne de s’impliquer vraiment, ou alors
l’animateur doit procéder à d’épuisants, et souvent stériles, « tours de table ».
Figure 5.4. Constitution d’un focus group
2. Recrutement et composition
Il est préférable que les individus soient homogènes sur certaines caractéristiques, par exemple le
degré d’intérêt pour une catégorie de produits, et légèrement hétérogènes sur d’autres, comme l’âge
ou les revenus. Sauf cas particuliers (étude d’une décision d’achat en couple), les hommes et les
femmes ne sont pas mélangés dans un même groupe, pour éviter un blocage sur les statuts respectifs
de la femme ou de l’homme.
Exemple
Un fabricant s’interroge sur l’opportunité d’une lessive à base de composants
entièrement naturels. En matière de choix de lessive, les femmes jouent un rôle
prépondérant dans le foyer. On pourra réunir ainsi un groupe de quatre ménagères
sensibles à la protection de l’environnement et quatre qui ne le sont pas, en faisant
varier les âges, niveaux d’éducation et autres caractéristiques personnelles dont on
suppose qu’elles peuvent avoir une incidence sur les attitudes en matière de lessives.
Il faut éviter que les participants d’un même « clan » se placent les uns à côté des autres, pour
éviter les apartés. De même, les « habitués » des entretiens de groupe doivent être éliminés, car ils
ont tendance à se comporter comme des experts, en prenant la discussion à leur compte. Enfin, lors
du recrutement, le thème de la discussion est plutôt formulé en termes vagues, pour des raisons de
spontanéité.
Le recrutement d’un groupe se heurte à deux difficultés majeures : l’acceptation du principe de la
réunion et la participation effective. En effet, si on élimine les « professionnels » des entretiens de
groupe, le chargé d’études doit être un bon vendeur pour que l’effectif minimum prévu soit présent
le jour et à l’heure dite. Pour cela, il peut motiver les participants éventuels en s’appuyant sur des
éléments tangibles (intérêt pour le thème de la réunion, rémunération) ou intangibles (satisfaction
intellectuelle, plaisir de donner son avis et d’apprendre, curiosité, valorisation sociale, etc.)(124). La
figure 5.5. propose quelques recommandations complémentaires.
Figure 5.5. Motiver et contrôler la participation des individus à un groupe
– Plaisir d’être écouté, de donner son avis : certaines cibles difficiles : retraités
4$
avant la qualité de l’animation, l’ambiance l’institut rappelle le jour, l’heure, les moyens de
détendue et harmonieuse. transport, envoie un plan et des remerciements.
– Recrutement par relation : utiliser le Cette lettre insiste sur le caractère impératif de
parrainage des participants précédents. la participation, l’importance de la ponctualité,
– Appui du client : lettre de couverture du client rassure et rappelle le sujet du débat.
qui crédibilise la participation. – Rappel téléphonique le jour précédant la
réunion.
Source : FRISCH F., Les études qualitatives, Éditions d’Organisation, 1999, pp. 48-54.
4. Enjeux
Malgré les précautions et recommandations précédentes, force est de constater que la qualité du
recrutement des participants pour une étude qualitative en général, et plus particulièrement pour une
réunion de groupe, est devenue un enjeu crucial pour les instituts d’études. D’un côté, les
« toujours volontaires » ont toutes les chances d’être des professionnels de la réunion de groupe.
De l’autre, les consommateurs éligibles ne sont généralement pas disponibles ou motivés pour
participer.
La professionnalisation des membres est un sujet délicat. Face à ce risque, plusieurs réponses
existent(126) :
– constitution d’un contre-fichier qui permet de savoir si un consommateur a déjà participé à une
réunion dans l’année. Ce fichier géré par le Syntec n’est cependant pas toujours une panacée, car
les consommateurs professionnels empruntent souvent plusieurs identités ;
– liste noire de consommateurs identifiés comme « professionnels ». Cette solution n’est pas
possible juridiquement, car contraire aux directives de la CNIL ; elle ne peut être utilisée que de
\/|
manière informelle ;
$|
– recrutement par Internet dans des viviers de volontaires : il permet de repérer et d’éliminer les
4$
B. Encadrement
1. Rôle et caractéristiques de l’animateur
Il n’est pas indispensable que l’animateur (parfois appelé modérateur) du groupe ait une formation
approfondie en psychosociologie. Dans certains cas, cela peut même limiter les capacités créatives
du groupe(127). Cela dit, il est nécessaire qu’il dispose d’une bonne pratique des réunions et évite de
rendre le groupe dépendant de ses interventions.
Les qualités essentielles d’un bon animateur sont les suivantes(128) : amabilité et empathie pour
accueillir chaleureusement et encourager les participants tout au long de la réunion, fermeté pour
faire respecter les consignes de base, implication et fausse naïveté pour faire approfondir les
jugements, flexibilité pour s’adapter à des situations inattendues, intuition pour alterner les niveaux
de discussion (rationnel vs émotionnel) durant les phases de l’entretien.
Compte tenu du caractère semi-structuré d’un focus group, l’animateur se limite à (ré)orienter le
groupe sur le thème de la discussion et, en cas de dérive, à le recentrer sur le guide d’entretien. Il
veille par ailleurs à équilibrer les rôles au sein du groupe entre les leaders naturels, qui ont
tendance à monopoliser la parole, et les suiveurs, au comportement réservé et conformiste. La
figure 5.6. résume les missions de l’animateur d’un groupe.
Figure 5.6. Fonctions de l’animateur d’un groupe
b. Balayage général
Les thèmes situés à la périphérie du sujet, tels que l’environnement du marché, les produits à succès
ou les échecs récents, les modes de consommation sont recensés. Par exemple, pour une étude sur
les freins et les motivations du renouvellement d’un abonnement à une revue professionnelle, les
\/|
thèmes prévus étaient les suivants :
$|
« Nous nous intéressons aux journaux que vous lisez régulièrement pour votre travail, pour vous
4$
informer, vous tenir au courant des publicités, des nouveaux produits... Pouvez-vous nous dire
comment vous les lisez ? Les lisez-vous par nécessité, par plaisir ? Les lisez-vous en profondeur ou
By
êtes-vous accroché par quelques titres ? Quelle est la durée de vie de la plupart des choses que
vous lisez ? (Stockage, archivage de l’information ?) Qui, dans votre entreprise, décide des
abonnements ? »
La figure 5.7. récapitule les objectifs des différentes phases d’une réunion de groupe. Le travail du
modérateur est de veiller à ce que celles-ci s’enchaînent harmonieusement, en respectant les thèmes
prévus dans le guide d’animation.
Figure 5.7. Objectifs des différentes phases d’un focus group
Phase 1 – Établissement d’un sentiment de sécurité entre les participants : faire connaissance et
éviter que les participants soient sur la défensive.
Phase 2 – Acquisition d’une confiance mutuelle : chacun s’exprime librement, expose ses idées
et jugements avec un temps de parole équivalent.
Phase 3 – Naissance du débat : exposés des thèses et antithèses, constitution du groupe par
affrontements et concessions.
Phase 4 – Coopération et progression vers la recherche d’un consensus ; autocontrôle du groupe
sur la gestion des incidents négatifs, directivité réduite de l’animateur.
Phase 5 – Synthèse des moments forts et conclusion.
Source : Adapté d’ANDREANI J.-C., « L’interview qualitative marketing », Revue française du marketing, nos 168-169, 1998, 3-4,
pp. 7-37.
l’entretien. Ces renseignements seront utiles lors de l’analyse de contenu et permettront de situer
rapidement l’entretien :
By
2. Mise à plat
Les différentes réunions de groupe sont enregistrées (caméra vidéo et magnétoscope), puis
transcrites manuellement sur un support papier. La bande vidéo enrichit l’analyse, en prenant en
compte les informations non verbales, telles que les sourires, les expressions du visage, la position
du corps, etc.
3. Analyse de contenu
La feuille de synthèse est un peu plus délicate à établir que pour un entretien individuel. Il faut en
effet déterminer si l’on effectue l’analyse au sein de chaque groupe, ou si l’on considère, selon la
théorie de la dynamique des groupes, que chaque groupe correspond à une seule observation. Dans
le domaine des études de marché, la plupart du temps, les deux analyses se superposent. Pour le
reste, la technique d’analyse de contenu est similaire à celle que nous avons exposée pour
l’entretien individuel. Nous proposons, dans la figure 5.8., un modèle simplifié de fiche d’analyse.
Figure 5.8. Fiche simplifiée d’analyse du contenu d’un groupe
4. Rapport de synthèse
L’établissement de ce document est similaire à celui d’une analyse qualitative individuelle. La
seule différence notable est la possibilité de proposer à l’entreprise quelques images, pour
permettre une meilleure compréhension des points essentiels du rapport.
\/|
$|
Le développement d’Internet a rendu possible l’animation de groupes situés dans des lieux
By
différents et connectés simultanément sur un même site Web, tenant lieu de « salle de réunion
virtuelle »(130). Les premiers focus groups on line sont apparus en France au début des années 2000.
1. Mise en œuvre
Le fonctionnement est analogue à celui d’un focus group en face-à-face. La différence essentielle est
que les participants ne se voient pas. Quelques jours avant la session prévue, le chargé d’études
envoie un e-mail aux participants pressentis, en précisant l’adresse du site Web, le mot de passe, le
jour et l’heure de la réunion. Les individus sont accueillis dans une « salle d’attente », puis passent
dans la « salle de réunion ». Le client dispose d’une salle propre d’où il peut suivre les échanges et
intervenir auprès de l’animateur (voir figure 5.9).
Figure 5.9. Déroulement d’un focus group on line
a. Salle d’attente
L’invité pénètre dans la « salle d’attente ». Il remplit un questionnaire d’identification (nom,
adresse, âge, profession, type de navigateur utilisé, marque de micro-ordinateur et autres questions
de situation) qui permet au modérateur de vérifier que cette personne est bien celle qui a été
conviée. Chacun fait connaissance avec les autres membres, les prénoms apparaissant sur les
\/|
écrans. Lorsque l’ensemble des invités s’est connecté, l’animateur bascule les membres dans la
$|
salle de réunion.
4$
b. Salle de réunion
By
Le modérateur expose le but de la réunion et invite chacun à se présenter. Les vingt dernières lignes
des messages des participants apparaissent avec un code couleur personnalisé sur les écrans des
participants et du modérateur. Elles disparaissent peu à peu, selon le flux et la rapidité des
échanges ; un bouton permet éventuellement de revenir en arrière, pour retrouver des propos
antérieurs. La transmission des messages est fonction de l’encombrement du réseau, mais un délai
de 2 à 5 secondes est courant. On peut télécharger des photos ou des dessins numérisés, faire
visionner des pages Web – voire de petits films vidéo – mais la durée de transmission est très
variable selon l’encombrement du réseau et le débit propre à chaque connexion des participants.
L’animateur dispose de messages préprogrammés, généralement des phrases tirées du guide
d’entretien et des relances standardisées. Il peut interroger individuellement chaque membre, soit
directement (la question est visible sur tous les écrans), soit en aparté (la question apparaît sur le
seul écran de la personne concernée). De même, chaque participant dispose d’une fonction
d’interrogation directe du responsable du groupe (la question apparaît sur le seul écran de
l’animateur). Enfin, en cas de problème (si un participant ne respecte pas les consignes ou tient des
propos condamnables, etc.), l’animateur peut à tout moment le déconnecter du groupe.
c. Salle des clients
L’acheteur peut assister au déroulement de la réunion, en suivant les échanges sur son micro-
ordinateur. Il dispose d’une communication directe avec l’animateur pour suggérer, le cas échéant,
des questions ou lui faire part de ses remarques.
Les praticiens recommandent de limiter la taille d’un focus group on line à 6 ou 7 membres. La
durée d’une session varie de 1 heure à 1 heure 30 : elle est nettement plus réduite que pour un
groupe en face-à-face. L’analyse des données se fait à partir des verbatims de la session, aucune
saisie n’étant nécessaire : les discours peuvent être intégrés directement dans un logiciel d’analyse
textuelle, d’où une quasi-automatisation du traitement.
2. Évaluation
L’avantage majeur d’un groupe on line est son coût réduit : pas de frais de déplacement des
participants, pas de coût de transcription des données, des frais de location de salle informatique
réduits. En revanche, la validité des groupes en ligne reste à établir. L’absence de dynamique de
groupe, la suppression des signes de communication non verbaux, l’implication relativement faible
des participants, l’impossibilité matérielle de savoir réellement qui est qui (il est tout à fait
possible de s’inventer une identité) réduisent l’intérêt de tels groupes(131). Par ailleurs, le clavier
limite sensiblement la vitesse et la quantité d’informations échangées, tant que les systèmes de
reconnaissance de la parole ne seront pas banalisés.
En contrepartie, le groupe en ligne réduit le biais de leadership et les participants timides
s’expriment plus facilement ; l’anonymat facilite la mise au jour des freins et inhibitions sur des
sujets tabous. Par ailleurs, la privation des sens (ouïe et vue) donne une meilleure concentration sur
les textes échangés qui de, surcroît, restent visibles assez longtemps. Enfin, la généralisation des
\/|
Webcam rend possible l’observation à distance des comportements du groupe, sur un mode
analogue à celui de la téléconférence. La figure 5.10. résume les avantages et limites d’un groupe
$|
on line par rapport à un groupe en face-à-face.
4$
Avantages Limites
– Anonymat : réduction des inhibitions
– Disparition des signes de communication non
des interviewés.
verbaux.
– Effet de leadership limité.
– Contrôle de l’identité réelle des participants.
– Biais d’animation modéré.
– Contraintes du clavier : perte de spontanéité,
– Gains de temps : distances abolies, possibilité
lenteur de saisie, réduction des interactions
de mener plusieurs groupes en parallèle.
entre participants.
– Frais réduits : absence de frais de
– Durée du groupe limitée (1 heure à
déplacement.
1 heure 30).
– Traitements des données automatisables
– Formation spécifique des animateurs.
(analyse lexicale, lexicologie).
– Nécessité d’un guide d’animation plus
– Possibilité de constituer des groupes sur une
structuré.
base nationale, voire internationale.
De leur côté, les praticiens considèrent que le groupe en ligne complète mais ne se substitue pas au
groupe traditionnel. S’il présente des avantages ceux-ci sont contrebalancés par nombre
d’inconvénients (voir flash-étude 5.3.). De fait, force est de constater, qu’à la différence des études
quantitatives, la pénétration des études qualitative on line reste modérée dans les instituts
d’études(132).
Flash-Étude 5.3.
Le focus group on line : le point de vue des praticiens
Dans l’ensemble les praticiens considèrent que les avantages d’un focus group on line sont réels,
mais limités. Tout d’abord le focus group en ligne n’est pas une simple transposition de la
version en face-à-face. Dans la forme traditionnelle, la dimension interpersonnelle permet de
réagir aux perceptions, alors que sur Internet, le discours est plus typé, tous les sens ne peuvent
pas être sollicités (le toucher est absent) et l’expression non verbale est exclue. Cela se
concrétise par trois inconvénients : un ressenti moindre qu’en face-à-face, moins de spontanéité
et de richesse dans des échanges contraints par la forme écrite, et impossibilité de relancer, en
cas de réponse à côté. Certains déconseillent le qualitatif on line dans des phases d’exploration
d’idées ou alors proposent de le mixer avec le face-à-face ou le téléphone. Néanmoins, ils
reconnaissent que la méthode offre des avantages. D’abord le coût d’un groupe on line est
moindre qu’un groupe en face-à-face, mais l’économie est relativement réduite, de l’ordre de
15 %. Ensuite, il s’adapte à tous les secteurs d’activité, notamment ceux liés aux nouvelles
technologies, à la téléphonie, etc. Enfin, il permet de réunir des personnes éloignées
\/|
géographiquement ou des cibles difficiles à réunir en face-à-face (experts, adolescents). Cette
$|
grande souplesse simplifie la logistique et réduit les coûts de déplacement. Néanmoins, il n’est
4$
pas possible de s’adresser à tous les types de population. Les plus modestes et le quatrième âge
sont exclus, les premiers parce qu’ils ne disposent pas d’une capacité à interagir suffisante, les
By
A. Principes généraux
La technique du groupe nominal (TGN) se différencie du focus group par son caractère nettement
plus structuré. Son objectif prioritaire est la production du plus grand nombre d’idées et d’opinions.
Les utilisations les plus courantes de la méthode sont mentionnées dans la figure 5.11.
Figure 5.11. Applications de la méthode TGN
B. Fonctionnement
Huit à dix personnes sont réunies dans une salle comportant un grand tableau visible de tous. Le
principe de base de la méthode consiste à alterner les phases de réflexion individuelle et la
discussion de groupe. L’animateur gère l’enchaînement de ces séquences.
La durée totale d’une session varie entre 30 et 60 minutes. Durant la réunion, les membres du
groupe utilisent, en guise de questionnaire, une grille de réponse établie à l’avance. La fiche
technique 5.2. donne un exemple de grille utilisée pour recueillir les critères de choix retenus par
des jeunes cadres pour acheter une voiture.
Bien que plusieurs variantes de la méthode existent(133), elles se fondent toutes sur un mélange de
phases individuelles et de groupe. Nous proposons la démarche suivante :
\/|
$|
L’animateur démarre la réunion en proposant une question, ou un sujet de réflexion relatif au thème
By
Exemple
– Qu’attendez-vous d’un hôtel pour vos vacances ?
– Quels sont les critères de choix que vous utilisez pour l’achat d’une voiture ?
– Comment rester en forme toute l’année ?
Après cette brève introduction, les membres du groupe sont invités à réfléchir individuellement et à
noter sur la grille de réponse l’ensemble des idées qui leur traversent l’esprit. Cette étape se fait en
silence, sans aucun échange entre les membres du groupe. Sa durée varie en fonction de la
complexité et de la richesse du thème proposé, dans une fourchette allant de 5 à 20 minutes.
\/|
$|
L’animateur recueille les listes individuelles, puis calcule les fréquences de citation des idées. Les
By
résultats sont reportés sur le tableau. Les idées produites lors de la phase no 3, mais qui n’ont été
retenues dans aucune liste, sont à ce stade définitivement éliminées. Une discussion collective
s’engage où chacun exprime son opinion par rapport au score fourni par le groupe. L’animateur ne
doit pas chercher à dégager systématiquement un consensus, mais permettre à chacun d’exposer
librement les raisons de son choix. L’inconvénient majeur est d’introduire à ce niveau des
phénomènes de leader/suiveur, en éliminant la spontanéité des premières réponses. Ce biais,
pratiquement inévitable, diminue les performances de la méthode TGN(135).
\/|
$|
4$
* Pour des raisons de place, notre grille ne comporte que sept lignes. Normalement, il faut
prévoir une grille d’une vingtaine de lignes.
By
importance, le chiffre 2 équivaut à une faible importance, etc. Entourez un seul chiffre par
ligne.
By
\/|
$|
4$
By
Cette réunion est maintenant terminée. Merci de votre participation. Veuillez remettre en
partant ce questionnaire à l’animateur, après avoir complété les lignes suivantes :
NOM : ... Prénom : ...
Âge : ... Sexe : ... Niveau d’études : ...
C. Appréciation
La méthode comporte trois avantages principaux. En premier lieu, elle est très productive pour la
génération d’idées, sans avoir à souffrir des inconvénients liés à l’interprétation des discours émis
lors d’un focus group. Ensuite, la formation des animateurs est rapide, puisque le déroulement des
réunions suit un processus structuré et simple. Globalement, le coût de revient de la méthode est
plus faible que pour un focus group.
En revanche – mais il s’agit d’un problème commun à toutes les méthodes qualitatives – les
résultats observés avec TGN sont difficilement généralisables au reste de la population, compte
tenu de la petite taille et des caractéristiques très spécifiques des groupes recrutés. En d’autres
termes, la méthode permet de faire un recensement rapide et complet d’informations ou d’idées,
mais rend délicate toute conclusion du type : « l’information ou la caractéristique X est plus
importante que l’information ou la caractéristique Y ».
Principales méthodes de
Domaines d’application
créativité utilisables
Création de nom de marque, nom de société,
Brainstorming, analogies.
logos.
Brainstorming, matrices de découverte.
Recherche de nouvelles idées de produits,
Analyse fonctionnelle, morphologique.
services, packaging.
Bulletin board.
Recherche de nouveaux usages pour des
Appel à la participation communautaire (co-
produits ou services existant
création).
(Re)positionnement de produits ou marques. Brainstorming, analogies, rêve éveillé.
Communication
(axe et thèmes publicitaires, PLV, jeux et Toutes méthodes possibles.
concours...)
Techniques de vente
Brainstorming, analogies, rêve éveillé.
(argumentaires, supports de vente).
Brainstorming, rêve éveillé.
Distribution
\/|
Matrice de Moles, analogies.
(nouveaux canaux, agencement des points de
$|
Appel à la participation communautaire (co-
vente).
4$
création).
By
2. Principes de créativité
a. Qui peut créer ?
Tout le monde ou presque ! Les praticiens recommandent l’absence, ou une participation réduite,
des « experts » spécialistes du problème à résoudre : ceci évite les impasses habituelles ou les
débats d’école.
b. Comment créer ?
1. Créativité en groupe ou individuelle ?
Si la pensée individuelle reste la base de l’idéation, les solutions créatives naîtraient plus
facilement en groupe : la réunion permet une stimulation réciproque (une idée en amène une autre)
des participants qui devrait favoriser la production d’un nombre plus important d’idées et de
meilleure qualité. Pourtant, les recherches montrent que c’est loin d’être le cas. En fait, c’est une
solution hybride qui se révèle, en moyenne, la plus performante : il est préférable de commencer
par faire appel à la créativité individuelle des individus, puis de les réunir ensuite en groupe, plutôt
que de se contenter d’un seul travail créatif de groupe(137). Dans la pratique, la quasi-totalité des
techniques de créativité peuvent être utilisées comme une gymnastique créative individuelle, ou
activées au sein d’un groupe.
2. Nécessité d’une grande quantité d’idées
L’espoir de voir surgir une « bonne idée » augmente avec le nombre d’idées émises. Pour cela,
l’enquêteur ou l’animateur du groupe invite chacun à explorer tous les enchaînements, les
combinaisons et déclinaisons d’idées possibles.
Exemple
\/|
$|
« Il s’agit de votre anorak dont la fermeture à glissière se coince justement quand vous
4$
contenter d’épaissir le bord du tissu pour éviter qu’il ne se laisse happer par le
curseur. Une autre façon de considérer le problème serait de concevoir une nouvelle
forme de glissière qui chasserait devant elle le tissu. Enfin, une approche plus
générale serait de remettre en question le principe même de la fermeture à glissière. »
et dans les usines », « Idées pour introduire une nouvelle fibre chez les créateurs de mode », « Idées pour
introduire une nouvelle fibre chez les détaillants ».
Deux jours avant la séance, le meneur du groupe rédige une note d’une page maximum précisant aux
By
participants les grandes lignes du problème à résoudre et comportant déjà une série d’idées.
4 – Directives pour la conduite du groupe
Elles doivent être clairement exposées par le meneur de jeu en début de séance, de manière imagée. Les règles
sont les suivantes :
– le jugement critique est exclu durant la réunion : la critique des idées se fera à un autre moment ;
– l’imagination débridée est la bienvenue : plus l’idée semble absurde, mieux cela vaut, car il sera toujours
possible plus tard de la reprendre en la tirant vers le réalisable ;
– la quantité est indispensable : plus le nombre d’idées augmente, et plus les chances d’en trouver une bonne
augmentent ;
– les combinaisons d’idées doivent être systématisées. Les participants reprennent les idées émises par les
autres en cherchant à les améliorer ou en mettant ensemble deux idées distinctes.
L’animateur veille à une stricte application de ces règles et encourage régulièrement la production d’idées. Il
suscite une atmosphère de compétition (qui énoncera le plus d’idées ?), mais dans une ambiance chaleureuse. Il
n’hésite pas à relancer le groupe en suggérant des pistes à explorer, en livrant ses propres idées. L’assistant note
toutes les idées du groupe et participe lui aussi à la production générale.
5 – Suivi
Après la réunion, les idées notées sont reprises par l’animateur et les responsables du problème posé. Un
premier tri rapide élimine la plupart des idées manifestement irréalisables, d’autres sont classées comme pistes
éventuelles de réflexion, d’autres sont mises en chantier pour être approfondies et donneront peut-être lieu à
une formulation plus élaborée, susceptible de déboucher sur une expérimentation.
Une réunion dure de trente minutes à une heure. D’après Osborn, la quantité moyenne d’idées
produite est supérieure à la centaine par séance.
Les secteurs d’application de la méthode sont pratiquement sans limites. Ils concernent très souvent
des problèmes liés à la croissance des ventes, le lancement de nouveaux produits, des thèmes de
campagnes publicitaires ; mais le brainstorming convient aussi pour résoudre des problèmes de
gestion du personnel : « Comment réduire l’absentéisme ? », « Comment développer la
participation aux cours de formation ? », etc. Il est notamment possible de se référer aux cas résolus
par Osborn.
Exemple
« Comment accroître le trafic d’une compagnie d’autobus ? »
« Comment augmenter la participation des employés à la collecte de sang ? »
« Comment améliorer nos relations paroissiales ? »
« Comment améliorer nos méthodes d’enseignement ? »
Les obstacles rencontrés par le brainstorming sont avant tout des blocages institutionnels
\/|
(impression de perte de temps, peur d’être remis en cause) et personnels (peur de ne pas avoir
d’idées, autocensure, peur d’être ridicule, etc.).
$|
4$
C. Matrice de découverte
By
Cette méthode peut s’appliquer au plan individuel ou être introduite au cours d’une discussion de
groupe. Formalisée par Abraham Moles, professeur de psychosociologie, elle consiste à
« rechercher l’interaction de deux listes l’une sur l’autre, et à examiner les problèmes – plus
exactement les cellules – qui émergent d’une classification à double entrée(141) ».
La construction de la matrice nécessite d’identifier une ou deux composantes ou fonctions majeures
de l’objet à créer. Chaque composante est morcelée en sous-parties. Les cellules donnent des
concepts de produits : certains existent déjà, d’autres en revanche sont inconnus. La figure 5.14.
montre un exemple d’application en raisonnant sur une dimension.
Figure 5.14. Matrice de découverte à une fonction
Source : MOLES A. et CLAUDE R., Créativité et méthodes d’innovation dans l’entreprise, éd. Fayard-Mame, Paris, 1970, p. 93.
Nous avons développé dans la figure 5.15 une variante de la matrice de Moles en introduisant une
deuxième dimension. La première dimension représente un produit, les féculents, subdivisé en
différentes variétés possibles ; la deuxième composante représente quelques caractéristiques
sensorielles et physiques propres à un produit alimentaire : couleur, vitesse de cuisson,
présentation. Nous aurions pu y ajouter le goût, l’odeur, la texture, etc. Nous voyons par exemple
que les pâtes ont été largement déclinées, mais qu’il existe des cellules inexploitées : le riz coloré,
les lentilles-minute, etc.
Figure 5.15. Matrice de découverte à deux fonctions
X = produit existe déjà. La case vide signifie que l’idée ne présente pas d’intérêt a priori.
\/|
Une troisième approche consiste à travailler sur des combinaisons conceptuelles par transfert de
$|
propriétés ou de relations entre deux objets (concepts)(142). La figure 5.16. offre différents exemples
4$
de combinaisons entre deux concepts. « L’en-tête » est le concept initial qui sert de support à la
modification, le « modificateur » est le concept perturbateur qui crée le nouveau produit par
By
Source : Adapté de GILL T. et DUBÉ L., « Qu’est-ce qu’un fer à repasser le cuir ou un téléphone oiseau ?
L’usage des combinaisons conceptuelles pour générer et comprendre les concepts de nouveaux produits »,
Recherche et Applications en marketing, vol. 22, no 4, 2007, pp. 81-103.
\/|
$|
Le transfert de propriétés peut s’appuyer sur des modifications de forme, comme pour le « bloc-
4$
notes ordinateur » qui représente un ordinateur plat qui se ferme comme un bloc-notes. Le transfert
peut également s’établir sur un transfert de fonction, comme pour le « radio-réveil ». Dans la
By
2. Analyse fonctionnelle
À la différence des autres méthodes, l’analyse fonctionnelle se fonde sur l’observation du produit,
\/|
complétée par un questionnaire administré auprès des consommateurs. Elle vise à identifier des
$|
pistes d’amélioration des produits comme en témoignent les exemples ci-après.
4$
Exemples
By
Tous les problèmes révélés par l’analyse fonctionnelle ne sont pas forcément solvables par
l’entreprise. Ce qui importe, c’est leur fréquence d’apparition, leur gravité pour le consommateur et
le prix supplémentaire qu’est prêt à payer celui-ci, pour voir ces problèmes résolus. Les méthodes
de créativité prennent le relais pour explorer les différentes manières de résoudre les problèmes
identifiés par l’analyse fonctionnelle.
E. Analogies
Le raisonnement par analogie est à la base de nombreuses théories et découvertes scientifiques. Une
analogie est un rapprochement entre deux éléments distincts, mais présentant des ressemblances. En
observant un phénomène, le chercheur émet l’hypothèse que ce qui se passe dans un domaine connu
pourrait s’appliquer à un domaine inconnu. Par exemple, l’observation du saut d’une sauterelle peut
inspirer un nouveau système de chariot élévateur. Le raisonnement par analogie met donc en œuvre
des séries d’associations, plus ou moins hasardeuses et surprenantes, pour déboucher sur une idée
nouvelle. Bon nombre de techniques utilisent ce mode de raisonnement pour stimuler la créativité.
phénomènes. L’opération chirurgicale peut être vue comme un travail de boucherie, de couturier ou
encore d’architecte, etc.
– Analogie personnelle : c’est l’intériorisation par le chercheur du problème à résoudre. On
s’imagine comme le futur nouveau produit, on mime, on décrit des sensations. Cette forme
d’analogie est proche des techniques de jeux de rôle ou des graffitis.
Ces différentes analogies sont maniées par l’animateur durant les réunions. À l’inverse d’Osborn,
Gordon préconise de ne pas définir clairement le problème en début de réunion, mais de le
formuler en termes vagues. Durant la discussion, le problème est progressivement précisé aux
participants. Les séances sont longues, elles durent au moins trois heures. Outre les analogies,
l’idée de base est de « rendre insolite le familier et rendre familier l’insolite ».
2. Rêve éveillé
Technique de créativité empruntée aux méthodes de psychothérapie, les principes du rêve éveillé
sont simples(144). Allongé dans une demi-obscurité, un groupe de 6 à 7 personnes suit les directives
d’un animateur. La séance dure environ 2 heures et commence par une concentration sur des images
calmes suggérées par l’animateur. Le sujet de la réunion est alors progressivement introduit : par
exemple, « imaginer la voiture de demain », « le lieu de vacances idéal », « l’ordinateur le plus
fabuleux ». Absence totale de critique, fantaisie, évocation de scénarios de rêve et relaxation sont
les mots clés de cette technique.
4 – classement, sur ces axes, des différentes analogies émises par le groupe ; plus une analogie
ressemble à une autre, et plus elle sera placée à proximité d’elle sur l’axe ; chaque axe comporte un
By
F. Bulletin board
1. Principes et applications
La méthode reprend les principes d’un forum en ligne modéré par un animateur. Elle consiste en un
dialogue par Internet de dix à trente participants, animé et arbitré par un modérateur. Sa durée varie
de quelques jours à un mois.
C’est un groupe asynchrone, c’est-à-dire que chaque membre se connecte un jour donné, à l’heure
qu’il souhaite, sur un site dédié à l’étude (via un mot de passe donné par l’institut).
Les discussions de groupe s’organisent autour des thèmes suivants : recherche de nouvelles idées
de produits ou de services, nouvelles applications de produits ou marques, amélioration de
produits, évaluation de publicités, test de concepts, etc.
Le flash-étude 5.4. donne un exemple d’application du test de concept.
Figure 5.17. Composantes de l’image interne d’IKEA
\/|
$|
4$
By
Source : adapté de PONTIER S., « Image du point de vente : pour une prise en compte de l’image interne »,
Recherche et Applications en marketing, vol. 3, no 3, 1988, p. 14.
Flash-Étude 5.4.
Un nouveau concept : la boîte aux lettres intelligente
Objectif
Il s’agit d’améliorer un nouveau concept, une boîte aux lettres intelligente pour la livraison de
produits pour des consommateurs ordinaires, de manière à ce qu’il soit un succès commercial.
Méthodologie
Quatre groupes, comportant chacun six consommateurs, ont travaillé sur ce concept durant cinq
jours, via un bulletin board.
Le concept était décrit de la manière suivante : « Mettez au point une boîte qui permettrait de
délivrer à domicile, de manière sûre et confortable, toutes sortes de colis, que ce soit de la
blanchisserie, de l’alimentation ou d’autres choses, même si personne n’est présent au domicile.
En supposant que vous ayez le choix entre différents styles, tailles et lieux d’implantation,
imaginez un système qui pourrait exister chez vous ou à côté de chez vous, ou si vous vivez en
appartement, une boîte qui soit accessible dans votre immeuble. Supposons que FedEx, UPS et
les services postaux, ou encore des services de livraison, comme la grande distribution
alimentaire, le nettoyage à sec, et d’autres personnes autorisées pourraient utiliser cette boîte,
tout aussi bien pour enlever que pour déposer ces produits de manière sécurisée. Construisez un
système intelligent qui permette uniquement les livraisons autorisées et envoie un message à la
fois au consommateur et à l’expéditeur quand la livraison est effectuée. »
Le schéma suivant était fourni pour éclairer le concept :
\/|
$|
4$
By
Résultats
Voici le concept qui a été, par la suite, le mieux évalué par un échantillon de consommateurs :
« La boîte intelligente existe en différentes tailles ; elle est accessible de l’intérieur, comme de
l’extérieur de la maison ou de l’appartement, pour faciliter l’accès aux produits. Chaque
livraison se fait à partir d’un code aléatoire délivré par un ordinateur et qui n’est valable que
pour une seule livraison ; le suivi de la livraison des paquets se fait de la même manière. La
boîte est ignifugée, sécurisée, à l’épreuve du vandalisme, résistante à la saleté, et offre de
multiples options telles que compartiments multiples, réfrigération, et un système d’alarme
similaire à celui des voitures. »
Source : HOFFMAN D., KOPALLE P. et Novak T., « The ‘‘right’’ consumers for better concepts :
identifying consumers high in emergent nature to develop new product concepts », Journal of
Marketing Research, vol. 47, 2010, pp. 854-865.
2. Fonctionnement
Le groupe répond de trois manières différentes aux différentes questions posées par l’animateur :
– sans voir les réponses des autres. Cette possibilité est peu appropriée, car elle ne permet pas de
bénéficier de la dynamique de groupe. Elle s’approche alors d’une interview individuelle ;
– en n’accédant aux autres réponses qu’après avoir soi-même répondu aux questions posées. C’est
\/|
une solution utile, si l’on suspecte la possibilité d’une pression normative, mais cela bride les
$|
interactions ;
4$
– en voyant d’emblée les autres réponses. Dans ce cas, les participants discutent les uns avec les
autres, autant de fois qu’ils le souhaitent. L’animateur laisse les participants interagir, rebondit avec
By
eux, relance ponctuellement et de manière plus ciblée telle ou telle personne. Néanmoins, il est rare
de pourvoir réagir à chaud, puisque les participants se connectent à des moments différents.
Les clients des sociétés d’études ont accès aux discussions du groupe, via une interface sécurisée
par Internet. Ils peuvent contacter le modérateur en suggérant une question, un approfondissement
d’une idée émise par un membre du groupe.
3. Évaluation
Le bulletin board conjugue certains avantages du focus group on line (dynamique de groupe,
dispersion géographique) et y ajoute de la souplesse (discussion asynchrone), avec la possibilité
d’approfondissement des réponses. Néanmoins, la dynamique est moins forte, mais elle est
compensée par des échanges plus profonds. La figure 5.18. compare ces deux méthodes.
Figure 5.18. Comparaison du bulletin board et du focus group on line
1. Appel à concours
L’institut d’études ou l’entreprise propose aux membres de se connecter sur des plates-formes
dédiées pour recueillir leurs idées de nouveaux produits ou services, sous la forme d’une
compétition ouverte à tous. De plus en plus d’entreprises, telles que Procter et Gamble, Nivea ou
Danone, ont recours à ces techniques pour la recherche d’idées de nouveaux produits. Deux
approches sont envisageables :
– les idées émises par les membres du groupe sont exposées à la vue de tous. Chacun vote pour
telle ou telle idée et celle qui obtient le plus de voix est considérée comme la meilleure. Il est
\/|
possible de reprendre une idée déjà émise et de l’améliorer. On retrouve ici les principes du
$|
brainstorming. Néanmoins, le concours fondé sur la compétition ne favorise pas les échanges et
4$
peut susciter des biais importants (votes d’amis, fausses identités, etc.) ;
– les idées sont personnelles, seules les gagnantes sont révélées à la fin du concours. Le brief
By
créatif est précisé lors de l’appel à concours. Les idées sont évaluées par un jury composé de
membres de l’entreprise et/ou de l’institut d’études, selon les critères marketing usuels (originalité,
faisabilité, potentiel, etc.). Les membres peuvent interagir avec l’animateur du concours, via une
interface. La figure 5.19. propose un exemple de concours géré par un institut d’études spécialisé.
2. Appel à l’innovation
De nombreuses communautés d’utilisateurs passionnés par une activité ou un produit existent. Les
individus qui composent ces groupes sont souvent des lead-users(151). Ces consommateurs éprouvent
des besoins insatisfaits par les produits disponibles sur le marché ; leurs besoins actuels se
généralisent fréquemment, des mois ou des années après, au reste du marché. Par ailleurs, ces lead-
users ont des idées précises sur des solutions qui résoudraient le problème rencontré. Ils constituent
un réservoir d’innovations potentielles pour l’entreprise.
Figure 5.19. Exemple de plate-forme Internet pour un concours d’idées
Source : http://fr.eyeka.com/groups/call_for_submission
\/|
Deux approches sont possibles(152) :
$|
– l’innovation fondée sur la communauté. L’entreprise intègre, ponctuellement, des lead-users dès le
4$
Le groupe propose et teste de nouvelles solutions techniques, de nouveaux usages, etc. Le niveau
d’expertise technique des membres est élevé ;
– la communauté d’innovation. La coopération ne se fait plus par intermittence pour des projets
précis, mais de manière plus continue. Le périmètre du groupe est plus large : il inclut des
consommateurs enthousiastes, innovants et fortement engagés dans la communauté. Les interactions
créatives entre les membres sont stimulées par l’entreprise qui les associe régulièrement aux
différentes étapes de création et de développement de nouveaux produits.
La figure 5.20. donne une illustration de graphismes innovants proposés par des communautés de ce
type pour des nouvelles chaussures de sport.
Figure 5.20. Exemple de designs créatifs issus d’appel à innovation
Source : http://www.kicksguide.com/admin/artist_series.asp
V. Groupe Delphi
La méthode, issue des travaux de la Rand Corporation, a vu le jour aux États-Unis au début des
années 1960(153). Cette technique de groupe a eu très vite un succès considérable auprès des
managers, parce qu’elle offre une démarche simple et structurée pour prévoir des événements à un
horizon de 5 à 10 ans.
Nous présenterons d’abord les principes généraux et le fonctionnement de la méthode classique,
puis nous présenterons deux extensions originales : la première respecte à la lettre les principes de
\/|
la méthode traditionnelle, mais remplace les experts par des leaders d’opinion, la seconde n’en
$|
conserve qu’un minimum, mais propose une application originale sur Internet pour une idéation
4$
Applications
Groupe Delphi Extensions possibles
classiques
Prévoir les parts de marché.
Évaluer l’image de marque.
Prévoir l’évolution de la
Détecter de nouveaux modes de
technologie.
distribution.
Objectifs Prévoir la demande.
Identifier les critères de choix
Évaluer l’acceptabilité de
d’un produit.
produits nouveaux.
Rechercher et évaluer de
nouvelles idées de produit
Leader d’opinion (Delphi leader)
Membres du groupe Experts Consommateur ordinaire (Brand-
Delphi)TM
Banques et assurances.
Informatique et télématique. Automobile.
Électronique. Hi-fi, télévision, vidéo.
Marchés
Énergie, transport. Édition.
\/|
Santé. Agro-alimentaire.
$|
Tourisme.
4$
By
b. Combien d’experts ?
D’un point de vue statistique, la fiabilité des réponses augmente avec la taille du groupe et l’erreur
moyenne diminue en sens contraire. La fourchette comprise entre 8 et 10 membres offre le meilleur
rapport précision/coût.
2. Rédiger le questionnaire
L’horizon, les éventuelles hypothèses de prévision (situation économique, sociale), la cible
concernée et la situation de consommation du produit doivent être clairement détaillés. La plupart
du temps, on demande aux experts de formuler un jugement personnel.
Exemple
Quelle sera, selon vous, la consommation de céréales pour le petit-déjeuner dans
chaque pays de la Communauté européenne, à l’horizon 2020 ?
Mais il est tout à fait possible de demander aux experts de se mettre à la place d’un consommateur
et de prévoir les perceptions de ce dernier. Ainsi, le flash-étude 5.5. montre que les experts sont
capables d’évaluer avec précision les profils d’image de modèles de voiture que l’on obtiendrait
en interrogeant les consommateurs d’un segment de marché très spécifique.
\/|
Le questionnaire est généralement long et nécessite des réflexions approfondies de la part des
$|
experts : une durée de 1 heure à 1 heure 30 est courante. Il comporte un mélange de questions
fermées et ouvertes(156).
4$
3. Administrer la méthode
By
L’originalité de la méthode réside dans le fait que les experts revoient plusieurs fois de suite leurs
jugements : c’est le processus itératif. Il se caractérise par trois règles principales :
– on pose à chaque étape les mêmes questions, puis on demande aux experts de revoir leurs
jugements fournis à l’étape précédente ;
– les experts sont libres de maintenir ou de modifier leur position. On constate généralement que
seuls les experts les moins sûrs de leur opinion bougent ;
– trois itérations sont nécessaires pour un fonctionnement optimum de la méthode.
Le chargé d’études calcule, après chaque étape, les réponses médianes ou les moyennes du groupe à
chaque question(157). Puis il communique ces informations à chaque expert (en lui rappelant sa
position à l’étape précédente) et une synthèse des principaux arguments utilisés par le groupe pour
justifier ses évaluations. C’est le principe de rétroaction d’informations :
– seules les réponses centrales sont fournies. Il est impératif de préserver l’anonymat des jugements
individuels : aucun expert ne sait précisément qui a répondu quoi. Ce point permet de réduire les
effets de leadership et de pression vers la conformité que l’on observe avec les réunions de
groupe ;
– on ne passe à l’étape suivante que lorsque tous les experts ont répondu. Aucun abandon ne doit
intervenir pour éviter de biaiser la méthode.
Internet permet une administration très simple, avec envoi des questionnaires par courrier
électronique ou connexion sur un site dédié, mais du fait de la disponibilité souvent réduite des
experts, il faut compter pratiquement quinze jours par étape, soit au total un à deux mois. La
solution de la réunion sur un même site géographique permet une administration complète de la
méthode sur la journée, en comptant un intervalle de deux heures par étape (une heure de réflexion,
une heure d’analyse). Mais il est impératif que les experts ne puissent pas communiquer entre eux
durant l’expérience.
Flash-Étude 5.5.
Le choix d’une voiture estimé selon le groupe Delphi
Objectifs et méthodologie de l’étude (158)
On a réuni deux groupes d’experts (8 et 11 membres) constitués de cadres marketing et
commerciaux des principaux constructeurs automobiles, ainsi que de chargés d’études de
sociétés de conseil spécialisées. Le scénario de prévision était le suivant : « Des étudiants
célibataires sortant d’une grande école commerciale s’apprêtent à acheter une voiture neuve,
après l’obtention de leur premier emploi. »
* Quels seront les profils d’image du segment pour sept modèles de voitures ?
\/|
* Quels seront leurs critères de choix pour l’achat d’une voiture ?
$|
* Quelle sera la probabilité d’achat de chacun de ces modèles ?
4$
L’administration s’est faite par voie postale. Chaque expérience a nécessité trois itérations pour
obtenir un consensus satisfaisant et a duré environ trois mois. Pour vérifier la qualité des
By
\/|
$|
Importance des critères de choix
4$
By
Probabilité d’achat selon les modèles de voiture
4. Appréciation \/|
La qualité principale de la méthode est son aptitude à la prévision à moyen terme. Les résultats sont
$|
très satisfaisants, comparativement à ceux fournis par des méthodes alternatives. En matière d’étude
4$
de comportement d’achat, les performances sont bonnes, notamment pour l’identification de critères
de choix et l’évaluation de l’image de marque. Dans ce contexte, Delphi est préférable aux
By
C. Extensions
Il s’agit de réunir et de faire travailler, selon les principes de la méthode Delphi, un groupe de
personnes dont les avis sont spontanément sollicités et dont les jugements influencent leur
entourage. De tels individus sont appelés leaders d’opinion.
1. Delphi-leader
a. Domaines d’application
Le groupe Delphi-leader est bien adapté à l’identification des critères de choix d’un produit et à
l’étude de l’image de marque(159). Cette méthode pourrait, en outre, compléter les techniques
traditionnelles de tests de concept, de pré-test d’une création publicitaire, voire les modèles de
simulation de parts de marché. En effet, l’entourage interroge le leader sur ses croyances et critères
de choix, puis les adopte naturellement, celui-ci étant perçu comme plus compétent que soi (voir
figure 5.22.).
b. Fonctionnement
La méthode Delphi-leader reprend les principes d’un groupe Delphi (recherche d’un consensus par
itération et rétroaction contrôlée), mais elle réunit des leaders d’opinions au lieu d’experts.
L’intérêt de cette substitution est qu’il est plus facile d’identifier un leader d’opinion qu’un expert.
La méthode comporte quatre étapes.
L’interviewé indique sur une échelle de Likert en 5 points son degré d’accord ou de désaccord
avec les propositions suivantes (1 = Tout à fait en désaccord, 2 = Plutôt en désaccord, 3 = Ni
d’accord, ni en désaccord, 4 = Plutôt d’accord, 5 = Tout à fait d’accord) :
1 – « Je parle très souvent à mes ami(e)s et voisin(e)s de... (citer une catégorie de produit). »
2 – « Quand je parle à mes ami(e)s et voisin(e)s de... (produit), je leur donne beaucoup
d’informations. »
3 – « Durant les six derniers mois, j’ai parlé à un grand nombre de personnes de... (produit). »
4 – « Dans une discussion concernant les... (produits), le plus probable serait que je parvienne à
convaincre mes ami(e)s et voisin(e)s de mes idées. »
5 – « Mes ami(e)s et voisin(e)s me considèrent en général comme étant de bon conseil en ce qui
concerne les... (produits) »
\/|
Source : BEN MILED H. et LE LOUARN P., « Analyse comparative de deux échelles de mesure du leadership d’opinion »,
$|
Recherche et Applications en marketing, vol. 9, no 4, 1994, pp. 23-51.
4$
La constitution d’un groupe de leaders utilise l’échelle comme une méthode de filtrage : par
By
exemple en matière d’automobile, on n’invitera pour un groupe « Top 10 » que les individus qui ont
un score supérieur ou égal à 19 points ; pour un « Top 25 », la barre est fixée à 16 points. La taille
d’un groupe varie entre 6 et 10 leaders, 8 étant un bon optimum.
\/|
$|
4$
By
Figure 5.25. Critères de choix d’un parfum selon la méthode Delphi-leader
Delphi-leader
Attributs
Scores Rang Sélection
Odeur 20,63 1 oui
Pouvoir de séduction 12,88 2 oui
Esthétique du flacon 12,13 3 oui
Statut social/Personnalité 10,50 4 non
Prix 7,50 5,5 non
Caractère mystérieux 7,50 5,5 non
Réputation de la marque 7,13 7 non
Sentiment d’évasion 6,38 8 non
Grande moyenne 10,57
Source : VERNETTE É. et GIANNELLONI J.-L., « Delphi-leader : prétest d’une nouvelle méthode d’identification de critères de
choix », Proceedings of the 1st International Research Seminar on Marketing Communications and Consumer Behavior, juin 1995,
pp. 554-571.
\/|
2. Brand-DelphiTM
$|
4$
a. Objectifs et principes
By
b. Méthodologie
Elle combine les principes du brainstorming (libre expression, génération d’un grand nombre
d’idées) et le principe d’itération de la méthode Delphi. Ce dernier prend ici la forme d’une
soumission séquentielle des idées émises par un individu au reste du groupe.
L’administration du groupe est asynchrone et se réalise par connexion sur un site Internet dédié. La
taille du groupe varie d’une centaine à un millier de personnes. Cet effectif est nécessaire pour
maximiser le nombre d’idées émises et pour permettre le processus itératif de réexposition aux
idées.
Dans un premier temps, chaque individu propose ses propres idées, puis sélectionne dans une liste
de huit idées produites par les autres membres celles qui lui semblent les plus intéressantes. Dans
un second temps, il évalue sur une échelle sémantique différentielle en 9 points (« J’aime
beaucoup » vs « Je déteste »), l’intérêt des idées qu’il vient de sélectionner. La figure 5.26. donne
un exemple du questionnaire.
L’exposition d’un membre aux idées produites par le groupe est gérée par un algorithme qui capture
en temps réel les nouvelles idées tout en sélectionnant dans la base un certain nombre d’idées
précédemment émises par d’autres consommateurs. Ce questionnaire repose sur un mode
d’échantillonnage adaptatif et itératif qui permet l’émergence rapide des meilleures idées avec un
nombre restreint d’itérations(161).
c. Application
La méthode est utilisable pour détecter de nouvelles tendances et idées de produits ou services,
mettre au jour de nouveaux usages et bénéfices pour les consommateurs, pour positionner ou
repositionner une marque, pour développer de nouveaux packagings, etc. La méthode offre un
classement final des idées sur une matrice comportant quatre cases : les idées « stars » sont les
idées qui sont très souvent sélectionnées et bien évaluées par les membre du groupe ; les idées
« niches » sont des idées sélectionnées par un petit nombre de consommateurs, mais très bien
évaluées par ces derniers ; les « points d’interrogation » correspondent à des idées souvent
sélectionnées, mais plutôt banales, et les « statiques » à idées jugées peu pertinentes par le groupe.
\/|
$|
4$
By
Figure 5.26. Exemple d’application de la méthode Brand-DelphiTM
Étape 1. Génération individuelle d’idées et sélection d’idées proposées par les autres membre du groupe
Source : FLORÉS L., « Générer de nouvelles idées grâce à Internet : un exemple d’application pour le repositionnement d’un
produit »,
o
Revue française du marketing, 2005, n 204, 4/5, pp. 57-70.
Conclusion
Ce chapitre a montré la variété des méthodes de groupe. Nous avons vu que le rôle de l’animateur,
la rédaction des supports d’interview diffèrent sensiblement selon la méthode retenue : d’une
manière plus générale, plus le questionnaire est rigide et moins le rôle de l’animateur est important.
De même, la taille optimum des groupes varie selon la technique : elle est comprise dans une
fourchette de 7 à 10 membres pour les focus groups et la méthode Delphi, mais peut monter jusqu’à
plusieurs centaines de membres, si l’on fait appel aux communautés virtuelles.
Aux États-Unis, les études qualitatives exploratoires sont pratiquement toujours des réunions de
groupe du type focus group : la part des entretiens individuels est réduite. De même en France,
l’usage des groupes se généralise de plus en plus au détriment de l’entretien individuel. Mais si ces
méthodes sont courantes et relativement simples à mettre en œuvre, elles ne doivent pas faire
oublier que leur champ d’application reste limité, sauf pour la méthode Delphi, à un contexte
exploratoire ou de recherche d’idées : apprentissage d’un vocabulaire, recensement de motivations
ou de caractéristiques de marques, idéation, formulation d’hypothèses, etc. À condition de respecter
ces limites, les techniques de groupe constituent un indéniable outil de qualité pour la réalisation
d’études de marché.
Nous allons voir, dans le chapitre suivant, une autre forme d’étude qualitative, très ancienne et
moins usitée que celles exposées dans les deux chapitres précédents, l’observation, mais dont
l’usage s’accroît fortement depuis quelques années, suite à la prise en compte des pratiques et
expériences de consommation par le marketing.
\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. La taille optimale pour la méthode TGN est :
(1) de moins de 6 personnes
(2) comprise entre 6 et 10 personnes
(3) de plus de 10 personnes
Q2. Le focus group repose principalement sur :
(1) la familiarité des participants avec le sujet
(2) la non-directivité
(3) la thérapie de groupe
Q3. Le nombre idéal d’itérations pour le groupe Delphi est de :
(1) 1 à 2
(2) 3 à 4
\/|
(3) 5 et plus
$|
4$
Q4. Avec quelle méthode l’analyse de contenu est-elle préférable pour analyser les
résultats ?
By
(1) TGN
(2) Delphi
(3) focus group
Q5. Le bulletin board nécessite :
(1) une présence synchrone des membres dans un même lieu géographique
(2) une présence asynchrone des membres dans un même lieu géographique
(3) une présence asynchrone des membres dans des lieux géographiques différents
Réponses : voir annexes téléchargeables sur www.vuibert.fr
Bibliographie
AMADO G. et GUITTET A., Dynamique des communications dans les groupes, A. Colin, 1991.
CLAXTON J.D., BRENT R. J.R. et ZAICHKOWSKI J.L., « The nominal group technique : its potential for
consumer research », Journal of Consumer Research, 7, 3, décembre 1980, pp. 308-313.
COURATIER C et MIQUEL C., Les études qualitatives, L’Harmattan, 2007.
DALKEY N. C. et BROWN B., La méthode Delphi, Paris, Dunod, 1972.
DION D. (coord.), À la recherche du consommateur, Dunod, 2008.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FERN E., « The use of focus group for idea generation : the effect of group size, acquaintance ship,
and moderator on response quantity and quality », Journal of Marketing Research, 19, février 1982,
pp. 1-13.
FRISCH F., Les études qualitatives, Éd. d’Organisation, 1999.
FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en
coopération avec les communautés en ligne », Décisions Marketing, vol. 48, octobre-novembre
2007, pp. 47-58.
GALAN J.-P. et VERNETTE É., « Vers une quatrième génération : les études de marché on line »,
Décisions Marketing, no 19, janvier-avril 2000, pp. 39-52.
GROFF A, CHENEVIER E. et DEBOIS F., La boîte à outils de la créativité, Dunod, 2011.
HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation »,
Décisions Marketing, vol. 36, 2004, p. 29.
LEBEL P., La créativité en pratique, Éditions d’Organisation, 1990.
\/|
OSBORN A., Créativité : l’imagination constructive, Dunod, 1988.
$|
4$
TEMPLETON J. F., The Focus Group, Irwin, Chicago, 1994, pp. 235-244.
VERNETTE É., « La méthode Delphi, une aide à la prévision marketing », Décisions Marketing, no 1,
By
techniques d’observation offrent un potentiel d’investigation très intéressant et bien adapté pour
répondre à ces nouveaux besoins d’études. Nous commencerons par brosser un panorama des
By
différentes formes, puis nous détaillerons les approches fondées sur l’observation non participante,
poursuivrons avec celles qui privilégient la participation et finirons par les techniques mixtes (voir
figure 6.1.).
Figure 6.1. Plan du chapitre
\/|
$|
4$
Nous présentons et comparons dans ce paragraphe les trois grandes familles (non participante,
participante, mixte), puis nous évaluerons les avantages et les limites de l’observation par rapport à
l’interview.
A. Différentes familles
Il existe trois grandes familles d’observation (voir figure 6.2.).
Figure 6.2. Comparaison des familles d’observation
Applications
Formes Principes Approches
marketing
– Suivi de comportement
– Observation d’un
(acte d’achat). – Distribution.
comportement usuel
– Mesures – Mesure des émotions (peur,
(parfois effectuée à l’insu
physiologiques à partir joie, surprise, etc.).
Non du sujet).
de stimuli. – Publicité (suivi du
participante – L’observateur – Appareillage complexe
n’intervient pas. mouvement des yeux).
(tachytoscope,
– Sujet passif (exécute pupillomètre, scanner,
les instructions). IRM, etc.).
– Ethnographie
(ethnomarketing) :
immersion durable dans
une communauté ou – Compréhension des
– Interactions entre groupe. pratiques et rituels de
l’observateur et le sujet. – Netnographie : communautés de fans
– Observation d’un immersion virtuelle on (marque).
comportement usuel. line durable avec – Apprentissage d’un
– L’observateur pose des observation des discours vocabulaire.
questions au sujet pour et pratiques sur un réseau – Observation des influences
comprendre le sens du social ou un forum. des membres d’un groupe
comportement. – Anthropologie (famille, communauté) sur les
Participante
– Immersion plus ou visuelle : immersion modalités de consommation.
moins longue dans un durable avec prise – Usage des produits,
groupe ou suivi de photos ou vidéos dans modalités et moment de
individuel. une communauté ou un consommation, zone de
– L’observation doit être groupe. \/| stockage et débarras.
acceptée, voire oubliée, – Méthode des – Recherche d’idées de
par l’individu ou le itinéraires : observation nouveaux produits et services
$|
stockage, mode de
consommation, débarras).
– Observation complétée
par des interviews – Usage des produits,
– Ethnométhodologie
individuelles (narration) modalités et moment de
(photos, vidéos, récits de
de type consommation, zone de
vie et histoires de vie).
phénoménologique ou stockage et débarras.
Mixte – Protocoles verbaux.
introspectif. – Contrôle d’un argumentaire
– Simulation d’un
– Observation scénarisée de vente (marque et
comportement d’achat
(l’observateur joue un concurrents).
(achat mystère).
rôle déterminé à – Audit qualité (service).
l’avance).
B. Observation ou interview ?
Le panorama précédent montre que les domaines où l’observation peut se substituer à l’interview
sont larges.
Ces techniques sont particulièrement utiles dans deux situations :
\/|
– l’observation est la seule méthode envisageable. C’est le cas lorsque le langage est
incompréhensible par l’homme, par exemple pour l’étude des comportements animaliers
$|
(« l’éthologie ») ou le suivi de très jeunes enfants ;
4$
– l’observation est un mode d’approche original de l’activité humaine. Elle permet d’aller plus
avant dans la compréhension du sens d’un comportement, notamment lorsque les techniques
By
Flash-Étude 6.1.
De la difficulté d’interpréter l’observation
Voici le récit que fait une personne de son activité au réveil et les comptes rendus qu’en font des
observateurs différents à partir du film de cette séquence.
\/|
$|
Récit de l’intéressé : Ce vendredi matin, je me suis réveillé un peu plus tôt que d’habitude, à
4$
7 h 30. Après quelques exercices pour me dérouiller les jambes, je suis allé voir le temps qu’il
faisait par la fenêtre. J’aime bien savoir très vite comment je vais m’habiller le matin...
By
Observateur 1 : 7 h 30, le réveil sonne ; 7 h 40, il descend du lit en prenant appui sur un seul
pied, titube : 7 h 41 fait trois allers-retours dans la chambre et se dirige vers la fenêtre du
balcon ; 7 h 45 regarde le ciel de gauche à droite ; 7 h 46 regarde le thermomètre et le baromètre.
Observateur 2 : Une personne âgée se réveille à contrecœur. Son premier souci est de se
dégourdir les articulations ; le second est de chercher à savoir comment s’habiller pour aller
travailler.
Observateur 3 : Après la sonnerie du réveil, un homme âgé de 45 à 50 ans s’étire pendant dix
minutes dans son lit avant de poser le pied par terre. Il fait quelques allers-retours dans sa
chambre avec la démarche hésitante de quelqu’un qui a fait beaucoup de sport la veille ou qui
souffre d’arthrite. Il se déplace directement, d’un pas plus assuré, de sa chambre à la fenêtre de
la salle de séjour qui donne sur le balcon. Il scrute le ciel avec une moue dubitative, regarde en
direction du thermomètre, hésitant peut-être à aller se recoucher ou à se préparer pour partir.
Source : BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquête en
sciences sociales, Dunod, pp. 17-18.
C. Mise en situation
La figure 6.3 illustre la mise en œuvre des différentes formes d’observation. En pratique, deux
grandes décisions doivent être prises : le choix de l’environnement de l’observation (en milieu
naturel ou en milieu reconstitué), le degré d’intervention de l’observateur (interaction nulle,
modérée, forte). Les trois formes les plus couramment utilisées pour les études marketing sont :
l’observation non participante, l’observation participante et l’observation mixte. Nous allons les
présenter dans les paragraphes suivants. On remarquera que l’observation de type « télé-réalité »
sort du champ des études marketing, dans la mesure où elle reproduit une réalité scénarisée. Les
techniques de tests de produits(162) rentrent dans la catégorie des études marketing, mais la nature de
l’observation étant particulière, totalement dirigée et contrôlée par l’observateur, elle sort du
champ anthropologique.
Figure 6.3. Les différentes formes d'observation
\/|
$|
4$
By
En fonction du type de matériel utilisé, on distingue deux types d’observation : l’observation simple
By
et l’observation appareillée. Dans le premier cas, le suivi des faits et gestes du sujet se réalise par
une simple annotation ou avec l’assistance d’un matériel d’enregistrement léger (magnétophone,
appareil photo, caméra vidéo). Dans le second cas, l’investigation nécessite un matériel lourd et
intrusif : capteurs, sondes, logiciels, etc. Nous présenterons successivement ces deux approches.
A. Observation simple
1. Méthodes
Les méthodes utilisées s’inspirent de celles pratiquées en éthologie, c’est-à-dire l’observation des
comportements animaliers. Trois pratiques éthologiques sont utilisables en marketing(163) :
– scanning ou tour d’horizon. À partir d’un poste fixe, l’observateur procède à un balayage visuel
d’une zone. II consigne, en partant d’une extrémité de la zone, les différentes catégories
d’observations, appelées « praxemes » : par exemple, les rencontres entre sujets, les différentes
actions entreprises, etc. Ce balayage doit être effectué plusieurs fois, à des périodes différentes
(heures, jours, mois) pour obtenir une vision représentative des différents comportements ;
– focus. L’observateur est fixe et relève les gestes et les actions individuelles au cours d’une
opération particulière : par exemple avant, pendant et après la préparation d’un plat cuisiné ; ou
encore, le nombre de manipulations d’un produit avant qu’il soit mis dans le chariot, la lecture
d’une information, etc. ;
– tracking. L’observateur tire au sort un individu et le suit dans ses déplacements dans une zone
déterminée.
En marketing, ces différentes techniques se pratiquent sur les points de vente ou dans des lieux
enclavés de consommation d’un produit ou d’un service : terrain de loisir, cuisine, bureau, voiture,
etc. L’unité observée peut être de trois types : un enfant, un adulte, un distributeur. L’observateur
dispose d’une grille qui récapitule les variables devant être mesurées, par exemple : nombre de
marques manipulées, temps de réflexion avant l’achat, nombre de produits et marques référencés,
prix pratiqués, etc. (voir figure 6.4.).
Figure 6.4. Exemples d’observation de variables marketing
Ces observations ne sont pas à proprement parler du ressort des techniques qualitatives, car elles
sont aisément quantifiables. On touche là au caractère parfois artificiel de la dichotomie entre les
techniques qualitatives et quantitatives. La raison de leur classement vient du fait qu’au départ
toutes ces observations reposaient sur une collecte manuelle, ce qui n’est aujourd’hui plus le cas
avec la lecture optique. Cependant, l’affectation d’une information dans une catégorie de la grille
demande fréquemment une appréciation « qualitative » à l’observateur : par exemple, sur quelles
bases considérera-t-on qu’un consommateur a lu le prix avant l’achat ?
La construction d’une grille d’observation nécessite de lister les différentes catégories et sous-
catégories d’items qui sont l’objet des mesures et les unités de mesure associées. Les mesures
portent généralement sur l’occurrence de l’item et sa durée. Elles consistent souvent en un simple
comptage : nombre d’arrêts devant un rayon d’un magasin, durée, nombre de produits pris en main,
etc. L’enquêteur renseigne les cases, les différentes options ayant été déterminées à l’avance. On
peut aussi utiliser l’enquêteur pour juger la qualité des items observés (marques, produit, activités)
à l’aide d’échelles d’attitude classiques. Mais dans ce cas, on se rapproche des techniques
d’enquête mystère (voir partie IV).
2. Évaluation
L’observation simple est utile pour comprendre les interactions entre un objet (marque, produit) et
un consommateur, et plus particulièrement les aspects non verbaux d’une expérience. Par exemple,
elle permet de voir quels sens (toucher, odorat, vue, etc.) le consommateur mobilise pour découvrir
un nouveau produit. Ces études sont notamment utiles pour évaluer l’ergonomie d’un nouveau
produit (voir flash-étude 6.2.).
\/|
$|
4$
By
Flash-Étude 6.2.
Découverte d’un nouveau produit
Contexte
Au stand de Francfort, Citroën présentait en septembre 1999 son nouveau monospace de milieu
de gamme, la Xsara Picasso. L’objectif était d’observer les premières réactions et
comportements des consommateurs face à ce nouveau produit.
Méthode
Deux observateurs ont noté le comportement d’une centaine de visiteurs qui ont approché,
regardé le véhicule et sont montés dedans. Des observations ont été menées dans le même temps
sur des véhicules de la concurrence (Renault Scénic et Fiat Multipla). L’analyse des gestes
fonctionnels a porté sur les touchers (sensation tactile pour se donner une idée de la qualité des
matériaux), les manipulations (fonctionnement d’un élément, telle qu’une porte, une vitre, un
levier de vitesse), les regards (carrosserie, tableau de bord, etc.), les positionnements (réglage
du siège, rétroviseurs, etc.). Le nombre d’occurrences des différents gestes et leur durée ont été
comptabilisés. \/|
$|
Résultats
4$
Un client consacre en moyenne 117 secondes pour explorer une Picasso (53 secondes pour
l’extérieur, 64 secondes pour l’intérieur) ; il procède à 4 manipulations : 2 touchers, 2
By
D’une manière générale, l’observation en laboratoire ou à domicile est utile pour guider la création
et le développement de nouveaux produits.
Exemple
– Lors du lancement des premières purées minute, on a constaté que beaucoup de
ménagères ne suivaient pas le mode d’emploi et avaient tendance à mettre trop de lait
et pas assez d’eau. Ce déséquilibre remettait en cause les qualités gustatives du
produit et pouvait conduire à son rejet. Par ailleurs, les consommatrices souhaitaient
pouvoir personnaliser leur préparation en ajoutant d’autres ingrédients tels que
fromage, crème fraîche, œufs. D’où l’idée d’ajouter sur l’emballage des suggestions
de préparation permettant de « déculpabiliser » l’utilisatrice tout en valorisant le
produit.
– Un problème analogue concerne le café soluble : les consommateurs ont tendance à
le considérer comme moins corsé que le café traditionnel, d’où un surdosage, ce qui
nuit à la perception du goût. Maxwell a conçu alors une campagne de publicité sur le
thème : « Maxwell, une cuillère ça suffit ».
– L’« Ateliez », imaginé par Danone à Massy-Palaiseau (Essonne), reconstitue une
véritable cuisine dans laquelle évoluent les consommateurs, observés derrière une
glace sans tain. Il a été particulièrement utile pour mettre au point Volvic Touche de
fruit, une nouvelle eau aromatisée, en observant à chaud les réactions des participants.
Ce procédé permet de corriger sur le champ un produit jugé trop sucré ou trop pâle
\/|
dans les laboratoires attenant à la cuisine ; l'acide citrique a ainsi été remplacé par du
$|
jus de citron, le taux de sucre abaissé au maximum en prenant garde à ne pas altérer le
4$
eau au pamplemousse(164).
Ces techniques sont également utiles dans le cas d’études portant sur l’achat familial. Plusieurs
études ont ainsi observé le déroulement des achats d’enfants seuls ou accompagnés : par exemple, il
a été montré(165) que l’enfant était en moyenne à l’origine de 30 % des demandes d’achat pour les
biscuits, produits laitiers ou d’entretien ; d’autres observations(166) révèlent que les enfants
n’utilisent que très peu les chariots en libre-service, ne consultent guère leur liste et ont plus
tendance à regarder le conditionnement que le prix des produits.
L’analyse des données recueillies par l’observation suit les grandes lignes de celle utilisée pour les
entretiens en profondeur : établissement et remplissage d’une grille de codification des
observations, quantification par fréquence d’apparition, puis rédaction d’un rapport de synthèse.
B. Observation appareillée
Avec les techniques précédentes, c’est l’homme qui évalue les différentes valeurs des variables de
l’étude : par exemple, il note la durée de réflexion avant un achat, le nombre de critères utilisés,
etc. Avec l’observation appareillée, c’est un système électrique, mécanique ou électronique qui
calcule les valeurs à enregistrer. Ces mesures présentent l’avantage d’être objectives et fiables.
La figure 6.5. présente les techniques les plus courantes. La plupart de ces systèmes, tels les
scanners ou les audimètres, ne relèvent pas réellement des techniques qualitatives, puisqu’ils
permettent une quantification, voire une modélisation des comportements. Nous les présentons
néanmoins dans ce chapitre, dans un souci d’exhaustivité.
La principale limite de la plupart de ces appareillages réside dans leur lourdeur de mise en œuvre
et surtout dans la nécessité de travailler en « laboratoire », ce qui tend à renforcer l’effet de cobaye
chez le sujet.
Cependant, les progrès technologiques suppriment ou réduisent ces limites. Ainsi, le scanner
mesure les achats sans aucun biais d’instrumentation. Les caméras pupillométriques ne nécessitent
plus de capteurs spécifiques : l’optique est couplée à un logiciel qui donne une précision de l’ordre
du 1/10e de seconde pour la fixation du regard inférieure et de cinq millimètres pour la restitution
des coordonnées de la zone balayée. Le magazine électronique (méthode ART) mesure la
perception visuelle inconsciente dans une situation proche de la réalité : un logiciel reconstitue les
colonnes d’un magazine avec les textes et la publicité à tester(167). L’attention du sujet est fixée sur
un curseur qu’il déplace sur chaque ligne, en faisant attention à ne pas toucher les mots, afin de
détourner son attention des publicités (voir figure 6.6.). On calcule ainsi la variation de la
mémorisation des publicités selon leur emplacement et leur taille.
Figure 6.5. Principales techniques d’observation appareillée
\/|
Principes techniques et types Domaines
$|
Méthodes
de résultats observés d’application
4$
Pour des références sur les techniques précisées dans le tableau ci-après, voir :
(a) CHURCHILL G.A. Jr., Marketing Research, Dryden Press, Chicago, 4e éd., 1987, pp. 263-267 ; GREEN P.E., TULL D.S. et
ALBAUM G., Research for Marketing Decision, Prentice Hall, 5e éd., 1988, pp. 188-1991.
(b) JACOBY J., CHESNUT R.W. et FISHER W.A., « A behavioral process approach to information acquisition in non durable
purchasing », Journal of Marketing Research, novembre 1978, pp. 532-542. Pour une adaptation à Internet, voir PETR C et HESS-
MIGLIORETTI A, « La méthode des tables d’information : un renouvellement grâce à Internet ? », Décisions Marketing, vol. 57,
janvier-mars 2010, pp. 19-30.
(c) PARASURAMAN A., Marketing Research, Addison Wesley Publishing Co, Reading Mas, 1991, 2e éd., pp. 243-245.
(d) LHOSE G., « Consumer eye movement patterns on yellow pages advertising », Journal of Advertising, vol. 26, 4, printemps 1997,
pp. 61-73 ; STEWART J., PICKERING M. et STURT P., « Se servir du mouvement des yeux durant la lecture comme mesure
implicite de l’acceptabilité des extensions de marques », Recherche et Applications en marketing, 2005, vol. 20, no 4, pp. 97-110.
(e) SHAPIRO S., MCINNIS D., HECKLER S. et PEREZ A., « An experimental method for studying unconscious perception in a
marketing context », Psychology & Marketing, vol. 16, no 6, 1999, pp. 459-477.
(f) DROULERS O. et ROULLET B., « Émergence du neuromarketing : apports et perspectives pour les praticiens et les
chercheurs », Décisions Marketing, no 46, avril-juin 2007, pp. 9-22 ; YOON C., GUTCHESS A., FEINBERG F. et POLK T., « A
functional magnetic resonance imaging study of neural dissociations between brand and person judgments », Journal of Consumer
\/|
Resarch, vol. 33, 2006, pp. 31-40.
(g) BELVAUX B. et FLORES L., « L’utilisation de proxies du Web pour la prédiction des marchés, une application au marché
$|
cinématographique », Décisions Marketing, no 57, janvier-mars 2010, pp. 9-18.
4$
dans leurs résidences coloniales les indigènes pour observer leurs comportements et les interviewer, puis ont
ensuite quitté celles-ci pour s’immerger dans les cadres de vie, en partageant durablement le quotidien des
tribus et peuplades observées ; peu à peu, l’observation participante a pris le dessus sur « l’ethnologie de
By
véranda »(171). L’ethnographe doit s’insérer dans le milieu étudié et interagir avec les autochtones. La
construction de la connaissance se fait progressivement, selon les principes de la « théorie enracinée »(172).
Les Anglo-Saxons considèrent que l’anthropologie se structure autour de quatre branches : (1) l’anthropologie
sociale et culturelle qui correspond à l’ethnologie ; (2) l’anthropologie physique qui regroupe l’anthropologie
biologique et médicale (biologistes travaillant sur les populations et anthropologues travaillant sur des
ossements provenant de sites archéologiques) ; (3) l’anthropologie physique, très proche de la paléontologie ; (4)
l’anthropologie linguistique renvoie à l’ethnolinguistique qui étudie la structure du langage dans différentes
cultures et leurs évolutions au fil du temps.
B. Méthodes ethnographiques
1. Objectifs
L’étude cherche à clarifier la manière dont se construit une culture au travers d’observations de
comportement ou d’expériences. Elle décrit et explique les comportements d’un point de vue
culturel ou social, plutôt qu’à partir d’une approche cognitive. En marketing, elle peut être
appliquée à la compréhension d’un marché pour faciliter la formulation d’une stratégie
appropriée(173).
2. Mise en œuvre
Par rapport à une étude de marché classique, la collecte des données présente plusieurs
spécificités :
– partage. Le chargé d’études partage la vie quotidienne ou des tranches de vie de l’unité à étudier.
Il consigne les faits observés dans un « carnet de notes » qui servira ultérieurement pour interpréter
les faits ;
– immersion durable. Le chercheur ne se contente pas d’observer les pratiques, il intervient en
posant des questions aux individus sur le sens de ce qui se passe. Une présence prolongée est
nécessaire pour qu’un climat de coopération s’installe et que l’observateur soit suffisamment
accepté pour que l’individu observé confie des éléments touchant à son intimité ;
– utilisation de photographies, d’enregistrements vidéo. Ces documents sont précieux pour
reconstituer le flux chronologique des événements et pour identifier les moments caractéristiques
d’un fait culturel. La décision de prendre une photographie à un instant précis suggère une phase
cruciale d’une expérience ou d’un rituel. Les éléments visuels (mise en scène, détails du décor,
gestes des participants) complètent et enrichissent les notes de l’observateur.
L’interprétation des comportements reste délicate. Normalement, les explications des
comportements fournies par l’analyste doivent être corroborées par les participants. Les nouvelles
observations sont continuellement comparées aux antérieures afin de vérifier la stabilité des
schémas interprétatifs. Le cheminement suivi par l’observateur pour arriver à ses conclusions doit
être transparent et largement explicité dans son rapport.
\/|
Les rituels de consommation et les pratiques de « tribus » de consommateurs offrent un champ
$|
d’étude intéressant pour le marketing. L’étude marketing, probablement la plus célèbre, a été
4$
réalisée aux États-Unis au milieu des années 1980 au cours d’une odyssée de plusieurs mois dans
plusieurs États(174). L’objectif était d’étudier les différentes formes de la consommation américaine,
By
reconnaître l’efficacité. Or son taux d’utilisation dans les pays peu développés restait faible.
Pourquoi ? « L’observation des pratiques quotidiennes a révélé deux problèmes : soit la diarrhée
n’est pas considérée comme une maladie, soit les remèdes envisagés ne sont pas adaptés. Ainsi,
pour les mamans thaïlandaises, une diarrhée à un an c’est bien, tellement qu’elles réclament des
fortifiants. À l’inverse, pour les belles-mères égyptiennes, c’est si grave qu’il faut agir dans
l’urgence. Quitte à payer cher un mauvais médicament ou à prescrire des herbes en suivant la
thérapie locale. »
degré des relations et d’intimité entre les membres, leur proximité sont autant de paramètres qui
interviennent dans les choix individuels de consommation ;
By
– les étapes du cycle de vie familial (célibat, rencontre, vie commune, naissances, éducation, départ
des enfants, retraite et fin de vie) rythment et modifient les actes de consommation individuels.
b. Mise en œuvre
D’un point de vue méthodologique, la méthode s’inspire des itinéraires techniques utilisés en
agronomie qui découpent les différentes tâches à accomplir tout au long de l’année en étapes
successives.
La collecte des données complète comporte sept étapes(178). Chaque étape implique une étude de
terrain spécifique. L’accumulation permet de comprendre progressivement la consommation comme
un « système d’approvisionnement », c’est-à-dire une chaîne d’opérations interdépendantes.
Certaines sont routinières, d’autres conflictuelles, d’autres sont conviviales ou fédératrices. Le
flash-étude 6.4 donne un exemple d’identification des sept étapes d’un itinéraire de consommation
d’une famille danoise.
2e étape. Le déplacement
Quels sont les moyens de transport des personnes (voiture, vélo, bus ou marche à pied) et des biens
achetés (sac, coffre) ? Quelles sont les fréquences et les distances parcourues entre le lieu de
résidence et le point de vente ?
4e étape. Le stockage
« Du grenier à mil au frigidaire, en passant par le congélateur, les placards et le garde-manger. »
Ces éléments symbolisent et matérialisent la sécurité et l’ordre alimentaire. L’étude du stockage
(moyen, zone, surface) montre comment les consommations alimentaires s’organisent autour
d’objets agencés selon des règles précises qui conditionnent les futurs comportements d’achat. On
\/|
aura, par exemple, la chaîne du froid, les réserves, le cycle de la propreté, etc. Le « frigidaire » est
un catalyseur des habitudes alimentaires. Son organisation, pour les adultes, suit des règles
$|
précises, structurées autour de trois niveaux de rangement : par exemple, le bas, pour les produits
4$
bruts, le milieu pour les produits préparés et les restes, et le haut du frigidaire pour les produits
laitiers. Ce rangement varie chez les jeunes adultes, seuls ou en colocation. Dans ce dernier cas,
By
chaque niveau peut être affecté à une personne différente : l’organisation n’est plus technique, ni
liée aux différences de degré de froid entre le haut et le bas, elle est conditionnée par la vie sociale.
Méthodologie
L’ensemble du dispositif reposait sur 64 interviews en profondeur, 8 réunions de groupe et
32 observations d’itinéraire.
Exemple d’itinéraire
L’itinéraire débute dans un lotissement de classe moyenne, avec maisons individuelles et une
école maternelle. La maison est modeste, la voiture dispose d’un large coffre, adapté à une
famille de deux enfants. La cuisine est construite à « l’américaine », sans séparation entre le lieu
de cuisson et le lieu de consommation, contrairement aux cuisines françaises. Le réfrigérateur, la
\/|
machine à laver la vaisselle, la hotte, la cuisinière électrique, la cafetière électrique et le robot
mixeur sont présents, aujourd’hui équipements électroménagers de base d’une famille au
$|
Danemark. Cette description souligne l’importance de l’électricité en particulier et de l’énergie
4$
de façon projective, comme un signe nationaliste. Or ce drapeau semble plus à lire, au dire des
Danois interviewés, comme un signe de fête et de convivialité, plutôt privé, que comme un signe
public. Le drapeau danois ponctue une partie de l’itinéraire d’achat.
La liste des courses est faite dans la cuisine, seule, sans discussion, ce jour-là, avec les enfants
ou le mari. Dans le coffre de la voiture un panier en plastique pliant signifie que la personne
accorde de l’importance à « l’écologie », qu’elle cherche à limiter l’usage des sacs en plastique
qui terminent comme déchet. Il s’adapte au Caddy. Il rentre dans la chaîne des objets matériels,
ici celle du portage des produits. Le drapeau danois est présent dans le parking du centre
commercial et à l’intérieur. Il y en a plusieurs dizaines.
C’est le plus grand centre commercial du Danemark. Il possède un cinéma, un McDonald’s, des
grands abris pour les vélos. Nous pénétrons dans un des deux grands hypermarchés. Les légumes
sont sous un humidificateur qui s’allume toutes les 5 à 10 minutes pour maintenir la fraîcheur ;
les produits alimentaires secs ; et, entre les deux, les produits liquides avec une trouvaille, un
vin français d’exportation, au nom évocateur de « piquette » (sic) !
Les courses sont mises dans le coffre dans les casiers en plastique, puis déposées dans la
cuisine. Le plat préparé est une sorte de plat chinois fait de légumes et de viande. C’est un peu un
plat de fête, peu fréquent. La précision des gestes et la procédure très organisée de la
préparation culinaire sont frappantes. Les objets de base sont la cuillère en bois, les couteaux de
cuisine, la casserole, la poêle et le robot électroménager. Souvent au Danemark, il y a dans les
cuisines la cuillère italienne à spaghettis et que l’on trouve dans de nombreux magasins. À la fin
de la cuisson, rien ne traîne sur l’espace de travail.
Ensuite il faut préparer la table qui est dans la cuisine. Trois objets plus « typiquement » danois
sont mobilisés : le lait, pratique fréquente au Danemark, le porte essuie-tout et les bougies. Le
porte essuie-tout peut être en bois. Il est sur la table. Il ressemble pour un Français à un « porte-
papier toilette » qu’il n’oserait pas mettre sur la table. Ici il est en métal. On retrouve
l’importance des codes de ce qui est permis, prescrit et interdit entre les cultures. Les bougies
font partie de la « culture danoise ». Le nombre de points lumineux est plus important qu’en
France. Il peut dépasser 20 par pièce. La bougie participe à ce que les Danois appellent le
hygge, traduit par « ambiance » ou « convivialité ». La nappe symbolise un événement un peu
exceptionnel. À la fin du repas, une partie de la vaisselle est faite à la main. La cuisine sera
laissée dans un ordre impeccable.
c. Interprétation
La description des usages et des pratiques s’organise autour des éléments suivants : acteurs
(nombre, rôle, statut), interactions, espace (emplacement, surface, lieu, affectation), temps consacré
et objets mobilisés pour la consommation. \/|
Les codes, normes et rituels sont détectés et interprétés selon trois types de règles : exposition,
$|
présence et répartition de l’espace (figure 6.7.).
4$
L’analyse porte sur chacune des sept étapes qui sont décrites et examinées sous les angles
précédents. D’une manière générale, l’interprétation cherche à répondre aux questions suivantes :
By
pourquoi est-ce que cela est fait ainsi ? Qui est à l’origine de cela ? Un schéma interprétatif est bâti
sur la base d’une première série d’observations ; sa plausibilité est testée sur un second jeu de
données. Les explications ont un statut provisoire qui est progressivement affiné ou remis en
question par le cumul avec les observations suivantes.
Figure 6.7. Règles relatives aux objets
La restitution finale s’organise autour de trois pôles : (1) description des étapes de l’itinéraire du
4$
produit, codifiées par les normes et les rituels de consommation ; (2) représentation du produit ;
(3) structuration et présentation du système explicatif.
By
C. Netnographie et twetnographie
1. Netnographie
La netnographie est une observation participante menée sur le réseau Internet. Elle adapte les
principes des méthodes ethnographiques à l’étude d’une communauté virtuelle, telle que les forums,
newsgroups, les chats, les communautés de marques(180). Ces tribus virtuelles se constituent autour
de hobbies ou de passions variées, mais aussi autour de marques ou de catégories de produits ou de
services, telles que les voitures, la bière, le café, la moto, la mode, etc.(181).
Les membres les plus actifs d’une communauté de consommation connaissent particulièrement bien
les produits et sont généralement des consommateurs passionnés ; à côté de ces fans, on trouve les
« touristes » qui ne fréquentent la communauté que pour résoudre un problème ponctuel, les
« fervents », plus impliqués par le produit que par la communauté, et les « papillons », plus
attachés au principe communautaire qu’au produit.
Le principe méthodologique consiste à s’immerger durablement dans une communauté et à observer
tout ce que se disent et se racontent les membres participants. L’observateur privilégie les échanges
qui émanent des membres les plus actifs. La démarche s’opère en quatre temps(182) :
1 – Repérage et choix des sites les plus pertinents pour résoudre le problème posé. Une période
d’immersion est nécessaire pour que l’observateur se familiarise avec l’objet de la consommation,
repère les membres les plus actifs, détecte les codes et les rituels des participants.
2 – Collecte des données. Une période de six mois minimum est en théorie nécessaire, certaines
études ont duré jusqu’à deux ans. En pratique, la collecte s’achève lorsqu’il y a saturation, c’est-à-
dire lorsque les nouveaux échanges n’apportent plus d’informations nouvelles. Un journal de bord
est tenu par l’observateur : mémos et annotations diverses reprennent les sentiments, incidents,
réflexions et idées survenues durant la période de collecte.
3 – Interprétation. Les textes des membres sélectionnés sont régulièrement téléchargés par
l’observateur, après accord des participants. L’analyse se fait au fur et à mesure ; l’observateur n’a
pas d’idée préconçue sur ce qu’il cherche, le sens émanant progressivement des analyses. Les
principes interprétatifs suivent ceux des approches herméneutiques.
4 – Validation. Les conclusions de l’observateur sont soumises à plusieurs participants pour
vérifier que l’interprétation proposée fait sens pour les membres.
Cette méthode permet de décoder les langages propres à une communauté, de déceler leurs
motivations de consommation, de tracer la cartographie des différents « chemins » des désirs, de
repérer les codes d’évaluation des marques, leurs points forts et faibles. Les membres les plus
actifs des communautés (les « fans ») sont des leaders d’opinion potentiels, leurs jugements étant
fréquemment repris et cités par les autres membres du groupe. Le flash-étude 6.5. donne un exemple
\/|
de netnographie effectuée sur un forum d’appareils photo numériques.
$|
4$
Flash-Étude 6.5.
By
Communauté
Le forum de discussion en ligne http://photonumerique.biz/index.php a été sélectionné.
Résultats
L’analogie avec le plat cuisiné et le plat « fait maison » décrit les différences de représentation
entre un appareil de photo reflex et un compact. Ces différences concernent les attentes des
consommateurs et l’acte de consommation en lui-même. Le reflex permet beaucoup de réglages ;
il s’adresse à des experts qui souhaitent réaliser des travaux pointus et spécifiques (photo
sportive par exemple). Au contraire, avec leurs modes préprogrammés et des possibilités de
réglages limitées, les appareils compacts sont adaptés aux attentes des novices qui recherchent
avant tout la simplicité d’utilisation. En termes d’image, il est cohérent pour un fabricant d’APN
reflex de produire également des modèles compacts. Deux recommandations peuvent être
formulées pour les entreprises : (1) Il convient de favoriser la simplicité et l’ergonomie
d’utilisation pour les appareils compacts, notamment grâce à des modes préprogrammés du style
« photo de nuit », « photo à la mer », « portrait », etc. (2) Il est inutile de chercher à réduire le
poids des modèles reflex et il mieux vaut éviter les coques en plastique.
Exemple
Y. le 10 septembre N : « Je suis d’accord avec toi ; un reflex de ce type pour un
débutant c’est pas évident vu tous les réglages et fonctions : il a choisi un compact,
c’est beaucoup mieux pour toi-même avec des fonctions évoluées ; ils sont quand
même plus simples à utiliser. »
Edw., le 15 novembre N : « J’ai trop donné dans le compact, je ne peux pas faire ce
que je veux avec ; je trouve ça trop carré comme photo ; tu prends ta photo ça
s’arrête là, je pense que j’aurais plus de plaisir à faire de la photo avec un
reflex... »
Tau., le 14 novembre N : « Quel que soit l’appareil choisi, il faut un minimum de
pratique avec un reflex numérique pour bien en faire ce qu’on veut. Mais c’est aussi
ça qui est plaisant ! »
\/|
$|
Edw., le 14 novembre N : « J’aime beaucoup l’aspect et le touché, un appareil plus
lourd et plus massif, mais surtout pas en plastique, me donne plus envie de prendre
4$
des photos. »
By
Source : Bernard Y., « La netnographie : une nouvelle méthode qualitative basée sur les
communautés de consommation virtuelle », Décisions Marketing, op. cit., 2004, pp. 49-62.
2. Twetnographie
De nouveaux supports en ligne apparaissent régulièrement sur Internet : Facebook en 2003, Twitter
en 2006 sont devenus rapidement des plates-formes d’échange social. Les membres se constituent
des réseaux de liens (amis, abonnés, etc.) pour échanger des informations, images, vidéos ou tout
autre type de messages. Les enjeux actuels pour les marques sont de suivre et de comprendre ce qui
se dit sur ces plates-formes de microblogging, en d’autres termes « d’écouter » les conversations
sur leurs produits et services, via le bouche-à-oreille on line.
Le terme de twetnographie a été proposé pour désigner l’exploitation des conversations tenues sur
Twitter(183). Ce site de microblogging, où les messages sont limités à 140 caractères, est au
croisement des individualités et de nombreuses communautés. Le flux d’informations atteint
rapidement plusieurs milliers d’énoncés par seconde. Le chercheur ne peut matériellement recopier
cette vague informationnelle, mais une API (Application Programming Interface) permet d’accéder
aux données. Le programme, une fois connecté à l’API, récupère les données sur la base, pendant
une durée infinie, si besoin, et de manière exhaustive. Cette collecte produit une masse
considérable d’informations : quelques semaines représentent des millions d’énoncés.
L’analyse des données suit les principes de l’analyse de contenu thématique, manuelle ou
automatisée (voir chapitre 4). Il est possible d’évaluer la teneur des conversations portant sur une
marque et ses concurrents (avis favorables ou défavorables), les croyances les plus fréquentes, le
nombre de fois où la marque est citée, etc.
d’étude. Les visuels sont une représentation des objets ou des événements. L’effet de continuité des
images enregistrées réduit les biais de la mémoire humaine, tout en offrant des lectures multiples
By
des faits collectés : l’attention se porte sur des points différents à chaque visionnage. Ceci permet
de meilleures analyses pour des événements collectifs, complexes, techniques ou longs ;
– organiser des interactions. Les personnes observées participent soit à la prise de vue, soit à
l’interprétation, soit aux deux opérations. L’objectif est la recherche de ce qui fait sens dans une
pratique de consommation. Le fait que les participants choisissent telle ou telle scène ou tel ou tel
détail est révélateur d’une facette du sens ; les discussions ultérieures avec les acteurs éclairent et
facilitent la compréhension du sens des différentes pratiques.
1. Collecte (185)
a. Échantillonnage
Dans le cas d’un inventaire statique, la décision dépend du volume d’objets. Si celui-ci est
raisonnable, le recensement a du sens. Si le volume est trop important, les techniques
d’échantillonnage s’imposent ; elles suivent les principes usuels (voir chapitre 8). Pour un
inventaire dynamique, le choix porte sur la nature de la prise de vue. L’enregistrement peut être
mobile dans le temps et l’espace ou fixe, avec déclenchement des prises à intervalle de temps
régulier ou observation en continue. Le choix dépend de l’objectif et des contraintes de l’étude : la
mobilité s’impose, à l’évidence, si les pratiques de consommation sont nomades ; l’observation
continue a du sens si l’objet est sanctuarisé autour d’un lieu spécifique : machine à café en
entreprise, spot de surf, point de vente, etc.
b. Prise de vue
Elle peut être flottante, scénarisée, distribuée. La prise de vue flottante est la tradition en
anthropologie : elle est réalisée librement par l’observateur et se rapproche d’une prise de note.
Elle enregistre les situations jugées les plus caractéristiques par rapport à l’objet de l’étude, sans
souci d’échantillonnage précis. La caméra n’est pas en recul, elle est au cœur de l’événement pour
saisir l’instant critique : par exemple, les difficultés d’utilisation d’un produit, les expressions
faciales traduisant une émotion particulière. La problématique oriente les prises de vue ; ces
dernières évoluent en fonction des découvertes éventuelles. La prise de vue peut être enfin réalisée
par le consommateur lui-même : on lui donne un appareil photo ou une caméra. Celui-ci détermine
les événements qui lui semblent les plus caractéristiques de son expérience. Cette approche facilite
la compréhension du sens d’une consommation, nous l’approfondirons dans le chapitre suivant.
c. Cadrage
Il peut être serré sur l’objet ou large, sous la forme d’un panoramique. La mise au point permet une
focalisation sur tel ou tel détail, au détriment d’un autre qui devient flou. Enfin, l’angle de prise de
vue donne une vision spécifique de l’objet ou de l’événement. La multiplicité des angles facilite
l’interprétation des données : dans l’idéal, la présence de plusieurs caméras ou photographes
\/|
permet une triangulation, en révélant des détails qui auraient été cachés. Le choix d’une option de
$|
cadrage n’est pas neutre, car il oriente les interprétations ultérieures. C’est en ce sens que l’image
4$
2. Interprétation
Différentes opérations sont nécessaires :
– le visionnage de l’intégralité des images. Cette opération est analogue à la lecture flottante des
interviews individuelles ;
– la catégorisation et la sélection des clichés ou séquences caractéristiques. Ces opérations
s’appuient le cas échéant sur le scénario initial ou sur un référentiel théorique. Elles sont analogues
à l’analyse de contenu d’un entretien semi-directif, lorsqu’il s’agit de déterminer les catégories et
de sélectionner les verbatims les plus caractéristiques des discours. Pour un film vidéo, le montage
des séquences exprime le résultat de ces analyses de contenu ;
– l’analyse. Le réalisateur des clichés décrit et explique ce qu’il voit et comment il comprend les
visuels. Si l’observateur est le chargé d’études, l’interprétation doit s’appuyer sur un cadre
théorique sociologique ou anthropologique. Si c’est la personne observée qui commente les vues, la
consigne est de la laisser parler librement, en s’attachant aux détails qui lui semblent importants
pour expliquer la situation. L’analyste peut construire un mini-guide d’entretien pour faciliter le
recueil des interprétations. Par exemple, dans la figure 6.8., on pourra demander de raconter une
histoire que suggèrent ces photos (ce qui s’est passé avant, ce qui se passe en ce moment, ce qui va
se passer), d’énumérer et de décrire les objets de l’exploration touristique (guide, sac, appareil
photo, lunettes, vêtements, nourriture, etc.), de dire qui détient les objets importants, de commenter
la position spatiale des acteurs, la direction des regards, les composants de l’arrière-plan, etc.
Figure 6.8. Les objets de l’appropriation d’une expérience touristique
Source : LADWEIN R., « Les modalités de l’appropriation de l’expérience de consommation : le cas du tourisme urbain »,
Cahier de recherche du CLAREE, 2002, universtité de Lille I.
d’objets familiers ou originaux. À la fin de l’interview, il peut demander à visiter les lieux
particuliers (débarras, placards, réfrigérateur, etc.), prendre des photos ou des mesures, en fonction
de la grille d’observation prévue. Nous commencerons par présenter l’observation
ethnométhodologique, poursuivrons par l’observation narrative et finirons par l’observation
scénarisée.
A. Ethnométhodologie
1. Fondements théoriques
L’éthnométhodologie est un courant de la sociologie qui est apparu aux États-Unis dans les années
soixante, sur la base des travaux de Garfinkel(186) (voir fiche technique 6.2.). L’objectif visé est plus
modeste que celui de l’ethnographie : il ne s’agit plus d’expliquer comment se constitue une culture,
mais plus simplement, de révéler les « méthodes » que se donnent les membres d’un groupe pour
organiser leur vie sociale commune.
Fiche technique 6.2. L’ethnométhodologie en sciences sociales
L’ethnométhodologie est un courant de la sociologie qui s’inscrit dans la mouvance de l’école de Chicago. À la fin
du XIXe siècle, cette ville accueillait un grand nombre d’immigrants. Elle fut l’objet de nombreuses observations
de la part de sociologues de l’université de Chicago qui cherchaient à décrire et comprendre les évolutions
sociales de la ville. L’approche refuse tout a priori globalisant et, au contraire, explore toutes les facettes, mêmes
les plus marginales, d’une réalité sociale.
La discipline a été fondée par Harold Garfinkel en s’appuyant sur les principes phénoménologiques d’Husserl
(voir fiche technique 4.4.), en rupture avec les principes d’une sociologie globalisante propres à Durkheim. Elle se
définit comme une science des pratiques humaines qui vise à appréhender les réalités sociales « là où elles
s’expriment » et se « produisent ». Elle vise à comprendre le fonctionnement et les règles de production des
« savoirs ordinaires ». Les analyses se basent sur l’examen, en situation, des actes et des récits des agissements
d’acteurs (membres) d’une communauté humaine.
Elle pose que l’acteur se construit son propre monde et son environnement social, culturel ou historique ; il est
enraciné dans sa vie sociale et met en œuvre des stratégies qu’il maintient ou modifie, en fonction des résultats
de ses interactions avec son entourage. Il n’existe pas de grandes lois objectives auxquelles les membres d’un
groupe doivent se soumettre : au contraire, ce sont les membres du groupe qui construisent collectivement et en
permanence leur réalité sociale. Chaque membre est vu comme un sociologue capable de rendre compte
correctement de ce qu’il fait dans sa vie sociale et de la manière dont il procède.
Ainsi, le fait social n’est pas donné a priori, mais découle des structures et des normes implicites qui doivent être
découvertes par l’observateur. C’est ce cadre qui détermine le véritable sens d’un mot ou d’un acte. Il n’y a donc
pas plusieurs champs d’action distincts et séparés dans lesquels les individus agissent selon des règles
distinctes mais, au contraire, les actions individuelles sont conduites de façon identique, dans tous les contextes
\/|
d’action. Par conséquent, les actes quotidiens sont des objets d’étude à part entière ; le hors-texte social, culturel
$|
ou historique détermine le véritable sens d’un mot ou d’un acte. Il existe, dans les actes quotidiens, des
fondamentaux, des invariants qui expliquent et motivent les stratégies d’actions individuelles. La réalité sociale
4$
de vie.
2. Principes
L’investigation utilise des supports multiples. Elle repose sur des observations directes de
comportement, matérialisées par des schémas, photos, vidéos et souvent complétées, et parfois
remplacées, par des interviews qui permettent aux individus de préciser le contexte, voire d’en
prendre conscience. La structure d’un langage est interprétée en tenant compte de l’environnement
social ou culturel, car ce dernier contribue à créer des formes de langages multiples.
La collecte des données n’est pas fondamentalement différente des principes de l’entretien
phénoménologique (voir chapitre 4). Elle consiste à obtenir des recueils de pratiques quotidiennes,
des témoignages ou des autobiographies. Les interrogations portent sur les expériences, notamment
« la première expérience vécue » : le premier achat d’un produit, la première fois que l’on a fait
telle chose, etc.
L’analyse des observations et l’interprétation des discours se fondent sur quatre concepts :
– pratique et accomplissement. C’est la recherche des méthodes utilisées par les individus pour
donner du sens à leurs actions quotidiennes. Ainsi, toutes les pratiques les plus insignifiantes ou
triviales ont du sens. L’analyse accorde une grande attention à la manière dont l’individu prend une
décision. Il s’agit de voir comment les acteurs « actualisent », c’est-à-dire adaptent les règles ou
les normes d’un groupe ou d’une culture à leur propre situation ;
– indexicalité. La vie sociale s’élabore sur la base du langage quotidien propre à chaque groupe.
En conséquence, les questions de l’interview utiliseront un vocabulaire variable selon les cibles
étudiées, le sens d’un mot dépendant de son contexte culturel ;
– réflexivité. Elle désigne les pratiques qui décrivent un système de valeurs propre à une culture ou
un groupe. Ces dernières définissent un cadre social que l’analyste doit découvrir et comprendre
pour interpréter les faits et les expériences. Par exemple, dans le milieu carcéral, c’est la « loi du
silence » qui structure le cadre de vie et sert de référence pour évaluer les comportements. Dans
l’interview, le répondant construit, au fur et à mesure de son discours, un sens, un ordre et une
rationalité propre à ce qu’il est en train de décrire ;
– caractère descripteur. Les activités des individus sont vues comme des méthodes qui rendent
intelligible leur signification sous-jacente. Toute activité a un sens qu’il convient d’interpréter.
Ainsi, à la différence de la phénoménologie, l’ethonométhodologue considère qu’une interview est
seulement un compte rendu qui indique comment les acteurs reconstituent l’ordre social ou culturel :
les faits énoncés sont moins importants que les fabrications du monde auxquelles ils renvoient.
Le flash-étude 6.6. offre un exemple d’application des principes ethnométhodologiques pour
comprendre les pratiques d’appropriation des lieux de vie communs dans un club de vacances.
\/|
$|
4$
By
Flash-Étude 6.6.
L’occupation de l’espace « piscine » dans un club de vacances
La piscine occupe une place centrale dans le club. Les membres développent de véritables
stratégies pour occuper l’espace le plus enviable, celui du pourtour immédiat de la piscine. Cet
espace est rare et ne permet pas à tous les résidents de trouver une place, d’où une appropriation
discrète des transats qui sont dans cet espace. L’observation en période d’activité ne révèle rien
d’anormal, si ce n’est qu’il n’y a pas assez de place pour les nouveaux arrivants qui doivent
alors se replier sur un second cercle, plus lointain, qui ne permet pas de s’inscrire dans le regard
des autres, ni d’observer commodément les autres vacanciers.
La conquête des transats du premier cercle se fait dès le réveil en déposant une serviette de bain
personnelle : objet personnel dont la manipulation par autrui serait perçue comme une intrusion
sociale, une violation de la sphère privée. Le marquage ne signifie pas occupation du territoire.
Ce n’est que plus tard, dans le courant de la matinée, que l’espace sera effectivement occupé.
Cela a pour effet d’offrir un spectacle tout à fait étonnant au petit matin : tous les transats sont
marqués, mais très peu sont effectivement occupés. L’espace approprié est souvent complété par
une dotation spécifique, le parasol, qui vise à renforcer la position et à accroître son confort.
Les « méthodes » mises en œuvre par les individus ne visent pas seulement à s’assurer un
\/|
emplacement mieux ensoleillé ou plus proche de la piscine, comme une observation classique
aurait pu le faire croire. Elles révèlent que le consommateur n’est pas passif dans une situation
$|
de consommation : il met en œuvre des stratégies concurrentielles pour occuper l’espace public
4$
le plus valorisé. En outre, occuper ce cercle confère aux résidents la possibilité de s’inscrire
dans le jeu social de l’expression de soi et de l’observation d’autrui qui structure les activités du
By
club.
Finalement, la qualité perçue de l’expérience dans un club de vacances est une résultante
complexe. Le choix d’une destination exotique et lointaine est certes un élément important, car
c’est plus la conception sociale d’une destination qui prime, avec une reproduction de rapports
parfois tribaux, dont il faut découvrir les règles. L’expérience est vécue selon des « méthodes »
d’appropriation de l’espace qui participent à la qualité perçue de la consommation.
Source : LADWEIN R. (2002), « Voyage à Tikidad : de l’accès à l’expérience de consommation »,
Décisions Marketing, 28, octobre-décembre, pp. 53-63.
B. Observation narrative
L’observation effectuée sur les lieux de pratique et consommation se borne au recueil d’éléments
factuels descripteurs de l’environnement des répondants : lieu et quartier d’habitation, surface, type
de mobilier et de décoration, organisation de l’espace et des rangements, habillement de
l’interviewé, etc. Elle est largement complétée par des entretiens individuels menés auprès de
membres d’un groupe ou d’une communauté. Les répondants racontent leurs histoires personnelles
concernant la consommation de produits ou services. L’objectif est de comprendre le sens qu’un
individu, isolé ou membre d’un groupe, donne à un comportement de consommation, banal ou
exceptionnel, marginal ou commun.
Deux approches existent(187).
1. Histoire de vie
Elle se focalise sur des éléments objectifs survenus dans la vie des répondants : naissance,
déménagement, mariage, décès, changement d’emploi, etc. On s’intéresse aux conséquences de ces
événements sur les catégories de produits concernés, les modifications de consommation, les
nouveaux besoins et contraintes. Le consommateur rapporte des faits réels, précise les dates et les
lieux des éléments en rapport avec l’objet d’étude. On s’intéresse à la description de ces
comportements, tels qu’ils sont rapportés par les répondants.
La collecte des données se fait sous la forme d’interviews phénoménologiques, complétés avec des
objets en relation avec le domaine : plans, titres de transport, tickets de caisse, documents
administratifs, etc. Les événements sont abordés selon leur apparition, de manière chronologique.
2. Récit de vie
Ces récits sont centrés sur des expériences liées à une situation de consommation, telle qu’elle a été
vécue par l’individu : on s’intéresse au vécu des situations, en se centrant sur les événements et les
circonstances qui sont susceptibles d’expliquer des choix de consommation : mariage, divorce,
\/|
voyage, déménagement, naissance, etc.
$|
Au-delà des conséquences matérielles de ces événements, à savoir l’achat d’un produit ou d’un
4$
service particuliers, l’objectif est de mettre en lumière les éventuelles modifications de pratiques
de consommation. La prise en compte des circonstances et des événements éclaire le sens des
By
consommations, permet de repérer des voies d’innovation, comprendre l’origine des croyances
associées aux marques, etc.
L’entretien est de nature phénoménologique : le guide d’entretien est remplacé par une liste de
thèmes qui font l’objet des narrations individuelles. Les faits sont racontés par les répondants, en
s’attachant à reconstituer les décors, les circonstances, les événements, les épisodes et le
dénouement, sans souci du respect de la chronologie.
Les récits de vie peuvent être complétés par des journaux de bord. Chaque jour, les répondants
consignent les événements, les faits et gestes jugés significatifs pour les pratiques de
consommation : heure, durée, humeur, motivation, recherches effectuées, lieux d’achat, etc.
L’analyse des données emprunte quatre modes (voir figure 6.9.). Le mode diachronique vise à
reconstituer les enchaînements d’un acte, en insistant sur la succession temporelle des événements,
tels qu’ils sont restitués par le narrateur : pourquoi c’est arrivé à ce moment-là et pas à un autre. On
cherche à reconstituer le scénario sous-jacent à un événement en identifiant les événements
manquants, les contradictions éventuelles entre les faits et leur évaluation, les situations
paradoxales. Le mode comparatif vise à identifier des récurrences entre des événements, de
manière à dégager des invariants entre les individus : on cherche à passer du particulier au général.
L’analyse compréhensive suppose d’être en empathie avec le répondant, en laissant de côté ses
propres valeurs et a priori ; elle s’inscrit dans une approche herméneutique (voir chapitre 4) des
discours. L’analyse structurale s’attache à la sémantique des narrations : les disjonctions renvoient
aux oppositions entre des termes, les associations relient deux termes dichotomiques qui renvoient
à une catégorie externe(188).
Figure 6.9 Analyse des récits de vie
La méthode des récits offre un éclairage intéressant pour comprendre le sens d’un comportement de
\/|
consommation ; en contrepartie, cette technique est lourde à mettre en œuvre et intrusive. Enfin, la
$|
part de l’observation est réduite au cadre de vie et à l’environnement du répondant, les narrations
4$
Avantages Inconvénients
– Durée de collecte importante
– Compréhension du sens de comportements
– Volume important d’informations à traiter (tri,
marginaux ou innovants
transcription, interprétation manuelle)
– Implication des consommateurs dans
– Nécessité d’être en empathie avec les
l’interprétation
individus observés
– Placement du consommateur au centre de
– Intervention dans l’intimité du consommateur
l’observation
(voyeurisme)
C. Observation scénarisée
Ce dernier type d’observation repose sur une mise en scène particulière du répondant et de
l’observateur. Dans la première méthode, les protocoles verbaux, le répondant est mis en situation
réelle d’achat ou de consommation, l’observateur recueillant ses propos. Dans la seconde,
l’enquête mystère, c’est l’observateur qui applique un scénario ou une grille déterminés à l’avance
et qui enregistre les informations fournies par les interlocuteurs, généralement à leur insu.
1. Protocoles verbaux
L’observateur demande au sujet de « penser à voix haute » durant la tâche requise par l’étude. Cette
méthode est utile pour comprendre les mécanismes d’achat du consommateur : croyances vis-à-vis
des marques, nombre de marques comparées avant l’achat, connaissance des critères de choix d’un
produit(189), mode de traitement des informations(190).
La méthode se pratique généralement sur le point de vente : l’observateur prend contact avec
l’individu à l’entrée du magasin, puis l’observe durant toutes ses opérations d’achat. L’observateur
cherche à se faire oublier le plus possible du répondant, et n’intervient éventuellement que par des
relances simples, du type « Quoi d’autre encore ?, Que vous vient-il d’autre à l’esprit ? ». Il se
contente d’enregistrer, ou de noter, scrupuleusement toutes les informations fournies à voix haute
par les répondants.
Les extraits de protocoles ci-après sont tirés d’une étude portant sur le processus de choix de
produits alimentaires(191).
Exemple
« Bon, maintenant, je vais aller aux fromages. Mais d’abord, je vais prendre du Fruit
d’Or. Il en faut à la maison. C’est un très bon produit pour cuire les aliments ; c’est
\/|
beaucoup plus léger que le beurre. 0,50 euro donc, c’est moins cher. Je m’en sers
$|
seulement pour la cuisine. Pour tartiner, normalement, je prends du St Hubert. [...]
4$
Voilà, je continue vers les yaourts. Est-ce que l’on voit les yaourts Malo ?... Ah les
voilà ! Voyons un peu les yaourts Malo sucrés. Ceux-là sont nature, il me faut des
By
sucrés [...] »
« Il faut que j’achète de l’huile. Tiens ! des lots de 2 bouteilles. De l’huile de
tournesol ; c’est dans le genre d’huile que je prends. Je vais regarder le prix, parce
que si c’est intéressant, j’en prendrai. 1,90 euro, les 2 litres. Je vais regarder à côté
combien coûte un litre seul. Si ça fait une grosse différence, je prendrai le lot. Je vois
que l’huile de tournesol de Fruit d’Or fait 1,15 euro. Je regarde si c’est pour la friture
ou l’assaisonnement, ça m’est arrivé de me tromper. C’est bon, je prends le lot. »
L’analyse des données se fait de plusieurs manières. Après transcription manuelle des protocoles,
on peut tout d’abord utiliser l’analyse de contenu classique puis, en guise de prolongement,
l’analyse lexicologique. Les observations peuvent aussi être analysées sous forme d’arbre de
décision(192).
Mais cette méthode est particulièrement lourde à mettre en œuvre et très coûteuse. De plus, le rôle
de « l’observateur-interviewer » n’est pas facile à tenir, car les sujets ont souvent tendance à
l’impliquer dans leurs achats en lui demandant des conseils. Enfin, cette méthode favorise la
rationalisation du discours, les observés cherchant à donner d’eux une image favorable.
2. Enquête mystère
Deux formes d’observation sont possibles : effectuer une visite sur un lieu de vente d’un produit ou
de consommation d’un service, contacter une entreprise. L’objet de la visite ou du contact peut être
l’achat d’un produit ou d’un service, une demande d’information ou une réclamation (voir
figure 6.11.).
Figure 6.11. Différents types d’enquête mystère
\/|
$|
L’objectif visé est la comparaison de la qualité d’un service effectivement délivrée par une
4$
entreprise avec le niveau initialement souhaité. L’enquête mystère permet également de contrôler la
restitution d’un argumentaire de vente. Selon l’objectif, la collecte des informations prend la forme
By
d’une visite anonyme sur place dans un point de vente ou d’un contact (appel téléphonique, envoi de
courrier postal ou électronique).
Dans le cas d’un achat de service celui-ci est généralement consommé pour évaluer le niveau de
qualité effectivement délivré, alors que pour un produit, l’achat est généralement fictif, l’objectif
étant souvent l’évaluation de la restitution et l’exactitude d’un argumentaire de vente. Dans ce
dernier cas, l’enquêteur se fait passer pour un client potentiel : il pose les questions prévues et note
les éléments visuels contenus dans sa grille d’observation. Dans le cas d’une demande
d’information ou d’une réclamation, un scénario est également préparé et administré selon le mode
prévu.
La conception et la réalisation d’une enquête mystère suivent un plan en 11 étapes que nous avons
listées dans la figure 6.12. La difficulté principale consiste à faire accepter la démarche par le
personnel de l’entreprise et définir avec précision les critères d’évaluation et les niveaux
d’appréciation de la prestation sur chacun d’entre eux. D’autre part, les observations étant
généralement faites par plusieurs personnes, la formation des enquêteurs est nécessaire pour que
chacun d’entre eux applique le même registre de notation.
Figure 6.12. Étapes d’une enquête mystère
Conclusion
4$
Nous avons examiné, tout au long de ce chapitre, un grand nombre de techniques d’observation.
By
Nous avons constaté que le rôle de l’observateur variait fortement d’une méthode à l’autre : effacé,
interactif ou véritable enquêteur. Les qualités requises pour un bon observateur dépendent
également de la méthode : empathie pour l’observation participante et mixte, discrétion pour
l’observation non participante. Les compétences communes sont la précision et le caractère
méthodique.
Ce vaste panorama de méthodes offre des perspectives intéressantes pour la mise en place de
stratégies de marketing expérientiel ou pour des stratégies de co-création avec le consommateur. Le
prochain chapitre s’inscrira dans une logique complémentaire, à savoir la recherche et la
compréhension du sens donné par l’individu à la consommation de produit ou de marque.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. La méthode des itinéraires est utilisée par :
(1) les anthropologues
(2) les freudiens
(3) les lacaniens
Q2. Les récits de vie sont une forme d’interview :
(1) semi-directive avec un guide d’entretien structuré
(2) non directive pure
(3) phénoménologique avec un guide d’entretien flexible et ajustable
Q3. Les récits de vie impliquent une observation :
(1) mixte
(2) non participante
\/|
(3) participante
$|
4$
Bibliographie
ARNOULD E. et WALLENDORF M., « Market-oriented ethnography : interpretation building and
marketing strategy formulation », Journal of Marketing Research, vol. 31, novembre 1994, pp. 484-
504.
BERNARD Y., « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation », Décisions Marketing, 2004, no 36, pp. 49-62.
COULON A., L’ethnométhodologie, PUF, 1993.
DESJEUX D., La consommation, 2006, PUF.
DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de
consommation », Recherche et Applications en marketing, vol. 22, no 1, 2007, pp. 61-78.
DION D. (coord.), À la recherche du consommateur, Dunod, 2008.
DROULERS O et ROULLET B., « Émergence du neuromarketing : apports et perspectives pour les
praticiens et les chercheurs », Décisions Marketing, no 46, avril-juin 2007, pp. 9-22.
DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des
protocoles », Séminaire de méthodologie de la recherche, CREE, FNEGE, Lille, 1982, pp. 247-
341.
OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à leur
consommation ? Une approche par les récits de vie », Recherche et Applications en marketing,
vol. 24, no 3, 2009, pp. 3-24.
VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, chapitre 7.
\/|
$|
4$
By
Chapitre 7
Dernière famille de méthodes qualitatives, les techniques de recherche du sens, pour certaines fort
anciennes, sont de plus en plus fréquemment appliquées pour l’étude de marchés. Bien que formant
un ensemble relativement hétérogène, elles partagent plusieurs points communs. Tout d’abord, ces
\/|
approches considèrent que les discours tenus par le consommateur, seul ou en groupe, sont biaisés :
$|
souci de rationalisation, désirabilité et comparaison sociale. De plus, la plupart du temps,
l’individu n’est pas conscient des véritables raisons qui l’ont poussé à acheter telle ou telle
4$
marque. Ces méthodes partagent un point commun avec les techniques d’entretien en profondeur :
elles considèrent qu’une des sources du sens se cache dans l’inconscient ou le latent. Elles s’en
By
différencient également, car elles postulent qu’une investigation prolongée n’est pas indispensable
pour accéder à celui-ci. Enfin, chaque famille de méthodes détecte et interprète le sens d’un
comportement en se fondant sur un mode d’accès particulier. Nous commencerons par les
techniques basées sur les associations, puis celles qui font appel à la projection ; nous verrons
ensuite les méthodes de production des métaphores, les images expérientielles, et finirons par
l’approche sémiologique (voir figure 7.1.).
Figure 7.1. Plan du chapitre
\/|
$|
4$
I. Association
By
Ces méthodes utilisent des mots comme stimuli pour déclencher les associations. Elles se
différencient par la nature de ces stimuli et par leur objectif.
A. Mots inducteurs
Ce test a été conçu en 1904 par Carl Jung. Il servait à repérer des formes pathologiques de
maladies mentales chez les sujets. Le test comporte quatre listes de cent mots ; la figure 7.2. en
propose quelques-uns. L’expérimentateur prononce devant le sujet, l’un après l’autre, chaque mot
inducteur.
Figure 7.2. Mots inducteurs de C. Jung
a. Étape 1
On sélectionne un petit nombre de marques (entre 5 et 10) disposant d’une notoriété suffisante et qui
sont représentatives des différents positionnements du marché. Le répondant élimine les marques
qu’il ne connaît pas, ne serait-ce que de nom.
b. Étape 2
Chaque interviewé se représente chacune de ces marques, puis indique « ce qui lui vient
spontanément à l’esprit quand il pense à chacune de ces marques pour un prochain achat ». Ils ne
doivent pas s’autocensurer. La citation des attributs peut se faire, indifféremment, en considérant
l’ensemble des marques, ou en citant les attributs, marque par marque. Dans ce dernier cas, seuls
les attributs nouveaux doivent être mentionnés.
c. Étape 3
Quand l’individu ne peut plus citer de nouveaux attributs, l’enquêteur reprend chaque attribut cité et
demande au répondant des synonymes ou une brève explication.
On a présenté à 60 répondantes un petit nombre de marques (entre 5 et 10) ayant une notoriété suffisante pour
l’échantillon, et représentatives de la variété des positionnements du marché.
3 – Questionnaire
« Vous avez en face de vous les marques suivantes : No 5 de Chanel, Ysatis de Givenchy, Samsara de Guerlain,
Loulou de Cacharel, Opium de YSL, Poison de Dior. Rayez d’abord les marques que vous ne connaissez pas. Puis
imaginez-vous ensuite dans un magasin au moment du choix final, avec devant vous les marques précédentes :
représentez-les-vous bien. Dites-moi les choses, caractéristiques qui vous viennent spontanément à l’esprit
quand vous pensez à chacune de ces marques pour votre prochain achat. Tout ce que vous pouvez nous dire à leur
sujet nous intéresse, surtout ne vous autocensurez pas. Vous pouvez nous dire ce que vous avez en tête en
prenant chaque marque l’une après l’autre, ou en les considérant dans leur ensemble. Dans le premier cas, ne
répétez pas quelque chose que vous auriez déjà dit au sujet d’une autre marque. »
4 – Résultats
La méthode identifie un total de 8 attributs saillants et en a sélectionné 5, comme critères de choix. L’odeur vient
en premier rang, à égalité avec la personnalité et le statut social : ces critères sont cités par 94 % des femmes ;
viennent ensuite le prix (52 %), la réputation de la marque (50 %) et le caractère mystérieux (46 %). Comme
prévu, l’utilisation de « marques-stimuli » a permis de faire apparaître quantité d’évocations liées à la
personnalité de l’utilisatrice d’un parfum et à son statut social ou standing.
C. Réseau associatif
Cette méthode permet de recueillir les croyances concernant des marques ou des questions de
société, d’identifier les critères de choix d’un produit, d’évaluer une communication publicitaire.
Ces principes sont proches de ceux de la méthode de citation directe ; en outre, ils permettent
d’établir un réseau de connexion entre les jugements et d’estimer leur caractère favorable ou
défavorable
La collecte des données s’organise autour de trois points(199).
2. Contexte d’activation
Il est préférable de fournir un scénario d’achat ou de consommation pour identifier les critères des
choix ou comparer des images de marque ; en revanche, cela n’est pas nécessaire, si l’on teste une
publicité ou si l’on explore la structuration d’une classe de produit.
\/|
3. Activation et polarité
$|
4$
Comme pour la méthode de citation directe, la question de départ est : « Dites-moi tout ce qui vous
vient spontanément à l’esprit quand je dis... (nommer le stimulus retenu) ». Les répondants
By
inscrivent ces associations sur une feuille, indiquent ensuite leur ordre d’apparition et leur polarité.
Ils mettent pour cela un « + » devant les associations jugées favorables pour le stimulus, un « 0 »
pour les neutres, et un « – » pour les défavorables. En dernier lieu, ils indiquent les liens entre les
associations, ce qui permet d’établir le réseau associatif individuel.
L’analyse des données se fait en trois temps :
– catégorisation des associations. L’analyse de contenu permet d’identifier les thèmes évoqués par
les répondants ;
– repérage des nœuds et cartographie. La figure 7.3. illustre la cartographie des associations d’un
skieur novice. Ce réseau comporte trois nœuds principaux (« Extrême », « Rossignol » et
« Loisir ») qui suscitent au moins trois associations. L’analyse révèle un réseau principalement
fondé sur des attributs liés aux différents bénéfices et risques de la pratique du ski : s’oxygéner,
convivialité, danger, vitesse, etc. ;
Figure 7.3. Exemple de réseau d’associations d’un skieur débutant
– mesure du caractère des associations. Il existe différents indices pour synthétiser le caractère
favorable ou défavorable des associations produites par les répondants. Les trois principaux sont
les suivants :
\/|
$|
4$
By
Le flash-étude 7.1. présente une application du réseau d’associations pour un post-test destiné à
évaluer l’efficacité des campagnes publicitaires de Benetton.
Flash-Étude 7.1.
Réseau d’associations et publicités provocatrices de Benetton
Contexte
La campagne de Benetton de 1994 montrant un homme dont le bras était tatoué « HIV positif » ou
un individu torturé, interviewé par un reporter a-t-elle été favorable à la marque ? La recherche
menée par Kirchler et De Rosa sur la base de la technique du réseau d’associations apporte des
résultats intéressants(200). Les deux affiches précédentes, plus une jugée moins provocante
(représentant une fille albinos parmi un groupe de filles noires), ont été présentées à
82 adolescentes et adolescents autrichiens. Ils indiquaient ce que la marque Benetton évoquait
pour eux, puis ce que leur suggéraient ces trois visuels, et enfin, la polarité de chaque
association.
Résultats
Les croyances initialement associées à la marque Benetton sont favorables : l’image de marque
est bonne sur la cible. Mais, comme le montre le tableau ci-après, quand on présente aux
étudiants les affiches publicitaires, les associations deviennent neutres pour l’affiche « Albinos »
– affiche considérée comme la moins provocante – et globalement très défavorables pour les
affiches « HIV » et « Torture » ; de plus, les premières associations qui viennent à l’esprit pour
les affiches HIV et Torture ne contiennent que des évocations négatives. En clair, les deux thèmes
provocants sont rejetés.
violence 3 106 2
By
Implications
Une analyse factorielle des correspondances a été effectuée à partir du réseau d’associations.
Elle montre que les mots « peur », « drogue », « désespoir » sont les plus associés à l’affiche
« HIV », « souffrance » étant le plus proche de l’affiche « Torture » ; « contraste » et « solitude »
sont voisins de l’affiche « Albinos ». De surcroît, aucune de ces trois publicités n’est reliée à la
marque Benetton. La campagne a donc raté son objectif sur cette cible, puisqu’aucune affiche
n’est reliée à la marque. Plus grave, le risque à terme est que la marque, au gré des répétitions
des campagnes, finisse par être reliée avec l’une ou l’autre des scènes provocantes. Ceci revient
à associer – à grands frais – des croyances très négatives au capital de marque. Le cas Benetton
est un bon exemple d’une confusion d’objectifs publicitaires : la campagne est efficace en termes
de notoriété (on a beaucoup parlé de la marque), mais rejetée sur le plan affectif (les émotions
suggérées sont négatives). Voilà sans doute une des explications de la baisse des ventes constatée
en Allemagne et en France dans les années qui ont suivi ces campagnes.
Source : adapté de KIRCHLER E. et DE ROSA A., op. cit., 1998, p. 44 ; la dénomination des axes est de notre fait.
une même phrase et de la fréquence individuelle de citation de chacun d’eux. Chaque mot est doté
d’un pouvoir d’activation (ou de suggestion), plus ou moins fort, d’un autre concept. En d’autres
By
termes, l’activation entre les mots x et y est forte, si la probabilité que x soit évoqué, sachant que y
a été cité préalablement, est forte. Cette mesure est utile pour vérifier que les croyances associées à
une marque correspondent bien au positionnement souhaité ; ou encore pour tester les espaces
concurrentiels évoqués par des publicités.
La figure 7.4. montre les images le plus souvent activées par les discours publicitaires de trois
marques de bières(201). On constate que si chaque marque occupe un territoire distinct, une part
importante des termes occupe un espace commun à deux, voire trois marques : les mots « brasser »,
« déguster », « bière », « boire », « manger », « jaune », « houblon », « Pils » ne sont donc guère
discriminants. En revanche, la marque Krombacher active un grand nombre de termes spécifiques
(froid, moelleux, biologique, bulles, pureté, etc.) qui traduisent une volonté de positionnement plus
différencié que les marques concurrentes. D’autres analyses montrent que le couple « bière-saoul »
active plus fortement la marque Bitburger et très peu Krombacher et Herforder.
Figure 7.4. Termes activés par des publicités pour des marques de bières
Source : WETTLER M. et al., Recherche et Applications en marketing, op. cit., 1998, p. 78.
5. Carte cognitive
\/|
$|
La carte cognitive généralise les principes du réseau d’association pour aboutir à une cartographie
4$
qui représente la structure de la pensée individuelle sur un sujet donné : question de société,
expérience particulière de consommation, achat d’un produit ou d’un service. La carte expose les
représentations mentales individuelles et leurs interrelations : elle exprime l’organisation de la
By
pensée, et non pas seulement ce qui est dit et comment cela est dit. C’est une photographie de la
cognition d’un consommateur sur le sujet à un moment donné.
La collecte des données se fait par entretien semi-directif ou avec des méthodes projectives (voir
paragraphe suivant). On identifie par analyse de contenu les éléments de base (les représentations
mentales) de la pensée, leurs occurrences et leurs interrelations(202). Le codage catégorise les liens
d’influence (positive, neutre, positif), les liens d’identité et les liens d’appartenance entre les
éléments. Des logiciels spécifiques permettent une automatisation de ce processus et proposent des
cartes analogues à celle de la figure 7.3., mais plus riches en termes de nœuds et de relations entre
les nœuds.
D. Chaînes moyens-fins
L’idée sous-jacente de cette approche est que la consommation d’un produit ou d’une marque
exprime les valeurs d’un individu. Une valeur est, selon Rokeach, « une croyance durable qu’un
mode de conduite ou un état de l’existence est personnellement ou socialement préférable à un autre
mode de conduite ou d’état ». On distingue les valeurs terminales qui correspondent aux buts que
l’homme se fixe (être libre, vivre dans un monde de beauté, le plaisir, le respect de soi, une vie
excitante, une vie confortable, le bonheur, la liberté, etc.), des variables instrumentales qui sont les
moyens envisagés pour atteindre ces buts (ambition, courage, honnêteté, imagination, pardon,
ouverture d’esprit, etc.).
La méthode des chaînes moyens-fins identifie les relations entre une caractéristique (attribut)
particulière d’un produit ou d’une marque et la recherche d’une valeur personnelle(203). L’objectif
est de mettre au jour les différents chaînages cognitifs des acheteurs. Ceux-ci comportent trois
maillons : (1) la présence d’un attribut (2) procure un bénéfice (ou conséquence) qui permet à son
tour de satisfaire (3) une valeur prioritaire du consommateur.
Dans la pratique, on identifie plus souvent les motivations d’achat du consommateur que ses
valeurs, comme le montre l’exemple de la figure 7.5. On remarque qu’un même bénéfice
(« Conduite confortable ») peut être la conséquence de trois attributs différents (« Performance »,
« Souplesse » et « Habitabilité ») : à son tour, un même bénéfice peut être recherché pour satisfaire
deux motivations différentes : « Souci de la famille » et « Accomplissement personnel ».
L’entretien semi-directif est utilisé pour obtenir les différents maillons des chaînages individuels.
Lorsqu’un attribut est cité, on relance en multipliant les « pourquoi » successifs.
Exemple
Enquêteur : « Vous m’avez dit que le fait de conduire une voiture confortable
\/|
[Attribut] était important pour vous. Pour quelle raison ? »
$|
Réponse : « Je veux pouvoir me sentir reposé quand j’ai fait un long parcours. »
4$
[Bénéfice-Désir]
Enquêteur : Pourriez-vous m’expliquer pourquoi il vous importe de vous sentir ainsi ?
By
Réponse : « J’aime être détendu et performant, tout le temps, même après un long
voyage pour réaliser ce qui me plaît dans ma vie.. » [Désir-Motivation]
Enquêteur « ...Dans votre vie... »
Réponse : « Oui, se réaliser à travers ses actes et bien choisir ce qui vous permet d’y
arriver... » [Motivation-Besoin]
Figure 7.5. Chaînages cognitifs des clients d’une Toyota Yaris
Source : adapté de PARISI F. et RAMECKERS L., « Informations de nature affective et décisions stratégiques »,
Revue française du marketing, 2000, vol. 179, no 4-5, p. 238.
Le guide d’entretien est centré sur l’évocation des modalités de consommation (« À quelles
occasions consommez-vous ce produit ? ») et la restitution d’expériences (« Racontez-moi une
\/|
soirée où vous avez consommé ce produit » ; « et une soirée où vous l’auriez oublié ? » ; « Quand
$|
en avez-vous utilisé pour la dernière fois ? »). Une variante consiste à utiliser en début d’entretien
4$
des méthodes la méthode de citation directe, puis les techniques usuelles de relance dans un
entretien semi-directif, pour obtenir les bénéfices, les valeurs ou les motivations.
By
L’analyse des données passe par une analyse de contenu minutieuse afin de coder les différents
énoncés des trois niveaux de la séquence ; les fréquences de chaque énoncé servent à bâtir les
cartes hiérarchiques. D’autres méthodes permettent de réduire les données et dégager ainsi les
différentes typologies de chaînages ou de segmenter un marché(204).
II. Projection
La projection est un concept important en psychanalyse. Elle se définit comme « un mécanisme par
lequel le sujet expulse de lui-même et localise dans l’autre (personne, chose, monde externe) des
défauts, des qualités, des sentiments, des fantasmes qu’il méconnaît ou refuse en lui »(205). Cette
expulsion permet à l’individu d’attribuer à « l’autre » une perception interne refoulée, après lui
avoir fait subir une certaine déformation. Par exemple, un conducteur qui prend des risques au
volant ne pense pas mettre la vie d’autrui en danger, car il estime maîtriser sa conduite ; c’est plutôt
la navigation erratique et imprévoyante des autres qui lui semble présenter un réel danger. Freud
élargit la projection à la méconnaissance de désirs ou d’émotions inconscients que le sujet
n’accepte pas comme siens : ceux-ci sont alors attribués à des « réalités extérieures »(206).
Les techniques projectives ont été initialement appliquées aux études de marché vers 1950, par
Mason Haire(207). Elles reposent sur l’hypothèse que, devant une situation donnée (achat, occasion
de consommation), l’interviewé interprète les informations en se fondant sur ses propres
préoccupations, besoins et valeurs, généralement inconscients.
Le test projectif est « comme un rayon X qui, traversant l’intérieur de la personnalité, fixe l’image
du noyau secret, de celle-ci sur un révélateur (passation du test) et en permet ensuite une lecture
facile par agrandissement [...] Ce qui est caché est ainsi mis en lumière ; le latent devient
manifeste ; l’intérieur est amené à la surface »(208).
Les techniques projectives se caractérisent par l’ambiguïté du matériel (questionnaires, images,
dessins, etc.) ou des situations (histoires, événements, etc.) proposées aux répondants et par
l’extrême liberté de réponse qui leur est offerte. Le matériel est soigneusement standardisé et
présenté dans un ordre identique d’un sujet à l’autre. Le rôle de l’interviewer se limite à l’exposé
de la situation de travail, à la fourniture des documents et à l’enregistrement des réponses.
Il existe un grand nombre de méthodes projectives. Nous ne présenterons que celles qui offrent un
intérêt pour résoudre un problème d’étude.
individu.
Les méthodes se différencient essentiellement par la nature du support utilisé pour la projection. On
By
distingue le dessin, qui varie de la simple esquisse au véritable tableau, et l’histoire présentée sous
forme de bandes dessinées comportant quelques images. Ces supports sont en couleurs ou en noir et
blanc ; ce choix n’est pas neutre, car la projection ne sera pas la même, pour un même dessin, si
celui-ci est ou n’est pas en couleurs.
Les documents présentés doivent avoir été pré-testés pour s’assurer de leur validité et de leur
fiabilité. D’une manière générale, on sélectionne les supports qui produisent des réponses très
typées selon les catégories d’individus, et on élimine ceux qui conduisent à des interprétations très
voisines. Ces supports conduisent le répondant à effectuer plusieurs types de projections :
– ce qu’il croit être, ce qu’il voudrait être, ce qu’il refuse d’être ;
– ce que les autres sont, ou devraient être envers lui.
L’analyste découpe le discours du sujet et classe ses interprétations en se référant à des grilles
préétablies. D’une manière générale, le psychologue étudie d’abord les thèmes évoqués dans le
discours, la situation et l’ambiance générale, le déroulement du conflit et le dénouement de
l’histoire. Puis il identifie les grands traits structurant la personnalité du sujet, en se fondant sur la
nature des arguments produits.
tient compte de la richesse générale des histoires, de la perception des images, de la longueur et de la clarté du
discours. Ceci permet d’évaluer l’intelligence du sujet, ses aptitudes verbales et son sens de la réalité. L’analyse
By
de contenu s’attache ensuite à discerner les différentes motivations du sujet au travers du caractère décelé chez
son « héros », du degré de pression ressenti par l’individu, du fond de l’histoire (intensité du drame, dénouement,
etc.) et de ses centres d’intérêt.
L’application du TAT dans une perspective d’étude de marché n’est pas récente. Elle remonte au
début des années 1960. Une des premières investigations, décrite dans le flash-étude 7.2., a porté
sur la mise en évidence des freins et motivations des consommateurs face à divers produits
alimentaires. Cette technique projective peut se révéler très fructueuse pour minimiser les motifs
d’achat trop rationnels et stéréotypés.
Flash-Étude 7.2.
Exemples de TAT dans le cadre d’études de marché
Les freins à la consommation de lait
Le lait peut-il faire grossir ? Posée directement, la réponse probable à cette question serait non.
En 1964, dans l’État du Kentucky aux États-Unis, 448 ménagères ont été interrogées sur ce
thème(209) : les unes avec des questions directes et précises (« Si vous faisiez attention à votre
ligne, boiriez-vous du lait avec un sandwich ? »), les autres avec des questions indirectes (« Que
répondrait probablement un adolescent buvant beaucoup de Coca-Cola et à qui l’on conseillerait
de boire plus de lait ? ») et les dernières avec les dessins suivants.
Mrs A Mrs B
Légende : « Diriez-vous que c’est Madame A qui boit plus de lait, ou que c’est Madame B, ou
qu’elles en boivent à peu près autant ? » (Faire donner des raisons.)
Résultats : Comparativement aux autres méthodes, seul le TAT a révélé des différences
significatives sur le profil type du consommateur de lait aux États-Unis : son niveau d’éducation
et son revenu sont plus faibles que pour celui qui en consomme peu. En outre, les interviewés
\/|
ayant le plus souvent sélectionné l’image A (« le lait fait grossir ») tendent à consommer moins
$|
de lait que les autres.
4$
L’évaluation de la qualité de certains produits est largement influencée par le prix. Mais avec
des questions directes, le biais de rationalisation peut amener bon nombre de consommateurs à
déclarer qu’ils ne tiennent pas compte du prix pour évaluer la qualité. Les instructions étaient du
type : « Décrivez la personne représentée sur ces dessins. Comment imaginez-vous la crème de
soins représentée ? »
\/|
$|
4$
Ce type de test suit la même logique que le TAT. Cette adaptation du test de Rosenzweig a été
introduite en psychologie clinique vers 1950(212). La différence réside dans l’introduction d’une
série d’images, généralement quatre, que l’interviewé doit relier entre elles, afin de former une
seule histoire. Les principes d’administration et d’analyse sont identiques à ceux du TAT de
Murray.
Peu appliquée aux études de marché, cette variante du TAT pourrait offrir d’intéressantes
perspectives pour des enquêtes réalisées auprès de jeunes enfants. En effet, la collecte de données
sur ces cibles pose d’incontestables problèmes, notamment pour la mesure des attitudes vis-à-vis
des marques. L’utilisation d’un support de communication familier des enfants favorise leur
adhésion au sujet de l’étude et accroîtrait la production globale d’information. Enfin, pour des
adultes, le côté ludique du test le rend attractif et facilite la participation.
Une application intéressante de la méthode a été proposée pour évaluer le mode de fréquentation
d’un point de vente(213) : les répondants devaient indiquer, pour chacune des cinq planches de
dessins (figure 7.6.), s’ils adoptaient le comportement « jamais, rarement, souvent ou toujours »
pour un achat dans l’alimentaire, un livre, un meuble ou un article de petit électroménager. Les
résultats montrent que le mode de fréquentation varie nettement selon la catégorie de produit
(figure 7.7.).
Figure 7.6. Test des phylactères appliqué au mode de fréquentation d’un point de vente
\/|
$|
4$
By
Source : LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation
de points de vente ? », 2004, Actes des 9es Journées de recherche en marketing de Bourgogne, CD ROM.
Figure 7.7. Comportement d’achat au point de vente selon la catégorie de produit
(Nombre de personnes ayant sélectionné la planche de dessins correspondant au comportement d’achat dans la catégorie de produit)
Source : LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation
de points de vente ? », 2004, Actes des 9e Journées de recherche en marketing de Bourgogne, CD ROM.
\/|
$|
B. Liste d’achats
4$
Au lieu de dessins ou de photographies, comme dans le test du TAT, cette méthode utilise une « liste
By
de commissions » censée avoir été rédigée par une ménagère. Cette liste est composée de marques
de produits alimentaires courants, tels que fruits et légumes frais, poisson, pâtes, viande, etc.
L’expérimentateur bâtit une autre liste, identique à la précédente, sauf qu’elle contient la marque
testée. On demande ensuite au répondant d’imaginer et de décrire la personne ayant acheté l’une des
listes de produits. Cette méthode cherche à faire apparaître les motivations cachées que les
méthodes plus directes n’auraient pu mettre au jour. Le succès de cette technique est dû à une
célèbre étude classique que nous présentons dans le flash-étude 7.3.
Flash-Étude 7.3.
Pourquoi n’achetez-vous pas du café soluble ?(214)
Lors du lancement du Nescafé instantané aux États-Unis, vers la fin des années 1940, l’entreprise
mit l’accent sur la rapidité de préparation du produit, pensant logiquement que ce bénéfice offert
au consommateur suffirait pour assurer le succès de la marque. Or les premiers résultats
commerciaux furent décevants. Afin de discerner les causes de cet échec, une étude fut entreprise
pour évaluer les freins des ménagères américaines. Une première étude – fondée sur des
questions directes du type : « Utilisez-vous du café instantané ; sinon, qu’est-ce que vous n’aimez
pas dans ce produit ? » – montra que le frein majeur semblait venir du goût du produit. Estimant
que ce résultat pouvait cacher d’autres blocages inconscients, Mason Haire utilisa une autre
approche.
On bâtit les deux listes d’achat suivantes. On remarquera que la seule différence concerne la
présence, dans l’une du produit « Café en grains Maxwell House », remplacé dans l’autre par
« Nescafé instantané ». On montra à un échantillon de 100 personnes soit la liste A
(50 personnes), soit la liste B (50 personnes). Les instructions étaient : « Décrivez la ménagère
qui a acheté ces produits », puis dans un second temps : « Indiquez les raisons qui vous ont
poussé à dire cela ». \/|
Liste A Liste B
$|
4$
Résultats principaux
1 – La ménagère ayant acheté la liste A fut considérée par 48 % des répondants comme paresseuse,
contre seulement 4 % pour celle de la liste B.
2 – La ménagère A est qualifiée de dépensière par 12 % des personnes et de mauvaise épouse par
16 % ; aucun de ces défauts ne figure pour celle ayant acheté la liste B.
Les conclusions sont claires : le principal frein à l’achat d’un café soluble n’est pas son goût,
comme aurait pu le laisser croire la première étude, mais est beaucoup plus lié à l’image négative
renvoyée par le produit : « une bonne ménagère n’achète pas un tel produit. Sinon, elle est vue
comme paresseuse, dépensière ». Quelques décennies plus tard, durant les années 1970, des études
similaires(215) ont montré l’évolution considérable subie par le café soluble. L’utilisatrice de café
soluble est maintenant perçue comme moderne et dynamique, alors que celle qui emploie du café en
grains est considérée comme « vieux jeu », voire « rétrograde »... La morale de cette histoire est
qu’un frein culturel n’est pas irrémédiable, mais que sa levée peut s’étaler sur plusieurs décennies.
La liste d’achat servant de support à la projection est particulièrement délicate à construire(216). En
effet, l’impact du « produit cible » dépend considérablement de l’évaluation générale de la liste
d’achat.
Exemple
Sept listes d’achats courants(217), comportant chacune sept catégories de produits
alimentaires, ont été constituées. Voici la composition de l’une d’entre elles : « Poulet,
lait, raisin frais, œufs, filet de bœuf, pain complet, tomates fraîches ». Le produit a
priori considéré comme rejeté, les rognons, est comparé à un produit supposé noble, le
« filet de bœuf ».
L’effet négatif des rognons n’apparaît pas si le produit est inséré dans une liste jugée
préalablement comme globalement favorable. Le même résultat est observé si la liste
d’achat est considérée comme neutre. Enfin, si la liste est évaluée défavorablement,
l’effet du produit rejeté reste peu marqué.
Le produit jugé a priori négatif doit engendrer un rejet suffisamment fort chez les
\/|
répondants pour pouvoir générer des jugements contrastés entre les deux listes
$|
d’achats. Ceci limite fortement les champs possibles d’application marketing de cette
technique : elle ne pourra être envisagée que pour des marques ou produits ayant une
4$
C. Phrases à compléter
Le psychologue recense des situations fréquentes ou rares, plus ou moins ambiguës, auxquelles sont
confrontés les sujets. Il rédige ensuite un certain nombre de phrases comportant des blancs que les
interviewés doivent remplir. Les événements servant de base à la projection peuvent s’inspirer des
sujets abordés dans un TAT. Il existe de nombreuses versions de ces tests dont l’objectif est avant
tout, ne l’oublions pas, de fournir un support d’investigation de la personnalité. La figure 7.8.
propose quelques extraits de l’un d’entre eux, le Stein Sentence Completion Test(218), qui comporte
au total 50 phrases à terminer.
Figure 7.8. Extraits du Stein Sentence Completion Test
1 – Charles était le plus heureux lorsque 9 – Lorsque l’on dit à Henry de rester
tranquille
2 – Il préfère à toute chose
10 – Ce que Tom regrette le plus
3 – Lorsque Pierre fut pris par l’ennemi
11 – J’ai admiré
4 – Rien n’ennuie Bob plus que 12 – Rien ne peut rendre René plus furieux que
5 – La plus grande ambition de Michel était 13 – Joseph se sentit mal à l’aise, parce que
6 – Lorsque Franck a vu son chef venir 14 – Jean pensait que son avenir
\/|
De la même manière, le chargé d’études marketing rédige une série de phrases reliées au sujet de sa
$|
recherche. Cette technique nous semble convenir pour l’analyse de motivations d’achat, l’étude de
l’image de marques ou de produits, les occasions de consommation d’un produit.
4$
By
Exemples
Étude Chicago Tribune (219)
L’étude est réalisée aux États-Unis par le Chicago Tribune et porte sur les relations
des Américains avec leur voiture. Les phrases stimuli étaient du type suivant :
« Les gens qui conduisent une voiture décapotable
»
« Les ouvriers conduisent généralement »
« La plupart des nouvelles voitures »
« Quand j’ai eu ma première voiture »
« Une voiture qui vous appartient »
Résultats
L’analyse montre que pour les femmes, la voiture était surtout une chose pratique et
regardée par les autres. Pour les hommes, la voiture génère un sentiment de
responsabilité et de protection : il faut l’entretenir et la protéger.
Étude Mercedes(220)
L’étude porte sur l’évolution de l’image de l’acheteur d’une Mercedes. Les différentes
phrases cherchent à mettre en évidence les caractéristiques liées à la personnalité et au
statut social du conducteur. Voici un extrait du questionnaire :
« Complétez les phrases suivantes en écrivant les mots qui vous viennent à l’esprit
après avoir lu chaque début de phrase. Soyez spontané, ne vous compliquez pas
inutilement la tâche. Il n’y a pas de bonnes ou de mauvaises réponses.
« La plupart des gens pensent que les propriétaires de Mercedes sont :
»
« Les Mercedes sont plus
que les BMW. »
« Une des caractéristiques les plus remarquées des Mercedes, c’est :
»
« Si je recevais la visite d’un oncle américain au volant d’une Mercedes, je serais
\/|
»
$|
4$
font... », « La plupart des gens pensent que... », « La plupart des gens vivent
comme... ». Les interviewés complètent chaque phrase. On fait l’hypothèse que les
réponses représentent une projection des attitudes ou des comportements réels des
individus ; la troisième personne faciliterait la décharge des émotions et pulsions d’un
individu sur autrui.
Cette technique présente une bonne flexibilité qui lui permet d’être utilisée avec des questions
fermées : par exemple, le sujet indique son degré d’accord ou de désaccord avec diverses
propositions reliées au sujet de l’étude.
Exemple
Dans le cadre d’une étude visant à identifier les freins à l’usage d’un déodorant pour
homme, les questions pourraient être :
« Pour moi, la plupart des hommes qui utilisent un déodorant sont efféminés. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord
« La plupart des gens de mon entourage pensent que les déodorants sont réservés aux
femmes. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord
« La plupart des femmes hésiteraient à acheter un déodorant pour leur conjoint. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord \/|
$|
4$
D. Palette symbolique
Certains instituts d’études de marché suggèrent d’autres instruments dérivés des principes du
By
questionnaire chinois, telle la « Roue des tissus »(221). L’interviewé sélectionne, les yeux fermés,
parmi un ensemble de tissus disposés en cercle autour de lui, la matière qui lui semble le mieux
correspondre à l’image de l’entreprise ou d’un produit. Les tissus proposés (laine, soie, coton,
synthétique, etc.) servent de support pour exprimer des relations affectives vis-à-vis d’une marque
ou d’un produit. D’autres variantes utilisent les différents sens de l’individu : on peut concevoir une
palette de parfums, de goûts, de couleurs, de morceaux de musique ou de formes de visage.
F. Dessins et graffitis
4$
L’idée de demander à des personnes de dessiner ou de gribouiller pour exprimer leurs sentiments
By
ou leurs relations vis-à-vis d’autres personnes ou objets n’est pas neuve. Bon nombre d’études,
menées en psychologie projective, utilisent les dessins pour évaluer le développement intellectuel
de l’enfant ou la personnalité d’un adulte(224).
On trouve quelques applications de cette méthode, surtout dans le domaine de la création
publicitaire : on cherche ainsi à détecter les sens cachés ou les associations d’idées
malencontreuses que pourrait contenir un projet d’affiche publicitaire. Le flash-étude 7.4. décrit un
tel outil, intitulé « la méthode des graffitis ».
Flash-Étude 7.4.
Soumettez votre publicité à l’épreuve des graffitis(225)
On connaît les graffitis que subissent les affiches dans la rue ou dans le métro ; ces inscriptions
sauvages reflètent une attitude très souvent anti-publicitaire de certaines catégories de la
population. Mais si l’on demande à la clientèle potentielle d’un produit de réagir devant une
affiche, le contexte est très différent, et les résultats sont donc significatifs pour l’homme de
marketing.
Nous appliquons la technique des graffitis en groupe ; une fois que dans le groupe de
consommateurs se sont établies de bonnes relations (c’est-à-dire qu’il ne faut pas faire démarrer
un groupe avec cette technique), nous exposons l’affiche à tester et l’animateur demande au
groupe : « Si l’affiche parlait, qu’est-ce qu’elle vous dirait ? » Pendant quelques minutes, il
laisse le groupe répondre. Ensuite, il demande : « Qu’est-ce que vous avez envie de dire à cette
affiche ? » Dans un troisième temps, on donne aux participants des craies de couleur en leur
demandant d’écrire ou de dessiner sur l’affiche ou sur des feuilles blanches autour de l’affiche.
Les résultats de cette approche sont très révélateurs : par exemple, devant une affiche
d’automobile dont l’arrière semblait mal conçu, un particulier dessine une autre voiture qui « lui
rentre dans l’arrière au cours d’un accident ». L’intérêt de la technique des graffitis, par rapport
\/|
aux techniques habituelles de tests publicitaires, est qu’elle sollicite une attitude beaucoup plus
active chez l’interviewé, qu’elle lui laisse une grande liberté d’expression et que donc vont se
$|
2. Limites
Malheureusement, l’adaptation des tests projectifs dans un contexte d’études marketing soulève de
nombreuses difficultés. Il ne faut pas oublier qu’au départ ces tests ont été développés pour détecter
les traits dominants de la personnalité de l’individu. L’analyste doit posséder de solides
connaissances en psychologie clinique pour pouvoir interpréter les résultats des tests projectifs, et
maîtriser ensuite les techniques marketing pour formuler des recommandations réalistes.
Par ailleurs, la transposition des tests projectifs, des listes d’achat et autres associations de mots
dans un univers de produits ou de marques est questionnable. Qu’observe-t-on exactement : les
motivations communes partagées par un même segment de marché ou les traits de caractère
structurant la personnalité des divers répondants ? L’interprétation des transpositions reste
problématique. La fiabilité et la validité du support utilisé pour la projection doivent être vérifiées,
quelle qu’en soit la nature.
III. Métaphore
La métaphore fait partie des principales figures de la rhétorique. Nous commencerons par présenter
ces dernières, puis nous exposerons les différentes natures de la métaphore avant de détailler les
différentes méthodes de production et d’interprétation.
A. Figures de rhétorique
La métaphore est une figure particulière de la rhétorique, art très ancien du discours, développé
dans la Grèce antique. En marketing, la rhétorique sert à structurer un message, en lui conférant un
sens particulier, pour qu’il influence un auditoire dans une direction voulue. Cette « science du
discours efficace » manipule le sens dans une direction souhaitée, et doit, pour cela, prendre en
compte l’univers du récepteur, son histoire, ses valeurs ou sa culture. Les intentions de l’émetteur
sont manifestées par la nature des arguments employés, leur ordre d’apparition et leur style de
\/|
délivrance.
$|
La rhétorique est utile pour une communication publicitaire, car elle facilite la création des images
4$
robustesse et de sa puissance, une multitude de lapins évoquent les capacités de reproduction d’un
photocopieur. Une métaphore trop souvent utilisée perd son pouvoir d’évocation et devient un « cliché » banal :
« être à cheval sur les principes », « courir après le temps », etc.
By
sous-jacente serait que toutes ces images métaphoriques exprimeraient une forme de cognition
sensorielle, intuitive, appelée « cognition incarnée » (voir fiche technique 7.4.).
By
L’intérêt des métaphores pour les études marketing vient de la place centrale qu’elles occupent dans
l’imaginaire des clients d’une marque. En comprenant le sens d’une métaphore, on peut détecter la
nature des besoins latents : « les métaphores sont les canaux par lesquels passent les entreprises et
les consommateurs pour solliciter mutuellement leur attention et leur imagination »(231).
Fiche technique 7.4. Métaphore et cognition incarnée
L’idée de « cognition incarnée » repose sur le constat que notre cerveau est un organe vivant relié à un corps qui
est plongé dans un environnement sur lequel il agit. Cette inscription corporelle du cerveau a une incidence
importante sur la pensée. D’où l’hypothèse que la moindre idée qui nous vient à l’esprit aurait une dimension
corporelle, issue de notre système perceptif, émotionnel ou moteur(232). Le linguiste George Lackoff suggère que
la raison pourrait être née de ce système sensoriel et donc qu’elle emprunterait naturellement les chemins qui
l’ont produite. Ceci expliquerait pourquoi, par exemple, nous structurons les événements de la vie comme un
système de commande du mouvement : « mettre en marche », « s’arrêter », « retour en arrière », « se défoncer »,
« faire le point », « se projeter dans l’avenir », etc.
Cette cognition incarnée est facile à démontrer pour les idées concrètes, comme celle de l’orange. En fermant les
yeux l’image mentale de l’orange nous apparaît avec son panel de caractéristiques sensorielles : l’odeur, le goût
sucré, le bruit des feuillages, etc. Selon que l’on apprécie ou non le goût sucré, l’image mentale associée évoque
l’attirance ou la répulsion. Dans la cognition incarnée, toute idée se concrétise par une forme, une couleur, une
odeur et une valence émotionnelle (« j’aime », « j’aime pas »).
La cognition incarnée s’exprime naturellement dans les métaphores. On la retrouve dans toutes les langues et
cultures. Elle est parfois si naturelle qu’elle fait oublier la puissance des métaphores comme source de
dévoilement des significations complexes ou cachées. Les linguistes ont ainsi identifié plusieurs catégories de
métaphores communes à toutes les cultures (233) : (1) Caractéristiques humaines (mort-vivant, animer une
réunion, venir à l’esprit, disséquer le sujet, avoir la tête sur les épaules) ; (2) Végétaux (prendre racine, un
transplanté cardiaque, une réunion stérile) ; (3) Jeux (à la volée, la balle est dans notre camp) ; (4) Guerre et
combat (se battre pour imposer une idée, résister à la facilité ; point mort) ; (5) Liquides (jaillir, couler de source,
à contre-courant) ; (6) Marche et course (faire courir une rumeur, se jeter à l’eau) ; (7) Aliments (nourrir l’esprit,
\/|
remâcher sa rancune, ruminer sa vengeance) ; (8) Argent (une riche idée) ; (9) Vêtement (trame d’un discours) ;
(10) Mouvement et transfert (échanger son point de vue ; laisser tomber un ami) ; (11) Véhicules et bateaux
$|
(lever l’ancre ; montagne russe ; conduire un projet) ; (12) Temps et température (atmosphère glaciale, briser la
4$
glace) ; (13) Vision (entrevoir la solution, faire écran, aveugler) ; (14) Lieux (affronter le vide intérieur ; trouver
sa voie).
By
ou un objet de son entourage, en s’imaginant transformé par une fée en divers animaux, personnes
célèbres, couleurs, etc. Initialement, ce test a été pratiqué en psychologie de l’enfant, mais il peut
By
être intéressant pour l’étude d’image de marque, un pré-test publicitaire, voire la recherche de
positionnement pour une marque. En marketing, la communication publicitaire utilise fréquemment
des animaux sauvages ou domestiques comme des métaphores pour illustrer les qualités de telle ou
telle marque.
L’interprétation des données reste difficile à réaliser, car elle suppose que l’on catégorise en
élément « apprécié » ou « rejeté » les divers symboles énoncés. Par exemple, quelle est la valeur
symbolique (favorable ou défavorable ?), pour une pierre, du calcaire, du grès, du schiste ?
L’exemple suivant montre la difficulté d’interprétation de certaines métaphores.
Exemple
Contexte de l’étude
Dans le cadre d’une recherche exploratoire destinée à vérifier la validité du
questionnaire chinois comme instrument d’analyse de l’image de marque, nous avons
interrogé une vingtaine de clients potentiels du Gaz de France. Nous cherchions à
valider une liste d’« items chinois » mettant en évidence les points forts et faibles de
l’entreprise.
Extraits de la liste d’items proposés
« Si le Gaz de France était un homme célèbre, ce serait
»
« Si le Gaz de France était une couleur, ce serait
»
« Si le Gaz de France était une pierre, ce serait
»
« Si le Gaz de France était
\/| un animal, ce serait
»
$|
« Si le Gaz de France était une plante, ce serait
4$
»
« Si le Gaz de France était une chanson, ce serait
By
»
Résultats (maquillés)
Imaginons que, par exemple, bon nombre d’évocations de la question 1 faisaient
référence à « Hitler », « Landru », ou au « Diable ». L’interprétation de ces symboles
est assez simple et semble clairement défavorable pour l’image du Gaz de France.
Mais que dire d’autres réponses qui seraient du type : « Napoléon » (impérialiste ou
leader charismatique ?), « Henri IV » (Ravaillac ou la poule au pot ?), « Mitterrand »
(président ou socialisme ?), etc.
Conclusion (provisoire)
La validité du questionnaire chinois en tant qu’outil d’analyse de l’image reste à
établir.
Des travaux portant sur la signification des couleurs ou des animaux existent, mais leurs
conclusions sont souvent controversées(235). Néanmoins, on constate dans les campagnes
publicitaires des associations fréquentes entre une catégorie de produit et un type d’animal : les
chiens sont plutôt mobilisés dans des campagnes publicitaires pour des biens durables, les chevaux
pour des alcools ou des cigarettes, les oiseaux pour des services(236).
Exemple
Les publicités des cigarettes Camel ont pendant longtemps fait appel à « Joe », le
célèbre chameau fumeur. Or les symboles attachés à cet animal sont multiples et
contradictoires : on trouve dans les littératures historiques ou bibliques des
représentations du chameau comme un emblème des vertus humaines (courage,
gentillesse, obéissance, humilité), mais aussi comme un animal matérialisant le vice et
la luxure(237). Dès lors, l’interprétation de tels symboles ne peut se faire sans l’aide
d’une collecte d’informations supplémentaire pour valider l’une ou l’autre des pistes
interprétatives.
La difficulté de l’interprétation du sens de ces métaphores est donc bien réelle. La figure 7-10,
établie à partir de recherches menées en littérature, histoire ou ethnographie, montre une forte
polysémie des symboles : leur sens varie selon les cultures et les époques. Pour réduire la part de
subjectivité de l’interprétation, il est possible de demander aux répondants de fournir une brève
explication, des synonymes pour éclairer le sens de leurs associations. Une analyse de contenu
ultérieure facilite ensuite les catégorisations.
Figure 7.10. Principaux symboles associés aux animaux
\/|
Type d’animal Principales associations
$|
4$
Montagne, ennemi.
Messager, compagnon, gardien, fidélité, amitié.
By
Rouge, bleu, mer bleue, Rouge : « C’est vivant, cela va vite » ; « C’est
ciel bleu, blanc, usine, jeune, c’est la couleur des affaires ».
Couleur ou matière
By
Étapes de la
Objectifs et interprétation
méthode
Description des éléments saillants contenus dans les photographies
1 – Recueil des histoires. et dessins rassemblés ; recueil des premières métaphores associées
aux questions de l’étude et signification attribuée par le répondant.
Enregistrement des images que l’on aurait aimé trouver et qui n’ont
2 – Images manquantes.
pu l’être ; rédaction de fiches sur ces images manquantes.
Répartition des images dans les catégories thématiques propres
3 – Classement des images.
à chaque répondant.
Tirage au sort de trois images : les sujets mettent ensemble les deux
4 – Citation des construits. qui leur semblent les plus proches et donnent la raison de leur
choix.
Sélection par l’enquêteur d’images pour lesquelles le répondant
5 – Élaboration des doit « élargir son champ de vision » : imaginer ce qui se passe à
métaphores. côté ou derrière, les éléments présents qui renforcent ou
contredisent le sens donné à l’image, etc.
\/|
Évocations (autres que visuelles) suggérées par les images :
6 – Images sensorielles.
$|
auditives, olfactives, tactiles, gustatives.
4$
Les métaphores sont interprétées pour élaborer une carte « consensuelle » : on sélectionne celles
qui sont citées par au moins 50 % des répondants et qui sont reliées à un même concept par au
moins un tiers d’entre eux. On obtient généralement une liste de 25 à 35 construits. À titre de
validation, 3 ou 4 interviews sont tirées au sort et l’on vérifie que chaque construit de la carte est
présent dans au moins l’une d’entre elles. La méthode a fait l’objet d’applications commerciales
aux États-Unis, par exemple pour la mise au point de matériel médical destiné à des personnes
souffrant de maladies chroniques, ou encore pour la compréhension de l’usage du téléphone par les
femmes au foyer. Cette technique innovante produit des données riches, capables d’alimenter une
réflexion sur les valeurs et attentes associées à des produits ou services. Mais elle reste lourde et
onéreuse, l’administration de chaque interview exigeant au moins deux heures.
A. Autoportrait photographique
Cette méthode, encore appelée « Autodriving », demande aux sujets de se décrire eux-mêmes
à partir de photographies les représentant au cours d’une activité quelconque (repas, sport, hobbies,
etc.)(242).
La collecte des données nécessite trois étapes :
1 – Prise de photographies de l’activité, environ une centaine pour chaque sujet.
2 – Sélection d’un échantillon d’une quinzaine de photographies pour chaque répondant. On
demande ensuite de les commenter : « Dites-moi tout ce qui vous vient à l’esprit quand vous voyez
cette photo... » Les commentaires sont enregistrés avec un magnétophone. Le choix de l’échantillon
est effectué après une discussion de groupe (dans ce cas, des étudiants en sociologie), en
privilégiant les photographies qui apparaissaient comme les plus caractéristiques de l’activité.
\/|
3 – Réexamen de quelques photographies, complété par l’écoute des réactions du sujet enregistrées
$|
à l’étape no 2 ; ce dernier commente une dernière fois ses déclarations.
4$
L’analyse des données se fait, après transcription des enregistrements audio, par une analyse de
contenu classique.
By
La technique de l’autoportrait se rapproche des méthodes d’observation, telles que celle des
protocoles verbaux ; mais elle s’en différencie dans la mesure où l’on ne demande pas à
l’interviewé de « penser à voix haute » durant l’activité, mais après, et en s’aidant des différentes
images illustrant son action. Cette dissociation permet l’explication de comportements qui, sur le
moment, n’aurait peut-être pas été fournie par le sujet. Ceci est intéressant pour une approche en
profondeur des motivations d’achat et une meilleure compréhension des usages d’un produit ou
d’une marque. Ces informations facilitent le choix du positionnement du produit, de la campagne de
communication, tout en permettant de découvrir de nouveaux usages.
Exemple
Une famille est attablée autour d’un réchaud à fondue(243). En regardant les photos de
cette soirée, un sujet déclare :
« C’était un repas sympa. J’aime la fondue... Juste après notre mariage, c’était un truc
très à la mode... C’était à cette époque un cadeau de mariage courant. J’avais préparé
une fondue avec de la viande... Je m’en suis servi durant “une soirée-football”, je
pensais que c’était une bonne recette d’hiver... »
Cette technique, outre les limites inhérentes aux méthodes projectives développées ci-après, reste
extrêmement lourde et onéreuse : trois séries d’interviews par personne sont nécessaires, une
quantité impressionnante de photographies doit être réalisée, puis visionnée. Enfin, la constitution
de l’échantillon de photographies est délicate, car elle influence considérablement la nature des
informations recueillies ultérieurement.
B. Essai collectif en 3D
Cette technique est bien adaptée à l’étude du marché du tourisme, des loisirs ou le suivi des modes
de vie, etc. Plus complexe que la précédente, la méthode présente les particularités suivantes(244) :
– l’échantillon se compose d’une trentaine de personnes partageant un centre d’intérêt commun.
Chaque participant détermine lui-même les thèmes qu’il considère comme saillants et les
personnages ou objets à prendre en photo, compte tenu de l’objectif de l’étude. Les instructions sont
simples : « Prendre des photographies représentatives d’un moment important de l’expérience de
consommation, et de tous les détails ou images qui signifient quelque chose de particulier pour
vous » ;
– les participants disposent d’un appareil stéréoscopique. Celui-ci permet une prise de vue en trois
dimensions, les photographies étant jumelées et légèrement décentrées pour respecter la
perspective propre à chaque œil. Un relief apparaît, donnant l’illusion d’une profondeur de champ.
\/|
Cette vision peut être obtenue de manière naturelle (en se concentrant sur les photos, puis en les
$|
éloignant progressivement), ou assistée par des lentilles, lunettes ou casques spéciaux ; ces derniers
4$
L’essai photographique est un outil original bien adapté à la mise au jour des attentes, des freins et
des motivations pour la consommation de produits ou de services. Cette technique est utile pour la
\/|
recherche de créneaux pour le lancement de nouveaux produits ou la découverte d’axes de
$|
positionnement originaux. Le fait de prendre des photographies implique fortement les participants
4$
dans l’étude ; de plus, la vision en relief facilite la projection des émotions agréables ou
désagréables, parfois oubliées ou refoulées. En revanche, la technique est lourde à mettre en œuvre,
By
C. Méthode AOL
L’objectif de la méthode est l’exploration et la compréhension des représentations associées à une
expérience de consommation. Elle identifie les axes majeurs qui structurent les représentations des
expériences de consommation, que ce soit pour des marchés mûrs ou pour des marchés émergents.
Dans le cas de marchés mûrs, la méthode peut révéler des créneaux inexploités ; dans un contexte
de nouveaux marchés, la méthode identifie les freins et les motivations des consommateurs (actuels
ou potentiels). En second lieu, la méthode AOL est fructueuse pour élaborer une politique de
communication et pour orienter la recherche de nouvelles idées de produits. En matière de
communication, la méthode met au jour des axes et des thèmes envisageables pour l’établissement
d’une copy-stratégie ; elle est apte à la recherche d’un nouveau logo ou d’un packaging, voire d’un
nouveau nom de marque(246).
Son principe repose sur l’exploitation d’images disponibles sur les sites Internet. Elle repose sur la
réunion asynchrone d’un groupe de 4 à 8 personnes. Le modérateur leur demande de sélectionner
sur l’Internet les images qui leur semblent les plus représentatives d’une expérience de
consommation, puis de réévaluer ce choix à la lumière des choix opérés par les autres membres du
groupe.
1. Collecte
Elle comporte les quatre étapes suivantes :
autres membres du groupe, ou de conserver ses premières images, ou de mixer les deux. Chaque
4$
2. Interprétation
Les données produites sont de deux types : verbales (discours) et iconiques. Les images servent de
supports de projection pour les histoires personnelles (narrations, souvenirs, expériences vécues)
mais révèlent également les peurs, frustrations, fantasmes et idéaux individuels. L’interprétation des
images se fait par analyse de contenu des discours produits par les répondants. L’analyse
thématique met en relation les différents discours associés à une même image. L’analyse verticale
identifie les représentations propres à chaque individu. La synthèse finale met au jour les
régularités (invariants) et les spécificités des représentations.
Une attention particulière est accordée aux images et discours métaphoriques. Les métaphores
visuelles sont très riches sur le plan sensoriel. Les discours tenus lors des étapes individuelles
permettent d’expliciter les métaphores de fond ; celles-ci condensent les éléments communs à
plusieurs métaphores de surface. L’analyse des premières permet d’identifier les éventuels
archétypes(247).
Les archétypes sont des représentations inconscientes et récurrentes qui renvoient à une histoire
commune, universelle, voire primitive. Le flash-étude 7.5. propose deux interprétations d’images
métaphoriques (papillon et tableau abstrait) choisies par les répondants pour représenter
l’expérience de consommation d’un parfum et la pratique du surf en mer.
Flash-Étude 7.5.
Images métaphoriques(248)
\/|
$|
4$
By
L’image ci-dessous est une métaphore produite par un groupe AOL pour illustrer l’expérience de
consommation d’un parfum. Voici les verbatims associés par les répondants qui l’ont choisie
dans leur album individuel : « Le parfait par la représentation du papillon ; quelque chose de
léger, de pratiquement imperceptible lors de son vol ; associé aux lèvres d’une femme, cela
donne la représentation d’une caresse douce et légère » ; « Évoque le printemps, toutes les fleurs
et les différentes senteurs qui se dégagent ; ce papillon a une jolie couleur, la même que le rouge
à lèvres » ; « Reflète bien le parfum (si l’on n’en met pas des tonnes !), quelque chose de doux.
Cet animal si léger pourrait être un bon logo pour une marque de parfum » ; « Un zeste de
parfum, aussi léger qu’un papillon, mais laissant une empreinte, telle que le rouge à lèvres ; le
rouge évoque un parfum sensuel, tenace, quasi indélébile ; une touche parfumée, délicate » ; « La
douceur d’un papillon qui viendrait se poser délicatement sur votre bouche... Que du bonheur !
La couleur des lèvres (rouge soutenu Chanel No 5) me fait penser à un parfum pour femme très
chic, organisée, chef d’entreprise. Une senteur envoûtante » ; « Ce joli papillon qui se pose sur
ces lèvres délicates et pulpeuses représente idéalement la fragrance d’un parfum. Le rouge est
flamboyant et inspire une certaine pureté. La brillance des lèvres fait penser à une pomme
d’amour que l’on aurait envie de croquer. Toute femme devrait associer cette belle couleur à un
parfum irrésistible pour faire craquer complètement un homme. » Nous retrouvons ici
l’archétype de la vie, souligné par une première métaphore de fond : le mythe des saisons, cycle
de la vie humaine. Le vol délicat et léger du papillon renvoie au printemps, moment fort de la
jeunesse, de la légèreté, de l’insouciance. Le paradis (espéré, fantasmé ou perdu) constitue la
seconde métaphore de fond : la sensualité et la douceur évoquent un monde paradisiaque
(« douceur » ; « que du bonheur » ; « une certaine pureté » ; « imperceptible » ; « pomme
d’amour que l’on a envie de croquer » ; « envoûtante »). La couleur rouge, omniprésente, est
polysémique : les métaphores renvoient à une violence feutrée et contenue (« flamboyant » ;
« indélébile » ; « tenace » ; « faire craquer » : « irrésistible ») et à la séduction (« femme chic » ;
« lèvres délicates et pulpeuse » ; « caresse douce et légère »). L’ambivalence du parfum
(vie/mort ; amour/haine ; violence/douceur ; légèreté/lourdeur) évoque un fascinant mélange des
contraires. On remarquera enfin la puissance du visuel du papillon rouge qui effleure des lèvres
sensuelles : il pourrait pratiquement être utilisé en l’état comme un logo ou comme base d’un
packaging, voire comme nom d’un nouveau parfum.
La figure ci-dessous illustre une autre métaphore produite par un groupe de surfeurs réguliers
\/|
pour représenter leur passion. Voici les interprétations des deux répondants qui ont sélectionné
$|
cette image dans leur album personnel : « J’aime beaucoup ce tableau, ça peut paraître bizarre
de l’associer au surf, mais finalement je trouve qu’il évoque bien l’image de vie, de chaleur, de
4$
convivialité. Le mélange de couleurs et de culture est associé à la “culture surf” dans mon
esprit » ; « Cette photo, je l’ai choisie pour les raisons cités lors de la seconde phase de l’étude.
By
Couleurs chaudes, joie, gaîté, tous les ingrédients sont dans ce tableau pour me donner envie de
faire du sport et surtout m’y faire penser... Cette image correspond totalement à ce que je suis et
je trouve que les formes ressemblent aux rouleaux faits par les vagues... ». On identifie dans ces
verbatims une métaphore de fond qui renvoie au caractère existentiel et à la quête du sens de la
vie : métissage des expériences, surprises, peines et joies... Fascination du surf et peur, mélange
des contraires que sont l’archétype du double ou du deuxième mois. Le surf reflète à la fois la
dualité (mélange) et l’unité (ce que je suis) : identité complémentaire ou opposé radical ?
L’analyse des images est riche et porteuse de sens pour le marketing. La synthèse finale fournit un
« mapping » des différentes représentations collectives, organisé autour de pivots (axes). La
figure 7.13. donne la carte des représentations de la consommation d’un parfum produite par un
groupe soumis à la méthode AOL.
Figure 7.13. Représentations d’un parfum par la méthode AOL
\/|
Source : VERNETTE É., op. cit., 2007.
$|
4$
V. Sémiotique
By
2. Principaux concepts
Les concepts développés caractérisent les composantes, les valeurs, l’organisation et la fonction
des signes dans un système de signification donné(250).
a. Composantes et supports d’un signe
Il existe deux écoles de pensée :
– La sémiotique structurale. Selon ce courant, un signe comporte une double face : le plan de
l’expression matérielle (le signifiant) et le plan du contenu (le signifié). La mise en relation de ces
deux faces crée la signification. Ainsi, une colombe avec un rameau dans son bec (signifiant)
exprime la paix (signifié). Par ailleurs, chaque face d’un signe se subdivise en deux dimensions : la
substance et la forme (voir figure 7.14.) ; \/|
– La sémiotique comportementale. Selon ce courant, tout signe est supporté par trois dimensions : la
$|
sémantique étudie les relations entre le signe et l’objet qui donnent la signification du signe ; la
4$
syntactique détermine les relations formelles entre les signes et les règles qui les lient ; la
pragmatique analyse les relations entre les signes et l’homme.
By
Exemple
\/|
Un képi dénote autorité et responsabilité, mais a une connotation variable selon le
$|
récepteur : protection des faibles pour l’un, répression pour l’autre. En simplifiant, la
dénotation renvoie à une signification cognitive, la dénotation à une signification
4$
Exemple \/|
On peut ainsi comparer deux menus selon ces axes : par exemple, l’angle
$|
syntagmatique s’exprime par une séquence de plats (menu no 1 : entrée et plat
4$
soupe).
Une image s’analyse à partir de quatre codes : iconique (stimulation des sens), iconographique
(utilisation de symboles graphiques connus), rhétorique (argumentation particulière) et stylistique
(reprise des codes personnels d’une marque). Par ailleurs, la manifestation d’un produit ou d’une
marque dans une image publicitaire s’opère selon deux registres : la présentation (le produit est
montré, offert) et la prédication (le produit est qualifié par l’attribution de caractéristiques
propres). La première préfère les codes iconiques, la seconde privilégie des codes rhétoriques ; la
figure 7.15. illustre quelques-uns d’entre eux(254).
Figure 7.15. Quelques codes d’une expression iconique
On notera que l’interprétation sémiologique des codes est difficile car, très souvent, il n’existe pas
de code stable : c’est le contexte qui donne du sens au code, dimension qui échappe au périmètre de
\/|
l’analyse sémiologique.
$|
– Dans la fonction de communication, la personne ou l’objet qui communique est qualifié
d’« énonciateur » (émetteur ou destinateur) ; celui qui reçoit le message est l’« énonciataire »
4$
Exemple
Les journaux féminins destinés aux adolescentes utilisent une énonciation plus directe,
impérative ou affirmative (« Dis-lui que tu l’aimes », « Je pars à l’étranger »), alors
que les journaux féminins haut de gamme vouvoient leurs lectrices, posent plus de
questions, suggèrent des actions (« Êtes-vous amoureuse ? », « Savoir se préparer à
partir »). À l’inverse, des énoncés en apparence voisins peuvent avoir des
significations divergentes : un haussement d’épaule, un ton de voix particulier
accompagnant une affirmation traduisent le détachement ou l’émotion, le doute ou la
certitude, etc.
Source : adapté de FOUQUIER E., « Les effets du sémiologue », Diogène, no 127, 1984, p. 138.
\/|
$|
4$
By
Flash-Étude 7.6.
La démarche de la sémiologie publicitaire
La mission du sémiologue de l’image
« L’approche est méticuleuse et ascétique. Elle est une tentative de localisation de ce qui dans
l’image fait fonctionner le sens, une recherche d’imputation, avec ce que ce vocable peut tracter
de rectitude dans la démarche, de stricte précision et de discernement : c’est donc ouvrir une
école de responsabilité, car imputer implique rendre responsable de. C’est un peu le côté
détective, excitant, du rôle : découvrir et faire admettre qu’un détail sans importance apparente
peut peser de manière décisive sur la signification. La perspicacité joue lorsque vous êtes en
présence de deux images quasi semblables, quasi homonymiques, et pourtant sémantiquement
distinctes. C’est pourquoi la sémiologie de l’image donne volontiers l’impression d’une
recherche byzantine, atomistique ; elle décompose toujours les choses en éléments plus petits,
comme si le sens se réfugiait dans l’infime. Il est vrai que la recherche du trait pertinent peut
conduire à des analyses, que l’on dira indifféremment d’une grande finesse ou d’une
sophistication exagérée. Mais l’intelligence et la valeur de l’analyse sont à ce prix [...] »
créateur à l’égard de ce qu’il fait grandit, plus sa lucidité s’accroît, plus sa maîtrise du signe
publicitaire peut s’affirmer, plus sa conscience de la responsabilité des signes peut se
By
C. Techniques d’interprétation
Les préoccupations diffèrent selon les courants théoriques. Pour le structuralisme, la recherche des
composants d’un signe et des lois qui les gouvernent est une priorité ; tout signe se décompose en
catégories qui s’opposent les unes aux autres, tout en formant un système global. Pour le courant
nord-américain, les signes sont étudiés sur la base d’une typologie fondée sur les relations entre le
signe et son objet de référence. Cependant, dans les deux cas, l’analyse sémiotique comporte trois
étapes(255).
1 – Observation : recueil et transcription de l’ensemble des signes qui sont suggérés par l’énoncé,
le texte ou le discours, objets de l’analyse.
2 – Description et sélection : sélection des signes qui apparaissent saillants pour la génération du
sens et recherche des oppositions et schématisations.
3 – Généralisation : repérage des significations qui seront vraisemblablement perçues par d’autres
que soi.
Bon nombre de schémas et de techniques d’interprétation sémiotique existent. Nous limitons notre
présentation aux principaux instruments applicables pour une étude de marché.
1. Carré sémiotique
C’est une grille de structuration du sens produit par un texte. Elle met au jour les structures
fondamentales qui sont à l’origine du sens, en travaillant sur les deux faces du signe : l’expression
(signifiant) et le contenu (signifié). Le résultat s’illustre par un carré sémiotique. Sa construction
nécessite de repérer dans le texte à analyser l’axe sémantique fondamental, appelé catégorie(256). La
fiche technique 7.5. détaille cette technique. Le carré explore les processus d’émission et de
réception d’un texte : discours, publicité, packaging, modalité de consommation d’un produit, etc. Il
\/|
détecte l’existence d’éventuels signaux négatifs (incohérents) ou positifs dans le message.
$|
4$
1 – Fondements théoriques
Le carré sémiotique se fonde sur le Cours de linguistique générale de Saussure. La langue est vue comme un
langage doté de propriétés particulières, le langage permettant à l’homme de signifier sa pensée au moyen d’un
ensemble de conventions. Différentialité et systématicité, système de signes plus ou moins arbitraire, caractère
double face des signes sont les propriétés communes à tout langage(257). Le carré sémiotique illustre un double
axiome de base : « Dans une langue, il n’y a que des différences sans termes positifs, et les deux faces d’un signe
se complètent, l’une ne valant que par l’autre. » Le schéma initial a été proposé par Greimas en 1968.
2 – Principes de construction
Le carré se construit en quatre temps. Les deux premiers établissent une double opération de négation et
d’assertion, à partir d’un concept considéré comme fondamental pour la production du sens dans un texte. Par
exemple, si Pierre affirme : « Avoir beaucoup d’argent, c’est bien » (S1), Jacques peut nier ce jugement en
répliquant : « Je ne suis pas d’accord, ce n’est pas bien » ({S1}). Comment interpréter cette réplique ? Elle
présuppose que Jacques considère que « C’est mal d’avoir beaucoup d’argent » (S2) : cette seconde opération
d’assertion conduit à identifier le complément de « Pas bien ». Nous avons représenté ces deux temps dans le
carré de gauche ci-après. De façon symétrique, Pierre peut rétorquer : « Mais non, ce n’est pas mal d’avoir
beaucoup d’argent » ({S2}) ; c’est à nouveau une opération de négation (3e temps). On peut en déduire l’assertion
qu’effectivement Pierre considère que c’est bien d’avoir beaucoup d’argent (4e temps) (S1). Cette relation
complémentaire (« Pas mal » et « Bien ») n’est pas automatique : Pierre peut souhaiter nuancer son jugement
initial, en laissant entendre que, si ce n’est pas mal, cela ne veut pas dire pour lui que c’est forcément bien d’avoir
beaucoup d’argent. Dans le cas où l’analyste opère cette équivalence (complément entre « Pas mal » et « Bien »),
il établit une opération d’assertion. Dans le carré sémiotique, la compréhension du sens de l’axe sémantique
(formé des deux termes contraires « Bien vs Mal ») ne s’obtient que par une double opération de contradiction,
puis d’assertion.
3 – Exemple d’application
Floch a appliqué le carré sémiotique à bon nombre d’études marketing. Il compare ainsi les discours d’Ikea et
d’Habitat pour comprendre le sens du mobilier d’ameublement(258). L’observation met au jour un axe sémantique
majeur articulé sur le concept de « valeur de base » vs « valeur d’usage ». La valeur de base est la finalité
recherchée (par exemple, cueillir une banane pour le singe), la valeur d’usage étant un moyen d’obtenir la valeur
de base (par exemple, le bâton utilisé par le singe pour faire tomber la banane). La valorisation pratique du
meuble (solidité, confort, légèreté) s’oppose à sa valorisation existentielle ou utopique (style de vie, attitude par
rapport au temps et à la tradition) : on obtient les deux contraires S1 et S2 du carré. Les opérations de
contradiction de ces termes donnent une valeur ludique ({S1} = couleur, luxe, raffinement, etc.) et valeur critique
({S2} = économique, astucieux, etc.).
L’analyse montre que chacun des quatre pôles du carré correspond à un âge différent de la vie ; chaque phase
entraîne une modification des valeurs associées aux biens. Le démarrage dans la vie privilégie la valorisation
critique (« tirer parti d’une surface d’habitation réduite »), puis l’éducation des enfants rend prioritaire la
valorisation pratique (« un mobilier qui saura évoluer avec vos enfants »), suivie d’une phase de maturité et
d’aisance où le couple reçoit, se récompense de ses efforts avec une valorisation ludique (« le plaisir de la mise en
scène ») ; arrive le temps de l’art de vivre, avec ces questions existentielles (« un univers à votre mesure, à votre
convenance »). Le positionnement d’Habitat couvre les deux derniers angles du carré, IKEA étant installé sur les
deux premiers.
\/|
$|
4$
By
Source : adapté de FLOCH J.-M., Identités visuelles, op. cit., 1995, p. 155.
\/|
$|
4$
2. Mapping sémiotique
By
Cette représentation complète le carré sémiotique(259). On applique d’abord cet outil à un grand
nombre de publicités concernant des marques et produits différents. Quatre valeurs émergent
régulièrement : elles sont jugées représentatives des orientations profondes de la consommation.
L’axe vertical décrit les deux termes de l’opposition principale du carré sémiotique : la
valorisation pratique, centrée sur les fonctions instrumentales du produit (performances, esthétique,
etc.) et la valorisation utopique (existentielle), orientée vers le projet à long terme de l’acheteur
(acquérir plus de liberté ou de pouvoir, etc.). L’axe horizontal donne les qualifications des termes
de l’opposition : la valorisation critique définit les questionnements (comparaison, évaluation
systématique de marques, optimisation, etc.) et la valorisation ludique traduit la complicité avec
l’objet, fondée sur la recherche du plaisir. Les marques sont placées dans chaque quadrant à partir
d’une analyse sémiotique de leur discours publicitaire, en fonction de leur proximité avec les
différentes formes de valorisation.
Exemple
La figure 7.17. montre une application du mapping sémiotique au marché des
dentifrices. Les principales marques se positionnent dans l’un des quatre quadrants du
mapping et occupent ainsi un espace concurrentiel bien délimité. Les bénéfices offerts
par les marques aux consommateurs sont ainsi nettement différenciés.
Figure 7.17. Mapping sémiotique du marché des dentifrices
\/|
$|
4$
Source : SEMPRINI A., Le marketing de la marque, approche sémiotique, Éditions Liaisons, 1992.
By
\/|
$|
Exemple
4$
– La narration s’organise à partir d’un schéma narratif. Inspiré de la morphologie des contes(261),
ce schéma s’articule autour d’un axe central : la performance attendue du héros. À l’instar des
contes, on présuppose qu’un contrat initial a été accepté par le héros (épreuve, défi, quête d’un
objet symbolique, etc.). Le sujet devra acquérir ou s’appuyer sur des compétences spécifiques
(courage, ruse, force, etc.) pour tenter de réaliser le programme souscrit. La sanction résulte de la
comparaison entre le contrat préalable et le résultat : en cas de réussite, la récompense est au
rendez-vous (amour, mariage, pouvoir, fortune, etc.).
Exemples
• Ce schéma a été appliqué pour la conception du logo bancaire du Crédit du Nord(262).
Les différents signes émis par les logos concurrents s’ajustent bien au découpage en
quatre temps du schéma narratif : la mission ou le contrat (solidarité, humanisme,
charité, développement, conseil, etc.), les compétences revendiquées (ambition,
proximité, bon sens, écoute), la performance (gain, sécurité, tranquillité, interactif,
innovation, etc.) et la sanction (fierté, modestie, discrétion, etc.).
• Une autre application a été proposée pour l’interprétation des courriers et e-mails
envoyés par les enfants au Père Noël(263). Le contrat passé est la visite avec les
cadeaux. L’enfant lance dans sa lettre un programme d’action précis visant à faire agir
le Père Noël, en utilisant des stratégies d’influence : persuasion, injonction ou
promesse. L’acquisition de la compétence passe la capacité du Père Noël à disposer
d’un moyen de transport fiable et d’une logistique capable de gérer la surcharge
exceptionnelle de travail ; l’enfant se soucie également de la santé du Père Noël et de
sa capacité à pouvoir travailler de nuit. La réalisation de la performance a lieu durant
la nuit de Noël ; elle se concrétise par le dépôt des cadeaux en temps et en heure, sans
erreur ; les traces du passage sont évoquées, sinon attendues. La sanction finale vient
du jugement de l’enfant, à savoir la satisfaction des attentes formulées dans la lettre ;
\/|
néanmoins, le Père Noël peut moduler délibérément sa réponse en fonction du
$|
jugement personnel qu’il porte sur l’enfant.
4$
By
1. Stratégie marketing
a. Veille stratégique
L’étude de l’évolution des rapports d’activité publiés par les sociétés, sur une période de dix ans, a
été réalisée à partir d’une analyse sémiotique. Le repérage des ruptures énonciatives des discours
des dirigeants (éditorial, synthèse d’activité) a révélé des changements de cap stratégique et a
permis, selon les auteurs, d’anticiper les performances ultérieures des entreprises(264).
b. Segmentation et positionnement
L’analyse du positionnement de marques de jeans, parfums, dentifrices ou d’eaux minérales est
explicable par la sémiologie ; de même, cette technique a servi à comparer les positionnements
concurrentiels d’IKEA et d’Habitat(265).
2. Élaboration du marketing-mix
a. Conception produit
La régie Métrobus de la RATP a conçu de nouvelles formes de supports publicitaires, à partir de
l’analyse sémiotique des différents types de déplacements dans le métro(266). La réflexion
sémiotique permet d’évaluer le design d’un produit, de concevoir un packaging adapté aux attentes
des consommateurs ou d’agencer un hypermarché(267). La sémiotique joue un rôle central dans la
construction du « contrat de lecture » qui s’établit entre un titre de presse et son lectorat. La fiche
technique 7.6. développe cet exemple dans le cas des supports de presse féminine.
b. Publicité et logos
La sémiologie a été appliquée, dès les années 1970, à l’évaluation de la création publicitaire(268) ;
de même, les logos d’Apple et IBM ont été comparés pour repérer leurs oppositions et
complémentarités(269).
\/|
$|
4$
By
Fiche technique 7.6. Le contrat de lecture pour positionner un support presse
1 – Objectifs et définition
Le contrat de lecture est « le discours du support d’un côté, ses lecteurs de l’autre. Ce sont les deux parties entre
lesquelles se noue un lien de lecture »(270). Le succès d’un support de la presse écrite se mesure à sa capacité de
proposer un contrat qui s’articule correctement aux attentes, aux motivations, aux intérêts, aux contenus de
l’imaginaire de la cible visée ; de le faire évoluer de façon à suivre l’évolution socioculturelle du lectorat tout en
préservant le lien ; de le modifier de manière cohérente, si la situation concurrentielle l’exige.
2 – Méthode
Elle se fonde sur l’analyse des formes d’énonciation utilisées par les différents supports. Ces énonciations
traduisent les spécificités des contrats existant sur le marché. Deux questions résument la démarche : « Qu’est-
ce qui est lu ? » et « Comment est-ce lu ? ». La méthode repose sur deux séquences : une analyse sémiologique des
discours tenus par un échantillon de supports de presse et une série d’entretiens individuels semi-directifs.
L’étude des différents modes d’énonciation utilisés permet de construire une image de l’émetteur (le support) et
du récepteur (le lecteur) : le lien particulier qui s’établit entre ces différents acteurs caractérise le contrat de
lecture. L’analyse sémiologique s’étend aux différentes couvertures, au pourcentage de la surface d’une page
consacrée au rédactionnel et à l’image, à la présentation du sommaire, au mode de classement, aux intertitres,
aux procédures d’accroche, aux types de parcours proposés au lecteur, à la construction des images, etc. Le
résultat définit un espace concurrentiel où l’on situe chaque sup port. Les entretiens semi-directifs vérifient
l’adéquation entre le contrat de lecture proposé par le support et les attentes des lectorats actuel et potentiel.
3 – Application
L’analyse de quelques titres d’articles de la presse féminine montre que les modes d’énonciation et les énoncés
\/|
sont très différents, alors même que les cibles sont souvent proches en termes de variables
sociodémographiques (âge, habitat, PCS, revenus).
$|
Considérons, par exemple, les quatre titres suivants : « Nos secrets pour une fête réussie », « Vous êtes douée
4$
pour cela : faites-le », « Quatre façons d’offrir un verre », « Dis-lui que tu l’aimes ».
Dans le premier cas, la proposition énoncée (= le message) montre que les deux acteurs ne sont pas égaux dans
By
la communication : l’énonciateur est actif, il conseille une action à un énonciataire passif. Dans le second exemple,
les deux acteurs sont situés sur un même plan, car l’énoncé est considéré comme vrai par les deux parties ; le
conseil existe, mais il se fonde sur une logique présupposée : l’émetteur sait ce qui est profitable et implique le
récepteur dans l’action. Le troisième titre contient un énoncé neutre, avec une énonciation relativement neutre :
l’émetteur constate objectivement, énumère quatre manières d’agir, sans s’impliquer particulièrement dans l’une
d’entre elles. Avec l’énoncé no 4, l’énonciateur prend à partie le récepteur, mais s’efface derrière un individu
extérieur (le copain « X ») ; l’impératif existe, mais il suggère une proximité et un encouragement à un dialogue
intime (tutoiement) dans lequel l’émetteur n’est pas présent.
E. Évaluation
Les techniques sémiotiques interviennent dans le domaine de l’étude qualitative, soit de manière
autonome, soit en complément des méthodes d’entretien individuel ou de groupe, la majeure partie
des applications entrant dans ce deuxième cas. Le champ d’investigation s’est progressivement
déplacé de l’analyse d’une communication (Quelle énonciation ? Comment fonctionne un
message ?) vers une problématique de la signification (Quel est l’énoncé ? Qu’est-ce qui fait
sens ?). Cet élargissement permet d’aborder des questions propres au marketing stratégique
(positionnement) avec des méthodes originales.
La faiblesse de ces techniques, au-delà de leur caractère parfois jargonnant, réside dans
l’établissement de leur fiabilité et de leur validité. Les étapes méthodologiques sont souvent peu
explicitées et la question de la reproductivité des résultats reste dans l’ombre(271). Les applications
marketing sont questionnables si les signes porteurs de sens varient d’un sémioticien à l’autre, ou
changent radicalement si un concurrent ne respecte plus les codes : la sémiotique se réduit à une
dimension descriptive, mais peut plus difficilement être explicative du sens. Cette difficulté de
reproduction des résultats est une sévère limite pour la sémiotique. Enfin, l’universalité des
typologies de consommateurs fondées sur le carré ou le mapping sémiotique pose un problème : il
n’est pas facile d’admettre que, quel que soit le marché, les mêmes dimensions apparaissent. Ainsi,
la validation d’une typologie issue d’un carré sémiotique n’a pas été concluante, car les cinq
groupes identifiés n’ont pas été retrouvés par une méthode typologique classique(272).
L’approche sémiotique doit être réservée à un objectif d’étude exploratoire. Son éclairage original
\/|
doit être complété par les méthodes qualitatives traditionnelles ou par des techniques qui font
$|
interpréter le sens par le répondant.
4$
Conclusion
By
Ce chapitre clôt la partie consacrée aux techniques d’études qualitatives. Nous avons
successivement passé en revue la quasi-totalité des méthodes qualitatives traditionnelles et
spécifiques. Nous avons montré l’apport original – parfois déroutant – des techniques de recherche
de sens dans la compréhension du processus de consommation d’un produit ou d’un service. La
richesse de cet éclairage offre au chargé d’études de nouvelles perspectives pour expliquer le choix
d’une marque à partir de la compréhension du sens de la consommation. Les décisions marketing
sont également facilitées par ces apports d’informations. Nous avons au passage souligné les
précautions qu’il convenait d’observer dans l’utilisation des résultats, sous peine de cruelles
déconvenues.
Les chapitres suivants aborde la phase de quantification des phénomènes observés. Les calculs
nécessaires ne doivent pas perdre de vue que la quantification n’a d’intérêt que si elle repose sur
une compréhension correcte du marché, généralement obtenue après une réflexion de nature
qualitative.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. En tant que composante d’un signe, le signifié représente :
(1) l’expression matérielle du signe
(2) l’essence conceptuelle du signe
(3) la valeur objective du signe
Q2. En sémiotique, le texte est limité au seul :
(1) contenu intrinsèque d’un message
(2) contenu explicite d’un discours ou récit
(3) système d’expression (linguistique, iconique, gestuel, etc.)
Q3. Appliqué à l’étude de marché, l’objectif prioritaire du TAT est de permettre :
(1) la mise en évidence des freins et motivations d’achat des consommateurs
(2) la connaissance de la personnalité des acheteurs
\/|
(3) la suggestion d’idées de nouveaux produits
$|
4$
Bibliographie
ANDERSON J. C., « The validity of Haire’s shopping list, projective technique », Journal of
Marketing Research, vol. 15, novembre 1978, pp. 644-649.
ANDREANI J. C., « L’interview qualitative marketing », Revue française du marketing, nos 168/169,
1998, 3-4, pp. 7-37.
ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e éd., 1992.
COURTÈS J., Analyse sémiotique du discours. De l’énoncé à l’énonciation, Hachette, 1991.
EIDOS (coll.), L’image réfléchie : sémiotique et marketing, L’Harmattan, 1998.
FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, PUF, 1990.
FLOCH J.-M., Identités visuelles, PUF, 1995.
FRAENKEL B. et LEGRIS-DESPORTES C., Entreprise et sémiologie, Dunod, 1999.
HAIRE M., « Projective techniques in marketing research », Journal of Marketing, vol. 14, avril
1950, pp. 649-656.
HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », Journal of Consumer
Research, décembre 1991, pp. 257-272.
HOLBROOK M. et KUWAHARA T., « Collective stereographic photo essay : an integrated approach to
probing consumption experiences in depth », International Journal of Research in Marketing, 15,
1998, pp. 201-221.
KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau
d’associations », Recherche et Applications en marketing, vol. 13, no 1/1998, pp. 35-49.
PASQUIER M., Marketing et sémiotique, université de Fribourg, 1999.
PÉNINOU G., Intelligence de la publicité, éd. R. Laffont, 1972.
\/|
ROBERTSON D. et JOSELYN R., « Projective techniques in Research », Journal of Advertising
$|
Research, octobre 1974, pp. 27-31.
4$
2008.
ZALTMAN G., Dans la tête du client, Éditions d’Organisation, Paris, 2004.
Troisième partie
Approche quantitative
La troisième partie de l’ouvrage adopte une vision quantitative pour présenter le terrain d’une étude
de marché : nous ferons le tour d’horizon des méthodes de collecte et d’analyse à disposition du
chargé d’études. Elles sont nombreuses et parfois complexes. Notre objectif n’est pas de toutes les
présenter de manière exhaustive, mais d’aider à comprendre leur logique et d’illustrer leur
fonctionnement.
Nous verrons d’abord comment prélever un échantillon de répondants (chapitre 8). Nous listerons
ensuite les règles nécessaires à la construction d’un questionnaire (chapitre 9) et en détaillerons les
méthodes d’administration (chapitre 10).
Nous aborderons l’analyse des informations en commençant par les traitements les plus simples
(chapitre 11). Les chapitres suivants présenteront des analyses plus sophistiquées, telles que les
tests statistiques (chapitre 12), les mesures d’association et de dépendance (chapitre 13), les
\/|
méthodes d’analyse multivariée (chapitre 14) et, pour finir, les plans expérimentaux et leur
$|
exploitation ainsi qu’une introduction à la modélisation par équations structurelles (chapitre 15).
4$
By
By
4$
$|
\/|
Chapitre 8
Échantillonnage
Il n’est pas nécessaire de manger le bœuf entier pour savoir qu’il est coriace.
S. JOHNSON
Dans une étude quantitative nous nous intéressons à une certaine catégorie d’« objets » : individus,
marques, entreprises, produits, etc. Pouvons-nous nous contenter d’étudier une petite partie de ces
objets ? Devons-nous au contraire en étudier la totalité ? Sous quelles conditions l’étude d’une
partie des objets donnera-t-elle une information qui permettra une conclusion relative à la totalité ?
Une étude quantitative se réfère toujours à une population. En statistiques, ce terme désigne
l’ensemble des objets susceptibles de détenir une information intéressante au regard des objectifs
\/|
de l’étude. La « géométrie » de la population étudiée est toujours circonscrite par une ou plusieurs
$|
caractéristiques.
4$
L’étude de tous les individus d’une population s’appelle un recensement. Pour des raisons de coût
et de délai, le recensement est pratiquement impossible dans les études marketing.
By
Dès lors, la troisième question ci-dessus (Sous quelles conditions...) devient essentielle. Y
répondre positivement implique que la sélection de la « petite partie », que l’on appelle
« échantillon », soit faite de manière très rigoureuse. En effet, toute décision prise en matière
d’échantillonnage a un impact majeur sur la validité des conclusions et sur le coût financier de
l’étude.
La préparation de l’échantillonnage et la sélection de l’échantillon feront l’objet des deux
premières parties. Les calculs de taille d’échantillon clôtureront le chapitre.
Figure 8.1. Plan de chapitre
\/|
$|
4$
By
I. Préparation de l’échantillonnage
La nature de la population à interroger découle directement de l’objectif de l’étude. Au stade de
l’échantillonnage, elle doit par conséquent être connue. Autrement dit, le périmètre de la population
doit pouvoir être défini sur le modèle décrit dans l’introduction. Au plan technique, il est
nécessaire de distinguer la définition de ce périmètre et la détermination de la base de sondage
correspondante.
Exemple
Supposons que le groupe Yves Rocher veuille tester l’idée d’une nouvelle crème
antirides. Les éléments de la population cible pourraient être les femmes âgées de
18 ans et plus, et constituer également les unités d’échantillonnage. Mais ces dernières
pourraient être les foyers, ce qui les distinguerait des éléments à interroger : dans
chaque foyer, on interrogerait toutes les femmes de 18 ans et plus.
À ces deux concepts d’élément et d’unité d’échantillonnage on adjoint très souvent un critère de
localisation et un critère temporel. La figure 8.2. présente quelques problématiques d’études et les
définitions des populations cibles qui peuvent leur correspondre.
Définir la population cible n’est pas toujours aussi simple qu’il y paraît. Le type d’élément à
prendre en compte pose souvent problème. Considérons une étude dont l’objectif serait d’évaluer
l’intérêt des consommateurs pour une eau de toilette masculine. Qui doit-on inclure dans la
\/|
population ? Tous les hommes ? Seulement ceux qui utilisent régulièrement de l’eau de toilette ? Les
hommes à partir de 15 ans, ou plus ? Doit-on inclure les femmes qui achètent souvent l’eau de
$|
toilette de leurs maris ou amis ? Répondre à ces questions nécessite une connaissance précise de la
4$
cherchées, on pourrait être tenté de multiplier les critères de définition de la population. Cet
« excès de zèle » conduit à diminuer la taille de cette dernière. La portée des conclusions s’en
trouve forcément limitée et le coût d’accès à l’information augmente fortement(273). Nous
considérerons donc que ces quatre critères permettent d’approcher la définition de la population
cible la plus pertinente.
Figure 8.2. Exemples de définition d’une population cible
Problème
Réponse = population cible
posé
Unité Critère Critère
Exemples Élément
d’échantillonnage géographique temporel
Identifier les
forces et Membre du
faiblesses de foyer, homme ou
Résider dans
l’image d’un femme,
la zone depuis
hypermarché par responsable de Les foyers. Métropole lilloise.
au moins
rapport à ses la plupart des
un an.
principaux achats en
concurrents de hypermarché.
la zone.
Les femmes de
Tester le 15 ans et plus,
concept d’une déjà utilisatrices
Les foyers. France.
\/|
nouvelle crème ou non d’un
$|
antirides. produit
4$
similaire.
Évaluer l’intérêt
By
pour un
catalogue
Le(s)
d’articles de
responsable(s) Les entreprises de
linge de corps France.
des achats du 500 salariés et plus.
destinés aux
CE.
comités
d’entreprise
(CE).
La production
Tester la qualité du
Le produit Les usines d’une
de la Le produit fabriqué.
production.
fabriqué. zone donnée. 1er trimestre
2015.
Conditions favorisant
Caractéristiques de l’étude l’utilisation de
Échantillon Recensement
Budget Petit Grand
Temps disponible Court Long
Taille de la population Grande Petite
Variance des variables étudiées Petite Grande
Coût des erreurs d’échantillonnage Faible Élevé
Coût des erreurs d’observation Élevé Faible
Nature de la mesure Destructive Non destructive
Intérêt pour des situations individuelles Oui Non
Source : Traduit et adapté de MALHOTRA N. K. et BIRKS D. F., Marketing Research. An Applied Approach, 2e éd. européenne,
Prentice-Hall Financial Times, Harlow, 2006, p. 357.
\/|
Si la population est petite et facilement identifiable, il est préférable de faire un recensement. À cet
$|
égard, le chargé d’études doit arbitrer entre deux risques :
4$
– L’erreur d’échantillonnage : c’est le fait d’oublier une ou plusieurs observations importantes, qui
rendent l’échantillon non représentatif, comme le fait de ne pas prendre en compte Renault-Nissan
By
Exemple
Dans une enquête sur la consommation des enfants, l’unité d’échantillonnage peut être
le ménage, l’unité déclarante l’un des parents, et l’unité d’analyse l’enfant ou les
enfants.
Une base de sondage doit être exhaustive et à jour : tous les éléments de la population visée
devraient y figurer. En pratique, c’est presque impossible et l’erreur de liste (coverage error ou
sampling frame error en anglais) est fréquente. Il s’agit d’un décalage entre la population visée et la
liste utilisée.
Exemple
Si l’on vise les femmes de 18 à 55 ans, l’annuaire téléphonique nous sera d’une piètre
\/|
utilité. L’échantillon constitué sur cette base inclura probablement des individus
$|
célibataires masculins et des retraités. Il n’inclura pas, en revanche, les foyers sur liste
4$
rouge et les foyers non abonnés au téléphone. On est ici dans un cas de figure où la
base de sondage est globalement plus large que la population visée.
By
Le cas de figure inverse peut également se produire : on aura alors une base de sondage plus étroite
que la population cible.
Exemple
Dans une enquête sur le comportement d’achat organisationnel, un annuaire
d’entreprises permettrait d’identifier le responsable des achats. Mais dans beaucoup
de grandes organisations les services ont une certaine autonomie d’achat. C’est le cas,
en particulier, dans les universités : entre les services centraux, les UFR, les
laboratoires et, parfois, les achats à titre individuel des personnels, on a autant de
micro-centres de décision non répertoriés.
Il n’y a malheureusement pas de recettes préétablies pour éliminer cette source d’erreur. Une
solution consiste à vérifier par un pré-test que les individus issus de la liste possèdent bien les
caractéristiques souhaitées et à réorienter la sélection dans le cas contraire.
\/|
$|
4$
By
L’équiprobabilité constante tout au long du tirage est un critère difficile à satisfaire, en particulier
lorsque l’élément sélectionné est un individu. Avec remise, certains pourraient être interrogés
plusieurs fois. Pour des raisons évidentes de fiabilité des réponses obtenues, ce n’est pas
souhaitable. Lorsque le ratio taille d’échantillon sur taille de population est très petit, le tirage avec
remise n’est pas un problème. L’équiprobabilité n’est pas respectée mais les différences entre
individus sont négligeables. Lorsque ce ratio devient relativement grand, des corrections doivent
être apportées (voir le guide statistique en ligne et le chapitre 12).
Pour procéder au tirage, deux méthodes sont utilisables : une table de nombres au hasard, ou une
procédure aléatoire informatisée. \/|
Une table de nombres au hasard est le fruit du travail de statisticiens qui ont « tiré au hasard » des
$|
milliers de nombres compris entre 0 et une limite supérieure donnée. Chaque table contient un
4$
certain nombre de lignes et de colonnes de nombres par paquets de 1 à 5 chiffres selon les tables.
On tire au hasard un point de départ dans la table, dont on retient les c premiers chiffres, c
correspondant au nombre de chiffres de la taille de population. On retient ensuite n paquets de c
By
chiffres en se déplaçant de gauche à droite et de haut en bas dans la table. La fiche technique 8.1.
illustre un exemple élémentaire de tirage aléatoire simple.
Fiche technique 8.1. Utilisation d’une table de nombres au hasard
On souhaite tirer au hasard un échantillon de cinq régions françaises parmi les 22 existantes (i.e. la population).
On dispose, bien entendu, de la liste exhaustive et nominative de ces régions, repérées chacune par un chiffre de
1 à N = 22 :
1 – Île-de-France
2 – Champagne-Ardenne
3 – Picardie
4 – Haute-Normandie
5 – Centre
6 – Basse-Normandie
7 – Bourgogne
8 – Nord-Pas-de-Calais
9 – Lorraine
10 – Alsace
11 – Franche-Comté
12 – Pays de la Loire
13 – Bretagne
14 – Poitou-Charentes \/|
15 – Aquitaine
$|
16 – Midi-Pyrénées
17 – Limousin
4$
18 – Rhône-Alpes
19 – Auvergne
By
20 – Languedoc-Roussillon
21 – Provence-Alpes-Côte d’Azur
22 – Corse
On prend ensuite un extrait d’une table des grands nombres (276) comprenant, par exemple, 6 lignes et 6
colonnes.
02 22 85 19 48 74
55 24 89 69 15 53
00 20 88 48 95 08
85 76 34 51 40 44
62 93 65 99 72 64
09 34 01 13 09 74
On tire au hasard, avec un dé, la colonne de départ : 3. Idem pour la ligne de départ : 2.
Le chiffre correspondant est 2. Comme c = 2, on va retenir le premier groupe de deux chiffres inférieur ou égal à
22, soit la région 15 (Aquitaine). Viennent ensuite, sur le même principe, les régions 20, 08, 09 et 01.
Le recours à l’informatique est sans doute plus commode. Les tableurs, systèmes de gestion de
bases de données ou logiciels de traitements statistiques possèdent tous une fonction random ou
alea, qui permet de générer des nombres au hasard. Le point de départ est identique : chaque
élément de la population est connu et repéré par un chiffre. Il suffit donc de fixer deux bornes,
normalement 1 et N, et de faire afficher une série de n chiffres compris entre 1 et N.
Il existe une alternative à l’échantillonnage aléatoire simple, nommée échantillonnage aléatoire à
plusieurs degrés. Elle peut se pratiquer lorsque l’on dispose de bases de sondages emboîtées.
Exemple
À l’échelle d’un département, on dispose d’une liste des communes. Si l’on dispose
également de la liste des bénéficiaires des minima sociaux, on pourra procéder à un
double tirage aléatoire : un échantillon de communes puis un échantillon de
bénéficiaires dans ces communes
Pour que cette approche soit valide, les unités de regroupement doivent être de taille comparable.
Elle permet alors une dispersion géographique moindre des répondants, donc une économie. Mais
elle induit un biais lié à l’hétérogénéité des unités de regroupement initiales. Cette hétérogénéité
oblige à une plus grande taille d’échantillon, à précision des résultats identique (voir le III dans ce
chapitre et le guide statistique en ligne).
Exemple
Sur les chaînes de production la population exacte n’est connue que rétrospectivement,
et ne peut être stockée que pendant un délai relativement court.
– L’effet peut être négatif. Tel est le cas, si la liste présente une saisonnalité marquée.
By
Exemple
Si, pour étudier les chiffres d’affaires mensuels du rayon jouets dans un hypermarché
sur les quinze dernières années, on prend 12 comme point de départ, le sondage
donnera systématiquement les mois de décembre, ce qui biaisera fortement les
résultats.
Chacun des tirages, autant qu’il y a de strates, doit être réalisé indépendamment des autres. La taille
globale de l’échantillon est obtenue en sommant les tailles des sous-échantillons obtenus dans
chaque strate.
Le chargé d’études a deux possibilités en effectuant ce tirage :
– Échantillonnage stratifié proportionnel : chaque strate est proportionnelle à sa taille dans la
population. Dans ce cas :
Exemple
Prenons le cas où la variable de stratification est le sexe. On sait que la population
française, toutes classes d’âge confondues, est à 52 % féminine et à 48 % masculine.
Si on tire un échantillon de taille totale n = 100, on aura donc une strate féminine de
52 individus et une strate masculine de 48 individus.
– Échantillonnage stratifié non proportionnel : la taille des strates dans l’échantillon ne respecte
plus la stricte proportionnalité par rapport à leur taille dans la population. On ajoute un critère
supplémentaire, relatif à la variabilité du phénomène étudié dans chaque strate de la population.
Plus cette variabilité est élevée, plus la strate sera surreprésentée, et inversement. En effet, dans le
cas extrême où tous les individus d’une même strate sont strictement identiques, la variabilité est
nulle et un seul individu suffit à apporter toute l’information recherchée. Donc peu importe la taille
de cette strate dans la population, elle sera, dans l’échantillon, de taille nh = 1. Mais, si la
variabilité est très forte dans la population, on aura besoin dans l’échantillon de beaucoup
d’observations de cette strate pour « stabiliser » la moyenne à un niveau proche de ce qu’elle est
dans la population. Automatiquement, cette strate sera surreprésentée dans l’échantillon. Si l’on
raisonne en praticien, on objectera que la variabilité, dans la population, du phénomène étudié
(intention de comportement, chiffre d’affaires, etc.) peut difficilement être connue à l’avance. En
effet, c’est justement ce que l’on cherche à étudier, et qui motive la construction d’un échantillon !
Les statisticiens n’ont pas de réponse très claire à apporter à cette objection. L’expérience, la
logique et, surtout, l’intuition du chargé d’études seront alors d’un grand secours.
Exemple
Les chewing-gums sont distribués par une grande variété de types de points de vente,
dont on ne peut avoir une liste fiable (vendeurs ambulants, ventes saisonnières, etc.).
Dans ce cas, on fractionne la population en groupes hétérogènes, sur un critère qui n’a aucun lien
avec la variable étudiée. Le plus souvent ce critère est géographique. Nous aurons donc un
ensemble de grappes qui satisferont bien au critère d’exclusivité mutuelle et d’exhaustivité
collective, mais qui seront cette fois interchangeables. Un point de vente, s’il appartient à une
grappe, ne peut pas appartenir à une autre, et la réunion des grappes (e.g. quartiers) donne bien la
population de départ (e.g. la ville). On part ainsi du principe que chaque grappe est une
reproduction miniature de la population étudiée. Si tel était le cas, une seule grappe suffirait. En
pratique, comme il y a toujours une certaine homogénéité au sein des grappes (quartiers « riches »
vs « pauvres » ; industriels vs tertiaires ; habitat collectif vs. individuel), on en sélectionne
plusieurs, par un tirage au hasard, pour limiter le risque d’obtenir des grappes trop spécifiques.
Quand un recensement au sein des grappes sélectionnées est impossible, on procède à un nouveau
tirage au hasard dans chacune des grappes. On parle alors d’échantillonnage par étapes.
Exemple
On étudie la consommation de vin par foyer dans une ville moyenne de province. On a
tiré au hasard 5 quartiers. Dans chaque quartier, on retient une rue sur 5, dans chaque
rue un immeuble sur 3 et, si besoin est (habitat vertical), dans chaque immeuble, un
foyer par étage. On a affaire ici à un sondage en 4 étapes.
L’échantillonnage en grappes, quelle que soit la variante retenue, a un avantage majeur : le coût.
Aucune liste exhaustive n’est réellement nécessaire et la sélection sur des critères géographiques
diminue les temps et les frais de déplacement. Mais cette méthode a également un inconvénient
majeur, appelé « effet de grappe » : l’échantillon est fortement biaisé si les zones géographiques
sont trop spécifiques par rapport au problème étudié.
Exemple \/|
Dans cette étude sur le vin, il ne serait pas neutre d’avoir retenu des quartiers
$|
essentiellement « populaires ». Les quantités, et la qualité, des vins consommés
4$
risquent d’y être différentes de celles des foyers habitant des zones plus résidentielles.
By
Lorsque l’on ne souhaite pas, ou que l’on ne peut pas, faire appel au hasard, des méthodes
d’échantillonnage empirique peuvent être utilisées.
1. Échantillonnage de convenance
On obtient un tel échantillon quand rien n’a été fait pour s’assurer que les individus qui le
composent posséderont bien certaines caractéristiques désirées. Un échantillon de convenance est
parfois nommé « échantillon accidentel », parce qu’il est constitué d’individus qui se trouvaient à
l’endroit et au moment où l’information a été collectée.
Exemples
– Questionnaires figurant dans les magazines et renvoyés spontanément.
– Enquêtes dans la rue, les lieux publics, en sortie de caisse d’hypermarché, si l’on ne
dispose d’aucune qualification a priori des interviewés.
Flash-Étude 8.1.
Quelques illusions sur la représentativité des échantillons(279)
Une station de télévision de la ville de Madison, aux États-Unis, avait l’habitude de mener
auprès de son public une enquête d’opinion journalière sur des thèmes relatifs à la vie locale.
Tous les jours, au journal de 18 heures, l’animateur posait une question à laquelle les auditeurs
\/|
étaient invités à répondre par oui ou par non. La réponse se faisait par téléphone à un standard
$|
électronique. Un numéro valait pour le « oui », un autre pour le « non », et les résultats étaient
4$
diffusés au journal de 22 heures. La station recevait une fourchette de 500 à 1 000 appels par
soirée et semblait considérer que ces réponses reflétaient l’opinion de la ville.
By
Un jour, on posa la question suivante : « Pensez-vous que l’âge minimum pour pouvoir acheter
de l’alcool à Madison doive être abaissé à 18 ans ? » (il était de 21 ans à cette époque). Ce soir-
là 4 000 appels parvinrent à la station, dont 78 % de « oui ». Pour les responsables de la station,
4 000 réponses sur un total de 180 000 habitants étaient nécessairement représentatives.
C’est malheureusement faux. Il est apparu que des étudiants s’étaient organisés pour appeler
autant de fois que possible le numéro correspondant au « oui ». Le standard étant électronique,
personne n’a décelé la supercherie. Elle le fut a posteriori par l’indiscrétion des acteurs.
En effet, un échantillon de grande taille n’est pas nécessairement semblable dans sa structure et sa
composition (i.e. représentatif) à la population étudiée :
Exemple
Si l’on s’intéresse aux réactions du public face à un nouveau produit dont la cible est,
par exemple, les femmes actives urbaines de 18 à 50 ans, ce n’est pas parce qu’on
aura recueilli les opinions de 5 000 étudiantes sur ce produit que l’on aura une idée
précise des réactions de la cible à son égard.
Dans la réalité, la représentativité d’un échantillon est assurée par une démarche de construction
réfléchie, que la méthode soit probabiliste ou non. Comme nous le verrons dans la partie III de ce
chapitre, la taille de l’échantillon n’a d’influence que sur la précision escomptée des résultats.
Exemples
– On s’intéresse toujours aux réactions du public face à un nouveau produit dont les
femmes actives et urbaines de 18 à 50 ans sont la cible. Si l’on interroge, à la sortie du
siège d’une grande entreprise à Paris-La Défense, une femme âgée « à vue de nez »
d’une trentaine d’années, on a toutes les chances pour qu’elle appartienne à la cible
visée par le produit.
– Dans le cadre d’une étude exploratoire sur les valeurs liées à l’utilisation de la
bicyclette, on peut décider de commencer par interroger dans la rue les individus
\/|
pratiquants.
$|
4$
Une fois encore, ce type d’échantillonnage est à utiliser prudemment, car rien ne garantit la
représentativité réelle de l’échantillon. Un biais fréquent chez les enquêteurs est de retenir, plus ou
By
Exemple
À l’occasion d’une étude exploratoire sur la sensibilité des Chambériens à la
protection de l’environnement, instruction avait été donnée aux enquêteurs d’interroger
moitié hommes, moitié femmes et d’essayer d’équilibrer les classes d’âge. La
répartition en termes de sexe était bonne. Mais l’échantillon montrait une très nette
surreprésentation des 20-29 ans et, à un moindre degré, des 40-50 ans, au détriment
des autres classes d’âge. Eux-mêmes étudiants, les enquêteurs ont interrogé
majoritairement d’autres étudiants et leurs parents.
L’échantillon de jugement est utile dans un cadre exploratoire. Il est plus précis que l’échantillon de
convenance. En revanche, il ne permet toujours pas de généraliser à une population.
Exemples
– Ingénieurs en peinture de l’industrie navale.
– Chauffeurs-routiers artisans spécialisés dans les transports internationaux.
La méthode consiste à faire construire l’échantillon par les individus eux-mêmes. Il suffit d’en
identifier un petit nombre initial (un seul peut convenir) et de leur demander de faire appel à
d’autres individus possédant les mêmes connaissances et/ou caractéristiques qu’eux.
L’échantillonnage « boule de neige » (snowball sampling) est d’un intérêt particulier pour les
études en business to business, quand les individus recherchés dans les entreprises ne figurent pas
dans les annuaires professionnels.
Exemple
Une étude sur les interactions vendeur-acheteur serait un cas type de l’utilisation d’un
échantillonnage « boule de neige ». Chaque individu contacté serait chargé d’amener
\/|
dans l’échantillon son interlocuteur habituel dans l’autre entreprise.
$|
4$
C’est la méthode la plus utilisée dans les études de marché en grande consommation, car les
méthodes probabilistes sont difficiles à mettre en œuvre, à cause des contraintes de liste exhaustive
et fiable pour les populations concernées. Par ailleurs, la représentativité des échantillons obtenus
avec les autres méthodes non probabilistes reste douteuse. L’échantillonnage par quotas (quota
sampling) permet de s’affranchir de ces deux inconvénients.
Cette méthode consiste à étudier la structure de la population selon des critères choisis
empiriquement (quotas). L’échantillon est ensuite construit de manière à constituer une reproduction
en miniature de la population sur ces critères. On peut considérer cette méthode comme une
variante simplifiée de l’échantillonnage stratifié proportionnel. Les quotas représentent les
variables de stratification. La différence est que les individus, une fois la stratification effectuée, ne
sont plus choisis au hasard, mais sélectionnés à la convenance de l’enquêteur.
Les critères servant de base à la définition des quotas peuvent être au nombre d’un, deux, ou trois.
Les quotas peuvent être simples ou croisés et doivent être construits sur une base de données fiable
indiquant la répartition de la population sur les critères choisis. C’est pour cette raison que les
critères le plus souvent utilisés sont sociodémographiques, et en particulier le sexe, l’âge et la
PCS(280), pour lesquels on dispose des données de recensement de l’Insee. Quand on travaille sur
trois critères croisés, la complexité s’accroît sensiblement.
Exemple
Lors du recensement de 2008, le nombre d’agricultrices exploitantes âgées de moins
de 25 ans était de 1 384 dans la population française âgée de 15 ans et plus. En
pourcentage, elles représentent 0,00523 %. Si l’on veut disposer, pour la fiabilité
statistique, d’un groupe d’au moins 20 individus de ce type dans un échantillon, il
faudra que ce dernier comporte au total 20/0,0000523, soit 382 683 individus.
La fiche technique 8.2. présente un exemple de construction d’un échantillon par quotas.
65-74 = 10,94 %
Pour un échantillon de 1 000 personnes, on devra ainsi interroger :
By
entiers d’individus à interroger, sachant que les « grosses » cellules peuvent être arrondies au
chiffre inférieur, tandis que les petites sont arrondies à au moins un individu. Au total, le
By
nombre final d’individus à interroger n’est pas forcément exactement égal à 1 000.
\/|
$|
La méthode des quotas est la plus sûre des méthodes empiriques pour obtenir un échantillon aux
4$
C. Synthèse
Aucune méthode n’est réellement idéale. Les figures 8.5. et 8.6. résument les informations clés dans
ce domaine. À leur lecture, on se rend compte du paradoxe auquel est confronté le chargé d’études.
En effet, celui-ci construit son échantillon en cherchant la meilleure efficacité au moindre coût. Tout
ce qui alourdit et allonge la procédure d’échantillonnage en augmente le coût. Tout ce qui limite la
représentativité de l’échantillon et empêche la généralisation des résultats en diminue l’efficacité.
Or, on constate globalement que, plus on cherche à garantir la représentativité, plus on augmente la
lourdeur de mise en œuvre.
\/|
$|
4$
By
Figure 8.5. Avantages et inconvénients des méthodes d’échantillonnage
statistique.
Coût.
By
En principe, les méthodes aléatoires sont à préférer, pour des raisons techniques. En pratique, elles
sont lourdes, voire impossibles, à utiliser. Les méthodes empiriques sont pratiques mais peu
efficaces en termes de représentativité, au sens statistique, de l’échantillon.
\/|
Alors quelle méthode choisir ? Quelques règles de bon sens, regroupées dans la figure 8.7., peuvent
$|
être proposées.
4$
By
Exemple
Appliquons les principes de la figure 8.7. à une étude ayant pour objectif la mesure de
l’intention d’achat d’un produit par des consommateurs : cette population est de grande
taille, hétérogène par rapport aux variables étudiées (multitude d’intentions) et l’on
n’en possède pas de liste exhaustive. Comme il s’agit de prévoir, la représentativité
est nécessaire. Le choix devrait se porter sur un échantillonnage par quotas.
Figure 8.7. Choix d’une méthode d’échantillonnage
Le premier réflexe est de penser qu’il suffit de choisir un gros échantillon. Mais le flash-étude 8.1.
By
\/|
$|
4$
By
Source : d’après LAPIN L. L., Statistics for Modern Business Decisions, 6e éd., The Dryden Press, New York, 1993, p. 337.
Avec :
e = précision souhaitée
tα/2 ; n – 1 = valeur de la loi de Student au seuil α
n = taille de l’échantillon
α = seuil de confiance (souvent fixé à 0,05)
s = écart-type d’échantillon (estimateur de l’écart-type de population)
3 – Ceci nous permet d’exprimer la taille d’échantillon n comme égale à :
Autrement dit, la taille d’échantillon dépend du seuil de risque, d’un niveau fixé a priori d’erreur d’échantillonnage
et de l’écart-type d’échantillon s.
4 – Or s est inconnu au moment où l’on fait ce calcul. En l’absence d’informations sur la population étudiée, on doit
mener une étude pilote pour disposer d’une première approximation de cette valeur. Il faut en tenir compte dans
le budget de l’étude.
Exemple
1 • Problème posé. Un parc de loisirs souhaite estimer à 2 euros près le montant des
achats hors entrée (cartes postales, livres, souvenirs, etc.) effectués par chaque
visiteur. On vous demande de calculer la taille d’échantillon nécessaire, sachant que la
conclusion doit être formulée avec un seuil de confiance de 95 %.
2 • Contexte. Une étude pilote menée sur 50 visiteurs choisis au hasard dans le fichier
clients du parc a montré que ces achats annexes variaient de 0 à 100 euros et suivaient
une distribution normale.
3 • Loi de distribution à appliquer au problème. On cherche une estimation de la
moyenne μ des achats dans la population des clients du parc, sachant que :
\/|
4 – Réflexions à envisager. L’inconnue est n et il reste deux paramètres à identifier,
$|
tα/2 ; n – 1 et s. Pour le premier nous allons faire l’hypothèse que la taille de
4$
l’échantillon sera très supérieure à 100. Dans ce cas, la loi de Student et la loi
normale se confondent. La valeur de la loi normale centrée-réduite pour un seuil de
By
risque α = 0,05 est z = 1,96. Nous retenons cette valeur pour tα/2 ; n – 1. Si la valeur de
n s’avère être très inférieure à 100, nous recommencerons le calcul. Pour s, on sait que
l’étendue d’une loi normale est d’environ six fois son écart-type. Si l’étendue de la
variable est de 100 euros, alors son écart-type peut être estimé à 16,67 euros.
5 – Solution du problème. On calcule la taille de l’échantillon en posant :
Avec :
e = précision souhaitée
n = taille de l’échantillon
zα/2 = valeur de la loi normale centrée réduite au seuil α
α = seuil de confiance (souvent fixé à 0,05)
p = proportion (fréquence) observée dans l’échantillon
3 – En transformant cette expression, nous obtenons la taille souhaitée pour l’échantillon :
\/|
Exemple
$|
4$
1 • Problème posé. Supposons que, dans l’exemple du parc de loisirs, on ait voulu
estimer non pas le montant des achats, mais la proportion de clients procédant à des
By
La taille de l’échantillon nécessaire est donc ici de 350 personnes. On refait les
calculs une fois l’enquête menée, lorsque l’on connaît réellement la valeur de p.
Conclusion
Ce chapitre, assez technique dans sa troisième partie, nous aura permis de dresser un panorama des
premières préoccupations méthodologiques du chargé d’études : comment sélectionner les
« objets » pour recueillir l’information requise par les objectifs de l’étude ?
Nous avons tout d’abord rappelé qu’il s’agissait de définir très clairement la population de
référence concernée par l’étude. Cette population est composée d’éléments qui constituent,
individuellement ou non, des unités d’échantillonnage. Pour compléter la définition de la
population, on utilise également un critère de localisation ainsi qu’un critère temporel. La
détermination de la base de sondage est plus concrète, puisqu’elle consiste à se procurer ou
construire une liste à partir de laquelle les unités d’échantillonnage vont être recrutées.
Dès lors que l’on dispose de la base de sondage, il s’agit de choisir la méthode de sélection de ces
unités. Deux familles de méthodes sont à disposition : celles qui font appel au hasard, appelées
probabilistes, et celles qui reposent sur un choix plus ou moins structuré, appelées non
probabilistes ou empiriques.
Les premières nécessitent l’existence, ou la construction, d’une liste nominative et exhaustive de la
population concernée. Le recours au hasard implique que chaque élément de la liste ait la même
probabilité, connue à l’avance, d’appartenir à l’échantillon. Ceci permet une généralisation valide
des résultats par des méthodes dites d’inférence statistique. Il faut avoir à l’esprit que de telles
listes, notamment pour les études en grande consommation, sont rarement disponibles.
Les secondes n’ont pas besoin d’une liste de la population et opèrent un choix plus orienté et
pragmatique des éléments composant l’échantillon. En contrepartie, la validité des calculs de
généralisation n’est plus garantie. Malgré tout, la méthode des quotas est probablement celle qui
préserve au mieux la représentativité de l’échantillon.
La troisième partie de ce chapitre a été consacrée à la détermination de la taille de l’échantillon.
Nous sommes partis d’un postulat de base : celui du recours à une sélection aléatoire des individus.
\/|
Les propriétés statistiques de l’estimation par intervalle de confiance permettent d’évaluer la taille
$|
d’échantillon nécessaire en fonction de la précision souhaitée.
4$
(3) découper la population en groupes hétérogènes, puis tirer au sort quelques groupes
Q4. L’intervalle de confiance est :
By
Bibliographie
CHURCHILL G. A. Jr. et IACOBUCCI D., Marketing research. Methodological foundations, 10e éd.,
South Western, Mason : OH, 2010.
DEROO M. et DUSSAIX A.-M., Pratique et analyse des enquêtes par sondage, PUF, Paris, 1980.
ÉVRARD Y., PRAS B. et ROUX E., Market : études et recherche en marketing, 4e éd., Paris, Dunod,
2009.
HAIR J. F. Jr et al., Multivariate Data Analysis, 7e éd., Pearson Education, 2013.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e éd., Paris, Dunod, 2011.
LAPIN L. L., Statistics for Modern Business Decisions, 6e éd., The Dryden Press, New York, 1993,
chap. 5 à 8.
MALHOTRA N. K., Marketing Research. An Applied Orientation, 6e éd., Pearson Education, 2009.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.
\/|
$|
4$
By
Chapitre 9
Construction du questionnaire
Celui qui bâtit un questionnaire hâtivement pour « se faire une idée » [...]
celui-là part à la pêche sans beaucoup de chances de succès.
R. MUCHIELLI
La préparation de la collecte des informations constitue l’étape clé du terrain de l’étude. Cette
phase dépend très étroitement de la définition des objectifs de l’étude et, en conséquence, de ce que
l’on cherche exactement à connaître et/ou à mesurer. Elle conditionne, à son tour, la nature et la
validité des traitements que l’on effectue sur les données recueillies, avec, en fin de compte, la
possibilité, ou non, de répondre aux questions posées. \/|
Dans une étude quantitative, un questionnaire est une liste structurée de questions, construite dans le
$|
but de récolter l’information nécessaire à l’accomplissement des objectifs d’une étude.
4$
\/|
$|
« Que vais-je écrire dans le questionnaire ? » est en général la première réflexion qui vient à
By
l’esprit. Cette interrogation sur le contenu des questions sera abordée dans un premier paragraphe.
La manière de poser les questions est également source d’interrogation : doit-on par exemple
donner des choix de réponses ou laisser le répondant totalement libre de sa réponse ? Nous
répondrons à ces problèmes en présentant les différents types de questions dans une seconde partie.
Enfin, nous verrons en dernier lieu que la qualité d’un questionnaire découle de la nature des
mesures, celle-ci conditionnant les possibilités de traitement statistique des données.
Le questionnaire sera construit à partir de la liste des informations. Cette démarche permet de
n’oublier aucune information importante tout en évitant les questions inutiles, en prétextant : « on ne
sait jamais, ça peut toujours être intéressant ». On évite ainsi des questionnaires « fourre-tout »,
sans réelle logique et, surtout, trop longs et fastidieux à remplir. La figure 9.2. récapitule ces
différents principes de recueil de l’information.
Figure 9.2. Processus de définition de l’information recherchée
\/|
$|
4$
By
Exemples
Étude d’image d’une marque
L’information recherchée tournera essentiellement autour de la notoriété (i.e.
connaissance) de la marque dans la population cible, des attitudes des individus à son
égard et de l’identification de ces derniers.
En matière de notoriété, on pourra, par exemple, évaluer les trois composantes
classiques (« top of mind », spontanée, assistée) vis-à-vis de la marque, ainsi que le
degré d’expertise des individus interrogés dans la catégorie de produit concernée.
La notion d’image est séduisante, mais peu concrète. On l’approche le plus souvent
par le concept d’attitude, abondamment utilisé en comportement du consommateur. Il
\/|
s’agira de recueillir : les croyances, l’évaluation de ces croyances, l’évaluation
$|
générale de la marque (plutôt sur un plan affectif), l’intention de comportement et le
4$
groupes dont les attitudes et/ou comportements sont comparables. Par exemple, on
pourra mettre en avant que « la marque X est vieillotte » est une affirmation en grande
partie issue des 25-35 ans masculins, urbains, bien éduqués, cadres ou professions
libérales. Cette information permet donc une action marketing : transformation des
attributs de la marque (forme, couleur...), modification de la communication...
Étude de fréquentation d’un magasin
Ici, l’information nécessaire concernera les comportements et l’identification des
clients actuels d’un magasin. Pour les comportements, on se posera les questions
évoquées dans la figure 9.3. (page suivante) : d’où viennent les clients ? Quand
viennent-ils ? Qu’achètent-ils ? Combien de fois viennent/achètent-ils ? Et surtout :
Qui sont-ils ? Ceci nous ramène automatiquement à l’identification par les
descripteurs sociodémographiques.
Naturellement, tous les types d’informations listés dans ces exemples ne sont pas automatiquement
nécessaires. Tout dépend, comme l’indique la figure 9.2., des objectifs de l’étude, des théories et
modèles sous-jacents (donc des connaissances préalables, même partielles, que l’on a du sujet
étudié), ainsi que de l’information secondaire que l’on a pu collecter.
3. Check-list du rédacteur
Avant de formuler une question, le rédacteur doit la soumettre à quatre interrogations.
a. Cette question est-elle strictement nécessaire ?
Autrement dit, « ai-je besoin de l’information pour atteindre mes objectifs ? » On peut également
aborder le problème par une mise en cause : « si j’enlève cette question, puis-je encore atteindre
mes objectifs ? ». Si la réponse est « oui », parce que l’information est obtenue ailleurs dans le
questionnaire, la question peut être éliminée.
Figure 9.3. Nature de l’information à collecter auprès d’individus
\/|
$|
4$
By
De même, certaines questions sont doubles et doivent alors être décomposées en deux questions
simples.
\/|
Exemple
$|
« Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de leurs
4$
La réponse, surtout si elle est négative, est ambiguë. En effet, on ne peut distinguer,
dans un « non », si le répondant considère plutôt les clients, les employés ou les deux.
Même un « oui » poserait problème : le répondant envisage-t-il clients et employés sur
le même plan, ou privilégie-t-il l’un ou l’autre dans sa réponse ? Pour lever
l’ambiguïté, on pourrait scinder la question en deux :
Q1 – « Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de
leurs clients ? »
Q2 – « Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de
leurs employés ? »
– Ignorance. Il s’agit d’une situation où le répondant se voit imposer une problématique à laquelle
il n’avait jamais réfléchi ou une obligation de savoir(282). Pour ne pas perdre la face, le répondant
va donner une réponse, dont la fiabilité sera par conséquent douteuse. Cette situation traduit une
mauvaise adaptation du questionnaire aux personnes interrogées, ou, plus grave, une erreur dans le
choix de la population de référence par rapport à l’information recherchée.
Exemple
Demander à un répondant d’évaluer une marque sur des attributs (prix, solidité,
confort...), alors qu’il ne l’a jamais consommée, voire ne la connaît pas du tout.
Il s’agit ici d’une erreur de sélection dans la population de référence.
\/|
– Oubli. Le répondant possède ou a possédé l’information demandée, mais est incapable de s’en
$|
souvenir. La capacité à se remémorer les événements passés dépend du temps écoulé, de
4$
Exemple
« Combien de yaourts avez-vous consommé au cours des six derniers mois ? » En
l’occurrence, la consommation de yaourts n’est pas un événement clé dans notre vie.
Pour certains, la réponse sera facile : ceux qui n’en consomment jamais, ou très
régulièrement, un par jour par exemple. Pour la majorité des répondants, l’effort de
mémoire sera au-delà de leurs capacités.
B. Types de questions
Nous distinguerons ici les questions ouvertes, les questions fermées et les questions posées sous
forme d’échelles à catégories spécifiques.
1. Questions ouvertes
Une question ouverte laisse l’individu interrogé totalement libre du choix de sa réponse, dans sa
forme et dans sa longueur. Ce type de question est à manier avec précaution dans les enquêtes
quantitatives, où l’on tente de standardiser les questionnaires autant que possible.
Une question ouverte amène une réponse sous forme de chiffre ou sous forme de discours :
– la première est, par nature, quantitative et ne pose pas d’autre problème au répondant que la
possibilité et la volonté de répondre ; \/|
– la seconde doit se limiter à une information qui peut être donnée par un mot ou une expression très
$|
brève. On cherche un fait, un état de la personne, ou un élément de connaissance, à un instant donné.
4$
liste de réponses, que l’enquêteur n’aura plus qu’à cocher au fur et à mesure de leur éventuelle
citation par le répondant. On parle alors de « question ouverte pré-codée » ou « semi-ouverte ».
Mais si la réponse prend la forme d’un discours organisé, la mise en forme de l’information en vue
d’un traitement statistique devient extrêmement délicate. Il est alors préférable d’opter pour une
méthode qualitative.
Le piège à éviter est de rédiger quelque chose à mi-chemin entre un questionnaire et un guide
d’entretien. Le traitement statistique et l’analyse des informations seront alors difficiles à gérer. En
règle générale, dans le cadre d’une étude quantitative, les questions fermées et les questions
ouvertes numériques sont préférables aux questions ouvertes débouchant sur du texte non codifiable
a priori.
2. Questions fermées
Les questions fermées sont des questions pour lesquelles on impose au répondant une forme précise
de réponse et un nombre limité de choix de réponses.
Figure 9.4. Types de questions ouvertes
Deux types de questions fermées sont possibles selon le nombre de réponses souhaité (figure 9.5.)
Figure 9.5. Questions à choix multiples
\/|
$|
Le répondant doit choisir une réponse parmi plusieurs proposées. Il est impératif que les modalités
By
Exemple
Supposons une étude sur l’image des marques de parfums, portant sur la population
des femmes de 18 à 35 ans. Si l’une des questions est relative à l’âge des répondantes,
et que l’on décide de la présenter sous forme de classes, les modalités, pour être
exhaustives, n’auront besoin de couvrir que des tranches de 18 à 35 ans. Une question
portant sur les raisons du choix d’un parfum devra présenter une liste couvrant
l’univers des motivations et freins à l’achat de ce produit. Une telle liste ne peut
résulter que d’une étude exploratoire qualitative préalable.
– Mutuellement exclusives signifie que le choix de l’une des modalités exclut toutes les autres. Une
répondante âgée de 19 ans figurera dans la tranche de 19 à 24 ans, et dans aucune autre. Si plusieurs
modalités de réponses sont envisageables il faut préciser qu’une seule réponse est possible. Ceci
est frustrant et doit être évité.
a. Échelle de Likert
Baptisée du nom de son concepteur, cette échelle avait pour but, à l’origine, de mesurer l’attitude
d’un individu en sommant les « notes » que celui-ci attribuait à une liste de propositions relatives à
l’objet évalué (i.e. produit, marque, entreprise, comportement...). La « note » correspond à un degré
d’accord, ou de désaccord, avec chacune des propositions énoncées.
Typiquement, l’échelle de Likert correspond à la figure 9.7. Le répondant entoure le chiffre qui
approche au mieux son degré d’accord avec chaque proposition. L’échelle de 1 à 5 est le plus
souvent utilisée mais les scores pourraient également s’étager de – 2 à + 2. Dans ce cas, il faut
pouvoir supposer que le 0 a un sens précis.
Figure 9.7. Échelle de Likert
« Pour que je
Ni en
me sente chez Pas du Plutôt Tout à
accord, Plutôt
moi quelque tout pas fait
ni en d’accord
part, ce doit d’accord d’accord d’accord
désaccord
être un lieu... »
à mon goût 1 2 3 4 5
à mon image 1 2 3 4 5
où je n’ai pas de
1 2 3 4 5
soucis
dont j’ai conçu
1 2 3 4 5
l’aménagement
élevé ;
– la parité du nombre d’échelons. Un nombre impair autorise un point neutre. Parfois ce point est
By
utilisé comme refuge par des répondants qui ne veulent ou ne peuvent prendre position. La
distribution des résultats est alors faussée. Si ce point neutre se justifie au plan théorique, alors un
nombre impair convient. Si l’on souhaite forcer les répondants à prendre position, alors il faut
opter pour un nombre pair ;
– le sens de la rédaction des propositions. Pour éviter que les individus ne répondent de manière
automatique et souvent positive (biais d’acquiescement), on a longtemps recommandé une rédaction
alternée des propositions. Certaines sont positives à l’égard de l’objet, les autres sont négatives. Le
répondant est alors obligé de lire en détail chaque proposition pour bien se situer sur l’échelle.
Cette stratégie est de plus en plus critiquée pour ses conséquences en matière de traitement
statistique. Si des analyses factorielles sont envisagées, ce qui est très souvent le cas avec ces
« batteries » de propositions, nous recommandons une rédaction univoque des propositions. Ce
problème est abordé de nouveau au chapitre 14.
Exemple
Dans une mesure de la tendance générale à la recherche de sensations et de
stimulation, bâtie autour de sept propositions, on trouve les deux suivantes :
« J’aime faire toujours les mêmes choses, plutôt que d’essayer des choses nouvelles et
différentes. »
« Je suis sans cesse à la recherche d’idées et d’expériences nouvelles. »
La seconde évalue bien cette tendance, alors que la première évalue l’inverse.
Utiliser cette stratégie implique d’inverser les scores des propositions rédigées dans
le sens inverse de ce qui est mesuré. Si l’échelle est en cinq points, 1 devient 5, 2
devient 4, 3 reste 3, 4 devient 2 et 5 devient 1.
L’échelle de Likert est dite « unipolaire ». Le jugement de valeur est fait par le rédacteur
(« J’aime », « Je suis sans cesse à... »). Le répondant se contente de se positionner par rapport à ce
jugement. D’autres échelles sont « bipolaires », comme le différentiel sémantique.
français(283). Une bonne solution consiste à réaliser un pré-test – une réunion de groupe, par exemple
– au terme duquel on sélectionne les contraires le plus souvent cités, pour chaque phrase ou
By
adjectif.
Figure 9.8.Différentiel sémantique
femmes au foyer et d’étudiants. Les échelons numériques sont là pour conforter l’impression
d’égalité des intervalles.
By
La procédure de développement de ces échelles peut être adaptée à des situations très variées. Les
exemples présentés ci-dessus portent sur des adjectifs liés à la notion de « bon/mauvais ». On
pourrait également développer des échelles d’intervalle établies sur des jugements d’accord,
d’importance ou de satisfaction, par exemple.
Lorsque l’on rentre dans le domaine du comportement, on souhaite souvent mesurer les intentions.
Figure 9.10. Échelle à supports sémantiques
mesure réside dans sa propriété de ratio (voir point C ci-après). En revanche, à moins d’avoir une
intention très marquée, l’estimation de ce type de probabilité est délicate Il faut donc l’utiliser avec
prudence.
Figure 9.11. Échelles d’intention
Source : VERNETTE É., « Les qualités de l’échelle de mesure à icônes pour une étude marketing internationale »,
Actes du 20e séminaire international de recherche en marketing, IAE d’Aix-en-Provence, 1er-4 juin 1993, pp. 445-468.
C. Niveaux de mesure
On distingue trois niveaux, selon les propriétés mathématiques des chiffres symbolisant
l’information recueillie. Les mesures nominales, également appelées catégorielles, sont les plus
pauvres. Les mesures ordinales permettent des analyses plus intéressantes, mais complexes. Les
mesures de niveau métrique, enfin, sont les plus riches, les plus connues et les plus intuitives même
\/|
si, malheureusement, on les rencontre moins souvent en marketing.
$|
1. Échelles nominales (ou catégorielles)
4$
Quand une mesure est de nature nominale, « les nombres jouent uniquement le rôle d’étiquettes
permettant d’identifier des objets, des propriétés ou des événements »(288). On se borne alors à
By
2. Échelles ordinales
Le niveau de mesure ordinal identifie une relation d’ordre entre les propriétés des objets étudiés. Si
l’on demande à un individu de classer des marques par ordre de préférence sur un attribut, la
position de la marque X dans la liste proposée aura une signification précise.
Considérons l’exemple de la figure 9.14. Sur la caractéristique « facilité de digestion », le beurre
est classé premier, l’huile d’olive seconde, la margarine troisième et l’huile de tournesol
quatrième. Le code 1 affecté au beurre n’est donc plus neutre et signifie que le répondant perçoit
cette matière grasse comme possédant une plus grande « quantité » de la propriété (i.e. attribut)
facilité de digestion. Il existe donc bien une relation d’ordre sur cet attribut, qui permet de
différencier les objets comparés. Cette relation se retrouve dans les codes numériques utilisés : 1
est avant 2, lui-même avant 3 et 4.
Figure 9.14. Échelle ordinale
« Classer les 4 types de produits suivants sur chaque caractéristique. Indiquez votre classement dans le tableau ci-dessous, en
donnant 1 au produit que vous jugez le meilleur sur la caractéristique, puis 2 au suivant, puis 3, et 4, enfin, au produit que vous jugez le
moins bon. »
Huile Huile de
Caractéristiques Beurre Margarine
d’olive tournesol
Facilité de digestion 2 1 4 3
Goût 1 2 4 3
Facilité d’utilisation 3 4 1 2
Qualités nutritionnelles 1 \/|3 2 4
$|
Mais on ne peut toujours pas identifier de propriétés de distance. On peut dire, au vu des chiffres
4$
ci-dessus, que le beurre est perçu comme étant plus digeste que l’huile d’olive, elle-même plus
digeste que la margarine. On ne sait rien sur les différences de « facilité de digestion » perçues
By
entre les produits pris deux à deux. Le beurre et l’huile d’olive sont peut-être considérés comme
assez proches, même si le premier est classé devant, et nettement plus digestes que la margarine.
L’échelle utilisée ci-dessus ne nous permet pas d’évaluer les « quantités de différence » entre les
objets, telles que les individus les perçoivent.
Exemple
Une société de logements collectifs souhaite connaître le comportement des locataires
en matière de chauffage. Parmi les informations à recueillir figure la température de la
pièce d’habitation principale du logement.
Prenons un ménage fictif : l’enquêteur mesure une température réelle de 19,6 oC. Ce
ménage possède donc la propriété « se chauffe entre 19 et 20o ». La température
relevée est supérieure à celle d’un appartement où l’on aurait mesuré 18o et inférieure
à celle d’un autre où l’on aurait mesuré 20,5o (relation d’ordre). De même, une
\/|
différence de 1o avec un autre appartement a une signification : elle indique une
$|
quantité de température. En revanche, ce type de mesure n’autorise pas à conclure que
4$
« 40o est deux fois plus chaud que 20o ». On dit qu’une échelle d’intervalle ne
conserve pas les rapports.
By
En effet, si l’on change d’échelle, et que l’on convertit nos deux températures en
degrés Fahrenheit, ce rapport de 2 disparaît. Le passage de l’échelle des degrés
Celsius à l’échelle de Fahrenheit se fait au moyen de la transformation suivante :
Tout provient du fait que l’origine de l’échelle est arbitraire. Le 0 oC et le 0 oF correspondent à des
états de la nature très différents l’un de l’autre. Il n’y a pas, en matière de température, de 0 naturel,
indiscutable ; il est toujours défini par rapport à une référence extérieure(289).
L’échelle d’intervalle à supports sémantiques et l’échelle à icônes, présentées plus haut dans ce
chapitre, possèdent par construction des propriétés d’intervalle. Sous certaines conditions, les
échelles de Likert et le différentiel sémantique peuvent posséder ces propriétés : il suffit
d’appliquer la procédure de calibrage, utilisée par les échelles à supports sémantiques, aux termes
mesurant le degré d’accord(290).
b. Mesure de ratio
L’échelle de prix présentée en premier lieu est une mesure de ratio. Ce niveau de mesure est le plus
sophistiqué, car il conserve les rapports : une paire de skis à 300 euros est bien deux fois plus
chère qu’un modèle à 150 euros. Passons en effet à une autre échelle de prix, par exemple en
convertissant les euros en dollars : 231 USD est toujours le double de 115,5 USD (en prenant un
dollar à 0,77 euro).
Cette propriété de conservation des rapports autorise tous les calculs statistiques. En construisant le
questionnaire, il est donc préférable d’utiliser des variables de niveau de mesure d’intervalle au
moins. Toutefois, certaines variables importantes en marketing sont, intrinsèquement, nominales
(e.g. PCS) ou ordinales (e.g. classement de préférence).
Figure 9.15. Question de forme catégorielle et de niveau de mesure métrique
\/|
$|
La présentation de la question joue sur le niveau de mesure de l’information recueillie. L’âge, par
4$
exemple, est une variable métrique (de ratio) par nature. Si on présente aux répondants des classes
d’âge, le niveau de mesure de l’information devient ordinal, au mieux. Les qualités initiales se
By
4. Synthèse
La figure 9.16. récapitule les trois niveaux de mesure présentés précédemment et donne, pour
chaque niveau, des exemples de variables et de calculs statistiques autorisés. Ces derniers seront
présentés dans les chapitres indiqués.
Nous venons d’étudier les impératifs liés au fond du questionnaire sous l’angle triple du contenu, du
type et de la nature de la mesure de chaque question. Les règles de forme à respecter dans la
construction d’un questionnaire sont tout aussi importantes.
A. Rédaction du questionnaire
By
Elle est guidée par de simples remarques de bon sens, malheureusement trop souvent oubliées. En
résumé : le vocabulaire et le style utilisés pour la rédaction d’un questionnaire doivent être ceux
employés par les répondants et non ceux du rédacteur.
1. Vocabulaire utilisé
Les entretiens de groupe sont un outil pertinent d’identification du vocabulaire et des tournures de
phrases propres à la population étudiée. Quelques remarques peuvent néanmoins être formulées.
Exemple
4$
La perception du temps est également subjective. Il s’agit donc d’éviter les adverbes tels que
« souvent », « rarement » ou autres « de temps en temps » et « occasionnellement ».
Exemple
Soit la question suivante :
« Au cours d’un mois normal, vous venez faire vos courses dans cet hypermarché : »
Très rarement 1
Occasionnellement 2
Régulièrement 3
Souvent 4
Ne sait pas 9
Problème à résoudre :
On constate que deux univers se chevauchent : celui de la « quantité » des visites et
celui de la « régularité » des visites. Les modalités de réponses ne sont pas
cohérentes : « Très rarement » et « Occasionnellement » sont perçues comme proches
l’une de l’autre. Il y a donc fort à craindre que pour une même « quantité » objective
de visites, certains répondants choisissent « Très rarement » et d’autres
« Occasionnellement ». \/|
Solution :
$|
Pour éviter cela, l’utilisation d’ancrages temporels objectifs est préférable. Par
4$
(Considérez un mois sans événement exceptionnel, qui vous amènerait à venir plus ou
moins que d’habitude.) »
Moins d’une fois 1
1 à 2 fois 2
3 à 4 fois 3
Plus de 4 fois 4
Ne sait pas 9
En résumé, le vocabulaire employé doit être le plus simple, le moins ambigu possible et adapté à la
population concernée par l’étude.
2. Style de rédaction
Le style de rédaction est également important, car il est fréquemment source de biais, soit dans la
compréhension des questions, soit directement dans les réponses.
Exemple
« Ne pensez-vous pas que les hypermarchés ne donnent pas assez de conseils à leurs
clients ? »
Un esprit « normal », dans le contexte d’une étude, c’est-à-dire sans attention ni
concentration particulières, devra s’y reprendre à plusieurs fois avant de saisir le sens
exact de la question. Vous-même, combien de fois avez-vous dû la lire ?
Exemple
« N’est-il pas vrai, selon vous, que le pain est de moins bonne qualité qu’autrefois ? »
Indépendamment de l’opinion réelle du répondant, qui peut être nuancée, la réponse
induite est manifestement positive. Il faut, évidemment, éviter à tout prix de formuler
des questions telles que le répondant se sente obligé de répondre d’une certaine
manière. Que vaut l’information obtenue dans ce cas ?
De la même manière, une question se focalisant sur une seule dimension de l’information
recherchée provoque une réponse biaisée. Elle encourage ce que l’on appelle un biais
d’acquiescement. C’est une tendance naturelle à dire « oui », quand l’issue en jeu n’est pas
fondamentale, ou que l’opinion n’est pas très marquée.
Exemple
« Pensez-vous que la guerre des prix dans la fourniture d’accès à Internet soit une
bonne chose pour le consommateur ? »
Problème :
Les modalités de réponse implicites sont ici « oui », « non » ou « sans opinion ». Le
défaut de cette question est de présenter un point de vue qui n’est pas forcément celui
de tout le monde, et interdit toute nuance dans la réponse.
Solution proposée :
On pourrait reformuler la question de la manière suivante :
« Selon vous, la guerre des prix dans la fourniture d’accès à Internet est, pour le
consommateur : (bénéfique, sans effet, négative, sans opinion) ? »
\/|
Cette fois, la question est neutre, et on offre quatre modalités de réponses à l’individu,
$|
qui couvrent l’ensemble des opinions possibles. Sans être idéale, cette reformulation
permet d’obtenir une question qui n’oriente pas la réponse.
4$
By
– Style bref
Une question devrait rarement dépasser une ligne à une ligne et demie. Que penser de ce qui suit ?
Étude de cas
Une étude est menée dans le cadre d’un cours d’études de marché. Celle-ci porte sur le
comportement alimentaire des étudiants. Une des questions était ainsi rédigée (avec
une réponse recueillie sur une échelle de Likert à cinq postes) :
« Si, selon vous, les étudiants mangent mal en général, pensez-vous que des actions
telles que des ‘‘semaines du goût au RU’’, des séances d’information sur la nutrition ou
des réductions dans les magasins d’alimentation (sur les produits frais par exemple)
pourraient être utiles ? »
Problèmes identifiés :
Cette question est trop longue et rédigée de telle sorte que l’on ne sait pas exactement
sur quoi porte le degré d’accord demandé au répondant. Celui-ci peut juger très
différemment l’utilité, au regard de son propre comportement, d’une semaine du goût
au restaurant universitaire ou de prix abordables sur des produits frais.
Solution proposée :
Il serait préférable d’évaluer l’utilité perçue de chacune des actions en posant ainsi la
question :
« Partons maintenant du principe que les étudiants, de manière générale, mangent de
manière peu équilibrée et irrégulière.
Que pensez-vous de l’utilité des trois actions suivantes, dont le but serait d’améliorer
cette situation ? »
\/|
$|
4$
Réaction de prestige
Raisons Solutions
Peur de se faire mal juger. Échelles spéciales(292)
Manifestations Recoupements entre questions.
Minimisation des opinions. Plusieurs questions neutres qui, ensemble,
Réponses sous forme de clichés, ce qui est donneront la réponse.
socialement désirable. Enquêteur « neutre ».
Fuite défensive
Raisons
Solutions
Crainte de voir la réponse utilisée contre soi.
Ne pas démarrer par ces questions.
Manifestations
Dépersonnaliser les questions.
« je ne sais pas » ou non-réponse à des
Noyer la question parmi d’autres, plus neutres.
questions personnelles.
Réponse positive
Solutions
Raisons
Inversion des formulations (e.g. dans les
Sensibilité à la suggestion.
échelles).
Manifestations
\/|
Éviter les OUI / NON (ou VRAI / FAUX) pour
$|
Tendance aux « oui » systématiques.
des opinions personnelles.
4$
Pour des questions personnellement importantes, l’approche indirecte est donc souvent préférable.
L’utilisation de termes neutres, ou de plusieurs questions indirectes, dont on déduit l’information
recherchée, est un moyen de procéder.
Exemple
Les valeurs de santé, de forme physique, d’apparence du corps... ont beaucoup
d’importance. Pour y parvenir, l’alimentation joue bien entendu un grand rôle, et les
médias spécialisés rivalisent de conseils diététiques.
Problème posé :
Une étude sur les comportements alimentaires au petit-déjeuner, notamment des jeunes,
susciterait probablement beaucoup de réponses de façade. Le petit-déjeuner est
généralement négligé en France. L’approche directe consisterait à demander par
exemple :
« Prenez-vous habituellement un petit-déjeuner ? » (Oui/Non)
« Si oui, dans la liste ci-dessous que prenez-vous en général ? »
Il est probable que la proportion de « Oui » sera importante et que le petit-déjeuner
« type » sera composé d’un jus de fruit, de céréales et de pain, accompagnés de café,
thé ou chocolat : l’image parfaite véhiculée dans les médias ou par les médecins. Or
on sait pertinemment qu’il n’en est rien.
Solution envisageable : \/|
L’approche indirecte donnerait certainement de meilleurs résultats :
$|
« Racontez-moi votre début de matinée habituel, dès votre réveil. »
4$
Bien qu’elle soit ouverte, cette question peut être précodée, ce qui facilite les
traitements statistiques. Et elle permettrait d’avoir une idée certainement plus précise
By
de la proportion d’individus prenant un vrai petit-déjeuner. Cela dit, elle reste un pis-
aller, car les questions ouvertes sont problématiques dans de tels questionnaires. Une
approche entièrement qualitative pourrait être une alternative pertinente.
Le flash-étude 9.1. complète ce tour d’horizon concernant les réponses de façade et les risques de
recueil d’informations invalides qui en découlent.
Flash-Étude 9.1.
Réponses de façade et comportements écologiques
Contexte
Voici deux enquêtes, menées sur les comportements et opinions en matière de protection de
l’environnement. Il en ressort très clairement que des questions directes sur ce sujet conduisent à
des résultats plus que douteux. La raison majeure en est probablement que la protection de
l’environnement est, depuis quelques années, un sujet à « visibilité » sociale très forte et qu’il
est de bon ton d’adopter un discours teinté de vert.
Approche directe
Une première étude a été menée dans les années 1990 auprès d’un échantillon par quotas de
391 personnes, représentatives (sexe et âge) de la population de Chambéry.
On a demandé aux répondants d’exprimer, au moyen d’un différentiel sémantique à cinq postes,
leur sentiment général à l’égard de la protection de l’environnement : 97,4 % la considèrent
plutôt ou vraiment importante et 96,4 % plutôt ou vraiment utile. Dans la même étude, on
s’intéressait également aux intentions d’adopter divers comportements, dans le but de protéger
l’environnement. Entre autres, une question portait sur l’achat de lessives sans phosphates. Les
réponses, recueillies sur une échelle de Likert à six postes – pas d’échelon neutre – furent les
suivantes : « Plutôt d’accord » : 25,1 % ; « D’accord » : 25,6 % ; « Tout à fait d’accord » :
41,4 %. Au total, donc, 92,1 % de réponses favorables à l’utilisation de lessives sans
phosphates.
Ces chiffres inciteraient à l’optimisme si la réalité n’était tout autre. Par exemple, on estimait la
part de marché des lessives sans phosphates à 25 % au début des années 1990(293). Nous passons
donc de 92,1 % « prêts » à utiliser une telle lessive à 25 % qui l’utilisent réellement. Les limites
de l’approche directe sont clairement soulignées !
lessives. La particularité de l’étude est qu’il n’a été, à aucun moment, fait référence à
l’environnement : elle était simplement présentée sous le label « Habitudes d’achat et
By
d’utilisation de la lessive ».
Deux exemples de questions permettent d’illustrer la démarche. Au lieu de demander aux
individus s’ils achetaient ou utilisaient des lessives sans phosphates, on leur a demandé quelle
marque (ou quel modèle exact) ils achètent habituellement. De même, au lieu de leur demander
s’ils jugeaient le critère « respectueux de l’environnement » important dans leur choix, on leur a
demandé de citer spontanément, par ordre d’importance décroissante, les critères ou
caractéristiques des produits conditionnant leur achat.
Les résultats sont révélateurs : la marque de lessive achetée habituellement peut, dans 5 % des
cas seulement, être considérée comme « écologique » ; 62 % des produits achetés sont « pseudo-
écologiques » (i.e. contiennent des détergents ou additifs toxiques) et 29 % sont des lessives
classiques, les plus polluantes ; le critère « écologie » n’est cité que neuf fois, dont deux
seulement en première position, très loin derrière l’efficacité, le prix et l’odeur (respectivement
64, 54 et 28 citations au total).
Conclusion
La fibre écologique du Chambérien, à l’époque, restait verbale. Seule l’approche indirecte
pouvait mettre ce résultat en évidence.
B. Structure du questionnaire
La structure du questionnaire tient à l’ordre d’apparition de ses différents éléments. Des aspects
secondaires tels que longueur et présence de questions « spéciales » sont également à mentionner.
\/|
$|
4$
By
Figure 9.18. Structure d’un questionnaire
\/|
$|
4$
By
Elles sont très générales et formulées de manière à ce que la personne puisse répondre et/ou que sa
réponse soit positive. L’information fournie peut, et c’est le seul endroit « autorisé » dans le
questionnaire, ne pas être utile. Le but de cette (ces) question(s) est de s’attirer la sympathie du
répondant et de l’intéresser au questionnaire qui va suivre.
Exemple
« Quelles sont vos couleurs préférées ? »
La question ci-dessus a servi à introduire un questionnaire visant à tester l’idée d’un
parapluie dont la toile serait interchangeable, autour d’une armature commune. Les
questions se recentraient ensuite vers les couleurs préférées pour l’habillement, le
degré d’attention au mariage des couleurs habillement-accessoires (sac, montre,
parapluie...), la possession d’un parapluie, etc.
Exemple
« Avez-vous un compte bancaire personnel ? »
Dans une étude descriptive du comportement et de l’attitude des étudiants à l’égard de
leur banque, cette question visait à séparer les répondants en deux groupes. Les « oui »
poursuivaient le questionnaire ; les « non » étaient orientés sur une partie spéciale où
l’on tentait de mettre au jour les raisons pour lesquelles ils n’avaient pas de compte,
puis sur les questions d’identification.
Exemple (suite)
La partie du questionnaire portant sur les motivations et freins à l’achat des produits
biologiques démarre à ce moment. Elle prend la forme d’une série d’échelles de
Likert, dont les éléments ont été identifiés par des sessions de groupes nominaux. En
voici un extrait :
J’ai des
4$
doutes sur
la
By
1 2 3 4 5
provenance
réelle des
PAB
est de fournir un indice sur l’« honnêteté » avec laquelle l’individu remplit son questionnaire.
By
Exemple
L’utilisation de pièges est assez fréquente dans les questions de notoriété, surtout
quand il est valorisant de montrer une bonne connaissance du domaine sur lequel on
est interrogé.
Problème posé :
On sait, par exemple, que les Français, de manière générale, lisent peu. Dans une étude
sur les comportements de lecture, les répondants auront tendance à surestimer leur
consommation.
Solutions possibles :
– On peut insérer une question du type :
« Parmi les titres suivants, lesquels connaissez-vous ? »
Suit une liste de titres d’ouvrages, dont certains sont purement imaginaires. Les
répondants cochant un ou plusieurs de ces titres sont manifestement coupables d’une
« réaction de prestige ». L’ensemble de leurs réponses est alors à remettre en cause.
– On peut aussi insérer deux questions à deux endroits différents, assez espacés, du
questionnaire. Là encore, une incohérence flagrante dans les réponses est significative
\/|
d’un répondant peu scrupuleux, ou tout simplement peu intéressé par l’étude. Dans les
$|
deux cas, il vaut mieux ne pas tenir compte de ses réponses.
4$
« Combien de livres neufs achetez-vous par an, en moyenne, en librairie et/ou sur
Internet ? »
By
\/|
$|
4$
By
D. Codage du questionnaire
Les logiciels de construction automatique de questionnaire rendent cette phase transparente à
l’utilisateur. En revanche, la construction d’un questionnaire papier destiné à être administré en
face-à-face implique d’y avoir réfléchi.
Le codage d’un questionnaire a pour objectif de faciliter la transformation des informations d’un
état brut (telles qu’elles ont été fournies par les répondants) à un état qui permette leur traitement
statistique.
Inclure le codage dès la rédaction du questionnaire est une tâche délicate pour les débutants. La
première difficulté vient de la distinction à opérer entre une question et une variable.
Exemple
Problème à résoudre :
Le directeur marketing de la société Atomic vous demande d’évaluer la notoriété et
l’image de sa marque sur le marché français. Après avoir bien réfléchi, vous
débuteriez probablement le questionnaire par :
« Veuillez me citer les marques de skis alpins que vous connaissez. »
Ce n’est pas faux, ni inutile, mais incomplet : que faire de l’information recueillie,
c’est-à-dire des 3, 4 ou 5 (ou plus) marques de skis qui vont être citées ?
Solution envisageable :
La simple question ci-dessus peut être à l’origine d’au moins trois variables. En
d’autres termes, on peut en retirer trois informations différentes, utiles pour l’étude.
Une fois précodée, elle pourrait prendre la forme suivante :
\/|
« Veuillez citer les marques de skis alpins que vous connaissez. »
$|
4$
By
Commentaires :
Bien sûr, comme il s’agit d’une question de notoriété spontanée, la liste de marques
n’est pas proposée au répondant. On s’intéresse d’abord à la notoriété spontanée
simple d’Atomic. En d’autres termes, la marque est-elle citée ?
On peut, pour chaque individu, utiliser un simple code « oui = 1 » vs. « non = 0 », que
l’on reporte dans la case « NSATOM ». Ensuite, pour les cas où la réponse ci-dessus
est « oui », l’enquêteur précise le rang auquel Atomic est citée (RGATOM). Le
pourcentage de « 1 » donnera ce que l’on appelle la notoriété « top of mind ».
On pourra également s’intéresser au rang médian de citation, pour voir si la marque est
présente à l’esprit de manière centrale, ou au contraire plutôt secondaire. Enfin, on
note le nombre total de marques citées (NBMCIT), pour évaluer la connaissance
générale de la catégorie de produit par les répondants.
Cas simple :
Exemple
« Quel âge avez-vous ? » _______________________ ÂGE
_______________________
Ni en
Pas du Plutôt Tout à
accord, ni Plutôt
tout pas fait
en d’accord
d’accord d’accord d’accord
désaccord
Ces
produits
ont
1 2 3 4 5
meilleur
goût que
les autres
J’ai des
doutes sur
la
1 2 3 4 5
provenance \/|
réelle des
$|
PAB
4$
By
La solution la plus simple est ici d’utiliser les premiers entiers dans un ordre
croissant. Le code 9 sert ici de « poubelle », pour classer les situations marginales
dont on pourra, éventuellement, ne pas tenir compte dans les traitements.
Exemple
Lors de l’enquête sur la protection de l’environnement, l’identification du
questionnaire et de l’enquêteur se faisait par un code à quatre chiffres. Les deux
premiers chiffres indiquaient qui était l’enquêteur (en réalité ils travaillaient par
équipes de deux) et les deux suivants indiquaient le numéro de questionnaire pour
l’équipe. Ce code donnait naissance à une variable « NUMQUES », intégrée aux
données de l’enquête.
On note également la date et le lieu exact où fut administré le questionnaire. L’information sert aussi
au contrôle du travail des enquêteurs, mais peut être utile si l’on pense, par exemple, que certaines
réponses varient d’un quartier à l’autre.
L’identification précise de la personne interrogée n’est pas systématique mais peut également se
justifier. Il faut le faire avec précautions, car on déroge alors au principe d’anonymat qui est la
règle en matière d’étude. Cela étant, la motivation est double : à nouveau le contrôle des enquêteurs
– si on dispose d’un nom et d’un numéro de téléphone, on peut vérifier que le questionnaire a bien
été administré le jour dit et à la personne indiquée, et comment il a été administré – et la nécessité
éventuelle de devoir administrer aux mêmes individus plusieurs questionnaires – identiques ou
différents –, à des intervalles de temps espacés. On peut ajouter la nécessité de retrouver la
personne pour le cas où une récompense est attribuée à certains répondants (par une tombola par
exemple).
E. Prolongements
Lors de la discussion sur les questions ouvertes, il a été dit qu’il fallait éviter de mélanger dans un
même questionnaire des questions fermées et des questions ouvertes appelant des réponses
discursives non codifiables a priori. Cette pratique a néanmoins ses défenseurs et se développe.
Nous ferons un point rapide sur le sujet. Puis nous terminerons ce chapitre par une synthèse sur les
éléments qui permettent d’aboutir à un questionnaire « idéal ».
Flash-Étude 9.2.
« Vers des études quanti plus quali »
Comprendre est devenu aussi primordial que mesurer dans les études quantitatives. L’approche
qualitative s’applique à la fois au recueil des données à travers des questionnaires suffisamment
ouverts et à leur traitement grâce à l’analyse de contenu approfondie des questions ouvertes.
Les études quantitatives lourdes (panels consommateurs, études de marché...), dont l’objectif
prioritaire est la précision de la mesure, sont inadaptées à une approche qualitative. En
revanche, la dimension qualitative est devenue une composante essentielle des études
quantitatives « légères » établies sur des petits échantillons (pré-tests ou post-tests de
perception).
codification (qui peut être assistée par ordinateur) et l’analyse de contenu s’imposent.
By
Les arguments présentés dans le flash-étude 9.2. sont évidemment recevables. Deux limites de ce
« savant mélange » doivent cependant être gardées en tête :
– à question comparable, la richesse du verbatim recueilli pour une question ouverte dans une étude
quantitative est sans commune mesure avec le discours produit lors d’un entretien semi-directif. Les
capacités de rédaction de la plupart des répondants sont limitées et le mode écrit est peu propice à
l’élaboration de raisonnements enchaînés. L’information recueillie est donc plus riche que dans une
étude purement quantitative mais bien plus pauvre que dans une « vraie » étude qualitative ;
– les méthodes de traitement des questions ouvertes (analyse lexicale, analyse de contenu), comme
les méthodes de traitement statistique, sont sophistiquées et demandent une réelle maîtrise. Peu de
chargés d’études possèdent au même niveau ces deux types de compétences, malheureusement peu
complémentaires.
Illustrons maintenant un exemple d’application d’étude mixte.
\/|
b. Un exemple d’application : le mur d’images(297)
$|
4$
Les méthodes mixtes se distinguent par une mise en œuvre séquentielle ou simultanée, la priorité
donnée au quantitatif ou au qualitatif, et une focalisation sur la collecte ou l’interprétation des
By
résultats. Le mur d’images mobilise simultanément des mesures visuelles, verbales et numériques.
Il s’agit en effet d’enregistrer les réactions des consommateurs face à des images, et de leur
demander de se positionner sur des échelles d’attitude et sur des questions fermées.
Le protocole du « mur d’images » consiste à demander au répondant de sélectionner plusieurs
images parmi un large choix de photographies en guise de réponse à une question.
Exemple
Étude sur les comportements liés à la boisson
Le mur d’images est proposé au tout début de l’enquête. Le répondant doit choisir trois
photographies parmi trente-six en réponse à la question :
« Que signifie ‘‘boire’’ pour vous ? Veuillez choisir trois images dans le mur ci-
dessous, qui représentent ce que ‘‘boire’’ signifie pour vous. »
Dans l’écran suivant, les trois images choisies sont présentées à nouveau et le
répondant est amené à justifier son choix, avec ce texte : « Vous avez choisi les images
suivantes pour représenter ce que “boire” signifie pour vous. Pouvez-vous nous dire
en quelques phrases ce que vous aviez à l’esprit quand vous avez choisi ces images et
pourquoi vous les avez sélectionnées ? » D’autres questions plus classiques
s’ensuivent, mesurant comportements, attitudes et autres motivations.
La recherche des images s’est faite sur Internet, par des mots-clés liés au sujet de
l’étude. Utiliser Google est une option efficiente car elle capte – par nature – les
représentations parmi les plus populaires de la rubrique concernée(298). Les images
doivent couvrir toutes les dimensions théoriques et pratiques du sujet.
Dans l’étude, les images suivantes ont été utilisées :
\/|
$|
4$
By
La mise en correspondance du choix des images et des réponses aux questions qui
suivent permet différents types d’analyses. L’analyse des correspondances
(chapitre 14) est un moyen pratique pour cela. Par exemple, les images liées à l’eau
sont associées à des dimensions de santé, d’étanchement de la soif et de praticité. À
l’opposé, l’alcool est plutôt lié à la socialisation et à l’amusement.
Au-delà de cet exemple particulier, l’utilisation d’images comme modalités de réponse est un
moyen de rendre un questionnaire attractif et interactif et, ainsi, de le rendre plus efficace. Mais
qu’est-ce qu’un questionnaire idéal ?
Valeur
Thème Sujet Indicateur \/| Commentaire
« idéale »
$|
Un questionnaire
Longueur du
4$
Questions plus
longues acceptables
Longueur des pour des répondants
Nombre de mots 8
questions « compétents » (e.g.
collaborateurs,
Volume experts)
Nombre de
Nombre de modalités
modalités de 4-5
par question fermée
réponses
Nombre moyen de
Précision des répondants par
30 minimum
questions fermées modalité de question
fermée
Un style direct
Nombre de verbes par
1 minimise le taux
question
d’abandon
Nombre de
Complexité de la conjonctions de
formulation 0
coordination par Observé en
question moyenne : 0,1
Syntaxe
– L’attractivité. Elle est liée aux critères énoncés ci-dessus. On peut y ajouter la présence d’images
pour les questionnaires auto-administrés. Elles peuvent être utilisées comme simple élément
By
d’illustration. Dans ce cas, leur effet positif n’est pas prouvé, car elles ont tendance à allonger le
temps d’affichage à l’écran des pages des questionnaires en ligne. Elles peuvent également être
intégrées comme modalités de réponse. Dans ce cas, il semble qu’elles améliorent le taux de
réponse(300).
– L’interactivité. Elle est relative à la possibilité de donner un retour d’information au répondant en
temps réel. Elle est reconnue comme un facteur important de motivation. Son effet est surtout
sensible sur la richesse des réponses aux questions ouvertes dans les enquêtes quantitatives. Pour
les enquêtes purement quantitatives, son intérêt semble être de « faire oublier le temps » au
répondant en l’amusant, ce qui peut diminuer le taux d’abandon.
Flash-étude 9.3.
Le questionnaire comme expérience culturelle enrichissante
Extrait d’une interview de Daniel Bô par François Laurent, co-président de l’Adetem(301)
François Laurent : Tu considères qu’un questionnaire doit être une « expérience culturelle
enrichissante ». N’est-ce pas exagéré ?
Daniel Bô : Je ne dis pas que c’est toujours possible, mais cela doit être un objectif. Lorsqu’on
regarde le paysage des questionnaires proposés sur Internet, je constate qu’ils sont de plus en
plus soignés sur le plan du design, mais souvent fastidieux et décevants. [...] Pour le secteur des
études, la bonne volonté des interviewés est une matière première quasi gratuite, il faut la
préserver. L’individu prend le contrôle, et le sait : on le voit dans tous les domaines du marché.
Il n’y a pas de raison que les études échappent à cette tendance.
FL : Comment peut-on concrètement construire ces expériences enrichissantes ?
DB : Les instituts d’études doivent passer d’études mécaniques à des études émotionnelles. Ils
doivent chercher à susciter l’enthousiasme des interviewés. La première chose est de se mettre à
la place de l’interviewé et de trouver des manières de stimuler l’activité cérébrale. [...] Voici
quelques règles de base pour construire un questionnaire motivant débouchant sur une expérience
impliquante :
\/|
$|
– un sujet intéressant et attractif : le sujet doit être intéressant et s’il ne l’est pas a priori, il faut
le rendre intéressant ;
4$
personne, même l’enquêteur le plus chevronné disposant des outils informatiques les plus
sophistiqués, n’est à l’abri d’une erreur grossière dans son questionnaire. L’expérience, seule,
permet de minimiser l’imperfection.
L’administration du questionnaire est un autre facteur de réussite, ou d’échec, de l’étude. Ce point
fait l’objet du chapitre suivant.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Une question dichotomique appelle une réponse :
(1) double, après choix parmi plusieurs modalités
(2) unique, après choix entre deux modalités
(3) basée sur celle donnée à une question précédente
Q2. Qu’est-ce qu’une échelle d’intervalle à supports sémantiques ?
(1) une échelle sans codes numériques
(2) une échelle où l’on demande un degré d’accord ou de désaccord
(3) une échelle où les ancrages verbaux sont à des distances psychologiquement égales
pour le répondant
Q3. Dans une mesure de ratio :
(1) le zéro est naturel \/|
(2) le zéro est toujours au milieu
$|
(3) le zéro est fixé arbitrairement
4$
Bibliographie
FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2002.
GIDEON L. (coord.), The Handbook of Survey Methodology in Social Sciences, New York,
Springer-Verlag, 2012.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, 1988, chap. 5 et 8.
LUCK D. J. et RUBIN R. S., Marketing Research, 7e éd., Prentice-Hall International, 1987, chap. 9.
MALHOTRA N. K., Marketing Research. An Applied Orientation, Prentice-Hall International, 1993,
ch. 9 à 12, 15.
MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 9e éd., ESF Éditeur-Entreprise
moderne d’édition, 1989.
TASHAKKORI A. et TEDDLIE C., Handbook of Mixed Methods in Social and Behavioral Research,
Sage, 2003.
Webographie
http://www.websm.org/
http://www.qualiquanti.com/
http://testconso.typepad.com/marketingetudes/
http://cmoresearch.com/
\/|
$|
4$
By
Chapitre 10
Administration du questionnaire
L’abondance est le fruit d’une bonne administration.
J. JAURÈS
La construction d’un questionnaire est une étape longue, difficile et ingrate, car son efficacité n’est
jamais garantie. Une fois la rédaction achevée, on soumet le questionnaire à l’échantillon retenu :
c’est l’administration du terrain, dernière phase du processus de collecte des données.
Cette phase se décline en trois étapes, décrites dans la figure 10.1. Elles serviront d’ossature à ce
chapitre. Le pré-test du questionnaire sert à repérer ses principales imperfections. Il sera abordé
dans un premier temps.
\/|
$|
Le mode d’administration retenu, entre face-à-face, téléphone et Internet influence grandement la
qualité des résultats obtenus. Les différentes manières d’administrer le questionnaire feront l’objet
4$
Enfin, la qualité de la collecte doit être soumise à des contrôles : leur présentation clôturera ce
chapitre.
Figure 10.1. Plan du chapitre
\/|
$|
4$
I. Pré-test
By
2. Effectifs à interroger
Il n’existe pas de règle absolue. Si la population est très petite, par exemple les entreprises
parrainant le cyclisme professionnel, il faudra se limiter à un ou deux questionnaires. Pour une
enquête grand public, la taille recommandée va de 15 à 30 personnes.
3. Échantillonnage
Il est essentiel que les individus interrogés pour le pré-test soient issus de la même population que
ceux de l’échantillon définitif. Il ne s’agit pas d’interroger les mêmes personnes deux fois, mais de
retenir des individus semblables, en fonction des critères de définition de la population.
Exemple
Une étude a pour objet d’identifier les motivations et freins à l’achat d’une marque de
cosmétiques dont la cible est constituée de femmes actives âgées de 25 à 40 ans. Il est
peu utile de réaliser un pré-test sur un échantillon d’étudiantes. Leurs motivations et
\/|
comportements en matière de cosmétiques sont différents de ceux de femmes plus
$|
âgées et argentées. Leurs réactions à l’égard du questionnaire risquent donc d’être
4$
également différentes.
By
Exemple
Une étude portait sur les relations des étudiants avec leur banque. L’une des questions
figurait ainsi :
Q8 – « Avez-vous un ou plusieurs comptes épargne ? »
Oui 1 Non 2 (Aller question 12)
Pour ceux ayant répondu « non », la question 12 était :
Q12 – « Avez-vous fait signer une procuration ? »
À cette question, les non-possesseurs de compte épargne ont logiquement répondu non.
Ce qui a diminué artificiellement la proportion d’étudiants ayant signé une procuration
\/|
pour leur compte. En réalité, l’examen du questionnaire a montré que le renvoi aurait
$|
dû être fait à la question 13.
4$
Ce point concerne surtout les questionnaires auto-administrés. Si les instructions d’emploi ne sont
pas claires ou pas complètes, le taux de réponse va être dégradé.
Le pré-test avec enquêteurs est le seul moyen de repérer ce type d’erreur.
CAPI ou CAWI avec assistance de type « FAQ », sous forme de texte ou d’avatar).
En pratique, le budget alloué à l’enquête conditionne souvent le choix du mode de collecte, ainsi
By
\/|
$|
4$
By
Figure 10.4. Part des modes d’administration dans le marché des études en France (302)
Mode de recueil
2007 2008 2009 2010
quantitatif
Face-à-face 37 % 31 % 33 % 28 %
Internet 21 % 25 % 31 % 41 %
Téléphone 30 % 33 % 27 % 25 %
Voie postale 5% 5% 5% 3%
Tests en salle 7% 6% 4% 3%
Mode de recueil
2007 2008 2009 2010
qualitatif
Réunions de groupes 60 % 56 % 48 % 48 %
Entretiens individuels 23 % 25 % 25 % 24 %
Internet 6% 5% 10 % 12 %
Autres 11 % 15 % 17 % 16 %
A. Face-à-face
Les enquêtes en face-à-face mettent en présence un enquêteur et le répondant. Comme l’indique la
figure 10.3, on peut distinguer trois manières de procéder : les interviews à domicile, les
interviews dans la rue ou en sortie de caisse et les interviews menées directement au moyen d’un
ordinateur.
1. Enquête à domicile
Les individus composant l’échantillon sont interrogés à leur domicile. Le travail de l’enquêteur
consiste alors à contacter les répondants, à fixer un rendez-vous et à administrer le questionnaire.
\/|
$|
Les enquêtes à domicile sont la méthode la plus coûteuse, essentiellement à cause du coût des
enquêteurs (rémunération, formation, temps de déplacement, recherche des interviewés). Le temps
4$
nécessaire à l’administration est également long. Pour cela, elles sont surtout utilisées dans les cas
suivants :
By
– étude complexe : l’enquêteur est là pour aider le répondant à remplir, pour lire les questions,
donner des précisions, éviter des oublis ;
– questionnaire long : la présence de l’interviewer limite les oublis, abandons en cours de route, ou
questionnaires bâclés ;
– présentation de produits, emballages, publicités : l’enquêteur gère l’ordre d’apparition, donne les
informations sur les tâches à accomplir, enregistre les réponses.
En dépit de son coût et de sa lenteur, cette technique permet un excellent contrôle sur l’échantillon,
ce qu’Internet n’autorise pas totalement.
B. Voie postale
By
Nous comptons donc vivement sur votre participation, car, plus le nombre de réponses
sera important, plus il sera aisé de montrer les différences de pratiques et de vous
proposer des solutions adaptées.
By
Nous vous demandons donc de bien vouloir nous renvoyer ce questionnaire par fax,
par mail ou par courrier aux coordonnées suivantes avant le 28 avril (les réponses qui
arriveront après cette date ne pourront être prises en compte).
Nom de l’interlocuteur : xx
Adresse : xx
Fax : xx
Mail : xx
Les questionnaires seront analysés sous le respect de l’anonymat. Vous recevrez à
l’issue de ce travail une synthèse des résultats. Afin que vous puissiez vous situer
par rapport à l’ensemble des éleveurs enquêtés, un numéro de questionnaire vous sera
attribué.
En vous remerciant par avance pour votre participation, nous vous prions d’agréer,
Madame, Monsieur, l’expression de nos salutations distinguées.
Ce courrier est destiné aux professionnels de la filière d’élevage porcine des régions Bretagne et
Pays de Loire. À ce titre il est probablement préférable d’utiliser le courrier postal car le taux de
connexion à Internet n’est peut-être pas très élevé dans cette population.
Ce courrier doit contenir quelques rubriques clés :
– Qui envoie le questionnaire
• Préciser les personnes et/ou organismes à l’origine de la recherche ainsi que ses sponsors ou
simples soutiens. Le prestige et l’image associés à une institution de soutien importante pour les
répondants peuvent jouer un rôle clé dans le taux de réponse.
• Développer et traduire les sigles des organismes (i.e. ne pas utiliser les acronymes). À ce titre,
l’utilisation de ADEME au lieu de « Agence De l’Environnement et de la Maîtrise de l’Énergie »
est une erreur dans le courrier précédent.
– Pourquoi réaliser une telle étude
• Mettre l’accent sur les objectifs et les thèmes abordés dans le questionnaire.
– Pourquoi prendre la peine de répondre au questionnaire
• La contribution de l’étude à la progression de la connaissance doit être clairement présentée.
• Il faut également valoriser le répondant au travers de sa participation à l’enquête.
• On peut également promettre d’envoyer un résumé des résultats de la recherche.
• Enfin, on doit préciser, sans tricher, le temps nécessaire pour répondre au questionnaire.
\/|
– Garantir l’anonymat
$|
• Sauf si l’attribution d’une éventuelle récompense implique de connaître les coordonnées des
4$
répondants. Si tel est le cas, il faut préciser explicitement pourquoi on demande ces coordonnées.
– Dater et signer
By
C. Téléphone
1. Enquêtes téléphoniques classiques
Elles consistent à contacter téléphoniquement l’échantillon sélectionné et à lui administrer un
questionnaire de manière classique (réponses notées au crayon sur un exemplaire papier du
questionnaire).
L’évaluation comparative proposée plus loin montrera que l’enquête téléphonique est une méthode
permettant d’obtenir rapidement l’information souhaitée. Toutefois, ce jugement doit être nuancé par
la difficulté croissante d’obtenir des contacts utiles, c’est-à-dire des individus qui appartiennent à
la base de sondage et acceptent de répondre (voir figure 10.5).
Ce taux de réponse est mesuré par(304) :
Figure 10.5. Appel téléphonique et questionnaire rempli
\/|
$|
4$
By
TR = Taux de réponse,
nr = Nombre de questionnaires remplis par les foyers répondants,
ne = Nombre de foyers répondants éligibles dans l’échantillon.
En effet, le contact téléphonique réussi ne garantit pas que le questionnaire soit rempli. Le
correspondant doit accepter de répondre et ne pas être rejeté par l’enquêteur (ligne mauvaise,
problème de langage...). S’il coopère, il doit être éligible pour l’enquête, c’est-à-dire posséder les
caractéristiques (sexe, âge, PCS...) qui font de lui un membre de la population étudiée. Enfin, il ne
doit pas interrompre le questionnaire en raccrochant en cours de route. Ces éléments font que la
durée usuelle d’un entretien téléphonique doit être proche de dix minutes et en tout cas inférieure à
quinze. Sur certaines populations en milieu industriel (cadres, médecins, PDG...) et à condition de
fixer préalablement un rendez-vous, on peut aller jusqu’à 30 minutes mais le taux d’abandon
s’élève sensiblement.
Le développement de la technologie Internet a permis la généralisation du couplage informatique /
téléphone en diminuant les coûts par rapport aux enquêtes téléphoniques simples. Cette forme
d’enquête disparaît donc progressivement au profit du CATI.
Les automates d’appel se sont généralisés, et l’intégration du son (qui permet par exemple de faire
écouter des messages radio) se développe(305).
By
Le faible coût relatif des entretiens par téléphone permet d’interroger des échantillons importants.
Néanmoins, les évolutions récentes du paysage téléphonique en France introduisent de nouvelles
difficultés. La baisse du taux d’équipement en téléphone filaire, l’augmentation du nombre de foyers
équipés exclusivement de téléphones mobiles et le dégroupage, qui aboutit à la multiplication des
annuaires concurrents de celui d'Orange (ex-France Télécom), biaisent la représentativité des
échantillons téléphoniques issus des annuaires. Enfin, le développement du télémarketing
accompagne une baisse progressive mais marquée des taux de réponse aux enquêtes téléphoniques.
D. Enquêtes en ligne
Le taux de pénétration d’Internet(306) a permis le développement des études en ligne. Le terme
« enquête en ligne » regroupe un ensemble de pratiques assez hétérogènes. Pour la préparation et
l’administration du terrain, on va de l’envoi d’e-mails incluant le questionnaire au CAWI
(Computer Assisted Web Interviewing). Les logiciels de développement d’enquêtes en ligne ayant
beaucoup progressé, ce type d’enquête domine aujourd’hui. On parle plutôt de CASI dans ce cas. S
signifie Self puisque l’auto-administration du questionnaire sur Internet s’est généralisée.
Les particularités de l’enquête en ligne se trouvent essentiellement à trois niveaux : la préparation
du terrain, la conception du questionnaire et l’administration du terrain(307). Les points forts et les
points faibles de ce type d’enquête sont résumés dans la figure 10.6.
Figure 10.6. Points forts et points faibles des enquêtes en ligne
qualitativement différente de la population générale. Elle est plus jeune, plus masculine, plus
urbaine, mieux éduquée et plus à l’aise financièrement. Des sociétés de location d’adresses
By
\/|
$|
4$
By
Fiche technique 10.1. Types d’enquêtes sur Internet
Aptitude au contrôle
Type
du de l’identité Explications
d’enquête
questionnaire du répondant
Un fichier texte (ASCII)
que le répondant modifie
en mettant des croix à des
E-mail Faible Faible à moyen
endroits spécifiés ou en
répondant à des questions
ouvertes
Le répondant clique sur le
document attaché, et
E-mail avec pièce
Fort Faible à moyen remplit le questionnaire
jointe en HTML
HTML (ouvert sous
\/| navigateur Web)
En cliquant sur le fichier
$|
E-mail avec (.exe), le répondant ouvre
Fort Moyen à fort
fichier exécutable un programme qui le guide
4$
à travers un questionnaire
By
Source : FROST F., « Internet et les études de marché », Revue française du marketing,
nos 77/178, 2000, pp. 169-185.
\/|
$|
4$
By
Figure 10.7. Comparaison des méthodes d’administration
\/|
$|
4$
By
– Les méthodes postales ne permettent que des stimuli de type visuel (image, photographie).
– Le CASI offre la plus grande richesse : images, photographies, musique, vidéos.
By
sociodémographiques courantes (plus jeunes, urbains, éduqués, meilleurs revenus). Mais, surtout,
ils en diffèrent sur des variables attitudinales (plus grande confiance sociale, meilleur contrôle
By
f. Taux de réponse
D’une manière générale, le taux d’acceptation moyen d’un questionnaire tend à baisser ces
dernières années, quelle que soit la technique employée ; l’enquête en face-à-face est probablement
la plus touchée. Comme le montre la figure 10.8., les taux de réponse dépendent largement du mode
\/|
d’administration(311).
$|
4$
By
Figure 10.8 Comparaison de l’acceptation des modes d’administration
Enquêtes en face-à-face
Elles génèrent aujourd’hui un taux moyen de réponse d’environ 50 à 60 %. La généralisation d’un
sentiment d’insécurité, notamment en région parisienne et dans les grandes villes, diminue
sensiblement le taux d’acceptation de ce mode d’enquête. Par ailleurs, de plus en plus souvent,
l’enquêteur ne peut pénétrer dans les immeubles, à cause des codes électroniques. Enfin, la
multiplication des ventes déguisées, annoncées comme des « sondages d’opinion », a accru la
méfiance des répondants éventuels.
Enquêtes téléphoniques
Le taux de réponse a très fortement chuté depuis quelques années. L’explication réside
probablement dans la multiplication des opérations de vente par téléphone qui saturent la
disponibilité des répondants. Il faut aussi garder à l’esprit que certaines professions (PDG, cadres
supérieurs, enseignants, professions libérales) s’inscrivent de plus en plus en « liste rouge »
(absence de mention dans l’annuaire) ou en liste « orange » (interdiction d’usage commercial), ce
qui conduit à de sévères biais d’échantillonnage.
Enquêtes postales
Sur fichier, le taux de retour est extrêmement variable : selon le thème de l’étude et selon la
population visée, on passe de 5-6 % à 40-50 %. Une fourchette plus restreinte donne un intervalle
fréquemment compris entre 10 et 20 %. La figure 10.9. évalue l’efficacité respective de différentes
solutions visant à accroître les taux de retour ; elle synthétise les principaux résultats de
nombreuses recherches (voir également le chapitre 9).
Figure 10.9. Variables susceptibles d’agir sur le taux de retour d’un questionnaire
Tirage au sort.
By
Deux inconvénients majeurs découlent de cette fluctuation. D’une part, le coût par questionnaire
utile varie dans le sens contraire du taux de retour : si celui-ci est faible, le coût est élevé. En tenant
compte des dépenses supplémentaires engagées pour améliorer le taux de retour (par exemple,
l’appel téléphonique préalable, l’enveloppe réponse, le cadeau « stimulant », l’appel de relance,
etc.), le coût total de l’enquête peut devenir très important. D’autre part, le biais induit par les non-
réponses est important : a-t-on le droit de considérer que les non-répondants sont strictement
comparables aux répondants ? Il y a, par exemple, de fortes chances pour que les répondants soient,
en moyenne, plus intéressés par le sujet de l’étude ou compétents dans le domaine que les autres.
Leurs réponses doivent donc être sujettes à caution.
Enquêtes en ligne
La nouveauté rend ce moyen efficace en termes de taux de retour. On peut aller jusqu’à 80 à 90 %
pour certaines enquêtes sur panels en accès libre. En moyenne, le taux se situe autour de 50 à 60 %.
Comme pour le téléphone, il y a un danger inhérent à la multiplication de ce type d’enquête. Cela
risque de saturer assez vite les répondants potentiels.
3. Existence de biais
a. Perception du caractère anonyme de l’enquête
Dans certains cas, le répondant maquille, volontairement ou non, ses réponses parce qu’il pense, à
tort ou à raison, que son anonymat risque de ne pas être complètement respecté. En l’absence
d’enquêteur, la perception de l’anonymat est forte, donc les enquêtes postales ou en ligne sont
intéressantes, par exemple pour des sujets « délicats » (consommation d’alcool...).
b. Biais de désirabilité sociale, obtention d’informations délicates
Ce risque est limité en l’absence d’enquêteur humain. Les enquêtes postales et, à un moindre degré,
le CAPI, sont à recommander si le sujet est à forte visibilité sociale.
c. Biais dû à l’enquêteur
L’apparence de l’enquêteur, ses manières, son empathie sont autant de facteurs intervenant dans la
qualité des réponses obtenues. Le risque est grand dans les méthodes en face-à-face (moindre pour
CAPI). Il est moyen dans les enquêtes téléphoniques : le timbre de voix, le ton, l’intonation peuvent
être des facteurs de blocage (le sourire « s’entend » au téléphone). Il est, évidemment, nul dans les
enquêtes postales et en ligne.
souvent sous-traitée auprès de sociétés spécialisées dans le « terrain ». Le réalisateur du terrain est
responsable de la qualité de ce dernier : il la vérifie par des contrôles spécifiques. Pour garantir ce
By
sérieux, quatre points sont importants : la sélection, la formation, le contrôle sur le terrain et
l’évaluation a posteriori des enquêteurs.
– ouverture et capacité d’empathie. La capacité à nouer des contacts rapidement avec des personnes
By
Exemple
« Bonjour Madame,
Je m’appelle XYZ et je réalise, avec l’institut ABC, une étude dont le but est de mieux
connaître les relations des Toulousains avec leurs commerçants.
Nous accordons une importance toute particulière à votre opinion, et nous aimerions
\/|
vous poser quelques questions à ce sujet. Cela ne nous prendra que quelques
$|
minutes. »
4$
4. Conclusion de l’entretien
On note ostensiblement les commentaires et remarques du répondant, s’il en formule ; on le
remercie de sa participation en rappelant l’importance des informations obtenues, et on n’oublie
pas le « au revoir » ou « bonne (fin de) journée ».
2. Qualité de l’échantillonnage
Les individus interrogés sont-ils ceux prévus à l’origine ? Assez souvent, les enquêteurs choisissent
la facilité : éviter certains quartiers, jouer avec les quotas (une personne de 58 ans sera reclassée
dans les 45-55) ; interroger celui qui est présent au foyer, plutôt que de rappeler plus tard ; etc.
3. Tricheries \/|
Des enquêteurs peu scrupuleux maquillent les réponses, complètent les questionnaires, par exemple
$|
en cas d’oubli de questions, voire remplissent eux-mêmes les questionnaires (on appelle cela le
4$
« bidonnage »). Quelques méthodes de contrôle (liste non exhaustive) sont présentées ci-après.
a. Rappel téléphonique
By
Un échantillon de personnes ayant rempli le questionnaire est tiré au sort. On affine le contrôle en
procédant à autant de tirages qu’il y a d’enquêteurs. Le prétexte du rappel peut être : « Madame,
vos réponses à l’étude XYZ ont retenu notre attention, nous aimerions juste revenir sur un point,
etc. »
b. Inspection visuelle
Là encore, on tire au sort quelques questionnaires pour chaque enquêteur. Le chargé d’études repère
assez vite les indices de bidonnage : profils de réponses cadencés (droite/gauche), croix en dehors
des cases prévues, oublis fréquents, etc.
c. Tests statistiques
On repère par tests statistiques, portant sur quelques questions, les enquêteurs qui ont interviewé un
trop grand nombre de répondants « déviants » par rapport à la moyenne des autres enquêteurs.
On admet qu’un bon contrôle représente jusqu’à 10 % du coût global du terrain. Ces contrôles ne
remplacent toutefois pas un bon réseau d’enquêteurs, correctement payés et formés.
Le pré-test permet de lever les ambiguïtés du questionnaire, de manière à ce que celui-ci puisse
être administré exactement de la même façon à tous les individus de l’échantillon. Nous avons vu
qu’il pouvait se subdiviser lui-même en trois étapes : un premier test auprès d’experts, un second
auprès d’individus appartenant à la cible, réalisé en face-à-face par des enquêteurs, et un troisième
dans les conditions exactes de l’administration définitive.
Les méthodes en face-à-face impliquent la présence d’un enquêteur en face de l’interviewé, parfois
assisté par un ordinateur (système CAPI). Les méthodes téléphoniques ont également bénéficié de
cette assistance par ordinateur (système CATI). L’enquête par courrier représente la troisième
famille de méthodes. Les enquêtes en ligne se sont très fortement développées dans le courant des
années 2000. Elles sont les plus rapides et les moins chères à mener, en dépit d’un défaut persistant
de représentativité des échantillons.
Le contrôle du terrain évalue la qualité de l’information recueillie. Il intervient à plusieurs
niveaux : sélection des enquêteurs, formation, contrôle du travail réalisé et évaluation a posteriori
des performances de ce dernier.
Au terme de l’administration du terrain, le chargé d’études dispose d’un volume considérable
d’informations brutes. Les traitements et analyses ont pour objet d’extraire de cette masse les
données les plus significatives. Les méthodes statistiques nécessaires feront l’objet des prochains
chapitres.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le pré-test intervient :
(1) pour préparer la rédaction du questionnaire
(2) pour vérifier que le questionnaire a bien été administré
(3) pour repérer les erreurs figurant dans le questionnaire
Q2. Les enquêtes CAPI sont :
(1) des enquêtes par courrier traitées par scanner
(2) l’administration de questionnaires directement par ordinateur
(3) des enquêtes téléphoniques menées par synthèse vocale
Q3. Qu’est-ce qui ne figure pas dans un envoi type d’enquête par courrier ?
(1) une lettre de présentation
(2) un « stimulant » pour encourager la personne à répondre
\/|
(3) une disquette sur laquelle figure le questionnaire
$|
4$
Q4. Dans quel type d’enquête la quantité d’information recueillie est-elle potentiellement la
plus importante ?
By
Bibliographie
CHURCHILL G. A. Jr et IACOBUCCI D., Marketing Research. Methodological Foundations, 10e éd.,
South Western, Mason : OH, 2010.
EVRARD Y., PRAS B., ROUX E. et DESMET P., Market : études et recherche en marketing, 4e éd.,
Paris, Dunod, 2009.
FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2002.
GIDEON L. (coord.), The Handbook of Survey Methodology in Social Sciences, New York,
Springer-Verlag, 2012.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, 1988.
HAIR J. F. Jr et al., Multivariate Data Analysis, 7e éd., Pearson Education, 2008.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e éd., Paris, Dunod, 2011.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 9e éd., ESF Éditeur-Entreprise
moderne d’édition, 1989.
TASHAKKORI A. et TEDDLIE C., Handbook of Mixed Methods in Social and Behavioral Research,
Sage, 2003.
Webographie \/|
http://www.syntec-etudes.com/Default/5/219/551/Default.aspx?lid=5
$|
4$
http://www.websm.org/
http://cmoresearch.com/
By
http://www.marketing-etudes-guide.fr/wp-content/uploads/2012/contenu.pdf
http://www.e-marketing.fr/
http://www.eurofins.fr/marketing-research.aspx
http://www.marketresearchworld.net/index.php?option=com_content&task=view&id=2114
http://www.surveystore.info/surveymag_online.asp
Chapitre 11
Analyses de base
La raison consiste à analyser les choses et à les élaborer.
ÉPICTÈTE
Le terrain étant achevé, le chargé d’études se retrouve avec une masse d’information brute. Celle-ci
doit être traitée, de manière à pouvoir répondre clairement aux questions posées lors de la
définition des objectifs.
Les analyses prennent des formes plus ou moins complexes : seules les plus simples seront
présentées dans ce chapitre. \/|
Nous verrons, dans un premier temps, comment préparer l’information, de manière à faciliter son
$|
analyse.
4$
Puis nous montrerons, dans un second temps, comment construire des tableaux de distribution de
fréquences.
By
Nous terminerons en présentant les calculs statistiques élémentaires associés aux tableaux de
distribution de fréquences.
La figure 11.1. retrace ces différentes étapes.
Figure 11.1. Plan du chapitre
\/|
$|
4$
By
\/|
$|
4$
By
D’un point de vue statistique, les variables peuvent être « qualitatives » ou « quantitatives » et,
pour ces dernières, discrètes ou continues.
By
(312)
Figure 11.2. Exemple de tableau de données brutes (312)
\/|
$|
1 – Variable qualitative : les différentes modalités représentent des « qualités » de l’objet étudié et
4$
s’expriment sous forme littéraire. Par exemple, la nationalité est une variable qualitative car
l’information recherchée est « française », « italienne », « européenne », ou autre. À ce niveau,
By
l’exprimer sous forme de chiffre serait une absurdité même si cette information peut être codée
ensuite pour faciliter les traitements. Des exemples seront présentés plus loin. Le niveau de mesure
des variables qualitatives est au mieux ordinal, par exemple une préférence, et la plupart du temps
nominal.
2 – Variable quantitative : les différentes modalités sont directement mesurables par un nombre ou
une unité physique, monétaire... Par exemple, la taille, le revenu, les quantités consommées. Le
niveau de mesure d’une variable quantitative est intrinsèquement métrique. Il faut toutefois prendre
garde à présenter l’information de manière à ce que cette propriété puisse être utilisée. Une
variable quantitative peut être discrète ou continue :
– Discrète (ou discontinue) : les seules valeurs possibles sont des valeurs entières. La mesure est
un chiffre rond, sans virgule : par exemple, le nombre d’enfants, le nombre de salariés. Attention, la
nature discrète de l’information s’apprécie au moment de la collecte comme une caractéristique
« naturelle » de l’individu étudié. Un couple ne peut avoir que 0, 1 ou 2 enfants (ou plus). Une
valeur décimale serait une absurdité. Il faut bien distinguer cet état des informations de synthèse
calculées ensuite à partir des informations disponibles pour l’ensemble des individus. Il n’est plus
absurde de dire que dans l’échantillon le nombre moyen d’enfants par foyer est de 1,83 (voir la
partie III de ce chapitre).
– Continue : les valeurs possibles sont infinies au sein d’un intervalle donné. Par exemple, la
vitesse d’une voiture, l’âge d’une personne... Évidemment, la notion d’infini est ici théorique.
L’unité de mesure utilisée limite en pratique le nombre de réponses possibles. Elles restent, quoi
qu’il en soit, potentiellement beaucoup plus nombreuses que pour les variables discrètes.
1. Variables qualitatives
Le cas le plus simple est celui d’une variable qualitative dichotomique. Une telle variable ne prend
que deux modalités, celles-ci marquant l’appartenance de l’objet étudié à une classe définie au
préalable. Reprenons la variable S1, tirée de la figure 11.2., qui a servi à classer les individus
interrogés selon leur sexe. Les deux modalités sont codifiées selon la norme de l’Insee : 1 pour les
hommes, 2 pour les femmes. On compte le nombre d’apparitions de chacune des deux modalités de
cette suite, puis on les regroupe dans un tableau de synthèse (voir la figure 11.3.).
Figure 11.3. Regroupement des observations par modalité de la variable
Chaque « bâton » correspond à une occurrence de la modalité dans la colonne S1. Il suffit, une fois
l’opération achevée, de compter, pour chaque modalité, le nombre de bâtons. L’opération est bien
By
sûr fastidieuse si l’échantillon est de grande taille. Les logiciels spécialisés réalisent
automatiquement cette opération. La figure 11.3. montre que l’échantillon interrogé comprend
9 individus de sexe masculin et 11 de sexe féminin.
En l’état, ces chiffres n’ont pas grande signification. Pour les rendre plus parlants, on exprime, en
proportion ou en pourcentage, l’importance relative de chacune des modalités par rapport à la taille
de l’échantillon. Chaque modalité possède donc une fréquence relative d’apparition dans
l’échantillon. Nous présentons les détails de ce calcul dans la fiche technique 11.2. La figure 11.4.
présente les résultats obtenus. On a, par cette opération, construit ce que les statisticiens appellent
le tableau de distribution de fréquences(313).
Figure 11.4. Distribution des fréquences d’une variable qualitative dichotomique
2 – Exemple
En reprenant les chiffres de la figure 11.4, on obtient la fréquence :
Et
On vérifie que :
Exemple
By
Soit la variable I1 sur l’extrait de questionnaire figurant dans la fiche technique 11.1. :
« Pour protéger l’environnement, je suis prêt à utiliser une lessive sans phosphates. »
Une échelle de Likert en cinq points enregistre le degré d’accord des répondants.
Bien que le degré d’accord soit un phénomène psychologique continu par nature, ce
type d’échelle prend une forme discrète. Les réponses possibles sont en nombre limité,
correspondant aux points d’ancrage indiqués sur l’échelle. Ces repères sont
assimilables aux modalités d’une variable qualitative. D’où le tableau de distribution
de fréquences (figure 11.5) bâti avec les données de la colonne I1 de la figure 11.2.
Figure 11.5. Tri à plat d’une variable quantitative discrète
Si l’on traite une série de chiffres d’affaires sur un échantillon de 200 entreprises, il
By
est possible d’avoir 200 réponses différentes. Nous obtiendrions donc un tableau de
distribution de fréquences de 200 lignes, avec un effectif de 1 correspondant à chacun
des chiffres d’affaires cités. On se rend compte immédiatement que l’effort
d’organisation et de synthèse est réduit à néant !
La difficulté est de créer des classes pertinentes. Il faut notamment prêter attention au nombre de
classes, à leur amplitude (i.e. la distance entre les limites de la classe) ainsi qu’au choix des limites
de ces classes(314). Le nombre de classes à retenir dépend essentiellement du nombre d’observations
et doit être un compromis entre trop et pas assez d’informations. En général, on retient entre 3 et
6 classes. Les amplitudes de classes sont choisies en fonction de l’étendue globale de la série
étudiée. Les limites de classes peuvent être fixées de manière à ce que le centre de classe, qui par
la suite représentera l’ensemble des observations de cette classe, soit un nombre entier(315). Ce n’est
pas obligatoire, mais cela facilite les calculs si on ne dispose pas d’outil performant. Il faut éviter
les classes à effectif nul et aboutir à un découpage qui reflète du mieux possible la réalité de la
répartition des observations « dans la nature ».
Exemple
La figure 11.6. présente les effectifs pour 2009 des vingt plus importantes entreprises
iséroises du secteur commerce-distribution. La différence entre les deux effectifs
extrêmes est de 4 658 personnes. Compte tenu de la petite taille de l’échantillon trois
classes suffisent. Compte tenu de la forte hétérogénéité des observations, il faut opter
pour des classes d’amplitude inégale. Nous aboutissons ainsi à la distribution de
fréquences de la deuxième partie de la figure 11.6.
Par convention, la limite inférieure d’une classe est fermée, tandis que sa limite
supérieure est ouverte. Par exemple, le premier intervalle de classe exclut la
valeur 500. Si une observation avait pris cette valeur exacte, elle aurait été classée
dans le second intervalle.
Le tri à plat est souvent la première opération à mener, sur chacune des variables, lorsque l’on
commence à analyser les résultats d’une enquête. Mais il ne permet pas d’analyser les relations
entre variables. Par exemple, on peut se demander si le rapport bénéfice net sur effectif varie avec
le secteur d’activité, ou si l’intention d’utiliser une lessive sans phosphates est plus marquée chez
les jeunes que chez les personnes âgées. Le tri croisé permet de répondre à ces questions.
\/|
Figure 11.6. Série brute de chiffres d’affaires et distribution de fréquences
$|
4$
1. Construction
Croiser deux variables revient à construire un tableau à double entrée, que l’on nomme tableau de
distribution de fréquences croisées, ou tableau de contingence. L’expression courante est « faire un
tri croisé ».
Cette opération implique le comptage du nombre d’occurrences de tous les couples possibles de
modalités des deux variables concernées. Par exemple, croiser les variables âge (S2) et sexe (S1)
de la figure 11.2. donne dix couples de modalités possibles. Pour en avoir une vision synthétique,
on les dispose dans un tableau à double entrée, comme dans la figure 11.7.
Les étapes de construction d’un tableau de contingence sont les suivantes :
Figure 11.7. Construction d’un tableau de contingence
\/|
$|
4$
By
Il est difficile de pousser plus loin l’analyse sur ces seules distributions marginales. On passe
ensuite à la lecture des pourcentages figurant dans les cellules du tableau. Cette lecture et
l’interprétation de ces pourcentages se font différemment selon que l’on se réfère aux totaux des
lignes ou des colonnes.
Exemple
Considérons la colonne no 3 de la figure 11.8. : elle correspond à la classe d’âge de
35 à 44 ans. Par rapport au total de ligne, on doit lire : « Sur les neuf personnes de
sexe masculin, une, soit 11 %, appartient à la classe d’âge 35 à 44 ans. » Par rapport
au total de colonne, on lit : « Sur les quatre personnes âgées de 35 à 44 ans, une, soit
25 %, est de sexe masculin. » Dans le premier cas, on s’aperçoit que la tranche d’âge
considérée est largement sous-représentée chez les hommes, alors que la tranche 45-
60 ans est, elle, très surreprésentée. Dans le second cas, on constate que les hommes
sont très sous-représentés dans la tranche d’âge 35 à 44 ans.
Imaginons que cette répartition soit celle de la population française. En termes
marketing, les implications sont différentes selon que l’on s’intéresse à l’une ou l’autre
des variables. Par exemple, si la cible privilégiée est masculine, on s’aperçoit qu’il
vaut mieux adapter son action à une clientèle relativement âgée. Si la cible privilégiée
est la tranche des 35 à 44 ans, il est préférable, dans ce cas, de « viser » plus finement
une clientèle féminine.
Nous avons jusqu’ici appris comment synthétiser de l’information brute, en la faisant passer du
\/|
questionnaire au tableau de dépouillement, puis au tableau de distribution de fréquences, simples ou
croisées. Nous allons maintenant franchir un pas supplémentaire en étudiant par quels moyens on
$|
peut réduire l’étude d’une série de nombres à deux ou trois indicateurs chiffrés au maximum.
4$
By
A. Moyenne
La moyenne est la mesure de tendance centrale la plus courante : elle indique, en un seul chiffre, le
point d’équilibre d’une série statistique. Son calcul diffère légèrement selon le mode de
présentation des données : nous distinguerons le cas où les informations se présentent sous forme de
série brute et le cas où elles sont réparties par modalité ou en classes.
b. Exemple illustratif
Le Mémento du tourisme, édité par le ministère du Tourisme, donne le nombre de chambres d’hôtel
\/|
pour chaque région française. Nous avons extrait, de manière arbitraire, une série d’observations
$|
concernant six régions.
4$
Nord-
Champagne- Pas- Languedoc- Rhône-
Bretagne Aquitaine
Ardenne de- Roussillon Alpes
Calais
9 038 17 673 25 013 26 439 30 883 66 472
Source : Mémento du tourisme 2010, http://www.tourisme.gouv.fr/stat_etudes/memento/2010/memento2010-3-1b.pdf
Le nombre moyen de chambres d’hôtel offertes par ces six régions s’obtient de la manière
suivante :
\/|
En utilisant les propriétés de commutativité et d’associativité de la somme (et de la soustraction), l’expression
ci-dessus devient :
$|
4$
Soit :
By
Et :
3 – Exemple
Appliquons cette procédure à nos observations. La moyenne est de 29 253. On a :
9 038 – 29 253 = – 20 215
17 673 – 29 253 = – 11 580
25 013 – 29 253 = – 4 240
26 439 – 29 253 = – 2 814
30 883 – 29 253 = + 1 630
66 472 – 29 253 = + 37 219
Cet exemple montre que la moyenne représente le milieu de la série exprimé en valeur cumulée des
observations, ce qui autorise un déséquilibre par rapport au nombre des observations qu’elle partage.
b. Interprétation de la moyenne
Au-delà de la perte de précision liée à la transformation en classes, la moyenne souffre de deux
limites importantes. Elle est sensible aux observations extrêmes et elle ne tient pas compte de la
répartition des observations dans l’espace.
Exemple
By
La moyenne obtenue avec les chiffres de six régions était de 29 253 chambres (voir
figure 11.9.). Enlevons l’observation Rhône-Alpes, dont la valeur est très supérieure
aux autres. La moyenne devient :
Soit une baisse de 25,45 % de sa valeur alors que nous n’avons ôté que 16,7 % des
observations (1/6).
B. Variance et écart-type
1. Variance
La variance donne une connaissance de la distance entre chaque point et la moyenne. On distingue
le cas des séries brutes et celui des séries transformées en classes.
Formule de calcul
La variance d’une population (σ2) est égale à :
\/|
Avec : xi = valeur de l’observation i
$|
N = nombre total d’individus dans la population
4$
Capacité hôtelière
By
Formule de calcul
Si les données sont groupées dans un tableau de fréquences, les formules de calculs restent très
proches du cas précédent. Pour une série continue transformée en classes sur une population de
taille N :
Exemple
La figure 11.12. reprend les effectifs d’entreprises. Elle est complétée par une colonne
ni(ci – μ)2. On a pris μ = 625 en considérant que l’on n’avait que ces données à
disposition. La variance de la variable est donc égale à :
\/|
$|
4$
By
2. Écart-type
La variance a un inconvénient majeur : elle s’exprime dans une unité difficilement interprétable. En
effet, elle représente un nombre élevé au carré. Pour pallier cet inconvénient, et retrouver l’échelle
de départ, il faut « éliminer » l’effet du carré.
a. Formule de calcul
L’écart-type (σ) correspond simplement à la racine carrée de la variance.
– Cas d’une série simple
Exemple
– L’écart-type de l’offre hôtelière des six régions françaises (figure 11.11.) est égal à :
Comme nous avons tout exprimé en milliers de chambres, l’écart-type est en réalité de
18 058 chambres. \/|
Interprétation : l’écart moyen observé entre les offres hôtelières des régions (en
$|
nombre de chambres) et l’offre hôtelière moyenne dans la série est de
4$
18 058 chambres.
– L’écart-type des effectifs des entreprises (figure 11.12.) est égal à :
By
Interprétation : l’écart moyen observé entre les effectifs des entreprises et l’effectif
moyen dans la série est de 815,8584 collaborateurs.
b. Interprétation
L’exemple montre que l’écart-type s’interprète comme la distance moyenne entre les observations
de la série et sa tendance centrale, exprimée par la moyenne. Pris isolément, il est malheureusement
peu parlant. Le coefficient de variation permet d’enrichir le contenu en information de l’écart-type.
C. Coefficient de variation
L’importance de la dispersion d’une série peut s’évaluer de manière relative en rapportant l’écart-
type à la valeur de la moyenne. Ceci élimine l’effet de l’unité de mesure et permet des
comparaisons entre variables sur une même population, ainsi qu’entre populations pour des
variables identiques. Ce paramètre est appelé « coefficient de variation ».
Le coefficient de variation (CV) se calcule de la manière suivante :
Pour l’exprimer en pourcentage, il suffit de multiplier le résultat par 100.
Exemple
Pour l’exemple des régions, le coefficient de variation des capacités hôtelières est
égal à :
Une série statistique est réputée dispersée si son CV dépasse 25 %. Il faut en conclure
ici que les six régions étudiées sont très différentes en termes d’offre hôtelière. Que ce
soit pour le tourisme ou les affaires c’est un indicateur important de développement
économique.
Pour l’exemple des entreprises, le coefficient de variation est égal à :
\/|
$|
On voit ici que l’impact de la première entreprise (Go Sport), dont l’effectif est très
4$
supérieur aux autres, a été important. La moyenne a été tirée vers le haut et bon nombre
d’entreprises à l’effectif relativement homogène autour de 150 personnes s’en sont
By
Conclusion
Nous avons vu comment décrire et synthétiser une distribution statistique. Un préalable important
consiste à construire le tableau de dépouillement pour rassembler l’information éparse dans les
questionnaires. Le plus souvent, les individus forment les lignes de ce tableau, et les variables
représentent les colonnes.
L’élaboration du tableau de distribution de fréquences constitue un deuxième niveau de synthèse. Il
permet d’évaluer l’importance relative de chaque modalité dans l’ensemble des réponses. Le
tableau de contingence, troisième étape de l’analyse descriptive, met en évidence les éventuels
liens entre paires de variables.
Une dernière opération permet de résumer la distribution des différentes variables, selon le niveau
de mesure de cette dernière. Dans le cas d’une mesure de niveau métrique, on peut calculer deux
indices descriptifs simples : la moyenne, statistique de tendance centrale, et l’écart-type, statistique
de dispersion.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le tableau de dépouillement est :
(1) la synthèse de l’information issue des questionnaires
(2) le plan de codage du questionnaire
(3) l’ensemble des statistiques calculées sur les données
Q2. La fréquence relative d’une modalité est :
(1) l’effectif associé à chaque modalité d’une question
(2) la proportion d’individus ayant choisi cette modalité
(3) l’effectif moyen pour toutes les modalités
Q3. Faire un tri croisé consiste à :
(1) compter le nombre d’apparitions de tous les couples de modalités de 2 variables
(2) calculer les fréquences relatives de 2 variables, puis les comparer
\/|
(3) trier les questionnaires selon certaines caractéristiques des individus
$|
4$
Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. C. et STEPHAN D. F., Basic Business Statistics,
12e éd., Paris, Pearson Global Edition, 2011.
BOURSIN J.-L. et DURU G., Statistique, 2e éd., Vuibert Gestion, 1995.
MALHOTRA N., DÉCAUDIN J. M., BOUGUERRA A et BORIÈS D., Études marketing avec SPSS, 6e éd.,
Paris, Pearson Education France, 2014.
PY B., La statistique sans formules mathématiques, 3e édition, Paris, Pearson Education, 2013.
TRIBOUT B., Statistique pour économistes et gestionnaires, 2e édition, Paris, Pearson Education
France, 2013.
\/|
$|
4$
By
Chapitre 12
Tests statistiques
Les faits sont têtus. Il est plus facile de s’arranger avec les statistiques.
M. TWAIN
À ce stade de l’étude, l’analyste se pose encore une multitude de questions. En particulier, il peut
souhaiter formuler une conclusion objective sur la valeur d’un résultat. Par exemple, d’après les
données du recensement, la répartition par sexe de la population des 20 à 74 ans dans un
département est de 49,78 % pour les hommes et de 50,22 % pour les femmes. Supposons que l’on
ait sélectionné un échantillon dans cette population et que la répartition observée soit
respectivement 48,36 % et 51,64 %. Que doit-on conclure : que l’échantillon n’est pas représentatif
\/|
de la population sur ce critère et que les femmes sont surreprésentées, ou que les différences
$|
observées peuvent être négligées ?
4$
Les tests statistiques permettent de répondre objectivement à ce type de question. S’il en existe une
grande quantité, leur procédure de mise en œuvre est identique(318). Nous les présenterons en
By
fonction du nombre de variables prises en compte. La première partie abordera les tests portant sur
une variable, tandis que la seconde sera consacrée aux tests comparant deux variables (voir
figure 12.1.).
Figure 12.1. Plan du chapitre
\/|
$|
4$
By
A. Tests d’ajustement
Ces tests évaluent la différence entre une ou plusieurs valeur(s) observé(s) et une ou plusieurs
valeurs(s) « standard(s) » (également qualifiée(s) d’« attendue(s) » ou « théorique(s) ») pour le
phénomène étudié. Seule la nature des données détermine le choix du test. Nous présenterons ici,
respectivement, le test du chi-deux (χ2) d’ajustement à une distribution d’effectifs, le test en t
d’ajustement à une moyenne, le test binomial et le test unilatéral de Kolmogorov-Smirnov. Le test
en z d’ajustement à une proportion est présenté et illustré dans le guide statistique en ligne.
On montre que si H0 est vraie, les valeurs prises par la grandeur ci-dessus suivent une loi statistique dite du χ 2
(se prononce « qui deux ») à k – 1 degrés de liberté.
By
3 – Règles de décision
Le test compare la valeur χ 2calculé à la valeur critique χ 2tabulé lue dans la table de la loi du χ 2, pour un seuil de
risque α et k – 1 degrés de liberté.
Si tcalculé > ttabulé : on rejette H0, avec un risque d’erreur α (donc on accepte H1).
Si tcalculé ≤ ttabulé : on ne peut pas rejeter H0.
Pour un risque α donné, χ 2tabulé est ainsi la valeur maximum tolérable si l’on suppose que H0 est vraie.
4 – Limites
Ce test est très dépendant de la taille d’échantillon. Si celle-ci est petite, les écarts observés seront faibles, et
H0 sera rarement rejetée. À l’inverse, un très gros échantillon conduira à un rejet systématique de H0. Par
ailleurs, les effectifs attendus doivent être au moins égaux à 1 pour chaque modalité, sinon la valeur de
\/|
χ 2calculé augmente artificiellement. La validité du test est également remise en cause si 20 % ou plus des
$|
effectifs attendus sont inférieurs à 5. Pour satisfaire cette condition, on ne doit pas hésiter à regrouper les
4$
* Principe de calcul de l’effectif théorique : (fréquence réelle de la PCS dans la population mère) × (effectif total de
l’échantillon). Soit, pour les agriculteurs : 3,95 = 0,01011 × 391.
\/|
Nous constatons des écarts entre les effectifs observés dans l’échantillon, et ce qu’ils
$|
devraient être si la répartition par PCS était, dans ce dernier, strictement identique à
4$
Avec :
μ 0 = moyenne attendue,
n = taille de l’échantillon.
By
8 54
9 53
By
10 52
Le test est unilatéral : on souhaite que les ventes soient supérieures à 50 réservations
hebdomadaires par agence.
Les hypothèses sont alors :
H0 : μ ≤ 50
H0 : μ > 50
La moyenne et l’écart-type d’échantillon sont respectivement :
On admet que la distribution des ventes dans la population des agences suit une loi normale.
Compte tenu de la taille d’échantillon, c’est un test en t qui s’applique. La valeur calculée de la
statistique du test est :
Au seuil α = 5 %, et pour un nombre de degrés de liberté égal à 9, la valeur critique de t lue dans la
table est : ttabulé = 1,833. On vérifie la condition tcalculé > ttabulé et H0 doit être rejetée. Nous
concluons par conséquent, avec un risque d’erreur de 5 %, que la moyenne hebdomadaire des
réservations sera supérieure à 50 dans la population des agences. Le tour opérateur peut prendre la
décision d’inclure le produit à son catalogue général.
Les tests présentés jusqu’ici portaient sur une seule variable et un seul échantillon. Nous allons
maintenant envisager la comparaison de résultats obtenus sur deux échantillons différents, pour une
même variable.
3. Test binomial
a. Contraintes d’utilisation
Le test binomial s’applique à des variables nominales dichotomiques qui segmentent une population
en deux catégories complémentaires de type « succès » et « échec ». Si π est la proportion de
« succès » dans la population, alors 1 – π est la proportion d’« échecs ».
\/|
Ce type de phénomène est en principe décrit par une loi binomiale mais peut être approché par une
$|
loi normale dès que la taille d’échantillon devient assez grande. Il n’y a pas de norme, car cette
4$
taille et la valeur de p, la proportion de « succès » observée dans l’échantillon, sont liées. Il existe
une table spécifique pour les cas où n ≤ 35, mais certains auteurs admettent l’utilisation de
By
b. Objectifs et principes
Dans son fonctionnement et sa logique, ce test est comparable au test d’ajustement en z à une
proportion (guide statistique en ligne). Sa loi statistique de référence est la loi normale centrée-
réduite. La fiche technique 12.3. expose son fonctionnement.
Fiche technique 12.3. Test binomial
1 – Hypothèses et principes
En général, on fixe les hypothèses en référence à une valeur connue de population ou, en l’absence d’information
spécifique, à l’équiprobabilité des succès et des échecs dans la population (« 50 / 50 »). Dans ce cas, les
hypothèses du test s’écriront :
H0 : π = 0,5
H0 : π ≠ 0,5
Si l’on dispose d’une valeur de référence pour la population, les hypothèses deviennent :
H0 : π = π0
H0 : π ≠ π0
Avec π0 représentant la valeur de référence (par exemple 0,52 pour la proportion d’hommes dans la population
française).
Le test peut également être unilatéral.
2 – Formule de calcul
La statistique du test est :
Le fait d’ajouter ou de retrancher 0,5 à x est appelé « correction de continuité ». Elle tient compte du fait que l’on
utilise une loi normale (donc continue) pour décrire des phénomènes en réalité discrets (voire binaires dans ce
By
cas). En appliquant la correction, on raisonne sur un intervalle de valeurs pour x et non pas sur une valeur exacte
qui, dans le cas d’une loi continue, n’a pas grand intérêt.
3 – Règles de décision
Elles sont identiques à celles du test en z développé dans le guide statistique en ligne, soit :
Rejet de H0 si zcalculé > ztabulé
Non-rejet de H0 si zcalculé ≤ ztabulé
On renverse ces relations pour des valeurs négatives de z.
La table statistique de référence est celle de la loi normale centrée-réduite pour une valeur fixée du seuil de
risque α. Si ce seuil est fixé, classiquement, à 5 % alors ztabulé = ± 1,96 pour un test bilatéral et ztabulé =
± 1,645 pour un test unilatéral.
Exemple
Les statistiques de l’Insee montrent que 19 % des 15-24 ans ne vont jamais au cinéma.
Une enquête a été réalisée auprès d’un échantillon d’étudiants de moins de 25 ans dans
une université du sillon alpin. Leur fréquentation du cinéma est donnée ci-dessous. Les
valeurs expriment le nombre d’individus. Par exemple : 19 personnes de sexe
masculin ne vont jamais au cinéma.
Figure 12.4. Fréquentation du cinéma en fonction du sexe
Sexe
Total
Masculin Féminin
0 19 30 49
Fréquence de 1 49 112 161
consommation 2 15 28 43
(nombre de fois 3 4 5 9
par mois)
4 6 \/| 6 12
5 4 0 4
$|
Total 97 181 278
4$
By
Peut-on dire que la population des étudiants de cette université fréquente davantage le cinéma que
la population française dans cette classe d’âge ?
La mesure d’origine est métrique mais peut facilement être rendue binaire. On appellera x = 0 un
« succès » (i.e. le fait de ne jamais aller au cinéma) et x ≠ 0 un « échec ».
Comme il s’agit de montrer que la population de référence (celle dont provient l’échantillon) a un
comportement différent de la population française, dans le sens d’une plus grande fréquentation, le
test va être unilatéral et les hypothèses s’écrivent :
H0 : π ≤ 0,19
H1 : π > 0,19
Le sens des inégalités n’est pas indifférent. Il rappelle que la « théorie » testée est celle que donne
H1. Le contraire, que l’on cherche à rejeter, figure par conséquent en H0.
En l’absence d’informations liées au seuil de risque, on s’en tient au conventionnel α = 0,05.
Il s’agit maintenant de calculer la proportion p de « succès » dans l’échantillon. Comme
49 étudiants sur 278 ont répondu ne jamais aller au cinéma, on a p = 49/278 = 0,1763.
La taille d’échantillon permet de s’orienter d’emblée vers une approximation normale du test. En
effet np = 278 × 0,1763 = 49,1 et n(1 – p) = 278 × 0,8237 = 228,99 sont bien supérieurs à 5. De
même, np(1 – p) = 278 × 0,1763 × 0,8237 = 40,37 est supérieur à 9.
Dans ces conditions, la valeur calculée de la statistique du test est :
La valeur calculée du test est supérieure à sa valeur critique (– 1,645). Cela conduit à ne pas rejeter
H0. Il est par conséquent impossible de conclure que la population des étudiants de cette université
fréquente davantage le cinéma que la population française, pour cette classe d’âge.
Il faut toutefois remarquer que la conclusion est sujette à caution puisque les statistiques de l’Insee
globalisent les 15-24 ans alors que la population des étudiants est majoritairement composée de 18-
25 ans. Des données segmentées plus finement et/ou redressées seraient donc nécessaires.
Rien n’empêche d’en faire un test unilatéral mais, en pratique, ce test s’applique le plus souvent avec une logique
bilatérale.
2 – Formule de calcul
La statistique du test est :
D = max| F |
thi – Foi
Avec :
Fo = fréquence cumulée observée à la modalité i
i
Fth = fréquence cumulée attendue à la modalité i
i
\/|
Calculer D revient à identifier la modalité (ou la classe) pour laquelle les deux distributions montrent la plus
$|
grande divergence.
4$
Certains logiciels proposent une approximation normale de la statistique du test. Elle se calcule par
(http://faculty.chass.ncsu.edu/garson/PA765/kolmo.htm) :
By
3 – Règles de décision
Si H0 est vraie, la distribution d’échantillonnage de D est connue. Pour les petits échantillons ses valeurs
critiques sont données dans une table spécifique (Siegel et Castellan, 1988). Elles dépendent uniquement de α et
de n. Il n’y a pas de notion de degré de liberté dans ce cas. Les règles de décision sont :
Rejet de H0 si Dcalculé > Dtabulé
Non-rejet de H0 si Dcalculé ≤ Dtabulé
Pour les échantillons de taille supérieure à n = 35, on compare D à une grandeur variant en fonction de α et de n.
Il s’agit d’un rapport dont le numérateur dépend de α et dont le dénominateur est la racine carrée de la taille
Rejet de H0 si
Non-rejet de H0 si .
Si l’on utilise l’approximation normale, les règles de décision sont identiques à celles du test binomial.
Exemple
Deux messages publicitaires A et B sont testés auprès d’un échantillon de
200 répondants, à qui on demande de comparer les deux messages sur une échelle en
cinq points. Si les deux messages sont équivalents, le plus probable est que la
répartition des réponses sera identique entre les préférences pour A et les préférences
pour B.
L’hypothèse nulle pose donc que la distribution de fréquences attendue est uniforme,
c’est-à-dire que les deux messages ont un effet identique. L’alternative dit le contraire,
c’est-à-dire que la distribution théorique n’est pas uniforme, donc que les deux
messages ont un effet différent.
Les deux distributions de fréquences sont données dans le tableau ci-après.
Figure 12.5. Effet comparé de deux messages publicitaires
La valeur calculée de D est la plus grande des différences observées entre la fréquence cumulée
observée et la fréquence cumulée théorique. Elle est exprimée en valeur absolue. Ici, D = 0,3.
Le test étant bilatéral, la valeur critique de z pour α = 0,05 est égale à 1,96. À nouveau on constate
que zcalculé > ztabulé, donc on rejette H0.
Abordons maintenant les tests relatifs à la comparaison de résultats observés sur deux échantillons.
b. Objectifs et principes
Ce test est utilisé dans un grand nombre de méthodes d’analyse de données, telles que l’analyse de
régression (chapitres 13 et 14) ou l’analyse de variance (chapitre 15). Il est également utilisé pour
vérifier les conditions d’application du test en t de différences de moyennes.
\/|
$|
Il consiste à comparer deux variances calculées sur deux échantillons, en partant du principe
(hypothèse nulle) qu’elles sont égales dans la population.
4$
By
Fiche technique 12.5. Test en F de comparaison de variances
1 – Hypothèses et principes
Contrairement à la plupart des tests, le rejet de H0 n’est pas forcément l’objectif principal. C’est le cas, par
exemple, dans un test en t de différences de moyennes (voir ci-après)
2 – Formule de calcul
La statistique du test est :
Où : est la variance d’échantillon no 1 (i.e. estimateur sans biais de la variance de la variable dans la sous-
population 1)
est la variance d’échantillon no 2 (i.e. estimateur sans biais de la variance de la variable dans la sous-
population 2)
Rappel :
\/|
$|
La distribution d’échantillonnage de cette statistique suit une loi de Fisher-Snedecor à n1 – 1 et n2 – 1 degrés de
4$
liberté.
Avec : n1 = taille de l’échantillon 1
By
n2 = taille de l’échantillon 2
3 – Règles de décision
On rejette H0 si Fcalculé > Ftabulé.
La valeur Ftabulé est lue dans la table de Fisher-Snedecor (table 5 du panorama téléchargeable) pour α fixé et n1
– 1 et n2 – 1 degrés de liberté.
Exemples
On a mesuré l’attrait pour le risque en contexte touristique auprès d’un échantillon de
303 individus. L’une des propositions était : « J’aime aller en vacances dans des pays
où il y a du danger (terrorisme, guerre, volcans, climat...) » Les réponses étaient
recueillies sur une échelle de Likert en sept points, de 1 = « pas du tout d’accord » à
7 = « tout à fait d’accord ». On souhaite savoir si les hommes et les femmes se
distinguent sur cette proposition. Pour cela, il faut effectuer un test de différence de
moyennes (voir section 2 ci-après). L’une des contraintes d’utilisation de ce test est
l’égalité des variances de population pour la variable étudiée.
Autrement dit, il faut pouvoir estimer que la variance de cette variable d’attrait pour le
risque dans la population des femmes est la même que dans la population des hommes.
On fait donc appel au test en F, en posant comme hypothèses :
Sexe n X s
\/|
$|
Masculin 148 1,60 1,313
4$
Valeur calculée de F :
La table de la loi de Fisher se présente généralement en deux blocs, l’un pour α = 0,025 et l’autre
pour α = 0,05, soit un test bilatéral et un test unilatéral. La valeur critique du test se lit à
l’intersection de la colonne correspondant au degré de liberté du numérateur et de la ligne
correspondant au degré de liberté du dénominateur. Ici le test est bilatéral, donc α = 0,025. On lit à
l’intersection des lignes 100 et 200 et des colonnes 100 et 200 car les valeurs exactes (147 et 154,
respectivement, au numérateur et au dénominateur) ne figurent pas dans la table.
Pour s’éviter une fastidieuse interpolation linéaire, on va considérer ici que les deux degrés de
liberté sont égaux à 150 et on va retenir la valeur moyenne des quatre chiffres reportés ci-dessous.
La moyenne de 1,48, 1,42, 1,39 et 1,32 est égale à 1,4025. C’est la valeur Ftabulé.
On a Fcalculé ≤ Ftabulé, ce qui amène à ne pas pouvoir rejeter H0. Dans la population, les deux
variances peuvent ainsi être considérées comme égales.
populations définies par le critère de regroupement (e.g. le genre). Il existe différentes variantes du
test selon :
By
– la connaissance préalable des variances de population : en marketing, c’est très rarement le cas,
donc nous n’aborderons pas cette variante ;
– l’égalité des variances de population : le test repose sur cette contrainte. Si elle n’est pas
respectée, on doit utiliser un test adapté ;
– la nature des échantillons : ils peuvent être indépendants ou appariés. Dans ce second cas, on
utilise également un test adapté.
b. Objectifs et principes
Les résultats de tests de différences permettent d’arbitrer entre plusieurs choix marketing. Par
exemple, un chef de produit hésite entre deux packagings ; il dispose des résultats d’un marché-test,
où les deux conditionnements en concurrence ont été évalués. Les chiffres d’affaires sont
légèrement différents. Peut-il dire que l’écart observé entre les deux résultats est significatif ? La
fiche technique 12.6. présente les différents tests de différences de moyennes.
Fiche technique 12.6. Tests de différences de moyennes
1 – Hypothèses et principes
Rappel : on part du principe que les variances des populations sont inconnues.
Le tableau ci-dessous résume les différentes situations et le test à retenir dans chaque cas :
Échantillons
Indépendants Appariés
Égales Test no 1 Test no 3
Variances
Différentes Test no 2
Le choix entre les tests no 1 et no 2 s’effectue à l’issue d’un test de comparaison de variances (voir
ci-dessus). Si le test est non significatif (i.e. non-rejet de H0), les variances sont égales et le test
no 1 s’applique. Dans le cas contraire, on utilise le test no 2.
2 – Test no 1 : échantillons indépendants, variances de populations supposées égales
\/|
Deux échantillons sont indépendants si les individus ont été répartis de manière aléatoire dans ces
$|
derniers.
4$
Puisque les variances des deux populations sont égales, on peut combiner les deux variances
d’échantillon, pour former un estimateur de la variance de population :
Avec : = variance d’échantillon no 1
= variance d’échantillon no 2
Pour décider si le test est significatif, on compare la valeur du tcalculé à la valeur critique lue dans la
table de Student, au seuil α, pour n1 + n2 – 2 degrés de liberté.
Si tcalculé > ttabulé, on rejette H0 et on conclut à l’existence d’une différence significative dans la
population entre les deux moyennes.
Si tcalculé ≤ ttabulé, on ne peut pas rejeter H0 (i.e. absence de différence entre les deux moyennes).
3 – Test no 2 : échantillons indépendants, variances de populations différentes
\/|
$|
La règle de décision à l’égard des hypothèses est alors :
4$
Rejet de H0 si :
By
Avec :
t1 = valeur critique de t au seuil α pour n1 – 1 degrés de liberté,
t2 = valeur critique de t au seuil α pour n2 – 1 degrés de liberté.
Exemples
4$
1. Test no 1
Dans une étude sur la sensibilité à la protection de l’environnement, on a testé
l’intention d’« Utiliser systématiquement les poubelles publiques » (quand on se
promène dans la rue) sur une échelle de Likert à 7 postes. On veut montrer que
l’intention moyenne est plus élevée chez les femmes que chez les hommes. Le test est
donc unilatéral et les hypothèses sont :
H0 : μF ≤ μH
H1 : μF > μH
Dans l’échantillon total de taille n = 388, on identifie les femmes (nF = 196) et les
hommes (nH = 192), que l’on peut considérer comme deux échantillons issus de
populations indépendantes.
Les moyennes et écarts-types d’échantillons sont :
Femmes : XF = 5,3214 ; sF = 1,107
Hommes : XF = 5,2656 ; sF = 1,037
L’estimateur de la variance commune est égal à :
Et le tcalculé devient :
Pour 386 degrés de liberté (196 + 192 – 2 = 386) et le test étant unilatéral, la valeur
critique du test au seuil α = 5 %, lue dans la table de Student est de 1,645.
Nous sommes dans la situation tcalculé ≤ ttabulé qui ne permet pas de rejeter H0. Il faut en
conclure qu’il est impossible de mettre en évidence une différence d’intention entre les
hommes et les femmes dans la population.
2. Test no 3
Un chef de produit souhaite tester l’effet d’un nouveau packaging sur les ventes d’un
détachant pour le linge. Un échantillon aléatoire de 20 supermarchés est constitué, puis
scindé en deux sous-échantillons de 10 unités chacun, couplés sur la base, entre autres,
de leurs ventes hebdomadaires et de diverses caractéristiques sociodémographiques
des résidents de la zone de chalandise des magasins. L’un des magasins de chaque
\/|
couple propose le produit dans son nouveau packaging, tandis que l’autre magasin
$|
présente le produit dans l’ancien packaging. Les ventes enregistrées lors du test (en
milliers d’unités vendues) sont indiquées dans la figure 12.6. Les différences
4$
On a ttabulé = 1,8331 (valeur lue dans la table de Student pour α = 5 % et 9 degrés de liberté ; il
\/|
s’agit d’un test unilatéral). La valeur calculée étant supérieure à cette valeur critique, nous rejetons
H0. En supposant que l’environnement marketing (prix, promotion...) était identique pour les deux
$|
échantillons, nous pouvons conclure que le nouveau packaging est plus performant que l’ancien.
4$
a. Contraintes
Ce test ne s’applique qu’aux échantillons indépendants et de grande taille, issus de populations
elles-mêmes de taille très supérieure à celle des échantillons. Il s’applique à tout type de variable,
notamment nominale.
b. Principes et objectifs
Les principes du test sont donnés dans la fiche technique 12.7.
Fiche technique 12.7. Test de différences entre deux proportions
1 – Hypothèses
L’hypothèse nulle pose l’absence de différences entre les deux proportions de population :
Avec : \/|
$|
4$
où :
By
Et la statistique du test :
\/|
$|
Pour un test unilatéral, la valeur critique de z, lue dans la table de la loi normale
4$
Les tests que nous allons présenter maintenant appartiennent à la famille des tests non
paramétriques. Ils permettent d’évaluer des différences entre des scores observés avec de petits
échantillons (taille le plus souvent inférieure à 30 personnes) et sans faire d’hypothèses sur la
forme de la distribution de la variable dans la population mère. Certains supposent deux
échantillons indépendants, d’autres exigent deux échantillons appariés (ou des mesures répétées sur
un même échantillon).
Et : \/|
U = min(Ui ; Uj)
$|
où ni est l’effectif du groupe i, nj est l’effectif du groupe j et Ri est la somme des rangs des observations dans
4$
l’échantillon i (respectivement Rj est la somme des rangs des observations dans l’échantillon j).
En pratique, la statistique calcule combien de fois le rang des observations de l’échantillon i dépasse le rang des
By
observations de l’échantillon j.
On peut également vérifier la relation :
Ui = ninj – Uj
Ou
Ui + Uj = ninj
3 – Règles de décision
Pour les petits échantillons, il existe une table spécifique. Mais dès que ni, taille du groupe le plus petit, dépasse
10, on utilise une approximation normale :
On retranche 0,5 à U pour des probabilités liées à la partie gauche de la distribution (i.e. des valeurs négatives
de z) ou on ajoute 0,5 pour des probabilités liées à la partie droite de la distribution.
En pratique, on peut utiliser Ui ou Uj. En valeur absolue, z aura le même résultat. Il faut, dans ce cas, faire
attention aux conclusions surtout si le test est unilatéral.
4 – Test W de Wilcoxon
Il est strictement équivalent au test U de Mann-Whitney. Les deux statistiques se déduisent l’une de l’autre par
la relation :
\/|
$|
4$
By
Figure 12.7. Intentions de comportement, groupes expérimental et témoin
55 25,5
60 27,5
By
60 27,5
65 29,5
75 33,5
75 33,5
80 35,5
85 37
100 39,5
100 39,5
Somme 276 544
Moyenne 18,4 21,76
Le groupe expérimental compte 15 observations, pour 25 dans le groupe témoin. Les observations
sont d’abord classées par ordre croissant. On attribue ensuite un rang à chaque observation (ou
score) en n’oubliant pas de tenir compte des ex æquo. Par exemple, il y a trois individus ayant
répondu 10 %, deux dans le groupe expérimental, un dans le groupe témoin. Ces trois observations
occupent les rangs 1 à 3 mais comme elles sont identiques, on leur attribue un rang moyen égal à 2
(1 + 3/2 = 2). De même il y a deux observations à 25 % qui occupent les rangs 5 et 6, soit un rang
moyen de 5,5. Et ainsi de suite.
On dispose des tailles et des sommes des rangs pour les deux groupes. La statistique du test peut
être calculée :
On retient la plus petite des deux, soit U = 156. Comme la taille du groupe le plus petit est
supérieure à 10, l’usage de la table n’est plus possible. On se réfère alors à l’approximation
normale.
Comme 15 × 25/2 = 187,5 est plus grand que 156, la différence entre les deux va être négative et
l’on va se situer du côté négatif de la distribution. On retranche donc 0,5 à cette valeur, d’où le
\/|
155,5 dans l’équation.
$|
Si l’on revient à z, on constate que sa valeur calculée est supérieure à la valeur critique du test
(égale à – 1,96 pour un test bilatéral). Puisqu’on se situe du côté négatif de la distribution, on ne
peut pas rejeter H0.
On doit en conclure que les deux distributions ne se différencient pas dans la population et, par
conséquent, que le message n’a pas eu d’effet sur l’intention d’achat sur Internet.
b. Alternatives
Le test de la médiane et le test de Kolmogorov-Smirnov pour deux échantillons indépendants sont
des alternatives aux tests U et W. Ils sont considérés comme moins puissants, aussi ne les
présenterons-nous pas en détail. Le test de Kruskal-Wallis s’applique quand le nombre
d’échantillons dépasse 2, comme alternative à l’analyse de variance à un facteur (chapitre 15)(321).
Exemple
Mesure de l’efficacité d’une publicité
Un chef de publicité désire évaluer l’agrément de sa prochaine campagne de publicité.
Pour des raisons de temps, il n’a pu réunir qu’un échantillon de 10 personnes
appartenant à la cible. La qualité perçue de la marque est d’abord évaluée avant le
passage de la publicité, puis réévaluée après lecture du message. Elle est mesurée sur
une échelle à supports sémantiques, calibrée de 1 à 13. Un score de 13 signifie que la
qualité perçue est jugée excellente, 7 équivaut à une qualité moyenne et 1 à une qualité
extrêmement mauvaise. Les scores de la marque sont donnés dans la figure 12.8.
Figure 12.8. Qualité perçue d’une marque avant et après exposition à une publicité
Score Score Ap – Av =
Individu Rang Ri
avant (Av) après (Ap) Di
\/|
$|
1 6 9 3 8,5
4$
2 7 8 1 3
3 5 6 1 3
By
4 10 10 0 –
5 8 9 1 3
6 7 6 –1 3
7 9 11 2 6,5
8 11 8 –3 8,5
9 12 13 1 3
10 8 10 2 6,5
On calcule les différences Di entre le score après l’exposition au message publicitaire et le score
avant. On retient pour la suite de l’analyse les différences non nulles. On classe ces différences par
ordre croissant (la plus petite est classée au rang 1), en ne tenant pas compte du signe. Lorsque deux
différences (ou plus) ont la même valeur, on leur affecte le rang moyen correspondant à leur
position.
Ici, 5 différences ont une valeur de 1. Le rang moyen correspondant est 3 [i.e. (5 + 1)/2]. On
redémarre ensuite au rang 6. Comme deux différences ont un score de 2, cela équivaut aux rangs 6
et 7, d’où le rang moyen 6,5, et ainsi de suite. Ce classement figure dans la colonne Ri du tableau
ci-dessus.
On effectue enfin la somme des rangs des différences positives, ce qui donne la valeur du Wcalculé :
d’échantillon relativement grande, c’est-à-dire supérieure à 20. La valeur de zcalculé est donnée par
la formule suivante :
By
Après
– +
+ A B
Avant
– C D
Les signes + et – traduisent la nature de la réponse à la variable dépendante. Par exemple, une
évaluation positive ou négative sur une échelle d’attitude, une fréquence ou un montant
d’achat... Les lettres A, B, C et D désignent le nombre d’individus observés dans les cellules.
A, par exemple, représente le nombre d’individus qui avaient un jugement positif avant le
traitement et un jugement négatif après. D représente le nombre d’individus dont le jugement
était négatif avant le traitement et positif après. B et C représentent le nombre d’individus qui
\/|
n’ont pas changé de position à l’issue du traitement.
$|
Le test s’intéresse aux seuls individus ayant changé de position, en l’occurrence ceux des
4$
catégories A et D. L’hypothèse nulle stipule que le traitement n’a pas d’effet, c’est-à-dire que
le nombre de passages dans chaque sens est équivalent. Autrement dit, par rapport au nombre
By
Soit :
Pour tenir compte du fait que la distribution du χ2 est continue et que l’on s’intéresse ici à une
distribution purement discrète, on applique une correction dite de « continuité » et la
statistique du test devient :
3 – Règles de décision
Le nombre de degrés de liberté d’un tableau 2 × 2 est égal à 1. On compare donc le résultat du
calcul à une valeur critique qui, pour α = 0,05, sera toujours égale à 3,841. Les règles de
décision sont alors celles de tous les tests basés sur cette loi. En l’occurrence, le rejet de H0 si
χ2calculé > 3,841 pour α = 0,05.
Exemple
Dans le cadre d’un pré-test publicitaire pour un fabricant de savon M, on a mesuré la
préférence pour des marques de savon sur un échantillon de 35 individus. Les données
sont codées 1 si M est citée comme la marque préférée, 0 pour tout autre résultat. Les
\/|
sujets sont soumis au message en phase de calibration et on remesure leurs préférences
$|
pour les marques de savon quelque temps après. Voici les résultats :
4$
Après
By
0 1 Total
1 2 9 11
Avant
0 14 10 24
Total 16 19 35
A est égal à 2 : deux personnes préféraient M avant le message et une autre marque après ;
D est égal à 10 : dix personnes préféraient une autre marque avant le message et M après.
Les autres sujets n’ont pas changé d’opinion. En « théorie » (i.e. si H0 est « vraie », donc qu’il n’y a
pas d’effet du message) les effectifs des cases (1 ; 0) et (0 ; 1) auraient dû être de (2 + 10)/2 soit 6.
Dans ces conditions, la valeur calculée de la statistique du test est :
Cette valeur est supérieure à la valeur critique égale à 3,841, donc on rejette H0. On en conclut à
l’efficacité du message sur la préférence pour la marque.
Lorsque l’on est en présence de trois conditions expérimentales ou plus et que la réponse est
binaire, de type « succès » vs « échec », alors on utilise le test Q de Cochran, qui est une extension
du test de McNemar.
Nous venons de voir bon nombre de tests portant sur une seule variable. Nous allons maintenant
franchir une étape, en abordant la situation où deux variables sont traitées simultanément.
2. Contraintes
By
a. Échelle nominale
Ce test s’applique à des variables dont le niveau de mesure est nominal. Cette contrainte est faible,
puisqu’en matière de mesure « qui peut le plus, peut le moins » : une variable métrique ou ordinale
peut toujours être « dégradée » en variable nominale(323).
b. Tableaux de contingence
Le test nécessite la construction préalable d’un tableau de contingence. Le test de contingence du χ2
intervient donc nécessairement après un tri croisé.
B. Mode de calcul
La fiche technique 12.10. présente les différentes étapes de mise en œuvre du test de contingence du
chi-deux.
Avec :
oij : effectif observé dans la cellule (i, j) du tableau, \/|
tij : effectif attendu dans la cellule (i, j) du tableau.
$|
2 – Formule de calcul
4$
La valeur du χ 2calculé est comparée à une valeur critique, lue dans la table du χ 2 (table 4 téléchargeable) :
C. Exemple d’application
1) Situation du problème
Imaginons qu’un tour opérateur veuille segmenter son marché. Il se demande s’il existe un lien entre
le type de destination de vacances d’hiver et la catégorie socioprofessionnelle. Au sein d’un
échantillon représentatif de la population française en termes d’âge, de sexe et de PCS, on s’est
concentré sur trois types de destinations (mer, montagne et campagne) et deux regroupements de
PCS (PCS + = professions intellectuelles supérieures, professions libérales, cadres supérieurs et
professions intermédiaires ; PCS – = employés, ouvriers, agriculteurs). Le sous-échantillon
concerné est composé de 100 personnes.
2) Hypothèses
H0 : il n’y a pas de lien entre la PCS et le type de destination choisie pour les vacances d’hiver.
H1 : le type de destination choisie pour les vacances d’hiver dépend de la PCS.
3) Résultats
Le croisement des deux variables donne :
Figure 12.9. Choix d’une destination de vacances et niveau d’études
\/|
$|
4$
By
On constate, dans l’échantillon, que PCS + et PCS – ne se distinguent pas sur le choix d’une
destination montagne. Dans les deux cas, approximativement 75 % d’entre eux s’y rendent. En
revanche, les PCS + se tournent, en proportion, davantage vers une destination « mer » et les PCS –
davantage vers une destination « campagne ». Peut-on estimer que ces différences existent dans la
population ?
Signification
Valeur ddl
asymptotique
By
Le risque α est égal à 0,064 (ce que le logiciel appelle « signification asymptotique »). Ce calcul
est complexe puisqu’il fait appel au calcul intégral. On sait qu’en rejetant l’hypothèse
d’indépendance des deux variables on prend un risque d’erreur de 6,4 %. Même si l’on dépasse les
5 % habituels, on peut penser que les deux variables sont effectivement associées dans la
population.
5) Conclusion
Un prestataire touristique (TO, agence de voyage...) pourrait utiliser ce résultat en adaptant une
offre « tourisme rural » à des personnes aux revenus modestes. À l’inverse, on constate que ceux
qui font le choix d’un tourisme « balnéaire » hivernal sont issus de catégories socioprofessionnelles
globalement plus élevées.
D. Limites
Le test de contingence du χ2 permet de déceler une association entre deux variables. Au mieux, il
s’agit d’un lien de dépendance (l’association observée peut aussi être « fallacieuse », c’est-à-dire
due au hasard). Mais on ne peut en aucun cas conclure à une relation de cause à effet, sauf si la
collecte des données a été prévue en ce sens (i.e. plan expérimental rigoureux). Le chapitre 15
donnera plus de précisions à ce sujet.
En revanche, ce test, lorsqu’il est significatif, ne donne ni le sens ni l’intensité de la relation entre
les deux variables. Des calculs similaires à des coefficients de corrélation, adaptés aux variables
nominales, doivent être effectués (chapitre 13).
Conclusion
Ce chapitre, plutôt technique, complète logiquement le précédent. En effet, si les différentes
statistiques descriptives ne donnent pas d’idée sur la population mère d’où l’échantillon a été tiré,
comment généraliser, en minimisant le risque d’erreur, les résultats obtenus ?
Deux types de tests sont utilisables dans cette perspective. Certains s’utilisent lorsque les lois de
distribution des variables étudiées sont connues dans la population (on se ramène le plus souvent à
la loi Normale, la loi de Student, la loi du χ2 ou la loi de Fisher-Snedecor). On les appelle tests
paramétriques. D’autres tests interviennent lorsque ces lois ne sont pas connues et, plus
généralement, lorsque les conditions d’utilisation des tests paramétriques ne sont pas satisfaites.
\/|
Ces tests, qualifiés de non paramétriques, sont souvent utilisés avec des petits échantillons et/ou
$|
des mesures nominales ou ordinales.
4$
La figure 12.10. propose une synthèse des tests les plus connus et de leurs conditions d’utilisation.
Les tests paramétriques apparaissent en gras, les tests non paramétriques en maigre. Les tests en
By
texte plein sont traités en détail dans le chapitre, ceux en italique ne sont que mentionnés.
Mais si les tests permettent des conclusions objectives sur le sens des résultats, ils ne remplacent
pas le jugement de l’analyste. En effet, celui-ci, compte tenu de son expérience du sujet, doit
pratiquer les tests sur les quelques variables jugées pertinentes : des tests systématiques, portant sur
toutes les combinaisons possibles de variables, n’auraient aucun sens.
Un bon nombre de tests statistiques usuels, paramétriques et non paramétriques a été passé en revue
dans ce chapitre : tests d’ajustement, tests de différence et tests d’association. Le test principal
d’association étudié, le test de contingence du χ2, a montré ses limites en ne donnant ni le sens ni
l’intensité de l’association. Le prochain chapitre a pour objectif de présenter des techniques
palliant ces lacunes.
Figure 12.10. Synthèse des principaux tests statistiques
\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Dans un test statistique, l’hypothèse nulle est :
(1) celle que l’on cherche généralement à rejeter
(2) celle que le chercheur désire valider
(3) celle qui correspond toujours à la réalité de la nature
Q2. La valeur critique d’un test est :
(1) le résultat obtenu au moyen de la formule de calcul
(2) une valeur que l’on considère comme fausse
(3) une valeur théorique lue dans une table qui fonde la décision sur H0
Q3. Le test d’ajustement du χ2 s’applique à des données :
(1) métriques
(2) nominales
\/|
$|
(3) ordinales
4$
(2) au hasard
(3) par paquets de deux
Q5. Le test du signe des rangs (Wilcoxon) vérifie que :
(1) deux échantillons indépendants sont issus de populations différentes
(2) deux échantillons indépendants sont issus de la même population
(3) deux échantillons appariés sont issus de la même population
Réponses : voir annexes téléchargeables sur www.vuibert.fr
Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LANG-MICHAUT C., Pratique des tests statistiques, Dunod, Paris, 1990.
LAPIN L. L., Statistics for Modern Business Decisions, 6e édition, The Dryden Press, New York,
1993.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
SIEGEL S. et CASTELLAN N. J. Jr, Nonparametric Statistics for the Behavioral Sciences, 2e éd.,
McGraw-Hill International, New York, 1988.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, 1991.
\/|
$|
4$
By
Chapitre 13
Le chargé d’études est fréquemment amené à analyser la façon dont plusieurs variables peuvent se
comporter les unes par rapport aux autres, en particulier en termes d’influences réciproques. Ce
chapitre se limite au cas des relations entre paires de variables. Le suivant généralisera à trois
variables ou plus. L’étude des relations entre variables est importante d’un point de vue marketing.
Par exemple : les quantités achetées sont-elles influencées par l’âge des clients ? Si oui, la relation
est-elle positive ou négative (les quantités achetées augmentent-elles ou baissent-elles quand l’âge
\/|
augmente) ? Quelle est l’intensité de cette relation : observe-t-on un quasi-parallélisme dans la
$|
façon dont les valeurs des deux variables varient, ou pas ?
4$
De nombreuses méthodes permettent de répondre aux questions posées ci-dessus. Leur choix
dépend avant tout du niveau de mesure des variables et de la nature de la relation, simple
By
association ou relation de dépendance, que l’on souhaite mettre en évidence. Nous présenterons
d’abord diverses mesures d’associations entre variables nominales, ordinales ou métriques (voir
figure 13.1.), puis l’analyse de régression, qui s’intéresse à une relation de dépendance entre
variables métriques(324).
Figure 13.1. Plan du chapitre
\/|
$|
4$
De nombreux coefficients permettent de calculer le sens et l’intensité d’une relation entre deux
variables. Leur « philosophie » et leur mode de calcul varient sensiblement selon la nature
(nominale, ordinale ou métrique) des mesures concernées.
1. Coefficient de contingence
Complémentaire à un test du χ2, ce coefficient s’applique aux tableaux de contingence de n’importe
quelle taille. Son expression est :
Exemple
Dans une étude sur les intentions d’adopter des comportements écologiques (n = 391),
on a croisé l’âge (3 classes) et l’intention d’utiliser une lessive sans phosphates
(échelle de Likert à 6 postes, regroupés en 3 modalités – faible, moyenne, forte). Le
\/|
χ2calculé est égal à 9,96. La valeur critique du test pour α = 5 % et 4 degrés de liberté
$|
est égale à 9,488 (table 4 téléchargeable). On peut, dès lors, calculer directement C :
4$
By
Corriger C pour que sa valeur maximale soit 1 revient à diviser C par Cmax. Dans
notre cas cela donne :
Cette valeur indique une relation faible entre les deux variables.
Exemple
Les lessives sans phosphates
Un chargé d’études veut tester l’association entre le niveau d’études, évalué par le
diplôme le plus élevé obtenu, et le fait de cotiser ou non à des associations liées à la
protection de l’environnement (e.g. WWF, Équipe Cousteau...). 385 questionnaires
exploitables ont été obtenus. La figure 13.2 donne le résultat du tri croisé.
Figure 13.2. Association entre l’âge et l’adhésion à des associations écologistes
\/|
Le χ2calculé pour ce tableau est égal à 9,3989 en utilisant la correction de continuité de
$|
Yates. Il est significatif puisque pour α = 5 % et ν = 1, χ2tabulé = 3,841. Le coefficient
4$
Φ sera donc de :
By
3. V de Cramer
Lorsque les tableaux de contingence sont de dimension supérieure à 2 × 2, le coefficient ø n’a plus
de limite supérieure. Le V de Cramer est une adaptation de ø à cette situation. Comparé à C, il
présente l’avantage de varier de 0 à 1. Il s’exprime par :
Dans le cas d’un tableau à deux lignes ou à deux colonnes, V et ø seront égaux.
Exemple
Dans une étude sur l’hospitalité perçue, on a demandé à 190 personnes de réagir à la
proposition suivante : « Pour que je me sente chez-moi quelque part, il faut que ce soit
un endroit qui me permette de décompresser ». La réaction a été recueillie sur une
échelle de Likert à cinq postes (1 = « pas du tout d’accord » à 5 = « tout à fait
d’accord »). Cette variable a été croisée avec le sexe. Le tableau résultant est :
Figure 13.3. Calcul du V de Cramer
À nouveau la relation n’est pas très intense. Le lien entre les deux variables est dû uniquement à la
répartition hommes/femmes dans les modalités 1 à 3 (pas d’accord ou neutre), inverse de celle
attendue si l’hypothèse nulle d’indépendance avait été vraie.
Exemple
Si l’on reprend le tableau de l’exemple précédent, soit avec le genre comme variable
à expliquer, on obtient :
Figure 13.4. Calcul du lambda de Goodman et Kruskal
\/|
« qui me permette de décompresser »
$|
1à3 4 5 Total
4$
Masculin 11 25 23 59
Sexe
By
Féminin 6 63 62 131
Total 17 88 85 190
Pour la première modalité de la variable à expliquer (« 1 à 3 »), l’effectif le plus grand est 11
(« masculin »). On lit ensuite respectivement 63 et 62. Le plus grand des effectifs totaux pour les
modalités de la variable à expliquer est 131. La valeur de lambda est donc :
Le fait de connaître le degré d’accord avec la proposition des répondants permet d’améliorer de
8,5 % la prédiction de leur genre.
Si l’on renverse le tableau et que la proposition « qui me permette de décompresser » devient la
variable à expliquer, on a :
Figure 13.4. bis. Calcul du lambda de Goodman et Kruskal
Et :
La connaissance du sexe des répondants ne permet pas d’améliorer la prédiction de leur degré
d’accord avec la proposition.
a. Calcul du rs de Spearman
La corrélation des rangs de Spearman, notée rs, suppose un nombre de classés ex aequo nul ou
réduit et une relation linéaire entre les deux variables. Le calcul de ce coefficient est illustré par un
cas sans ex aequo(325).
Les observations sont classées selon leur rang, pour les deux variables. La corrélation des rangs de
Spearman s’intéresse aux différences observées entre les rangs pour chaque observation. Si la
correspondance entre les deux variables est parfaite, le rang sera identique pour chacune des deux
variables xi et yi. Donc :
Le coefficient a été calibré pour être égal à 1 lorsque cette condition est remplie.
Pour éliminer l’influence du signe négatif, on élève les différences au carré et on en calcule la
somme pour l’ensemble des observations :
Cette grandeur est ensuite normée pour que ses valeurs soient comprises entre 0 et 1 :
Exemple
– Problème posé
À l’occasion d’un pré-test publicitaire, cinq films concurrents sont soumis à un
consommateur représentatif de la cible visée et à un expert du métier. On leur demande
de classer les cinq films (figure 13.5.). On s’interroge sur la convergence des
classements. Dans ce cas, la corrélation des rangs de Spearman peut s’appliquer.
Figure 13.5. Comparaison de classements de films
\/|
$|
4$
By
– Solution
Ici, n = 5 et .
En remplaçant dans l’expression précédente, on trouve :
– Interprétation et décision
Que penser de ce coefficient ? 0,6 est-il un chiffre important ? Dans l’absolu, il est
difficile de répondre à la question, puisque l’on travaille sur deux jugements
individuels seulement. Il aurait été préférable de travailler sur des rangs moyens
obtenus auprès d’échantillons de consommateurs et d’experts plus fournis.
Cette convergence existe-t-elle dans la population ? Répondre à cette question
suppose l’application d’un test statistique.
b. Test du rs de Spearman
Si les individus sont tirés au hasard, on teste l’hypothèse nulle d’indépendance des deux variables ;
ρs est l’estimateur dans la population de rs. Les hypothèses sont :
H0 : ρs = 0 (il n’y a pas d’association entre X et Y dans la population)
H1 : ρs ≠ 0 (il y a une association entre X et Y dans la population)
Exemple (suite)
n = 5, donc nous sommes dans ce cas. rs = 0,6. La valeur critique, au seuil α = 5 %
\/|
(test bilatéral), pour n = 5 est de 1. Cela signifie que, pour une taille d’échantillon
$|
aussi petite, et avec un tel seuil de risque, le coefficient observé doit être maximum si
4$
l’on veut inférer l’existence d’une relation dans la population. Donc, bien que la
corrélation soit élevée dans l’échantillon, il est impossible ici de faire cette inférence.
By
On montre dans ce cas que la statistique suit une loi de Student à n – 2 degrés de
liberté.
On compare la valeur calculée de la statistique ci-dessus à la valeur critique de t, au seuil α (test
bilatéral), pour n – 2 degrés de liberté. Les règles de décision sont identiques à celles exposées
pour les tests en t.
3e cas : n supérieur à 50
On peut se référer à une loi normale centrée-réduite et la statistique devient :
Les règles de décision sont les mêmes que pour un test d’ajustement à une proportion ou un test
binomial : on rejette H0 si zcalculé > ztabulé.
Rappel : pour α = 0,05, ztabulé = 1,96 si le test est bilatéral et 1,645 si le test est unilatéral.
a. Calcul de τb
\/|
$|
4$
Les cinq films de l’exemple précédent ont été classés par deux autres individus
(figure 13.6.) :
Figure 13.6. Classement de cinq films
Films F1 F2 F3 F4 F5
Consommateur 2 1 4 3 5
Expert 1 2 4 5 3
Films F2 F1 F4 F3 F5
Consommateur 1 2 3 4 5
Expert 2 1 5 4 3
Puis on compte, pour l’autre personne (l’expert), le nombre de paires de films où son classement
apparaît dans le même ordre que le consommateur, le nombre de paires où il apparaît dans un ordre
différent et le nombre de paires où l’un ou l’autre aurait des ex aequo (figure 13.6. ter). Rappelons
que le nombre de paires dans un ensemble de taille n quand l’ordre n’a pas d’importance (i.e. A –
B = B – A) est donné par . Par exemple, le consommateur classe le film 2 avant le film 1
alors que l’expert fait le contraire. Pour cette paire, le classement est divergent. Pour la paire
film 1-film 4, le classement est convergent puisque tous les deux classent le film 4 après le film 1
(peu importent les rangs précis). On fait la même chose avec toutes les paires possibles et l’on
compte le nombre de paires convergentes et le nombre de paires divergentes. Les paires où l’un ou
l’autre auraient classé deux films ex aequo ne seraient pas comptées.
Figure 13.6. ter. Calculs préparatoires au tau (τ) de Kendall
\/|
La formule du test est(326) :
$|
4$
By
Avec : C = ∑ c
D=∑d
UX = ∑ uX (ux – 1) ; UY = ∑ uY (uy – 1)
uX = uY = nombre de fois où une valeur x (ou y) apparaît. Par exemple, dans un échantillon de
6 observations, si une valeur x1 apparaît deux fois, une valeur x2 trois fois et une valeur x3 une fois
seulement,
UX = ∑ uX (ux – 1) = 2(2 – 1) + 3(3 – 1) + 1(1 – 1) = 8
Lorsque toutes les valeurs d’une série sont différentes, ce qui est le cas ici – 1, 2, 3, 4, 5 –, UX = 0.
Le résultat du calcul donne :
Bonneval- Arèches-
Stations La Norma Valfréjus
sur-Arc Beaufort
Kilomètres de
25 50 65 65
pistes
Lits touristiques 1 751 6 000 5 500 6 800
Il y a six paires de stations. Les classements convergent pour quatre d’entre elles, divergent pour
une et une paire n’est pas prise en compte parce que deux observations sont ex aequo pour l’une des
deux variables. \/|
Figure 13.7 bis. Calculs préparatoires au tau-b (τb) de Kendall
$|
4$
By
Il y a, dans cet échantillon, une association d’intensité moyenne entre la taille du domaine skiable et
la capacité d’hébergement touristique des stations.
Comment généraliser à la population ?
b. Test du τb
L’existence d’une relation entre les deux variables dans la population se teste de manière différente
selon la taille d’échantillon.
1er cas : n ≤ 30
La valeur de τb se compare à une valeur critique lue dans une table (table 7 téléchargeable). Les
règles de décision sont communes à beaucoup de tests : pour α donné, on rejette H0 si τb-calculé > τb-
tabulé.
Exemple (suite)
Le τb calculé pour les quatre stations est égal à 0,547. La valeur critique pour n = 4 lue
dans la table est égale à 1. On ne peut pas rejeter H0. Dans la population, les deux
séries sont considérées comme indépendantes. Pour cette taille d’échantillon on est
ainsi forcé d’admettre cette indépendance, sauf à avoir deux classements strictement
identiques dans l’échantillon. Dans ce cas, la valeur calculée de τb serait égale à 1.
2e cas : n > 30
La statistique : \/|
$|
4$
suit approximativement une loi normale centrée-réduite. La valeur calculée est ensuite comparée
By
aux valeurs critiques de z lues dans la table de cette loi. Les règles de décision ont été rappelées
plus haut dans ce chapitre.
c. Tau de Kendall ou rs de Spearman ?
En pratique, les résultats obtenus avec le rs de Spearman et le τb de Kendall conduisent
généralement à la même conclusion, notamment en termes de significativité. Cependant,
l’interprétation des coefficients n’est pas la même :
– Le rs de Spearman s’interprète comme le coefficient de corrélation linéaire, à ceci près que le
calcul est fait sur des rangs et non des scores bruts. Il indique donc le sens et l’intensité de la
relation entre deux variables.
– Le τb de Kendall indique la différence entre la probabilité que, pour les données observées, X et
Y soient dans le même ordre, et la probabilité que les données pour X et Y soient dans des ordres
différents.
Le choix entre les deux s’opère essentiellement sur la nature et la qualité des données : si la
relation étudiée est non linéaire et qu’il y a beaucoup d’ex aequo dans les rangs, alors il faut opter
pour le τb.
C. Corrélation r de Pearson
Le coefficient de corrélation linéaire (ou r de Pearson) est l’indicateur le plus utilisé pour évaluer
la direction et l’intensité d’une relation entre deux variables. Il mesure la distance qui sépare
chaque observation i, repérée par ses coordonnées xi et yi sur deux variables X et Y, des
coordonnées moyennes (X ; Y). Il est possible de tester la signification statistique de cet indicateur.
La fiche technique 13.1. récapitule la procédure à mettre en œuvre.
\/|
$|
4$
By
Fiche technique 13.1. Calcul et test d’un coefficient de corrélation r
1 – Principes
Le coefficient de corrélation est basé sur la moyenne de tous les produits de distances pour les n points de
l’échantillon, que l’on appelle covariance. Sur une population :
Notez que les ou utilisés pour le calcul de la covariance et des écarts-types s’annulent. De fait,
contrairement à la variance (ou à l’écart-type) le calcul de r (échantillon) ou de ρ (population) est identique.
\/|
Ce coefficient est compris entre – 1 et 1. Un signe positif indique que les deux variables évoluent dans le même
sens : une augmentation de l’une s’accompagne d’une augmentation de l’autre et inversement. Un signe négatif
$|
indique une variation opposée : l’une augmente, l’autre diminue ou inversement.
4$
Un coefficient proche de 1 en valeur absolue indique une très forte association. Le nuage de points est alors très
étiré, ressemblant à un cigare. Un coefficient proche de 0 est signe d’une très faible association. Dans ce cas, le
By
Exemple
L’échantillon de stations utilisé pour le τb de Kendall a été étoffé et compte dix
observations.
On ne sera pas regardant, ici, sur les conditions d’application du calcul. Avec une si
petite taille d’échantillon, un test de normalité est presque sûr d’échouer. La linéarité
de la relation peut s’analyser visuellement en reportant les valeurs des stations sur un
plan orthogonal :
Les calculs sont réalisés facilement à partir de la figure 13.8.
Figure 13.8. Équipement de dix stations
\/|
$|
4$
By
Les coefficients présentés jusqu’ici se limitent à explorer l’association entre variables. Lorsque le
résultat est significatif, le seul constat possible est l’existence d’une « variation concomitante » des
deux variables. Pour conclure à l’existence d’une relation de dépendance, il faut utiliser une
analyse de régression.
« modèle linéaire général ». Elle s’intéresse par conséquent à des relations linéaires entre
variables. Elle a deux objectifs principaux :
By
– confirmer empiriquement une relation de dépendance entre deux variables, dont on aura postulé
l’existence et la direction au plan théorique. Ce postulat se fait sous la forme d’une hypothèse, que
l’analyse de régression a pour but de tester. Par exemple : l’âge a un effet positif sur les dépenses
liées à la santé (i..e. plus on est âgé, plus on dépense). Cette méthode n’est pas un test statistique au
sens strict mais nous verrons plus loin que son utilisation implique le recours à au moins un test ;
– si cette relation est confirmée, évaluer son intensité et, corollairement, la « qualité » du modèle,
c’est-à-dire son pouvoir explicatif.
La procédure à mettre en œuvre se résume ainsi :
– distinguer, dans le couple de variables, la variable explicative (notée X) de la variable à
expliquer (notée Y) ;
– identifier le modèle mathématique qui exprime Y en fonction de X, par l’intermédiaire d’une
variable « reconstruite » (notée Ŷ). Les paramètres du modèle, c’est-à-dire les coefficients de
l’équation de régression, sont choisis de manière à ce que la somme des différences (Y – Ŷ)2 soit la
plus petite possible ;
– évaluer la qualité du modèle sur un triple plan(327) :
• théorique : le signe des coefficients (i.e. le sens de la relation) est-il celui attendu ? Quel est
l’ordre de grandeur de ces derniers ? etc. ;
• statistique : tests sur le caractère significatif des coefficients, sur le respect des hypothèses du
modèle. Calcul de la qualité de l’ajustement, etc. ;
• prédictif : quelle est la précision du modèle (i.e. quel est l’écart entre les valeurs prédites par le
modèle et celles réellement observées) ?
Un exemple permettra d’abord de détailler les procédures d’identification du modèle et les
caractéristiques de la relation entre les variables ; puis nous présenterons quelques applications de
l’analyse de régression.
Figure 13.10. Revenu et dépenses annuels pour les vacances (en euros)
Revenu Budget
By
21 000 1 000
20 500 1 100
23 000 1 200
27 000 1 300
25 500 1 400
28 000 1 600
26 500 1 700
30 000 1 900
29 000 2 000
31 000 2 200
L’observation « à l’œil nu » des données montre que plus le revenu augmente, plus les dépenses
pour les vacances augmentent. Cette impression visuelle est confirmée par le graphique en nuage de
points du phénomène, illustré par la figure 13.11.
Figure 13.11. Représentation de la relation entre revenu et budget vacances
La relation suggérée par le tableau de données apparaît sans nécessiter de calculs compliqués...
Pourtant un modèle mathématique, c’est-à-dire une équation, capable de reproduire, même
imparfaitement, les variations de l’une des variables en fonction de l’autre est très utile. Il permet
\/|
de représenter le phénomène pour des grosses bases de données où l’excès d’information brouille
$|
les représentations graphiques. Il permet également de « prédire » les valeurs d’une variable en
4$
2. Identification du modèle
By
La fiche technique 13.2. présente les différentes étapes nécessaires à l’identification du modèle de
régression : sélection des variables, vérification des conditions d’application, choix de l’équation
de régression, calculs des paramètres d’ajustement.
Écrire :
Y=Ŷ +e
By
revient à dire que pour chaque observation i l’erreur ei est la différence entre l’observation yi et la valeur ŷ i
calculée par l’équation ŷ i = a + bxi. Soit :
∀ i,ei = (yi - ŷ i)
Les points pouvant se situer de part et d’autre de la droite, les distances positives ont tendance à équilibrer les
Et :
a = Y – bX
Le numérateur de b est la covariance des deux variables (avant division par la taille d’échantillon). Le
dénominateur est le numérateur de la variance de X.
La corrélation est proche de 1, ce qui dénote une association très étroite dans l’échantillon.
By
La valeur critique de t pour α = 0,05 (attention, test bilatéral) et n – 2 = 8 degrés de liberté est égale
à 2,31 (table 3 téléchargeable). La valeur calculée du test étant supérieure à sa valeur critique, on
rejette l’hypothèse nulle et l’on en conclut que les deux variables sont corrélées dans la population
(au risque d’erreur α = 5 % près).
Le calcul des coefficients de la régression peut être poursuivi :
Et :
a = Y – bX = 1 540 – 0,1028 × 26 150 = – 1 148,22
L’équation de la droite qui « ajuste » au mieux le nuage de points de la figure 13.11. s’écrit :
Ŷ = – 1 148,22 + 0,1028 × X
4. Interprétation de la droite de régression
Comment interpréter a et b ?
– b est la pente de la droite, soit la variation de Y lorsque X augmente d’une unité. Quand le revenu
augmente d’un euro, le budget vacances augmente de 0,10 euro. Le signe de b étant positif, X et Y
varient dans le même sens. Un signe négatif induit une variation opposée : Y diminue quand X
augmente ou inversement.
– a est l’origine de la droite, c’est-à-dire la valeur prise par Y lorsque X = 0. Un ménage à revenu
nul aurait un budget vacances de – 1 148,22 euros. C’est bien sûr impossible, mais trois remarques
s’imposent :
• la relation entre les deux variables n’est linéaire que dans l’intervalle couvert par les données de
l’échantillon. Intégrer des revenus plus faibles et plus élevés aurait probablement montré des effets
de seuil (et une courbe en S plutôt qu’une droite) : en dessous d’un certain revenu le budget
vacances est 0 et, au-dessus, il finit par plafonner (en moyenne) ;
• des modèles de régression beaucoup plus sophistiqués que les moindres carrés ont été développés
(notamment non linéaires) pour tenter d’affiner la représentation des phénomènes étudiés ;
• un modèle de régression est avant tout une théorie donc une approximation, aussi bonne soit-elle.
Aucun modèle théorique, quelle que soit sa nature, ne peut prétendre représenter parfaitement une
réalité empirique (i.e. le monde « réel » dans lequel nous vivons).
\/|
Jusqu’à présent, e a été négligé. Sa valeur est un indicateur de « qualité » du modèle.
$|
4$
est une perte d’information : plus elle est faible, meilleur est le modèle dans sa capacité à
By
« prédire » Y à partir de X.
\/|
Toutefois, cette inspection graphique manque de finesse et, dans de nombreux cas, ne permet pas
$|
d’évaluer avec précision la qualité de l’ajustement. Le modèle utilisé est le meilleur possible, mais
4$
Elle est minimale pour la droite identifiée et représente la perte d’information résultant de la régression. Elle est
\/|
donc un premier indicateur de la qualité globale de cette dernière. Plus elle est faible, meilleure est la régression.
$|
4 – Calcul de la variation totale
La variation totale est l’information contenue dans la variable dépendante Y :
4$
By
– Application chiffrée
La figure 13.14. donne les informations permettant de calculer le R2 pour notre exemple.
Figure 13.14. Calculs des variations
\/|
Le modèle restitue 85,16 % de la variation qui était exprimée dans les données de départ. C’est un
$|
excellent résultat, pour trois raisons : la faible taille d’échantillon, le risque d’erreur (volontaire ou
4$
non) lié à la nature déclarative des données et l’existence potentielle d’autres facteurs explicatifs
des sommes dépensées annuellement pour les vacances.
By
3. Test F (Fisher-Snedecor)
Pour répondre à l’interrogation précédente, il est possible de procéder à un test statistique (test F)
pour évaluer la « qualité » du R2. La fiche technique 13.4. donne la marche à suivre.
Fiche technique 13.4. Mise en œuvre d’un test F (Fisher-Snedecor)
1 – Hypothèses et principes
Ce test est comparable à celui vu au chapitre 12. En cas de rejet de H0 il permet de conclure à la plausibilité de
l’existence du modèle dans la population. Dans ce cas, les paramètres de l’équation dans la population seraient
estimés par intervalle de confiance (voir chapitre 14). H0 postule l’égalité de la variance expliquée et de la
variance résiduelle. Le test calcule le rapport de ces deux variances et compare le résultat obtenu aux valeurs
critiques de la loi de Fisher-Snedecor. En cas de non-rejet de H0, l’interprétation des résultats, notamment du R2,
n’a pas grand intérêt.
2 – Formules de calcul
Il s’agit d’un rapport de variances. Jusque-là nous avons calculé des variations, qu’il faut maintenant diviser par
leurs degrés de liberté respectifs. Le degré de liberté de la variation expliquée est le nombre k de variables
explicatives. La variance expliquée est :
Le degré de liberté de la variation résiduelle est le nombre d’observations moins le nombre de variables
explicatives moins 1. La variance résiduelle est :
Le test en F examine le caractère significativement différent de 1, au seuil α fixé, et pour un nombre de degrés de
\/|
liberté donné (ici k et n – k – 1) de la statistique :
$|
4$
3 – Règles de décision
By
On compare la valeur calculée de F à sa valeur critique, lue dans la table de la loi en F au seuil α et pour k et (n –
k – 1) degrés de liberté. Plus F est supérieur à 1, meilleur est le modèle.
Si nous appliquons ces formules aux données de notre exemple, nous obtenons :
Et F égale :
La valeur critique de F, au seuil α = 5 %, pour 1 et 8 degrés de liberté, est égale à 5,32. Le Fcalculé
étant nettement supérieur, nous pouvons rejeter H0 et conclure que dans la population la variance
expliquée par le modèle est supérieure à sa variance résiduelle. Autrement dit, le revenu est bien un
facteur explicatif pertinent du budget vacances dans la population.
4. Autres indicateurs de qualité
Un troisième indicateur de qualité est l’erreur standard de la régression. On peut l’interpréter
comme une sorte d’erreur moyenne dans la prédiction de Y par l’équation de régression. Elle se
calcule comme la racine carrée de la variance résiduelle. Pour notre exemple, on obtient :
En moyenne le modèle commet une erreur de 165,94 euros en prédisant le budget vacances d’un
individu à partir de son revenu, soit 10,8 % de la moyenne de la variable, ce qui semble
relativement important.
Enfin, b est la valeur du coefficient de régression dans l’échantillon. Il faut tester si sa valeur β
dans la population est différente de 0, avec
H0 : β = 0
H1 : β ≠ 0
\/|
$|
La statistique du test est :
4$
By
Elle suit une loi de Student. La valeur calculée est donc à comparer à la valeur critique tα/2 ; n – 2 lue
dans la table. Ici elle est égale à 2,31 puisque le test est bilatéral.
Conclusion
Ce chapitre a présenté diverses mesures d’intensité de l’association entre deux variables. La
mesure de l’association entre variables nominales peut se faire au moyen du coefficient de
contingence (C), du coefficient ø destiné aux tables 2 × 2, du V de Cramer ou du λ de Goodman et
Kruskal. Lorsque l’on dispose de variables ordinales, la corrélation des rangs (rs) de Spearman ou
le tau-b (τb) de Kendall sont plus performants. Ce dernier doit être préféré lorsque la relation entre
les deux variables n’est pas linéaire ou lorsqu’il y a de nombreux ex aequo dans les rangs des
observations. Lorsque les variables sont purement métriques et ont des distributions normales, c’est
la corrélation (r) de Pearson qui s’applique.
L’analyse de régression complète la corrélation de Pearson par le test d’un éventuel lien de
dépendance entre deux variables métriques. L’une des deux est définie comme la variable à
expliquer, ou variable dépendante. Les différences observées entre ses valeurs dépendent de
l’influence de l’autre variable, appelée variable explicative, ou indépendante. On cherche à
identifier l’équation d’une droite qui exprime la variable à expliquer en fonction de la variable
explicative, en minimisant la perte d’information. Grâce à cette équation, on évalue la qualité de
l’ajustement réalisé, à partir du coefficient de détermination (R2) et d’un test en F.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’analyse de régression vise à :
(1) évaluer l’association entre deux variables ordinales
(2) expliquer les variations d’une variable métrique
(3) représenter graphiquement la relation entre deux variables
Q2. L’un des indicateurs de la qualité d’une régression est :
(1) le coefficient de corrélation linéaire (r de Pearson)
(2) le test d’ajustement du χ2 \/|
(3) le R2
$|
4$
Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
JOHNSTON J., Méthodes économétriques, vol. 1, Economica, Paris, 1985.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LAMBIN J.-J., La recherche marketing, McGraw-Hill, Paris, 1990.
LAPIN L. L., Statistics for Modern Business Decisions, 6e édition, The Dryden Press, New York,
1993.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for the Behavioral Sciences, 2e éd.,
McGraw-Hill International, New York, 1988.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.
\/|
$|
4$
By
Chapitre 14
Analyses multivariées
Les faits sont têtus. Il est plus facile de s'arranger avec les statistiques.
MARK TWAIN
À l’issue des analyses menées dans les chapitres 10 à 13, de nombreuses questions restent posées.
L’analyse de régression menée dans le chapitre précédent a montré que le revenu est un déterminant
clé des dépenses consacrées aux vacances. Plus précisément, 85,16 % de la variation totale de
cette variable sont expliqués par le revenu. C’est un excellent résultat, mais qui laisse en suspens un
certain nombre de questions. Que se passe-t-il, notamment, si l’on inclut des variables telles que
« nombre d’enfants au foyer » ou « motivation à partir en voyage » ? Par ailleurs, un tri croisé a mis
\/|
en évidence une relation entre l’âge et l’intention d’utiliser une lessive sans phosphates. Pourrait-on
$|
affiner cette analyse en prenant en compte d’autres variables ?
4$
Dans une étude de marché, l’information brute est volumineuse. Fréquemment, l’interprétation
s’améliore si l’on « traite » plus de deux variables à la fois : c’est le domaine de l’analyse
By
multivariée. L’intérêt commun de ces méthodes est d’accepter une petite perte d’information pour
obtenir une meilleure compréhension du phénomène. Elles diffèrent les unes des autres sur trois
points : objectifs, type d’information traité et manière de présenter les résultats.
Nous dresserons un panorama des familles de méthodes multivariées, puis nous verrons
successivement : l’analyse factorielle, l’analyse des correspondances, l’analyse typologique,
l’analyse des similarités, l’analyse de régression multiple et l’analyse discriminante (voir
figure 14.1.). Pour chaque méthode, l’objectif recherché, la nature des données nécessaires et des
exemples seront présentés.
Figure 14.1. Plan du chapitre
\/|
$|
4$
By
(329)
Figure 14.2. Classement des méthodes selon l’objectif et la nature des variables (329)
C’est le tableau le plus simple, qui se présente sous une forme individus/variables. Par exemple,
By
dans la figure 14.3., l’individu no 2 est de sexe masculin et âgé de 25 ans. De manière plus
générale, la valeur xij représente l’information fournie par l’individu i pour la variable j. Lire ce
tableau implique de savoir comment les variables ont été codées (e.g. dans la nomenclature Insee, 1
désigne invariablement le genre masculin). Les symboles utilisés sont des conventions de notation
assez largement utilisées (k pour le nombre de variables (quelquefois p ou q), n pour la taille
d’échantillon, i pour l’indice repérant une ligne, j pour l’indice repérant une colonne.
Figure 14.3. Exemple de tableau de données brutes
2. Tableau de contingence
C’est un extrait synthétique du tableau des données brutes : l’information est agrégée, au lieu
d’être disponible individu par individu. Il résulte du tri croisé de deux variables, d’où une forme
variable/variable. La figure 14.4. en donne un exemple : dans cet échantillon (de taille n),
245 individus sont à la fois de niveau d’éducation secondaire et de profession supérieure. La
valeur nij donne le nombre d’individus présentant la modalité i pour la variable en ligne et la
modalité j pour la variable en colonne.
Figure 14.4. Exemple de tableau de contingence
3. Tableau de distances
Il présente des distances (réelles ou perçues) entre objets étudiés, sur une, deux ou plusieurs
variables. Alors que le tableau de contingence agrège les individus pour s’intéresser aux variables,
le tableau de distances agrège les variables pour se préoccuper des individus, d’où sa forme
\/|
individus/individus.
$|
La figure 14.5. donne, dans sa partie gauche, les scores de cinq individus sur deux variables. La
4$
première est l’âge donné en années, la seconde est une mesure d’attrait pour le risque sur une
échelle de Likert à cinq postes. Dans la partie droite, figure la matrice de distances entre les
By
individus qui en résulte. Il existe plusieurs façons de calculer des distances entre individus. Ici,
nous avons utilisé la plus courante. Nous reviendrons sur ce point et donnerons les techniques de
calcul en présentant l’analyse typologique.
Figure 14.5. Exemple de tableau de distances (données fictives)
La distance entre Alain et Bernard est de 1,320. La méthode de calcul utilisée a fait disparaître les
unités de mesure. Cela facilite la comparaison entre les individus sans privilégier l’une ou l’autre
des variables dans le calcul. Il est bien sûr possible d’utiliser plus de deux variables, mais la
quantité de calculs à faire augmente très vite. La particularité d’un tel tableau est la symétrie autour
de sa diagonale, dont les éléments sont égaux à 0. La distance entre un objet et lui-même est en effet
nulle. De même, l’ordre n’a pas d’importance ; la distance entre Alain et Bernard est la même
qu’entre Bernard et Alain. Les valeurs du triangle supérieur sont donc identiques à celles du
triangle inférieur. Une valeur dij indique, de manière générale, la distance entre les individus i et j.
\/|
$|
4$
By
Nous allons maintenant présenter les méthodes d’analyse multivariée les plus courantes.
L’amour est un concept dont l’ontologie (i.e. la « réalité ») n’a pas manqué d’interpeller l’humanité
au cours des derniers millénaires. Il est en tout cas bien documenté dans la littérature et son
« existence » fait l’objet d’un consensus assez large. Malheureusement, aucune IRM ne montrera
jamais l’amour. Au mieux, on peut en voir des conséquences (telle ou telle zone du cerveau
« s’allume »). En analyse factorielle, on représente une telle variable par une forme ronde ou ovale.
Il s’agit bien d’une variable car les individus diffèrent les uns des autres sur le « degré » d’amour
éprouvé pour quelqu’un / quelque chose. Ses manifestations sont représentées par des rectangles.
\/|
Ici le nombre de manifestations potentielles de l’amour n’est évidemment pas exhaustif. Chaque
$|
variable observée est la résultante de ce « facteur » caché et d’autres sources de « variation »,
4$
comme en analyse de régression. Les variables observées partagent toutes une information
commune, dont la source est le facteur.
By
Dans l’autre cas, la perspective théorique est absente. On part d’un ensemble de variables
observées sans s’interroger sur leur(s) déterminant(s) commun(s), et l’on cherche simplement à
résumer l’information qu’elles contiennent dans un plus petit nombre de variables de synthèse. On
va ensuite interpréter la signification de ces dernières en fonction de critères purement statistiques.
La figure 14.8. illustre cette perspective.
Figure 14.8. Modèle d’analyse en composantes principales
Dans cette perspective, le développement économique est un facteur dont l’existence est due à
une pure construction intellectuelle et qui n’a pas d’autre source que les variables observées. On
part du principe que celles-ci sont redondantes en termes d’information. La création du facteur
permet d’éliminer cette redondance pour ne garder que ce qui est strictement utile à l’interprétation
du phénomène.
Dans le premier cas on a affaire à une analyse en facteurs communs et spécifiques, dont il existe
plusieurs variantes. Dans le second cas, on parle d’analyse en composantes principales (ACP). Les
deux fonctionnent de manière très différente au plan mathématique mais, en pratique, aboutissent à
des solutions factorielles très comparables. Nous nous concentrerons sur l’ACP et nous donnerons
en fin de partie quelques éléments sur l’analyse en facteurs communs et spécifiques.
1 – Principes fondamentaux
Si k est le nombre de variables de départ, la méthode consiste à diagonaliser la matrice k x k des corrélations r
de Pearson (voir chapitre 13) entre ces variables.
Dans un premier temps k composantes principales sont produites en résolvant un système de k équations
linéaires à k inconnues, de la forme suivante :
pi = ai1x1 + ai2x2 + ... + aikxk
Les aij sont les coefficients de pondération des variables initiales. Ils sont choisis de manière à produire des
composantes principales :
– par ordre de variance décroissante ;
– non corrélées entre elles (contrairement aux variables de départ).
2 – Contraintes
La méthode de calcul utilisée implique des variables métriques corrélées entre elles et un échantillon de grande
taille (ce point sera de nouveau abordé plus loin). Le calcul des corrélations implique une distribution normale
des variables (chapitre 13).
3 – Choix du nombre de nouvelles composantes et interprétation
L’objectif étant de synthétiser l’information, il revient au chargé d’études de choisir un ensemble de p
composantes, avec p beaucoup plus petit que k.
L’un des critères de décision est la perte d’information (i.e. de variance) consentie. L’interprétation des
composantes se fait à partir des anciennes variables, en fonction de la contribution de chacune d'entre elles aux
combinaisons linéaires mises au jour.
B. Étapes de l’analyse
L’exemple ci-dessous illustre les principales phases de la démarche.
Exemple
Contexte : Dans une étude sur ce qui constitue l’essence d’un « chez-soi », cent
cinquante propositions ont émergé d’une phase qualitative et de plusieurs phases
d’évaluation par des experts. Elles ont été soumises à un échantillon de convenance de
190 personnes, à l’issue de la phrase d’ancrage suivante : « Pour que je me sente chez-
moi quelque part, il faut que ce soit un lieu... ». Les réponses ont été recueillies sur
des échelles de Likert à 5 postes. Sept propositions ont été extraites pour cet exemple :
« Où je me sens protégé » ; « Où les autres aiment venir » ; « Où l’on accueille
l’autre » ; « Rassurant » ; « Où je ne me sens pas agressé » ; « Que j’ai envie de
partager avec d’autres » ; « Où je me sens en sécurité ».
Objectif de l’analyse : Est-il possible de résumer ces 7 variables en 2 ou 3 maximum
de manière à voir émerger des grandes dimensions structurantes de la perception du
« chez soi » ?
\/|
1. Étape 1 : analyse des conditions d’application de la méthode
$|
4$
Bien que les échelles de Likert soient fondamentalement des mesures ordinales, une longue tradition
de recherche en psychométrie les assimile à des mesures d’intervalle. L’usage d’échelles
d’intervalle à supports sémantiques est conseillé dès que possible. Par ailleurs, la définition de
cinq postes est un minimum : plus le nombre de postes sera élevé, plus l’hypothèse de « continuité »
de la mesure sera défendable.
Exemple (suite)
La valeur de la « signification asymptotique » indique le pourcentage d’échantillons
pour lequel la valeur observée de la statistique du test est compatible avec l’hypothèse
nulle. Ce pourcentage étant inférieur au seuil de risque α de 0,05, il est préférable de
rejeter cette dernière. Les variables ne suivent pas une distribution normale. Par
contre, l’examen des paramètres de forme (asymétrie et aplatissement) montre que les
valeurs des coefficients sont toutes inférieures à |3| (figure 14.10.). L’écart à la
normalité n’est, par conséquent, pas trop marqué et l’on peut poursuivre l’analyse.
\/|
$|
Figure 14.10. Coefficients d’asymétrie et d’aplatissement
4$
Statistique
By
Où n est la taille d’échantillon et |R| est le déterminant de la matrice. Cette statistique suit une loi du χ 2 à
degrés de liberté (avec k = nombre de variables). La règle de décision est classique : si la valeur
calculée du test dépasse sa valeur critique (tabulée), H0 doit être rejetée. Dans ce cas, les corrélations sont non
\/|
nulles dans la population et l’ACP peut être menée.
$|
2 – Calcul de l’indice KMO
Il est égal à :
4$
By
Rij2 correspond à la corrélation multiple entre les variables i et j et rij2 est la corrélation partielle entre ces
mêmes variables. La notion de corrélation multiple est identique à celle vue au chapitre 13, à une nuance près : le
calcul de la corrélation entre deux variables intègre l’effet produit par les liens entre ces deux variables et
toutes les autres. La corrélation partielle entre deux variables est « ce qui reste » quand on a enlevé cet effet.
L’existence d’une information (i.e. corrélation) partagée entre variables due à une source commune (un facteur)
implique qu’une fois l’effet de cette source commune neutralisé, les corrélations partielles deviennent faibles.
Dans ce cas, KMO prend une valeur proche de 1. Une valeur inférieure à 0,5 indique que la part d’information
commune est inférieure aux corrélations spécifiques aux variables et rend l’ACP inappropriée.
Exemple (suite)
La figure 14.11. donne la matrice des corrélations entre les sept variables. Pour
chaque couple de variables, la corrélation est sur la première ligne et la significativité
du test sur la seconde. Elles sont toutes significatives sauf deux. La règle de décision
est la même que pour le test de Kolmogorov-Smirnov ci-dessus. Lorsque la valeur de
la significativité est inférieure à 5 %, il vaut mieux rejeter H0 qui, dans ce cas, postule
ρ = 0. L’existence de corrélations non significatives serait problématique si une ou
plusieurs variables étaient systématiquement non corrélées avec toutes les autres. Ce
n’est pas le cas ici, donc il n’y a pas de contre-indication à la poursuite de l’analyse.
Figure 14.11. Corrélations entre les variables du « chez-soi »
\/|
$|
4$
La figure 14.12. donne les valeurs de KMO et du test de Bartlett. Dans les deux cas, la
poursuite de l’analyse peut être envisagée. La valeur de KMO est nettement supérieure
By
à 0,5 et se situe dans une tranche intermédiaire entre « moyen » et « méritoire » selon
la grille donnée par ses concepteurs. Le test de Bartlett est significatif (voir fiche
technique 14.2.), donc la matrice de corrélations n’est pas une matrice identité dans la
population.
Figure 14.12. Indice KMO et test de Bartlett
contenue dans les sept variables d’origine. La seconde a une valeur propre de 1,618 et
représente 23,11 % de l’information. La troisième ne représente plus que 8,38 %, et
ainsi de suite. Les trois premières contribuent, ensemble, à près de 80 % de la
variance initiale. On voit bien qu’il semble possible de passer de sept variables à 2 ou
3 composantes sans perdre beaucoup d’information.
Remarque : l’information que représentent les composantes est la même que celle des variables
initiales. Elle a juste été réorganisée pour être « densifiée » dans certaines composantes et
« allégée » dans d’autres. On peut se séparer de ces dernières sans perte substantielle
d’information.
b. Le scree-test
Un graphique représentant les valeurs propres des composantes principales, dans l’ordre du
tableau, suggère une paroi de falaise, de profil, avec, à son pied, des éboulis. On retient les valeurs
propres se situant au-dessus des « éboulis », c’est-à-dire d’une éventuelle rupture de pente.
Contrairement à ce que son nom suggère, ce n’est pas un test statistique au sens du chapitre 12.
Lorsque les deux critères convergent, on retient la solution proposée sans plus de réflexion.
Lorsque ce n’est pas le cas, on retient généralement le plus petit nombre de composantes proposé,
sous réserve que celles-ci soient alors clairement interprétables à partir des variables qui leur sont
reliées.
Exemple (suite)
\/|
$|
Le critère de Kaiser suggère de retenir deux composantes principales (figure 14.13.).
4$
Cette solution semble assez robuste car il y a un écart très important entre la seconde
et la troisième valeur propre. Elle est corroborée par le scree-test (figure 14.14.) qui
By
montre une rupture de pente claire à la troisième composante. On retient celles qui se
trouvent immédiatement au-dessus, donc les deux premières.
\/|
Figure 14.15. Corrélations (loadings) entre les variables et les composantes
$|
4$
Composante
By
1 2
Lieu que j’ai envie de partager avec d’autres 0,490 0,619
Lieu où l’on accueille l’autre 0,635 0,559
Lieu rassurant 0,790 – 0,273
Lieu où je me sens en sécurité 0,795 – 0,330
Lieu où je me sens protégé 0,787 – 0,389
Lieu où je ne me sens pas agressé 0,742 – 0,323
Lieu où les autres aiment venir 0,526 0,695
Exemple (suite)
Les composantes ne peuvent pas être clairement interprétées. Les quatre premières
variables sont plus fortement corrélées à la première composante qu’à la seconde. On
peut penser que la première composante est liée à l’idée de sécurité. Les trois autres
variables sont assez fortement corrélées aux deux composantes et le sont davantage sur
la seconde composante que les quatre premières. Cette seconde composante serait
donc liée à l’idée d’accueil et de partage.
Lorsque l’on se trouve face à la situation de la figure 14.15, assez fréquente, l’interprétation des
composantes est délicate. La composante no 1 est un « facteur général » auquel toutes les variables
sont bien corrélées. On peut alors avoir recours à une sorte d’artifice, que la figure 14.16. illustre.
Le premier graphique donne la même information que le tableau de la figure 14.15. De fait les sept
variables ne peuvent pas être très clairement distinguées sur la composante no 1. Appliquer un jeu
de coefficients habilement choisis aux loadings revient à faire pivoter le système d’axes de manière
à le rapprocher des variables qui, elles, ne bougent pas. Cette manipulation s’appelle une rotation.
Le second graphique, élaboré après cette manipulation et recalcul des coordonnées des variables
sur les axes, montre une situation plus claire : trois variables sont liées à la composante no 2
\/|
(coordonnées proches de 0,7-0,8) et très peu à la composante no 1 (coordonnées proches de 0,1-
0,2). Pour les quatre autres variables, c’est le contraire. Le tableau des loadings calculés après
$|
Figure 14.16. Graphique des corrélations entre les variables et les composantes
By
Figure 14.17. Corrélations (loadings) entre les variables et les composantes après rotation orthogonale
Composante
1 2
Lieu que j’ai envie de partager avec d’autres 0,089 0,784
Lieu où l’on accueille l’autre 0,243 0,811
Lieu rassurant 0,815 0,186
Lieu où je me sens en sécurité 0,850 0,140
Lieu où je me sens protégé 0,874 0,087
Lieu où je ne me sens pas agressé 0,801 0,118
Lieu où les autres aiment venir 0,079 0,868
Exemple
La composante no 1 renvoie à l’idée d’un « chez soi » sécurisant et protecteur. La
composante no 2 est maintenant clairement liée à un « chez soi » hospitalier, lieu de
\/|
partage avec « l’autre ».
$|
4$
Composante
1 2
Lieu où je me sens protégé 0,892 – 0,052
Lieu où je me sens en sécurité 0,859 0,008
Lieu rassurant 0,815 0,061
Lieu où je ne me sens pas agressé 0,811 – 0,007
Lieu où les autres aiment venir – 0,057 0,887
Lieu où l’on accueille l’autre \/| 0,123 0,801
Lieu que j’ai envie de partager avec
– 0,033 0,799
$|
d’autres
4$
By
La solution retenue est tout aussi clairement interprétable que la précédente. La corrélation entre les
deux composantes est égale à 0,303. Ce n’est pas très élevé mais pas totalement négligeable non
plus.
Pour une vérification complémentaire de la qualité de l’interprétation, on examine les
« communautés » (communality en anglais) des variables. C’est la part de variance des variables
initiales restituée par les composantes retenues (voir figure 14.19.). Une communauté élevée
signifie que l’information contenue dans la variable se retrouve dans la solution retenue et contribue
à son interprétation. À l’inverse, une communauté faible signifie qu’une bonne part de l’information
de cette variable a été perdue :
– soit la variable partageait peu d’information avec les autres. Dans ce cas, il est logique que les
composantes, qui sont à l’origine de cette information commune, ne lui soient pas reliées. Éliminer
cette variable est la solution recommandée ;
– soit la variable partageait de l’information avec les autres. Dans ce cas, il est probable qu’elle
est liée à une composante qui n’a pas été retenue. Il faut retourner à l’étape 3 pour réexaminer le
choix effectué.
La communauté est assimilable à un R2, comme en analyse de régression. Lorsque les composantes
sont orthogonales (avant rotation, ou après une rotation orthogonale), la communauté d’une variable
est la somme des r2 partiels liés à chacun des facteurs retenus. Un loading étant assimilable à une
corrélation, il suffit d’élever cette corrélation au carré pour obtenir ce R2 partiel. Si l’on retient
toutes les composantes possibles, la communauté est par construction égale à 1. Ce principe ne
fonctionne pas avec les rotations obliques. La figure 14.19. illustre ce point et montre ensuite le
tableau des communautés pour l’exemple du « chez-soi ».
Exemple
Figure 14.19. Communautés entre les variables et les composantes
On constate que si l’on retient les sept composantes, la somme des communautés partielles est égale
\/|
à1:
$|
4$
By
Et :
Le tableau des communautés pour la solution à deux facteurs retenues dans l’exemple est :
Figure 14.19. ter. Communautés entre les variables et les deux composantes retenues
Initial Extraction
Lieu que j’ai envie de partager avec d’autres 1,000 0,623
Lieu où l’on accueille l’autre 1,000 0,717
Lieu rassurant 1,000 0,698
Lieu où je me sens en sécurité 1,000 0,741
Lieu où je me sens protégé 1,000 0,771
Lieu où je ne me sens pas agressé 1,000 0,655
Lieu où les autres aiment venir 1,000 0,760
Toutes les communautés sont fortes, montrant que les deux composantes sont largement suffisantes
pour synthétiser la « réalité » contenue dans les données de départ. Il n’existe pas de norme
permettant de décider objectivement quelle valeur de communauté est « suffisante ». En pratique, on
By
la considère comme acceptable dès qu’elle dépasse 0,5. Plus l’on se rapproche de 1, mieux c’est.
Au final, cette analyse en composantes principales nous aura fait passer d’un ensemble de sept
variables à deux composantes en ne perdant que 29,1 % de l’information de départ. Ces deux
composantes montrent que le « chez soi » s’articule autour des notions de sécurité et d’hospitalité.
Elles vont pouvoir être utilisées dans d’autres analyses.
\/|
$|
4$
By
A. Objectifs et principes
L’objectif général de l’analyse des correspondances (AC) est identique à celui de l’ACP : identifier
un petit nombre de dimensions cachées pour simplifier et interpréter un ensemble complexe de
données. Elle fonctionne à partir de variables nominales, ce qui est son intérêt majeur.
Les données d’entrée pour une AC sont des tableaux de contingence. Elle complète utilement les
tris croisés et les tests du χ2, lorsque les deux variables ont chacune un grand nombre de modalités.
Dans ce cas, il est difficile d’évaluer l’importance et l’influence respective de ces dernières. Une
AC rend cette interprétation plus facile. La méthode n’a pas d’exigence sur la nature de
l’association entre les deux variables, ce qui est un autre avantage.
Exemple
Comment interpréter le lien, s’il existe, entre la PCS (professions et catégories
socioprofessionnelles) et le budget annuel consacré aux vacances ? Une enquête a été
menée auprès de 301 répondants représentatifs de la population française sur trois
quotas croisés : sexe, âge et PCS. Pour simplifier, les deux variables ont été recodées
en cinq modalités pour la PCS et trois pour le budget. Le tri croisé est donné dans la
figure 14.21.
Figure 14.21. Dépenses pour les vacances selon la PCS
PCS + 23 26 55 104
4$
PCS – 46 34 24 104
By
Étudiant 14 3 1 18
Retraité 16 17 17 50
Autre inactif 9 6 10 25
Total colonne 108 86 107 301
Exemple (suite)
La figure 14.21. a été complétée (figure 14.21 bis.). Chaque case du tableau contient
trois chiffres : le premier (en partant du haut) représente l’effectif. Dans la première
case, par exemple, 23 individus sont de PCS supérieure ET dépensent annuellement
1 000 euros ou moins pour leurs vacances. Le chiffre entre parenthèses à côté de
l’effectif correspond au pourcentage que représente ce dernier par rapport au total de
la ligne : 23 est égal à 22,1 % de 104. Le chiffre entre parenthèses au-dessous de
l’effectif correspond au pourcentage que représente ce dernier par rapport au total de
la colonne : 23 est égal à 21,3 % de 108. \/|
$|
Figure 14.21. bis. Dépenses pour les vacances selon la PCS
4$
PCS 1 001 à
0 à 1 000 2 001 et + Total ligne
2 000
23 (0,221) 26 (0,250) 55 (0,529) 104
PCS +
(0,213) (0,302) (0,514) (0,346)
46 (0,442) 34 (0,327) 24 (0,231) 104
PCS –
(0,426) (0,395) (0,224) (0,346)
14 (0,778) 3 (0,167) 1 (0,056) 18
Étudiant
(0,130) (0,035) (0,009) (0,060)
16 (0,320) 17 (0,340) 17 (0,340) 50
Retraité
(0,148) (0,198) (0,159) (0,166)
9 (0,360) 6 (0,240) 10 (0,400) 25
Autre inactif
(0,083) (0,070) (0,094) (0,083)
Total colonne 108 (0,359) 86 (0,286) 107 (0,356) 301
L’interprétation nécessite un peu de rigueur mais reste relativement simple. Par exemple, 22,1 %
des PCS + dépensent 1 000 euros ou moins, alors que cette dernière catégorie représente 35,9 % de
l’échantillon. Les PCS + sont donc sous-représentés dans la classe de dépense [0 ; 1 000]. De
même, les PCS + représentent 34,6 % de l’échantillon et parmi ceux qui dépensent 1 000 euros ou
moins pour leurs vacances, on trouve 21,3 % de PCS +. La classe de dépenses [0 ; 1 000] est donc
également sous-représentée chez les PCS +.
Le raisonnement se poursuit de la même manière pour toutes les autres lignes et colonnes. On peut
alors tenter de déceler une tendance dans les liens entre les modalités des deux variables, ce qui
devient vite fastidieux si le tableau est grand. L’analyse des correspondances va analyser de
manière systématique la contribution relative de chaque modalité, en ligne comme en colonne, aux
écarts constatés par rapport aux distributions marginales. Elle en propose une visualisation
graphique.
Exemple \/|
Dans notre exemple, la variable « PCS » a 5 modalités et la variable « budget » en a
$|
Comme pour l’ACP, chaque dimension contribue à une part décroissante de l’information initiale.
La nature nominale des variables ne permet plus de calculer la variance. On utilise une notion
proche, nommée inertie. Le choix du nombre de dimensions pertinentes est du ressort de l’analyste.
Exemple
La figure 14.22. montre que la contribution de la seconde dimension est totalement
marginale. La représentation dans un plan étant néanmoins plus lisible, il ne faudra pas
perdre de vue ce résultat dans l’interprétation.
Figure 14.22. Inertie des dimensions
Proportion d’inertie
Dimension Valeur
Inertie Expliqué Cumulé
singulière
1 0,334 0,112 0,901 0,901
2 0,111 0,012 0,099 1,000
Total 0,124 1,000 1,000
La représentation graphique met « en correspondance » les liens éventuels entre les modalités des
\/|
deux variables étudiées. La dimension horizontale est, par convention, celle qui représente le plus
$|
d’information (voir figure 14.23.).
4$
By
Rappel
Les deux variables doivent être interprétées séparément. La proximité des modalités
des deux variables n’est pas interprétable car les deux plans sont simplement
superposés. Une interprétation « commune » peut néanmoins être réalisée lorsque le
nombre de dimensions est limité à 2 comme ici. Cela reste toutefois une exception.
La distance entre « PCS + » et « étudiants » contribue clairement à l’essentiel de
l’inertie de la dimension 1. Leurs comportements sont opposés. On note, par contre,
une grande proximité, sur cette dimension (par projection sur l’axe), entre les
« retraités » et les « autres inactifs ». Leurs comportements sont comparables.
L’autre variable va moins contribuer à cette dimension, car l’écart entre les deux
modalités les plus éloignées (« 2 001 et + » et « 0 à 1 000 ») est moins marqué. Même
remarque pour la dimension 2 pour laquelle l’écart entre « étudiants » et « retraités »
est plus grand qu’entre « 0 à 1 000 » et « 1 001 à 2000 ». Les trois modalités de la
variable « budget » sont très éloignées les unes des autres, sur les deux dimensions.
Elles servent donc peu à l’interprétation globale du phénomène.
On voit que les projections des couples (« PCS + » ; « 2 001 et + »), (« retraité » ;
« 1 001 à 2 000 ») et, à un moindre degré, (« PCS – ; « 0 à 1 000 ») sont très proches,
\/|
et ce sur les deux dimensions. Comme il n’y a que deux dimensions, on peut en inférer
que ces modalités sont proches dans l’espace. Autrement dit, les classes de dépenses
$|
\/|
$|
4$
By
Exemple
Le premier tableau représente les « points ligne » (« PCS ») et le second les « points
colonne » (« budget »).
Figure 14.24. Contribution des variables « PCS » et « Budget »
\/|
$|
4$
By
Pour la variable « PCS », on voit que les modalités « PCS + » et « étudiant » sont les
plus fortes contributrices à la dimension 1. Les autres modalités ont une contribution
faible (PCS –) ou totalement marginale. La modalité « étudiant » contribue fortement à
la dimension 2. Comme le poids de celle-ci est négligeable, il n’y a pas lieu d’en
interpréter la signification. À l’inverse, la dimension 1 contribue fortement aux
modalités PCS +, PCS – et « étudiant ». La dimension 2 contribue aux modalités
« retraité » et « autre inactif ».
Pour la variable « budget », ce sont les modalités 0 à 1 000 et 2 001 et plus qui
contribuent le plus à la dimension 1. La modalité 1 001 à 2 000 contribue plutôt à la
dimension 2. Les contributions relatives suivent le même schéma.
Synthèse. Une opposition entre PCS + et « étudiants » peut être décelée. Les premiers
se caractérisent par les budgets les plus élevés, les seconds par les budgets les plus
faibles. Les PCS – et les retraités sont moins bien pris en compte par l’analyse, ce qui
est a priori signe de situations plus hétérogènes en matière de dépenses. Ils se
rapprochent néanmoins des budgets intermédiaires.
C. Applications et prolongements
Dans les études de marché, les applications les plus courantes de l’AC concernent la segmentation
et l’évaluation d’image de marque.
Exemple
Les images de marques de dentifrice ont été analysées par une AFC, à partir d’un
tableau croisant 25 attributs relatifs à 12 marques de dentifrices(330). La représentation
graphique relie les marques à leurs « paniers » d’attributs respectifs. On peut
assimiler ceci à une démarche de segmentation par avantages recherchés. Ce type
d’application de l’AFC est assez courant(331).
L’AC classique ne traite que deux variables simultanément ; l’AC multiple (ACM) est une extension
possible pour des données catégorielles multiples, présentées sous forme de tableau de Burt. Le
principe de base est de transformer ce tableau pour en faire une juxtaposition de tableaux de
contingence et de procéder ensuite à une AFC simple. On obtient des représentations simultanées de
toutes les modalités de tous les caractères. L’interprétation est identique à celle d’une AC, à une
différence près : le nombre de variables multiplie les modalités reproduites sur les graphiques et
\/|
rend ceux-ci plus délicats à interpréter(332).
$|
4$
Exemple
Rappel : les données sont fictives.
On reprend le tableau de données de la figure 14.5.
\/|
Attrait pour le
$|
Individus Âge
4$
risque
Alain 60 4
By
Bernard 48 5
Camille 19 3
David 28 2
Élise 37 4
La représentation graphique en nuage de points de ces deux variables est simple. Deux groupes
d’individus distincts cohabitent :
B. Étapes de l’analyse \/|
Les différentes étapes sont résumées dans la figure 14.25.
$|
4$
Plus le nombre de critères de classification augmente, plus les calculs sont gourmands en capacités
de traitement et plus l’identification et l’interprétation des groupes sont délicates. De ce point de
vue, trois à quatre critères semblent être un maximum sauf si l’on dispose d’échantillons de très
grande taille (plusieurs dizaines de milliers d’individus). On ne retient ainsi que les critères
importants par rapport à ce que l’on cherche à montrer.
L’utilisation de variables de synthèse, telles que des composantes principales résultant d’une ACP
(i.e. scores factoriels) ou les sommes de scores sur des échelles, peut se révéler, de ce point de
vue, très intéressante.
Pour garantir la meilleure séparation possible des groupes, il est important que les critères de
classification soient indépendants les uns des autres (i.e. non corrélés). De ce point de vue, l’intérêt
des scores factoriels est majeur, sous réserve qu'ils aient été calculés avant rotation ou après une
rotation orthogonale. \/|
$|
Exemple
4$
Une typologie visant à identifier des individus ayant une perception commune du
By
« chez soi » pourrait être construite à partir des deux composantes principales
identifiées plus haut au lieu des sept variables de départ.
Attrait pour
Âge
Attrait pour le risque
Individus Âge (centrée-
le risque (centrée-
réduite)
réduite)
Alain 60 1,336 4 0,351
Bernard 48 0,594 5 1,228
Camille 19 – 1,200 3 – 0,526
David 28 – 0,643 2 – 1,404
Élise 37 – 0,087 4 0,351
\/|
Moyenne 38,4 3,6
$|
Rappel : centrer et réduire une variable revient à créer une nouvelle variable par
By
Dans ce total, la variable âge compte pour 144 et l’autre pour 1, alors qu’au départ la
différence entre les deux individus sur chacune des variables est exactement du même ordre
(20 %).
Avec les valeurs centrées-réduites, on a :
d2ij = (1,336 – 0,594)2 + (0,351 – 1,228)2 = 1,320
La variable âge compte maintenant pour 0,551 et l’autre pour 0,769. On voit bien que l’écart
entre les individus est plus important, dans l’absolu, sur cette dernière.
2 – Variables nominales
Dans ce contexte, la notion de distance n’a plus réellement de signification : on parle plutôt
d’indice de (dis)similarité. On considère que plus deux individus partagent des attributs
communs, plus ils sont similaires. Le calcul de ces indices se fait à partir du tableau de Burt.
Le plus courant est l’indice de Jaccard :
avec :
sij = similarité entre les individus i et j,
a = nombre de paires de modalités communes,
c = nombre de paires de modalités différentes.
Considérons par exemple le tableau de données présenté à la fin de cette fiche technique :
L’indice de Jaccard pour les individus 1 et 2 donne :
\/|
$|
4$
En effet, il y a une paire de modalités communes (âge entre 15 et 35 ans) et quatre paires de
modalités différentes. On ne compte pas, dans cet indice, les paires de modalités indiquant des
By
La matrice des distances euclidiennes au carré entre nos cinq individus est (après
4$
groupes. L’algorithme de Ward constitue les groupes à partir d’un critère de minimisation de
l’inertie intraclasse(334). Il vise à l’homogénéité maximale au sein des groupes et aboutit à des
By
groupes compacts et de taille comparable. L’algorithme de Ward est réputé « optimal » lorsque les
distances sont euclidiennes et que des scores factoriels sont utilisés comme variables de
classification(335).
Les quatre étapes ci-dessus peuvent être synthétisées par le tableau suivant :
By
\/|
$|
4$
Exemple
Nos deux groupes ci-dessous sont composés des individus [Alain, Bernard, Élise]
\/|
pour l’un et [Camille, David] pour l’autre. L’âge et l’attrait pour le risque sont les
$|
deux seules variables disponibles pour les décrire.
4$
Groupe 1 Groupe 2
By
Attrait Attrait
Indiv. Âge pour le Indiv. Âge pour le
risque risque
Alain 60 4 Camille 19 3
Bernard 48 5 David 28 2
Élise 37 4
X 48,33 4,33 X 23,5 2,5
s 11,5 0,58 s 6,36 0,71
Normalement, il faut tester les différences de moyennes entre groupes (test en t de différences de
moyennes entre échantillons indépendants ou test U de Mann-Whitney, si les conditions ne sont pas
remplies)(337). Dans les deux cas, les très petites tailles d’échantillon amènent à un non-rejet de
l’hypothèse nulle, c’est-à-dire ne permettent pas de conclure à une différence entre les groupes dans
la population. Nous ne les présentons pas ici.
6. Étape 6 : validation des groupes
On vérifie l’acceptabilité de la solution retenue. Les différents groupes obtenus doivent être faciles
à décrire. Malheureusement, la pertinence du nombre de groupes n’est pas facilement vérifiable par
test statistique(338). Quelques solutions sont utilisables :
– si le découpage « naturel » des individus dans la population existe réellement, des algorithmes
différents doivent aboutir à des solutions très similaires. En cas de désaccord, la typologie doit être
remise en cause ;
– après séparation aléatoire de l’échantillon en deux moitiés, on applique le même algorithme sur
chacune des moitiés et on compare les deux solutions. En cas de divergence prononcée, la typologie
est à rejeter ;
– si les distributions des groupes, sur les variables de classification, se chevauchent, la typologie
n’est pas efficiente ;
– l’analyse discriminante (voir plus loin dans ce chapitre) peut servir de recours. Les critères de
classification sont les variables indépendantes et l’appartenance des individus aux groupes forme la
variable dépendante. Les indicateurs de distances entre les groupes permettent de repérer les
variables ayant le mieux contribué à la classification.
\/|
C. Exemple d’application
$|
Nous cherchons à identifier une typologie des individus selon leur perception du « chez soi », avec
4$
comme variables d’analyse les deux composantes issues de l’analyse en composantes principales.
L’une était relative au sentiment de sécurité que procure le « chez soi », l’autre au statut du « chez
By
On voit que les différences dans les sauts de distance sont marginales jusqu’à la ligne 184. Il ne
semble pas raisonnable d’envisager une solution à plus de cinq groupes. Le saut le plus important
se situe entre 3,280 et 5,378, ce qui milite pour une solution à quatre groupes. Néanmoins le
\/|
passage à trois et à deux groupes se fait à des distances équivalentes et proportionnellement peu
$|
différentes du saut précédent. Il semble donc plus prudent de tester trois scénarios plausibles :
4$
révélateurs d’individus aberrants qui devraient alors être éliminés. La plupart des logiciels créent
des variables où chaque individu est repéré par son numéro de groupe. Dans cet exemple, nous
avons créé trois variables. L’une correspond à une situation à deux groupes, une autre à une solution
à trois groupes et la troisième à une solution à quatre groupes. De simples tris à plat sur chacune de
ces variables suffisent ensuite. Le résultat montre des effectifs très déséquilibrés dans les trois cas,
mais rien qui puisse être considéré comme marginal. Il faut approfondir l’analyse.
L’inertie interclasses doit être élevée. Un indicateur de cette inertie est la différence entre les
moyennes de groupes sur les variables de classification. Des différences significatives indiquent
une solution pertinente. On utilise à nouveau les variables artificielles qui viennent d’être créées
pour faire des tests de différences de moyennes ou des analyses de variance simples, qui sont une
extension de ces tests quand le nombre de groupes dépasse deux. Dans une solution à deux groupes,
les individus ne se différencient pas sur la variable « hospitalité ». Dans une solution à quatre
groupes, les individus des groupes 1 et 2 et des groupes 3 et 4 ne se différencient pas non plus.
Seule la solution à trois groupes permet cette différenciation, comme le montre la figure 14.28.
Figure 14.28. Scores moyens sur les variables de classification, solution à trois groupes
Si les différences entre moyennes de groupes sont significatives (les outils permettant cette
interprétation sont décrits au chapitre 15), la solution reste peu satisfaisante. En effet, les groupes 1
et 3 se chevauchent partiellement pour la variable « sécurité ». Le phénomène est encore accentué
pour la variable « hospitalité ». Par exemple, les scores minimum et maximum des individus du
groupe 1 sont inclus dans ceux du groupe 2. Les moyennes permettent donc de décrire des
tendances, mais les frontières de groupes sont ambiguës. C’est malheureusement souvent le cas dans
les typologies.
\/|
En « moyenne », donc, le groupe 1 caractérise des individus au score moyen sur les deux variables.
$|
Le groupe 2 montre des moyennes négatives sur les deux variables. Pour ces individus, le fait de se
4$
sentir chez soi quelque part n’est donc pas forcément synonyme de sécurité. La tendance est moins
marquée sur l’hospitalité. À l’inverse, les individus du groupe 3 valorisent le sentiment de sécurité
By
pour se sentir chez soi et ne font pas de ce dernier un lieu d’hospitalité. Ces derniers sont davantage
repliés sur eux-mêmes, quand les premiers sont manifestement plus ouverts sur l’autre.
Il s’agit enfin de tenter de décrire plus finement les individus des trois groupes. On utilise pour cela
toutes les variables d’identification à disposition dans la base de données. Ici, nous avons testé le
genre, l’âge et le type de logement habité. Ces variables étant nominales (l’âge était mesuré en
classes), seuls des tris croisés suivis de tests de contingence du χ2 étaient possibles. Aucun de ces
tests ne s’est avéré significatif. Autrement dit, les trois groupes ne peuvent être distingués sur
aucune de ces variables.
Valider une typologie est complexe car cette analyse débouche rarement sur des solutions évidentes.
On admet que si plusieurs algorithmes permettent d’aboutir au même nombre et à la même
composition de groupes, alors on est en présence d’une typologie ayant un « sens ». Si les solutions
divergent fortement, on est plutôt en présence d’un artefact. C’est le cas pour notre exemple, car
l’algorithme de Ward amenait à une solution à deux groupes, mais dont les moyennes sur les
variables de classification, bien que différentes, montraient des individus « moyens » dans les deux
cas. Ce n’était donc pas plus intéressant. Cela amène à remettre en cause le bien-fondé de cette
typologie.
Cette méthode est précieuse pour éclairer le choix d’un positionnement pour une marque. Elle
révèle les axes qui structurent l’espace concurrentiel et situe les produits ou marques sur ces
By
Exemple
L’image des marques de vélo
Cet exemple est construit à partir d’un ensemble de considération et d’une liste de
critères d’évaluation obtenus auprès d’un seul répondant. Les données ont été
simplifiées pour des raisons pédagogiques. Le scénario d’usage fixé est l’achat d’un
vélo de course à usage sportif hors compétition.
À partir de la liste des marques identifiées, on a construit toutes les paires possibles.
\/|
Le répondant les a classées par ordre de dissimilarité décroissante, selon des critères
$|
qui lui sont propres. Le résultat de ce classement est donné ci-après.
4$
Time 0
Giant 8 0
Trek 5 3 0
Colnago 2 7 6 0
Lapierre 9 1 4 10 0
Un ensemble de cinq marques donne dix paires à classer(341). Les marques Giant et Lapierre sont les
plus proches. Les marques Colnago et Lapierre sont les plus éloignées.
Il aurait également été possible de collecter les données de la manière exposée ci-après.
Pas du
Moyennement Extrêmement
tout
similaires similaires
similaires
Time - Giant 1 2 3 4 5
Time - Trek 1 2 3 4 5
Etc.
b. Approche indirecte
Les répondants évaluent chaque objet sur différentes caractéristiques, ou attributs, préalablement
identifiés ; le soin accordé à cette étape préliminaire conditionne la réussite des investigations
ultérieures(342). On utilise, pour l’évaluation, des échelles bipolaires de type différentiel sémantique
ou des notes.
Giant
By
Performance 1 2 3 4 5
Prestige 1 2 3 4 5
Rapport qualité-prix 1 2 3 4 5
Polyvalence 1 2 3 4 5
2. Données de préférence
La collecte des données de préférence peut se faire de trois manières :
– classement global des objets par ordre de préférence ;
– indication, pour chaque paire, de l’objet préféré ;
– classement de préférence des objets sur la liste de critères.
Exemple (suite)
Nous avons utilisé la troisième solution.
« Veuillez classer les six marques de vélo sur chacun des critères suivants, selon votre
préférence (de 1 pour la marque que vous préférez, jusqu’à 5 pour la marque que vous
préférez le moins). »
d’objets à comparer dépasse la vingtaine, soit sept objets au départ, la tâche dépasse les capacités
cognitives de la plupart des répondants.
By
Or, pour des raisons techniques, les algorithmes des méthodes de MDS ne peuvent être utilisés « à
plein rendement » qu’au-delà de huit à dix objets. D’où un équilibre très délicat à trouver entre les
contraintes techniques d’une part et les limites cognitives des répondants d’autre part.
C. Étapes de l’analyse
1. Étape 1 : construction des matrices de similarités
Cette opération peut s’effectuer à deux niveaux :
– niveau individuel. L’analyse est menée individu par individu. La matrice découle du classement
des paires d’objets ou de leur évaluation. C’est ce qui a été fait ci-dessus ;
– niveau agrégé. Lorsque l’on travaille avec plusieurs répondants, on construit la matrice des
similarités à partir du rang moyen (classement) ou du score moyen (évaluation) obtenu par chaque
paire(343).
Dans cette approche, si l’écart-type des rangs ou des scores est élevé, chaque paire peut avoir été
classée de manière très différente par les individus. La matrice agrégée traduira mal la diversité
des perceptions chez les consommateurs. Une analyse typologique préalable aide à repérer les deux
ou trois « types » d’évaluations différents, qui permettent d’élaborer autant de matrices de
similarités. Chaque matrice est ensuite analysée séparément.
Exemple (suite)
Les coordonnées des marques de vélo sur les deux axes sont données dans la
figure 14.29. L’axe horizontal (dimension 1) oppose les marques Time et Colnago à
Lapierre. L’axe vertical (dimension 2) oppose, moins nettement, les marques Time et
Colnago.
Figure 14.29. Coordonnées des marques
Dimension
1 2
\/|
Time – 0,672 – 0,309
$|
La visualisation de ces coordonnées dans un plan est généralement plus parlante. Elle est donnée
dans la figure 14.30.
Figure 14.30. Carte perceptuelle des marques de vélo
\/|
$|
4$
By
L’information étant la même, l’interprétation est identique. Cette carte permet néanmoins de
constater que les marques sont relativement distantes. Pour le répondant, aucune marque n’est donc
strictement substituable à une autre.
Deux situations sont envisageables pour l’interprétation :
– connaissance préalable du marché. Si l’analyste connaît bien les marques étudiées, il identifie
intuitivement la nature des dimensions à partir de la position relative des objets. C’est une solution
tentante parce qu’économique et immédiate. Le risque est de remplacer la perception du
consommateur par celle d’un expert, qui peut avoir perdu de vue les réalités du marché ;
Exemple (suite)
La dimension 1 peut être interprétée comme un axe de « prestige de la marque », dans
un sens décroissant. En effet Time et Colnago représentent plutôt le haut de gamme du
marché, tandis que Lapierre et Giant font du « tout venant ». Cette interprétation reste
subjective, puisque ce prestige ou cet élitisme peuvent être interprétés aussi bien
positivement que négativement par les consommateurs. La dimension 2 est peu
intuitive, ce qui renforce le besoin d’informations complémentaires.
– liste de critères de choix préexistante. Les consommateurs ont évalué chaque marque sur les
différents critères, à l’aide d’échelles d’attitude. On corrèle ces scores avec les coordonnées des
marques sur les deux dimensions. Une forte corrélation indique que la répartition des objets sur
l’axe correspond d’assez près à la répartition de leurs scores sur la variable. En d’autres termes, la
variable est utile à l’interprétation de l’axe. Cette solution nous servira pour l’interprétation des
axes.
\/|
$|
4$
By
Exemple (suite)
On constate assez clairement, dans la figure 14.31., que le premier axe oppose la
performance, la polyvalence et le prestige au rapport qualité-prix. L’intuition initiale
est donc infirmée, ce qui renforce l’intérêt de cette approche par les critères. Les
corrélations des variables sur la seconde dimension sont beaucoup plus faibles, ce qui
traduit un poids moindre de cette dernière dans la description globale du phénomène.
Cela étant, cette dimension oppose la polyvalence au prestige. C’est cohérent avec les
marques concernées, Colnago étant LA marque de prestige sur ce marché. Elle
s’oppose sur l’axe à Time dont la polyvalence des produits, notamment des plus
récents, est réputée.
Figure 14.31. Évaluation des marques de vélo et corrélations avec les dimensions
\/|
$|
4$
Dimension 1 Dimension 2
By
\/|
VI. Analyse de régression multiple
$|
Jusqu’à présent, l’objectif était, avant tout, de résumer un ensemble d’informations, soit
4$
visuellement, soit par la création de variables de synthèse. À aucun moment nous n’avons évoqué
de préoccupations liées à la généralisation des résultats à une population. Avec la régression
By
multiple, nous entrons dans le domaine des méthodes dites « explicatives » plus spécifiquement
conçues dans cette perspective. Les principes de fonctionnement de l’analyse de régression ont été
présentés dans le chapitre 13. Ils ne changent pas fondamentalement lorsque l’on ajoute des
variables explicatives.
A. Objectifs et principes
Les objectifs sont les mêmes que ceux de la régression simple, à savoir :
– expliquer les variations d’une variable dépendante par les influences cumulées de plusieurs
variables explicatives supposées être à l’origine de ces variations ;
– déterminer le cas échéant l’intensité de cette influence.
Par rapport à la régression simple, la régression multiple offre l’avantage d’analyser l’apport
relatif de chaque variable indépendante dans l’explication des variations de la variable dépendante.
Les données d’entrée sont le tableau des données brutes. Les variables sont, normalement, de
niveau de mesure métrique (i.e. au moins d’intervalle)(347).
Les variables explicatives doivent être non corrélées. Si elles le sont, on a un effet de
multicolinéarité dont la conséquence est double :
– estimation imprécise des coefficients de régression, donc des erreurs standard de régression
élevées ;
– manque de stabilité des coefficients de régression : leur valeur variera beaucoup d’un échantillon
à l’autre.
Dans ce cas, l’estimation de la part relative de chaque variable indépendante dans la « qualité » de
la régression devient délicate. Deux solutions sont envisageables :
– « forcer » la non-corrélation des variables explicatives, par exemple en utilisant des scores
factoriels avant rotation, ou après rotation orthogonale seulement (voir le II de ce chapitre) ;
– estimer le risque de dégradation des résultats due à la multicolinéarité et éliminer la (ou les)
variable(s) source(s) de cette dernière.
L’équation de régression multiple dans la population est :
Y = α + β1X1 + β2X2 + ... + βkXk + e
avec : k = nombre de variables indépendantes
Les coefficients sont inconnus. On les estime à partir de :
Ŷ = a + b1X1 + b2X2 + ... + bkXk
\/|
B. Étapes de l’analyse
$|
4$
Homoscédasticité
Chaque erreur ei est le résultat de la différence entre la valeur observée de yi et la valeur calculée
par la régression ŷi. La variable e constituée de tous les termes d’erreur (voir figure 13.15.) peut
être décrite au moyen des indicateurs classiques de tendance centrale ou de forme.
L’homoscédasticité se définit comme la constance de la variance du terme d’erreur pour l’ensemble
des valeurs des variables X. Autrement dit, les points yi doivent rester à peu près à égale distance
de la droite, quelles que soient les valeurs des variables explicatives. Si l’on observe notamment
un éloignement progressif de ces valeurs, on parle d’hétéroscédasticité. Par exemple, les écarts de
revenus augmentent avec l’âge, d’où une augmentation progressive « mécanique » de la valeur des
termes d’erreur de la régression.
L’homoscédasticité s’analyse en croisant graphiquement la variable dépendante avec les résidus,
généralement « studentisés », c’est-à-dire divisés par leur écart-type. Les tests statistiques
correspondants (tests de White et de Breush-Pagan) sont très techniques à mettre en œuvre et ne
sont disponibles que dans des logiciels spécialisés en économétrie(348).
Exemple
Nous cherchons à expliquer la durée totale des vacances (exprimée en nombre de
jours par an) par le nombre de séjours effectués, la tendance à la recherche de variété
dans le choix de la destination, la tendance à la recherche d’information préalable aux
séjours et le nombre d’enfants au foyer. La tendance à la recherche de variété dans le
choix de la destination et la tendance à la recherche d’information sont des scores
factoriels issus d’analyses en composantes principales. L’échantillon comporte
266 observations valides.
Pour le modèle testé, dont les détails seront présentés tout au long de cette partie, le
croisement de la variable dépendante et des résidus studentisés est présenté sur la
figure 14.33.
Une homoscédasticité parfaite amènerait à un nuage de points sphérique. Autrement dit
les valeurs des résidus seraient réparties aléatoirement par rapport aux valeurs de la
\/|
durée des séjours. Ce n’est pas le cas ici, où l’on constate une relation positive entre
$|
les deux : plus la durée des séjours augmente, plus la valeur des résidus augmente.
4$
Figure 14.33. Croisement durée totale des vacances et résidus studentisés de la régression
L’hétéroscédasticité peut être due à un écart à la normalité de l’une des variables du modèle. Il faut,
dans ce cas, la transformer par une fonction adaptée. L’inconvénient est de perdre l’unité de mesure
initiale, ce qui complique grandement l’interprétation des résultats. Les effets de
l’hétéroscédasticité sont surtout sensibles sur les variances des estimations des paramètres. Leurs
valeurs sont non biaisées, donc restent bonnes pour l’échantillon étudié, mais les estimations que
l’on peut faire de leur valeur dans la population deviennent optimistes(349).
Absence d’autocorrélation
Il y a autocorrélation des termes d’erreurs quand leurs valeurs sont dépendantes les unes des autres.
Ce phénomène se produit essentiellement dans les séries chronologiques, en cas de mesures
répétées. Dans les séries non chronologiques, l’omission d’une variable explicative importante
et/ou la mauvaise spécification du modèle sont source d’autocorrélation.
Les effets négatifs de ce phénomène sur la qualité de la régression sont comparables à ceux de
l’hétéroscédasticité. Une autocorrélation positive sous-estime la variance des coefficients de la
régression, alors qu’une autocorrélation négative la surestime.
L’autocorrélation des termes d’erreurs peut s’évaluer par le test de Durbin-Watson dont la
statistique est : \/|
$|
4$
Sa valeur est comprise entre 0 et 4. Une valeur proche de zéro indique une autocorrélation positive,
By
les valeurs situées autour de 2 montrent une absence d’autocorrélation (hypothèse nulle) et si l’on
s’approche de 4, il existe une autocorrélation négative. Les valeurs critiques inférieure et
supérieure, notées respectivement Dinf et Dsup sont lues dans une table spécifique, qui peut être
trouvée sur Internet(350). Les règles de décision sont :
– Non-rejet de H0 si Dcalculé > Dsup et si Dcalculé < [4 – Dsup]
– Rejet de H0 si Dcalculé < Dinf ou Dcalculé > [4 – Dinf]
– Indétermination si : Dcalculé ∈ [Dinf ; Dsup] ou Dcalculé ∈ [4 – Dinf ; 4 – Dsup
Exemple
La statistique du test renvoie une valeur Dcalculé = 1,808. Le logiciel utilisé ne donne
pas d’aide à la décision. Bien que l’on soit proche de 2 et que la taille d’échantillon
soit grande (n = 266), il faut vérifier dans la table. Pour un seuil de risque α = 0,05 et
k = 4 variables explicatives, on lit Dinf = 1,73 et Dsup = 1,81. En pratique, nous avons
Dcalculé = Dsup. Formellement nous sommes dans une situation d’indétermination mais
très proches d’une situation de non-rejet de H0. La présence d’autocorrélation n’est
donc pas formellement établie.
La partie droite de la figure montre que la superposition des valeurs observées des
résidus à la droite « théorique » observée si la distribution est normale est légèrement
\/|
sinusoïdale. Le phénomène n’étant pas très marqué, il est prudent de vérifier par un
$|
test formel. La figure 14.35. donne les résultats du test de Kolmogorov-Smirnov sur
les résidus standardisés.
4$
Résidu standardisé
N 266
Z de Kolmogorov-Smirnov 1,083
Signification asymptotique (bilatérale) 0,191
Pour simplifier, et compte tenu de la taille d’échantillon, nous n’avons retenu que la valeur z
approximée de la statistique du test. On constate que l’hypothèse de normalité ne peut être rejetée :
la valeur de z est faible, inférieure à la valeur critique de z pour un seuil de risque à 5 %, qui est
égale à 1,96 (voir chapitre 12). La valeur p (« signification asymptotique » permet la même
conclusion : c’est la probabilité d’observer la valeur z calculée si l’hypothèse nulle est vraie. Dès
que cette valeur p dépasse α on ne prend plus le risque de rejeter H0.
La distribution des résidus peut donc être considérée comme normale.
b. Contraintes liées aux variables explicatives
Les variables doivent être distribuées selon une loi normale et ne pas être corrélées entre elles. La
normalité se teste comme nous venons de le voir dans l’exemple. La présence de fortes corrélations
entre les variables explicatives est susceptible de provoquer un phénomène dit de multicolinéarité,
évoqué en début de partie. Le diagnostic de multicolinéarité se fait au moyen de plusieurs
indicateurs.
Trois critères empiriques simples peuvent être vérifiés. En premier lieu, il y a risque de
multicolinéarité si n’importe quel couple de variables explicatives présente une corrélation r
supérieure à 0,8 en valeur absolue. En second lieu, il faut vérifier que le R2 multiple de la
régression (voir plus loin) reste supérieur à n’importe laquelle des corrélations au carré (r2),
calculées pour toutes les paires de variables explicatives. Enfin, la valeur du coefficient de
régression entre une variable X et la variable dépendante Y doit être la même que celle de la
corrélation linéaire simple entre ces deux variables(351).
La tolérance se définit comme la part « unique » de variance de chaque variable explicative, c’est-
à-dire non expliquée par les autres variables explicatives. Si ces dernières sont indépendantes,
alors la part « unique » de variance de chaque variable doit être élevée. La tolérance, dans ce cas,
sera proche de 1. Une part unique de variance faible indique au contraire une forte corrélation entre
les variables explicatives. La tolérance sera alors proche de 0.
Le facteur d’inflation de la variance (FIV ou VIF en anglais) est donné par :
\/|
Ri2 est le coefficient de détermination multiple obtenu en régressant la variable Xi sur toutes les
$|
Le VIF « idéal » est égal à 1. Dans ce cas, Ri2 = 0, ce qui signifie que la variable dépendante ne
By
partage pas d’information avec les autres. Il y a suspicion de multicolinéarité lorsque VIF devient
très supérieur à 1. Il n’y a pas de test statistique formel pour décider objectivement du seuil à ne
pas dépasser. Certains auteurs fixent empiriquement le seuil critique à 4, mais il n’y a pas
consensus(353).
Exemple
Les statistiques de colinéarité pour notre exemple sont données par figure 14.36. Les
valeurs de tolérance sont proches de 1 et les VIF également. Il n’y aucune raison de
suspecter un effet de multicolinéarité pour notre modèle.
Figure 14.36. Diagnostic de multicolinéarité
Statistiques de
Modèle colinéarité
Tolérance VIF
(Constante)
SF recherche de variété 0,866 1,155
1 SF recherche info objective 0,854 1,171
Enfants à charge 0,973 1,028
Nombre de séjours 0,938 1,066
\/|
$|
2. Étape 2 : estimation des coefficients de la régression
4$
Avec plusieurs variables explicatives, trois principales stratégies de modélisation sont possibles.
By
La régression simultanée introduit toutes les variables explicatives ensemble dans le modèle. On
évalue a posteriori le pouvoir explicatif de chaque variable, mais le pouvoir explicatif global de la
régression, exprimé par le R2 multiple (voir fiche technique 14.4.), est calculé une seule fois en
tenant compte de l’ensemble des variables.
La régression hiérarchique introduit les variables explicatives par blocs. Chaque bloc de
variables peut ne contenir qu’une seule variable. Le choix se fait en fonction de la nature des
variables (par exemple comportementales, attitudinales, sociodémographiques...). Cette stratégie
permet d’analyser les différences de R2 générées par l’introduction de tel ou tel bloc de variables.
On peut ainsi analyser le poids explicatif différentiel de tel ou tel type de variable, voire de chaque
variable si les blocs sont composés de variables uniques.
La régression « pas à pas » (stepwise) introduit, en version « ascendante », les variables
explicatives une à une en fonction de la valeur de leur corrélation partielle avec la variable à
expliquer(354). Le seuil d’arrêt d’introduction des variables est déterminé par un test statistique en F.
En version « descendante », les variables explicatives sont introduites en bloc, puis éliminées une
par une sur les mêmes critères.
Exemple
Durée des vacances
La figure 14.37. présente les résultats de la régression pour les trois stratégies
possibles. La signification des bj et des β est donnée dans la fiche technique 14.4.
Figure 14.37. Paramètres de l’équation de régression multiple, méthode simultanée
– Méthode simultanée
Dans ce cas, l’équation de régression s’écrit :
Durée totale des séjours = 6,639 – 0,71 × Recherche de variété +
\/|
0,536 × Recherche d’information + 1,102 × Enfants à charge +
$|
7,477 × Nombre de séjours
4$
Comme les échelles de mesure sont assez différentes, le poids de chaque variable
s’analyse mieux par la version standardisée :
By
On voit cette fois que seules deux variables ont passé le seuil de signification. La
première a été le nombre de séjours. Le coefficient de régression résultant est égal à
0,667. Puis vient le nombre d’enfants, dont le coefficient est égal à 0,111. Cette
variable a donc un poids six fois moindre.
Globalement, les trois stratégies aboutissent au même résultat. La dernière est à conseiller lorsque
l’on a une théorie peu élaborée sur les facteurs explicatifs potentiels du phénomène exploré. On
laisse faire le modèle, en quelque sorte. Lorsque la théorie est un peu plus solide, l’une ou l’autre
des deux stratégies peut convenir. De manière générale, pouvoir analyser l’évolution du R2 en
fonction des variables introduites dans le modèle est intéressant. De ce point de vue, les
régressions hiérarchiques ou pas à pas sont à préférer.
\/|
$|
4$
By
Fiche technique 14.4. Principaux coefficients d’une régression multiple
1 – Coefficient de régression partiel [bi]
Il représente la variation attendue de Y lorsque Xi change d’une unité et que les autres variables X sont
maintenues constantes ou contrôlées. Les effets des variables X sont supposés additifs, c’est-à-dire que lorsque
Xi et Xj sont modifiées d’une unité, le changement attendu sur Y est égal à (bi + bj).
2 – Coefficient de régression standardisé partiel [βi]
C’est le même que le précédent, mais son calcul suppose que toutes les variables prises en compte dans l’analyse
aient été centrées-réduites (i.e. ramenées à une moyenne de 0 et un écart-type de 1). Ces coefficients
apparaissent dans la colonne β de la figure 14.37.
Si les variables X sont parfaitement indépendantes entre elles, le R2 multiple sera la somme des R2 simples. Le
R2 multiple augmente mécaniquement avec le nombre de variables indépendantes. Pour pallier cet
inconvénient, on calcule un R2 ajusté qui tient compte du nombre de variables indépendantes utilisées et de la
taille d’échantillon.
Le R2 ajusté est une mesure plus réaliste, donc souvent plus faible, que le R2 « normal ». Son expression générale
\/|
est :
$|
4$
n = taille d’échantillon.
La valeur de ce coefficient peut être testée par :
Cette statistique suit une loi en F de Fisher à k (numérateur) et n – k – 1 (dénominateur) degrés de liberté (voir
chapitre 12).
On rejette H0 (R2 = 0) si Fcalculé > Ftabulé.
4 – Coefficient de corrélation multiple
Il est égal à la racine carrée du R2 multiple. On peut le considérer comme la corrélation linéaire entre Y et
l’ensemble des variables explicatives. C’est un autre indicateur de qualité du modèle.
5 – Coefficient de corrélation partielle
C’est l’association « résiduelle » de deux variables, une fois éliminé l’effet de toutes les variables qui peuvent leur
être liées. En régression, il permet d’identifier la variable indépendante qui a le plus d’influence « nette » sur la
variable à expliquer.
La corrélation partielle entre x et y, en contrôlant z, notée rxy.z est donnée par :
Exemple
Le R2 de la régression simultanée est :
Modèle R R2 R2 ajusté
1 0,679 0,461 0,453
exemple, que le poids des variables « psychologiques » n’était pas significatif. Perd-
on en qualité si on exclut ces deux variables du modèle ?
By
R-deux
Modèle R R-deux
ajusté
1 0,667 0,445 0,442
2 0,676 0,457 0,453
Ce tableau est à mettre en parallèle avec la figure 14.37. ter. On voit que le R2 ajusté lié à
l’introduction du nombre de séjours est de 0,442. Le gain lié à l’introduction du nombre d’enfants
est de 0,011. Ensemble, ces deux variables expliquent la même proportion de variance que le
modèle précédent. Les deux autres variables sont donc inutiles. Dans ces situations, le critère de
« parcimonie » doit l’emporter et le modèle le plus simple doit être préféré.
Le test de ce R2 donne un résultat significatif :
La valeur critique du test (table 5 téléchargeable) de F à 4 et 263 degrés de liberté est égale à 2,37.
H0 peut donc être rejetée et R2 considéré comme différent de 0 dans la population.
– Pour l’analyse globale, le test en F est égal à :
L’influence respective de chacune des deux variables indépendantes peut être analysée au moyen de
4$
Corrélations
Modèle Corrélation
Partielle
simple
Nombre de séjours 0,667 0,673
2 Enfants à charge 0,083 0,148
C’est bien le nombre de séjours qui a le plus fort lien avec la durée totale des vacances puisque la
corrélation entre les deux ne change pratiquement pas lorsque l’on élimine l’effet du nombre
d’enfants. Par contre le lien entre le nombre d’enfants et la durée des vacances est (faiblement)
pénalisé par la présence du nombre de séjours puisque la corrélation partielle est plus élevée que
la corrélation simple.
crédit, une police...). Les renseignements pris lors d’une demande de crédit sont
utilisés, au moyen d’une fonction discriminante, pour affecter la personne à un groupe
« à risque » ou non. La décision finale est prise en fonction de ce résultat.
B. Étapes de l’analyse
Un exemple d’application nous servira pour comprendre les différents paramètres et interpréter les
résultats d’une analyse discriminante.
Exemple
Une agence de voyages souhaite identifier les variables les plus explicatives du
montant dépensé annuellement pour les vacances, de manière à pouvoir mieux prédire
le volume d’affaires potentiellement réalisable avec de futurs prospects. Elle dispose
d’une base de données sur laquelle elle vous demande de « calibrer » le modèle.
En passant en revue les variables disponibles dans la base, il vous semble que la
tendance à la recherche de stimulation, la tendance à la recherche d’information, le
nombre de jours passés hors domicile pour les vacances et le nombre d’enfants au
foyer sont les variables a priori les plus intéressantes.
La variable dépendante étant continue, vous décidez de la rendre binaire, sur la base
de la médiane de la variable, pour obtenir deux groupes de taille équivalente. La
tendance à la recherche de stimulation et la tendance à la recherche d’information sont
des scores factoriels issus d’analyses en composantes principales.
Durée Recherche
Stimulation Enfants
des séjours d’information
Durée
séjours hors 1
domicile
Recherche
0,118 1
d’information
Stimulation 0,015 0,255 1
Nombre
0,115 – 0,032 – 0,170 1
d’enfants
\/|
$|
4$
La distribution des variables doit être normale. À nouveau le test unilatéral de Kolmogorov-
Smirnov se montre bien adapté.
By
Exemple (suite)
Deux variables ne respectent pas la condition puisque les tests amènent à rejeter
l’hypothèse nulle de normalité. Il s’agit de la durée des séjours et du nombre d’enfants
à charge.
Durée Recherche
Stimulation Enfants
des séjours d’information
N 302 303 287 301
Z de
Kolmogorov- 3,133 1,329 1,039 5,386
Smirnov
Signification
asymptotique 0,000 0,059 0,231 0,000
(bilatérale)
Dans cette situation, un examen des statistiques descriptives, notamment de forme, montre si l’écart
à la normalité des distributions est important ou non. Si c’est le cas, il faut envisager une
transformation des variables concernées ou les éliminer.
Exemple (suite)
Le tableau ci-dessous montre des coefficients d’asymétrie et d’aplatissement
relativement proches de zéro et des écarts moyenne-médiane modérés. Dans ces
conditions, il paraît raisonnable de continuer l’analyse.
La contrainte d’égalité des matrices de variances-covariances est souvent plus difficile à respecter.
Le test en M de Box pose l’égalité des matrices en hypothèse nulle. En cas de rejet de cette
hypothèse, on ne peut être sûr que la fonction discriminante garantira la plus faible probabilité
By
M de Box 8,088
approximativement 0,796
ddl1 10
F
ddl2 277 217,206
signification 0,633
Avant de procéder à l’analyse discriminante proprement dite, on peut s’interroger sur la capacité
des variables indépendantes à classer les individus dans deux groupes bien distincts. Une série de
\/|
tests de différences de moyennes sur chacune des variables indépendantes permet de répondre à
$|
cette question. On peut utiliser des tests de Student ou des tests de Fisher. Les logiciels retiennent
4$
Exemple (suite)
Les différences de moyennes entre les deux groupes sont significatives pour trois
critères sur les quatre. Seule la tendance à la recherche d’information ne différencie
pas les individus. Ou plus exactement le test est significatif à 10 % seulement. Le
poids de cette variable dans la fonction discriminante sera donc faible, voire non
significatif. Pour l’instant, il peut être intéressant de la laisser dans l’analyse.
Exemple (suite)
Les coefficients de l’équation discriminante sont les suivants (figure 14.38.).
Ces coefficients représentent les poids des différentes variables dans le calcul des
scores discriminants. La première série donne les coefficients calculés à partir des
\/|
variables centrées-réduites. La seconde série de coefficients est calculée à partir des
$|
variables brutes. C’est elle qui va servir pour le calcul des scores individuels.
4$
Le poids le plus important est affecté à la durée des séjours hors domicile, puis au
nombre d’enfants à charge. Il n’y a pas de variable jouant un rôle totalement
By
Fonction Fonction
1 1
Durée des séjours 0,750 0,075
Recherche d’information 0,240 0,243
Stimulation – 0,308 – 0,311
Enfants à charge 0,529 0,538
– 2,038
Coefficients non
Coefficients standardisés
standardisés
Exemple (suite)
Le score d’un individu i sera égal à :
Di = – 2,038 + 0,075C1b + 0,243SFInf ○ Sub j – 0,311SFOSL + 0,538ENF
Les valeurs prises par l’individu 1 sur les quatre variables indépendantes sont :
Durée Recherche
Stimulation Enfants
des séjours d’information
7 0,73409 – 0,98948 0
Le calcul du score discriminant de cet individu (le principe étant identique pour les autres) est égal
à: \/|
D1 = – 2,038 + 0,075 × 7 + 0,243 × 0,73409 – 0,311 × – 0,98948 + 0,538 × 0 = – 1,02689
$|
4$
Les scores discriminants servent de base à la réaffectation des individus aux groupes. Comme la
By
« vraie » composition des groupes est déjà connue, les scores calculés vont par conséquent
permettre de reconstituer deux groupes. La comparaison des quatre groupes – les deux observés et
les deux reconstitués – sera le critère principal de qualité de l’analyse.
Techniquement, l’affectation aux groupes se fait en fonction des centroïdes de ces derniers, c’est-à-
dire par comparaison avec un score discriminant « moyen » pour chaque groupe. Ce score moyen
est calculé à partir de la fonction discriminante, où l’on remplace les valeurs individuelles par les
moyennes des variables indépendantes pour le groupe dont on s’occupe.
Exemple (suite)
Les scores discriminants moyens pour les deux groupes sont :
Fonction
Budget annuel en €
1
moins de 1 500 – 0,615
1 500 et plus 0,427
Les moyennes des quatre variables indépendantes pour les deux groupes sont égales à :
Le calcul du score discriminant moyen, pour le groupe 1 par exemple, se fait ensuite simplement (la
différence avec le chiffre donné ci-dessus – 0,615 – est due aux arrondis de calcul) :
D1 = – 0,238 + 0,0075 × 16,33 + 0,243 × – 0,16 – 0,311 × 0,167 + 0,538 × 0,553 = – 0,606
\/|
Chaque score discriminant individuel est ensuite comparé aux deux scores moyens et affecté au
groupe dont il est le plus proche. À partir de quel score va-t-on affecter les individus au groupe 2 et
$|
non plus au groupe 1 ? Ce score « frontière » est la moyenne pondérée, par les tailles des groupes,
4$
Où : D1 et D2 sont les scores discriminants moyens pour les groupes 1 et 2, et n1 et n2 les tailles des
groupes 1 et 2.
Exemple
Le score frontière, pour notre exemple, est :
accompagné d’un test, qui transforme le λ en une statistique distribuée selon une loi du χ2, dont
4$
Exemple
La corrélation canonique est moyenne. Les scores discriminants calculés ne sont donc
pas parfaitement associés aux scores sur la variable dépendante, ce qui indique que la
fonction aura probablement du mal à reclasser correctement les individus.
Valeur % de la Corrélation
Fonction Cumulé
propre variance canonique
1 0,265 100,0 100,0 0,457
Le carré de 0,457 est égal à 0,209. Le « modèle » (i.e. les quatre variables constitutives de la
fonction discriminante) ne contribue qu’à 20,9 % de l’information de la variable dépendante.
Le lambda de Wilks est bien inférieur à 1. Le test est significatif et amène à rejeter l’hypothèse
nulle d’égalité des centroïdes. On peut en conclure que l’existence des deux groupes est justifiée, et
que la fonction discriminante explique une partie non négligeable des différences entre ces derniers.
Lambda
Fonctions Khi-deux ddl Signification
de Wilks
1 0,791 64,339 4 0,000
Exemple (suite)
La fonction discriminante est essentiellement interprétable à partir de la durée des
séjours hors domicile. Comme le signe est positif, cela signifie que les individus ayant
des valeurs élevées sur cette variable auront également des scores discriminants
élevés et inversement. À un moindre degré, le nombre d’enfants contribue également à
la fonction discriminante. Les autres coefficients sont négligeables.
\/|
Fonction
$|
1
4$
Enfants 0,567
Stimulation – 0,268
Recherche d’information 0,199
dans l’absolu. Il doit être comparé au pourcentage que l’on obtiendrait si l’on reclassait les
individus au hasard. Le cas le plus simple est celui où l’on a deux groupes de tailles égales :
By
chaque individu a alors une chance sur deux d’appartenir à un groupe donné. Dans le cas général,
on utilise un critère de référence :
Cpro = p2 + (1 – p)2
Où :Cpro est le critère de référence dit « proportionnel »,
p est la proportion observée d’individus dans le groupe 1,
(1 – p) est la proportion observée d’individus dans le groupe 2.
Exemple
Figure 14.40. Probabilités a priori des groupes
Le premier groupe compte 114 individus, soit 41 % de l’effectif et le second groupe compte
164 individus, soit 59 % de l’effectif. On a donc p = 0,41 et (1 – p) = 0,59. Le calcul du coefficient
donne :
Cpro = p2 + (1 – p)2 = 0,412 + 0,592 = 0,5162 \/|
$|
Le test Q de Press vérifie ensuite que le pourcentage d’individus correctement classés est bien
4$
significativement plus important que celui donné par un critère aléatoire (quel qu’il soit). Il ajuste
le nombre d’individus correctement classés à la taille d’échantillon et au nombre de groupes. La
By
statistique calculée suit une loi du χ2 à 1 degré de liberté. L’hypothèse nulle pose que le nombre
d’individus bien classés au hasard et le nombre d’individus bien classés par la fonction
discriminante sont égaux. L’expression de ce test est(359) :
où :n = taille d’échantillon,
nc = nombre d’individus correctement classés,
k = nombre de groupes.
Exemple
Conclusion
\/|
Les méthodes d’analyses multivariées poursuivent des objectifs assez contrastés. Les méthodes
descriptives cherchent simplement à faire une synthèse des informations contenues dans un
$|
ensemble de variables. Pour des données métriques, on utilise l’analyse factorielle. L’analyse des
4$
correspondances (simple ou multiple) sert pour des variables nominales. À partir de variables
choisies a priori, les méthodes d’analyse typologique construisent des groupes d’individus le plus
By
homogènes possible. L’analyse des similarités et des préférences transforme des distances
perceptuelles entre objets, obtenues par exemple par des classements, en distances objectives
projetées sur un plan que l’on nomme « carte perceptuelle ».
Les techniques explicatives isolent une ou plusieurs variables. Les autres servent à expliquer la
manière dont les premières varient. La régression multiple fait appel à plusieurs variables
indépendantes métriques. L’analyse discriminante prédit l’appartenance d’un individu à l’une des
catégories constitutives d’une variable dépendante.
Les méthodes d’analyses multivariées sont complexes, mais en même temps indispensables parce
que riches d’informations que les méthodes univariées et bivariées ne peuvent fournir.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’analyse en composantes principales vise à :
(1) synthétiser un ensemble de variables métriques
(2) expliquer des distances entre objets sur des variables ordinales
(3) représenter graphiquement une relation entre plusieurs variables catégorielles
Q2. En AFC, l’interprétation des axes se fait notamment au moyen :
(1) des valeurs propres de ces axes
(2) des contributions des modalités des variables à l’inertie des axes
(3) des tests du χ2 sur les tableaux de contingence de départ
Q3. Dans une typologie, les distances entre objets (variables nominales)
se calculent par :
(1) la distance euclidienne \/|
(2) la corrélation des rangs de Spearman
$|
Q4. Le stress, lors d’une analyse des similarités, indique une bonne performance :
By
Bibliographie
BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and
Applications. A Computer Package Approach, Prentice-Hall, Englewood Cliffs, 1983.
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
DILLON W. R. et GOLDSTEIN M., Multivariate Analysis. Concepts and Applications, John Wiley &
Sons, New York, 1984.
GREEN P. E., CARMONE F. J. Jr. et SMITH S. M., Multidimensional Scaling. Concepts and
Applications, Allyn & Bacon, Boston, 1989.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, Londres, 1988.
HAIR J. F. Jr., BLACK W. C., Babin B. J. et ANDERSON R. E., Multivariate Data Analysis. A Global
Perspective, 7e éd., Pearson Education, New York, 2013.
JOHNSTON J., Méthodes économétriques, vol. 1, Economica, Paris, 1985.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LAMBIN J.-J., La recherche marketing, McGraw-Hill, Paris, 1990.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.
\/|
$|
4$
By
Chapitre 15
Les chapitres précédents ont permis d’introduire un certain nombre de techniques d’analyse de
données et d’illustrer leur fonctionnement au moyen d’exemples concrets. Celui-ci est rédigé dans
le même esprit. Nous y présentons trois méthodes permettant de traiter des données expérimentales.
Le concept d’expérimentation est au cœur de ce chapitre. Nous tenterons de montrer son intérêt
pour la mise en évidence de phénomènes importants en marketing. Il s’agit en effet de mettre au jour
des relations de cause à effet entre variables.
\/|
$|
Les inférences causales sont directement dépendantes de la manière dont les informations sont
collectées et pas du tout de la méthode de traitement des données. Si la méthode de collecte a été
4$
pensée pour faire émerger, le cas échéant, des liens de causalité entre variables, alors les trois
familles de méthodes abordées dans ce chapitre ont une portée explicative et/ou prédictive
By
\/|
$|
I. Collecter des données au moyen d’un plan d’expérience
4$
Le concept de causalité est important pour comprendre la suite de ce chapitre. Il fait l’objet d’un
premier point. Les différents « plans expérimentaux » utilisables en marketing sont présentés
By
ensuite. La validité et les limites des méthodes expérimentales termineront cette première partie.
Exemple
Une augmentation de 5 % du prix du produit va-t-elle provoquer une baisse
significative de la demande ? Redessiner le packaging de manière à ce qu’il offre une
meilleure prise en main et attire davantage le regard en linéaire va-t-il permettre de
faire entrer la marque dans l’ensemble évoqué des consommateurs ?
Pour autant, cette force n’est pas manipulable directement. La cause matérielle consiste à expliquer
l’état de certaines choses par l’existence même des éléments qui les composent. On notera ici une
By
certaine proximité, tout de même, avec l’idée de cause formelle. La cause téléologique, enfin,
revient à essayer d’expliquer certains processus par les buts finaux vers lesquels ils semblent
s’acheminer. La théorie moderne des attracteurs étranges ou certaines idées de la théorie de
l’évolution illustrent cette dimension de la causalité.
Ces fondements sont encore largement à l’œuvre dans la pensée scientifique contemporaine. Cela
étant, ils sont d’une portée opérationnelle moindre, pour le marketing, que l’étude des
manifestations concrètes de la causalité. C’est le point que nous abordons donc maintenant.
Enfin, on ne peut jamais prouver que X est cause de Y. Tout au plus peut-on l’inférer, à partir de
preuves empiriques obtenues par l’expérience. Cela étant, la « vraie » causalité est du domaine
d’un monde « réel » qui nous est inaccessible en raison de l’imperfection de nos sens et de nos
instruments de mesure.
Ceci pose donc la question de la nature de la preuve empirique permettant d’inférer une relation de
cause à effet entre deux variables. On en distingue généralement quatre(362).
a. Variation concomitante
Une relation d’association ou de covariation entre deux variables est une condition nécessaire
(mais non suffisante) à l’existence d’un lien de cause à effet. Cette relation peut être de nature
qualitative ou quantitative. Dans le premier cas, elle est mesurée par un test de contingence du χ2 et
dans le second par un coefficient de corrélation linéaire. Attention, bien entendu, aux phénomènes
\/|
d’association fallacieuse, présentés dans les chapitres précédents.
$|
La cause doit précéder chronologiquement l’effet. Selon les phénomènes étudiés, le temps
By
nécessaire à ce que la cause produise son effet peut être plus ou moins long.
Exemple
En physique des particules, les expériences produisent des effets à l’intérieur de
fractions infinitésimales de temps. L’augmentation du taux de gaz carbonique dans
l’atmosphère modifie le climat à l’échelle du siècle au moins.
Parfois, l’ordre chronologique d’apparition des phénomènes est difficile à analyser. L’augmentation
du budget publicitaire augmente-t-elle les ventes, ou est-ce le contraire ?
c. Élimination des autres sources possibles de causes
De très nombreux phénomènes, et particulièrement en sciences humaines, sont « multifactoriels ». Il
importe de pouvoir contrôler ou éliminer l’effet de certains facteurs sur la relation principale
étudiée.
– niveau : c’est une valeur possible d’un facteur. Généralement, on travaille avec des facteurs à
deux ou trois niveaux. Au-delà, la complexité du plan devient difficile à gérer ;
By
– variable à expliquer : elle exprime la réponse faite par l’unité expérimentale au traitement. Le
plus souvent, on définira comme variable à expliquer un comportement, une attitude, un niveau de
ventes... Elle a le même statut que la variable à expliquer d’une analyse de régression, par
exemple ;
– traitement : c’est l’ensemble des facteurs, contrôlés et/ou manipulés, auxquels une unité
expérimentale est soumise lors de l’expérience. Le nombre de traitements possibles dans une
expérience donnée est le produit du nombre de niveaux de l’ensemble des facteurs pris en compte.
Exemple
Un message publicitaire avec musique et arguments rationnels est un traitement fondé
sur deux facteurs (musique et argumentation). Un autre traitement serait « sans musique
et avec arguments émotionnels ». Dans cette expérience à deux facteurs mesurés à deux
niveaux chacun, il y a quatre traitements possibles (2 × 2).
1. Plans à un facteur
Ils se distinguent selon l’utilisation, ou non, de « groupes de contrôle », qui ne subissent pas le
traitement.
a. Un groupe mesuré après le traitement, sans contrôle
Il s’agit d’appliquer le traitement à un groupe d’unités expérimentales et d’en mesurer les effets.
Exemple
Un message publicitaire en faveur de la lutte anti-tabac est diffusé pendant une
émission dont le sujet est la musique techno sur une chaîne s’adressant à une cible
jeune. Une enquête téléphonique réalisée immédiatement après la diffusion auprès d’un
échantillon de téléspectateurs fumeurs et âgés de 15 à 24 ans montre que 25 % d’entre
\/|
eux expriment leur intention d’arrêter de fumer. Le message a-t-il été efficace ?
$|
4$
Le problème de ce plan est l’absence de base de comparaison. Quelle est l’intention d’arrêter de
fumer chez les jeunes fumeurs n’ayant pas été soumis au message ? Ce plan n’a d’intérêt que
By
Exemple
On teste deux prototypes de message publicitaire anti-tabac. Ils sont strictement
identiques sauf pour la musique : rap pour l’un, techno pour l’autre. On répartit
aléatoirement 80 jeunes âgés entre 15 et 24 ans en deux groupes. Un groupe est exposé
au message rap, l’autre au message techno. Les pourcentages d’individus convaincus
sont respectivement de 26 % pour le message rap et 31 % pour le message techno.
L’effet mis en évidence ne peut être que relatif. On identifie le meilleur traitement sur les deux
testés, sans plus. Dans ce cas, il faudrait bien sûr retenir le message « techno »(364). Mais le faible
taux d’acceptation indique que d’autres éléments entrent en ligne de compte et que c’est peut-être
toute la stratégie de communication qui est à revoir.
Ce type de plan est relativement bien adapté en cas de lancement de nouveau produit ou, plus
généralement, de mise en place d’une nouvelle activité pour laquelle on ne peut pas, techniquement,
faire de mesure « avant ». Il est assez bien adapté à la sélection a priori de différentes solutions de
marketing opérationnel(365).
b. Un groupe, mesuré avant et après le traitement, sans contrôle
Ce plan donne une base de comparaison en mesurant la variable à expliquer avant l’affectation des
unités expérimentales au traitement.
Exemple
On observe les ventes moyennes hebdomadaires d’un produit pendant un certain
temps, dans un magasin. On change la disposition de ce produit (e.g. on le monte à
hauteur des yeux s’il était plus bas). On mesure ensuite ces mêmes ventes
hebdomadaires moyennes, pendant la même période et « toutes choses égales par
ailleurs ».
Une différence entre les deux chiffres moyens de ventes est un indicateur intéressant de l’impact du
changement de position dans le rayon. Il faut néanmoins l’analyser avec prudence. En effet, de
nombreux événements ont pu se produire entre les deux mesures, dont l’effet sur les ventes serait
beaucoup plus important. Par exemple, une vague de chaleur s’il s’agit d’une boisson fraîche ou
d’une crème glacée.
Par ailleurs, l’expression « toutes choses égales par ailleurs » reste assez théorique. Dès lors que
\/|
des jugements et comportements humains sont en jeu, il est impossible de contrôler l’ensemble des
$|
événements susceptibles d’avoir un effet sur la variable à expliquer. C’est une limite à la validité
4$
des résultats.
Toutefois, certaines méthodes statistiques utilisent un terme d’erreur pour tenir compte de tous ces
By
d’invalidité, toujours sous réserve de l’affectation aléatoire des traitements aux groupes
expérimentaux.
By
f. Synthèse
La figure 15.2. récapitule les caractéristiques de ces quatre plans. Ceux-ci doivent être utilisés dans
des situations relativement simples où l’effet d’une seule variable explicative doit être testé. Dans
ce contexte, ils sont performants. Il est bien entendu possible d’envisager la présence de trois
niveaux ou plus dans les plans. Dans ce cas, on s’intéresse à l’efficacité relative de chacun des
niveaux et on se ramène le plus souvent à un plan de type « après avec contrôle ». On parle alors de
« plan complètement aléatoire » (completely randomized design).
Figure 15.2. Synthèse des caractéristiques des plans expérimentaux à un facteur
Dans de nombreuses situations toutefois, le chargé d’études souhaite tester l’effet de deux facteurs,
voire plus. Par exemple, l’effet d’un changement de prix et de conditionnement sur les ventes d’un
produit. Il est alors nécessaire d’avoir recours à d’autres types de plans.
Carré latin
L’inconvénient du plan stratifié est d’être limité à une seule variable contrôlée. Le carré latin
permet de contrôler deux variables, toujours en supposant une absence d’interaction entre celles-ci,
et sous contrainte d’égalité du nombre de niveaux de chacune d’entre elles (facteur et variables à
contrôler).
Un plan en carré latin se présente sous forme d’un tableau dont les lignes et les colonnes
correspondent aux « blocs » des variables contrôlées. Les niveaux du facteur (i.e. la variable
\/|
manipulée) sont ensuite affectés aux « cellules » du tableau, de manière à ce qu’ils n’apparaissent
$|
qu’une seule fois par ligne et une seule fois par colonne.
4$
By
Exemple
On veut tester l’impact d’une baisse de prix (facteur manipulé) sur les ventes d’un
produit de soin personnel (variable à expliquer). On suppose que la « réponse » du
marché diffère selon le type de magasin (variable de contrôle 1) et selon la « richesse
vive » de la zone (variable de contrôle 2). Si chacune des trois variables explicatives
est mesurée à trois niveaux, on peut construire le tableau suivant :
Type de magasin
Richesse Grand Hard
Hyper/Super
vive magasin discount
Forte
Moyenne
Faible
Il reste maintenant à affecter les niveaux de prix aux neuf cellules du tableau. On le fait selon une
procédure aléatoire simple. Par exemple, le prix 1 (baisse de 5 %) est affecté à la cellule Hard
discount – Richesse forte, le prix 2 (baisse de 10 %) à la cellule Hyper/Super – Richesse moyenne
et le prix 3 (baisse de 20 %) à la cellule Hyper/Super – Richesse forte. On peut compléter la table
en respectant la règle de l’unicité de chaque niveau de prix par ligne et par colonne.
Type de magasin
Grand
Richesse vive Hyper/Super Hard discount
magasin
Forte prix 2 prix 3 prix 1
Moyenne prix 1 prix 2 prix 3
Faible prix 3 prix 1 prix 2
La décision suivante concerne le type de collecte à effectuer. Dans une telle situation, un plan de
type « après avec contrôle » pourrait être utilisé. On pourrait par exemple « affecter
aléatoirement » 5 magasins de chaque type dans chaque zone à chaque niveau de prix(366). Des
échantillons de 5 magasins pour chaque cellule proposeraient le prix normal et serviraient
d’échantillons de contrôle. Cela représente au total 90 magasins. L’information recueillie est la
\/|
différence moyenne de ventes dans chaque cellule. Dans ce cas, on parlerait de plan avec
$|
répétition, car le nombre d’unités expérimentales par traitement est supérieur à 1. Lorsqu’il est égal
à 1, on parle de plan sans répétition.
4$
By
En outre, à partir de deux facteurs manipulés, des phénomènes d’interaction entre ces derniers
peuvent apparaître. Il faut donc tenir compte, non seulement de l’effet direct de chacun des facteurs,
mais également du « surcroît d’effet » occasionné par la présence simultanée des facteurs.
Exemple \/|
La présence d’humour et de musique techno dans un message publicitaire est
$|
probablement susceptible de renforcer l’acceptation du message auprès des moins de
4$
25 ans. Davantage, en tout cas, que la présence de musique techno seule ou d’humour
seul.
By
L’interaction entre deux facteurs peut être définie comme un effet différent de la somme des effets
des facteurs considérés individuellement. Quand elle est positive, il y a un effet de renforcement ou
de synergie (« 2 + 2 = 5 »). Elle peut également être négative.
Lorsque l’on tient compte des effets d’interaction, la complexité des plans augmente
considérablement. Dans un plan à trois facteurs, par exemple, il faut tenir compte des effets directs
des trois facteurs, puis des trois effets d’interaction entre facteurs pris deux à deux, puis de l’effet
d’interaction des trois facteurs pris ensemble.
Tout ceci incite l’analyste à bien réfléchir à son problème avant de construire son plan et de lancer
sa collecte de données. Si des hypothèses restrictives quant aux effets d’interactions peuvent être
formulées, à partir d’une réflexion théorique approfondie sur le sujet étudié ou d’une expérience
préalable dans le domaine, alors le nombre de traitements à appliquer peut être considérablement
réduit. La collecte et l’analyse des données s’en trouveront par conséquent très simplifiées. Ces
restrictions sur les effets d’interaction conduisent à mettre au point des plans factoriels dits
« incomplets ».
1. Validité interne
La notion de validité interne est relative à la capacité que l’on a d’attribuer l’effet observé au(x)
facteur(s) contrôlé(s) et à rien d’autre.
Exemple
Si l’on teste l’effet d’une baisse de prix sur les ventes d’un produit, on parlera de
validité interne de l’expérience si l’on peut être raisonnablement sûr que
l’augmentation des ventes constatée est bien due à la baisse de prix manipulée, et non,
par exemple, à une campagne promotionnelle, à des sujets à faible pouvoir d’achat
particulièrement sensibles au prix, au type de magasin dans lequel l’expérience a été
réalisée...
La validité interne se préoccupe par conséquent de la solidité de la relation causale testée.
Techniquement, il s’agit de pouvoir mettre en évidence des effets statistiquement discernables au
seuil de confiance fixé. Pour y parvenir, il faut construire soigneusement le plan. On essaiera de
retenir les variables susceptibles a priori de produire les effets offrant le plus de contraste
possible. Autrement dit, il faut se baser sur une théorie et des hypothèses soigneusement élaborées.
En outre, il faut essayer d’éliminer, également, a priori toutes les sources d’erreurs ou de
problèmes susceptibles de masquer ces effets.
Bref, il faut se poser deux questions importantes, l’une d’ordre théorique, l’autre d’ordre pratique.
D’une part « l’effet que j’essaie de mesurer existe-il vraiment (théorie) ? » ; d’autre part « quelles
sont les différentes sources possibles de pollution de cet effet (pratique) ? »
La validité interne peut être mise en défaut par différentes sources de problèmes(368). Chacune de
ces sources de biais doit être prise en compte au moment des différentes prises de décisions lors de
la définition et de la mise en place de l’expérience.
2. Validité externe
On parle de validité externe lorsqu’il est possible de généraliser les résultats de l’expérience ou de
les extrapoler à d’autres situations comparables, par exemple les conditions réelles du marché.
Cette généralisation est à effectuer avec beaucoup de précautions, car les résultats ne sont jamais
intégralement adaptables, en raison du caractère artificiel, par construction, des expériences. La
\/|
validité externe est fonction du réalisme de l’expérience, et sera faible si les conditions
$|
expérimentales s’éloignent trop des conditions réelles du marché. Il s’agit donc de contrôler au
4$
mieux l’ensemble des dimensions de l’expérience sur ce point. Les conditions générales de
l’expérimentation doivent être telles que les variables exogènes prises en compte soient
représentatives de l’ensemble des variables intervenant dans la réalité.
By
revanche, dès lors que le nombre de niveaux est supérieur à deux et, a fortiori, dès lors que le
nombre de facteurs augmente, il faut avoir recours à des méthodes plus sophistiquées.
By
Les deux méthodes les mieux adaptées au traitement des plans d’expérience sont l’analyse de
variance et l’analyse conjointe. La première offre une plus grande souplesse et permet de traiter un
très grand nombre de situations et de plans. La seconde est davantage adaptée à un certain nombre
de cas particuliers. Elles n’en restent pas moins toutes deux des outils précieux pour la pratique
marketing.
A. Analyse de variance
Autour d’un noyau commun, l’analyse de variance présente une grande variété de formes possibles.
Nous présenterons ici le modèle de base et proposerons une bibliographie plus spécialisée lorsque
cela sera nécessaire.
L’analyse de variance a pour objectif d’expliquer les variations d’une variable dépendante mesurée
au niveau métrique au moyen d’une ou plusieurs variables explicatives (i.e. les facteurs des plans)
catégorielles. Il est possible d’utiliser des variables de toute nature, y compris métriques à
condition de les recoder en un nombre de catégories relativement limité. L’analyse de variance
permet également d’analyser les effets d’interaction entre les facteurs.
On peut distinguer deux types d’analyses : celles portant sur des plans de type « après » (qu’il y ait
groupe de contrôle ou non) et celles portant sur des plans de type « avant/après ». Les premières
sont relativement simples et se distinguent par le nombre de facteurs à traiter qui, s’il est supérieur
à un, implique l’analyse des effets d’interaction. Les secondes font intervenir la notion de « mesures
répétées » et sont, de ce fait, plus complexes. Le cas de l’analyse de variance à un facteur, assez
simple, sera d’abord exposé, en guise de présentation générale de la méthode. On passera ensuite à
une analyse à deux facteurs avec effets d’interaction. Cette présentation se terminera par une
évocation rapide de l’analyse de variance sur mesures répétées(369) et de l’analyse de covariance.
\/|
$|
4$
By
Exemple
L’exemple qui va servir de fil rouge aux explications met en relation une croyance et
une variable d’intention de comportement, respectivement variable explicative et
variable à expliquer. La croyance est « Un produit acheté en VPC est plus cher que son
équivalent en grande distribution ». Elle a été mesurée sur une échelle de Likert à cinq
postes, puis recodée en trois catégories : « Pas d’accord » regroupe les deux premiers
échelons, « Neutre » est le troisième échelon resté inchangé et « D’accord » regroupe
les deux derniers échelons. L’intention de comportement (acheter en VPC dans les six
mois à venir) a été mesurée sur une échelle de probabilité à 11 échelons gradués de 0
à 100 par intervalle de 10. Elle peut être considérée comme une échelle de ratio. Les
répondants sont un échantillon de convenance de quarante étudiants Voici les données :
50 30 25
By
90 30 30
60 75 55
10 60 25
75 65 45
55 50 40
85 80
65
50
L’analyse de variance repose, comme l’analyse de régression, sur le « modèle linéaire général » et
sur un test statistique. Pour permettre de formuler des conclusions valides pour la population, les
deux supposent le respect d’un certain nombre de contraintes d’ordre technique. Elles seront
présentées un peu plus loin
Plus précisément, il s’agit d’une méthode permettant de conclure objectivement s’il existe dans la
population (dont on a extrait l’échantillon) des différences statistiquement discernables entre les
valeurs moyennes de la variable à expliquer dans les différents groupes que la (ou les) variables
explicatives permet(tent) de constituer.
Exemple
La nature de la croyance (positive, neutre ou négative à l’égard de la VPC) influence-
t-elle de manière statistiquement discernable l’intention d’achat dans la population ?
Pour cela, on calcule les scores d’intention moyens pour chacun des trois groupes. Ce
seront les données d’entrée de l’analyse de variance.
60 75 55
10 60 25
By
75 65 45
55 50 40
85 80
65
50
ni 13 15 12
Xi 58,846 57,667 35,833
si 25,096 22,980 14,434
Avant d’analyser ces résultats, revenons sur les contraintes d’utilisation de l’analyse de variance.
a. Contraintes d’utilisation de l’analyse de variance
Trois contraintes sont à respecter dans la population parente : les observations doivent être
indépendantes (les unes des autres), la variable à expliquer doit être distribuée selon une loi
normale dans chacun des groupes et la variable doit avoir la même variance dans chacun des
groupes (homoscédasticité).
Exemple
By
Kolmogorov-Smirnov
Attitude (correction de Lilliefors) Shapiro-W
prix
Statistique ddl Signification Statistique ddl Si
Pas d’accord 0,131 13 0,200* 0,979 13
Intention Neutre 0,169 15 0,200* 0,971 15
D’accord 0,170 12 0,200* 0,929 12
On constate pour les trois groupes que les tests sont non significatifs, c’est-à-dire que l’hypothèse
de normalité de la distribution ne peut pas être rejetée. En effet, la « signification » (ou « p-value »)
du test, qui peut s’interpréter comme la probabilité de commettre une erreur de type I, dépasse le
seuil de risque conventionnel de 5 % (α).
L’analyse de variance est plus sensible à une violation de la contrainte d’homogénéité des
variances. Elle fausse les conclusions, surtout si les échantillons ne sont pas de même taille. Si les
gros échantillons ont des variances importantes, on peut alors rarement rejeter l’hypothèse nulle. On
en conclut, de manière erronée, à l’absence de relation entre les variables dans la population.
La valeur de W est comprise entre 0 et 1. Elle est comparée à une valeur critique, également lue dans la table,
liée à la taille d’échantillon et α. Dans notre exemple, cette valeur critique est égale à 0,94.
La statistique W peut être interprétée comme le coefficient de détermination (le carré du coefficient de
corrélation) entre la série des quantiles générés à partir de la loi normale et les quantiles empiriques obtenus à
partir des données.
Contrairement aux autres tests, plus la valeur calculée de W est élevée, plus la compatibilité avec la loi normale
est crédible. Les règles de décision s’écrivent donc à l’inverse de la plupart des tests : on ne rejette pas H0
(hypothèse de normalité) si la valeur calculée est supérieure à la valeur critique et on la rejette dans le cas
contraire.
Sources : http://www.jybaudot.fr/Tests/testsnormalite.html ;
http://eric.univ-lyon2.fr/~ricco/cours/cours/Test_Normalite.pdf
À l’inverse, si les échantillons de plus petite taille ont des variances élevées, alors le test devient
« libéral » et permet de rejeter l’hypothèse nulle dans la plupart des cas(370).
Lorsque cette contrainte n’est pas respectée, il existe des transformations (racine carrée ou
logarithmique) permettant de revenir à une situation où les variances sont égales(371).
L’interprétation est bien sûr plus délicate.
Le test adéquat est une variante du test de Fisher appelée test de Levene, qui s’interprète également
comme un test en F. La fiche technique 15.2. décrit le fonctionnement de ce test.
Exemple
Les résultats du test d’égalité des variances sont donnés dans le tableau ci-dessous :
Statistique de
ddl1 ddl2 Signification
Levene
1,095 2 37 0,345
L’hypothèse nulle étant l’égalité des variances, et le test s’interprétant comme le F de Fisher, on
constate que la valeur de la statistique est inférieure à la valeur critique de 3,257 (calculée par
interpolation linéaire car la table ne donne pas directement de valeur pour un degré de liberté égal
à 37 au dénominateur). Ou, ce qui revient au même, on constate que la « signification » est
supérieure au seuil α. L’hypothèse nulle ne peut donc pas être rejetée et les trois variances peuvent
\/|
être considérées comme égales dans la population.
$|
Si l’hypothèse de normalité tient mais que celle d’homogénéité des variances n’est pas remplie, il
4$
existe une variante de l’ANOVA, proposée par Welch. Elle sera évoquée plus loin.
By
La partie gauche du tableau donne les valeurs observées et les moyennes dans chacun des groupes. La partie
droite donne les valeurs des Wij, des W.j et des Wij2.
Par exemple, 1,6667 = |2 – 3,6667| ; 3,3333 = 0,3333 + 1,6667 + 1,3333 et 4,6667 =
(0,33332+1,66672+1,33332)
Cette valeur est comparée à une valeur critique de la loi de Fisher au seuil α et k-1 ; n-k degrés de liberté. Pour α
= 0,05, 2 et 7 degrés de liberté, cette valeur est égale à 4,74. La valeur calculée étant inférieure à la valeur
critique, on ne peut pas rejeter l’hypothèse nulle d’égalité des variances. Quand l’on travaille à partir d’un logiciel
statistique, on se réfère à la « p-value » (« signification » dans SPSS). Pour cet exemple, elle est de 0,654 et
justifie la même conclusion.
Il faut noter, pour terminer, que certains manuels préconisent l’utilisation de la médiane plutôt que la moyenne
pour le calcul des Wij. Le test est alors plus robuste si les distributions ne sont pas normales. Selon les logiciels,
la stratégie de calcul diffère, ce qui peut expliquer des différences de résultats lorsqu’on fait les calculs à la main
sur des exemples simples. SPSS, par exemple, utilise la moyenne.
b. Hypothèses et calculs
Elles se formulent de la même manière, quelle que soit l’analyse. L’hypothèse nulle pose l’égalité
des moyennes dans tous les groupes. L’hypothèse alternative pose qu’il existe au moins un groupe
pour lequel la moyenne sera différente des autres. Soit :
H0 : μ.1 = μ.2 = ... = μ.k
H1 : il existe au moins un couple (i ; j) pour lequel μ.i ≠ μ.j
Exemple
La question qui se pose est ainsi de savoir si les différences observées entre les
\/|
moyennes d’échantillon reflètent l’existence d’un effet systématique dans la population
$|
de la croyance sur l’intention de comportement, ou si elles peuvent être dues au hasard
4$
Si le principe de l’affectation aléatoire des unités expérimentales au traitement est bien respecté,
l’analyse de variance permet de distinguer la part de variation (dans les effets différentiels
observés), due aux facteurs contrôlés, de la part de variation due aux facteurs incontrôlés. On
applique pour cela le théorème dit de « décomposition de la variance », présenté dans la fiche
technique 15.3.
La variation intra-groupes est la somme des carrés des écarts des observations au sein d’un groupe à la
moyenne de ce groupe. Elle se calcule sur l’ensemble de l’échantillon, groupe par groupe. Si xij est l’observation j
du groupe i, alors :
La variation totale est, en pratique, la première étape du calcul de la variance de la variable dépendante :
2 – Statistique du test
L’analyse de variance cherche à mettre en évidence des différences entre moyennes de groupes dans la
population. Si les données ont été recueillies dans le cadre d’un design expérimental, on cherche à mettre en
évidence l’effet du traitement appliqué au sujet (i.e. l’effet de la manipulation du facteur).
L’analyse sera donc intéressante si l’information générée par les différences entre les moyennes de groupes
(résultant du « traitement ») est plus importante que l’information contenue à l’intérieur de chaque groupe (due à
des erreurs de mesure ou à des facteurs non contrôlés). Potentiellement le rapport de la variation inter-groupes
\/|
à la variation intra-groupe est donc le plus intéressant.
$|
Mais il faut que le comportement de ce rapport en situation de multi-échantillonnage puisse être comparé à celui
4$
d’une grandeur statistique connue et décrite par une loi établie. Parmi les lois connues, la plus proche est la loi de
Fisher qui décrit le comportement d’un rapport de variances. Il faut donc transformer les variations évoquées ci-
dessus en « variances » avant de pouvoir procéder au test proprement dit. L’opération est assez simple et a déjà
By
été rencontrée : il suffit de diviser chacune des deux variations par son degré de liberté. On obtient ce qui
s’appelle le carré moyen dans le contexte de l’analyse de variance. On s’intéresse donc au rapport Carré
moyeninter/Carré moyenintra et la statistique du test s’écrit :
La variation factorielle mesure directement les effets imputables aux différences de traitement. La
variation résiduelle, en revanche, est mesurée à l’intérieur de chaque groupe et tend donc à mesurer
les différences dues à tous les facteurs ou événements non contrôlés. Le test de l’hypothèse nulle se
fait au moyen d’un outil de comparaison de ces deux variations. La fiche technique 15.3. donne les
notations formelles.
Exemple
Pour l’intention de comportement, les calculs donnent les résultats suivants :
Somme
Moyenne
des ddl F Signification
des carrés
carrés
Inter-groupes 4 217,308 2 2 108,654 4,525 0,017
Intra-groupe 17 242,692 37 466,019
Total 21 460,000 39
30 70 50
100 80 50
By
40 50 20
50 30 25
90 30 30
60 75 55
10 60 25
75 65 45
55 50 40
85 80
65
50
ni 13 15 12
Xi 58,846 57,667 35,833
SCEintra 7 557,692 7 393,333 2 291,667
Pour développer l’exemple, il faut d’abord calculer la moyenne de la variable sur l’ensemble des
observations, soit :
Les moyennes de groupes sont données dans le tableau. Par exemple :
La somme des carrés des écarts au sein des groupes est donnée dans le tableau. Par exemple :
c. Test statistique
La manière la plus simple de comparer ces deux grandeurs serait de diviser la variation
intergroupes par la variation intragroupe. Si le traitement a un effet significatif, la première doit être
relativement grande, car les moyennes de groupes seront très contrastées. À l’inverse, la seconde
doit être relativement faible car les facteurs non contrôlés doivent d’une part avoir un effet moindre
sur les variations de la variable à expliquer et doivent, d’autre part, s’appliquer de manière
équivalente aux différents groupes, à l’intérieur desquels la dispersion doit par conséquent être
faible.
Comme nous sommes dans un contexte de test d’hypothèse, il faut comparer cette grandeur à un
« étalon » dont les propriétés statistiques sont connues, et qui permet ainsi une conclusion
objective. Or la seule grandeur connue proche de ce calcul est le F de Fisher. Le rapport de la
variation intergroupes à la variation intragroupe doit donc être transformé en rapport de variances.
Il suffit de diviser chaque variation par le nombre de degrés de liberté qui convient. En
l’occurrence, il s’agit de (k – 1) pour la variation factorielle, si k est le nombre de groupes, et de n
– k pour la variation résiduelle(373).
Exemple
Puisque l’on travaille avec trois groupes, le nombre de degrés de liberté pour la
variation factorielle est (3 – 1) = 2 et le nombre de degrés de liberté de la variation
résiduelle est (40 – 3) = 37. Le rapport cherché est donc :
Ce résultat permet juste de constater l’existence d’une relation. Il ne donne pas son intensité qui,
\/|
comme pour l’analyse de régression, peut s’exprimer en pourcentage de variance restitué. Il ne dit
$|
pas non plus si toutes les moyennes de groupes sont différentes deux à deux ou si l’effet constaté est
dû à une ou deux modalités atypiques. Il reste maintenant, par conséquent, à aborder les analyses a
4$
Il est facile à calculer mais réputé biaisé. Une alternative est appelée « omega carré ». Elle fait
intervenir le carré moyen résiduel et le degré de liberté lié à la variable explicative, soit :
La valeur de ces deux coefficients doit être la plus élevée possible.
Exemple
Avec les données de l’exemple, cela donne :
On peut considérer qu’il s’agit d’un résultat assez médiocre puisque le facteur ne
contribue qu’à 20 % de la variation totale. Autrement dit, 80 % de l’information
contenue dans la variable intention de comportement sont dus à d’autres sources que
les écarts de croyance dans le fait que les produits vendus en VPC soient moins chers
qu’en grande distribution.
Et :
\/|
$|
Le coefficient corrige à la baisse le résultat précédent et le pouvoir explicatif du
4$
facteur tombe à 15 %.
By
Exemple
Le test de Dunn-Bonferroni implique des calculs difficiles à réaliser à la main. Le test
de Tukey peut, lui, être illustré assez facilement. On s’intéresse par exemple à la
comparaison entre les modalités « Pas d’accord » et « D’accord ».
La différence de moyenne est : 58,85 – 35,83 = 23,02.
La moyenne harmonique des tailles d’échantillons est :
On a bien |X.j – X.j’| > CR, ce qui permet de rejeter l’hypothèse nulle d’égalité des
moyennes. La différence entre les groupes « pas d’accord » et « d’accord » contribue
significativement à l’impact du facteur sur la variable dépendante.
Pour le test de Dunn-Bonferroni, il faut faire appel à un logiciel statistique :
\/|
$|
4$
By
On compare ensuite toutes les paires de différences à CR. Elles sont significatives si leur valeur absolue |X.j –
X.j’| lui est supérieure.
En dépit de son intérêt, un modèle à un facteur est relativement pauvre. On peut souhaiter l’enrichir
en intégrant un second facteur.
Attitude Écart-
Sexe Moyenne n
prix type
1 56,25 34,004 4
Pas d’accord 2 60,00 22,500 9
Total 58,85 25,096 13
1 54,17 24,580 6
Neutre 2 60,00 23,049 9
Total 57,67 22,980 15
1 30,00 6,124 5
D’accord 2 40,00 17,559 7
Total 35,83\/| 14,434 12
1 46,67 24,976 15
$|
Total 2 54,40 22,515 25
4$
On voit par exemple que la différence entre « pas d’accord » et « neutre » s’est totalement annulée
chez les femmes (la moyenne d’intention de comportement est de 60 % pour les deux modalités),
alors qu’elle s’est légèrement accentuée chez les hommes (2,08 contre 1,179 précédemment). Même
remarque pour la différence entre « pas d’accord » et « d’accord » : la différence s’est accentuée
chez les hommes et a diminué chez les femmes (respectivement 36,25 et 20 au lieu de 23,01).
L’intention d’achat est plus élevée chez les femmes que chez les hommes, indépendamment de la
croyance, et a tendance à moins baisser lorsque la croyance dans le fait que les produits sont plus
chers en VPC s’affirme. La question est maintenant de savoir si cet effet constaté est significatif.
L’expression mathématique des composantes de la variance n’est pas intrinsèquement plus
complexe que dans les analyses à un facteur mais le volume d’information à présenter est plus
important(377). Les principes de l’analyse vont être illustrés directement au travers de la présentation
des résultats de l’exemple.
Exemple
Le cas de l’analyse de variance à deux facteurs avec effet d’interaction vient donc d’être présenté.
D’autres possibilités peuvent être envisagées, tant le modèle mathématique de base est
potentiellement riche. En particulier, l’analyse de variance peut être appliquée à des données
mesurées à plusieurs reprises sur les mêmes personnes.
4. Analyse de covariance
On peut ajouter des « covariables » à n’importe quel modèle d’analyse de variance, qui devient
\/|
alors une analyse de covariance (ANCOVA). Les covariables sont des variables (de nature
$|
métrique) dont on pense qu’elles exercent un effet sur la variable dépendante, sans qu’elles soient
4$
suffisamment intéressantes pour être incluses dans le modèle. Cet effet peut masquer l’influence du
(des) facteur(s) sur la variable dépendante et on souhaite par conséquent l’éliminer.
By
La procédure consiste donc à estimer l’effet des covariables sur la variable dépendante, à le
contrôler, puis à conduire l’analyse de variance. Une partie de l’information « inutile » ou
potentiellement liée à des biais de mesure ayant été éliminée, il est ainsi possible d’analyser plus
finement l’effet du (des) facteur(s) sur la variable dépendante.
Dans le cadre des plans d’expérience, on peut contrôler les principales sources de biais. Dans les
collectes de données en coupe (cross-sectional) un tel contrôle est généralement impossible. Par
exemple, les réponses à un questionnaire peuvent être influencées par un grand nombre de variables
d’environnement (e.g. heure, bruit environnant, etc.) et des informations sur ces conditions de
recueil peuvent constituer des covariables intéressantes.
Les covariables pertinentes sont corrélées à la variable dépendante mais sont indépendantes des
variables explicatives (facteurs). Si c’est le cas, on ajuste la moyenne de la variable dépendante
pour chaque groupe de la variable indépendante, en fonction de la valeur de la moyenne de la
covariable. Ce qui reste produit par conséquent une variation résiduelle plus faible, d’où un test F
plus « puissant » pour évaluer l’effet du/des facteurs.
Pour des raisons techniques, le nombre de covariables doit être relativement restreint. Une règle
généralement recommandée est que le nombre de covariables ne doit pas dépasser 10 % de la taille
d’échantillon moins le degré de liberté de la variation inter-groupes. Si l’on désigne le nombre de
covariables par NbCov, et par k le nombre de groupes/modalités du facteur, on doit donc
respecter :
NbCov < 0,1 n – (k – 1)
Exemple
Dans le cas VPC, avec un facteur à trois modalités, ce nombre limite serait égal à
0,1 × 40 – 2 = 2.
On peut chercher, par exemple, à éliminer l’effet du montant des achats passés, dont on
sait qu’il est un facteur important de l’intention, pour se concentrer sur l’effet de la
croyance sur le prix. En introduisant cette variable dans le modèle, les résultats
deviennent :
\/|
$|
4$
Intervalle de confiance
Attitude Erreur à 95 %
Moyenne
prix standard Borne Limite
inférieure supérieure
Pas d’accord 52,821a 6,432 39,777 65,866
Neutre 56,903a 5,354 46,045 67,761
D’accord 43,315a 6,978 29,163 57,467
On se trouve ici dans la situation où la covariable partageait initialement plus d’information avec la
\/|
variable dépendante que le facteur retenu. Une fois son effet contrôlé, il ne reste plus assez
d’information pour que la relation entre la croyance et l’intention reste significative. Pour éviter ce
$|
type de situation, il faut explorer les données de manière approfondie (à la manière du data mining)
4$
pour repérer les relations potentielles entre variables ou disposer d’une base théorique solide qui
permette un choix raisonné des « bonnes » variables.
By
Bien que riche, l’analyse de variance est impossible à utiliser dans certains cas de figure, en
particulier lorsque la variable à expliquer n’est pas métrique. L’analyse conjointe entre alors en
jeu. Elle s’utilise principalement pour identifier les attributs les plus explicatifs du choix d’une
offre, exprimé en termes de préférences.
B. Analyse conjointe
Dans un premier temps, nous donnerons un aperçu général de la méthode. Les particularités de sa
mise en œuvre seront abordées dans un second temps. Puis, nous balaierons rapidement
les méthodes de calcul et d’analyse des résultats. Une réflexion sur l’évaluation de la qualité
d’une analyse conjointe suivra. Cet exposé se terminera par quelques exemples d’applications
managériales.
Exemple
Supposons que vous souhaitiez réserver un billet de train et qu’on vous donne le choix
entre un espace restreint pour vos jambes (2e classe pour faire simple) et un espace
confortable (lre classe). Supposons à nouveau que, pour un trajet donné, vous ayez le
choix du prix : 100 ou 150 euros. Toutes choses égales par ailleurs, sur ce seul critère
prix, vous choisirez le billet à 100 euros. Supposons, pour finir, que vous ayez le
choix entre un trajet direct d’une durée de trois heures et un trajet impliquant un
changement, d’une durée de 4 heures 30. À nouveau, sur ce seul critère, vous choisirez
\/|
probablement le trajet direct. Malheureusement, la réalité n’est jamais aussi simple !
$|
Le « produit » déplacement par le train présente simultanément ces trois
4$
caractéristiques (et même bien d’autres), entre lesquelles vous devez arbitrer(379). Il est
probable que le trajet direct en 1re classe à 100 euros aura votre préférence. Mais la
By
SNCF n’étant pas une société philanthropique, il est peu probable que cette offre vous
soit proposée(380)... Cela étant, chaque caractéristique ayant deux modalités, il existe
« techniquement » huit offres possibles :
Chaque consommateur choisira, dans cette palette d’offres, celle qui conviendra le
mieux à ses préférences. Celles-ci sont bien sûr la résultante d’une multitude de
facteurs individuels ou environnementaux. On peut supposer que, globalement, l’offre
no 1 sera la plus souvent choisie, et que la no 8 sera la moins souvent choisie.
Le traitement de cet exemple par l’analyse conjointe vous permettrait de déterminer à la fois
l’importance relative et le niveau préféré de chaque attribut dans le choix des individus. Si le
produit préféré n’est pas réalisable par l’entreprise, pour des raisons de coût par exemple, celui
classé immédiatement après pourrait être retenu pour un éventuel lancement. Si vous possédez
d’autres informations sur vos répondants, de type sociodémographique par exemple, vous pourrez
éventuellement identifier différents segments de marché, pour lesquels des offres adaptées
pourraient être conçues.
Exemple
On peut imaginer ainsi que le cadre supérieur se déplaçant pour affaires et l’étudiant
faisant le trajet entre le domicile parental et son université n’auront pas tout à fait les
mêmes préférences en matière de voyages ferroviaires.
De manière plus générale, l’information obtenue au moyen d’une analyse conjointe peut être utilisée
à de nombreuses fins : analyser des parts de marché, mettre au point des nouveaux produits,
segmenter des marchés, tester des campagnes publicitaires.
La bonne compréhension de ces principes généraux permet d’aborder maintenant les aspects
techniques de la mise en œuvre d’une analyse conjointe.
L’analyse conjointe est une forme particulière d’analyse de variance. Les préférences globales du
4$
répondant, par exemple son classement des huit produits « voyage en train » listés dans l’exemple
décrit précédemment, servent de variable à expliquer. Selon la nature de la mesure, métrique ou
By
ordinale, on parlera d’analyse conjointe métrique ou non métrique. Dans ce dernier cas, on la
qualifie de MONANOVA (MONotonous ANalysis Of Variance). Les variables explicatives sont les
attributs des produits et leurs différents niveaux, mesurés au niveau catégoriel.
L’objectif de l’analyse est alors de mesurer l’effet conjoint de ces derniers sur le classement de
préférences établi par les répondants. Plus précisément, on évalue l’effet simultané de différentes
combinaisons de niveaux des attributs des produits. Le principe de l’analyse repose alors sur la
décomposition de la préférence en « utilités » partielles associées à chaque niveau de chaque
attribut. Cette décomposition est rendue possible par le fait que l’ordre de préférence entre
différentes combinaisons de niveaux des attributs révèle les compromis que le sujet est prêt à faire.
Principes de base
On appelle stimulus une combinaison particulière de niveaux des variables explicatives. On peut
assimiler un stimulus à un traitement expérimental. Dans l’exemple « voyage en train », on a ainsi
huit stimuli possibles.
Le nombre de stimuli à présenter va clairement dépendre du nombre d’attributs considérés comme
pertinents. De fait, il importe de bien connaître les critères de choix utilisés par les consommateurs
pour la catégorie de produit étudiée. L’identification des critères de choix peut se faire de diverses
manières, généralement en combinant des techniques qualitatives (e.g. méthode de citation directe)
et des approches plus structurées (e.g. méthode du questionnaire dual)(381). Pour qu’ils puissent être
utilisés dans une analyse conjointe, il importe que ces critères soient réellement déterminants du
choix des consommateurs (et pas uniquement importants), qu’ils soient non corrélés entre eux,
qu’ils permettent de décrire le plus fidèlement possible le stimulus et, enfin, qu’ils soient
facilement manipulables aussi bien par le chargé d’études que par le répondant. Ce dernier point
implique en pratique l’utilisation d’attributs aussi objectifs que possible. Ainsi, on peut les décrire
facilement et en fixer des niveaux clairement distincts (e.g. des niveaux de prix). De plus,
l’interprétation est sensiblement la même d’un individu à l’autre.
Le choix du nombre de niveaux par attribut répond également à quelques règles de bon sens. D’une
part, il faut en limiter le nombre au maximum sous peine d’augmenter exponentiellement le nombre
de stimuli à présenter aux répondants. D’autre part, il est préférable d’équilibrer autant que
possible le nombre de niveaux d’un attribut à l’autre. Il semblerait en effet que les répondants
accordent artificiellement plus de poids aux attributs présentant davantage de niveaux que les
autres(382). En pratique, le nombre de niveaux par attribut est donc très souvent compris entre deux et
quatre.
Les phénomènes de corrélation entre les attributs (multicolinéarité) posent également un problème,
principalement parce qu’ils créent des stimuli irréalistes, souvent susceptibles de gêner les
\/|
répondants. Par exemple, les attributs prix et qualité sont généralement corrélés positivement. Dans
$|
ce cas, une solution consiste à créer des « méta-attributs », combinant les attributs corrélés, à
condition de respecter au mieux les contraintes énoncées ci-dessus. Par exemple, on utilisera
4$
« rapport qualité-prix » plutôt que « qualité » et « prix ». On peut également réduire la corrélation
inter-attributs par un artifice technique consistant à fixer les valeurs minimum et maximum des
By
niveaux présentés légèrement en dessous et au-dessus des valeurs « réelles », tout en restant réaliste
bien entendu(383).
B1 B2 B3 B4
A1 C1 C2 C3 C4
A2 C2 C3 C4 C1
A3 C3 C4 C1 C2
A4 C4 C1 C2 C3
Prix
100 € 150 €
Classe 1re classe 1 3
2e classe 2 4
Dans ce premier cas, on demande au répondant de classer l’ensemble des combinaisons de niveaux
possibles entre les deux attributs. La préférence de cet individu (fictif) va donc à un billet de
1re classe à 100 €. La combinaison suivante est un billet de 2e classe à 100 €, puis un billet de
1re classe à 150 € et, enfin, un billet de 2e classe à 150 €. On constate que cet individu a arbitré en
faveur du critère « prix », plutôt qu’en fonction du critère « confort ».
\/|
– Méthode du profil complet, classement par rang (rank ordering)
$|
Classe : 1re
4$
Prix : 100 €
By
Trajet : indirect
Classement : 5
Ici, huit cartes de ce type sont présentées au répondant qui indique, pour chaque combinaison, son
classement par ordre de préférence. Ici, l’individu a classé cette combinaison en 5e position sur
les 8 possibles.
– Méthode du profil complet, évaluation sur une échelle (rating)
Deux types d’échelles sont utilisables. Soit une échelle d’intervalle à supports sémantiques
(1er tableau), soit une échelle de probabilité de choix (2e tableau) :
Dans les deux cas, on a affaire à une échelle de mesure de niveau métrique, qui permet des calculs
plus « puissants » mathématiquement parlant, mais qui complique la tâche du répondant.
\/|
Une fois cette préparation achevée, et les données collectées, on peut procéder à l’analyse
$|
conjointe proprement dit.
4$
By
Exemple (suite)
Les huit scénarios « voyage en train » ont été présentés de la manière suivante à deux
répondants :
Carte 1 Carte 2
Classe : 1 Classe : 1
Prix : 100 € Prix : 100 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 3 Carte 4
Classe : 1 Classe : 1
Prix : 150 € Prix : 150 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 5 Carte 6
Classe : 2 Classe : 2
Prix : 150 € Prix : 100 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 7 Carte 8
\/|
Classe : 2 Classe : 2
$|
Prix : 150 € Prix : 100 €
4$
Les deux individus (totalement fictifs) ont classé la carte 1 en premier. La carte 3 a été classée au
deuxième rang par l’individu 1, et au cinquième rang par l’individu 2. L’individu 1 privilégie
systématiquement le confort, puis la rapidité et enfin le prix, alors que l’individu 2 privilégie
d’abord le prix, puis la rapidité et enfin le confort.
Une fois cette étape franchie, on soumet les données au traitement, puis on analyse les résultats.
Où :
– U(X) est l’utilité globale d’un scénario
\/|
2 – Variable dépendante métrique
$|
Quand la variable dépendante est métrique (e.g. évaluation de chaque scénario sur une échelle), chaque attribut
4$
est transformé en ki – 1 variables dichotomiques codées [0 ; 1] puis on effectue une régression sur variables
binaires. Les coefficients de l’équation de régression sont ensuite utilisés pour calculer les utilités αij.
By
Une analyse conjointe produit les valeurs des utilités de chaque niveau de chaque attribut,
l’importance relative de chaque variable indépendante, mesurée sur une même échelle métrique,
dans la contribution à la préférence globale, ainsi que l’indice global permettant d’apprécier la
qualité des calculs effectués.
Exemple (suite)
Les utilités partielles de chaque niveau de chaque variable explicative, ainsi que la
constante, sont données dans la première moitié du tableau ; la seconde moitié du
tableau fournit les utilités de chaque stimulus pour chaque individu.
L’utilité du stimulus 1, par exemple, est le résultat de :
U1 = U (1re classe) + U (100 euros) + U (direct) + Constante = 2 + 0,5 + 1 + 4,5 = 8
Si l’on ne tient pas compte de cette offre peu réaliste, on constate que l’utilité la plus
\/|
forte pour l’individu 1 est l’offre numéro 3 (trajet direct de 3 heures en classe 1 à
$|
150 euros), tandis que pour l’individu 2, il s’agit de l’offre 8 (trajet direct de 3 heures
en classe 2 à 100 euros).
4$
By
Ces résultats sont généralement présentés sous forme visuelle, ce qui les rend plus parlants, sans
toutefois apporter davantage d’information que les chiffres. Voici un exemple du type de graphique
généralement proposé par une analyse conjointe (voir page suivante).
Les utilités partielles peuvent donc être lues directement et l’on constate, par exemple, que, pour
l’individu 1, la 1re classe a la plus grande utilité, suivie de la rapidité du trajet, puis du prix.
Lorsque l’on travaille avec plus de deux niveaux par attribut, ce type de graphique permet
également de déceler une éventuelle relation entre les niveaux de cet attribut. L’intérêt de l’analyse
conjointe, à ce niveau, est de ne pas se limiter à une simple relation linéaire(384).
Il reste ensuite à calculer, pour chaque individu, l’importance de chaque attribut dans la formation
de son utilité totale. Ce calcul est relativement simple à effectuer à la main :
Autrement dit, pour un attribut i donné, on divise l’étendue des utilités partielles de cet attribut par
la somme des étendues des utilités partielles pour tous les attributs.
Figure 15.4. Graphe des utilités partielles d’une analyse conjointe
\/|
$|
4$
Exemple (suite)
By
Les autres scores d’importance sont donnés (sous forme de pourcentages) dans le
tableau ci-dessous :
Ces résultats illustrent une particularité très importante de l’analyse conjointe. On constate en effet
que, d’un individu à l’autre, les attributs n’ont pas la même importance. L’un privilégie le confort,
l’autre le prix, tandis que la rapidité ne permet pas de différencier les deux. Si l’on essaie d’oublier
un instant que les données ont été construites pour produire ce résultat, on se rend compte de
l’intérêt de la méthode : on connaît, pour chaque individu, l’utilité de chaque stimulus, l’utilité
partielle de chacun des niveaux de chaque attribut, ainsi que l’importance de chaque attribut. En
d’autres termes, l’analyse conjointe donne des informations clés pour mettre au point des stratégies
et/ou actions marketing pertinentes, et ceci au niveau individuel.
Cela étant une telle analyse est peu réaliste. Le nombre de clients est généralement trop important
pour que l’on puisse envisager une individualisation intégrale de l’offre. Or l’analyse conjointe n’a
pas été conçue pour un traitement global des informations ! Considérer un individu « moyen » aurait
en effet peu de sens, pour deux raisons, l’une conceptuelle et l’autre technique.
Exemple (suite)
Les attentes de nos deux individus sont très différentes, et les traiter ensemble aurait
pour effet de masquer l’intérêt porté au prix par l’un et au confort par l’autre.
Plus fondamentalement, un traitement conjoint reviendrait à partir du principe que les attributs ont
tous la même importance dans le choix des individus, c’est-à-dire reviendrait à nier les bases du
concept de segmentation !
La raison technique est liée à la manière dont les stimuli sont évalués. Si l’on a des données
ordinales, il est très difficile d’aboutir à un classement « moyen » qui ait un sens, par définition
\/|
même de la moyenne. Si l’on a recueilli les évaluations sur des échelles, on peut calculer des
$|
évaluations moyennes pour les stimuli, certes, mais dont la pertinence diminuerait en fonction
4$
strictement inverse des dispersions existant autour de ces moyennes. En d’autres termes, un écart-
type élevé pour un stimulus indiquerait que celui-ci est évalué de manière très différente selon les
By
individus, et remettrait donc en cause les paramètres « moyens » calculés par l’analyse conjointe.
L’analyste n’a donc d’autre solution que de procéder à une analyse typologique avant l’analyse
conjointe. Elle aura pour objectif de regrouper les répondants ayant les mêmes profils d’évaluation
des stimuli présentés.
5. Applications pratiques
L’analyse conjointe fait partie des outils les plus utilisés dans un contexte professionnel et
commercial en marketing. Le flash-étude 15.1. illustre la manière dont un grand cabinet d’études
présente ce produit.
« Les logiciels Optimizer de GfK sont des outils d’optimisation des mix produits assistés par
4$
ordinateur. Ils peuvent notamment déterminer les élasticités-prix, les positionnements prix
optimaux, et effectuer des simulations de marchés. »
By
L’analyse conjointe est encore fréquemment utilisée dans les études marketing, principalement pour
l’identification de nouveaux concepts de produits, l’analyse concurrentielle, la fixation du prix, la
segmentation et le repositionnement de produit.
D’autres formes de modélisation sont apparues dans le courant des années soixante-dix. Elles
avaient pour objectif avoué de pallier les limites des méthodes d’analyse multivariée existantes.
Plus qu’un substitut à ces méthodes, elles en sont aujourd’hui un véritable complément destiné à
aborder des problématiques qu’aucune des méthodes présentées jusqu’ici ne peut traiter seule. Il
s’agit de la modélisation par équations structurelles.
III. Modéliser par équations structurelles
Nous allons tout d’abord présenter rapidement les caractéristiques générales de cette forme de
modélisation, ses objectifs et ses contraintes. Nous montrerons dans un deuxième temps que la
spécification du modèle est une étape importante dans le processus de modélisation. Le test du
modèle sera abordé en troisième lieu. Nous terminerons cette partie par quelques prolongements
liés à l’extension du modèle de base.
– l’analyse factorielle permet d’estimer des variables latentes (facteurs) à partir de variables
observées et de les corréler entre elles mais pas de les régresser les unes sur les autres ;
By
– l’analyse de régression permet de régresser des variables les unes sur les autres, mais se limite à
une seule variable dépendante et ne permet pas l’analyse de relations de régression entre les
variables explicatives, par ailleurs supposées indépendantes les unes des autres ;
– l’analyse canonique généralisée (non traitée dans cet ouvrage) est une passerelle entre les deux,
mais se limite à régresser une variable latente dépendante sur une variable latente indépendante ;
– la path analysis (non traitée ici) est une méthode qui permet de modéliser des relations de
régression directes et indirectes et d’estimer l’erreur de mesure de manière chiffrée, mais elle ne
gère pas les variables latentes.
Exemple
La figure 15.5. représente un modèle « classique » tel qu’on peut le tester par des
équations structurelles. Il servira de fil rouge pour l’illustration des concepts et outils
présentés dans cette partie du chapitre.
Les symboles utilisés sont des conventions de notation qui seront explicitées tout au
long de l’exemple.
Figure 15.5. Représentation schématique d’un modèle d’équations structurelles
\/|
$|
4$
By
2. Objectifs
L’objectif de la modélisation par équations structurelles est de tester des modèles comme celui de
la figure 15.5. Tester un modèle permet d’estimer la valeur des paramètres représentés par les
symboles grecs et de formuler une conclusion quant à la plausibilité de la théorie sous-jacente.
Celle-ci est visualisée directement au moyen de la figure. Elle se matérialise par les relations entre
les variables, représentées par des flèches. Cette figure doit résulter d’une réflexion approfondie,
fondée sur une analyse de la littérature scientifique et/ou de pré-tests empiriques exploratoires. Une
fois cette théorie élaborée, il s’agit de la confronter à la réalité empirique. Celle-ci résulte de
données collectées auprès de répondants, de manière expérimentale ou non. La modélisation par
équations structurelles est parfaitement adaptée au test de données expérimentales mais on l’utilise
essentiellement avec des données d’enquête « en coupe ».
Exemple
Le contexte empirique de l’exemple est la recherche d’information préalable à un
choix de destination touristique. La thèse défendue est que le risque va médiatiser la
relation entre la tendance générale à la recherche de stimulation (OSL) et la recherche
d’information (Info). Le risque est conceptualisé à deux niveaux : un attrait général
pour la prise de risque lors de ses vacances (AtR), et les conséquences négatives
perçues d’un mauvais choix de séjour touristique (IRK).
La thèse se décompose en hypothèses. Celles-ci sont matérialisées par les flèches
joignant les variables latentes les unes aux autres. Les variables latentes sont
représentées par des cercles. Par exemple, on postule que OSL influence positivement
AtR(387). Le modèle de la figure 15.5 repose sur cinq hypothèses. Une hypothèse donne
le sens et le signe d’une relation entre deux variables. Dans la représentation du
modèle, le sens des flèches a par conséquent une grande importance.
Dans un modèle de ce type, les relations sont directes et indirectes. Il y a une relation
directe supposée entre OSL et les deux concepts de risque (γ12 et γ13). De même, il y a
une relation directe supposée entre les deux facettes de risque et Info (β24 et β34), ainsi
qu’entre les deux facettes de risque (β23). Par contre, il n’y a pas de relation directe
supposée entre OSL et Info. Cette relation est supposée être indirecte, au travers des
deux facettes de risque. Cette façon de modéliser impose de partir du principe que les
variables explicatives de la recherche d’information sont elles-mêmes en relation les
\/|
unes avec les autres.
$|
La figure 15.6. visualise le même modèle si l’on avait souhaité le tester au moyen
4$
Aucune relation ne peut être modélisée entre les variables explicatives. Elles sont
explicitement indépendantes les unes des autres. Par ailleurs, les relations entre les
variables explicatives et la variable dépendante ne peuvent être que directes. Par
conséquent, si l’on imagine un effet entre OSL et Info, il faut le modéliser
explicitement. Ce n’est pas la théorie soutenue dans la figure 15.5., fondée sur une
relation uniquement indirecte.
3. Contraintes
La modélisation par équations structurelles peut prendre des formes très diverses. Nous présentons
ici les contraintes d’utilisation de l’analyse des structures de covariances. Ce sont les plus
exigeantes. Elles sont liées à la nature de la relation entre les variables, à leur mesure, à leur
distribution et à la taille de l’échantillon.
Les relations entre variables doivent être linéaires, au niveau empirique et au niveau théorique. Les
relations empiriques sont représentées par les lettres λ (lambda) ou ε (epsilon) et les relations
théoriques sont représentées par les lettres γ (gamma) ou β (bêta). Il existe aujourd’hui des
algorithmes non linéaires, mais ils sont complexes à manipuler.
Comme en analyse de régression, les variables de mesure (matérialisées dans les rectangles de la
figure 15.5) doivent être métriques. Il existe également des variantes permettant de traiter des
variables ordinales, voire catégorielles.
La contrainte de distribution est comparable à celle de la corrélation bivariée r de Pearson
(chapitre 12) qui, rappelons-le, est fondée sur une distribution binormale des variables. Il s’agit ici
\/|
de satisfaire à une contrainte de multinormalité, c’est-à-dire une distribution normale conjointe de
$|
l’ensemble des variables de mesure. C’est une condition très difficile à satisfaire en pratique.
4$
Certains algorithmes utilisés sont robustes à une certaine violation de la contrainte. Au-delà, on se
fonde soit sur une correction directe des paramètres du modèle, disponible dans certains logiciels,
By
soit sur une stratégie de bootstrapping. Nous reviendrons sur ces aspects un peu plus loin.
La taille d’échantillon doit être largement supérieure au nombre de paramètres à estimer. On
assimile généralement la complexité d’un modèle à ce nombre. Les paramètres sont représentés par
les symboles grecs de la figure 15.5. Selon les auteurs, un ratio de 5 à 20 observations par
paramètre serait un minimum.
Exemple
Un modèle comme celui de la figure 15.5. implique l’estimation de 27 paramètres. La
taille d’échantillon minimale devrait donc être comprise entre 135 et 540
observations.
À l’inverse, l’estimation du modèle repose sur un test statistique pénalisé par une grande taille
d’échantillon. « Pénalisé » signifie que l’on est amené à rejeter le modèle, autrement dit à conclure
qu’il ne correspond pas aux données et que la théorie doit être revue. L’algorithme le plus
couramment utilisé a une plage de fonctionnement optimal pour une taille d’échantillon comprise
entre 200 et 250 observations.
B. Spécification d’un modèle
Spécifier un modèle d’équations structurelles implique de s’intéresser au type de variables
utilisées, à la nature des relations qui les relient et à son identification. Nous abordons ces trois
aspects en précisant au passage quelques éléments de terminologie couramment employés dans cette
forme de modélisation.
1. Types de variables
On distingue variables de mesure et variables latentes. Le cœur du modèle, ou modèle structurel,
est composé des variables latentes et de leurs relations. Les variables latentes sont représentées par
des formes arrondies. Elles sont par nature inobservables mais néanmoins supposées exister dans
un « monde vrai » auquel les limites de notre intellect et de nos outils ne nous permettent pas
d’accéder. Par analogie à la régression, les variables latentes peuvent être explicatives ou à
expliquer. Dans le vocabulaire spécifique à cette modélisation, on dira plutôt respectivement
exogènes et endogènes. Contrairement à la régression, par contre, certaines variables latentes
peuvent avoir un statut mixte, à la fois exogène et endogène. Dans le cas général, les variables
latentes exogènes sont notées ξ (xi) et les variables latentes endogènes sont notées η (êta). Pour
cette notation, on ne fait pas de différence entre les deux statuts (endogène « pur » ou endogène
« mixte »).
\/|
$|
Exemple
4$
Le modèle de la figure 15.5. contient une variable latente exogène (OSL), deux
variables latentes endogènes mixtes (AtR et IRK) et une variable latente endogène
By
pure (Info).
Pour tester un modèle structurel, il faut le mettre en correspondance avec un modèle de mesure,
constitué de l’ensemble des variables observées. Celles-ci sont supposées être la meilleure mesure
possible des variables latentes correspondantes. Les variables de mesure sont représentées par des
formes rectangulaires. Chaque variable latente est reliée à un ensemble de variables de mesure, au
sein d’un bloc homogène. Les liens de correspondance sont nommés loadings. Dans leur version
standardisée, ils s’interprètent comme des coefficients de corrélation. Ils sont notés λ (lambda). Les
variables de mesure des variables latentes exogènes sont notées x et les variables de mesure des
variables latentes endogènes sont notées y.
Exemple
Le modèle de la figure 15.5. contient quatre blocs. Le premier est exogène. Il est
construit autour de quatre variables de mesure (OSL2 à OSL7). L’échelle d’origine
comporte sept items, mais trois d’entre eux ont dû être éliminés en raison de
propriétés psychométriques insatisfaisantes. Dans le même esprit, AtR et IRK sont
mesurés chacun par deux variables, et Info est mesuré par trois variables. Au total, le
modèle de mesure comporte donc onze variables reliées, via les loadings, à quatre
variables latentes.
Lorsqu’il y a plusieurs variables de même nature dans le modèle (ξ, η, λ, ζ...), on leur donne un
indice qui, par convention, respecte l’ordre d’apparition dans le modèle. La lecture se fait
classiquement de gauche à droite et de haut en bas si nécessaire.
de relations.
By
Les relations matérialisées par des flèches droites sont des relations de dépendance, comme dans
une analyse de régression ou une analyse factorielle. Le modèle de la figure 15.7. est un modèle
d’analyse factorielle qui postule que la covariance observée entre les cinq variables de mesure est
due à deux facteurs latents. Le premier facteur est lié à deux variables de mesure, et le second
facteur aux trois autres. Autrement dit, chaque variable de mesure est le résultat d’une équation
semblable à x1 = λ1ξ1 + ε1.
Les relations matérialisées par des lignes courbes, sans flèches, sont de simples relations de
corrélation. Ici, on postule l’existence d’une corrélation entre les deux facteurs. Elle est à estimer
par le modèle. Notons que l’existence de ces relations est postulée a priori. L’analyse consiste
ensuite à vérifier que cette structure est plausible, par comparaison aux données observées. Par
opposition à une forme exploratoire, vue au chapitre 14, ce type d’analyse factorielle est dit
confirmatoire.
Dans cette figure, les liens entre ξ1 et les variables y sont fixés à 0, de même que les liens entre ξ2
et les variables x. Les termes d’erreur ε sont également supposés non corrélés entre eux. Cela étant,
si l’on a une bonne raison (généralement théorique) de le faire, toutes ces contraintes peuvent être
libérées et le paramètre correspondant doit alors être estimé. Pour conclure sur ce point, on peut
remarquer que le modèle structurel de la figure 15.7. se limite à une relation d’association. Si l’on
avait postulé une relation de dépendance, le modèle aurait été comparable à celui de la figure 15.5.,
avec une flèche directionnelle entre ξ1 et ξ2. Enfin, sous certaines conditions, ce type de modèle
permet également de traiter des relations de dépendance bidirectionnelles. Dans ce cas, on a affaire
à un modèle qualifié de non récursif. Ce type de modèle est complexe à gérer et nous ne
l’aborderons pas ici.
\/|
$|
4$
Exemple
By
Lorsqu’une relation de dépendance entre variables latentes est postulée, l’équation résultante sera
de forme générale η = γξ + ζ. γ et ξ seront respectivement remplacés par β et η lorsque l’équation
reliera deux variables endogènes. On voit apparaître un nouveau symbole, qui matérialise le terme
d’erreur associé à une variable latente. Il s’agit de ζ (zêta).
Exemple
Si on reprend le modèle de la figure 15.5., il y a m =11 variables de mesure. Le
nombre d’éléments dans la matrice de variances-covariances des 11 variables sera
« juste identifié ». S’il est inférieur, le modèle est « sous-identifié ». Dans les deux cas, les
estimations produites ne peuvent pas être interprétées, voire pas calculées.
By
Exemple
Soit le système :
x+y=6
2x + y = 10
3x + y = 12
La contrainte est, par exemple, de chercher des valeurs positives de x et y produisant
un total tel que la somme du carré des écarts entre ces totaux et les valeurs observées
soit minimale.
\/|
$|
On aboutit à une solution (3 ; 3,3). La somme :
4$
[(3 + 3,3) – 6]2 + [(2 × 3 + 3,3) – 10]2 + [(3 × 3 + 3,3) – 12]2 = 0,67
La solution « reproduite » par le modèle est (6,3 ; 10,3 ; 12,3).
By
Les procédures d’estimation des modèles d’équations structurelles fonctionnent sur ce principe. Les
paramètres à calculer sont :
– les variances des termes d’erreur des variables de mesure et des variables latentes (ε et ζ) ;
– les variances des variables latentes exogènes (ne sont pas désignées par un symbole particulier) ;
– les loadings entre variables de mesure et les variables latentes (λ) ;
– les corrélations entre variables latentes exogènes (Ψ) ;
– les relations structurelles entre variables latentes exogènes et variables latentes endogènes (γ, β).
Pour des raisons techniques, certains de ces paramètres doivent être contraints par l’analyste. Les
variances des variables latentes posent un problème. Comme elles ne sont pas observées
directement, on ne dispose pas d’unité de mesure. Il faut donc, artificiellement, en créer une. Par
convention et pour chaque variable latente, on fixe à 1 l’un des loadings la reliant à ses mesures, ce
qui a pour effet de calquer son unité de mesure sur celle de la variable retenue. Pour les variables
latentes exogènes uniquement, une autre solution consiste à fixer à 1 la variance de la variable
latente.
Dans le premier cas, l’échelle affectée au facteur est liée à la part de variance expliquée (par le
facteur) de la variable de mesure concernée. Celle-ci doit représenter au mieux la variable latente
concernée, et aucune autre variable latente dans le modèle. Si les mesures ont fait l’objet d’une
construction soignée et que la condition de validité discriminante est respectée, alors ce critère est
généralement satisfait par toutes les variables d’un même bloc et le choix est relativement
arbitraire.
Dans le second cas, la variable latente est standardisée et tous les loadings sont des paramètres à
estimer. C’est une solution intéressante si la valeur de ces derniers a un intérêt particulier pour
l’analyste.
La règle du loading contraint à 1 vaut également pour les liens entre les termes d’erreur et la
variable à laquelle ils sont rattachés. L’échelle affectée au terme d’erreur est alors liée à la part de
variance non expliquée de la variable à laquelle il est rattaché.
Le modèle de la figure 15.7. peut maintenant être représenté un peu différemment. Les étoiles
indiquent les paramètres à estimer par le modèle :
\/|
$|
4$
By
Chacun de ces deux modèles a un degré de liberté égal à 2 (10 éléments d’information moins
8 paramètres à estimer). Ils sont suridentifiés et peuvent produire une solution interprétable.
Néanmoins :
– pour un modèle « congénérique » (un bloc à un seul facteur, illustré à gauche), le nombre
minimum de variables de mesure est quatre. À trois, le modèle est juste-identifié ;
– pour un modèle à plusieurs facteurs, le nombre d’items minimum par facteur est de deux. Certains
auteurs recommandent un minimum de trois, voire de quatre items par facteur. Des simulations ont
en effet montré qu’un modèle construit autour d’un nombre important de variables latentes limitées
\/|
à deux variables de mesure chacune posait des problèmes d’estimation. Par ailleurs, une mesure de
$|
construit à deux items est rarement fiable et valide ;
4$
– il n’y a pas de nombre maximal de variables de mesure par facteur, mais il faut garder en tête le
problème de la complexité du modèle et les contraintes de taille d’échantillon qui en découlent.
By
Avec ces bases, abstraites mais indispensables, nous abordons la problématique du test d’un
modèle d’équations structurelles.
1. Ajustement du modèle
La notion d’ajustement est complexe en elle-même. Le test d’un modèle débute par une phase
d’estimation des paramètres dont le but est de parvenir à la meilleure solution possible. Puis, la
qualité globale de cette solution est estimée au moyen d’un ensemble de paramètres que l’on
appelle indicateurs d’ajustement.
a. Estimation des paramètres
Il s’agit d’une étape complexe, décrite dans la fiche technique 15.6. Le principe est de reconstituer
une matrice de variances-covariances « théorique » ∑ à partir des équations induites par le modèle.
Cette matrice est comparée à la matrice de variances-covariances observée dans l’échantillon S. La
démarche est itérative. On part de valeurs de coefficients fixées arbitrairement dans un premier
temps et affinées d’étape en étape. Le but est de minimiser une fonction d’ajustement (fit function)
dont le choix est lié aux contraintes et aux objectifs de l’analyste. La plus utilisée est la fonction du
maximum de vraisemblance, réputée optimale si les contraintes évoquées plus haut sont respectées.
Il existe d’autres fonctions d’ajustement, généralement moins contraignantes quant aux données,
mais également moins performantes.
Le choix des valeurs de départ des paramètres est crucial. Les logiciels fixent ces valeurs
automatiquement, ce qui convient pour la plupart des modèles simples. La convergence, c’est-à-
dire le fait d’aboutir à la plus petite valeur possible de F pour le modèle concerné, est obtenue au
bout de quelques itérations. Pour les modèles complexes, par contre, la convergence ne va pas de
soi, elle peut dépendre de valeurs initiales habilement choisies par l’analyste. Le problème est
notamment sensible quand :
– beaucoup de variables latentes sont mesurées avec deux indicateurs seulement ;
– les échelles de mesure sont hétérogènes ;
– il y a des individus « aberrants » (outliers) ;
– la contrainte de multinormalité est sévèrement violée.
Dans ce cas, le modèle ne converge pas ou produit des estimations aberrantes (e.g. des variances
négatives). \/|
Quand une valeur minimale est obtenue pour F, avec un jeu de coefficients associés, et que la
$|
convergence a été rapide, on passe à l’évaluation de la qualité du modèle.
4$
By
Fiche technique 15.6. Estimation de paramètres
et ajustement global d’un modèle d’équations structurelles
La spécification d’un modèle génère un jeu d’équations. Pour un modèle congénérique comme celui de la figure
15.8. (partie gauche), l’équation générale s’écrirait, après centrage des variables :
X = ˄X ξ + ε
Soit, sous forme développée :
On fixe ensuite des valeurs arbitraires aux paramètres λ et ε pour calculer une matrice de variances-covariances
∑ induite par les relations spécifiées dans le modèle. Pour cela, on utilise les équations suivantes (389) :
La matrice ∑ obtenue est ensuite comparée à la matrice des variances-covariances observées dans l’échantillon
S. La procédure est itérative. Un premier calcul est effectué avec des valeurs arbitraires de λ et σ2ε. Puis un
deuxième, un troisième... La procédure s’arrête quand la différence S – ∑ est la plus petite possible compte tenu
du modèle et de la réalité observée.
En pratique, on cherche à minimiser une grandeur plus complexe que S – ∑. Il s’agit d’une fonction d’ajustement
\/|
dite du maximum de vraisemblance qui possède la propriété d’aboutir à des estimations optimales des
$|
paramètres si les contraintes évoquées plus haut sont respectées. Cette fonction s’écrit :
F = log |∑| + tr (S ×∑– 1) – log (S) – m
4$
faisant le produit de S et de l’inverse de ∑. Rappelons que la trace d’une matrice est la somme des éléments de sa
diagonale.
b. Indicateurs d’ajustement
L’un des avantages de la fonction du maximum de vraisemblance est que sa distribution est connue.
Autrement dit, on dispose d’un test statistique construit à partir de F, dont l’hypothèse nulle est S =
∑. Sa statistique s’écrit :
χ2 = (n – 1)Fmin
Si les contraintes évoquées plus haut sont respectées, cette statistique suit une distribution du χ2 à
Exemple
Nous allons illustrer les calculs d’estimation à partir d’un modèle congénérique à
4 variables (figure 15.8. partie gauche) pour les données de l’exemple « tourisme ».
La variable retenue est Info. La figure 15.9. montre le modèle correspondant, après
traitement des données. Pour simplifier les calculs, la variance du facteur a été fixée à
1 et les loadings laissés libres.
Figure 15.9. Analyse factorielle confirmatoire de la variable « Tendance à la recherche
d’information »
\/|
$|
4$
By
Les valeurs des loadings et des variances des termes d’erreur sont données dans la
figure. Dans un premier temps, nous allons reconstituer le mode d’estimation. Pour
cela, la figure 15.10. montre les deux matrices de variances-covariances. S est à
gauche, ∑ est à droite.
Figure 15.10. Matrices S et ∑ pour le modèle « recherche d’information »
Le degré de liberté est bien égal à 2 (10 éléments dans la matrice moins 8 paramètres
à estimer. Aidez-vous des figures 15.9. et 15.10.) La valeur p = 0,20857 est la
probabilité d’apparition du χ2 calculé si H0 est vraie. Comme elle est supérieure au
seuil de risque maximum conventionnel α = 0,05, on ne prend pas le risque de rejeter
cette hypothèse. On en conclut que le modèle est plausible dans la population. Plus
pragmatiquement, on dit que le modèle s’ajuste bien aux données.
Pour pallier les inconvénients liés à ce test, des indicateurs d’ajustement destinés à aider l’analyste
dans sa décision ont été développés. Ces indicateurs sont très nombreux. Ils peuvent être classés en
trois grandes familles :
– indices absolus (absolute fit indices). Ils traduisent le pourcentage de covariance de la matrice de
données S que la matrice ∑ induite par le modèle est capable de reproduire. On peut les assimiler à
une sorte de coefficient de détermination fondé sur le rapport entre l’information (i.e. variation ou
somme des écarts au carré) contenue dans la matrice des covariances résiduelles et l’information
contenue dans la matrice S initiale ;
– indices incrémentaux ou relatifs (incremental/relative fit indices). Ils mesurent la proportion
d’amélioration du modèle testé quand on le compare à un modèle de base choisi a priori. Ce
modèle de base est généralement le modèle nul, c’est-à-dire le modèle où toutes les variables ont
une variance mais où toutes les covariances sont contraintes à zéro ;
– indices de comparaison (comparative fit indices). Ce sont des indices absolus qui ont été
construits dans le but de comparer des modèles entre eux.
De manière transversale à ces familles, on va trouver des indices qui tiennent compte de la
\/|
complexité des modèles en pénalisant ceux qui auraient un trop faible nombre de degrés de liberté.
$|
On les appelle indices de parcimonie (parsimony indices).
4$
Aucun de ces indices ne peut être considéré comme idéal, et beaucoup d’entre eux sont redondants.
Selon la littérature spécialisée, le meilleur compromis pour analyser la qualité de l’ajustement d’un
By
modèle consiste à se fonder sur le test du χ2, son degré de liberté, la valeur de p correspondante et
trois indices (CFI, SRMR et RMSEA, voir fiche technique 15.7).
Lorsque le degré de liberté du modèle est supérieur à la valeur du χ 2, le numérateur est égal à 0 et CFI = 1. De
même, compte tenu de la structure du modèle de base, il est rarissime que χ 2M – ddlM > χ 2B – ddlB. De fait,
cette expression peut se réduire à :
où χ 2M et χ 2B sont respectivement les valeurs du test pour le modèle étudié et le modèle de base. Rappel : χ 2 =
(n – 1)Fmin.
ddlM et ddlB sont, respectivement, les degrés de liberté du modèle étudié et du modèle de base.
Le CFI est normé. Sa valeur ne peut pas être inférieure à 0 ou supérieure à 1. Plus on s’approche de 1 mieux c’est.
La valeur de CFI traduit approximativement le pourcentage d’amélioration de l’ajustement en passant du modèle
de base au modèle étudié.
Un modèle ayant un CFI inférieur à 0,9 est considéré inacceptable. Il est acceptable avec une valeur comprise
entre 0,9 et 0,95. Au-delà de 0,95 l’ajustement est excellent.
2 – SRMR
Le Standardized Root Mean-square Residual est un indice absolu qui traduit l’idée de corrélation résiduelle
moyenne. Autrement dit, il renvoie la racine carrée de la moyenne des corrélations résiduelles obtenues en
soustrayant la matrice reproduite par le modèle ∑ à la matrice des corrélations observées S.
Il existe une version non standardisée (RMR). Elle se calcule de la même manière mais avant standardisation,
c’est-à-dire à partir des covariances. Le RMR est difficilement interprétable quand toutes les variables du
modèle n’ont pas la même échelle de mesure.
Le SRMR doit être le plus faible possible. Un modèle dont le SRMR est supérieur à 0,08 est inacceptable. Il est
acceptable entre 0,05 et 0,08. Il est excellent en dessous de 0,05.
3 – RMSEA
Le Root Mean Square Error of Approximation est un indice absolu qui favorise la parcimonie. Autrement dit, il
pénalise les modèles complexes au degré de liberté proportionnellement faible. Il est également fondé sur la
notion de non-centralité. \/|
$|
La formule montre que lorsque la taille d’échantillon augmente, la pénalisation des modèles complexes s’atténue.
4$
Le RMSEA doit être le plus faible possible. Les valeurs seuils sont les mêmes que pour le SRMR.
Le RMSEA a une distribution statistique partiellement connue qui permet de calculer un intervalle de confiance
By
à 90 % pour sa valeur dans la population. La précision de cet intervalle augmente avec la taille d’échantillon. La
borne supérieure de l’intervalle ne devrait pas dépasser 0,1. Au-delà, on considère que l’ajustement du modèle
est inacceptable.
L’expérience montre que cet indicateur est conservateur pour les petits modèles au degré de liberté
intrinsèquement faible. La pénalité semble s’accroître si, en plus, les covariances entre les variables de mesure
sont élevées.
Exemple
Si on reprend le modèle congénérique Info, les trois indices présentés dans la fiche
technique 15.6 ont pour valeur :
Le calcul du SRMR est long mais nous pouvons facilement reconstituer les deux
autres :
sait que le RMSEA pénalise les modèles avec très peu de degrés de liberté. Cette
valeur n’est donc pas inquiétante.
By
Si ces indicateurs sont satisfaisants, alors les résultats peuvent être interprétés.
\/|
$|
4$
By
Exemple
La figure 15.11. présente les résultats pour le modèle de la figure 15.5.
Figure 15.11. Analyse des structures de covariances pour le modèle de la figure 15.5
\/|
Les indicateurs d’ajustement pour ce modèle sont :
$|
4$
By
Fiabilité
C’est la capacité d’une mesure et par extension d’un modèle à donner des résultats statistiquement
« consistants », c’est-à-dire stables et cohérents dans le temps. Pour cela, ils doivent être exempts
d’erreur aléatoire. On utilise couramment le coefficient α (alpha) de Cronbach et le coefficient ρ
(rho) de Jöreskog (quelquefois aussi appelé improprement de Dillon-Goldstein). Le α s’analyse
exclusivement au niveau de chaque bloc de mesure :
variables latentes et leurs mesures et de l’erreur de mesure. Pour cette raison, il est considéré plus
précis que α, mais l’on reporte couramment les deux.
By
On a :
Et :
\/|
$|
Les deux coefficients sont supérieurs à 0,8, ce qui indique une très bonne cohérence
4$
interne entre les mesures, donc une très bonne fiabilité de cette dernière.
Il faut faire les mêmes calculs pour les autres blocs du modèle :
By
α ρ
AtR 0,626 0,615
IRK 0,738 0,743
Info 0,760 0,818
Toutes les valeurs sont satisfaisantes et permettent de continuer à travailler. Les deux mesures de
risques sont à améliorer, notamment celle d’attrait pour le risque dans un contexte de vacances.
Validité
Les notions de validité convergente, discriminante et nomologique s’appliquent d’une manière un
peu différente de celle préconisée en psychométrie classique. Pour la première, il est d’ailleurs
préférable de parler de variance moyenne extraite plutôt que de validité convergente, notion
erronée dans ce contexte. Il s’agit d’estimer la communauté moyenne entre une variable latente et
ses mesures, en tenant compte du poids de l’erreur de mesure. L’indicateur correspondant s’appelle
néanmoins « ρ de validité convergente ».
Lorsque cette valeur est inférieure à 0,5 on peut douter de l’existence d’une variable latente source
de l’information partagée entre les variables de mesure, telle qu’elle est postulée dans le modèle.
Dans ce cas, il faut soit revoir les mesures, soit repenser la théorie.
La validité discriminante s’analyse comme la différence de substance théorique entre les variables
latentes. Pour satisfaire cette exigence, il est nécessaire que chaque variable latente partage plus
d’information (exprimée en corrélation au carré) avec ses mesures qu’avec n’importe laquelle des
autres variables latentes du modèle. Formellement, cela s’écrit :
Au niveau global, on dit que le modèle a une validité discriminante satisfaisante si la plus petite
des variances moyenne extraites est supérieure à la plus grande des corrélations au carré entre
variables latentes.
\/|
La validité nomologique s’analyse au niveau du modèle comme la capacité à construire un réseau
$|
structurel conforme à la théorie. Il n’y a pas d’indicateur spécifique. On s’intéresse au coefficient
de détermination moyen entre les variables latentes endogènes, sous réserve que le modèle s’ajuste
4$
Exemple
La variance moyenne extraite pour la variable OSL est :
ρvc
AtR 0,447
IRK 0,593
Info 0,605
Ces valeurs sont acceptables, voire bonne pour Info, car il est assez rare de dépasser 60 % pour ce
type de mesure. Par contre, la faiblesse de la mesure de AtR se confirme.
Pour la validité discriminante, il est pratique de construire une matrice qui contient les variances
moyennes extraites en première colonne et les corrélations au carré entre variables latentes sous la
diagonale. Les valeurs reportées pour ces dernières sont celles fournies par le logiciel lors du test
du modèle de mesure global.
La partie supérieure du triangle montre un défaut de validité discriminante entre OSL et AtR. Au
plan théorique, il n’y a pas d’ambiguïté entre les deux concepts. L’un est lié à un trait général
poussant les individus à une recherche permanente de sensations et de stimulation. L’autre est un
trait contingent lié à l’attrait pour le risque sur son lieu de vacances. Le problème est purement
empirique. Il vient probablement de ce que les items de mesure du risque sont en fait des
propositions qui se limitent à la recherche de sensations (notamment physiques) sur le lieu de
vacances. Cette mesure est donc à revoir. \/|
Le coefficient de détermination d’une variable latente dépendante est le complément à 1 du
$|
pourcentage d’information non expliqué de cette variable. Pour AtR, par exemple, il est de 1 –
0,419 = 0581. C’est excellent, mais doit être analysé en tenant compte de ce qui vient d’être dit
4$
pour la validité discriminante de cette variable. Les autres valeurs sont 0,061 pour IRK et 0,084
pour Info.
By
Exemple (suite)
Le coefficient de 0,762 entre OSL et AtR signifie qu’un niveau d’OSL à un écart-type
au-dessus de la moyenne prédit un niveau d’AtR à 0,762 écart-type au-dessus de la
moyenne de cette variable.
Lorsqu’une même variable endogène est reliée à deux (ou plus) variables exogènes, l’interprétation
pour un coefficient donné est la même, sachant que le niveau de l’autre variable exogène est
maintenu constant.
Les effets indirects sont le produit des effets directs entre les variables concernées. Lorsqu’une
variable intermédiaire existe entre deux autres variables, elle ne transmet à la variable endogène
qu’une partie de l’effet de la variable exogène. Pour une augmentation d’un écart-type au-dessus de
la moyenne de la variable exogène, le gain sur la variable dépendante sera exprimé en nombre
d’écarts-types au-dessus de la moyenne sur la variable dépendante, via son effet préliminaire sur la
variable intermédiaire.
Exemple (suite)
Dans la figure 15.11., l’effet indirect entre OSL et IRK est égal au produit de l’effet de
OSL sur AtR et de l’effet de AtR sur IRK, soit 0,762 × – 0,383 = – 0,292. Une
augmentation d’un écart-type sur OSL s’accompagne donc d’une diminution de 0,292
écart-type sur IRK, via son effet préalable sur AtR.
Les valeurs non standardisées des coefficients s’accompagnent d’un test qui permet de conclure à
\/|
leur valeur non nulle dans la population. Pour un effet indirect limité à une seule variable
intermédiaire, le test de Sobel donne la même information. Il consiste à calculer une erreur
$|
Où SEi est l’erreur standard du coefficient βi. Elle est donnée par le logiciel. Dans le cas général,
L’hypothèse nulle de ce test est que l’effet n’existe pas dans la population (i.e. ≤ 0). Pour les grands
échantillons, cette statistique se compare à une valeur de la loi normale centrée-réduite.
Il n’existe pas de test pour les petits échantillons, pour des valeurs standardisées et/ou pour des
effets indirects comportant plus d’une variable intermédiaire.
Exemple (suite)
Effectuons le test pour les trois mêmes variables. Les valeurs non standardisées des
coefficients et leurs erreurs standard sont données par le logiciel :
La relation entre OSL et AtR est, par exemple de 0,575 en valeur brute et son erreur
standard est égale à 0,075.
L’erreur standard du test est égale à :
\/|
Et la statistique du test à :
$|
4$
By
L’effet total est la somme de l’effet direct et de l’effet indirect d’une variable sur une autre. Cet
effet se calcule pour les valeurs brutes comme pour les valeurs standardisées.
Exemple (suite)
L’effet total de OSL sur Info est :
0 + 0,762 × 0,273 + 0,302 × 0,152 + 0,762 × – 0,383 × 0,152 = 0,210
Le 0 initial indique l’absence d’effet direct, volontairement non postulé dans ce
modèle.
Une augmentation d’un écart-type sur OSL s’accompagne donc d’une augmentation de
0,21 écart-type sur Info en dépit de l’absence d’effet direct entre les deux variables.
L’effet est entièrement indirect, au travers des deux variables de risque. On dira dans
ce cas que l’effet de la tendance à la recherche de stimulation sur la recherche
d’information est médiatisé par l’attrait pour le risque et les conséquences négatives
d’un mauvais choix(390).
En termes de variance expliquée, cela ne représente toutefois que 0,212 = 0,044. La
tendance à la recherche de stimulation, l’attrait pour le risque et les conséquences
négatives d’un mauvais choix n’expliquent, ensemble, que 4,4 % de la recherche
d’information. Les déterminants de cette dernière sont par conséquent à chercher
ailleurs.
\/|
$|
La découverte de la modélisation par équations structurelles va se terminer par quelques
prolongements.
4$
By
D. Prolongements
Une modélisation par équations structurelles peut s’arrêter là. L’analyste peut néanmoins souhaiter
améliorer son modèle. Les outils nécessaires sont présentés dans un premier temps. Une autre
stratégie de modélisation est possible. Elle permet de passer outre certaines des contraintes liées à
l’analyse des structures de covariances. Cette forme alternative de modélisation sera abordée dans
un second temps.
Exemple
Voici la matrice des résidus standardisés pour l’échelle de mesure de l’OSL dans sa
version à sept items. \/|
$|
4$
By
Trois résidus dépassent ou approchent 0,1. Deux concernent OSL 6 qui, par ailleurs, a
deux autres résidus supérieurs à 0,05. Cette variable est manifestement relativement
éloignée des autres. C’est l’une des deux dont la rédaction est inversée par rapport aux
autres. OSL 3 a également quatre résidus supérieurs à 0,05.
Le loading d’OSL 6 est le plus faible :
Il ne partage que 30,3 % d’information avec le facteur (0,552 = 0,303). Autrement dit,
70 % de sa variance est due à un ou plusieurs facteurs non modélisés. Il ne s’agit pas
d’un défaut de spécification puisque le concept sous-jacent (OSL) est par définition
unidimensionnel. C’est donc un problème de mesure qui doit pouvoir être résolu par
une rédaction différente de l’item. En attendant, il est préférable de l’enlever de
l’analyse.
b. Indices de modification
Ces indices peuvent être utilisés dans une stratégie d’amélioration progressive de modèles
emboîtés (on dit également « nichés »). On peut partir d’un modèle juste-identifié où toutes les
relations possibles sont spécifiées pour aboutir à un degré de liberté nul. Des relations sont ensuite
contraintes à 0 pour libérer des degrés de liberté. On parle de model trimming. À l’inverse, on peut
partir d’un modèle sur-identifié avec toutes les relations possibles fixées à 0 et libérer ces
dernières progressivement (model building).
Dans les deux cas, on compare l’évolution des indices d’ajustement, notamment du χ2, et l’on
s’arrête lorsque le meilleur résultat possible est obtenu. On dispose du test de différence du χ2 pour
vérifier que la différence entre deux modèles est significative. Soit deux modèles M et N.
La statistique :
χ2d = χ2M - χ2N
suit une loi du χ2 à ddld = ddlM – ddlN degrés de liberté. Le test est optimal quand ddld = 1, c’est-à-
dire quand les deux modèles ne diffèrent que d’un seul paramètre. Autrement, on ne peut pas
analyser précisément la source de l’évolution du χ2.
Cette stratégie doit être adoptée avec prudence. Il y a en effet risque de capitaliser sur le hasard
\/|
(capitalization on chance). Les particularités de l’échantillon font que les effets des différentes
modifications interagissent pour produire un modèle acceptable. Il s’agit alors d’un artefact qui n’a
$|
aucune existence dans la population. Il n’y a aucun moyen empirique de déceler ce problème. Toute
4$
plupart des logiciels sous ce terme. Il s’agit en pratique de tests de Lagrange univariés. Ces tests
évaluent, dans un algorithme d’estimation, le taux de changement dans la valeur optimale d’une
fonction d’ajustement lorsque les contraintes pesant sur l’estimation évoluent. Le test s’exprime
sous la forme d’un test du χ2 à 1 degré de liberté. Pour un paramètre donné, la valeur calculée de ce
test estime la modification que subirait le χ2 du modèle étudié si on libérait le paramètre concerné.
On dispose également du test de Wald, qui fonctionne exactement à l’inverse. Il s’agit de
contraindre des paramètres à 0 et de voir quel impact cela aurait sur le χ2 du modèle étudié.
Exemple
Les 5 premiers tests de Lagrange pour le modèle de la figure 15.9 sont donnés ci-
dessous :
résultant serait donc égal à 54,239 pour 38 degrés de liberté. Statistiquement, il s’agit
d’une option intéressante bien que probablement insuffisante pour que le χ2 devienne
By
non significatif.
E13 et E15 correspondent à OSL5 et OSL7. Ces deux items sont libellés,
respectivement :
– « Un emploi qui offre changement, variété et déplacements me convient bien, même
si cela implique un certain risque »
– « Lorsque quelque chose commence à m’ennuyer, j’aime trouver autre chose qui ne
m’est pas familier »
D’une part le concept d’OSL est théoriquement unidimensionnel. D’autre part, il n’y a
rien de commun ou de redondant dans la rédaction qui pourrait expliquer cet artefact.
Nous prenons donc la décision de ne pas modifier le modèle dans le sens suggéré.
2. Approche PLS
La modélisation par équations structurelles par les moindres carrés partiels (Partial Least Squares
Path Modeling – PLS PM) est une alternative à l’analyse des structures de covariances. Elle permet
d’évaluer le même type de modèles. Sur certains aspects, PLS PM est plus souple. Sur d’autres,
elle est plus limitée. Historiquement, les deux méthodes sont apparues sensiblement en même
temps. Mais PLS PM a souffert d’un défaut d’offre en matière de logiciels de traitement, tandis que
l’analyse des structures de covariances bénéficiait d’une saine concurrence à ce niveau (LISREL,
EQS puis SEPATH, AMOS, MPlus...). Ce problème est résolu depuis la fin des années 90 et PLS
PM a récemment fait l’objet de nombreux développements (PLS-Graph, Visual PLS, SmartPLS,
XLSTAT PLS PM)(392).
Les caractéristiques de la modélisation PLS n’imposent pas de contraintes particulières quant au
nombre d’observations et à la qualité des données. On peut donc évaluer des modèles complexes
avec de petits échantillons et des données de toute nature, dont la distribution est également
indifférente. On peut également tester des modèles contenant, partiellement ou exclusivement, des
blocs formatifs. Un bloc formatif renverse la direction des relations entre la variable latente et ses
mesures. Ce sont ces dernières qui sont source de la variable latente. Les implications statistiques
sont nombreuses, et l’utilisation de ce type de mesure ne fait pas l’unanimité même si, au plan
théorique, l’idée est séduisante(393). Contrairement à l’analyse des structures de covariances, où elle
est source d’estimations de paramètres parfois aberrantes, PLS n’est pas sensible à la
multicolinéarité des variables latentes.
En contrepartie, PLS ne dispose pas d’un test d’adéquation globale équivalent au test du χ2 et ne
fournit pas d’estimations de paramètres réputées optimales au plan statistique. Plus généralement, la
validation d’une théorie (matérialisée par un modèle) est formellement impossible avec PLS. De ce
point de vue, la méthode n’est pas entièrement confirmatoire. PLS ne permet pas non plus de
modéliser des relations bidirectionnelles. \/|
On montre néanmoins que les deux approches ont des résultats relativement convergents dès lors
$|
que l’on travaille sur des gros échantillons et que l’on dispose d’un nombre élevé d’indicateurs par
4$
variable latente. Quand les données respectent la contrainte de normalité, les résultats sont
également similaires même si les estimations des paramètres sont réputées plus précises dans
By
l’analyse des structures de covariances. De manière générale, PLS est ainsi une bonne
approximation de l’analyse des structures de covariances quand les conditions d’application de
cette dernière ne sont pas remplies.
Plus qu’opposées, les deux approches sont complémentaires. Quand faut-il choisir l’une ou
l’autre ? La figure 15.12. propose quelques éléments de réflexion(394).
Figure 15.12. Critères de choix entre PLS PM et CB SEM (Covariance Based Structural Equation Modeling)
PLS PM CB SEM
Prédiction de construits,
développement théorique, Test ou validation d’une théorie,
Objectifs de recherche
exploration d’alternatives comparaison de théories
théoriques
Spécification du modèle de Nécessité de modéliser des Nécessité de modéliser des
mesure construits formatifs liens entre termes d’erreur
Modèle complexe (nombreux Relations structurelles
Modèle structurel indicateurs, nombreuses bidirectionnelles (modèles non
relations structurelles) récursifs)
Faible (au moins 10 fois le
nombre le plus élevé
d’indicateurs formatifs dans un
Élevée (5 à 20 fois le nombre
Taille d’échantillon bloc ou 10 fois le nombre le
de paramètres à estimer)
plus élevé de relations
structurelles en direction d’une
variable latente donnée)
\/|
Distribution des variables de Contraintes de normalité
$|
Données non normales
mesure respectées
4$
Nécessité de tester
statistiquement la plausibilité du
By
Conclusion
Bien que complexe à mettre en œuvre, l’expérimentation peut apporter des informations précieuses
pour la décision marketing. Son champ d’application est principalement opérationnel, notamment la
mise au point du marketing-mix, sans toutefois exclure une portée plus stratégique.
Ce chapitre a tout d’abord passé en revue les aspects conceptuel et pratique de la mise en place des
plans d’expérience. À cet effet, rigueur, précision et prudence sont des mots clés pour le chargé
d’études. Différents types de plans ont été présentés, du plus simple (plan aléatoire à un facteur, de
type « après, sans contrôle ») au plus complexe (plan factoriel complet de type « avant-après »
avec contrôle, plan de Solomon). Tous ont le même objectif : permettre d’identifier des relations de
cause à effet entre variables.
Deux méthodes de traitement des données expérimentales ont ensuite été présentées. L’analyse de
variance est particulièrement adaptée à cet objectif. Si ses contraintes d’application sont
respectées, elle permet de mettre en évidence les effets différentiels des traitements expérimentaux
sur la tendance centrale des variables.
L’analyse conjointe est une forme particulière d’analyse de variance, très précieuse pour expliquer
les choix de consommation des individus. Elle offre l’avantage de traiter des classements de
produits effectués par des individus et d’être ainsi proche de la réalité des comportements. Elle
permet également de mieux comprendre les arbitrages entre produits que réalisent parfois les
consommateurs. Les réponses marketing tenant compte de ces éléments n’en sont que plus
pertinentes.
La troisième partie a présenté une approche de la modélisation qui généralise la plupart des
méthodes présentées dans ce chapitre et le précédent. Plutôt utilisée pour traiter des données
d’enquêtes, la modélisation par équations structurelles est également adaptée au traitement de
données expérimentales. Elle marie l’analyse factorielle et l’analyse de régression et permet ainsi
de tester formellement l’existence de relations de dépendance (voire de causalité) entre variables
\/|
latentes. L’utilisation de cette forme de modélisation est adaptée au traitement de problèmes
$|
rencontrés dans de nombreux domaines du marketing et au-delà (comportement du consommateur,
4$
Bibliographie
BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and
Applications. A Computer Package Approach, Prentice-Hall, 1983, pp. 51-202.
GIRDEN E., ANOVA. Repeated Measures, Quantitative Applications in the Social Sciences, Sage,
Newbury Park, 1992.
HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Analysis, with
Readings, 7e éd., Pearson Education, 2013.
JOURDAN P. et JOLIBERT A., Marketing research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
KEPPEL G. et WICKENS T. D., Design and Analysis : A Researcher’s Handbook, 4e édition, Pearson
Education, 2004.
KLINE R. B., Principles and Practice of Structural Equation Modeling, 3e édition, The Guilford
Press, New York, 2011.
LIQUET J.-C., « L’analyse conjointe », Décisions Marketing, 4, 1995, pp. 101-110.
WINER B. J., BROWN D. et MICHELS K. M., Statistical Principles in Experimental Design, 3e édition,
McGraw-Hill, 1991.
WRIGHT D. B., Understanding Statistics. An Introduction for the Social Sciences, Sage Publications,
1997.
Webographie
http://www.fsa.ulaval.ca/personnel/rigauxbb/manuels/analyse_conjointe
\/|
http://www.coryent.com/planex.html
$|
4$
http://faculty.chass.ncsu.edu/garson/PA765/index.htm
http://davidakenny.net/kenny.htm
By
http://www.upa.pdx.edu/IOA/newsom/
Conclusions et recommandations
\/|
$|
4$
By
Présentation du rapport d’étude et mise en œuvre
Il faut avoir beaucoup étudié pour savoir peu.
MONTESQUIEU
Au cours des chapitres précédents, nous avons parcouru les trois premières phases de la réalisation
de l’étude de marché : préparation, collecte et traitement des informations. La présentation et la
mise en œuvre du rapport d’étude se subdivisent en quatre points, présentés dans la figure 1, qui
serviront de trame à ce chapitre.
Le rapport d’étude se décline en deux versions : une version allégée, appelée « fond de rapport » et
une version traditionnelle, complète et détaillée.
Sa rédaction exige des qualités, parfois contradictoires, telles qu’esprit de synthèse et intuition,
rigueur et pragmatisme.
Les conclusions doivent répondre clairement aux questions initiales du client, listées dans le projet
\/|
d’étude.
$|
Si les dispositions du contrat d’étude le prévoient, le rapport est présenté oralement. C’est un face-
4$
En fonction de cette perception, il prendra ou ne prendra pas les décisions qui découlent des
conseils ou des recommandations formulés par le chargé d’études.
Figure 1. Plan du chapitre
I. Rédaction du rapport d’étude
Les résultats sont regroupés dans un support écrit, appelé rapport d’étude, rédigé par le chargé
d’études. Ce document est remis au commanditaire du travail, client extérieur ou service interne de
l’entreprise.
A. Présentation matérielle
Il existe deux formats. Le rapport complet est le format « long » traditionnel. Le « fond de
rapport », correspond au format réduit ; il est essentiellement composé d’une série de messages et
tableaux de résultats brièvement commentés.
Ces dernières années, les instituts d’études proposent, dans leurs devis, le rapport complet sous la
forme d’une option payante. Ceci permet de « serrer » le devis initial, en offrant une possibilité de
réduire le budget consacré à l’étude.
1. Format traditionnel
a. Nombre de pages
La longueur dépend bien sûr de la complexité de l’étude et de la finesse des analyses effectuées.
\/|
Pour fixer un ordre de grandeur, 40 à 80 pages (hors annexes) constituent un volume usuel. Les
$|
commentaires sont élaborés avec soin et rédigés dans un style soutenu.
4$
b. Présentation générale
By
Le format A4 (ou « pleine page » de 21 × 29,7 cm) est la règle. Pour faciliter la lecture du rapport,
une bonne solution consiste à mettre le texte en page de droite, et les schémas, tableaux ou figures
en regard sur la page de gauche.
Pour un document de moins de 80 pages (annexes comprises), une reliure en plastique amovible
convient : peu coûteuse, elle donne un confort de lecture satisfaisant. Il faut éviter les documents
agrafés, présentation qui ne convient qu’aux notes internes. La couverture du rapport demande un
papier d’un grammage épais de 200 ou 250 grammes. Une feuille en plastique transparent, placée
en première et en dernière page, protège efficacement la couverture contre les traces de doigts
disgracieuses et confère à l’ensemble du document une note plus professionnelle.
La reliure cartonnée, de préférence en dos carré cousu-collé, est plus prestigieuse, mais impose un
façonnage relativement onéreux. La nécessité d’une diffusion électronique, puis le développement
des tablettes numériques rendent cette présentation quasi obsolète, sinon inutile. Elle est réservée à
l’édition de rapports volumineux ou aux études de haut de gamme. L’avantage réside dans la
possibilité d’inscrire sur la tranche le titre de l’étude, ce qui facilitera le classement et le repérage
ultérieur du rapport dans une bibliothèque. Si on opte pour un dos carré collé simple, il convient
d’être vigilant sur la qualité du collage, pour éviter de voir le rapport se transformer rapidement en
feuilles volantes.
Si une diffusion au grand public est envisagée, la possibilité d’une édition au format livre
électronique (e-book) existe. Amazon offre ainsi une plate-forme pour éditer gratuitement une
publication au format de son lecteur de livre électronique, le Kindle(395).
\/|
$|
4$
By
responsables d’entreprise ne lisent fréquemment, faute de temps, que cette seule partie. Les points
4$
essentiels sont le rappel des objectifs, les trois ou quatre résultats majeurs obtenus et les
principales conclusions.
By
Exemple
« Nous avons considéré que l’entreprise sera capable de mobiliser un budget de
1 million d’euros pour le lancement du produit et aura assuré une disponibilité
numérique minimale de 50 % en hypermarché lors du démarrage des ventes. »
Si une étude documentaire ou des résultats d’un travail antérieur a été utilisé, ils sont brièvement
présentés car ils orientent la démarche ultérieure.
Certains chargés d’études précisent à ce niveau les limites de leurs investigations, c’est-à-dire les
éléments susceptibles de modifier les conclusions, qui ont été volontairement exclus, généralement
pour des raisons de budget ou de temps.
Enfin, si des termes particuliers ont été utilisés (mots techniques, concepts marketing...), une
définition claire et simple doit être fournie. Par exemple, on indiquera ce que l’on entend par
prescripteur, cœur de cible, score d’impact, marché potentiel...
\/|
$|
4$
By
4 – Quels sont les résultats inattendus qui suggèrent des nouvelles pistes ? Insérée de manière
adroite, cette ouverture pourra justifier une investigation complémentaire.
5 – Qui lira en priorité le rapport ? Quel est son degré de familiarité avec le sujet et la
méthodologie employée ? Le vocabulaire doit être adapté au public visé. Un glossaire, expliquant
sommairement les concepts et le vocabulaire technique, est souvent apprécié ; il sera situé en début
ou fin de rapport.
7. Annexes
Les annexes allègent le corps du rapport et servent à l’exposé des aspects techniques d’une méthode
ou à la présentation d’analyses ou de tableaux secondaires. Lues par un petit nombre de personnes,
mais souvent spécialistes du thème développé, elles ne sont pas un moyen commode d’étoffer un
rapport succinct, mais plutôt des éléments destinés à renforcer la crédibilité du travail entrepris. En
cas d’annexes volumineuses, il convient de prévoir un document distinct du rapport principal.
C. Recommandations et conseil
Les rubriques précédentes se suffisent à elles-mêmes. En d’autres termes, la mission du chargé
d’études s’achève dès que les conclusions ont été présentées. Pourtant, dans bon nombre de cas, le
demandeur souhaite que le réalisateur s’engage plus en avant. Puisque ce dernier dispose d’une
grande quantité d’informations pour résoudre le problème, l’entreprise attend des suggestions sur
la, ou les solution(s) préférable(s). Cet engagement peut se limiter à un premier stade, la
recommandation, ou aller plus loin : on parle alors de conseil.
\/|
1. Recommandations
$|
4$
Les recommandations sont une traduction des conclusions en termes de choix marketing, plus ou
moins élaborées selon l’ampleur de l’étude. Elles se justifient par l’expérience accumulée : grâce
By
aux études antérieures similaires ou comparables, l’analyste est capable de dégager des « normes »
pour apprécier les résultats. Par exemple, l’expérience montre que, pour les tests de concept d’un
nouveau produit, en moyenne 60 à 80 % des personnes enquêtées se déclarent systématiquement
intéressées par l’idée : donc, si pour un produit donné, le score n’est que de 70 %, l’analyste
émettra des doutes sur les chances de succès du produit et recommandera de modifier telle ou telle
caractéristique.
Lors d’une recommandation, le chargé d’études précise à son client les informations jugées les plus
solides, c’est-à-dire les données « dures » qui conduisent à des décisions sans risques, et celles qui
sont plus délicates à interpréter, peut-être à cause de biais dans les réponses ou d’autres facteurs
explicatifs non contrôlés dans l’étude. La valeur ajoutée d’une bonne recommandation est forte,
parce qu’elle permet au décideur de hiérarchiser la qualité des informations fournies, et parce
qu’elle oblige le chargé d’études à « faire parler les résultats ».
2. Conseil
Le conseil suppose une implication plus grande encore : c’est le « service après-vente » du rapport
d’étude. Il indique quels types d’actions marketing doivent être mis en œuvre. L’homme d’études se
substitue au manager (acheteur de l’étude) en indiquant quelle stratégie, quel plan ou quelle tactique
marketing il pratiquerait, s’il était à sa place.
Pour produire des conseils de bonne qualité, il est impératif de disposer d’une vue globale des
forces et des faiblesses de l’entreprise sur les plans financier, humain et technologique. La culture
des managers, leur autonomie dans la prise de décision et le degré de risque jugé tolérable sont
autant d’éléments à considérer. Ainsi, on ne donnera pas les mêmes conseils à une filiale d’un
groupe multinational qu’à une PME, quand bien même leurs résultats seraient identiques.
La figure 6 illustre les principales distinctions entre la conclusion, la recommandation et le conseil.
Figure 6. Option d’un rapport d’étude
\/|
3. Jusqu’où faut-il aller ?
$|
La distinction entre les différentes prestations offertes par les instituts d’études, les sociétés de
4$
conseils et les consultants devient de plus en plus délicate. En effet, les sociétés d’études de marché
intègrent leur activité vers l’aval (le conseil), les consultants réagissent en s’associant avec des
By
Tout à fait ou
Tout à fait ou
plutôt
Jugement proposé plutôt d’accord
en désaccord
Managers Études Managers Études
« Les hommes d’études doivent
limiter leur intervention à la simple 46 % 35 % 48 % 60 %
présentation des faits. »
Source : adapté de NICHOLSON P., « Réconcilier les hommes d’études et les décideurs »,
Revue française de gestion, no 61, janvier-février 1987, pp. 22-32.
Cependant, bon nombre de sociétés d’études soulignent que la demande des acheteurs d’études est
de plus en plus pressante pour que le conseil complète la prestation d’étude et soit intégré dans le
rapport. Le flash-étude 1 donne les points de vue de deux praticiens de ces métiers.
Flash-Étude 1
\/|
$|
Société d’études de marché ou société de conseil ?
4$
« La mission d’un consultant se résume en une phrase : identifier le véritable problème derrière
celui posé par le client en lui donnant les moyens de se le reposer de manière créative et lui
apporter une recommandation opérationnelle. Il doit aussi forcer l’entreprise à changer ses
règles du jeu, à casser son cloisonnement vertical et centralisé. Les études, malgré leur
importance, ne sont qu’un outil destiné à la prise de décision. Que les cabinets d’études
apportent une valeur ajoutée dans le cadre de leur expertise technique me semble positif, qu’ils
débordent de cette expertise sous prétexte de valeur ajoutée est dangereux à la fois pour le
cabinet et pour le client. »
1. Graphiques classiques
Il existe trois grands types de représentations graphiques :
– l’histogramme : illustration de la distribution d’une variable continue (intervalle ou rapport) ;
– le diagramme : comparaison des données brutes ou résultant de traitements statistiques. La seule
exigence porte sur la nécessité de fractionner la variable (nominale, ordinale, métrique) en
\/|
modalités ou classes ;
$|
– le graphique géométrique : suivi des évolutions d’une même variable (continue) dans le temps, ou
4$
orthonormé.
La fiche technique 1 présente les principaux types de graphiques. Nous avons volontairement
sélectionné les plus courants ; ils sont facilement reproductibles avec la plupart des tableurs et
grapheurs.
\/|
$|
4$
By
By
4$
$|
\/|
\/|
$|
4$
By
Le tableau de chiffres précédent exige une concentration minimale pour constater que la cible du parfum A est
nettement plus jeune que celle de B, alors que la comparaison des histogrammes 1 et 2 ci-dessous met ce fait en
évidence sans effort.
– Usages types
L’histogramme est très utile pour apprécier visuellement la loi de distribution d’une variable et sa symétrie
autour de la moyenne. Mais l’information fournie est limitée à une variable, et impose une mesure métrique. Pour
ces diffé rentes raisons, les rapports d’étude privilégient les diagrammes.
2 – Diagrammes
– Conditions
Elles sont pratiquement inexistantes : toutes les échelles de mesure conviennent, il suffit de pouvoir répartir les
observations en classes. De plus, on peut représenter sur le même schéma des croisements de modalités de deux
variables (tris croisés).
– Catégories et principes de construction
Différentes représentations existent ; le choix dépend essentiellement des préférences artistiques du chargé
d’études :
(a) Diagrammes en secteurs, appelés familièrement « camemberts ». La surface de chaque secteur est
proportionnelle au poids de la modalité de la variable(400). Les schémas 3 et 4 montrent les diagrammes en
secteurs issus des ventes respectives des parfums A et B. La plupart des logiciels graphiques actuels offrent la
possibilité d’une représentation en trois dimensions. Cette option enrichit le graphique, comme le montre le
schéma 3 bis, mais elle doit être utilisée avec prudence, car elle nuit parfois à la clarté du graphique.
(b) Diagrammes à colonnes (horizontales ou verticales). Chaque modalité des variables prend la forme d’un
rectangle dont la hauteur est proportionnelle au poids de la modalité. On reporte indistinctement sur l’axe
horizontal (ou vertical) leurs fréquences absolues des modalités (effectifs) ou leurs fréquences relatives
(pourcentages). L’avantage majeur, par rapport aux diagrammes en secteurs, est la possibilité d’une
représentation de tris croisés des modalités de deux variables.
\/|
$|
4$
By
By
4$
$|
\/|
\/|
$|
4$
Le diagramme 5 permet ainsi la comparaison directe des ventes des marques A et B selon les tranches d’âge : les
By
ventes des parfums sont exprimées en millions d’euros pour chaque tranche d’âge. Deux informations
apparaissent clairement : les ventes globales de parfums A et B sont à peu près comparables, mais la cible de A
est nettement plus jeune que celle de B.
Le graphique 5 bis exprime la même information à partir d’une vue plongeante en trois dimensions. Cette
représentation doit être évitée, car elle tend à surcharger le graphique et finit par faire perdre de vue
l’essentiel : le parfum B touche une cible plus âgée que A.
By
4$
$|
\/|
\/|
$|
4$
By
Le diagramme 6 indique sur l’axe des ordonnées le pourcentage des ventes des marques A et B réalisées sur
chaque catégorie d’âge. Par exemple, on constate que 83 % des 31-40 ans consomment le parfum A (= 86/104)
et seulement 17 % d’entre eux utilisent la marque B (= 18/104) : la pénétration de la marque B est très faible
auprès de la population jeune.
\/|
$|
4$
By
– Usages types
Ces graphiques sont particulièrement adaptés à la représentation des analyses descriptives simples (tris à plat
et croisés), telles que la répartition des ventes par pays, par canal de distribution, par segment de marché... Ils
sont très utilisés pour illustrer les résultats de questions à choix multiple.
\/|
$|
4$
By
3 – Séries chronologiques
– Conditions
Lorsque l’on étudie les valeurs prises par une même variable sur plusieurs années, on obtient une série
chronologique. En marketing, on parlera d’étude longitudinale, terme traduit en anglais par « tracking studies ».
– Principes de construction
Ces graphiques ne présentent aucune difficulté de construction. On utilise un repère orthonormé, avec la
variable observée en ordonnée et le temps en abscisse. Les cordonnées des différentes mesures sont portées
sur le graphique géométrique, puis les différents points sont reliés entre eux.
– Exemple
Année
Ventes Année 2013 Année 2014 Année 2015
2016
Parfum A 189 170 150 100
Parfum B 154 180 210 300
Représentation en deux dimensions...
\/|
$|
4$
By
2. Schémas et dessins
Poursuivant avant tout un but pédagogique, ils contribuent à clarifier une situation complexe, en
montrant par exemple les relations existant entre deux variables ; ou encore, ils cherchent à capter
l’attention du lecteur ou de l’auditeur, grâce à la présence d’une figure originale soulignant
l’évolution d’une variable. Une bonne créativité, l’utilisation de la couleur et une mise en page
soignée conditionnent la force d’impact des schémas ou des dessins.
a. Graphiques dérivés
Pour représenter une variation de chiffre d’affaires, on peut se contenter d’utiliser un graphique
géométrique simple. Les dessins de la figure 8 remplacent ce mode traditionnel par une approche
plus créative.
Figure 8. Graphiques et créativité
Évolution du chiffre d’affaires en volume
Montres SA\/|
$|
4$
By
Attention : pour la construction d’un tel graphique, c’est la croissance de la surface des différents
dessins qui correspond au taux de croissance du chiffre d’affaires, et non pas la hauteur.
A. Objectifs
Complément indispensable du rapport écrit, la présentation orale poursuit un triple objectif :
– Sélectionner. La présentation orale n’est, en aucun cas, une lecture linéaire du rapport d’étude. Le
premier travail du chargé d’études consiste à sélectionner les conclusions majeures qui doivent être
transmises au client. En effet, toutes les informations n’ont pas la même importance. Une fois cette
hiérarchie établie, il est facile de sélectionner les résultats clés qui étayeront les conclusions. On
peut succinctement préciser, à ce stade, la manière dont ils ont été obtenus, c’est-à-dire rappeler
quelques éléments méthodologiques. Il ne faut pas hésiter à renvoyer les auditeurs au rapport écrit,
s’ils souhaitent approfondir un point particulier.
– Expliquer. C’est souvent à ce moment-là que le client prend connaissance du rapport. Le chargé
\/|
d’études doit, de façon pédagogique, dégager et analyser les principaux résultats et conclusions
$|
tirés de l’étude, puis répondre de manière claire aux interrogations de son client. L’utilisation
judicieuse de graphiques, diapositives et vidéos facilite cette tâche : elle sera détaillée dans le
4$
paragraphe 3.
By
– Convaincre. L’interactivité offerte par l’exposé oral est nécessaire au chargé d’études, car c’est
une occasion majeure de convaincre son client de la validité des résultats. Cela se révèle difficile
lorsque les participants à une présentation sont de profils et statuts différents ou ont des attentes
opposées. Il a été montré que le client accepte plus facilement les conclusions d’une étude si elles
sont en accord avec son intuition de départ ; dans le cas contraire, la méthodologie est décortiquée
et largement critiquée(401).
cas contraire, le responsable de l’étude contacte le client environ un mois avant la date d’envoi du
document écrit. Le client fixe le temps total disponible pour la présentation du rapport ; la durée est
By
assez variable, de deux heures à une demi-journée. Un bon équilibre consiste à consacrer à
l’exposé oral entre le tiers et la moitié du temps total, et le reste pour la réponse aux questions.
Le rapport est envoyé par voie électronique, de préférence une à deux semaines avant son exposé.
Attention, si le fichier comporte beaucoup d’images, sa taille dépassera rapidement les 10 Mo, ce
qui peut saturer la boîte mail du récepteur. Le chargé d’études s’assure de sa bonne réception ; il est
recommandé de demander au récepteur d’ouvrir le document pour vérifier sa bonne lecture.
Il convient ensuite de s’informer du nombre de personnes prévues pour la réunion, de la
composition de l’auditoire et de sa familiarité avec le thème de l’étude. Le chargé d’études
s’enquiert du type de salle qui sera mis à sa disposition et de la nature et du type du matériel
disponible sur place (connexion internet, présence d’une vidéoprojecteur et d’un ordinateur). Si le
fichier a été créé sous une version récente d’un logiciel ou sous un logiciel peu courant, il est plus
prudent d’enregistrer son fichier sous plusieurs formats et versions antérieures du logiciel de
référence (Powerpoint), car il n’est pas certain que le client dispose du logiciel requis.
Par sécurité, il est nécessaire de venir avec une copie du fichier de présentation sur une clé USB
externe, et le cas échéant, avec un micro-ordinateur portable doté du logiciel sous lequel la
présentation a été créée.
3. Aides visuelles
La diapositive (en anglais, slide) reste le mode de communication le plus simple et le plus
largement utilisé. Nous présenterons les outils disponibles, les règles à suivre pour une bonne
création et évaluerons son intérêt.
a. Logiciels pour la création d’images numérisées
Ces logiciels de création et d’édition d’image sont devenus incontournables et considérés comme
très efficaces pour accroître l’impact d’une présentation orale. Un choix important d’outils existe
\/|
aujourd’hui pour la conception et la présentation d’image. La fiche technique 2 présente les
$|
principaux d’entre eux.
4$
By
Un deuxième groupe privilégie le design pour créer un impact visuel plus fort sur l’auditoire, à partir
d’applications mixtes internet et de réunions. Prezi, développé par un architecte et des designers californiens,
est un logiciel de ce type. Au lieu de couper les visuels en petits morceaux, à cause des contraintes de la taille
d’une diapositive, le présentateur dispose d’une surface totale, sur laquelle il passe, grâce à la souris, d’une
partie à une autre, via un mécanisme de translation, de rotation ou de zoom. On travaille sur des images, des
vidéos ou toutes sortes d’informations. Un exemple d’interface est présenté ci-après :
\/|
$|
4$
Un troisième groupe est constitué par les logiciels professionnels ou amateurs de graphisme qui proposent des
« infographies » pour illustrer de manière créative et pédagogique des évolutions de marché. Il existe un grand
nombre de logiciels gratuits ou payants, le plus connu d’entre eux étant Photoshop d’Adobe.(403)
By
\/|
$|
4$
By
Un quatrième groupe offre la possibilité de déposer sur un site web une présentation de type Powerpoint,
permettant ainsi une consultation et un partage à distance, sous la forme de diaporama. Slideshare est le leader
dans le domaine10.
\/|
$|
2 – Perspectives
4$
Ces nouvelles interfaces ouvrent de nouveaux champs de communication pour les réunions à distance. Elles ne
remplaceront cependant pas, pour certains sujets, la présentation traditionnelle en face-à-face. D’une part,
By
parce que tous les messages ne peuvent passer par voie électronique, et parce que la force de conviction en
face-à-face reste plus élevée, d’autre part.
La création des vues favorise la communication des résultats de l’étude. Les fonctionnalités du
logiciel offrent quantité de possibilités pour donner plus d’impact aux messages. Voici quelques
points importants à respecter pour une bonne communication(405).
Sobriété
Le style est télégraphique : peu ou pas de phrases, juste quelques mots clés pour les sous-parties,
cinq à six lignes maximum par vue. Un bon équilibre doit être trouvé entre texte et graphiques. Sous
chaque graphique, ou sur la diapositive suivante, les faits et implications majeurs doivent être
précisés.
Le nombre de diapositives à créer dépend évidemment de la durée accordée à l’exposé, mais aussi
de la densité et du style du présentateur. En jouant sur la densité de contenu des vues, on obtient une
variété agréable dans le rythme de l’exposé. La durée d’exposition d’une diapositive varie d’une
dizaine de secondes à trois minutes. Ainsi, pour une présentation de vingt minutes, quinze
diapositives suffisent.
Impact
Avec un fond clair et des lettres foncées (de préférence de couleur noire), la projection sera
nettement plus visible. L’harmonie des couleurs et la sobriété de l’ensemble sont déterminantes
pour le confort de l’auditoire. Les effets sonores sont à proscrire, car ils agacent très vite et donnent
un caractère peu professionnel à l’exposé. En revanche, l’animation de la diapositive peut être
envisagée, mais elle doit rester sobre et rare : ainsi, chaque ligne d’une vue apparaît ainsi pas à
pas, d’un simple clic de souris, le graphique se construit progressivement.
Figure 10. Pièges à éviter pour la création des diapositives
Fil conducteur
Les grandes parties du rapport écrit constituent l’ossature de la présentation. Le mode plan du
logiciel favorise l’organisation des idées tout en gardant une vue d’ensemble de l’exposé. Avant la
phase de création, l’opérateur définit un format standard (taille, police, style, utilisation de
l’espace) pour la création des diapositives qui sera répété pour chaque vue éditée. Le titre du
rapport avec le nom de l’émetteur (auteur, institut, service de l’entreprise) constitue la première
vue ; le plan et les grandes parties de l’exposé forment la seconde ; chaque partie est
successivement développée (voir figure 11). Chaque diapositive a un titre, de préférence
comprenant un à trois mots, et trois à six lignes.
Figure 11. Structure globale de la présentation
À chaque changement de section, on peut intercaler une diapositive qui rappelle le plan global et
indique dans une couleur spécifique la phase qui va être abordée. Cette répétition favorise
l’attention. Une autre solution consiste à marquer le changement de partie par une diapositive ne
contenant que le seul titre de la nouvelle section (figure 12).
\/|
Figure 12. Diapositive intercalaire annonçant un changement de partie
$|
4$
By
– souplesse. La suppression ou l’ajout des vues selon l’auditoire, les retours en arrière... sont
opérables sans difficultés ;
– vue globale. Il est possible, en utilisant l’option adéquate de présentation, de voir la diapositive
précédente et la suivante, ainsi que les commentaires concernant la diapositive à l’écran, et le
temps écoulé, alors que les membres de l’auditoire ne voient, eux, que la seule diapositive
projetée.
Enfin, la numérisation des messages facilite leur partage entre des collaborateurs éloignés
géographiquement, via le cloud computing. Cette opération consiste à déporter sur des serveurs
distants des ressources traditionnellement localisées sur des serveurs locaux ou sur le poste
utilisateur, ce qui permet de stocker et de partager facilement des fichiers sur un espace en ligne. La
synchronisation se fait avec PC, Mac, Linux ou sur un appareil mobile (smartphone...). Le site
Dropbox(406) offre gratuitement une capacité de stockage de 2 Go.
Mais, à côté de ces avantages, l’utilisation intensive de présentations Powerpoint comporte des
inconvénients fréquemment soulignés. Tout d’abord, le chargé d’études veut souvent dire trop de
choses, les messages clés sont rapidement noyés dans la masse des autres vues. De surcroît, de peur
d’oublier quelque chose d’important lors de la présentation orale, trop de choses sont écrites sur
les diapositives.
Enfin, le contenu dense et le nombre trop important de diapositives tendent à tuer la réflexion de
fond, le débat d’idées ou la créativité. Nous terminerons cette liste de critiques, en citant Steve
Jobs, l’ancien patron d’Apple (figure 13) : « Je hais la manière dont les gens utilisent les
présentations de diapositives au lieu de penser. Les personnes veulent résoudre un problème en
créant une présentation. Je veux qu’ils s’engagent, qu’ils décortiquent les choses sur la table, plutôt
que de faire un bouquet de diapositives. Les gens qui savent de quoi ils parlent n’ont pas besoin de
Powerpoint(407) ».
Figure 13. Un ennemi des Powerpoint
\/|
$|
4$
By
« Le plus souvent, cette remise du rapport avec conclusions (et quelquefois recommandations)
est effectuée en présence d’une dizaine de personnes plus ou moins concernées. L’exposé, ex
By
cathedra, dure d’une heure et demie à deux heures avec une utilisation de plus en plus fréquente
de moyens audiovisuels élaborés (slides, films, etc.) qui empêchent pratiquement toute
discussion. Cet exposé est suivi par les réponses aux rares questions posées par l’auditoire. En
effet, la masse d’informations communiquées est considérable et le débat est tout à fait inégal
entre le présentateur qui a souvent passé une quinzaine de jours à comprendre le phénomène
étudié et les spectateurs assommés et abasourdis par une avalanche d’informations nouvelles.
Cette façon de faire pose de nombreux problèmes et explique pourquoi l’utilisation
opérationnelle des rapports d’études est tellement peu fréquente qu’elle est même parfois citée
en exemple dans les rares cas où elle a conduit à des résultats concrets.(410) [...] »
1. Simplicité et pédagogie
« Si la démarche de l’étude n’est pas comprise, les conclusions et les recommandations seront peu
suivies d’effets. »
Les managers se méfient des résultats d’une étude s’ils ne comprennent pas bien la manière dont ces
derniers ont été obtenus. La préférence naturelle des managers marketing s’oriente vers des
méthodes simples ou reposant sur des mécanismes transparents. Par exemple, il a été montré que,
pour les prévisions de part de marché d’un nouveau produit, les managers font plus confiance aux
modèles faciles à comprendre, aisés à manier et fournissant des résultats clairs et vérifiables ; cette
dimension de « simplicité globale » explique, à elle seule, plus de 73 % du jugement d’ensemble
des modèles(411).
à juste titre, que les conclusions doivent répondre clairement aux questions posées au départ. Le
flash-étude 3 montre pourquoi il n’est pas toujours facile de satisfaire cette attente légitime.
By
Flash-Étude 3
Simplicité et complexité dans les études
« Nous restons passionnés par le métier, c’est-à-dire que nous fouillons dans nos données, et
nous sommes persuadés d’avoir des choses passionnantes à dire au client. Mais il faut
reconnaître que le client entendant plusieurs voix, c’est lui qui juge si c’est passionnant. Le
risque est de faire très sophistiqué techniquement, et dans le traitement de l’information il n’y a
guère de limites, et de perdre de vue que les clients se posent toujours des questions assez
simples. Si au terme d’un parcours méthodologique sophistiqué, on a du mal à rejoindre la
question simple que le client se posait, c’est qu’on s’est un peu égaré en route.
À un moment donné, on doit être capable d’exprimer, en termes simples et intelligibles par les
décisionnaires non techniciens, des réponses aux questions de base sur le produit, sur la
distribution, sur les paramètres du marketing. Au terme d’un dispositif, même sophistiqué, il faut
être capable de dire : ‘‘Finalement, voilà ce que j’ai à vous dire sur votre produit, votre
campagne, sur votre réseau, sur vos atouts.’’ Quand, à la fin de la présentation, le directeur
marketing nous demande : ‘‘Vous pouvez nous résumer en trois phrases ce que votre étude nous
apprend ?’’, il faut être capable de lui répondre. [...]
En tant qu’hommes d’études, ce n’est pas notre penchant naturel. Nous inclinons à dire au client :
\/|
‘‘On a fait un truc épatant sur cette étude, je vais vous expliquer. On a fait une typologie, une
analyse sophistiquée, vous allez voir, c’est passionnant.’’ C’est peut-être passionnant pour les
$|
professionnels, mais il ne faut pas perdre de vue qu’il y a des décisions à prendre derrière et se
4$
demander quels sont les éléments de réponse qu’on apporte. Il faut que, partant de questions
simples, on soit capable de donner des réponses simples, sans se perdre en route pour le bonheur
By
3. Pragmatisme de la recommandation
« Plus une recommandation est claire, réaliste et fournie rapidement, et plus elle sera suivie
d’effets. »
Une recommandation opératoire réaliste tient compte de l’environnement de l’entreprise : position
concurrentielle, contraintes financières, savoir-faire technologique, conjoncture économique et
sociale...
Elle ne se cantonne pas dans les généralités, mais apporte les réponses au problème posé.
Malheureusement, le chargé d’études est, par nature, plus porté vers la réflexion, les suppositions,
l’approfondissement, que vers la prise de décision. En caricaturant, l’homme d’études propose une
palette de recommandations, là où le manager attend une solution unique et un mode d’emploi facile
à appliquer.
De surcroît, la maîtrise d’outils de plus en plus complexes ouvre des possibilités
d’approfondissement sans fin : la finesse et la multiplication des analyses produisent quantité
d’informations secondaires qui font rapidement perdre de vue l’essentiel. La préoccupation
essentielle du chargé d’études consiste à faire correspondre une technique spécifique pour chaque
question du demandeur. La philosophie devient : « Le problème du client est résolu, dès lors que
l’on a pu identifier et utiliser la technique la plus sophistiquée à ce jour. »
Si ces travers sont souvent réels, on doit aussi remarquer que des résultats détaillés, des
recommandations multiples, assortis de multiples précautions oratoires, sont fréquemment
nécessaires pour rendre « politiquement acceptable » la recommandation. En l’occurrence, la
prudence finit par nuire à l’efficacité.
1. Qualité méthodologique
La qualité de la méthodologie représente la rigueur scientifique avec laquelle un instrument
(méthode de collecte ou d’analyse) a été développé et testé, avant son utilisation dans un contexte
commercial. Concrètement, l’instrument proposé doit être fiable et valide ; nous avons étudié dans
la fiche technique 3.2. (chapitre 3) différentes procédures pour vérifier ces propriétés.
\/|
$|
2. Qualité opérationnelle
4$
3. Qualité décisionnaire
L’instrument doit faciliter la prise de décision du manager. C’est le cas, s’il est utilisable dans un
grand nombre d’applications et s’il produit des résultats clairs, visualisables graphiquement.
La figure 14 montre bien la difficulté de concevoir de tels instruments. En effet, les critères
d’appréciation de l’efficacité d’un instrument sont très variables selon que l’on se place du point de
vue du créateur, du chargé d’études ou du client final.
Le concepteur de l’instrument, généralement un universitaire ou ingénieur du cabinet d’étude,
attache (ou devrait attacher) une grande importance aux qualités méthodologiques de l’instrument
créé. Malheureusement, ces exigences font parfois perdre de vue les aspects pratiques : la solution
retenue risque d’être lourde, onéreuse et d’imposer de longues explications pour comprendre les
résultats.
Figure 14. Exigences de qualité pour un instrument d’études selon les acteurs
Le chargé d’études sélectionne et met en œuvre les instruments que d’autres ont créés. Il privilégie
By
ceux qui sont simples, rapides à administrer, bien acceptés par les interviewés et flexibles, c’est-à-
dire capables de s’adapter à de nombreuses situations.
L’acheteur d’études préfère des techniques simples, rapides et facilitant la prise de décision.
L’importance accordée aux qualités méthodologiques est variable : si les résultats vont dans le sens
attendu, cette caractéristique n’est pas fondamentale ; dans le cas contraire, elle revêt une grande
importance.
\/|
De son côté, la société Danone a évalué l’efficacité globale d’une série de 88 études, réalisées
$|
pour son compte par des instituts externes(415). Quatre critères d’appréciation ont été retenus :
4$
La figure 17. montre que la faiblesse majeure concerne l’interprétation des résultats, jugée trop
souvent tendancieuse ou erronée. En second lieu, les choix méthodologiques sont fréquemment
inadaptés au problème posé. Réalisé dans le contexte du groupe Danone, cet audit fournit, selon ses
auteurs, des observations généralisables sur d’autres organisations.
Figure 17. Faiblesses majeures des études
Figure 18. Divergences majeures entre les chargés d’études et les managers
Le premier désaccord concerne la finalité des techniques utilisées dans une étude : 60 % des
managers considèrent que les hommes d’études sont plus préoccupés par les outils et les techniques
que par la prise de décision. Ce jugement est loin d’être partagé par les chargés d’études, puisque
70 % d’entre eux pensent le contraire.
En second lieu, les managers reconnaissent, dans l’ensemble avec une certaine lucidité, qu’ils n’ont
pas toujours une position très claire vis-à-vis des études : leurs attentes sont ambiguës et peut-être
trop dépendantes du sens des conclusions. Ces divers éléments renforcent la constatation que la
recommandation n’est finalement souhaitée que si les résultats vont dans le sens attendu ; dans le
cas contraire, le chargé d’études devrait se cantonner à la présentation des résultats bruts, la
formulation de la recommandation devenant du ressort du manager.
norme définit les exigences applicables aux études sociales, de marché et d’opinion. Son cahier des
charges concerne toutes les phases de l’étude : demande du client, méthodologie, savoir-faire,
By
Exemple
By
Imaginons une entreprise qui hésite entre lancer un nouveau produit ou maintenir
l’ancien. Dans les deux cas, les enjeux commerciaux et financiers sont importants.
Mais derrière le lancement, il existe une personne ou une équipe qui en portent la
responsabilité ou pensent assurer le management de l’affaire, si elle se réalise : elles
sont donc plutôt favorables à sa concrétisation. À côté de cela, d’autres individus sont,
pour différentes raisons, plutôt opposés à son démarrage. Si les conclusions de l’étude
sont défavorables pour le projet, des opportunités de carrière ou de nouvelles
responsabilités s’envolent pour certains ; mais si les conclusions sont favorables,
d’autres individus risquent de se sentir menacés dans leurs fonctions actuelles. En
d’autres termes, la mise en œuvre des conclusions de l’étude dépend souvent d’un
rapport de forces entre les différents acteurs concernés par les résultats, puis
éventuellement d’un arbitrage de la direction générale.
Enfin, il existe dans l’organisation des croyances et des valeurs fortes qui fondent ce que l’on
appelle la culture d’entreprise : par exemple, telle entreprise est reconnue comme très innovatrice,
telle autre maîtrise bien les productions en grande série, une dernière est connue comme n’hésitant
pas à prendre des risques, etc. Les conclusions du rapport d’étude seront interprétées selon ces
lignes de force.
La conséquence de tout ceci est que le rapport d’étude sera passé au crible, et tout particulièrement
les aspects méthodologiques, si les conclusions sont surprenantes ou défavorables pour le
demandeur et/ou l’utilisateur de l’étude : on cherchera dans celui-ci une faille ou des erreurs
permettant de discréditer la qualité technique de l’ensemble et donc d’invalider les conclusions
dérangeantes. À l’inverse, si les conclusions vont dans le sens attendu, les aspects méthodologiques
ne seront pas trop creusés.
Ces différentes raisons expliquent clairement pourquoi bon nombre de recommandations ne sont pas
appliquées. Elles montrent que la rédaction d’un rapport est un exercice difficile : il faut faire
preuve d’honnêteté si les conclusions sont défavorables, mais aussi savoir les présenter avec tact,
ne pas hésiter à souligner les limites du travail, les zones d’ombre subsistant au terme de l’étude.
Bref, le sens de la nuance et un minimum de diplomatie sont les qualités de base du chargé
d’études.
Les hommes d’études sont conscients de l’importance de ces aspects psychologiques : ils classent
le facteur « acceptabilité politique des résultats » comme l’obstacle majeur pour la mise en œuvre
de leurs recommandations ; de leur côté, les managers déclarent n’attacher qu’une importance très
mineure à ce point(418). Cette divergence de perception entre managers et chargés d’études peut
s’expliquer par la tendance des managers à rationaliser leur comportement, et donc à minorer
l’impact des facteurs psychologiques.
\/|
C. Établissement d’un climat de confiance
$|
4$
« Plus les relations entre le client et le chargé d’études se fondent sur une confiance réciproque, et
plus les résultats de l’étude seront utilisés. »
By
Pour obtenir la confiance d’un manager, le chargé d’études doit être perçu comme intègre, c’est-à-
dire capable de résister à d’éventuelles pressions extérieures visant à lui faire modifier des
résultats ou des commentaires. La volonté de réduire l’incertitude du manager en l’aidant à
interpréter des résultats ambigus, la discrétion sur le caractère confidentiel des informations
obtenues et l’expertise contribuent aussi à l’établissement d’un bon climat relationnel. Enfin, le
chargé d’études doit savoir faire preuve de tact, dans le cas où il serait amené à présenter des
conclusions embarrassantes ou contraires au résultat attendu(419).
La qualité des échanges entre partenaires est la condition sine qua non pour que la recommandation
du chargé d’études soit suivie par le manager(420). La confiance mutuelle est nécessaire pour
provoquer des discussions enrichissantes entre les partenaires ; de ce fait, elle accroît la quantité et
la qualité des informations échangées, facilite la compréhension du problème et permet de préciser
les contraintes de l’organisation.
Épilogue
L’étude de marché est une forme d’investigation cruciale pour accompagner la démarche marketing
d’une entreprise. Elle permet de réduire sensiblement, mais certes pas de supprimer, le risque
inhérent à la prise de décision. C’est un investissement rentable. Sa valeur ajoutée est, dans la
grande majorité des cas, largement supérieure aux coûts d’obtention des résultats : les délais de
réponse et le budget représentent des coûts globalement inférieurs aux gains offerts par le choix
d’une meilleure décision. Il est clair, cependant, qu’elle n’est pas une fin en soi. En particulier, la
multiplication systématique des études entraîne souvent l’absence de décision.
La démarche à mettre en œuvre, pour répondre de manière satisfaisante aux objectifs fixés, est
rigoureuse et astreignante. Les exigences méthodologiques sont parfois jugées pénibles et
superflues, mais elles représentent des garanties sérieuses de fiabilité et de validité pour les
conclusions. En contrepartie, l’homme d’étude ne doit pas succomber à la fascination des
techniques d’analyse, ni oublier que la finalité de son travail consiste à formuler des conclusions
simples assorties, le cas échéant, de recommandations réalistes.
L’élaboration du rapport constitue la partie visible du travail du chargé d’études. Sa présentation
orale en présence du client est une opération délicate. À ce stade, il faut souvent convaincre le
client de la validité des conclusions proposées. Il est, par conséquent, nécessaire que les
conclusions proposées reposent sur des résultats fiables et valides, d’une part, et que les
éventuelles recommandations soient pertinentes et politiquement acceptables pour l’environnement
de l’entreprise, d’autre part. Si ces conditions sont remplies, l’étude sera efficace et débouchera sur
une prise de décision concrète et performante.
\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Les questions méthodologiques doivent être :
(1) approfondies dans le corps du rapport d’étude
(2) approfondies dans les annexes du rapport d’étude
(3) ni l’un, ni l’autre
Q2. Un histogramme impose l’existence de variables :
(1) uniquement continues
(2) uniquement discontinues
(3) les deux sont possibles
Q3. Un bon rapport d’étude oral :
(1) n’oublie aucun point, même secondaire
(2) présente les points qui n’ont pu être détaillés par écrit
\/|
(3) sélectionne les points majeurs, ignore les autres
$|
4$
Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
1991/4, p. 41.
BRULE M. et LOMBARD E., « La relation client-société d’étude », Revue française du marketing,
no 142-143, 1993/2-3, pp. 99-108.
DEBLIQUY P. Y., L’art de la présentation Powerpoint, Edipro, 2011.
DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis »,
Journal of Marketing Research, février 1982, pp. 14-31.
DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager
perceptions of market research use », Journal of Marketing Research, février 1984, pp. 32-38.
GRANGE B, Réussir une présentation. Préparer des slides percutants et bien communiquer, Eyrolles,
2009.
LEMAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
MOORMAN C., DESPHANDE R. et ZALTMAN G., « Factors affecting trust in market research
relationships », Journal of Marketing, janvier 1993, pp. 81-101.
NICHOLSON P., « Réconcilier les hommes d’études et les décideurs », Revue française de gestion,
janvier-février 1987, no 61, pp. 22-32.
REYNOLDS G., Présentation Zen : pour des présentations plus simples, claires et percutantes,
Campus Press, 2008.
VERNETTE É., « L’efficacité des instruments d’études », Recherche et Applications en marketing,
vol. 6, 1991, no 2, p. 46.
\/|
$|
4$
By
Annexes
By
4$
$|
\/|
Bibliographie générale
Cette bibliographie est indicative et non exhaustive.
OUVRAGES D’INITIATION
AMEREIN P., Études de marché, 2e éd., coll. « Étapes », Armand Colin, 2005.
BAKER C., Dix conseils pour réaliser une étude de marché, 2e édition, Coll. « 10 conseils », Publi-
Union, 2001.
CARLIER F., Réussir ma première étude de marché, Studyrama, 2011.
CAUMONT D., Les études de marché, Coll. « Les topos », 4e éd., Dunod, 2010.
DAYAN A., Les études de marché, Coll. « Que sais-je? », PUF, 1997.
FOURNIS Y., Les études de marché, 3e édition, Dunod, 1995.
\/|
HERMEL L., La recherche marketing, Coll. « Gestion Poche », Economica, 1995.
$|
LADWEIN R., Les études marketing, Coll. « Gestion Poche », Economica, 1996.
4$
ROCHE D., Réaliser une étude de marché avec succès, Eyrolles, 2009.
VERNETTE É., Techniques d’études de marché, 3e éd., Coll. « Entreprise », Vuibert, 2011.
MANUELS DE BASE
CAUMONT D., Les études de marché: comment concevoir, réaliser et analyser une étude, Dunod,
2007.
CHIROUZE Y., Le marketing : études et stratégies, 2e éd., Ellipses, 2007.
DARPY D., Comportements du consommateur, Dunod, 3e édition, 2012.
DES GARETS V., Études et recherches commerciales, Coll. « Entreprise 1er cycle », Economica,
1997.
DUBOIS P.-L., JOLIBERT A., GAVARD-PERRET M.-L. et FOURNIER C., Le marketing, 4e édition,
Economica, 2014.
FRISCH F. (Coord.), Études marketing et opinion. Fiabilité des méthodes et bonnes pratiques,
Dunod, Paris, 2007.
GAUTHY-SINECHAL M. et VANDERCAMMEN M., Études de marché: méthodes et outils, 4e éd., De
Boeck, 2014.
GUELFAND G., Les études qualitatives. Fondamentaux, méthodes, analyses, techniques, EMS, 2014.
LAURENT F., Etudes marketing: des études de marché au consumer insight, 2e éd., Village mondial,
2006.
SOLOMON M., DUMAS L., EL KAMEL L., ROY J., Le comportement du consommateur, Pearson, 2013.
VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008.
OUVRAGES DE SPÉCIALISATION
AMADO G. et GUITTET A., Dynamique des communications dans les groupes, 6e éd., A. Colin, 2012.
ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, 2004.
ASSADI D., Intelligence économique sur Internet: études de marché et veille concurrentielle, Publi-
Union, 2000.
BARDIN L., L’analyse de contenu, 2e éd., PUF, 2013.
BLANCHARD D. et LESCEUX D., Les panels, Dunod, 1995.
BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquêtes en sciences
sociales, Dunod, 2013.
COURATIER C. et MIQUEL C., Les études qualitatives : théorie, applications, méthodologie, pratique,
L’Harmattan, 2007.
\/|
CROUTSCHE J.J., Pratiques statistiques en gestion et études de marché, ESKA, 1997.
$|
DEGOUSÉE J.M.A., Guide du sondeur ou traité théorique et pratique des sondages, General Books,
By
2012.
DE SINGLY F., L’enquête et ses méthodes : le questionnaire, 3e éd., Armand Colin, 2012.
DILLMAN D.A., SMITH J. et LEAH MELANI C., Internet, Mail and Mixed-mode Surveys: the Tailored
Design Method, 3e éd., John Wiley & Sons, 2008.
FRISCH F., Les études qualitatives, Éd. d’Organisation, 1999.
HAIR J.F. Jr., ANDERSON R.E., TATHAM R.L. et BLACK W.C., Multivariate Data Analysis, with
Readings, 7e éd., Pearson Education, 2009.
HUBERMAN A. et MILES M., Analyse des données qualitatives, 2e éd., De Boeck, 2003.
KEPPEL G. et WICKENS T.D., Design and analysis: a researcher’s handbook, 4e édition, Pearson
Education, 2006.
KLINE R.B., Principles and practice of structural equation modeling, 3e éd., The Guilford Press,
New York, 2010.
LAVALLÉE P. et RIVEST L.P., Méthodes d’enquêtes et sondages, Dunod, 2006.
MALEKI K., Méthodes quantitatives de consultation d’experts, Publibook, 2009.
MARS A., Les panels, outils incontournables de l’étude de marché, Heures de France, 2004.
PELLEMANS P., Le marketing qualitatif: perspective psychologique, De Boeck université, 1998.
PUPION G et PUPION P.C., Tests non paramétriques avec applications à l’économie et à la gestion,
Economica, 1998.
OUVRAGES D’ÉTUDES ET DE RECHERCHE MARKETING
AAKER D.A., KUMAR V. et DAY G. S., Marketing Research, 11e éd., John Wiley & Sons, 2012.
AMEREIN P., Études de marché, 2e éd., coll. « Étapes », Armand Colin, 2005.
BERTRANDIAS L., CARRICANO M., POUJOL F. et GILLET R., Analyse de données avec SPSS, 2e éd.,
coll. « Synthex », Pearson Education, 2011.
CHURCHILL G.A. Jr. et IACOBUCCI D., Marketing research. Methodological foundations, 10e éd.,
South Western, 2009.
CROUTSCHE J.J., Analyse des données en marketing, en management et en sciences sociales, ESKA,
2009.
DION D. et SITZ L., « Enrichir la compréhension des comportements de consommation : pistes
opérationnelles et enjeux organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
ÉVRARD Y., PRAS B., ROUX E. et DESMET P., Market : études et recherche en marketing, 4e éd.,
Dunod, 2009. \/|
FEINBERG F.M., KINNEAR T.C. et TAYLOR J., Modern marketing research: concepts, methods and
$|
cases, South Western Educational Publishing, 2012.
4$
HELFER J.-P., ORSONI J. et SABRI O., Marketing, Vuibert, 13e édition, 2014.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
By
Achat mystère, 1
Affectif, 1
Algorithme
classification, 1
hiérarchique, 1
non hiérarchiques, 1
voisin moyen, 1
Ward, 1
Analogie, 1, 2, 3
Analyse
composantes principales, 1, 2, 3, 4 \/|
concurrentielle, 1
conjointe, 1
$|
contenu, 1, 2
4$
des correspondances, 1
discriminante, 1, 2, 3
By
Causalité, 1
CAWI, 1, 2, 3, 4
Cercle d’influence, 1
By
Circept, 1
Co-création, 1, 2, 3, 4, 5, 6, 7
Coefficient
contingence, 1
corrélation linéaire, 1, 2
corrélation multiple, 1
corrélation partielle, 1
détermination, 1
détermination multiple, 1, 2
fiabilité, 1
Kappa, 1
φ (phi), 1
régression partiel, 1
variation, 1
Cognition incarnée, 1
Communautés virtuelles, 1, 2
Conatif, 1
Condition de Plackett, 1
Confiance, 1
Conscience, 1
Contrat de lecture, 1
Correction de Yates, 1
Corrélation
Spearman, 1
τb (tau-b) de Kendall, 1
Covariance, 1
Critère
choix, 1
Kaiser, 1
Crowdsourcing, 1
Delphi, 1, 2
Delphi-leader, 1
Dépouillement, 1
Diagrammes, 1
Diapositives, 1, 2
Différentiel sémantique, 1, 2, 3
Distance euclidienne, 1
Distribution
observée, 1 \/|
théorique, 1
$|
Écart-type, 1
4$
Échantillon
a priori, 1
By
aléatoire simple, 1
apparié, 1, 2
grappes, 1
indépendant, 1, 2
intervalle, 1, 2
nominale, 1, 2
ordinale, 1
quotas, 1, 2
ratio, 1
stratifié, 1, 2
Échelle, 1
attitude, 1
continue, 1
icônes, 1, 2
intention, 1
intervalle, 1, 2
Likert, 1, 2, 3
métrique, 1
nominale, 1, 2
ordinale, 1
supports sémantiques, 1, 2, 3, 4, 5
Effet de cobaye, 1
Effet de focalisation, 1
Effet de halo, 1
Enquête
à domicile, 1
assistée par ordinateur, 1
en face-à-face, 1, 2, 3, 4
en ligne (on line), 1, 2
mystère, 1
on line, 1
postale, 1
Entretien
en profondeur, 1
individuel, 1
introspectif, 1
semi-directif, 1
Équations structurelles, 1, 2, 3, 4
Erreur
échantillonnage, 1 \/|
observation, 1
$|
Étendue, 1
4$
Ethnographie, 1, 2, 3
Ethnologie, 1
Ethnométhodologie, 1, 2
By
Éthologie, 1
Étude
ad hoc, 1, 2, 3
causale, 1
délai, 1
descriptive, 1
documentaire, 1
efficacité, 1
exploratoire, 1
interne, 1
omnibus, 1
préliminaire, 1
qualitative, 1, 2
quantitative, 1, 2
sous-traitance, 1
Facebook, 1, 2
Fiabilité, 1
Fiche signalétique, 1
Focus group on line, 1, 2
Fréquence
apparition, 1
association, 1
concomitance, 1
relative, 1
Galvanomètre, 1
Graphique, 1
Groupe
contrôle, 1
Delphi, 1, 2
Delphi-leader, 1, 2
en ligne (on line), 1
Focus group, 1, 2
nominal, 1, 2
non-directivité, 1
restreints, 1, 2, 3
Guide
animation, 1
entretien, 1
répertoire, 1 \/|
Herméneutique, 1, 2
$|
Histogramme, 1
4$
Histoire de vie, 1
Hypothèse
formulation, 1, 2
By
statistique, 1
IDB, 1
Idéation, 1
Image de marque, 1, 2, 3
Image expérientielle, 1, 2
Immersion expérientielle, 1
Inconscience, 1, 2
Indice
(dis)similarité, 1
Jaccard, 1
neutralité, 1
polarité, 1
positivité, 1
Inertie, 1
interclasses, 1
intraclasse, 1
Inférence statistique, 1
Informations
nature, 1
paramétrées, 1
primaires, 1
secondaires, 1
Insight marketing, 1
Instituts d'études, 1
Interaction, 1
Interprétation, 1, 2
herméneutique, 1
Intervalle
confiance, 1
sondage, 1
Introspection, 1, 2
Jeux de rôles, 1
K-means, 1
Lambda de Wilks, 1
Leaders d’opinion, 1, 2, 3
Leadership d’opinion, 1
Lead-user, 1, 2
Liste d'achats, 1
Loi \/|
Normale, 1, 2
$|
Student, 1, 2
4$
Marché-test, 1
Marché-test simulé (MTS), 1
Matrice
By
confusion, 1
découverte, 1
similarités, 1
Métaphore, 1, 2
Méthode
AOL, 1
citation directe, 1
créativité, 1
des itinéraires, 1
d’observation mixte, 1
expérimentale, 1
quasi-expérimentale, 1
ZMET, 1, 2
Microblogging, 1
MONANOVA, 1
Monographie familiale, 1
Motivation, 1, 2, 3
Moyenne, 1
Multicolinéarité, 1, 2
Narration, 1
Netnographie, 1, 2, 3, 4, 5
Neuro-marketing, 1
Nicholson P., 1
Notoriété, 1
Nuées dynamiques, 1
Observation
appareillée, 1
évaluation, 1
mixte, 1
narrative, 1
non participante, 1, 2
simple, 1
verbalisée, 1, 2
Omnibus, 1
Open access, 1
Panel, 1, 2
consommateurs, 1, 2
de base, 1, 2
distributeurs, 1, 2, 3 \/|
en accès libre, 1, 2
$|
renouvellement, 1, 2
4$
scannérisé, 1
test, 1, 2, 3, 4, 5
Part de marché détenteur, 1
By
Phénoménologie, 1, 2
Photographies, 1
expérientielles, 1
stéréoscopiques, 1
Phrases à compléter, 1
Plan
aléatoire, 1
factoriel complet, 1, 2
factoriel incomplet, 1, 2
Population, 1, 2, 3, 4
Portrait chinois, 1
Portrait métaphorique, 1, 2
Positionnement, 1
Préférences des consommateurs, 1
Probabilités subjectives, 1
Problème d’étude, 1
clarification, 1
compréhension, 1, 2
diagnostic, 1
formulation, 1
Projection, 1, 2
Projet d’étude
objectif, 1
proposition, 1
Protocoles verbaux, 1, 2
Psychodrame, 1, 2
Question
à choix multiples, 1
fermée, 1, 2
filtre, 1, 2
ouverte, 1
qualifiante, 1
Rapport d'étude
acceptabilité, 1
conclusion, 1
contenu, 1
présentation, 1, 2
qualités, 1
rubriques, 1 \/|
Recensement, 1, 2
$|
Recherche marketing, 1
4$
Récit de vie, 1, 2
Recommandation, 1
Régression
By
droite, 1
équation, 1, 2
logistique, 1
Relances, 1
Représentativité, 1, 2, 3, 4, 5, 6
Réseau associatif, 1
Réseaux sociaux, 1, 2, 3
Rêve éveillé, 1
Rhétorique, 1, 2
Saturation, 1
Scanner, 1
Scoring, 1
Scree-test, 1
Segmentation, 1, 2
Sémiologie, 1, 2
Sémiotique, 1, 2
carré, 1
comportementale, 1
mapping, 1
parcours génératif du sens, 1
signe, 1
structurale, 1
Single source, 1, 2
Sondage, taux, 1
Sources
documentaires, 1
externes, 1
internes, 1
Symboles, 1
Synectique, 1
Table de nombres au hasard, 1
Tableau
Burt, 1, 2, 3
contingence, 1, 2, 3, 4
disjonctif complet, 1
distance, 1, 2
distribution de fréquences, 1, 2
distribution de fréquences croisées, 1
données, 1, 2, 3 \/|
Tabulation simple, 1
$|
Tachytoscope, 1
4$
TAT, 1
Test
ajustement, 1
By
qualitative, 1
qualitative dichotomique, 1
quantitative, 1
By
quantitative discrète, 1
sociodémographique, 1
stratification, 1
Variance, 1
Variation
expliquée, 1
intra-groupes, 1
résiduelle, 1
Vidéo, 1
Visite mystère, 1
Web analytics, 1
1) ESOMAR, Code international de pratiques loyales en matière d’études de marché et d’opinion, Document CCI/ESOMAR,
novembre 1977.
2) Extraits traduits et adaptés d’un interview de Steve Jobs réalisé par Betsie MORRIS, Fortune, mars 2004.
3) VON HIPPEL E, « Lead users : a source of novel product concept », Management Science, vol. 32, no 7, 1986, pp. 791-805 ;
FRANKE N., VON HIPPEL E., SCHREIER M., « Finding commercially attractive user innovations : a test of lead-user theory »,
Journal of Product Innovation Management, vol. 23, no 4, 2006, pp. 301-315.
4) HOFFMAN D., KOPALLE P. et NOVAK T., « The ‘‘right’’ consumers for better concepts : identifying consumers high in
emergent nature to develop new product concepts », Journal of Marketing Research, vol. 47, 2010, pp. 854-865.
5) COVA B., « Développer une communauté de marque autour d’un produit de base : my nutella The Community», Décisions
Marketing, no 42, 2008, pp. 55-62 ; COVA B., « Consumer Made : quand le consommateur devient producteur », Décisions Marketing,
no 50, 2008, pp. 19-27 ; FÜLLER J., JAWECKI G et MÜHLBACHER H., « Développement de produits et services en coopération
avec les communautés en ligne », Décisions Marketing, no 48, 2007, pp. 47-58.
6) TISSIER DESBORDES E. et VERNETTE É., « La participation du client, la co-production, la co-création, un nouvel eldorado
pour le marketing ? », Décisions Marketing, no 65, 2012, pp. 3-6 ; RAMASWANY V. et GROUILLART F., L’entreprise co-créative,
2011,Vuibert.
\/|
7) DARPY D., Comportements du consommateur, Dunod, 3e éd., 2012 ; SOLOMON M., DUMAS L., EL KAMEL L., ROY J.
$|
Le comportement du consommateur, Pearson, 2013.
4$
8) BLATTBERG R. et HOCH S., « Modèles à base de données et intuition managériales : 50 % modèle + 50 % manager »,
Recherche et Applications en marketing, vol. 6, no 4, 1991, pp. 79-98.
By
9) ACKOFF R. A., Scientific Method, New York, John Wiley, 1962, p. 71, cité par CHURCHILL G. A. Jr., Marketing Research,
4e éd., Dryden Press, 1987.
10) LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? », Revue française du marketing,
1979/4, pp. 41-49.
11) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, no 134, 1991/4, pp. 35-49.
12) FAIVRE J.-P., « Des études classiques aux études stratégiques », Revue française du marketing, no 142-143, 1993/2-3, pp. 75-
88.
13) SOLE A., « L’information aide-t-elle la décision ? », Revue française du marketing, no 142-143, 1993/2-3, pp. 89-96.
14) SMITH S. M., « Research and Pseudo Research in Marketing », Harvard Business Review, avril 1974, pp. 73-76.
15) NICHOLSON P., « Marketing : réconcilier les hommes d’études et les décideurs », Revue française de gestion, no 61,
janvier/février 1987, pp. 22-32 ; WALISER B., « Évaluation des études d’aide à la décision dans les administrations centrales », « Le
processus de décision dans les organisations », Journée d’études AFCET, Paris, 1980.
16) Pour un approfondissement du diagnostic du marketing, le lecteur se reportera aux manuels de base, tels que, par exemple :
DUBOIS P.-L., JOLIBERT A., GAVARD-PERRET M.-L. et FOURNIER C. Le marketing, 4e éd., Economica, 2014 ; HELFER J.-
P., ORSONI J., et SABRI O. Marketing, Vuibert, 13e éd., 2014 ; VERNETTE É., L'essentiel du marketing, 3e éd., Éditions
d'Organisation, 2008.
17) Cet exemple se fonde sur une approche simplifiée d'un appel d'offres réel (SEATM, 22 octobre 1991). Bien que le contexte
d’étude soit ancien, la qualité de la démarche d’établissement du diagnostic et la fixation des objectifs et questions d’étude en font un
véritable modèle du genre.
18) Cette analyse se fonde en grande partie sur les documents disponibles dans les sites Web suivants :
www.snopes2.com/cokelore/newcoke.htm ou www.toptown.com/hp/mikeyb/coke.htm ; voir aussi les articles dans Newsweek, 24 juin
1985 ; Times, 22 juillet 1985 ; SCHNINDLER R., « The Real Lesson of New Coke », Marketing Research, 25 décembre 1992.
http://www.e-marketing.fr/Breves/Coca-Cola-fait-un-flop-avec-ses-canettes-blanches-de-Noel-42901.htm ; http://www.thecoca-
colacompany.com/dynamic/press_center/2011/10/iconic-coca-cola-red-cans-turn-arctic-white.html
19) Pour aller plus loin, le lecteur pourra consulter : LETELLIER H.J., « La capacité prédictive des modèles de marchés-tests
simulés garantit-elle le succès des lancements de nouveaux produits ? », Décisions Marketing, n°39, 2005, pp. 83-90 ; VERNETTE É.,
FILSER M., GIANNELLONI J.-L., Études marketing appliquées, 2008, p. 211, Dunod.
20) BOLLEN J., MAO H. et ZENG X.J, « Twitter mood predicts the stock market, Journal reference », Journal of Computational
Science, vol. 2, n°1, 2011, pp. 1-8.
21) GALAN J.-Ph., VIGNOLLES A., « Twetnographie : utilisation de Twitter pour la recherche en marketing », Journées de
recherche en marketing de Bourgogne, 14, Dijon, 2009, CD-ROM ; GALAN J.-Ph., VIGNOLLES A., « Identification des leaders
d’opinion sur Internet : utilisation des données secondaires issues de Twitter », International Conference Marketing Trends, vol. 9,
Venise, 2010, CD-ROM.
22) COVA B., « Développer une communauté de marque autour d’un produit de base : my nutella The Community », Décisions
Marketing, vol. 42, 2008, pp. 55-62 ; FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en
coopération avec les communautés en ligne », Décisions Marketing, n° 48, 2007, pp. 47-58 ; SITZ L., « Le monde des marques :
l’exemple d’Apple », Décisions Marketing, n°52, 2008, pp. 19-30. \/|
23) Adapté de VERNETTE É., Techniques d’études de marché, 2011, Vuibert, coll. Entreprise, pp. 18-19.
$|
24) http://scholar.google.fr
4$
25) VERNETTE E., L’essentiel du marketing, Éditions d’Organisation, 3e édition, 2008, p. 157.
By
26) Pour une bonne compréhension de ce point, voir le Guide statistique téléchargeable gratuitement sur Vuibert.fr.
(http://www.vuibert.fr/ouvrage-9782311009156-etudes-de-marche.html)
27) CAROFF J., « Les relations de travail entre client et cabinet d’étude », Revue française du marketing, no 79, 1979/4, pp. 51-58.
28) Le Groupement d’études et de normalisation de la codification (GENCOD) qui associe les producteurs et les distributeurs
attribue un code EAN (European Article Number) spécifique à chaque produit et à chaque fabricant français. Le code comporte 13
chiffres : le premier indique le pays, les six suivants désignent le fabricant (Code national unifié des fournisseurs), les six derniers sont
propres à la référence et à la marque du produit (Code interface produit).
29) Le lecteur souhaitant approfondir les aspects méthodologiques se reportera à : DECAUDIN J.M. et SAINT-MARTIN T., Les
panels, Pearson, 2013.
30) Sur la base de Scantrack - Données explicatives, Document Nielsen, janvier 2001 (adapté par les auteurs).
31) Cette part de marché théorique est quelque peu illusoire, car il est pratiquement impossible pour la marque d’être présente,
exactement dans les mêmes conditions, dans les points de vente restants.
32) DELAMOTTE M., « Les nouveaux panels scannérisés », Décisions marketing, no 7, janvier 1996, pp. 53-65.
33) http://www.gagner-ensemble.com/gagner-argent-sondages-opinions.php
34) D’après Guibert C., « Votre avis se monnaye de plus en plus sur Internet », Ouest-France, 1er avril 2009.
35) https://www.askgfk.fr/index.php?id=15
36) Source : http://forum.aufeminin.com/forum/pratique1/__f21945_pratique1-Panel-homescan-de-acnielsen-qui-participe.html
37) Les résumés des mises en concurrence et des appels d’offres du BOAMP sont disponibles sur le site http://www.boamp.fr.
38) Recommandation formulée par le Syntec, Guide des relations annonceurs-sociétés d’études, Paris, octobre 1984.
39) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, no 134, 1991/4, pp. 35-49.
40) Étude TNS Sofres pour l’UDA, HEURTEBISE C., Marketing Magazine, no 147, mars 2011.
41) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », op. cit.
42) Étude TNS Sofres pour l’UDA, HEURTEBISE C., Marketing Magazine, no 147, mars 2011.
43) Syntec, Guide des relations annonceurs-sociétés d’études, op. cit., 1984.
44) Sur les aspects épistémologiques des différentes approches scientifiques (induction, déduction, théorie et empirisme), voir
ZALTMAN G., PINSON C. et ANGELMAR R., Metatheory and Consumer Research, Holt, Rinehart & Winston Ed., 1973 ;
HIRSCHMAN E., Interpretive Consumer Research, ACR éd., 1989 ; EVRARD Y., PRAS B. et ROUX E., Market : fondements et
méthodes des recherches en marketing, Dunod, 4e édition, 2009, pp. 36-44.
45) Cette fiche technique concerne l’évaluation d’une démarche quantitative. Pour le cas, plus complexe, de l’évaluation d’une
démarche qualitative, voir par exemple : SYKES W., « Validity and reliability in qualitative market research : a review of the
literature », Journal of the Market Research Society, vol. 23, no 3, juillet 1990, pp. 289-328 ; ANDRÉANI J.-C. et CONCHON M. F.,
« Fiabilité et validité des enquêtes qualitatives : un état de l’art en marketing, Revue française du marketing, no 201 1/5, mars 2005, pp.
\/|
5-21.
$|
46) PETER J. P. et CHURCHILL G. A. Jr., « Relationships among research design choices and psychometric properties of rating
4$
scales : a meta analysis », Journal of Marketing Research, février 1986, pp. 1-10.
47) VERNETTE É., « L’efficacité des instruments d’études : évaluation des échelles de mesure », Recherche et Applications en
By
48) PETER J. P., « Reliability : a review of psychometric basics and recent marketing pratice », Journal of Marketing Research,
février 1979, pp. 6-17 ; VOSS K., STEM D. et FOTOPOULOS S., « A comment on the relationship between coefficient alpha and
scale characteristics », Marketing Letters, 11, 2, 2000, pp. 177-191.
49) PETER J. P., « Construct validity : a review of basic issues and marketing practices », Journal of Marketing Research, mai
1981, pp. 133-145 ; CHURCHILL G. A., « A paradigm for developing better measures of marketing constructs », Journal of
Marketing Research, février 1979, pp. 64-73 ; GERBING D. et ANDERSON J., « An updated paradigm for scale development
incorporating uni-dimensionality and its assessment », Journal of Marketing Research, vol. 25, 2, février 1988, pp. 186-92.
50) CAMPBELL D. et FISKE D., « Convergent and discriminant validation by the multitrait-multimethod matrix », Psychological
Bulletin, vol. 56, 1959, pp. 81-105.
51) ROUSSEL P., DURRIEU F., CAMPOY E. et EL AKREMI A., Méthodes d’équations structurelles, Economica, 2002.
52) ZALTMAN G., « Rethinking market research : putting people back in », Journal of Marketing Research, vol. 44, novembre
1997, pp. 424-437 ; ZALTMAN G., Dans la tête du client, Éditions d’Organisation, 2003 ; DION D. (coordi), À la recherche du
consommateur, Dunod, 2008.
53) LEWIS I., « The future of market research », International Journal of Market Research, vol. 54, no 1, 2012, pp. 11-13.
54) Adapté de MICHALOWSKA A., « Du market research au consumer insight », Marketing Magazine, 98, 1er octobre 2005.
55) Dion D. et Sitz L., « Enrichir la compréhension des comportements de consommation : pistes opérationnelles et enjeux
organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
56) En France, les plus connus sont ceux établis en juin 2013 par le collège scientifique de la FNEGE
(http://www.fnege.org/publications/classement-des-revus) et la quatrième édition 2014 du classement des revues en économie et
gestion du CNRS (https://www.gate.cnrs.fr/spip.php?article779).
57) Cette limite n’est pas absolue, puisqu’il est théoriquement possible pour une étude qualitative de disposer d’un échantillon
représentatif de la population étudiée. Mais compte tenu des coûts et de la lourdeur du terrain, ce n’est pratiquement jamais le cas,
sauf peut-être pour les tests sensoriels de produits (goût, odeur, etc.).
58) SYKES W., « Validity and reliability in qualitative market research : a review of the literature », Journal of the Market Research
Society, vol. 23, no 3, juillet 1990, pp. 289-328 ; SYKES W., « Taking stock : issues from the literature on validity and reliability in
qualitative market research », Journal of the Market Research Society, vol. 33, no 1, 1991, pp. 3-12 ; ANDRÉANI J. C. et
CONCHON M. F., « Fiabilité et validité des enquêtes qualitatives : un état de l’art en marketing, Revue française du marketing, no 201
1/5, mars 2005, pp. 5-21.
59) DE BODINAT H., Un pavé dans le marketing, J.-C. Lattès, 1990, p. 53.
60) VERNETTE É., « Les études qualitatives à la recherche du sens perdu », Décisions Marketing, 2004, vol. 36, pp. 7-9.
61) Au sens large, la méthodologie englobe les réflexions sur la nature du problème à résoudre, le choix d’une démarche (étude ou
recherche ; qualitative ou quantitative) et le plan de travail (collecte et analyse des données). Nous nous conformerons à la pratique
des cabinets d’études en restreignant la méthodologie au plan de travail.
62) Étude TNS Sofres pour l’UDA, Marketing Magazine, no 147, mars 2011.
Décisions Marketing, vol. 36, 2004, p. 29 ; DANO F., HAMON V. et LLOSA S., « La qualité dans les études qualitatives, principes et
pratiques », Décisions Marketing, vol. 36, 2004, p. 23.
By
65) Pour aller plus loin sur la proposition d’étude qualitative, voir : DANO F., HAMON V. et LLOSA S., « La qualité dans les
études qualitatives, principes et pratiques », Décisions Marketing, vol. 36, 2004, pp. 11-25.
66) Adapté du Syntec, Guide des relations annonceurs, sociétés d’études, Paris, octobre 1984, et Guide pratique de la qualité en
études de marché, Paris, 1995.
67) Extraits adaptés de FAIVRE J.-P., « 12 conseils pour rater vos études », Revue française du marketing, nos 142-143, 1993/2-3,
pp. 109-111 et de Syntec Études http://www.slideshare.net/syntec_etudes/12-conseils-pratiques-pour-rater-vos-etudes-9252927, 2011.
69) Pour 2013, voir le dossier « Les instituts en pleine tourmente » daté du 4 avril 2014 sur le site emarketing.fr.
70) DICHTER E., « Psychology in market research », Harvard Business Review, 25, été 1947, pp. 432-443 ; DICHTER E., The
Strategy of Desire, Doubleday, New York, 1960.
71) Les domaines de l’investigation de groupe sont les mêmes. Mais, comme nous le constaterons dans le chapitre suivant, les
postulats sur lesquels repose celle-ci sont différents.
72) FRANÇOIS J. et PELLEMANS P., Les études qualitatives, Presses universitaires de Namur, 1979, p. 32.
73) Voir le dossier consacré à « Freud et la psychanalyse aujourd’hui », Sciences humaines, no 113, février 2001, pp. 22-41.
74) Sur ces questions, voir les chapitres 2 et 12 de PELLEMANS P., Le marketing qualitatif ; perspective psychoscopique, De
Bœck Université, 1998.
75) FREUD S., Cinq leçons sur la psychanalyse, Payot, 1975, pp. 44-45.
76) TARDAN-MASQUELIER Y., Jung, la sacralité de l’expérience intérieure, 1992, Droguet et Ardant, p. 172.
77) Pour approfondir : M. MILES et HUBERMAN A., Analyse des données qualitatives, 2e éd., De Boeck Éditions, 2003 ;
SAVOIE-JACQ L., « Comment construire un échantillonnage scientifiquement valide ? », Recherches qualitatives, hors série, no 5,
2007, pp. 99-111. http://www.recherche-qualitative.qc.ca/revue.html
78) GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.
79) GUEST, G., BUNCE, A. et JOHNSON, L. « How many interviews are enough ? An experiment with data saturation and
variability ». Field Methods, vol. 18, 1, 2006, pp. 59-82.
80) BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquêtes en sciences sociales,
Dunod, 1987, pp. 109 et s.
81) Extraits adaptés de SAVET L., « Le tri à la source des déchets par les ménages. Quel accueil par les Chambériens ? »,
Mémoire de maîtrise LEA, faculté LTA, université de Savoie, Chambéry, mai 1992, pp. 19-20.
82) OBSOMER C., PONDEVILLE S. et PELLEMANS P., « Une application de l’analyse transactionnelle », Revue française du
marketing, no 163, 1997/3, pp. 88-99.
83) WEBER R.P., Basic Content Analysis, Sage University paper, no 49, 2e éd., Londres, 1990, p. 9.
84) Pour approfondir cette question, se reporter à WEBER R. P., Basic Content Analysis, op. cit., 1990. Pour une approche plus
sociologique, on se référera à GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., Manuel d’analyse de contenu,
Armand Colin, 1980 ; HUBERMAN A. et MILES M., Analyse des données qualitatives, éditions De Boeck Université, Bruxelles,
1991.
\/|
$|
85) Il existe d’autres unités d’analyse. Par exemple, le caractère, le support du discours, l’espace et le temps. Pour plus de détails,
voir KASSARJIAN H. H., « Content analysis in consumer research », Journal of Consumer Research, vol. 4, juin 1977, pp. 8-18.
4$
86) STRAUSS A. et CORBIN J., Basics of qualitative research : Grounded theory procedures and techniques, Sage, London, 1990.
By
87) GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.
88) COHEN J., « A coefficient of agreement for nominal scales », Educational and Psychological Measurement, vol. 20, 1960,
pp. 27-46. Il existe d’autres formulations si la grille de codification n’est pas imposée aux codeurs, mais émane de chacun d’eux ; voir
GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., op. cit., 1980.
90) LANDIS J. et KOCH G., « The measurement of observer agreement for categorical data », Biometrics, vol. 33, 1977, pp. 159-
174.
92) Pour aller plus loin, voir notamment CHANDEZON G. et LANCESTRE A., L’analyse transactionnelle, PUF, 1983.
93) PENINOU G., « Langage et marketing », Revue française du marketing, no 109, 4, 1986, pp. 5-10.
94) Pour aller plus loin, voir par exemple GAVARD-PERRET M.-L. et MOSCAROLA J., « Énoncé ou énonciation ? Deux objets
différents de l’analyse lexicale en marketing », Recherche et Applications en marketing, vol. 13, 2, 1998, pp. 31-47.
95) Pour une comparaison des fonctionnalités, performances et prix de Spad-T, Lexica et Alceste, voir HELME-GUIZON A. et
GAVARD-PERRET M.-L., « L’analyse automatisée de données textuelles en marketing », Décisions Marketing, vol. 36, 2004, pp. 75-
90.
96) LEBART L., « Analyse statistique des réponses libres dans les enquêtes par sondage », Revue française du marketing, no 109,
1986/4, pp. 37-46.
97) DEUTSCH E., « Sémiométrie : une nouvelle approche de positionnement et de segmentation », Revue française du marketing,
no 1125, 1989/5, pp. 5-16.
98) WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation and implications », Journal of
Consumer Research, vol. 20, décembre, 1993, pp. 339-359.
99) Pour un approfondissement, voir WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation
and implications », op. cit., 1993, pp. 340-350.
100) Pour un approfondissement, voir WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation
and implications », op. cit., 1993, pp. 340-350.
101) TISSIER-DESBORDES E., « Les études qualitatives dans un monde post-moderne », Revue française du marketing, nos 168-
169, 1998, pp. 39-48.
103) J. GREISCH, « Savoir voir » et comprendre. Le statut herméneutique de la phénoménologie », Laval théologique et
philosophique, 52, 2, juin 1996, pp. 301-318.
104) THOMPSON C., LOCANDER W. et POLLIO H., « Putting the consumer experience back into consumer research : the
philosophy and method of existential-phenomenology », Journal of Consumer Research, vol. 16, septembre 1989, pp. 133-146.
105) THOMPSON C., LOCANDER W. et POLLIO H., op. cit., septembre 1989.
106) D. Seron, « Heidegger et le tournant herméneutique de la phénoménologie », conférence RéseaUlg, université de Liège,
\/|
28 novembre 2005.
$|
107) RESWEBER J.-P., « Le champ de l’herméneutique. Trajectoires et carrefours », Théologiques, vol. 10, no 2, pp. 55-78.
4$
http://id.erudit.org/iderudit/008883ar
108) RABAUT H., « Le problème de l’interprétation de la loi : la spécificité de l’herméneutique juridique », Le portique, revue de
By
109) THOMPSON C., « Interpreting consumers : a hermeneutical framework for deriving marketing insights from the texts of
consumers’ consumption stories », Journal of Marketing Research, novembre 1997, pp. 438-455.
111) THOMPSON C., POLLIO H. et LOCANDER W., op. cit., decembre 1994, pp. 432-452 ; FISHER E., « Creating or escaping
community ? An exploratory study of Internet consumers’ behaviors », Advances in Consumer Research, vol. 23, 1996, pp. 178-182.
112) Pour une discussion sur les différents types de groupes, voir MENDES P., « A review of group discussion methodology »,
European Research, mai 1980, pp. 114-120.
113) LEWIN K., « Group decisions and social change », in SWANSON E., NEWCOM T. et HARTLEY E., Readings in Social
Psychology, New York, Holt Rinehart et Winston, 1952, pp. 459-473 ; ANZIEU D. et MARTIN J.-Y., La dynamique des groupes
restreints, PUF, coll. « Le psychologue », 1982, p. 44.
114) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, Coll. « Le psychologue », 9e éd., 1992, pp. 16-17.
115) Sur les techniques et applications du psychodrame, voir AMADO G. et GUITTET A., Dynamique des communications dans
les groupes, A. Colin, 1991, pp. 161-168.
116) HYMAN H., « The psychology of status », Archives of Psychology, 269, 1942, pp. 94-102.
117) IACOBUCCI D., Networks in Marketing, Sage publications, 1996 ; WATTS D. et DODDS P., « Networks, influence, and
public opinion formation », Journal of Consumer Research, vol. 34, no 4, 2007, pp. 441-458.
118) KOZINETS R. (1999), « E-tribalized marketing ? The strategic informations of virtual communities of consumption »,
European Management Journal, vol. 17, no 3, pp. 252-264.
119) VERNETTE É., BERTRANDIAS L., GALAN J.-P. et VIGNOLLES A., « Le rôle et l’identification des leaders d’opinion
dans les réseaux sociaux traditionnels et virtuels : controverses marketing et pistes de recherche », 10th International Marketing Trend
Conference, Venise, ESCP Europe, 2012.
120) RAMANSWANY V. et GROUILLARD F., L’entreprise co-créative, 2011, Vuibert ; THOMKE S. et VON HIPPEL E.,
« Customers as innovators : a new way to create value », Harvard Business Review, vol. 80, no 4, 2002, pp. 74-81.
121) FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en coopération avec les
communautés en ligne », Décisions Marketing, vol. 48, 2007, pp. 47-58. ; FÜLLER J., « Refining virtual co-creation from a consumer
perspective », California Management Review, vol. 52, no 2, winter, 2010, pp. 98-122.
122) FERN E., « The use of focus group for idea generation : the effect of group size, acquaintanceship, and moderator on response
quantity and quality », Journal of Marketing Research, vol. 19, février 1982, pp. 1-13.
123) FERN E., « Focus group : review of some contradictory evidence, implications, and suggestions for review research »,
Proceedings of the Association for Consumer Research, vol. 10, 1983, pp. 121-126.
124) HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation », Décisions Marketing, vol. 36,
2004, pp. 27-38.
125) EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing, Dunod, 4e édition,
2009, pp. 102 ; voir aussi HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation », Décisions
\/|
Marketing, vol. 36, 2004, p. 29 ; DANO F., HAMON V. et LLOSA S., « La qualité dans les études qualitatives, principes et
pratiques », Décisions Marketing, vol. 36, 2004, p. 23.
$|
126) Ce paragraphe s’appuie sur les recommandations de l’institut QUALIQUANTI, Pour des études marketing vivantes,
4$
www.qualiquanti.com, août 2009, pp. 70-72 ; voir aussi HERBERT M., « Du renouveau dans la méthode des entretiens », in DION D.,
À la recherche du consommateur, Dunod, 2008, pp. 82-84.
By
128) MALHOTRA N. K., Marketing Research, 1996, 2nd ed., Prentice Hall, NJ., p. 168.
129) TEMPLETON J. F., The Focus Group, Irwin, Chicago, 1994, pp. 235-244.
130) GALAN J.-P. et VERNETTE E., « Vers une quatrième génération : les études de marché on line », Décisions Marketing,
o
n 19, pp. 39-52, janvier-avril 2000.
131) GREENBAUM T., « Internet focus group are not focus group, so don’t call them that », Quirk’s Marketing Research Review,
juillet (http://www.quirk.com/articles/article.asp?), 1998.
132) Pour une approche globale sur le développement des études qualitatives on line, voir MICHALOWSKA A., « Les études on
line entrent, doucement, dans les mœurs », Marketing magazine, no 78, mars 2003 ; MICHALOWSKA A., « Quel avenir pour les
études qualitatives en ligne ? » Marketing Magazine, no 78, mars 2003 ; FlORES L., « Web 2.0 et études de marché : vers une
nouvelle génération d’études de marché ? », Revue française du marketing, no 220/5, décembre 2008, pp. 7-16 ; HEURTEBISE C.,
« Quali on line : vraies ou fausses opportunités », Marketing magazine, 7 mars 2010.
133) CLAXTON J. D., BRENT R. Jr et ZAICHKOWSKI J. L., « The nominal group technique : its potential for consumer
research », Journal of Consumer Research, 7, 3, décembre 1980, pp. 308-313 ; DELBECQ A. L. et VAN DE VEN A. H., « A group
process model for problem identification and program planning », Journal of Applied Behavioral Science, 7, 4, 1971 ; VERNETTE É.,
Comparaison des méthodes d’identification de critères de choix d’un produit, thèse de doctorat d’État, université de Paris-Nanterre,
1986, pp. 158-163.
134) Certains préfèrent fixer un nombre précis, généralement compris entre 5 et 9 (DELBECQ A. L. et VAN DE VEN A. H., « A
group process model for problem identification and program planning », op. cit., 1971).
135) VERNETTE E., « Identification des attributs déterminants : une comparaison de six méthodes », Recherche et Applications en
marketing, vol. 2, no 4, 1987, pp. 1-21.
136) VERNETTE É., « Générer et sélectionner les critères de choix d’un produit : étude de la fiabilité et convergence de trois
méthodes », Actes de l’Association française du marketing, vol. 2, mai 1986, pp. 199-218.
137) PAULUS P. et DZINDOLET M., « Social influence processes in group brainstorming », Journal of Personality and Social
Psychology, vol. 64, no 4, April 1993, pp. 575-586 ; GIROTRA K., TERWIESCH C. et ULRICH K., « Idea génération and the quality
of the best idea », Management Science, vol. 56, no 4, April 2010, pp. 591-605.
139) Adapté de LEBEL P., La créativité en pratique, Éd. d’Organisation, 1990, p. 42.
141) MOLES A. et CLAUDE R., Créativité et méthodes d’innovation dans l’entreprise, éd. Fayard-Mame, Paris, 1970.
142) GILL T. et DUBÉ L., « Qu’est-ce qu’un fer à repasser le cuir ou un téléphone oiseau ? L’usage des combinaisons
conceptuelles pour générer et comprendre les concepts de nouveaux produits », Recherche et Applications en marketing, vol. 22, no 4,
2007, pp. 81-103.
143) GORDON B., Simulation des facultés créatrices, Éd. Hommes et techniques, Paris, 1965.
\/|
$|
144) Voir AMADO G. et GUITTET A., Dynamique des communications dans les groupes, A. Colin, 1991, pp. 184-185.
4$
145) FUSTIER M. et DEBRINAY G., « Un instrument d’étude de motivation », Revue française du marketing, 1979/1, 76, pp. 63-
74.
By
146) PONTIER S., « Image du point de vente : pour une prise en compte de l’image interne », Recherche et Applications en
marketing, vol. 3, no 3, 1988, pp. 3-19.
147) Ce terme a été introduit par Jeff Howe et Mark Robinson dans un article : « The rise of crowdsourcing »
http://www.wired.com/wired/archive/14.06/crowds.html, Wired, juin 2006 ; voir aussi : CHESBROUGH, H., « The era of open
innovation », MIT Sloan Management Review, vol. 44, no 3, 2003, pp. 35-4.
148) RHEINGOLD H., The Virtual Community : Homesteading on the Electronic Frontier, Addison-Wesley, Reading, MA, 1993 ;
BRODIN O., « Les communautés virtuelles : un potentiel marketing encore peu exploité », Décisions marketing, no 21, septembre-
décembre 2000, pp. 47-56.
149) MUNIZ A et O’GUIN T, « Brand Community », Journal of Consumer Research, vol. 27, mars 2001, pp. 412-443 ; AMINE A.
et SITZ L., « Emergence et structuration des communautés de marque en ligne », Décisions Marketing, vol. 46, avril-juin 2007, pp. 63-
75 ; FÜLLER J., MATZLER K. & HOPPE M., « Brand community members as a source of innovation », Journal of Product
Innovation Management, vol. 25, no 6, 2008, pp. 608-619 ; ARNONE L et DE CROP A., « Construire une communauté de marque :
le cas des clubs de vacances Lookéa », Décisions Marketing, no 64, octobre-novembre 2011, pp. 35-46 ;
150) AMIROU R, « Les communautés de consommateurs comme espace transitionnel », Décisions Marketing, no 52, octobre-
novembre 2008, pp. 31-40.
151) THOMKE S. et VON HIPPEL E., « Customers as innovators : a new way to create value », Harvard Business Review,
vol. 80, no 4, 2002, pp. 74-81. VON HIPPEL E., « Lead users : a source of novel product concept », Management Science, vol. 32,
no 7, 1986, pp. 791-80 ; COVA B., « Quand le consommateur devient producteur », Décisions Marketing, no 50, pp. 19-27.
152) FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en coopération avec les
communautés en ligne », Décisions Marketing, vol. 48, octobre-novembre 2007, pp. 47-58 ; FÜLLER, J., « Refining virtual co-creation
from a consumer perspective », California Management Review, vol. 52, no 2, winter 2010, pp. 98-122.
154) Pour des exemples en marketing, voir BEST R. J., « An experiment in Delphi estimation in marketing decision making »,
Journal of Marketing Research, novembre 1974, pp. 447-452 ; LARRECHE J.-C. et MONTGOMERY D. B., « A framework for the
comparison of marketing models : a Delphi study », Journal of Marketing Research, novembre 1977, pp. 487-498.
155) Pour aller plus loin : VERNETTE É., « La méthode Delphi, une aide à la prévision marketing », Décisions marketing, no 1,
janvier-avril 1994, pp. 97-101.
156) Les principes statistiques de la méthode imposent, pour les questions fermées, des échelles respectant les propriétés
d’intervalle (voir chapitre 9) ; les questions ouvertes permettent aux experts de motiver leurs jugements.
157) Pour ces aspects statistiques, voir le guide statistique téléchargeable gratuitement sur la page de l’ouvrage du site Vuibert.fr.
158) Pour les aspects méthodologiques et les résultats détaillés, voir VERNETTE É., « Identification des attributs déterminants : une
comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21 ; VERNETTE É., « La flexibilité
de la méthode Delphi », Actes du Congrès international de l’Association française du marketing, vol. 7, 1991, pp. 183-198.
159) VERNETTE É., « Évaluation de la validité prédictive de la méthode Delphi-leader », 13e Congrès international de
l’Association française du marketing, vol. 13, Toulouse, mai 1997, pp. 988-1010.
160) Pour plus de détails sur ce point, voir PRAS B. et TARONDEAU J.-C., Comportement de l’acheteur, Sirey, 1982.
\/|
$|
161) TOUBIA O. et FLORÉS L., « Adaptive idea screening using consumers », Marketing Science, vol. 26, no 3, 2007, pp. 342-
4$
360.
162) Sur ce point, voir VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, chapitre 7.
By
163) LACOUR J.-P., « Observation éthologique d’un consommateur dans une grande surface d’articles de sport », Revue française
du marketing, octobre 2004, no 199, 4/5, pp. 39-48.
164) Masson D., « Dans les cuisines de Danone », Stratégies, 7 février 2008,
http://www.strategies.fr/actualites/marques/r47379W/dans-les-cuisines-de-danone.html
165) BERGADAA M. et ROUX E., « L’interaction mère-enfant sur les points de vente : mesure des attitudes et observation des
stratégies de négociation », Actes de l’Association française du marketing, vol. 4, mai 1988, 28 p.
166) BREE J., « Observation directe du comportement d’achat des enfants de 7 à 12 ans dans les magasins en libre-service »,
Actes de l’Association française du marketing, vol. 3, mai 1987, 24 p.
167) SHAPIRO S., MCINNIS D., HECKLER S. et PEREZ A., « An experimental method for studying unconscious perception in
a marketing context », Psychology & Marketing, vol. 16, no 6, 1999, pp. 459-477.
168) AUGÉ M., Pour une anthropologie des mondes contemporains, 1994, Flammarion.
171) DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de consommation », Recherche et
Applications en Marketing, vol. 22, no 1, 2007, pp. 61-78.
172) STRAUSS A. et CORBIN J., Basics of qualitative research : Grounded theory procedures and techniques, Sage, London,
1990 ; GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.
173) ARNOULD E. et WALLENDORF M., « Market-oriented ethnography : interpretation building and marketing strategy
formulation », Journal of Marketing Research, vol. 31, novembre 1994, pp. 484-504.
174) BELK R., SHERRY J. et WALLENDORF M., « A naturalistic inquiry into buyer and seller behavior at a swap market »,
Journal of Consumer Research, vol. 14, mars 1988, pp. 449-469.
175) WALLENDORF M. et ARNOULD E., « We gather together : consumption rituals of Thanksgiving day », Journal of
Consumer Research, vol. 18, juin 1991, pp. 13-31.
176) JAOUËN M., « Le marketing à l’heure des tribus », Médias, no 326, mars 1992.
178) Cette présentation s’appuie sur DESJEUX D, « La méthode des itinéraires. Une approche qualitative pour comprendre la
dimension matérielle, sociale et culturelle de la consommation. Le cas du Danemark », Actes des 5e Journées de recherche en
marketing de Bourgogne, 2000, pp. 183-189.
179) Adapté de DESJEUX D, « La méthode des itinéraires. Une approche qualitative pour comprendre la dimension matérielle,
sociale et culturelle de la consommation. Le cas du Danemark », op. cit.
180) KOZINETS R., « I want to believe : A Netnography of the X-Philes’ Subculture of Consumption », in BRUCKS M. and
MACINNIS D. J. (eds.), Advances in Consumer Research, 1997, Provo, UT : Association for Consumer Research, vol. 24, pp. 470-
475 ; KOZINETS R., « The field behind the screen : using netnography for marketing research in online communities », Journal of
\/|
Marketing Research, 2002, vol. 39, February, pp. 61-72 ; KOZINETS R., « Click to connect : netnography and tribal advertising »,
Journal of Advertising Research, vol. 46, no 3, 2006, pp. 278-288.
$|
4$
181) BRODIN O., « Les communautés virtuelles : un potentiel marketing encore peu exploité », Décisions Marketing, no 21,
septembre-décembre 2000, pp. 47-56 ; MUNIZ A. et O’GUIN T., « Brand Community », Journal of Consumer Research, vol. 27,
By
mars 2001, pp. 412-443 ; COVA B. et CARRÈRE V., « Les communautés de passionnés de marque : opportunité ou menace sur le
Net ? », Revue française du marketing, 2002, no 189/190, 4-5, pp. 119-130 ; AMINE A. et SITZ L., « Émergence et structuration des
communautés de marque en ligne », Décisions Marketing, vol. 46, avril-juin 2007, pp. 63-75 ; FÜLLER J., MATZLER K. et HOPPE
M., « Brand community members as a source of innovation », Journal of Product Innovation Management, vol. 25, no 6, 2008, pp. 608-
619 ; ARNONE L. et DE CROP A., « Construire une communauté de marque : le cas des clubs de vacances Lookéa », Décisions
Marketing, no 64, octobre-novembre 2011, pp. 35-46.
182) Pour aller plus loin : BERNARD Y., « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation », Décisions Marketing, 2004, no 36, pp. 49-62 ; BERTRANDIAS L. et
CARRICCANO M., « Le prix derrière l’écran : étude netnographique d’une communauté virtuelle professionnelle de pricing
manager », Décisions Marketing, vol. 41, 2006, pp. 53-66 ; BERNARD Y., « La netnographie : étudier les tribus virtuelles », in
DION D. (coord.), À la recherche du consommateur, Dunod, 2008, pp. 103-121.
183) GALAN J.-Ph. et VIGNOLLES A., « Twetnographie : utilisation de Twitter pour la recherche en marketing », in FILSER M.
(éd.), Journées de recherche en marketing de Bourgogne, vol. 14, Dijon, 2009, CD-ROM.
184) DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de consommation », Recherche et
Applications en marketing, vol. 22, no 1, 2007, pp. 61-78.
185) Pour approfondir, voir DION D., « L’observation filmée », in DION D. (coord.), À la recherche du consommateur, Dunod,
2007, pp. 29-50.
186) COULON A., L’ethnométhodologie, PUF, 1993. L’ouvrage fondateur est : GARFINKEL H., Studies in Ethnomethodologie,
Cambridge, Polity Press, 1984.
187) Pour aller plus loin : OZCAGLAR-TOULOUSE N., « Les récits de vie », in DION D. (coord.), À la recherche du
consommateur, Dunod, 2008, pp. 123-142 ; OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à
leur consommation ? Une approche par les récits de vie », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 3-24.
188) Pour un exemple d’application, voir OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à
leur consommation ? Une approche par les récits de vie », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 3-24.
189) Voir DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des protocoles »,
Séminaire de méthodologie de la recherche, CREE, FNEGE, Lille, 1982, pp. 247-341 ; SMEAD R. J., WILCOX J. B. et
WILKES R. B., « How valid are product descriptions and protocols in choice experiments ? », Journal of Consumer Research, juin
1981, pp. 37-42.
190) LUSSIER D. A. et OLSHAWSKY R. W., « Task complexity and contingent processing in brand choice », Journal of
Consumer Research, septembre 1979, pp. 154-165.
191) DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des protocoles », Séminaire
de méthodologie de la recherche, 1982, pp. 247-341.
192) FAIVRE J.-P. et PALMER J., « Protocoles et arbres de décision : application des théories du traitement de l’information au
comportement du consommateur », Revue française du marketing, septembre 1976, no 63.
193) Tiré de ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e éd., 1992, p. 41.
194) La dénomination de la méthode est variable. En français, l’expression d’« association libre » est aussi utilisé ; les Anglo-Saxons
utilisent indistinctement les termes de « direct » ou de « free elicitation ».
\/|
195) KRECH D. et CRUTCHFIELD R. S., Theory and problems of social psychology, 1948, New York : Mc Graw Hill.
$|
196) Sur la différence entre importance, saillance et déterminance, voir : VERNETTE É., « Identification des attributs
4$
déterminants : une comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21 ; sur les
différentes méthodes d’identification, voir : VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, 2008,
By
Dunod, chapitre 3.
197) MICHEL G., « L’évaluation des marques : l’approche par la théorie du noyau central », Recherche et Applications en
marketing, vol. 14, no 4, 1987, pp. 33-51 ; VERGÈS P., « L’évocation de l’argent : une méthode pour la définition du noyau central
d’une représentation », Bulletin de psychologie, vol. 45, pp. 203-209 ; GONZALES C., KORCHIA M., MENUET L. et URBAIN C.,
« Comment les consommateurs socialement responsables se représentent-ils la consommation ? Une approche par les associations
libres », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 25-42.
198) Pour une évaluation des qualités de cette méthode, voir : RYAN M. J. et ETZEL M. J., « The nature of salient outcomes and
referents in the extended model », Advances in Consumer Research, vol. 3, 1976, pp. 485-490.
199) KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau d’associations », Recherche
et Applications en marketing, vol. 13, no 1, 1998, pp. 35-49 ; JOLIBERT A. et DIDELLON-CARSANA L., « La mesure non
hiérarchique de la structure mémorielle des connaissances », Décisions Marketing, vol. 21, septembre-décembre 2000, pp. 89-97.
200) KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau d’associations », Recherche
et Applications en marketing, vol. 13, no 11, 1998, pp. 35-49.
201) WETTLER M. et al., « Analyse associative de texte : une méthode pour anticiper l’effet communicatif de la publicité »,
Recherche et Applications en marketing, vol. 13, no 4, 1998, pp. 69-81.
202) Pour aller plus loin : CHANEY D., « L’apport des cartes cognitives à l’analyse des représentations mentales », Recherche et
Applications en marketing, vol. 25, no 2, 2010, pp. 93-116.
203) REYNOLDS T. et GUTMAN J., « Laddering theory method analysis and interprétation », Journal of Advertising Research,
1988, vol. 28, no 1, pp. 11-31.
204) VALETTE-FLORENCE P., « Introduction à l’analyse des chaînages cognitifs », Recherche et Applications en Marketing,
1994, vol. 9, no 1, pp. 93-117 ; VALETTE-FLORENCE P., FERRANDI J.M. et ROEHRICH G., « Apports des chaînages cognitifs à
la segmentation de marché », Décisions Marketing, 2003, vol. 32, pp. 31-43.
205) PELLEMANS P., Le marketing qualitatif, une approche psychoscopique, De Boeck Université, 1998, p. 272.
206) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e édition, 1992, p. 20.
207) HAIRE M., « Projectives techniques in marketing research », Journal of Marketing, octobre 1950, no 14, pp. 649-656.
208) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, op. cit., pp. 17-18.
209) Adapté de STEELE H., « On the validity of projective questions », Journal of Marketing Research, août 1964, pp. 46-49.
210) GREEN P. E. et TULL D. S., Recherche et Décision Marketing, PUF, 1974, p. 159.
211) EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing, Dunod, 4e édition,
2009.
212) VAN LENNEP, Revue de psychologie appliquée, no 3 (p. 352) et no 4 (p. 265), 1953, cité par ANZIEU D. et CHABERT C.,
Les méthodes projectives, op. cit., p. 171.
\/|
213) LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation de
points de vente ? », 2004, Actes des 9es Journées de recherche en marketing de Bourgogne, CD ROM ; LOMBART C., « Les
$|
techniques projectives », in DION D., À la recherche du consommateur, Dunod, 2008, pp. 152-153.
4$
214) Exemple tiré de HAIRE M., « Projective techniques in marketing research », Journal of Marketing, vol. 14, avril 1950, pp. 649-
656.
By
215) ROBERTSON D. et JOSELYN R., « Projective techniques in research », Journal of Advertising Research, octobre 1974,
pp. 27-31.
216) FRAM E et CIBOTTI E, « The shopping list studies and projective techniques : a 40-years review », Marketing Research,
décembre 1991, pp. 14-21.
217) ANDERSON J. C., « The validity of Haire’s shopping list, projective technique », Journal of Marketing Research, vol. 15,
novembre 1978, pp. 644-649.
218) SERRAF G., Bulletin de psychologie, 17, no 225, 1963, p. 377, cité par ANZIEU D. et CHABERT C., op. cit., p. 219.
219) NEWMAN J., Motivation Research and Marketing Management, Harvard University, Cambridge Mass., 1957, pp. 227-228,
cité par GREEN P.E., TULL D.S. et ALBAUM G., Research for Marketing Decision, op. cit., 1988, pp. 165-166.
220) DUSSART C., Comportement du consommateur et stratégie marketing, McGraw Hill, 1983, p. 264.
222) Adapté d’ANDRÉANI J.-C., « L’interview qualitative marketing », Revue française du marketing, nos 168/169, 1998, 3-4,
pp. 7-37.
223) Voir, entre autres, FEYEREISEN P. et DE LANNOY J. D., Psychologie du geste, P. Mardaga éditeur, Bruxelles, 1985.
226) SCOTT L., « Images in advertising, the need for a theory of visual rhetoric », Journal of Consumer Research, vol. 21,
septembre 1994, pp. 252-273.
227) Pour une application publicitaire, voir MCQUARRIE et MICK D., « Figures of rhetoric in advertising language », Journal of
Consumer Research, vol. 22, mars 1996, pp. 424-438.
228) ZALTMAN G., Dans la tête du client, Éditions d’Organisation, Paris, 2004.
229) GIBBS R., « Categorization and metaphor understanding », Psychological Review, vol. 99, no 3, 1999.
230) SPIGGLE S., « Analysis and interpretation of qualitative data in consumer research », Journal of Consumer Research, vol. 21,
décembre 1994, pp. 491-503.
231) ZALTMAN G., Dans la tête du client, 2004, op. cit., chapitre 4.
232) DORTIER J. F., « À quoi ressemble l’idée de chien », Blog La 4e édition, http://www.dortier.fr/cognition-incarnee-a-quoi-
ressemble-lidee-de-chien/. Pour aller plus loin : VARELA J. F., THOMPSON E. et ROSCH E., L’inscription corporelle de l’esprit,
Seuil, 2006.
233) GOATLY A., The Language of Metaphors, 1997, London Routledge, cité par ZALTMAN G., Dans la tête du client, op. cit.
235) Voir ZAZZO R., Le bestiaire des enfants. Conduites et conscience, tome 1, Delachaux et Niestlé, 1962 ; CANIVET N., « Les
\/|
tests des couleurs de Lüscher », Bulletin psychologique, 1963, 17, pp. 322-326 ; références citées par ANZIEU D. et CHABERT C.,
op. cit., pp. 241 et 272.
$|
4$
236) SPEARS N., MOWEN J. et CHARKRABORTY G., « The symbolic communication model and the role of animals in
advertising », Proceedings of the 22nd International Research Seminar on Marketing, La Londe des Maures, IAE Aix-en-Provence
1995, pp. 512-532.
By
237) STERN B., « Deconstructive strategy and consumer research : concepts and illustrative exemplar », Journal of Consumer
Research, vol. 23, septembre 1996, pp. 136-147.
238) BALLOFFET P. et BOULAIRE C., « Representations of Internet : an investigation based on metaphors », Advances in
Consumer Research, vol. 26, 1999, pp. 536-541 ; BOULAIRE C., « Portrait chinois : le jeu de la métaphore en tant qu’expérience »,
Décisions Marketing, no 36, octobre-décembre 2004, pp. 39-47.
239) COLIN-LACHAUD I., HERBERT M. et PECHPEYROU P., « Substitution d’enseignes : quelle création de valeur pour le
distributeur et le client ? », Décisions Marketing, no 65, janvier-mars 2012, pp. 57-71.
240) ZALTMAN G., « Rethinking market research : putting people back in », Journal of Marketing Research, vol. 44, novembre
1997, pp. 424-437.
241) HOLBROOK M. et HIRSCHMAN E., « The experiential aspects of consumption : consumer fantasies, feelings and fun »,
Journal of Consumer Research, vol. 9, 1982, pp. 132-140.
242) HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », Journal of Consumer Research, vol. 18, décembre
1991, pp. 257-272.
243) HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », op. cit., décembre 1991, p. 263.
244) HOLBROOK M., « Stereographic visual display and the three-dimensional communication of findings in marketing research »,
Journal of Marketing Research, novembre 1997, pp. 526-536 ; HOLBROOK M. et KUWAHARA T., « Collective stereographic
photo essay : an integrated approach to probing consumption experiences in depth », International Journal of Research in Marketing,
15, 1998, pp. 201-221.
245) HOLBROOK M., STEPHENS D., DAY E., HOLBROOK S. et STRAZAR G., « A collective stereographic photo essay on
key aspects of animal companionship », Academy of Marketing Science Review, janvier 2001.
246) VERNETTE É., « Une nouvelle méthode pour interpréter le sens d’une expérience de consommation : l’Album On Line
(AOL) », Actes de la 12e Journée de recherche en marketing de Bourgogne, 2007, CERMAB-LEG (Actes CD-ROM) ;
VERNETTE É., « Comprendre et interpréter une expérience de consommation avec “l’Album On-Line” (AOL) : une application au
surf des mers », 7th International Marketing Trends Conference, 2008, Venise, EAP-ESCP (Actes CD-ROM).
248) VERNETTE É., « Une nouvelle méthode pour interpréter le sens d’une expérience de consommation : l’Album On Line
(AOL) », Actes de la 12e Journée de recherche en marketing de Bourgogne, 2007, op. cit. ; VERNETTE É., « Comprendre et
interpréter une expérience de consommation avec “l’Album On Line” : une application au surf des mers », 7th International Marketing
Trends Conference, 2008, op. cit.
249) Sur le plan international, le terme anglo-saxon « semiotic » l’emporte et désigne indifféremment les deux domaines. Pour un
approfondissement, voir HÉNAULT A., Histoire de la sémiotique, PUF, 1992 ; HETZEL P. et MARION G., « Les contributions
françaises de la sémiotique au marketing et à la publicité », Gestion 2000, vol. 13, juin 1993, pp. 117-154.
250) Voir notamment PASQUIER M., Marketing et sémiotique, université de Fribourg, 1999.
251) Il existe d’autres niveaux de valeur pour un signe : implicite (i.e. supposé) ou « insue » (i.e. latent). Ceci permet de distinguer
les signes émis de manière intentionnelle de ceux non intentionnellement émis.
252) Sur la perception et le sens des couleurs en marketing, voir DIVARD R. et URIEN B., « Le consommateur vit dans un monde
en couleurs », Recherche et Applications en marketing, vol. 16, 1, 2001, pp. 3-24.
\/|
253) COURTÈS J., Analyse sémiotique du discours. De l’énoncé à l’énonciation, Hachette, 1991, cité par GAVARD-PERRET M.-
$|
L. et MOSCAROLA J., « Énoncé ou énonciation ? Deux objets différents de l’analyse lexicale en marketing », Recherche et
4$
255) HETZEL P. et MARION G., « Les contributions françaises de la sémiotique au marketing et à la publicité », Gestion 2000,
vol. 13, juin 1993, pp. 117-154.
256) FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, PUF, 1990, pp. 27-30.
258) FLOCH J.-M., « La maison d’Épicure, les désirs naturels et non nécessaires d’Habitat », in Identités visuelles, PUF, 1995,
pp. 146-179.
259) SEMPRINI A., Le marketing de la marque, approche sémiotique, Éditions Liaisons, 1992.
260) DANO F., « Contribution de la sémiotique à la conception des conditionnements : application à deux catégories de produits »,
Recherche et Applications en marketing, vol. 13, 3, 1998, pp. 9-29.
262) FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, op. cit., 1990, pp. 58-64.
263) ROEDERER C., « N’oublie pas mon petit soulier. La consommation enfantine et la lettre au Père Noël », Décisions
Marketing, no 50, avril-juin 2008, pp. 29-37.
264) BITOUN C. et MAIER C., « La sémiologie au service de la prévision industrielle », Revue française du marketing, no 175,
1999/5, pp. 25-35.
265) SEMPRINI A., Le marketing de la marque, op. cit., 1992 ; FLOCH J.-M., Identités visuelles, op. cit., 1995, pp. 145-179.
266) FRAENKEL B. et LEGRIS-DESPORTES C., Entreprise et sémiologie, Dunod, chap. 4, 1999, pp. 59-75.
267) MARÉCHAL F., « Pertinence de la sémiotique appliquée au design », Revue française du marketing, no 175, 1999/5, pp. 57-
66 ; DANO F., « Contribution de la sémiotique à la conception des conditionnements », op. cit., Recherche et Applications en
marketing, 1998, pp. 9-29 ; FLOCH J.-M., « La contribution d’une sémiotique structurale à la conception d’un hypermarché »,
Recherche et Applications en marketing, vol. 4, 2, 1989, pp. 37-59.
270) Cette fiche s’appuie sur VERON E., « L’analyse du contrat de lecture : une nouvelle méthode pour les études positionnement
des supports presse », Les cahiers de l’IREP, Les médias, 1985, pp. 203-209 et HETZEL P., « La contribution de la sémiotique aux
processus de prise de décision marketing : esquisse d’un renouveau paradigmatique », L’image réfléchie : sémiotique et marketing,
L’Harmattan, 1998, pp. 73-89.
271) PINSON C., préface de FLOCH J.-M., Sémiotique, marketing et communication, op. cit., 1990.
272) CHANDON J.-L. et DANO F., « Analyse typologique confirmatoire : évaluation d’une partition hypothétique issue d’une
étude sémiotique », Recherche et Applications en marketing, vol. 12, 2, 1997, pp. 1-22.
273) GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall International, Londres,
1988, p. 318.
274) DEROO M. et DUSSAIX A.-M., Pratique et analyse des enquêtes par sondage, PUF, Paris, 1980, p. 20.
278) Lorsque le critère de découpage est géographique (région, département, arrondissement, quartier), on parle d’échantillonnage
aréolaire (area sampling).
279) CHURCHILL G. A. Jr. et IACOBUCCI D., Marketing Research. Methodological Foundations, 10e éd., South Western,
Mason : OH, 2010, chap. 11.
281) Voir, si besoin, un manuel de comportement du consommateur. Par exemple, DARPY D., Comportements du consommateur,
e
3 éd., Dunod, 2012 ou SOLOMON M. R., TISSIER-DESBORDES E. et HEILBRUNN B., Comportement du consommateur,
6e éd., Pearson Education, 2010.
282) Voir FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2007, pp. 82-87.
283) Voir PINSON C., « Pour une étude critique du différentiel sémantique », Revue française du marketing, no 95, 1983/4, pp. 3-
25.
284) Point C ci-après et PRAS B., « Échelles d’intervalle à supports sémantiques », Revue française du marketing, no 61, mars-
avril 1976, pp. 87-95.
285) BREE J., « Quelques problèmes de choix d’échelles pour mesurer les attitudes chez les enfants », Recherche et Applications
en marketing, 1991, vol. 6, no 4, pp. 27-58.
286) VERNETTE É., « Les qualités de l’échelle de mesure à icônes pour une étude marketing internationale », dans Actes du
20e séminaire international de recherche en marketing, IAE d’Aix-en-Provence, 1er-4 juin 1993, pp. 445-468.
287) VERNETTE É., « Efficacité d’un instrument d’étude : évaluation des échelles de mesure », Recherche et Applications en
marketing, 1991, vol. 6, no 2, pp. 43-65.
288) GREEN P. E., TULL D. S. et ALBAUM G., op. cit., 1988, p. 243.
289) Pour les échelles de températures, il s’agit du point d’équilibre d’un mélange eau-glace à pression atmosphérique normale. Ce
point est l’origine des échelles : 0 oC, 32 oF et 273,16 oK.
290) Dans l’ensemble, la psychométrie considère ces échelles comme de « quasi-intervalle ». NUNNALY J., Psychometric Theory,
e
2 éd., McGraw Hill, New York, 1978.
291) MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 1re partie : Connaissance du problème, 9e éd., ESF éditeur-
Entreprise Moderne d’Édition, Librairies Techniques, Paris, 1989, pp. 36-44.
292) Voir par exemple AMINE A. et FORGUES B., « Vers une mesure de la désirabilité sociale dans les réponses aux
questionnaires », Actes du 9 e congrès de l’AFM, Marseille, 1993, pp. 109-128.
293) Source : LSA no 1242, 31 janvier 1991, p. 31. Poudres et liquides confondus. En 2007, elle était de l’ordre de 50 %.
L’utilisation de phosphates dans les lessives est interdite aujourd’hui. Source : http://www.onema.fr/IMG/pdf/2008_024.pdf
294) Il est nécessaire de posséder un compte Google, gratuit. Le mode d’emploi peut être trouvé sur
https://support.google.com/docs/answer/87809?hl=fr ou https://www.youtube.com/watch?v=q4heuaAwifM
\/|
$|
295) https://docs.google.com/forms
4$
296) Source : Bô D., Pour des études marketing vivantes, 2012, http://testconso.typepad.com/marketingetudes/.
297) GANASSALI S. et MESTRALLET A. S., Les méthodes mixtes de recherche en comportement du consommateur : le mur
By
d’images du projet européen EuroConso, note de recherche IREGE, université de Savoie, mars 2012. Cette méthode s’inspire
largement des principes de la méthode AOL que nous avons présentés dans le chapitre 7.
299) D’après GANASSALI S., « Les caractéristiques rédactionnelles d’un questionnaire efficace : fondements et pratiques »,
Actes du 4e congrès international marketing trends, Paris, 2005. Accessible à : http://www.escp-
eap.net/conferences/marketing/2005_cp/Materiali/Paper/Fr/GANASSALI.pdf.
300) GANASSALI S. et MOSCAROLA J., « Protocoles d’enquêtes et efficacité des sondages par Internet », Décisions
Marketing, 33 (janvier-mars), 2004, pp. 63-75.
301) Source : Bô D., Pour des études marketing vivantes, 2012, http://testconso.typepad.com/marketingetudes/.
303) http://www.technisens.com/etudes-tests-consommateurs.php
304) WISEMAN F. et MCDONALD P., Toward the Development of Industry Standards for Response and Non Response Rates,
Cambridge, Mass : Marketing Science Institute, 1980, et « On the definition of response rates », CASRO Special Report, Port
Jefferson, NY : The Council of American Survey Research Organizations, 1982.
308) LOKEN B., PIRIE P., VIRNING K. A., HINKLE R. L. et SALMON C. T., « The use of 0-10 scales in telephone surveys »,
Journal of the Market Research Society, 3,1987, pp. 353-362.
309) LOOSVELDT G. et SONCK N., « An evaluation of the weighting procedures for an online access panel survey », Survey
Research Methods, 2, 2008, pp. 93-105.
310) BURN M. et THOMAS J., « Plus vite et moins cher : avons-nous encore besoin de bonnes études de marché ? », Revue
Française du Marketing, 217 (mai), 2008, pp. 9-26.
311) VERNETTE É., « Les composantes du coût d’une étude de marché », Revue française du marketing, no 116, 1988/1, pp. 75-
91.
312) Le nombre de décimales est indicatif. Il dépend du logiciel utilisé et de son paramétrage. Ici, les réponses données sont bien
des nombres entiers.
313) Il faut bien distinguer la notion d’effectif de celle de fréquence, toujours relative. Les Anglo-Saxons utilisent les termes de
frequency pour effectif et relative frequency pour fréquence. Nous emploierons indistinctement fréquence et fréquence relative pour
désigner cette dernière notion.
314) BERENSON M. L. et LEVINE D. M., Basic Business Statistics, Prentice-Hall International, Londres, 1992, 5e éd., p. 100.
315) WONNACOTT T. H. et WONNACOTT R. J., Statistique, Economica, Paris, 1991, 4e éd., p. 32.
\/|
316) D’autres statistiques descriptives sont présentées en ligne, dans le paragraphe I du guide statistique téléchargeable
$|
gratuitement sur Vuibert.fr.
4$
317) La fiche technique 11.3. détaille le raisonnement qui permet d’aboutir à cette formule.
318) La lecture préalable du paragraphe III du guide statistique (téléchargeable gratuitement sur la page de l’ouvrage du site
By
Vuibert.fr) est recommandée. Il récapitule les principes généraux communs à tous les tests statistiques.
319) Ou d’un ensemble de valeurs observées (i.e. distribution empirique) à un ensemble de valeurs attendues (distribution
théorique).
321) Ces tests sont traités en détail dans SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for the Behavioral
Sciences, 2e éd., McGraw-Hill International, New York, 1988.
323) L’inverse n’est pas vrai : d’où l’intérêt de privilégier dans un questionnaire des mesures métriques, plus « riches » pour
analyser des données, donc susceptibles de déboucher sur des conclusions plus solides.
324) L’analyse de régression permet même d’analyser des liens de cause à effet entre variables. Néanmoins, comme nous le
verrons en détail dans le chapitre 15, c’est avant tout la méthode de collecte des informations, plus que la méthode de traitement, qui
permet in fine de conclure à l’existence probable d’une relation de causalité.
325) Un exemple d’application avec ex aequo est donné dans SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for
the Behavioral Sciences, 2e éd., McGraw-Hill, New York, 1988, pp. 235-254.
328) JOHNSTON J., Méthodes économétriques, tome 1, Economica, Paris, 1985, pp. 14-27 développe la démonstration. Elle peut
également être trouvée à http://www.sites.univ-rennes2.fr/laboratoire-statistique/AGUYADER/doc/regression/poly.pdf
329) L’analyse conjointe et l’analyse de variance seront abordées dans le chapitre 15.
330) DELATTRE M., « Les méthodes d’analyse factorielle », dans LAMBIN J.-J., La recherche marketing, chap. 12, McGraw-
Hill, Paris, 1990, pp. 298-305.
331) Voir GREEN P. E., CARMONE F. J. Jr. et SMITH S. M., Multidimensional Scaling. Concepts and Applications, Allyn &
Bacon, Boston, 1989, pp. 247-269.
332) On trouvera une illustration de l’ACM dans CHANDON J.-L., « Analyse des données », Encyclopédie du management,
tome 1, Vuibert, Paris, 1992, pp. 558-581.
333) La classification CHAID est présentée dans VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing
appliquées, 2008, chap. 4, Paris, Dunod ; l’analyse discriminante sera présentée plus loin dans ce chapitre.
334) L’inertie intraclasse est une notion proche de la variance quand les variables sont métriques. Elle se réfère, au sein d’un
groupe, aux carrés des distances entre les individus et le centre de gravité de ce groupe. La notion de centre de gravité (ou centroïde)
est identique à celle de moyenne : ce sont les coordonnées d’un point telles que la somme des distances entre tous les points (individus)
et lui-même sont nulles.
336) BOURROCHE J.-M. et SAPORTA G., op. cit., 1989, pp. 53-54.
\/|
$|
337) Bien que DILLON W. R. et GOLDSTEIN M., Multivariate Analysis. Concepts and Applications, John Wiley & Sons, New
4$
York, 1984, p. 202, mettent en garde contre l’utilisation de ces tests. Leur argument essentiel est la variabilité des moyennes en
fonction de l’algorithme de classification retenu.
By
338) Sur ces tests, voir GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, Londres, 1988, pp. 585-586. Sur le problème général de la validation d’une typologie, on pourra consulter également
CAUMONT D. et CHANDON J.-L., « Quelques problèmes liés à la validité d’une classification », Recherche et Applications en
marketing, 1989, vol. 4, no 3, pp. 77-93.
339) Le libellé complet est « analyse multidimensionnelle des similarités et des préférences », en raccourci « MDS », d’après
l’expression anglo-saxonne « MultiDimensional Scaling of Similarities and Preferences ».
340) HAIR J. F., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Anaysis. With Readings, 3e éd., New
York, Maxwell Macmillan International Edition, 1992, p. 325.
342) Plusieurs méthodes sont utilisables pour cette identification ; sur ce point, voir VERNETTE É., « Identifier les attributs
déterminants : une comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21.
343) Un exemple développé de cette approche est donné dans VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études
marketing appliquées, Paris, Dunod, 2008, chap. 5.
344) Pour plus de détails sur le fonctionnement de la MDS et le calcul du stress, voir DILLON W. R. et GOLDSTEIN M., op. cit.,
1984, pp. 125-145.
345) Voir par exemple GROENEN P. J. F et VAN DE VELDEN M., Multidimensional Scaling, Econometric Institute Report
EI 2004-15, 2004 (téléchargeable à http://repub.eur.nl/res/pub/1274/ei200415.pdf).
346) MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS, 4e édition, Paris,
Pearson Education France, 2004, p. 579.
347) La variable dépendante peut être nominale : on parle alors de régression logistique. De même, les variables indépendantes
peuvent être dichotomiques (variables muettes). Pour la régression logistique, voir ALDRICH J. H. et NELSON F. D., Linear
Probability, Logit, and Probit Models, Series : Quantitative Applications in the Social Sciences, Sage Publications, 1984 ; pour les
variables muettes, consulter, entre autres, WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991,
pp. 494-499.
348) CADORET I. et al., Économétrie appliquée. Méthodes, applications, corrigés, Bruxelles, De Boeck, 2004 ; voir aussi
http://perso.univ-rennes1.fr/isabelle.cadoret-david/econometrie/lexique/teststatistique.htm
349) BRESSOUX P., Modélisation statistique appliquée aux sciences sociales, Bruxelles, De Boeck, 2008.
352) « Régresser Xi sur toutes les autres » signifie que Xi est la variable dépendante et que toutes les autres sont les variables
explicatives.
354) Rappel : la corrélation partielle entre deux variables est une corrélation résiduelle obtenue en éliminant l’effet de linéarité de
toutes les autres variables.
\/|
355) Sur ce point, voir WONNACOTT T. H. et WONNACOTT R. J., op. cit., 1991, p. 562.
$|
356) Voir JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod,
4$
2006, p. 384.
357) Sur ce point, voir GREEN P. E., TULL D. S. et ALBAUM G., op. cit., 1988, pp. 508-526.
By
359) HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Analysis, with Readings, 3e éd.,
Maxwell MacMillan International Editions, New York, 1992, pp. 105-106.
360) HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., ibid., présentent un exemple bien développé d’analyse
discriminante à trois groupes.
362) CHURCHILL G. A. Jr., Marketing Research. Methodological Foundations, 5e éd., 1991, The Dryden Press, pp. 168-175.
363) KERLINGER F. N., Foundations of Behavioral Research, 3e éd., 1986, Holt, Rinehart et Winston, p. 293.
364) Sous réserve qu’un test de différence de proportions montre que l’écart est significatif.
365) LADWEIN R. (1996), Les études marketing, coll. « Gestion poche », Economica, p. 96.
366) En tout état de cause, ce plan n’est pas envisageable en l’état. Pourquoi ? Réponse en fin de chapitre...
367) Quelques exemples sont illustrés plus loin dans la présentation de l’analyse conjointe. Voir également LAMBIN J.-J. (1990),
op. cit., p. 329.
370) JOURDAN P. et JOLIBERT A., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod, 2006,
p. 241.
371) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, donnent p. 70 les principales transformations sur les données.
372) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, pp. 60-65.
373) Dans chaque groupe, le degré de liberté est ni – 1. Si k est le nombre de groupes, le nombre total de degrés de liberté est
374) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, chap. 4.
375) JOURDAN P. et JOLIBERT A., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod, 2006,
p. 251.
376) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., op. cit., p. 551. La valeur reportée n’est pas lue directement mais
obtenue par interpolation linéaire.
377) Une présentation détaillée en est faite par BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., op. cit., pp. 137-155).
\/|
$|
378) Dans tout ce qui suit, « produit » est entendu au sens large d'offre et inclut, par conséquent, les notions de service ou d'idée.
4$
379) Le terme trade off (arbitrage) est quelquefois utilisé à la place d’analyse conjointe. En pratique, le trade off n’est que l’une des
approches possibles de l’analyse conjointe.
By
380) Bien que la pratique du yield management rende aujourd’hui ce type d’offre possible.
381) Voir VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, Paris, Dunod, 2008, chap. 3 pour un
complément.
382) WITTINK D. R. et al., « The effect of Differences in the Number of Attribute Levels on Conjoint Results », Marketing
Letters, 1990, p. 113-129.
383) HAIR J. F. Jr. et al., Multivariate Data Analysis, with Readings, 3e éd., 1992, Maxwell Macmillan International Editions,
p. 390.
384) On entre là dans des aspects plus sophistiqués de l’analyse conjointe, auxquels s’ajoute, par exemple, la spécification d’effets
d’interaction entre attributs ou entre niveaux d’attributs. Voir GREEN P. E. et SRINIVASAN V. (1978), « Conjoint Analysis in
Consumer Research : Issues and Outlook », Journal of Consumer Research, 5, 3, pp. 103-123.
385) GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 1988, 3e éd., Prentice-Hall, p. 623.
387) Les raisonnements sous-jacents à ces hypothèses sortent du cadre du chapitre et de l’ouvrage. Le cadre général d’analyse est
celui du comportement du consommateur et en particulier de l’influence de certaines variables individuelles sur des comportements
qualifiés d’exploratoires. La recherche d’information préalable à une décision d’achat en fait partie. Des explications plus précises
peuvent être trouvées dans GIANNELLONI J.-L., « Validation d’une échelle de mesure du niveau optimal de stimulation », Actes du
13e congrès de l’Association française de marketing, Toulouse, 1997, pp. 1011-1039.
390) Un exposé complet sur modération et médiation relèverait d’une optique recherche et sortirait du cadre de l’ouvrage. Voir
CHUMPITAZ-CACERES R. et VANHAMME J., « Les processus modérateurs et médiateurs : distinctions conceptuelles, aspects
analytiques et illustrations », Recherche et applications en marketing, 18, 2, 2003, pp. 67-100, pour une synthèse sur le cadre général
d’application de ces deux concepts et EL AKREMI A., « Analyse des variables médiatrices et modératrices par les méthodes
d’équations structurelles », in ROUSSEL P. et WACHEUX F., Management des ressources humaines, De Boeck, coll. « Méthodes de
recherche en sciences humaines et sociales », Bruxelles, 2005, pp. 326-348.
391) Rappel : la non-corrélation des résidus est une contrainte de l’analyse de régression et de l’analyse en facteurs communs et
spécifiques (voir chapitres 13 et 14).
392) Cette approche a également récemment suscité une abondante littérature : HAENLEIN M., « A beginner’s guide to PLS
analysis », Understanding statistics, 3, 4, 2004, pp. 283-297 ; HAIR J. F., RINGLE C. M. et SARSTEDT M., « PLS-SEM, indeed a
silver bullet », Journal of Marketing Theory and Practice, 19, 2, 2011, pp. 139-151 ; HAIR J. F., SARSTEDT M., RINGLE C. M. et
MENA J. A., « An assessment of the use of partial least squares structural equation modeling in marketing research », Journal of the
Academy of Marketing Science, Published online 07 june 2011, DOI 10.1007/s11747-011-0261-6.
393) Voir par exemple CRIÉ D., « De l’usage des modèles de mesure réflectifs ou formatifs dans les modèles d’équations
structurelles », Recherche et applications en marketing, 20, 2, 2005, pp. 5-27.
394) D’après HAIR J. F., RINGLE C. M. et SARSTEDT M., « PLS-SEM, indeed a silver bullet », Journal of Marketing Theory
and Practice, 19, 2, 2011, p. 144.
395) https://kdp.amazon.com/self-publishing/signin/189-1407689-8967513
\/|
396) NICHOLSON P., « Réconcilier les hommes d’études et les éditeurs », Revue française de gestion, no 61, janvier-février 1987,
$|
pp. 22-32.
4$
397) Interview de BARONNET J.-J. (B. Krieff Consulting Group), « À chacun son conseil », in Marketing Mix, no 54, juillet-août
1991, p. 32.
By
398) Interview de WILTHIEN P.H. (IREQ), « Les instituts de recherche vont-ils s’orienter vers le conseil ? », in Médias, no 316,
janvier 1991, p. 23.
399) Pour une présentation détaillée des diverses formes de graphiques et de schémas, se reporter à l’ouvrage de ZELANY G.,
Dites-le avec des graphiques, InterÉdition, 1989.
400) Le calcul des angles est donné par la formule suivante : angle i = 360o × (effectif de la modalité/effectif total). Par exemple,
pour la tranche 20-30 ans du parfum A : i = 360 × (62/189,5) = 117,8o.
401) DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis », Journal of
Marketing Research, février 1982, pp. 14-31.
402) BOJIN J. et DUNAND M., Dites-le avec des messages, Dunod, 1993.
404) http://www.slideshare.net.
405) Pour aller plus loin, voir par exemple : REYNOLDS G., Présentation Zen : pour des présentations plus simples, claires et
percutantes, Campus Press, 2008 ; GRANGE B, Réussir une présentation, Préparer des slides percutants et bien communiquer,
Eyrolles, 2009 ; DEBLIQUY P. Y., L’art de la présentation Powerpoint, Edipro, 2011.
406) http://www.dropbox.com/.
409) MOSCAROLA J., Enquête et analyse des données, Vuibert gestion, 1990, pp. 202-203.
410) LEMAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? », Revue française du
marketing, 1979/4, pp. 41-49.
411) LARRECHE J.-C. et MONTGOMERY D. B., « A framework for the comparison of marketing models : a Delphi study »,
Journal of Marketing Research, novembre 1977, pp. 487-498.
412) Interview de BRULE M. et LOMBARD E., « La relation client-société d’étude », Revue française du marketing, no 142-143,
1993/2-3, pp. 99-108.
413) VERNETTE É., « L’efficacité des instruments d’études », Recherche et Applications en marketing, vol. 6, 1991, no 2, p. 46.
414) Rapport du Syntec-études, « Le marché des études en 1990 », Marketing-Mix, no 59, février 1992, p. 7.
415) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, op. cit., 1991/4, p. 41.
416) DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager perceptions of market
research use », Journal of Marketing Research, février 1984, pp. 32-38.
417) DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis », Journal of
Marketing Research, février 1982, pp. 14-31. \/|
418) DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager perceptions of market
$|
research use », op. cit., février 1984, pp. 32-38.
4$
419) MOORMAN C., DESPHANDE R. et ZALTMAN G., « Factors affecting trust in market research relationships », Journal of
Marketing, janvier 1993, pp. 81-101.
By
420) MOORMAN C., DESPHANDE R. et ZALTMAN G., « Relationships between providers and users of market research : the
dynamics of trust within and between organisations », Journal of Marketing Research, août 1992, pp. 314-328.
Cette œuvre est protégée par le droit d'auteur et strictement réservée à l'usage privé du client. Toute reproduction ou diffusion au
profit de tiers, à titre gratuit ou onéreux, de tout ou partie de cette œuvre, est strictement interdite et constitue une contrefaçon prévue
par les articles L.335-2 et suivants du Code de la Propriété Intellectuelle. L'éditeur se réserve le droit de poursuivre toute atteinte à ses
droits de propriété intellectuelle devant les juridictions civiles ou pénales…
© Magnart-Vuibert – 2015
\/|
$|
4$
By