Académique Documents
Professionnel Documents
Culture Documents
des ressources
humaines
Méthodes de recherche
en sciences humaines et sociales
La collection Méthodes & Recherches poursuit un double objectif :
• présenter en langue française des états de l’art complets sur des
thèmes de recherches contemporains mais également pratiques,
d’intérêt et de niveau international.
• réunir des auteurs et des lecteurs de divers champs disciplinaires
(économistes, gestionnaires, psychologues et sociologues) et les
aider à communiquer entre eux.
Management
des ressources
humaines
Méthodes de recherche
en sciences humaines et sociales
Pour toute information sur notre fonds et les nouveautés dans votre
domaine de spécialisation, consultez notre site web : www.deboeck.com
Imprimé en Belgique
Chacun reconnaîtra que « tout ce qui est humain n’est pas totalement
compréhensible ». Mais tout chercheur en management et en gestion des ressources
humaines consacre son énergie à cette quête. Qu’on la nomme variance inexpliquée
dans les démarches quantitatives ou la part d’indicible dans les approches qualitati-
ves, les ambitions des projets de connaissance se ressemblent. Pendant longtemps,
les différences épistémologiques ont structuré les oppositions. Aujourd’hui, il est
temps de les dépasser pour construire un savoir actionnable dans les organisations,
terrain d’investigation des recherches en management et gestion des ressources
humaines, et de cumuler réellement les connaissances relatives à leurs pratiques.
Quel que soit le moment de la construction des connaissances, il existe tou-
jours une phase d’intuition et une phase de certification. Les allers-retours entre
l’exploration quantitative et la sensibilité qualitative sont, de fait, complémentaires à
l’émergence des savoirs. Il est nécessaire pour tout chercheur d’exposer dans quelle
logique de recherche et dans quel référent il s’inscrit. Même si la réflexion méthodolo-
gique provoque chez lui le sentiment d’être mis à nu. Peu l’acceptent. Pourtant la
validité et la fidélité supposent l’exposé des intentions et des motifs sociaux à l’ori-
gine de la recherche. Dès lors, la justification des méthodes de recherche employées
devient une nécessité, de même que l’acceptation de l’analyse critique, qui contribue
à l’examen de la validité des résultats d’une étude.
Cet ouvrage est construit pour apporter des réponses aux interrogations des
chercheurs et des utilisateurs de méthodes scientifiques (étudiants, experts et techni-
ciens en sciences humaines et sociales). Certes, toutes les questions épistémologi-
ques et méthodologiques ne seront pas résolues par les contributions des auteurs de
cet ouvrage. Mais chacun d’entre eux montre, dans son domaine, les avancées, les
doutes et les certitudes sur lesquels d’autres peuvent imaginer et construire un projet
de connaissance fécond.
Cet ouvrage peut apparaître atypique. Rassembler des contributions qualitati-
ves et quantitatives dans un même livre n’est pas banal dans la recherche franco-
phone en management des ressources humaines. C’est parce que nous pensons qu’il
est temps de reconnaître la diversité des positionnements épistémiques et des
6 Management des ressources humaines
moyens d’accéder au réel, que nous pourrons mieux comprendre et agir sur les prati-
ques de recherche. Les démarches par les chiffres ou par les mots s’enrichissent
mutuellement. La fécondité des recherches est souvent le résultat d’une délibération,
au sens de Ricœur 1, entre la volonté de certifier par une validation statistique et une
volonté d’expliquer par le sens.
Les différentes contributions à cet ouvrage ont toutes un point commun : la
volonté d’apporter des réponses aux difficultés rencontrées au quotidien par les cher-
cheurs (ou toute personne conduisant des études dans ou sur les organisations). Cha-
cun des auteurs a l’ambition d’exposer sa pratique et son expérience de la
compréhension de l’action organisée en entreprise. Bien sûr, il est difficile de resti-
tuer par des mots un vécu et une attitude de compréhension, mais les points de
repère et les développements proposés par les auteurs permettront au lecteur de
construire une démarche de recherche scientifique, à partir de la position épistémolo-
gique dans laquelle il s’inscrit.
La présentation didactique des méthodes de recherche exposées dans l’ouvrage
vise à répondre aux attentes des chercheurs — étudiants, experts et techniciens —
en management et en gestion des ressources humaines, mais également, à ceux
d’autres domaines de la gestion, comme le marketing, la finance comportementale, la
finance d’entreprise, la stratégie, les systèmes d’information, l’audit comptable, etc.
De plus, les lecteurs venant d’autres champs disciplinaires des sciences humaines et
sociales, notamment de la psychologie et de la sociologie du travail et des organisa-
tions, mais aussi des sciences de la vie, en santé et en médecine, trouveront dans les
chapitres de l’ouvrage des travaux particulièrement utiles pour la conduite de leurs
programmes de recherche.
Cette large ouverture révèle l’importance des transferts de connaissances entre
champs disciplinaires. Ils permettent un enrichissement mutuel grâce aux partages de
savoir, savoir-faire et savoir-être dans l’utilisation de méthodes, de techniques et
d’outils de recherche. En croisant les résultats d’expériences méthodologiques de mul-
tiples champs disciplinaires, la qualité de la recherche dans l’ensemble des disciplines
se trouve confortée. C’est la raison pour laquelle les auteurs de l’ouvrage viennent
d’horizons différents : gestion des ressources humaines, management, stratégie,
finance d’entreprise, marketing, psychologie, psychométrie, statistiques, sociologie.
Cette large ouverture des thèmes méthodologiques exposés, l’origine discipli-
naire variée des auteurs, l’esprit didactique de la rédaction des chapitres, les
réflexions critiques de fond sont autant d’objectifs que les éditeurs de l’ouvrage ont
voulus. Car l’ambition de ce projet vise à donner accès aux avancées les plus récentes
en matière de méthodes de recherche, aux étudiants de fin de cycle universitaire, aux
chercheurs, aux experts et techniciens qui conduisent des études dans les entreprises
(services ressources humaines, marketing, veille stratégique, systèmes d’information,
etc.), les cabinets conseils, les instituts d’études privés, et dans les institutions
publiques (services statistiques, de veille et de développement des ministères ; orga-
nismes publics d’études et de statistiques).
1 Paul Ricœur a défendu tout au long de son œuvre l’idée d’une possible sagesse pratique par la
mise en débat dans différentes instances afin de parvenir à un jugement avisé (c’est l’idée de phrone-
sis, qui traverse l’œuvre du philosophe).
Introduction 7
variables, utilisées dans les phases préparatoires aux tests de modèles d’équa-
tions structurelles.
■ Patrice Roussel, François Durrieu, Éric Campoy, Assaâd El Akremi, dans le
chapitre 11, développent une démarche méthodologique complète de test de
modèles d’équations structurelles.
■ Assaâd El Akremi, dans le chapitre 12, expose les méthodes et les techniques
de tests d’effets non linéaires à partir du traitement de variables médiatrices
et modératrices avec des méthodes d’équations structurelles.
■ Éric Campoy et Marc Dumas, dans le chapitre 13, apportent une contribution
importante à la compréhension des démarches longitudinales en montrant leur
mise en œuvre avec des méthodes d’équations structurelles.
■ François Durrieu et Pierre Valette-Florence, dans le chapitre 14, montrent
l’apport des recherches en marketing par la présentation des dernières avan-
cées en matière d’études typologiques exploratoires et confirmatoires.
La conclusion de l’ouvrage propose des ouvertures épistémologiques. Plusieurs
auteurs réagissent sur les différents chapitres de l’ouvrage. Ils apportent une vision
critique qui enrichit le débat et permet la contradiction pour prolonger les réflexions
sur les apports et les limites des méthodes de recherche présentées.
Jacques Igalens, Jean-Pierre Neveu et Jacques Rojot proposent une réflexion
dense, consacrée à la posture du chercheur en management et gestion des ressources
humaines. Ils examinent plusieurs chapitres du livre afin de mettre en perspective les
méthodes de recherche exposées au regard d’une réflexion épistémologique et criti-
que.
L’ensemble des chapitres de l’ouvrage ne prétend pas représenter toutes les
méthodes de recherche existantes, ni systématiquement les plus avancées. La logique
adoptée dans l’ouvrage est d’exposer les méthodes contemporaines parmi les plus uti-
lisées dans les recherches en management et gestion des ressources humaines. Cela
signifie que les chapitres proposés exposent les méthodes qui ont connu des évolu-
tions importantes dans une période récente, qui sont régulièrement utilisées dans les
articles publiés dans les revues scientifiques et dans les programmes de recherche
doctoraux ou de laboratoires universitaires. Cela signifie enfin que les méthodes
« classiques », largement exposées dans les ouvrages antérieurs et n’ayant pas reçu
de contributions nouvelles significatives ne sont pas reprises.
Les auteurs espèrent que cet ouvrage permettra de prolonger un débat engagé
depuis plusieurs années sur une approche réflexive des méthodes de recherche. Il faut
aujourd’hui codifier les démarches de recherche pour progresser. L’ouvrage souhaite
ainsi contribuer à cette réflexion pour aller plus avant dans la validité des postures,
des méthodes, des techniques d’analyse des données et de restitution des résultats,
afin d’engager un véritable processus de cumulation de connaissances en sciences de
gestion.
Patrice ROUSSEL
Frédéric WACHEUX
Chapitre 1
Compréhension, explication
et action du chercheur dans une
situation sociale complexe
Frédéric WACHEUX 1
Sommaire
1 Accéder aux situations sociales 11
3 Expliquer et proposer 20
Peut-on encore innover dans les méthodes qualitatives ? Certes non, l’observa-
tion du réel, la construction d’un corpus, les analyses et l’interprétation suivent des
schèmes éculés et validés par la plupart des sciences sociales. L’intelligence du cher-
cheur, plus que les outils d’analyse qu’il utilise, lui facilite la compréhension d’un
environnement social complexe, tel qu’on le trouve dans les organisations.
Aujourd’hui, les méthodes qualitatives tendent à se formaliser. Les outils sont de plus
en plus en résonance avec le pragmatisme de James. Cependant, il ne faut pas con-
fondre le formalisme et la procédure. Si les méthodes quantitatives s’arrangent d’une
rationalité imposée par les modèles statistiques, les approches compréhensives sup-
posent une démarche de focalisation progressive sur un objet pour faire émerger le
sens.
On ne peut se limiter à une quête factuelle dans les sciences sociales. La quête
du sens, théorique et social, doit structurer la démarche. Ce chapitre tente donc de
montrer un spectre méthodologique enseignable à partir duquel le chercheur peut
organiser son processus de compréhension des situations sociales locales. Il met
l’accent sur les difficultés d’accès au réel, la nature de l’observation et la construction
explicative. Toutefois, il s’agit d’un idéal type à partir duquel chaque chercheur ima-
gine concrètement ses actes. Aucune recherche qualitative ne ressemble à une autre.
Si les outils d’analyse peuvent être standardisés (entretien, observation, analyse de
contenu, …), un processus de recherche contrôlé est le meilleur garant de la validité.
Ce ne sont pas les résultats qui sont scientifiques, mais la démarche adoptée pour les
produire.
Les idées défendues ici sont simples. Elles s’articulent autour de trois postulats
épistémologiques à la base des démarches constructivistes. Il faut les adopter pour
accepter les raisonnements suivants.
■ La réalité est construite et non donnée. Toute situation sociale est en perpé-
tuel devenir par les actes, les faits et l’attribution de sens par les acteurs,
comme par les chercheurs, actualisée dans l’instant. Les invariants ne sont que
la forme idéelle de l’instantanéité. Il est donc fondamental de comprendre les
processus pour analyser la structuration d’une situation.
Accéder aux situations sociales 11
■ La théorisation n’est pas une finalité mais un moyen. Les concepts permettent
un encodage provisoire des situations ou des propositions d’expérience. Celles-
ci peuvent être ad hoc sur un contexte local, de moyenne portée sur des con-
textes parents ou des conjectures dans l’attente d’une traduction.
■ Le chercheur est un médiateur entre une réalité complexe abstraite et une
théorisation dédiée à l’interprétation ou la constitution de connaissances. Il a
donc pour mission de confronter les faits et les concepts pour proposer une
explication qui fait sens pour les acteurs et la communauté scientifique.
Dans l’entreprise, les acteurs sont engagés dans un tissu de relations sociales,
une distribution des rôles, pour une finalité plus ou moins explicite. Lorsque le cher-
cheur arrive dans ce contexte, très largement structuré, il est normal qu’il se heurte à
des incompréhensions, des résistances. Comment accepter ce regard extérieur, perçu
comme « inquisiteur », sur les pratiques, le comportement, l’efficacité des pratiques ?
Les premiers moments de la présence en entreprise sont essentiels à la réussite de
l’observation. C’est banal de dire qu’il faut établir une relation de confiance avec les
acteurs. Il est évident de rappeler qu’il faut rédiger un contrat. Mais, c’est plus inno-
vant d’affirmer que le chercheur doit nécessairement apporter une plus-value aux
acteurs pour qu’ils acceptent son regard et le légitiment. Cette plus-value peut
d’ailleurs prendre de multiples formes : retours d’expériences, préconisations managé-
riales, interventions en responsabilité.
Tous ceux qui réussissent à nouer une relation mutuellement profitable recon-
naîtront qu’alors les données sont d’une fidélité et d’une qualité incomparables, lors-
que les acteurs attendent les résultats de la recherche. La réflexion en méthodologie a
pour vocation d’imaginer des méthodes pour garantir le processus scientifique d’une
démarche de recherche interactive avec les acteurs. Depuis plusieurs années, de nom-
breux auteurs nous ont apporté ces méthodes. Aujourd’hui, l’étude de cas semble faire
l’objet d’un consensus dans la communauté scientifique pour garantir la validité théo-
rique et l’intérêt gestionnaire des recherches qualitatives.
des rationalisations a posteriori. Les dirigeants acceptent de parler quand les déci-
sions sont appliquées, lorsqu’il n’y a plus d’ambiguïté, ni d’incertitudes ou d’enjeux.
Dans ces analyses, les stratégies apparaissent rationnelles. Alors qu’a priori ou dans
l’instant, elles sont relationnelles. L’analytique prend le pas sur l’émotionnel et les
errances de l’approximation.
Les méthodes qualitatives donnent l’opportunité de la compréhension par un
effort structuré d’observation et d’empathie aux situations. Bien sûr, la simple obser-
vation, ou la présence, ne permet pas la compréhension. L’argument défendu ici se
résume par une idée simple. Le chercheur présent en entreprise peut constater des
faits, interagir avec les acteurs, conceptualiser en actes. Cette méthode de production
des données donne un corpus original qu’aucune autre démarche ne peut faire émer-
ger.
Cependant, cette relation ne s’établit pas de manière naturelle et immédiate.
Le chercheur doit avoir la volonté de la construire. Les acteurs ont naturellement
une connaissance immédiate de leur situation (savants ordinaires), et ils ne
comprennent pas souvent l’intérêt d’être engagé dans une démarche de recher-
che (primat de la praxis). Cette situation est confortée par le fait, qu’au début du
processus empirique, le chercheur a plutôt une attitude d’empathie naïve pour
apprendre et comprendre avant de proposer, puisque c’est l’objet même de son explo-
ration. Dès les premières rencontres, il faut montrer la nature des résultats suscepti-
bles d’être établis, accepter d’expliquer la nature des objectifs de la recherche pour
avoir une chance d’impliquer les praticiens dans la production de connaissances théo-
riques.
C’est aussi de cette manière que l’on a une chance de comprendre les phéno-
mènes de reliance (selon le concept de Maffesoli, 1979). C’est-à-dire l’ensemble des
liens non structurés entre les acteurs d’un système social. « Le caractère de préstruc-
turation symbolique de l’objet des sciences sociales : non seulement le sociologue
développe nécessairement ses analyses dans un contexte de signification déjà consti-
tué dans la communication intersubjective, mais le comportement social des individus
est lui aussi toujours le résultat d’une précompréhension symbolique du réel »
(Crespi, 1983).
14 Compréhension, explication et action du chercheur
2 C’est-à-dire un raisonnement par principes positifs qui nie le sens et les intuitions des acteurs
en situation.
3 Au sens de Glaser et Strauss.
Accéder aux situations sociales 15
ENCADRÉ 1.1
Risques pendant le processus d’observation
L’étude de cas suppose une présence longue sur le terrain afin de se position-
ner dans une situation d’intermédiation, entre un rôle d’acteur et un rôle d’observa-
teur. Dans cette position, le chercheur élabore progressivement une rationalité
explicite qui agence les spécificités du terrain et le cadre théorique. L’analyse de
l’environnement social de proximité et des détails de la vie quotidienne dans l’organi-
sation se nourrit de ce paradigme. On est quelquefois surpris de la naïveté de certai-
nes recherches quantitatives, lorsqu’une relation causale singulière est supposée
signifier une réalité complexe, qui plus est généralisable. La richesse des méthodes
interactives résulte de la prise en compte des théories implicites des acteurs dans le
processus de compréhension et de la spécificité du contexte dans lequel elles se cons-
truisent.
Fondamentalement, « le monde social ne se réduit pas aux représentations que
s’en font les agents » (Blin, 1995). Par conséquent, les données recueillies par une
étude de cas apportent des informations originales par rapport aux questionnements
directs et indirects des acteurs. « On ne peut pas étudier les hommes comme des
botanistes. » (Laplantine, 1987.) Il faut échanger avec eux et partager leur quotidien
durablement pour pouvoir, peut-être, accéder au sens des situations. C’est le constat
ethnologique. Pour comprendre un phénomène, le chercheur doit s’intégrer, sociale-
ment et objectivement dans un contexte organisationnel, grâce à sa maîtrise du théo-
rique.
L’observation directe par la présence en entreprise permet de s’imprégner des
thèmes obsessionnels d’une société, selon Laplantine (1987). En étant impliqué dans
un rôle participant, le chercheur a plus de chances de pouvoir restituer aux acteurs
leur savoir, leurs savoir-faire et les encoder abstraitement. On a une meilleure con-
naissance des choses que l’on vit. Il est plus facile de les appréhender intrinsèque-
ment parce qu’une multitude de sens sont mobilisés (a posteriori, comme a priori dans
l’acte). Même si ces impressions subissent des perturbations cognitives et que les
souvenirs s’estompent rapidement par les équilibrations successives.
De fait, il restera toujours un état de sensibilité kantien qu’un chercheur
peut faire émerger avec une assistance et grâce à un exercice phénoménologi-
que. Dans les sciences de gestion, comme pour la plupart des sciences sociales, les
faits recueillis sont marqués par la thèse de la « contamination » chère aux épistémo-
logues contemporains 4. Il faut donc revenir à des objectifs réalistes de la connais-
sance des situations humaines : décrire, expliquer, prescrire ; et non s’enfermer dans
la quête d’une naturalisation théorique globalisante.
L’argument de la confrontation synchrone entre le fait et le concept, de la pos-
sibilité de tester les théories en actes et l’opportunité de chercher les faits signifiants
constituent un avantage déterminant des méthodes qualitatives. Les méthodes quan-
titatives asynchrones font précéder l’empirique par le théorique. Au moment des
entretiens, les mots des acteurs évoquent des concepts et restituent des théories
4 La contamination correspond au principe que les faits observés sont nécessairement empreints
de concepts. L’objectivité, au sens étroit des empiristes positivistes, est un non-sens social.
Observer, comprendre, analyser 17
implicites. Le chercheur doit alors provoquer un discours, sans cesse équilibré par un
théorique en résonance avec les représentations de l’acteur. Le corpus est donc d’une
qualité et d’une précision empirique sans équivalent.
Au début de la présence Être empathique pour comprendre Donner à voir pour susciter
l’identité et la structuration de l’engagement des acteurs dans
la situation observée. la recherche.
Lors la phase intensive Prévenir tout transfert sur le chercheur Susciter la révélation des faits par de la
d’observation pour un autre motif que l’observation. quasi-expérimentation, même verbale.
À la terminaison Impliquer les acteurs dans l’interpréta- Redonner un statut explicatif majeur
de l’observation tion des faits à partir de leurs théories aux théories et engager une distanciation
implicites. par l’abstraction.
Pour la restitution des résultats Montrer l’apport d’une analyse théori- Traduire dans un langage pragmatique
que pour l’agir en organisation. pour faciliter l’appropriation.
Néanmoins, dans une approche par étude de cas, il existe trois limites indépas-
sables (Mucchielli, 1988) :
■ L’observateur est localisé dans l’espace et le temps. La problématique de
recherche sera donc limitée par ce qu’il est possible de « voir » ou de reconsti-
tuer.
■ Les moyens d’observation sont imprécis (physiques et mécaniques). La produc-
tion de données est toujours validée par une triangulation.
5 Selon les concepts de Norbert Elias, particulièrement adaptés à l’attitude du chercheur sur son
terrain.
6 Cité par Hamel et al. (1991).
18 Compréhension, explication et action du chercheur
Trop souvent les chercheurs croient que la simple attention à une situation
permet de découvrir une structure de sens à la base de propositions théoriques, voire
de modélisations. Il ne suffit pas d’écouter pour entendre, il ne suffit pas d’entendre
pour comprendre. Aux deux étapes, les effets déformants doivent êtres contrôlés par
la méthode. Les précautions prises par le chercheur dans son protocole de recherche
le distinguent sans ambiguïté de tous ceux qui s’intéressent à l’action managériale.
Or, le management est souvent normatif dans le discours et très empirique dans
les pratiques. Les théories ne sont pas a priori dans les phénomènes, en tout cas, pas
sous une forme immédiatement perceptible. Et les événements ne sont jamais totale-
Observer, comprendre, analyser 19
La volonté de comprendre les praxis dans leur complexité rend difficile toute
tentative de modélisation. Le risque d’une conceptualisation ad hoc, et d’une généra-
lisation arbitraire guette toute recherche compréhensive ou constructiviste. C’est
pour cette raison qu’une démarche empirique contextuelle se donne explicitement
comme finalités d’expliquer les situations par du théorique et de conceptualiser pour
permettre à d’autres de produire des abstractions de moyenne portée. Le constructi-
visme, c’est aussi les allers-retours permanents entre les concepts de niveaux de vali-
dité différents.
7 Selon la position de Glaser et Strauss (1967), les critères sont la saturation des concepts, la
complétude et l’acceptation.
8 Le sens du mot conatif n’est pas repris dans l’acception traditionnelle des linguistes. Il exprime
plutôt la simulation d’une discussion entre les faits et les théories, telle qu’elle a été exposée dans
une communication avec K. Kahla (1996).
20 Compréhension, explication et action du chercheur
L’objectif est la traduction des connexions subjectives dans des propositions d’expé-
riences, selon les deux catégories de la philosophie kantienne (Tableau 1.2).
Le moment où le chercheur réapprend à dire « je » se matérialise par l’objet de
l’explication et des propositions. À ce moment, la construction d’un discours théorisé
tente de linéariser par des mots la complexité d’une situation.
La rectification Une formalisation progressive de la problé- Une volonté de prendre en compte l’ensemble
matique au contact du terrain, à partir d’une des dimensions du problème théorique dans un
théorisation provisoire. contexte particulier et de le préciser grâce aux
interactions constructives avec les acteurs.
Le principe d’intelligence Le travail empirique passe progressivement L’interaction avec les praticiens autorise l’inté-
partagée d’une observation naïve des faits à une véri- gration dans l’analyse des connaissances « pré-
table analyse, avant de parvenir à une cons- et quasi scientifiques » des acteurs portant sur
truction explicative. les problèmes qu’ils vivent quotidiennement.
Le principe d’enregistrement Pendant la présence sur le terrain, les échan- Le chercheur confronte les qualités sensibles de
systématique ges avec les acteurs, le travail sur documents l’objet à ses intuitions et mobilise des concep-
et l’observation passive sont systématique- tualisations pour les préciser.
ment enregistrés, codifiés et classés dans le
dictionnaire des thèmes.
Le principe de créativité Les observations permettent d’accumuler des La discussion ne concerne pas la validité des
analytique faits et des microanalyses pour l’explication résultats, mais la fidélité du processus de
et l’abstraction de premier niveau. Ils sont recherche et la capacité à expliquer les situa-
sans cesse réinterprétés. tions.
Le principe de refiguration La représentation sera toujours un artefact La construction explicative concorde avec un
démonstrative susceptible d’expliquer le contexte. Le cher- principe d’organisation des données pour figu-
cheur s’assigne l’objectif de réduire les don- rer la réalité et un principe poïétique pour con-
nées pour les catégoriser dans une vaincre de la fécondité des résultats.
description séquentielle.
Le principe de la preuve L’entendement kantien fonde les critères de Les critères classiques d’acceptation interne et
« ostensive » validité des démarches qualitatives : « c’est externe, de complétude et de saturation des
le pouvoir de produire des représentations » concepts traduisent en pratique l’exigence de
pour ordonner les autres représentations. penser l’objet par les intuitions sensibles, puis
de convaincre par la démonstration.
TABLEAU 1.2 – Six principes adoptés pour conduire les études de cas
3. Expliquer et proposer
Que faire, comment faire, face à des données volumineuses, quelquefois con-
tradictoires et enveloppant la problématique sans la dévoiler ? Dans le secret de son
laboratoire, noyé sous des milliers de pages de mots, le chercheur qualitatif envie les
certitudes de son collègue quantitatif sur la croyance d’une réduction objective des
Expliquer et proposer 21
9 Un corpus est un ensemble de données brutes recueillies méthodiquement dans un but précis, en
l’occurrence la problématique de recherche.
22 Compréhension, explication et action du chercheur
Référents Exemples
Idéologique Les discours managériaux, à vocation supposée prescriptive pour visualiser une vision
collective
Social Les outils de gestion, supposés représenter de manière homothétique une réalité cons-
truite et référentielle
Technique Les interactions programmées par la structure formelle que les acteurs s’approprient
plus ou moins
Matériel / Physique Le dispositif spatio — temporel à l’intérieur duquel les acteurs interviennent et intera-
gissent
Refiguration L’induction naïve fait office de Les faits sont par essence les Reconstruire le réel et
modélisation symptômes d’une réalité supposer le mimer par le
révélée théorique
Transfiguration Le sens émerge de la Les observations sont des Construire le réel autour
confrontation permanente indices à interpréter d’une abstraction explicative
entre l’observé et le pensé
Le statut des énoncés, tout comme les sens communs sur l’organisation, res-
tent souvent indéterminés. La multiplication des discours, sans logique de conti-
nuité 13, rend difficile la compréhension des différents domaines de recherche, l’état
des préoccupations et des connaissances à un moment donné. Souvent, le statut
scientifique d’un discours est acquis par une reconnaissance des pairs grâce à des
mécanismes auto-référentiels de cocitations (Latour, 1995). Les chercheurs sont des
producteurs de téléologie, dans l’attente d’une validation communautaire. Refigura-
tion, transfiguration ou défiguration sont légitimes, en fonction des objectifs de
recherche et de l’épistémologie dans laquelle elle s’inscrit.
Les sciences humaines, donc les sciences de gestion, s’alimentent aux mots
des acteurs, même s’ils sont contraints par un questionnement structuré. Les hommes
sont doués de raison, d’intentions multiples, de mécanismes de résistance, de contra-
dictions. On ne peut pas pré-supposer que leurs « dire » ne sont pas emprunt d’autre
chose que du vécu. On ne peut pas croire à l’objectivité sélective d’un chercheur qui
entend les « dire » des acteurs. Enfin, on peut douter que les outils et les instru-
ments, qualitatifs ou quantitatifs, figurent le réel à l’identique, sans erreur de mesure,
de représentation ou d’interprétation. Par conséquent, il ne faut pas s’accrocher à un
idéal scientifique d’objectivité, mais accepter de travailler avec ces approximations
pour construire des explications théoriques fécondes à la compréhension et à l’action.
Reste de nombreuses difficultés méthodologiques, encore difficiles à dépasser
aujourd’hui :
■ L’ambivalence entre le discours et l’action dans les pratiques organisationnel-
les. Les acteurs construisent beaucoup de théories implicites de l’action qu’ils
médiatisent par des mots.
■ L’articulation entre une réalité connaissable et un concept supposé signifiant.
Les concepts sont des abstractions à traduire pour l’observation.
■ La combinaison entre les savoirs pratiques et les savoirs théoriques. Les
savoirs pratiques s’expriment dans une rationalité différente des concepts.
Structuration Description et
des représentations interprétation
Beaucoup de théories sont des artefacts qui refigurent la réalité. Il s’agit donc
de construits qui ne sont pas immédiatement perceptibles dans les situations (par
exemple : les compétences fondamentales, la motivation, …). De toute façon, les
études montrent que les individus appréhendent le sens plutôt dans l’ordinal que le
métrique (Moles, 1990). La construction théorique d’une étude de cas doit alors dis-
cuter les six catégories proposées par Strauss (1995) : l’abstraction, l’étendue, le
28 Compréhension, explication et action du chercheur
Bibliographie
Adam J.-M. et Revez F., Analyse des récits, Seuil, 1996.
Atkinson P. & Coffey A., Making Sense of Qualitative Data, Sage, 1996.
Aubusson P., « Using Metaphor to Make Ense and Building Theory in Qualitative
Analysis », The Qualitative Report, vol. 7, n° 4, 2002 (www.nova.edu/ssss/QR/QR7-4/
aubusson.html).
Ben Kahla K. et Wacheux F., « De l’organisation de la théorie à la théorie des
organisations : vers un positivisme raisonné », Méthodes qualitatives et gestion des
resources humaines, Lille, 1996.
Berry M., « Savoirs théoriques et gestion », Savoirs théoriques et savoirs d’actions, PUF,
1998, pp. 43-56.
Besnier J.M., Les théories de la connaissance, Flammarion, 1992.
Blaikie N., Approaches to Social Enquiry, Polity Press, 1993.
Blanchot F., « La connaissance objective de Karl Popper : Principales thèses et apports
pour les recherches en gestion », FCS, vol. 2, n° 3, septembre 1999, pp. 25-62.
Boyatzis R., Transforming Qualitative Information, Sage, 1998.
Chermack T.J. et van der Merwe L. (2003), « The role of constructivist learning in sce-
nario planning », Futures, vol. 35, n° 5, pp. 445-460.
Clegg S. et Hardy C. (editors), Studying Organization, Sage, 1999.
Coulon A., L’ethnométhodologie, PUF, 1987.
Crespi F., Médiation symbolique et société, Librairie des Méridiens, 1983 (Édition ita-
lienne 1982).
Czarniawska B., A Narrative Approach to Organization Studies, Sage, 1998.
Denzin N. et Lincoln Y., Handbook of Qualitative Research, 2e édition revue, Sage, 2000.
Dosse F., « Paul Ricœur révolutionne l’histoire », Revue Espace Temps, n° 59, 1995,
pp. 6-26.
Elias N., Engagement et distanciation, Fayard, 1983.
Glaser B. et Strauss A., The Discovery of grounded Theory, Strategies for Qualitative
Research, Aldine Publishing company, 1967.
Glassner B. et Hertz R. (editors), Qualitative Sociology as Every Life, Sage, 1999.
Grize J.-B., « Savoirs théoriques et savoirs d’action : point de vue logico discursif »,
Savoirs théoriques et savoirs d’action, PUF, 1998, pp. 119-129.
Hall J., History of Qualitative Methods, University of California Davis, 2001.
Bibliographie 29
Strauss A., « Notes on the Nature and Development of General Theories », Qualitative
Inquiry, vol. 1, n° 1, 1995, pp. 7-18.
Chapitre 2
Anne GOMBAULT 1
Sommaire
3 Conclusion 61
2 Park (1915) invitait ses pairs à quitter la bibliothèque, à sortir des articles et des livres, pour
voir l’expérience humaine en construction. Il écrivait ainsi : « Go and sit in the lounges of the luxu-
rious doorsteps of the flophouses ; sit on the Gold Coast settes and on the and on the slum
shakedowns ; sit in the Orchestra Hall and in the Star and Garter Burlesque. In short, get the seats of
your pants dirty in real research. »
La méthode des cas : une stratégie privilégiée d’accès au réel 33
La méthode des cas est souvent classée et pensée comme stratégie de recher-
che à but exploratoire, suivant une logique constructiviste ou interprétative, qualita-
tive, inductive. À raison : elle est communément mise en œuvre de cette manière
« qui lui va si bien ». Mais aussi à tort : l’étude de cas présente différentes variantes
moins connues pourtant fort intéressantes (Hlady Rispal, 2002). La nature de l’étude
de cas dépend en fait du plan de recherche dans lequel elle s’inscrit, dit encore cane-
vas de recherche ou research design (Yin, 1990).
Le plan de recherche est fondé sur la problématique ou question de recherche
qui appelle 4 plusieurs choix méthodologiques : l’objectif de la recherche et la logique
de la recherche qui comprend le positionnement épistémologique, la démarche d’ana-
lyse et de production des données. La question de recherche n’est pas autre chose,
comme cette dénomination l’indique, qu’un questionnement. Il se structure potentiel-
lement autour de trois composantes (Hlady Rispal, 2002) : au minimum un point cen-
tral ou fil directeur (Mintzberg, 1979), par exemple la définition du domaine de
recherche ou directement une question centrale ; puis éventuellement, en fonction de
la théorie préexistante, des propositions ou hypothèses définissant clairement la
question centrale, guidant le chercheur de façon déterminante ; enfin souvent des
questions complémentaires venant préciser ou enrichir la question centrale, notam-
ment dans les études de cas descriptives et exploratoires. En outre, les épistémologies
familières des méthodes qualitatives admettant généralement une progression simul-
tanée des axes de recherche, de la production des données et de l’analyse (Bryman et
Burgess, 1994), le projet de recherche et la problématique peuvent évoluer pendant la
réalisation. La problématique peut ainsi se construire, ou bien changer même, au con-
tact du terrain, dès lors qu’un point central permet d’initier la recherche ; sans lui, en
effet, la recherche n’aurait pas de sens (littéralement) et le chercheur serait submergé
par le volume des données (Mintzberg, 1979).
En fonction de la problématique définie, l’étude de cas peut alors indifférem-
ment servir des objectifs exploratoire, descriptif, explicatif et/ou confirmatoire. Quels
que soient ses objectifs, son ambition doit toujours rester compréhensive. Le posi-
tionnement épistémologique ou paradigme théorique (Guba et Lincoln, 1982), en
soubassement des choix méthodologiques, peut être constructiviste, interprétativiste,
réaliste, post-moderne… ou positiviste. Y a-t-il un paradigme théorique meilleur
qu’un autre ? Non, a priori, puisqu’il dépend de la problématique et de l’objectif de la
recherche. Cependant, force est de reconnaître qu’il est difficile de tenir une position
purement positiviste dans la méthode des cas, car les prescriptions de sa réalisation 5
sont largement d’inspiration constructiviste : le contexte peut difficilement être
appréhendé autrement que par un couple sujet-objet régi par l’échange, qui produit la
réalité (Berger et Luckmann, 1966). Vient ensuite la démarche d’analyse déployée
dans l’étude de cas qui peut être inductive, déductive, itérative, abductive… Se pose
à cet endroit la question de la place de la théorie. Dans la seule démarche inductive,
la théorie n’est mobilisée qu’après avoir produit les données empiriques, mais sans
qu’il soit jamais possible de faire parfaitement abstraction de ses connaissances ni de
se départir, pour engager l’étude de cas, d’un minimum d’idées rationnelles et de
directions liminaires ; même dans l’étude de cas exploratoire, qui utilise souvent cette
démarche, il faut bien savoir avant de partir sur le terrain, à l’instar de Christophe
Colomb, ce qui doit être exploré, le propos de l’exploration, et les critères au regard
desquels l’exploration pourra être jugée intéressante. Dans les autres démarches, la
théorie intervient toujours avant la production des données empiriques qu’elle oriente
par un schéma conceptuel, puis éventuellement pendant et après. Appuyé sur la défi-
nition préalable de la question de recherche et sur une revue détaillée de la littéra-
ture, le schéma conceptuel expose, de manière graphique ou narrative, les principaux
éléments à étudier — facteurs clés, construits ou variables — et leurs liens présu-
més. Ensuite, les données recueillies dans l’étude de cas peuvent être strictement
qualitatives ou mixtes, c’est-à-dire pour partie qualitative (le contexte ne peut être
appréhendé exclusivement par des données quantitatives) et pour partie quantitative.
De même, le traitement des données peut être purement qualitatif (analyse qualita-
tive de données qualitatives, Paillé, 1996 ; Mucchielli, 1996) ou mixte (analyse quan-
titative de données qualitatives). La logique de recherche ainsi définie peut être
précisée par l’inscription du travail dans un ou plusieurs types d’études. Par exemple,
une recherche qualitative inductive peut relever de l’approche clinique, de l’ethnomé-
thodologie, de l’ethnographie…. Ou de la grounded theory (Glaser et Strauss, 1967)
de laquelle elle est souvent rapprochée. L’idée de « la théorie enracinée dans les
faits » centrée sur une approche de terrain, visant la production d’une théorie relative
à un phénomène étudié, semble proche de l’étude de cas, mais il faut pourtant, selon
nous, bien la différencier : la grounded theory est une logique de recherche que
l’étude de cas déploie effectivement de façon idoine. Mais l’étude de cas n’est pas une
logique de recherche : c’est une stratégie qui met en œuvre une logique de recherche,
quelle qu’elle soit ; elle n’en préjuge pas.
C’est donc le plan de recherche qui définit la forme de l’étude de cas en gui-
dant la fixation de plusieurs paramètres : le type de cas et le nombre de cas, en
somme l’échantillon. Cette étape clé détermine la réalisation de l’étude de cas. En
sciences sociales, un cas peut être une personne, un groupe, un projet déterminé, une
organisation ou un groupe d’organisations (Hlady Rispal, 2002). En sciences de ges-
tion, Eisenhardt (1989) le définit plus largement comme une situation de gestion. Le
cas, contingent à la recherche, pourra être choisi parce qu’il est typique ou au con-
traire original, pour son intérêt instrumental par rapport à la théorie (site-test d’une
théorie par exemple) ou pour son intérêt intrinsèque (Stake, 1994) ; son choix pourra
même être imposé (recherche commanditée) ou guidé par les circonstances (opportu-
nité unique), etc. Le choix du nombre de cas est un point important qui a fait l’objet
d’un débat à épisodes, aujourd’hui clarifié : là encore, c’est la question de recherche
5 Voir point 1.3 suivant : les principes d’interaction avec les sujets étudiés et de recherche de sens
sont issus des épistémologies constructivistes.
36 La méthode des cas
qui commande. Les études exploratoires sont concentrées sur un ou deux cas, parce
que le cas sert un propos nouveau, révélateur ; ou parce que le cas concerne un évé-
nement, un fait, une organisation rare ou unique (Yin, 1990) ; et encore parce qu’il
permet une investigation en profondeur (Dyer et Wilkins, 1991), autorisant un temps
long d’observation et d’écoute des acteurs, proche de l’ethnographie et permettant de
ce fait une meilleure imprégnation de l’organisation. Les études explicatives ou con-
firmatoires préfèrent souvent les cas multiples (d’un nombre variable adapté au plan
de recherche, souvent entre quatre et dix) pour leur potentiel de comparaison et de
réplication, favorisant la génération ou la confirmation de théories susceptibles d’être
généralisées (Eisenhardt, 1989). Est-ce à dire pour autant que l’étude de cas unique
limite sérieusement la génération de théories et la modélisation, comme cela lui est
souvent reproché (Eisenhardt, 1989 6) ? Yin (1993) rapporte la position de Giddens
qui considérait la méthode des cas comme « microscopique » parce qu’il lui manque
toujours un nombre suffisant de cas. Ce à quoi Yin et Hamel (et al., 1993) répondent
que quelle que soit la taille de l’échantillon, qu’il comporte deux, dix ou cent cas, il
ne transforme pas l’étude de cas multiples, en méthode macroscopique ! En ce sens,
l’étude de cas unique, comme les études de cas multiples, est généralisable à des pro-
positions théoriques et non à des populations et à des univers autres que ceux du cas
(Yin, 1990). Cette généralisation analytique est possible grâce à une modélisation
générative du ou des cas, c’est-à-dire une modélisation édifiée à partir de raisonne-
ments analogiques, métaphoriques et par correspondances (Maffesoli, 1985 ; Gergen,
1994). Et comme, suivant Karl Popper (1935), une théorie reste vraie tant qu’il n’a
pas été démontré qu’elle est fausse (principe de falsifiabilité), la valeur de la contri-
bution théorique des études de cas ne peut être mise en cause comme l’explique De la
Ville (1997). Ainsi en gestion, March (et al., 1991) ou Mintzberg (1979) postulent le
principe de l’unité de nature entre les différentes organisations : « Tout phénomène
observé dans une organisation a vocation à se produire dans d’autres organisations,
et chaque recherche sur chaque organisation a potentiellement une portée générale »
(Romelaer, 1994, p. 49). Chaque cas est donc bien comme « un cas particulier du
possible » (Bachelard, 1949). En sociologie, Bourdieu (1992), fort des modélisations
reconnues qu’il a tirées de ses monographies, légitime la généralisation à partir d’un
cas unique en expliquant que ce ne sont pas les caractéristiques intrinsèques du cas
qui importent d’un point de vue scientifique, mais le regard théorique que le cher-
cheur porte à son cas.
6 Dans cet article, Eisenhardt affirme même qu’il n’est pas envisageable de faire une recherche sur
un échantillon théorique inférieur à quatre cas, parce que la théorie résultante pécherait par sim-
plisme et manque d’ancrage dans le terrain. Par la suite (Eisenhardt, 1991), elle concède finalement
une légitimité théorique au cas unique s’il est suffisamment riche.
La méthode des cas : une stratégie privilégiée d’accès au réel 37
L’étude de cas postule un principe d’interaction avec les sujets étudiés, condi-
tion de la connaissance. Il n’y a donc pas « recueil des données » comme on le dit
souvent mais « production » ou « coproduction » des données (Le Moigne, 190).
L’étude de cas ne peut se départir du regard de l’observateur sur le phénomène (the
obsever effect). Tenter de le neutraliser serait d’ailleurs un non-sens dans cette
méthodologie puisque la subjectivité du chercheur est un outil d’investigation
(Arnaud, 1996). Le chercheur produit des explications qui ne sont pas la réalité, mais
un construit sur le construit de la réalité des acteurs, susceptible de l’expliquer
(Wacheux, 1996). Ce principe d’interaction s’opérationnalise par un mouvement de
participation-décentration (Hlady Rispal, 2002), nécessaire pour comprendre com-
ment le sens s’incarne dans le discours et l’action. En effet, pour permettre le chemi-
nement intellectuel, il s’agit d’allier une réelle présence dans la situation, tout en
ménageant une certaine distance à son égard. Cette juste attitude qualifiée
d’« implication contrôlée » (Ancelin-Schutzenberger, 1972) ou de « familiarité
distante » (Matheu, 1986) est favorisée d’une part par une réelle réflexion sur le com-
portement à adopter sur le terrain, toujours particulier à la situation bien que de
nombreuses règles doivent être connues (Devereux, 1980 ; Arnaud, 1996 ; Arborio et
Fournier, 1999), et d’autre part par des retraits réguliers de ce terrain, nécessaires
pour contrôler l’implication.
Une recherche menée dans le cadre d’une thèse de doctorat (Gombault, 2000)
au sujet de la construction de l’identité organisationnelle, étudiée au musée du Lou-
vre, fournit ici un exemple d’application de la méthode des cas 7. Il s’agit moins de
rentrer dans l’analyse longue et multidimensionnelle du phénomène étudié que de
montrer comment la méthode des cas a été appliquée dans la conduite de la recher-
che. En premier lieu, le plan de recherche, soubassement de l’étude de cas, est
exposé. En second lieu, la réalisation de l’étude de cas est relatée, du déroulement de
la recherche jusqu’à la production des résultats. En dernier lieu, l’utilisation de la
méthode des cas dans l’étude menée est commentée autour de son arcane principal :
la relation au terrain, riche mais complexe.
7 Cette étude a également servi d’illustration, entre autres, à Martine Hlady Rispal (2002) dans son
ouvrage sur la méthode des cas. On pourra s’y reporter pour une présentation plus détaillée : plu-
sieurs encarts, résumant chaque phase de l’étude, jalonnent l’ouvrage.
40 La méthode des cas
2.1.1 La problématique
La recherche a débuté par une attention portée à la culture des organisations
culturelles et à son influence sur leur gestion, question peu explorée par la littérature
managériale sur ces organisations alors que pourtant souvent affirmée comme cru-
ciale. Il s’agissait de découvrir, décrire et comprendre les comportements des indivi-
dus, des groupes et de l’organisation dans ce contexte spécifique. Plus précisément,
une revue de la littérature sur la gestion des institutions culturelles faisait ressortir
l’importance des facteurs idéologiques impliqués. La problématique de départ a été
finalement formulée en ces termes : comment les valeurs des acteurs interviennent-
elles dans la gestion des organisations culturelles ? Avec cette problématique de
départ, l’étude empirique a été initiée au musée du Louvre, cas choisi pour sa figure
d’archétype de l’organisation culturelle française et ses enjeux de gestion importants.
La progression de l’étude a transformé le propos de la recherche, en découvrant une
problématique non pas rapportée à la culture de l’organisation, mais à son identité.
On observait en effet au Louvre une grande focalisation des acteurs sur l’identité de
l’organisation, accompagnée de dynamiques identitaires groupales et individuelles
significatives. Un examen minutieux de la littérature managériale a alors été conduit
afin de trouver les outils théoriques permettant d’interpréter les résultats de l’étude
empirique.
Après plusieurs mois d’errement, des travaux américains sur le concept d’iden-
tité organisationnelle ont été repérés qui fournissaient l’épine dorsale théorique ad
hoc pour analyser le phénomène tel qu’il apparaissait au Louvre. Dans un article fon-
dateur d’un courant de recherche majeur sur le sujet, Albert et Whetten (1985) propo-
saient la définition suivante : l’identité organisationnelle, qui répond à la question
« qui sommes-nous en tant qu’organisation ? », désigne les caractéristiques centra-
les, distinctives et stables d’une organisation telles qu’elles sont perçues par les
membres de cette organisation. Cette définition et les travaux multiples de ce courant
de recherche se sont avérés en grande partie opérationnels pour décrire et interpréter
les résultats empiriques, mais ils étaient impuissants à expliquer ce qui constituait le
cœur du problème au Louvre dans un contexte de changement profond dû au Projet
Grand Louvre, à savoir comment les perceptions de l’identité de l’organisation se
construisaient. La problématique définitive de la recherche s’est donc posée en ces
termes : comment se construit l’identité organisationnelle au musée du Louvre entre
1996 et 1998, période de l’étude ? Des questionnements auxiliaires sont venus com-
pléter cette question principale, en la reliant à quatre thèmes : identité organisation-
nelle et production de sens, changement de l’identité organisationnelle, identité
organisationnelle et performance, identité organisationnelle et gestion des organisa-
tions culturelles.
Un exemple de mise en œuvre de la méthode des cas 41
La visée exploratoire de l’étude appelait un, deux, voire trois cas au maximum.
Le choix du Louvre ne s’est donc pas imposé immédiatement. Une première sélection
de cas a été faite selon deux critères : il fallait d’une part trouver une organisation
culturelle archétypique, dans la mesure où il s’agissait d’ouvrir la boîte noire de
l’organisation culturelle en général, et il fallait d’autre part que les enjeux de gestion
y soient assez importants pour être significatifs. Le Centre national d’art et de culture
Georges Pompidou se dégageait parce qu’il présentait une production culturelle très
diversifiée. Réunissant un musée (le Musée national d’art moderne), une bibliothèque
(la Bibliothèque publique d’information), un centre de recherche sur la musique con-
temporaine (l’IRCAM), un centre de recherche sur le design industriel (le Centre de
création industrielle) et une salle de cinéma (salle Garance), il permettait d’étudier
une organisation culturelle se définissant plus par la nature culturelle de sa produc-
tion que par une production culturelle en particulier.
• Connaissance existant sur la question de recherche Description et compréhension par la mise à jour de différentes
Objectif
Exploratoire (initiale et finale) insuffisante en propositions de relations, causalités, processus, de la construction de l’identité
concepts et d’hypothèses. organisationnelle au musée du Louvre entre 1996 et 1998.
ne peut partir que du vécu des acteurs. (production des données, dictionnaire des thèmes empiriques)
• Ancrer la théorisation dans la réalité empirique construite et de la grounded theory (analyse des données,
par les acteurs. problématique, dictionnaire des thèmes théoriques, résultats
et itératif • Émergence de la question de recherche puis des résultats sous forme de propositions).
par une comparaison constante entre la production des
données et l’analyse et entre les catégories de l’analyse.
• La question de recherche de départ était large et Succession d’opérations visant à faire surgir le sens des
nécessitait une présence sur le terrain. phénomènes observés au Louvre dans le cadre de la question
• L’identité organisationnelle relève de l’expérience de départ, puis dans le cadre de la problématique de la
Production subjective des acteurs. Ce n’est pas fait un fait social recherche : techniques de production des données qualitatives
et analyse observable, mesurable et manipulable. (entretiens en profondeur, obser-vation longue, recueil de
des données • Les recherches sur l’identité organisationnelle s’appuient documents) ; techniques d’analyse qualitative des données :
purement fortement sur les récits des acteurs ; l’identité et analyse de contenu thématique manuelle (codification),
qualitative l’identification organisationnelle sont mieux décrites de élaboration d’un référentiel théorique (catégorisation),
manière narrative et qualitative (Whetten et Godfrey, itérations (mise en relation). Ces techniques ont permis
1998 Eds, 12). d’identifier et de formuler la problématique et les propositions
finales (intégration, modélisation et théorisation).
a. Strauss et Corbin (1994, 282) notent que dans certains champs, les chercheurs utilisent fréquemment des combinaisons variées entre, par exemple
(c’est celle que les auteurs citent), l’ethnographie, la phénoménologie et la grounded theory.
ENCADRÉ 2.1
Récit de la négociation de l’étude et de l’entrée au musée du Louvre
temporelle précise, le retour des résultats, et, avant cela, à la demande de l’adminis-
trateur général, un rapport intermédiaire, dit « rapport d’étape », afin que la direction
du musée puisse prendre connaissance des résultats empiriques dans un but opéra-
tionnel. Sur la base de ce contrat, la durée d’observation in situ dura en réalité plus
de dix mois soit quarante-deux semaines, réparties sur presque trois ans de contacts
avec l’organisation, dont neuf mois consacrés à la production des données (soit
trente-six semaines étalées sur un an et demi), et un mois et demi consacré à la restitu-
tion des données et au recueil des réactions (soit cinq semaines sur une année).
L’ouverture de la direction du musée fut remarquable et le maintien sur le terrain ne
posa pas de problèmes. D’une manière générale, l’accès à tous les endroits, les
documents ou les personnes nécessaires à l’étude fut accordé quasiment sans aucune
restriction. Il semble que ce soit assez rare pour qu’il faille le souligner. La base logisti-
que de la recherche se situait au service culturel, au gré des bureaux libérés pour une
période donnée. Le badge mentionnait l’appartenance à ce service. Ce rattachement
à un service plutôt qu’à la direction était bienvenu pour pénétrer directement et facile-
ment dans l’organisation, et ce d’autant plus que le service culturel se trouve en étroite
relation avec des services opérationnels comme la surveillance ou l’accueil, des servi-
ces administratifs comme le financier ou la régie, ainsi qu’avec les départements de
conservation. Le chef du service, sollicité par l’administrateur général pour accompa-
gner la recherche, présent depuis 1987 au musée et le connaissant parfaitement,
apporta une aide et une écoute précieuses à la recherche. La proximité avec de nom-
breux cadres de ce service, très disponibles, fut aussi un soutien important. Pour
autant, l’observation et les analyses eurent à l’esprit de se départir, autant que possi-
ble, de ce biais d’emplacement, en limitant l’occupation du lieu au travail de mise à
jour des données en général et à la production de données sur ce service, en en sor-
tant tout le reste du temps, ainsi qu’en essayant d’accorder ni plus ni moins d’impor-
tance à la vie de ce service qu’à celle des autres unités dans l’organisation en
général.
Source : Gombault (2000)
2.2 LA RÉALISATION
La réalisation complète de l’étude de cas, de l’initiation du projet à sa commu-
nication, a duré en tout un peu plus de quatre ans, dont trois de relation avec le
musée du Louvre. Après l’exposition du déroulement du processus puis de l’opération-
nalisation de la production et de l’analyse des données, les résultats de l’étude de cas
sont introduits.
ÉTAPE 1
Décembre 1995-Juin 1996
• Délimitation du sujet
• Élaboration de la question de départ
• Définition des choix méthodologiques
ÉTAPE 2
Juin 96-Septembre 96
• Négociation de l’étude
• Premiers contacts avec le musée du Louvre
ÉTAPE 3
Octobre 96-Mars 98
• Réalisation de l’étude, période principale de production des données
ÉTAPE 4
Mars 98-Mars 99
• Analyse des données et construction de la problématique
ÉTAPE 5
Septembre 98-Octobre 99
• Restitution des résultats empiriques
• Poursuite de l’étude par des contacts intermittents avec le musée du Louvre,
période secondaire de collecte des données
• Restitution des résultats théoriques
ÉTAPE 6
Mars 99-Juillet 2000
• Rédaction de la thèse
• Corrections
• Mise en forme définitive
• Soutenance
cas, avec des entretiens semi-directifs en mode principal, une observation directe en
mode contextuel et le recueil de documents en mode complémentaire.
Les entretiens ont été placés au centre du système car ils constituaient l’outil
le plus approprié pour étudier l’identité organisationnelle, dont le langage est un des
plus forts marqueurs. Cent ving-cinq entretiens semi-directifs de deux heures en
moyenne ont été menés. La population définie était le personnel du musée stricto
sensu, divisée, en fonction de la participation au processus de décision et au vu du
fonctionnement du musée, en deux sous-populations : le personnel d’encadrement
(direction, conservateurs, cadres supérieurs et moyens) et le personnel non enca-
drant. La constitution de l’échantillon a répondu à deux contraintes : la nécessité de
contraster au maximum les individus et les situations et celle d’obtenir des unités
Un exemple de mise en œuvre de la méthode des cas 47
sept. 96 oct. 96 nov. 96 déc. 96 févr. 97 avr. 97 juin 97 sept. 97 janv. 98 mars 98 oct. 98 nov. 98 févr. 99 oct. 99
1 4 4 4 5 5 5 4 2 2 2 1 1 1
10 Pour reprendre de manière métaphorique le titre de l’ouvrage de Julien Gracq selon lequel, la lit-
térature se fait « en lisant, en écrivant » (En lisant, en écrivant. Paris : Corti, 1980).
50 La méthode des cas
contribution. Les deux premiers chapitres exposent les armatures théorique et métho-
dologique de la thèse. L’une ne peut pas se comprendre sans l’autre puisque dans
cette recherche constructiviste, inductive et itérative, qualitative, la théorie présen-
tée a été progressivement mobilisée au cours des analyses pendant et après la pro-
duction des données, afin d’abord d’inférer la problématique de la recherche et
ensuite d’y répondre en décrivant et en expliquant les résultats empiriques de l’étude
du Louvre. Le troisième chapitre décrit les caractéristiques les plus extérieures de
l’organisation, nécessaires au lecteur gestionnaire pour identifier l’organisation, et
appréhender les éléments généraux de son contexte général et précis au moment de
l’étude. En effet, dans une recherche sur l’identité organisationnelle, il était difficile
de décrire trop avant l’organisation par les traits de ses acteurs, de leurs représenta-
tions, comportements et problèmes, sans déflorer des analyses qui précisément
mêlent description et interprétation de ce qu’est l’organisation aux yeux de ces
acteurs. Le troisième chapitre n’est donc pas la traditionnelle description support des
analyses, propre aux études de cas, mais plutôt la tête de pont des analyses, le pas-
sage obligatoire pour les éclairer. Les quatrième, cinquième et sixième chapitres pré-
sentent les analyses, selon, respectivement, les trois perspectives collective,
groupale, et individuelle qui éclairent la construction de l’identité organisationnelle
au musée du Louvre au moment de l’étude. Ces chapitres d’analyses, qui occupent près
de la moitié de l’espace rédactionnel, constituent le cœur de la thèse, sa
« substantifique moelle ». Ils portent le patient travail de tissage inductif et itératif
entre les données produites et les instruments théoriques utilisés pour les interpréter.
Le septième et dernier chapitre extrait les résultats du tissu démonstratif des chapi-
tres d’analyse qui les a égrenés, et les rassemble dans une réflexion ramassée et dis-
tanciée sous forme de propositions théoriques visant à une certaine « généralisation
analytique » (Yin, 1990) ou « modélisation générative » (Maffesoli, 1985 ; Gergen,
1994) du cas de la construction de l’identité organisationnelle au musée du Louvre
entre 1996 et 1998.
Le processus de recherche s’est efforcé de satisfaire aux critères de validation
propres aux méthodes qualitatives pour parvenir à la fiabilité et à la validité de la
recherche, tels que les définit Mucchielli (1994, 1996 Ed.) : complétude et saturation
d’une part, acceptation interne, cohérence interne, confirmation externe d’autre part
(Tableau 2.5). Cependant, conformément à ce que préconisent Guba et Lincoln
(1982), ces critères ont été énoncés dans l’esprit du plan de recherché adopté, en
l’occurrence une option phénoménologique sociale dans une épistémologie construc-
tiviste, mettant en avant la validité phénoménologique, l’authenticité, l’empathie, le
double mouvement de l’implication et de la distance critique et vérificatoire de la
recherche (Schütz, 1932).
A. SITUATION
Suite au Projet Grand Louvre initié au début des années 1980, source d’un
long processus de changement et de changement d’image, en externe comme en
interne, et à la veille de la fin de ce projet, l’identité organisationnelle du Louvre,
entre 1996 et 1998, change intensément. L’expérience de ce changement, doulou-
reuse pour les acteurs, se traduit par une crise latente de l’identité organisationnelle,
repérée comme à la fois une déconstruction du sens et une atteinte au sentiment de
l’identité de l’organisation. Plus précisément, la crise prend la forme de perceptions
collectives de la confusion, la banalisation et la discontinuité des caractéristiques
constitutives de l’organisation, qui altèrent les sentiments d’unité et de cohérence,
d’unicité et de différence, et de continuité de l’identité de l’organisation. Elle se
manifeste dans l’organisation par un climat organisationnel tourmenté, une clôture
organisationnelle et une forte différenciation. Cependant cette crise est une étape de
la construction de l’identité organisationnelle, facteur d’apprentissage organisation-
nel. Opportunité d’un questionnement de l’organisation sur elle-même et sur le sens
de son action, la crise d’identité débouche sur une évolution de la définition de
l’identité de l’organisation par ses acteurs, désormais centrée sur la performance et
les publics de l’organisation. Cet apprentissage transcendant ou en boucle triple favo-
rise un enrichissement des cadres de références de l’action, soit un apprentissage
cognitif ou en boucle double, et un ajustement progressif de l’organisation, soit un
apprentissage comportemental ou en boucle simple.
Cette identité organisationnelle en mutation se construit en grande partie par
l’intermédiaire du groupe dans une configuration idéographique, c’est-à-dire dans
laquelle chaque groupe représente une des identités de l’organisation. Structurées
autour des unités de l’organisation, des professions, des positions, les identités de
groupe sont plurielles. Elles se construisent et se maintiennent par un puissant pro-
cessus de catégorisation sociale, qui permet de repérer et comprendre l’existence d’un
biais endogroupe dans les perceptions de l’identité de l’organisation. La pluralité des
identités de groupe et leur influence dans les perceptions de l’identité de l’organisa-
tion expliquent la pluralité de l’identité organisationnelle. Elle se construit par agré-
gation et par croisement des perceptions groupales de l’identité de l’organisation. Les
différentes perceptions groupales se croisent dans une dynamique conflictuelle et
négociatrice. La conflictualité de l’identité organisationnelle, motivée par la recher-
che d’une identité sociale positive, s’exprime par la présence de plusieurs coalitions
de l’identité organisationnelle, défendant chacune un idéal type de l’identité de
l’organisation. À cause de cette conflictualité et pour limiter les tensions qu’elle pro-
voque, les groupes négocient leurs perceptions de l’identité de l’organisation :
Un exemple de mise en œuvre de la méthode des cas 53
d’abord à un niveau faible en négociant leur identité propre par des stratégies identi-
taires qui visent à occuper le plus de place possible dans l’organisation ; ensuite à un
niveau moyen, par un processus d’acculturation antagoniste qui leur permet de faire
des compromis.
Enfin l’identité organisationnelle du Louvre se construit également au niveau
individuel. Différents aspects de la relation entre l’individu et l’organisation contri-
buent à forger les perceptions de l’identité de l’organisation. D’abord, ces perceptions
sont construites dans un mouvement d’appropriation, par le biais de ce que l’on a
appelé des marqueurs de l’identité organisationnelle, c’est-à-dire des éléments dans
l’organisation qui permettent à ses membres d’appréhender l’identité de l’organisa-
tion, à partir desquels ils infèrent l’identité de l’organisation, et auxquels ils s’identi-
fient. L’espace, le langage et le vêtement de travail apparaissent comme des
marqueurs très saillants de l’identité organisationnelle du musée du Louvre. Plus lar-
gement, les perceptions de l’identité de l’organisation sont construites en fonction de
la nature des processus d’identification des individus à l’organisation. Ce point a été
établi à travers la description de ces processus d’identification. Très affirmée, l’identi-
fication organisationnelle sert au Louvre la valorisation de soi, la recherche de dis-
tinction, une quête de sens et de sensations. Elle s’inscrit dans une configuration
ternaire source d’effets positifs et négatifs dans l’action, avec une forte suridentifica-
tion, une identification conflictuelle symptomatique de la crise d’identité organisa-
tionnelle, et une sous-identification faible et délimitée. Enfin de manière globale, les
perceptions de l’identité de l’organisation sont construites à partir de l’expérience
cognitive, affective et comportementale que font les individus de l’identité de l’orga-
nisation. Elles s’inscrivent dans un schéma de connaissance indissociable d’un senti-
ment de l’identité de l’organisation. Elles sont exprimées, formées, maintenues et
modifiées par les comportements.
C. CONTRIBUTIONS
Partant de cette analyse, la recherche apporte donc d’une part des contribu-
tions pour mieux connaître le phénomène de la construction de l’identité organisa-
tionnelle, sous des aspects inconnus ou identifiés mais non analysés par la littérature
existante sur le sujet. Première contribution, elle permet d’étoffer la définition
d’Albert et Whetten en proposant que l’identité organisationnelle est une construction
subjective et intersujective des membres de l’organisation à propos de son identité,
en proposant ensuite que cette construction se réalise à trois niveaux : collectif,
groupal, individuel, que les identités individuelles et groupales interviennent forte-
ment dans cette construction, que cette construction est largement langagière et nar-
rative, enfin que c’est une construction dynamique. Deuxième contribution, le cas du
Louvre conduit à faire des propositions sur la construction de l’identité organisation-
nelle au niveau collectif, précisément sur la crise de l’identité organisationnelle : cau-
ses, déroulement, dépassement et valeur d’apprentissage. Troisième contribution, la
recherche fait des propositions sur comment se construit, à partir des identités de
groupe une identité organisationnelle plurielle et idéographique. Quatrième contribu-
tion, pour comprendre la construction de l’identité organisationnelle au niveau indivi-
duel, les notions de marqueurs et d’expérience de l’identité de l’organisation sont
proposées, la notion d’identification organisationnelle est approfondie. Cinquième
54 La méthode des cas
2 La crise d’identité organisationnelle : éclairages sur la construction de l’identité organisationnelle dans une
perspective collective
2–1 Le processus de changement de l’identité organisationnelle s’inscrit dans une aire transitionnelle qui offre le paradoxe du changement et de la stabilité. La
faible tolérance des membres de l’organisation au paradoxe du changement de l’identité organisationnelle est un facteur de déclenchement d’une crise
d’identité organisationnelle.
2–2 Une crise d’identité organisationnelle est une déconstruction collective du sens de l’identité de l’organisation et une atteinte collective au sentiment d’identité
de l’organisation. Elle apparaît dans l’ensemble des perceptions des membres de l’organisation, de la confusion, la banalisation et la discontinuité des
caractéristiques constitutives de l’organisation. L’atteinte au sentiment d’identité de l’organisation entraîne un mouvement de désidentification
organisationnelle.
2–3 Une crise d’identité organisationnelle peut être ouverte ou latente.
2–4 Une crise d’identité organisationnelle se manifeste par un climat organisationnel tourmenté, anxiogène.
2–5 Une crise d’identité organisationnelle entraîne un mouvement de clôture organisationnelle, qui se signale par un narcissisme organisationnel, c’est-à-dire une
amplification idéalisée, une exagération des caractères propres à l’organisation et un rejet de l’altérité environnementale.
2–6 Une crise d’identité organisationnelle se manifeste par une très forte différenciation interne. La différenciation interne entraîne d’une part une distance
intérieure, marquée par une communication interne difficile et un solipsisme de l’identité organisationnelle défini comme une situation où il n’y a pour les
membres de l’organisation d’autre réalité que leurs perceptions individuelles et/ou groupales de l’identité de l’organisation ; et d’autre part une conflictualité
de l’organisation, fruit de la distribution idéographique exacerbée de l’identité organisationnelle qui caractérise la crise.
2–7 Le dépassement d’une crise d’identité organisationnelle se réalise dans la résolution progressive par les acteurs du paradoxe du changement de l’identité
organisationnelle et dans la négociation intense de l’identité organisationnelle qu’ils conduisent.
2–8 Une crise d’identité organisationnelle peut être interprétée comme une étape du processus de construction de l’identité organisationnelle parce qu’elle permet
l’apprentissage d’une nouvelle définition de l’identité de l’organisation, un apprentissage en boucle triple ou transcendant.
2–9 Dans la crise de l’identité organisationnelle, se révèle une praxis de l’identité organisationnelle, c’est-à-dire une réflexion et une action portant sur l’identité
de l’organisation et qui ont pour but de la transformer.
2–10 L’apprentissage d’une nouvelle définition de l’identité de l’organisation, un apprentissage en boucle triple ou transcendant, favorise un apprentissage en
boucle double (cognitif) et boucle simple (comportemental).
7 L’identité organisationnelle dans les organisations culturelles
7–1 La production culturelle fortement symbolique de l’organisation culturelle, détermine la construction d’une identité organisationnelle saillante, intense et
assez abstraite.
7–2 Dans une organisation culturelle, les œuvres sont le principal objet de focalisation de l’identité organisationnelle.
7–3 Dans certaines organisations culturelles et notamment les organisations muséales et patrimoniales, l’architecture apparaît comme le Moi-peau de
l’organisation, c’est-à-dire une figuration dont les acteurs de l’organisation se servent pour se représenter l’identité de l’organisation comme élément
contenant l’organisation.
7–4 La diversité identitaire de l’organisation culturelle détermine la construction d’une identité organisationnelle hétérogène, complexe, idéographique.
7–5 Dans l’organisation culturelle, l’identité organisationnelle se construit de manière privilégiée par la lutte d’influences de quatre coalitions principales de
l’identité organisationnelle, structurées autour de noyaux durs de la conception idéale de l’identité de l’organisation : la coalition des œuvres, la coalition du
public, la coalition de l’organisation, la coalition du personnel.
7–6 L’organisation culturelle appelle une forte identification organisationnelle.
7–7 Dans l’organisation culturelle, l’expérience de l’identité de l’organisation comporte une dimension affective fondamentale. Par suite, l’identification
organisationnelle comporte une dimension affective fondamentale.
7–8 Dans l’organisation culturelle, l’image organisationnelle, c’est-à-dire l’image externe perçue par les membres de l’organisation, est un facteur important dans
la construction de l’identité organisationnelle et de l’identification organisationnelle.
7–9 Dans l’organisation culturelle, le processus d’identification organisationnelle se produit principalement par affinité.
7–10 Dans l’organisation culturelle, la recherche de sens et de sensations sont des motifs caractéristiques de l’identification organisationnelle.
7–11 Dans l’organisation culturelle, très différenciée, la forte identification organisationnelle est un puissant facteur d’intégration.
7–12 Dans l’organisation culturelle, la forte identification organisationnelle est un facteur puissant de motivation et d’implication, parce que la nature culturelle de
l’activité de l’organisation fournit un salaire informel sous forme de gratifications psychologiques et sociales.
Richesses Difficultés
Étape 1 • Champ de recherche ouvert. • Choix de la recherche : délimitation du sujet et élaboration de la
• Période de réflexion. question de départ.
Étape 4 • Satisfaction de disposer d’un matériau riche et fécond. • Important travail de réduction des données.
• Émulation théorique. • Moments d’incertitude et de déroute pour construire la
• Apprentissage intellectuel. problématique.
• Émergence de la problématique, fil d’Ariane de la • Progression laborieuse des analyses. Efforts répétés de
recherche. « déconstruction-reconstruction » pour comprendre les
• Échanges avec des chercheurs confirmés. intrications du phénomène étudié.
• Distance à parcourir des données à leur théorisation.
ENCADRÉ 2.2
Se faire accepter et interagir : les règles de conduites
dans l’organisation
En premier lieu, il s’est agi de rendre familière aux acteurs la présence étrangère que
leur imposait mon travail d’observation. Les participants réagissant forcément à cette
présence, il fallait essayer de se faire oublier au quotidien, afin de neutraliser au
mieux les mécanismes de défense. Par exemple, l’observation des réunions de direc-
tion a été effectuée le plus souvent en retrait de l’immense table centrale, depuis une
petite table installée à l’arrière sur un côté de la pièce. L’acceptation de l’observation
d’une manière générale a pu se faire en sillonnant inlassablement le musée de long
en large, en rendant régulièrement visite aux différents acteurs, sans but particulier, en
« traînant » le plus possible dans le musée : bureaux, salles, restaurant du personnel,
salles de pause, niveaux souterrains du musée. L’observation était d’autant plus facile
que bien que cette présence d’un observateur ait été explicitée en tant que telle par la
direction du musée, certains acteurs l’assimilaient à celle d’un stagiaire, ce qui dissi-
pait automatiquement toute méfiance. Pour les autres, l’introduction de cette présence
par la direction était un gage de légitimité indispensable à une libre circulation dans
le musée, mais engendrait forcément parfois une mauvaise interprétation de la part
des acteurs (observateur émissaire de la direction), qui lorsqu’elle était exprimée per-
mettait une rectification et une affirmation de l’indépendance de la recherche par rap-
port aux intérêts de la direction. En second lieu, une attitude générique d’ouverture
aux autres a été adoptée. Une façon d’économiser du temps d’investigation en
gagnant la confiance des acteurs était de leur poser un grand nombre de questions à
caractère informatif sur leurs pratiques, voire sur eux-mêmes, à toutes les occasions de
rencontre qui se présentaient. Cette volonté d’empathie a systématique a permis
d’entendre les acteurs en profondeur, de comprendre leur état d’esprit. Les questions
devaient être justifiées et ne pas paraître incongrues. En troisième lieu, l’entrée en inte-
raction avec les acteurs et la répétition de ces interactions dans des relations suivies
se sont appuyées sur un rapprochement avec certains acteurs, alliés, informateurs pri-
vilégiés, collaborateurs de la recherche (Arborio et Fournier, 1999) qualifiés dans
l’étude de « personnes-ressources ». Le soutien de ces acteurs a été précieux. Il a servi
à l’approfondissement de l’investigation : comme informateurs ou comme commenta-
teurs de situations ombrées ou complexes, comme médiateurs pour constituer des
échantillons et rencontrer certains acteurs et enfin comme interlocuteurs privilégiés lors
des retours sur le terrain après la période principale de l’étude. Le groupe des person-
nes-ressources a été constitué au fur et à mesure de la recherche : l’administrateur
général qui a accepté le projet, puis son successeur à qui le relais a été transmis, le
chef du service culturel proposé comme tuteur de la recherche par le premier adminis-
trateur général qui a joué un rôle clé d’accompagnement, puis différentes personnes
rencontrées au gré des entretiens et de l’observation, très réceptives à la recherche
avec qui une relation plus ou moins étroite s’est établie. La base logistique de l’étude
se situant au service culturel, les personnes-ressources y ont été les plus nombreuses.
Pour bien prendre la mesure de la qualité des informations auxquelles leur entremise a
permis d’accéder, il a fallu s’interroger sur les intérêts très divers que chacun pouvait
trouver à servir l’étude. Dans l’analyse, il a fallu traiter avec plus de circonspection les
récits de ces personnes que le reste des données. Pour bien prendre la mesure de la
qualité des informations auxquelles leur entremise a permis d’accéder, il a fallu s’inter-
roger sur les intérêts très divers que chacun pouvait trouver à servir l’étude. En dernier
Un exemple de mise en œuvre de la méthode des cas 59
a. L’empathie permet de comprendre le vécu de quelqu’un d’autre sans l’éprouver réellement. A partir des années 50, Rogers donne au mot empa-
thie son acception moderne. C’est selon lui l’essence de l’attitude non directive de compréhension d’autrui, la compréhension intellectuelle du vécu de
l’autre. Différente de la sympathie qui est une identification quasi émotionnelle, l’empathie indique la capacité de s’immerger dans le monde subjectif
d’autrui, de participer à son expérience dans la mesure où la communication verbale et non verbale le permet, de capter la signification personnelle des
paroles de l’autre bien plus que de répondre à leur contenu intellectuel. Il s’agit d’une sensibilité altérocentrique, sociale, d’une réceptivité aux réactions
d’autrui, d’une participation à l’expérience d’autrui tout en demeurant émotionnellement indépendant (Rogers et Kinget, 1963, 105-108).
Cependant cette bonne relation d’ensemble n’a pas exclu ici et là quelques dif-
ficultés. L’étude a provoqué des contre-stratégies (Arnaud, 1996) qualifiées par Deve-
reux (1980) de « conduites contre-transférentielles », « l’observé observateur de son
observateur » éprouvant immanquablement de l’angoisse. La méfiance (surtout dans
le service de la surveillance et dans les départements) avec des évitements caractéri-
sés, voire l’agressivité (quelques personnes), ont parfois été suscitées. Une gestion en
douceur des tensions soulevées permettait finalement d’obtenir une coopération des
acteurs, sauf dans quelques rares cas : un cadre s’est braqué contre le principe de
l’étude refusant carrément de participer, d’autres conservaient leur attitude méfiante
de départ éventuellement à cause des maladresses qui avaient été commises pour
essayer de les approcher. Les « fuyards », moins d’une dizaine, étaient laissés en paix,
mais les modalités de l’évitement (changement d’itinéraire, embarras, rendez-vous
annulés, retards répétés) ont été enregistrés dans l’observation comme incidents cri-
tiques. À l’inverse, mais plus rarement, il fallait quelquefois discerner le bluff ou les
comportements « séducteurs ». En fait la difficulté majeure résidait davantage dans
l’organisation des rencontres avec les acteurs, réellement très occupés. Il fallait trou-
ver du temps en perturbant le moins possible l’action quotidienne. Quelques uns n’ont
finalement pas pu être rencontrés pour un entretien comme il était prévu, à cause de
ce manque de disponibilité. Enfin la restitution des résultats n’a pas été consensuelle
(Encadré 2.3). Si elle a enthousiasmé certains et n’a pas suscité d’hostilité directe à
l’égard de l’étude, elle a aussi suscité un certain malaise. Mais dans une étude centrée
sur les perceptions des acteurs, a fortiori dans une organisation composée de sous-
groupes aux intérêts divergents, la recherche du consensus dans cet exercice est illu-
soire (Arborio et Fournier, 111). Si la restitution plaît à l’un des sous-groupes ou indi-
vidu, elle déplaira à d’autres. Le fait de causer des remous est inéluctable. En outre,
l’acceptation du contenu de la restitution se heurte toujours à la mobilisation de
60 La méthode des cas
ENCADRÉ 2.3
Un exemple de restitution peu consensuelle
a. Mots d’acteurs.
13 Durant la cure analytique, le patient refuse inconsciemment de connaître les désirs refoulés qui
son en lui. Il résiste aux interprétations du psychanalyste. Il ne veut rien savoir de sa vérité bien
qu’il tienne le discours inverse. De la même façon dans l’organisation, les travaux de Kets de Vries et
Miller (1985) entre autres montrent que les acteurs ont mille façons de résister à la restitution du
contenu d’une recherche comme celle-ci.
Conclusion 61
vait être source de confusion émotionnelle et nuire ainsi à la qualité de l’étude. Cette
relation de proximité délicate, instaurée, rompue et restaurée (Bourdieu, 1984), a
néanmoins quelquefois été difficile à tenir tout à la fin de l’étude, lors de la restitu-
tion des résultats, non seulement à cause de l’équilibrisme de l’exercice, mais aussi de
la familiarité avec l’organisation et certains de ses acteurs, de l’impression éventuel-
lement pesante, de trop et mieux connaître l’organisation sur certains points que cer-
tains interlocuteurs, tout en la connaissant beaucoup moins sur d’autres. L’élasticité
et l’habileté relationnelle, facteurs majeurs de la bonne acceptation pendant la lon-
gue période de l’étude, montraient des limites sous la forme parfois d’un excès de
spontanéité, d’erreurs d’attitude ou de comportement, aussitôt rappelées à l’ordre par
la réaction de l’interlocuteur.
3. Conclusion
Bibliographie
Albert S. et Whetten D.A. (1985), Organizational identity. In Cummings, L.L et Staw,
B.M. (Eds), Research in Organizational Behavior. Greenwich, CT : JAI Press, vol. 7,
pp. 262-295.
Ancelin-Schutzenberger A. (1972), Observations dans les groupes de formation et de thé-
rapie. Paris : L’Epi.
62 La méthode des cas
Whetten D.A. et Godfrey P.C. (1998, Eds), Identity in organizations. Building theory
through conversations. Thousand Oaks : Sage Publications, Foundations for organiza-
tional science.
Wacheux F. (1996), Méthodes qualitatives et recherche en gestion, Paris : Economica,
Gestion.
Weick K.E. (1968), Systematic observational methods. In Lindzey G. et Arowson E., The
handbook of social psychology, vol. 2, Research Methods, Addison-Wesley.
Weick K.E. (1989), Theory construction as dicisciplined imagination. Academy of Mana-
gement Review, vol. 14, n° 4, 516-531.
Yin R. (1981), The case study crisis : some Answers. Adminstrative Science Quaterly, vol.
26, pp. 58-65.
Yin R. (1990), Case study research : design and methods. Beverly Hills, CA : Sage Publi-
cations.
Yin R. (1993), Applications of case study research. Beverly Hills, CA : Sage Publishing.
Chapitre 3
Contextualisme et recueil
de données
Jocelyn HUSSER 1
Sommaire
1 La démarche contextualiste 66
4 Conclusion 98
1. La démarche contextualiste
CONTENU DE GESTION
CONTRAINTES MANAGEMENT
• changement contraint HUMAIN
• réponse limitée dans le temps
• contrainte externe
L’approche restitue une place prépondérante aux acteurs clés dans l’organisa-
tion. Au centre de cette démarche analytique figure l’importance reconnue des per-
ceptions et des représentations mentales du contexte sur les situations de gestion.
Tel est le positionnement choisi par Pettigrew (1985) selon lequel l’analyse
contextualiste requiert que les phénomènes puissent être appréhendés à un niveau
d’analyse vertical mais aussi horizontal. Ces deux niveaux se trouvent en relation
d’étroite interdépendance à travers le temps :
■ le niveau vertical comporte la combinaison de variables externes à l’organisa-
tion (facteurs environnementaux, économiques, sociaux, politiques) et de
variables internes (structure, culture, technologies, acteurs, mode de manage-
ment). Ces deux aspects qualifiés de contextes interne et externe présentent
certes une dimension objective accessible grâce à des données observables
(voire quantifiables), mais aussi une dimension subjective, construite par des
perceptions, des actions-interactions, les interprétations de ces contextes par
les acteurs de l’organisation ;
■ le niveau horizontal se rapporte à la séquence interconnectée de phénomènes
dans le passé, le présent et le futur. Il lie ainsi les contraintes organisationnel-
les expérimentées dans le passé, les actes et pensées de gestion construites et
les objectifs représentés, voulus ou contraints, pour l’organisation future.
68 Contextualisme et recueil de données
Cette dimension processuelle recouvre les actions, les interactions, les repré-
sentations et les différents contextes au fil du temps.
Les quatre fondements de la démarche contextualiste sont donc le contexte
(interne et externe), les acteurs clés, les variables actuelles de l’organisation et le
processus de gestion.
CONTEXTE DE LA GRH
(contexte interne, antériorités)
GRH VARIABLE
D’AJUSTEMENT
Le choix des études de cas s’est opéré à partir des travaux de Pettigrew (1985)
qui offre un cadre de recherche original pour l’étude du changement organisationnel.
70 Contextualisme et recueil de données
Ce cadre est à la fois contextuel et processuel. Les six études de cas sélectionnées
répondent à un souci de variété des situations de gestion en milieu hospitalier. Ces
situations ont été identifiées à partir de la revue de la littérature à propos du mana-
gement hospitalier. Trois dimensions ont émergé : le degré de prévisibilité de l’acti-
vité, le niveau d’acculturation à la qualité, le type de production effectué dans les
services (soins, actes, examens, transports…). La sélection a été menée à partir des
premiers éléments contextuels identifiés et présentés dans le tableau 3.1.
La numérotation des cas correspond à l’ordre chronologique de contacts et
négociations du chercheur avec les unités du CHU.
Les cas 1, 2, 3 et 6 sont des unités de diagnostic et de soins, ils sont en con-
tact direct avec les patients.
Les cas 4 et 5 peuvent être assimilés à des services que l’on pourrait rencontrer
dans d’autres organisations publiques ou privées.
Ces cas font partie du support logistique de l’activité hospitalière.
Le contextualisme se présente ici comme un guide d’échantillonnage des étu-
des de cas, favorisant la recherche de la variété des situations de gestion, la compré-
hension des variables organisationnelles inhérentes aux spécificités de la gestion des
services hospitaliers et la mise en relation d’un moteur de recherche théorique avec la
réalité enracinée dans les faits (Glaser et Strauss, 1967)
A. CONTEXTE GÉNÉRAL
■ L’unité des Urgences pédiatriques fait partie de « l’Hôpital des enfants ». Elle
n’est pas rattachée au centre des Urgences adultes. Elle représente l’un des
points d’accueil des patients de l’Hôpital des enfants. L’unité se distingue du
service de réanimation pédiatrique par des locaux séparés (même s’ils dispo-
sent de voies d’accès dédiées) et par des activités fondamentalement
différentes : accueil, relations avec les médecins de ville et unités sanitaires
urbaines, diagnostic, soins de première nécessité, tri et éventuellement hospi-
talisation de court séjour.
■ La nature du service entraîne une articulation de l’activité de façon
ininterrompue : 24 heures et 7 jours sur 7.
B. CONTEXTE PARTICULIER
Les locaux des Urgences pédiatriques sont situés au sous-sol. La salle d’attente
et les salles de soins sont privées de lumière naturelle. Un déménagement imminent
de toute l’unité est programmé pour des travaux d’amélioration et de rénovation.
Cette programmation entraîne des changements organisationnels de type I
(Watzlawick et Weakland, 1981) :
– articulation de la production de soins et des trajectoires des patients pendant
la période du déménagement ;
– modification des routines spatio-organisationnelles pendant une période de
huit mois dans les locaux provisoires ;
– articulation de la production de soins et des trajectoires des patients pendant
la seconde période de déménagement ;
– seconde modification des notions spatio-organisationnelles. Gestion de deux
unités : urgence et hospitalisation courte-durée.
Ce contexte particulier est vécu comme difficile à gérer dans l’instant mais
aussi comme porteur d’améliorations matérielles, relationnelles (personnel soignant-
patients) et organisationnelles (rationalisation des productions de soins).
L’encadré 3.1 présente le contexte interne vécu par les cadres intermédiaires.
Ils intègrent l’accréditation dans deux idées fortes : l’événementiel (le déménage-
ment) et la valeur de l’Urgence.
L’arrivée de l’autoévaluation se situe dans ce contexte. Elle prend la forme d’un
document émanant de la direction du groupe Pellegrin. Ce document 2 décline les éta-
pes de l’accréditation sans en donner le contenu et précise que le groupe Pellegrin
s’engage dans la démarche d’accréditation en dernière position, après tous les autres
groupes hospitaliers bordelais.
■ L’unité d’Urgences pédiatriques ne présente aucune antériorité en matière de
qualité : aucun cadre intermédiaire (cadre infirmier, interne, praticien-hospita-
lier, infirmière coordonatrice) n’a suivi de formation professionnelle ou de spé-
cialisation diplomante E.N.S.P. 3.
■ Aucune expérience ni aucune démarche participative n’a été menée au nom
d’une forme plus ou moins élaborée de gestion de la qualité. Seul un projet
d’établissement a été vaguement évoqué présentant des « caractéristiques »
qualité.
■ Par conséquent, aucun document décrivant des actions quotidiennes en
matière de qualité n’a été produit dans cette phase initiale. Seule une démar-
che d’évaluation de la conformité du dossier du patient a été effectuée à partir
d’un échantillonnage de 400 patients venus dans le service.
■ Cette démarche a été entreprise par un praticien hospitalier et relayée par un
étudiant en stage appartenant au DESS gestion sanitaire et sociale de l’Univer-
sité Victor Segalen — Bordeaux II.
ENCADRÉ 3.1
Extraits d’entretiens réalisés en Phase 1 – Thème 2 – Cas 1
Un praticien-hospitalier : « Les Urgences ça doit être une passion car c’est difficile.
Nous manquons de moyens alors l’accréditation ça peut nous aider à montrer aux
organismes de tutelle que nous manquons de moyens… La salle d’attente par exem-
ple elle est trop petite, heureusement nous allons avoir de nouveaux locaux et nous
serons plus à l’aise… alors ça plus l’accréditation on espère que ce sera mieux. Mais
il faut avant cela gérer nos deux déménagements » (entretien 1.2.1)
Un praticien-hospitalier : « Vous savez les Urgences c’est un travail d’équipe. Le plus
difficile c’est l’accueil… car à côté de la bobologie il y a les vraies Urgences. Il faut
avoir l’œil sinon on risque de passer à côté. Et là le personnel d’accueil il faut le
mobiliser car il nous aide dans ce travail de tri, on peut appeler cela du pré-diagnos-
tic… Pendant les travaux cela risque d’être difficile de maintenir cette mobilisation à
l’accueil » (entretien 1.3.1)
Un cadre infirmier : « Je ne sais pas comment nous allons faire… Il y a ce déména-
gement à assurer et il faut en plus que nous nous occupions des patients. Il faut abso-
lument que nous assurions le déménagement dans l’urgence. Mais c’est toujours
comme ça… J’essaie de programmer mais c’est très difficile. Espérons que les nou-
veaux locaux changeront quelque chose dans notre organisation. (entretien 1.1.1)
Pilotage de l’accréditation
• Émergence de deux
pour le service
autorités morales : • Comparaison avec
• Confrontation
- autorité médicale le pilotage quotidien
des représentations
- autorité infirmière
• Débats informels :
Discussions • Évitement de • Pratiques • Choix de
• Choix de
ENCADRÉ 3.2
Extraits d’entretiens réalisés en Phase 1 – Thème 4 – Cas 1
Déclenchement Qualité : intérêt supé- Ajustement inter-caté- Vision d’une possibi- Documents externes
rieur communément goriel cadres intermé- lité de convergence des reçus
partagé diaires représentations
ENCADRÉ 3.3
Extraits d’entretiens réalisés en Phase 2 – Thème 2 – Cas 1
quotidiennes, avec les valeurs partagées : dévouement auprès des enfants) des trans-
ferts d’actions : mise en place d’artefacts matériels locaux comme les fiches de con-
trôle de la salle d’Urgence et d’artefacts organisationnels locaux comme la prise en
charge de la douleur.
ENCADRÉ 3.4
Extraits d’entretiens réalisés en Phase 3 – Thème 3 – Cas 1
Ces trois fonctions représentent selon Barthes (1991) une première grille de
lecture d’un récit.
■ le niveau des fonctions ou des épisodes du récit : ce sont les séquences types
d’une histoire (un énoncé) reliées par une syntaxe spécifique. La recherche des
séquences types consiste à relever une suite logique d’énoncés unis entre eux
par une relation de solidarité. « La séquence s’ouvre lorsque l’un de ces termes
n’a pas d’antécédent directement solidaire et elle se ferme lorsqu’un autre de ces
termes n’a plus de conséquent » (Barthes, 1981, p. 19) ;
■ le niveau des actions concerne les éléments du récit qui mettent en scène des
« actants », c’est-à-dire des personnages qui agissent, interviennent, jouent
un rôle dans le récit. Les actions sont considérées par Demazière et Dubar
(1997, p. 113) comme « des articulations de la praxis », c’est-à-dire des
« systèmes de personnages » concrétisant « des perspectives sur l’action » ;
■ le niveau de la narration se repère par la présence de thèses, d’arguments, de
propositions destinées à convaincre l’interlocuteur, à défendre son point de
vue à inventorier l’univers des possibles. Il met en jeu, selon Barthes (1981),
la dimension nécessairement dialogique du récit, celle qui permet d’accéder le
mieux à sa logique interne. La narration permet ainsi l’articulation des deux
premiers niveaux et leur intégration dans un discours argumentaire ; elle est
destinée à un auditeur/lecteur.
L’analyse structurale du récit consiste donc à articuler les épisodes d’une his-
toire (ses séquences) pour découvrir la logique du discours tenu à son destinataire
(les arguments). Elle consiste à saisir les associations, les oppositions, les tensions
qui relient les thèmes d’un discours, autrement dit, à saisir la structure du discours.
Elle entend ainsi mettre à jour la structure des représentations de l’individu. L’analyse
structurale est particulièrement adaptée lorsque les objets de l’étude sont des repré-
sentations.
forme de verbes (préférer, détester, faire, …), d’adjectifs (regrettable, bon, …),
d’adverbes (plutôt, mieux, …).
Ces deux éléments de base se combinent parfois entre eux pour former des
structures plus complexes : les condensations et les structures croisées.
Il peut arriver qu’à plusieurs endroits du discours une même réalité soit mani-
festée dans un matériau par plusieurs mots ou plusieurs expressions synonymes, ou
très proches dans leur signification ; une opération de condensation est alors effec-
tuée.
L’opération de condensation peut également s’appliquer quand la signification
de plusieurs disjonctions est proche et que la prise en compte de chacune d’elles fait
apparaître des redondances.
Les structures croisées regroupent deux disjonctions dont les termes ne
s’impliquent pas mutuellement. Le croisement génère ainsi quatre quadrants pouvant
féconder des réalités théoriquement possibles ou prises en compte par le locuteur.
L’analyse de chaque entretien a donc été menée à travers le repérage des
séquences et de leurs liens avec les actants comme le montre le tableau 3.5.
Les actants sont des participants au récit et aux actions passées, présentes ou
projetées par l’interviewé. Ils font partie de l’espace de gestion représenté par le
cadre intermédiaire. Les actants interviennent aussi dans les propositions narratives
en tant qu’opposants, adjuvants ou destinataires de l’action. Ils interviennent dans la
construction d’une organisation locale possible, souhaitée ou idéalisée. Les actants
peuvent être les cadres intermédiaires interviewés. Ils se projettent alors eux-mêmes
dans le pilotage du changement comme acteur principal, opposant actif ou passif,
catalyseur ou simple destinataire.
Les propositions narratives mettent en valeur l’argumentation des personnes
interviewées. Les univers des possibles ont été relevés dans l’ordre et par thème
abordé à partir du guide d’entretien, comme le souligne le tableau 3.6.
Les propositions narratives constituent la première étape des représentations
du cadre intermédiaire interviewé. Celles-ci ne sont pas encore valorisées. La valorisa-
tion permet à la recherche de repérer le déséquilibre ou l’équilibre cognitif, permet-
tant ainsi de mobiliser le modèle de la dissonance cognitive comme moteur de
recherche et de produire des résultats quant à l’effort du cadre intermédiaire pour
réduire cette dissonance.
Le tableau 3.7 complète l’analyse de contenu ; il constitue le second niveau
d’analyse en soulignant les disjonctions, condensations et valorisations des cadres
interviewés.
Les disjonctions et les condensations permettent d’appréhender la catégorisa-
tion mentale et les valorisations (+/-) des représentations. Elles permettent de com-
prendre les composantes sur lesquelles portent la dissonance ou la consonance
cognitive du cadre intermédiaire interviewé.
Chaque entretien a ensuite fait l’objet d’une analyse/réduction respectant la
démarche structurale afin de produire un schème spécifique pour chacune des trois
séries d’interviews.
Recueil et analyse de données 85
ÉTAPE 1
Cas Interwievé 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier
S3
ancien
La contrainte Relation entre services La réorganisation La multiplication des
S4
réunions
D11 : ARH D11 : Cadre infirmier D11 : Cadre infirmier D1 : Cadre infirmier
A1
• adjuvants : Ad ; • opposants : O ; • destinataires : D
A2
O22 : Direction D2 : Soignants D22 : Aide-soignants
ÉTAPE 1
Cas Interwievé 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier
Le contrôle externe peut La priorité doit être La multiplication des Changer les
permettre d’obtenir des accordée au travail être projets autour de la qualité comportements
P1
moyens accordée au travail risque d’entraîner la
quotidien avec les malades démobilisation
La gestion prend le pas sur L’accréditation ne vient pas La multiplication des Mobiliser pour introduire
le suivi des patients du personnel elle nous est projets autour de la qualité supplémentaire
P2 imposée par les risque d’entraîner la
organismes de tutelle démobilisation
Eparpillement
• argumentation ; • univers des possibles
ll faut éviter la dispersion La qualité avait déjà été Si les médecins engagent Maîtriser les phases
dans le travail quotidien définie par la direction dans la qualité sans plan de changement
P3
le projet d’établissement d’action le risque est de
Propositions narratives =
revenir en arrière
Le travail s’effectue plus L’accréditation devrait La réorganisation se fera Il faut éviter la réunionite
P4 sous la contrainte renforcer les liens entre les par l’intermédiaire des Elle conduit à la
services médecins seniors démobilisation
La difficulté provient d’un L’accréditation devrait La traduction de termes Les aide-soignants ont
manque de moyens montrer l’insuffisance de doit venir de la direction répondu présents
P6 personnel dans tous les Ils semblent plus
services impliqués que les autres
L’observation directe a souvent été placée assez bas dans la hiérarchie des
méthodes à apprendre, maîtriser et utiliser. Pour Peretz (1998, p. 7), l’observation
serait considérée comme une méthode subjective de recueil d’anecdotes et dérogerait
à deux principes scientifiques :
■ représentativité statistique.
Recueil et analyse de données 87
ÉTAPE 1
Cas 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier
Disjonctions V1 D1 V1 D1
= Le contrôle externe peut Le travail quotidien La qualité Il est difficile de changer dans
D nous sortir d’un état de dans le service nos comportements et dans
crise dans la mesure où Avec les (avec les nos mentalités
Valorisations il peut nous permettre malades Niveau de changement
autres) démobi- (mobili-
=
d’obtenir les moyens lisation sation)
V +
humains pour soigner D2 – nos compor-- (nos
Condensation
les patients Contraintes par la V2 tements mentalités)
= Contrôle bureaucratie La qualité dans le
C service D2
Interne Externe Accrédi- (autres Nous sommes toujours en
Doubles – + tation écrits) réunion au lieu d’être auprès
Éparpil- (recen-
disjonctions trage) des malades
Hôpital lement
= D3 + Se situer
–
DD Relations entre services D1
Gestion Soins
– + Adjuvant qualité malades réunions
Renforce- (dégrada-
ment tion de service d’accréditation
Moi (les autres)
D3
Changer dépend du temps que
l’on peut avoir et des moyens
donnés
Changement
temps moyens
D6
Implication
Niveau II
DD
Comportements
temps
et ni temps
moyens ni moyens
Pourtant, l’observation marque pour Soler (2000) une progression par rapport
à la démarche expérimentale dans le champ des sciences empiriques : elle permet une
richesse d’analyse par la mise en évidence des contextes de gestion.
S S S
A A A
P P P
S S S
A A A
P P P
d’observation : qualitative, flottante puis plus précise, sans a priori, et dans laquelle
l’observateur en sciences de gestion devra rester conscient du processus dans lequel il
s’engage et, en même temps, rendre compte de l’intérieur des phénomènes vécus par
les acteurs.
Cette argumentation rejoint les propos d’Aktouf (1985, p. 248) même s’ils con-
cernent le champ des sciences sociales : « S’il suffisait d’un questionnaire pour com-
prendre le travail et ce qui se passe dans l’être du travailleur, il suffirait aussi d’un
‘sondage’ pour connaître à la fois le milieu, les hommes et les systèmes de relations…
qu’en penseraient alors Malinowski ou Margaret Mead ? »
« impliqué » et « concerné » a ici son importance. Car si les médecins ont accompa-
gné l’ensemble de la démarche, ce sont aussi les praticiens hospitaliers et les cadres
infirmiers impliqués par les changements organisationnels qui se sont engagés. On ne
doit pas s’étonner d’ailleurs de ce constat : ils se situent en première ligne lorsque
s’engage l’exécution du travail de prise en charge des patients mais en arrière-plan,
leurs actions se situant également dans la conception de la prise en charge, en conce-
vant les stratégies diagnostiques et thérapeutiques à mener et les moyens à mettre en
œuvre (Pascal, 2000).
B. TYPES D’OBSERVATIONS
Pour Coenen-Huther (1991), l’hôpital apparaît comme un cadre institutionnel
de relations interpersonnelles. Aussi est-il possible d’observer trois niveaux d’interac-
tions distincts :
■ relations entre patients et membres du personnel ;
■ relations entre patients ;
■ relations entre membres du personnel.
TYPES D’OBSERVATIONS
1 Recherche des contextes possibles (Acteurs, Lieux, Fréquences)
2 Recadrage : interactions verbales / situations de production d’écrits
3 Reproduction des observations dans leurs contextes
2
recadrage
retour empirique recadrage 1
3 3
recadrage retour empirique
définition 2 définition
d’un dispositif 3
d’un dispositif
d’observations préalable retour empirique d’observations préalable
2 définition
d’un dispositif
d’observations préalable
1
Identification des acteurs observés
R A R R A/R R R A
autrui autrui
autrui généralisé autrui généralisé autrui autrui
individualisé individualisé
catégorie 1 catégorie 2 individualisé individualisé
restreint restreint
catégorie 1 catégorie 2
catégorie 1 catégorie 2
R A/R
réduction $
rece
rece
ntra
ntra
projection projection agrégation/repli !
ge
ge
"
#
A/R/Aj A/R/Aj A/R/Aj
autrui généralisé autrui généralisé autrui généralisé autrui généralisé autrui généralisé autrui généralisé
catégorie 1 catégorie 2 catégorie 1 catégorie 2 catégorie 1 catégorie 2
Critères Cotations Nombre de commentaires Effets sur l’Artefact Effets sur l’Artefact
TABLEAU 3.9 – Analyse transversale des six études de cas à partir du questionnaire
d’autoévaluation du CCECQA*
aussi aux valeurs des soignants : expertise médicale, dévouement (prise en charge
des patients).
Les critères généraux font l’objet d’une grande neutralité sauf en ce qui con-
cerne le projet de service. Il cristallise le rejet d’une démarche accréditive vécue
Recueil et analyse de données 97
comme imposée pour les tutelles. Le projet de service n’est que rarement en place
dans les unités de soins ou les unités logistiques. Les cadres intermédiaires expriment
à travers les entretiens une incompréhension de l’utilité d’un projet de service à tra-
vers les items suivants :
■ Existe-t-il un projet qui définit les missions et les objectifs du service à court
terme ?
■ Existe-t-il une procédure, écrite, valide, connue et mise en œuvre définissant
les conditions d’actualisation du projet de service (périodicité,
responsabilité) ?
■ Les objectifs du projet sont-ils cohérents avec ceux du projet d’établissement
(ou du plan stratégique) ?
■ Le projet d’établissement (ou le plan stratégique) est-il diffusé et connu de
tous dans le service, grâce à une stratégie de diffusion auprès de tous les per-
sonnels, y compris les nouveaux arrivants ?
Les commentaires produits expriment l’inutilité d’un tel investissement, le
manque de moyens, la volonté de préserver l’articulation quotidienne du service et le
fait d’éviter le découragement du personnel.
Les convergences de représentations sont importantes tant chez les cadres
infirmiers, les cadres praticiens-hospitaliers et les cadres techniques en ce qui con-
cerne la non-pertinence d’un projet de service. Le projet d’établissement, quant à lui,
fait l’objet de valorisations positives tant dans les entretiens que dans les commentai-
res des questionnaires en retour d’analyse.
La prise d’indépendance de l’artefact organisationnel produit par la direction
du CHU se matérialise par une intensification du recours aux artefacts locaux. Cette
intensification dépend du contexte de gestion de la qualité. Pour les services ayant
expérimenté une démarche qualité, l’intensification prend les modalités suivantes :
■ Impulsion : mise en comparaison des artefacts locaux avec les artefacts
ANAES ;
■ Diffusion : création de nouveaux artefacts matériels (procédures de manipula-
tion et de contrôle de matériels) et légitimation des artefacts organisationnels
(intensification du recours au manuel de procédures internes) ;
■ Consolidation : recherche de correspondances ciblées des critères d’autoéva-
luation avec les artefacts locaux.
Pour les services n’ayant pas expérimenté de démarche, les cadres intermédiai-
res pilotent le changement avec les modalités suivantes :
■ Création : création d’artefacts matériels fédérateurs répondant aux valeurs du
service (expertise, dévouement, esprit d’équipe). Il s’agit d’artefacts se rappor-
tant aux manipulations quotidiennes. Les artefacts matériels autorisent
ensuite la production d’artefacts organisationnels limités ;
■ Légitimation : mise en représentation des artefacts matériels et organisation-
nels créés (conférences thématiques, affichages auprès des patients, affichage
auprès du personnel) avec l’accréditation comme thème fédérateurs ;
98 Contextualisme et recueil de données
4. Conclusion
Le contextualisme redonne une place centrale aux acteurs dans le cadre de leur
gestion quotidienne. Il permet une analyse fine des situations de gestion en plan rap-
proché et contribue ainsi à la compréhension des conditions de maintien ou de chan-
gement organisationnel.
Une telle perspective aboutit à des conceptions nouvelles pour la fonction res-
sources humaines et pour le management humain dans le processus du pilotage du
changement organisationnel. Ainsi, la fonction ressources humaines peut être appré-
hendée dans toutes ses dimensions contextuelles — son statut, son histoire, sa
structure, ses capacités et ses spécificités — pour expliquer son rôle et son pouvoir
qu’elle est susceptible d’exercer dans la gestion du changement organisationnel.
De même le contexte permet d’éclairer les potentialités, les contraintes, la pré-
gnance des pratiques passées et de comprendre ainsi toutes les dimensions du mana-
gement humain opéré par les dirigeants et cadres intermédiaires.
Etant donnée son ouverture paradigmatique, le contextualisme renvoie à diffé-
rents modèles descriptifs et explicatifs de la reconduction ou du changement des pra-
tiques organisationnelles. Il peut ainsi se combiner au modèle de la planification
stratégique tout comme au modèle contingent, politique ou incrémental.
Cette combinaison aboutit à exprimer l’importance du management humain
dans la gestion quotidienne des organisations. Ce dernier n’est plus seulement
entrevu à partir du simple degré de réalisation d’objectifs assignés. Il est appréhendé
à partir de critères qui tiennent compte à la fois des contraintes et des opportunités
du contexte c’est-à-dire des éléments antérieurs à la situation de gestion mais aussi
de la diversité des intérêts et rapports de force en présence et des phénomènes émer-
geant commis dans la quotidienneté des actes de gestion.
Bibliographie
Aktouf O. (1985), La méthode de l’observation participante, in La rupture entre l’entre-
prise et les hommes, sous la direction de A. Chanlat et M.Dufour, Paris : Les Éditions
d’Organisation.
Aktouf O. (1992), Méthodologie des sciences sociales et approche qualitative des organi-
sations, Presses Universitaires du Québec.
Bardin L. (1996), L’analyse de contenu, Paris : PUF.
Barthes R. (1981), Introduction à l’analyse structurale des récits, Paris : Le Seuil, Collec-
tion Points Essais.
Bibliographie 99
L’entretien de recherche
Pierre ROMELAER 1
Sommaire
1 Définition de l’entretien semi-directif centré (ESDC) 102
12 Conclusion 134
L’entretien est une des méthodes qualitatives les plus utilisées dans les recher-
ches en gestion. Un entretien de recherche n’a rien de commun avec une discussion
dans laquelle on se laisse porter par l’inspiration du moment.
Le premier objectif de ce chapitre est de fournir des éléments pour concevoir
et conduire les entretiens, si on veut recueillir des données de qualité scientifique
dans le cadre d’une recherche en gestion. Le second objectif est de permettre au lec-
teur d’analyser dans quelle mesure les entretiens sont utilisés de façon pertinente et
avec la rigueur adéquate dans des recherches publiées. Cette analyse contribue au
jugement qu’on peut porter sur la solidité scientifique des résultats présentés dans les
articles dans les revues scientifiques, les communications dans les colloques, les thè-
ses, les livres à orientation recherche.
Nous traiterons très essentiellement de ce qu’on appelle l’entretien semi-direc-
tif centré, un mode d’entretien dans lequel le chercheur amène le répondant à com-
muniquer des informations nombreuses, détaillées et de qualité sur les sujets liés à la
recherche, en l’influençant très peu, et donc avec des garanties d’absence de biais qui
vont dans le sens d’une bonne scientificité. De plus, les entretiens effectués avec plu-
sieurs répondants peuvent être conduits avec un caractère systématique qui lui aussi
va dans le sens d’une bonne scientificité. L’absence de biais et le caractère systémati-
que sont possibles malgré le fait que, vu de l’extérieur et notamment par le répon-
dant, l’entretien paraît être conduit comme une conversation. Mais il y a du côté du
chercheur, comme nous le verrons, beaucoup de rigueur et un travail très exigeant.
Il existe d’autres types d’entretiens. Certains sont plus dirigés ou directifs que
l’entretien semi-directif centré : ils se rapprochent alors du format des entretiens gui-
dés et des questionnaires. Certains entretiens sont encore moins directifs que les
entretiens semi-directifs centrés. Nous verrons plus loin qu’ils sont souvent moins
adaptés pour les recherches en gestion 2.
L’entretien semi-directif centré (nous le noterons ESDC dans la suite) est une
des méthodes d’entretien les plus utilisées. Ses caractéristiques principales sont les
suivantes :
■ L’interviewer commence par obtenir l’accord du répondant pour faire l’entre-
tien, et il prononce la « phrase d’entame ». La phrase d’entame est du style :
« Pourriez vous me décrire la journée de travail d’hier ? », ou « Pourriez vous
me décrire ce que vous avez regardé la dernière fois que vous avez utilisé
Internet ? », ou encore « Pourriez vous choisir un projet d’investissement de
votre filiale et me dire qui est intervenu dans ce projet depuis le début ? »
Cette partie de l’entretien est la seule qui soit directive.
Dans la suite de l’entretien, l’interviewer laisse le répondant s’exprimer dans
son propre langage, mais il oriente l’entretien par des « reformulations » et des
2 Nous verrons les autres types d’entretiens dans le paragraphe 4 sur « Le guide de l’interviewer et
le guide d’entretien ».
Définition de l’entretien semi-directif centré (ESDC) 103
3 Les termes « reformulation », « reformulation résumé » et « relance » sont précisés plus loin, au
paragraphe 5.
4 Il existe une différence importante entre le « guide de l’interviewer » et le « guide d’entretien ».
Si on définit ce dernier comme une liste de questions spécifiées avant l’entretien et qui seront
posées l’une après l’autre au répondant, alors l’entretien semi-directif centré ne comporte pas de
guide d’entretien. Dans l’ESDC, la majorité des thèmes de relance est définie a priori. Nous revien-
drons sur cette question au paragraphe 4.
5 Dans la « reformulation-résumé », l’interviewer résume dans ses propres termes ce que le répon-
dant vient de dire. Cette démarche lui permet de s’assurer qu’il a bien compris ce que l’interviewé a
dit, et elle permet à l’interviewé de rectifier ou de compléter son propos si nécessaire.
104 L’entretien de recherche
PE RR RR R1 RR RR R2 RR R3 FIN
ment motivés », etc. Les expressions utilisées par les répondants n’ont pas nécessai-
rement cette forme précise dans la mesure où chacun s’exprime dans son propre
langage 7. Le repérage statistique est en quelque sorte un « repérage du réel » qui
permet de se faire une idée plus précise du terrain qu’on observe. Sur un ensemble
d’une dizaine d’ESDC, ce repérage n’a pas bien entendu une valeur scientifique per-
mettant d’aboutir à des conclusions et à des lois statistiques.
La même méthode que ci-dessus peut servir à fonder des tests d’hypothèses.
Le nombre et la distribution des ESDC doit alors respecter les critères exigés pour un
test de cette nature. On remarque en passant que la méthode est alors à la fois quali-
tative et quantitative. Dans ce cas le choix du nombre d’entretiens s’effectue avec les
mêmes méthodes que celles utilisées en méthodes quantitatives. Par exemple, si on
teste l’hypothèse « dans les projets d’innovations réussis les chefs de projets ont plus
de préoccupations stratégiques », on peut effectuer des entretiens avec des chefs de
projets, mesurer dans chaque entretien la proportion du texte qui contient des préoc-
cupations stratégiques, et comparer cette proportion entre les 40 % des projets les
plus réussis et les 40 % des projets les moins réussis 8.
Les entretiens ne sont pas toujours utilisés dans une partie de recherche à
visée quantitative. Ce n’est pas le cas quand on cherche à voir dans quelle mesure les
descripteurs pertinents du sujet de recherche déjà identifiés par la littérature sont
présents dans le terrain étudié, ou quand on veut identifier des descripteurs perti-
nents qui n’ont pas encore été mentionnés par des chercheurs ou des experts. Dans ce
cas, le critère n’est pas le nombre d’entretien mais la saturation sémantique et la
saturation théorique.
Il y a saturation sémantique si deux conditions sont remplies :
■ Les nouveaux ESDC qu’on conduit n’apportent plus de descripteurs ou de
modalités différents de ce qui a été obtenu par les anciens entretiens. Par
exemple, si les quatre derniers entretiens n’ont rien amené de neuf, on peut
penser qu’on a un nombre suffisant d’entretiens.
■ L’échantillon des entretiens est suffisamment divers au sens suivant :
– d’abord, on regarde la population dans son ensemble (par exemple les ven-
deurs en clientèle) ;
7 Le fait qu’une partie d’un texte d’un entretien soit le signe de la présence d’un descripteur de la
recherche (par exemple le fait que l’expression « ils se sont très investis dans ce job » est le signe
que « les collaborateurs sont très motivés ») est affaire de jugement. Comme le jugement est porté
par un sujet, il s’agit d’un jugement subjectif. Pour qu’on soit dans le domaine de la science il faut
alors se donner des garanties. On les trouve par exemple dans le « double codage » : (1) le chercheur
définit un protocole pour chaque descripteur, c’est-à-dire une procédure qui permet de reconnaître
que le descripteur est dans le texte ; (2) il communique la liste des descripteurs, des protocoles de
reconnaissance, et la transcription de l’entretien à un autre chercheur ; (3) il compare son propre
codage à celui de l’autre codeur. S’il y a un « taux d’accord intercodeurs » (en anglais : inter rater
agreement) supérieur à 80 %, on peut considérer qu’on a une mesure de qualité suffisamment scien-
tifique. On remplace l’objectivité par le « degré d’accord intersubjectif ». Il est souvent considéré
comme suffisant que le double codage porte sur 10 % des textes analysés.
8 Sur un tel exemple, on voit à quel point la recherche est délicate. Par exemple, il faut disposer
d’un indicateur de succès d’un projet d’innovation qui permette la comparaison de projets de natures
différentes dans des entreprises différentes.
106 L’entretien de recherche
– ensuite, on se demande quels sont les critères en fonction desquels les phé-
nomènes auxquels on s’intéresse dans la recherche peuvent varier dans la
population. On recueille le plus grand nombre possible de critères impor-
tants auprès des sources classiques : la littérature de recherche, les experts
et praticiens, la problématique de la recherche, l’intuition du chercheur, la
littérature professionnelle, les observations. Par exemple, si la recherche
concerne les mécanismes de coordination les plus efficaces que l’entreprise
peut utiliser vis-à-vis des vendeurs en clientèle, on se demandera qu’est ce
qui a priori peut conduire à utiliser des mécanismes de coordination diffé-
rents. On pourra ainsi identifier six ou sept critères, parmi lesquels le degré
de technicité des produits, l’importance de la fonction marketing dans
l’entreprise, la taille de l’entreprise, etc. 9 ;
– alors on conclut que l’échantillon est suffisamment varié s’il comporte par
exemple au moins une (ou deux si on est exigeant) observations sur chaque
niveau de chaque critère. Si on reprend l’exemple des mécanismes de coor-
dination des vendeurs en clientèle, il faut qu’il y ait des vendeurs de pro-
duits techniques et peu techniques, des vendeurs de grandes et de petites
entreprises, etc.
L’idée ici n’est pas du tout d’avoir une représentativité statistique et un échan-
tillon complet. L’idée est d’avoir exploré suffisamment la variété des situations.
Il y a « saturation théorique » si chaque descripteur identifié dans un ESDC est
replacé dans le cadre d’une théorie ou d’un modèle, qui peuvent être ceux du cher-
cheur ou venir de la littérature. Si par exemple on identifie dans un ESDC qu’une ques-
tion importante pour les salariés en cours de recrutement et dans les premiers mois
de leur travail est la préoccupation de « faire partie » de l’entreprise qui les recrute,
d’y être intégrés, alors le chercheur doit incorporer cette donnée à un modèle, par
exemple les modèles de socialisation de Sainsaulieu, de Dubar ou de Sathe. À partir
de là, le chercheur doit incorporer dans le guide de l’interviewer de ses futurs ESDC les
descripteurs utilisés dans ces modèles, auxquels il n’a pas forcément pensé lorsqu’il
effectuait ses premiers entretiens exploratoires. En ce sens, le guide de l’interviewer
d’un ESDC se sature progressivement à l’aide des descripteurs venant de théories assez
cohérentes et complètes (celles du chercheur, celles de la littérature).
Le choix des personnes interrogées et le choix du nombre d’entretiens sont des
compromis. L’efficacité de ces choix doit faire l’objet d’une analyse ex ante et d’un
réexamen ex post :
– en revenant sur les critères ci-dessus ;
9 Parmi les critères classiquement rencontrés, on peut avoir ceux qui suivent :
- les critères liés aux personnes interrogées : âge, sexe, CSP, fonction et niveau dans l’entreprise,
style de leadership, formation, type de motivation, etc. ;
- les critères liés au terrain : degré de turbulence de l’industrie, entreprise indépendante ou
filiale, type de technologie, milieu urbain/péri-urbain/rural, etc. ;
- les critères identifiés par la littérature de recherche.
- les critères liés à la recherche elle-même : moment de l’ESDC dans la journée, dans la semaine
ou dans l’année, lien entre le chercheur et la direction, lieu de l’entretien avec les consomma-
teurs, etc.
Le nombre d’entretiens et la variété de l’échantillon 107
10 Mais il est certain aussi que la focalisation sur la littérature peut « assécher l’imagination » et
conduire au conformisme et à la scolastique dans le mauvais sens du terme.
108 L’entretien de recherche
trant ce que peuvent être concrètement des comportements types. Le nombre des
entretiens à conduire et la variété des répondants sont éminemment dépendants du
type de données illustratives recherchées.
Enfin, il y a le cas des recherches longitudinales dans lesquelles des méthodes
qualitatives sont utilisées pour étudier un phénomène dans la durée (souvent de
quelques semaines à plusieurs années). Il faut alors conduire des ESDC répétés, et
veiller à ce que la densité temporelle des entretiens soit adéquate dans chaque sous-
durée de la durée totale, ainsi que lors des périodes charnières.
Pour terminer, signalons que les entretiens :
– peuvent être utilisés comme seule méthode de la recherche, ou en complément
à d’autres types de données : questionnaires, observations formatées, textes ou
données comptables fournis par les organisations étudiées, etc. 11 ;
– peuvent être effectués auprès de répondants d’une même organisation ou
auprès de répondants appartenant à des organisations différentes. On est dans
la première situation dans le cas d’une « recherche clinique », ou dans une
recherche basée sur des études de cas. On est dans le second cas si, par exem-
ple, dans une recherche sur la gestion de l’innovation, on conduit trois entre-
tiens par projet d’innovation, avec deux projets par entreprise sur douze
entreprises différentes.
Le nombre et la variété des entretiens ne sont pas les mêmes selon qu’on est
dans l’une ou l’autre des situations décrites ci-dessus. Dans une recherche sur l’inno-
vation, comme celle mentionnée ci-dessus, il peut par exemple être utile que, dans
chaque entreprise, il y ait un entretien avec un cadre dirigeant et deux entretiens
avec des membres du groupe projet, l’un étant un spécialiste de marketing, et l’autre
un ingénieur. Une telle approche permet de « confronter les points de vue » d’une
façon systématique.
La phrase d’entame doit être exprimée dans le langage du répondant. Elle doit
être simple, amener le répondant à un discours utile pour la recherche et ne doit pas
être menaçante.
Les trois exemples ci-dessous montrent le genre de phrases d’entame à éviter :
■ « Comment sont vos relations avec vos collègues de travail ? » : à éviter parce
que la formulation de la question peut sous-entendre que ces relations pour-
raient être mauvaises, et parce qu’un répondant en général ne souhaite pas
parler de sujets délicats dès le début d’un entretien. La réponse à la question
risque d’être « Bonnes » même si ces relations sont mauvaises, avec pour con-
séquence supplémentaire, dommageable pour la qualité de l’entretien, d’avoir
un répondant qui est sur la défensive s’il craint que l’interviewer ne cherche à
11 Quand on cherche à voir si les données recueillies à partir de méthodes diverses (avec, entre
autres, des entretiens, par exemple) donnent des résultats convergents, on dit qu’on fait appel à la
triangulation méthodologique.
La phrase d’entame, le début de l’entretien 109
obtenir des informations qui pourraient lui causer du tort si elles venaient à
être connues comme provenant de lui.
■ « Pourriez vous m’indiquer quelle est votre carte cognitive ? », ou « Quel est
l’agenda stratégique de l’entreprise ? » : à éviter parce que ces termes ne font
sans doute pas partie du langage naturel du répondant. De façon générale dans
les entretiens, le chercheur doit savoir jouer sur deux registres lexicaux très
différents : d’une part les termes du langage de la recherche, qui servent à
comprendre le réel dans un langage codifié et à communiquer les résultats à la
communauté scientifique ; et d’autre part les termes naturellement utilisés par
les répondants. Les termes de la phrase d’entame doivent appartenir à ce
second registre lexical.
■ « Quel est le degré de décentralisation de votre entreprise ? », « Quelle est la
structure organisationnelle de l’usine ? » (à éviter parce que les termes utilisés
ont un sens très précis dans la recherche, et que ces termes risquent fort
d’avoir pour le répondant un sens qui n’est pas celui que leur donne le cher-
cheur).
La phrase d’entame peut aussi ne pas mentionner le sujet de la recherche. Par
exemple une phrase d’entame du type « Pourriez vous me décrire votre journée de tra-
vail d’hier ? » peut être utilisée dans une recherche portant sur les mécanismes de
coordination, sur la gestion des compétences ou sur la décentralisation des décisions.
Dans ce cas la phrase d’entame est utilisée de façon « projective » : elle projette le
répondant dans une partie de son réel. L’extraction des données qui intéressent le
chercheur se fera ensuite par le moyen des reformulations et des relances.
Dans ce mode d’entretien, il est même possible que le sujet de la recherche ne
soit pas indiqué au répondant 12. Il peut paraître a priori bizarre que le chercheur
n’indique pas au répondant le sujet de sa recherche dans l’entretien ou au début de
l’entretien. C’est toutefois une approche à laquelle il faut songer (1) lorsque certains
des sujets abordés sont sensibles (qualité des relations entre les personnes, relations
de pouvoir, mode de travail du groupe de direction générale, etc.) ; ou (2) lorsque sur
certains sujets il existe le risque de voir le répondant chercher à communiquer à
l’interviewer une image de lui même ou de son entreprise conventionnellement consi-
dérée comme bonne (en se présentant comme compétent, motivé, rationnel, coopéra-
tif, etc.).
Ne pas indiquer au répondant quel est le sujet de la recherche peut mettre
l’interviewer mal à l’aise, lui donner l’impression d’être « moralement condamnable »
parce qu’il dissimule l’essentiel à son interlocuteur. Sur ce point il faut à notre avis à
la fois dédramatiser et mettre en garde :
■ le sujet de recherche est une préoccupation essentielle du chercheur, c’est nor-
malement une préoccupation que les entreprises ont ou devraient avoir, mais
ce n’est dans beaucoup de cas pas une préoccupation essentielle du
répondant 13 ;
Il n’y a pas de phrase d’entame optimale pour un entretien. Mais comme nous
l’avons vu ci-dessus il peut y avoir des phrases d’entame à éviter. Pour savoir si une
phrase d’entame est à éviter, le chercheur dispose de plusieurs méthodes : (1) se
demander dans quelle mesure la phrase d’entame peut être menaçante, ou exprimée
dans un langage inadéquat ; (2) tester la phrase d’entame auprès d’un autre cher-
cheur ou d’un directeur de recherche ; (3) se demander comment la phrase d’entame
est susceptible d’être interprétée par le répondant, et se familiariser avec le monde
dans lequel vivent les répondants pour acquérir une meilleure connaissance du lan-
gage qu’ils utilisent et des interprétations qu’ils peuvent donner à la phrase d’entame.
Si le sujet de la recherche comporte des aspects délicats, le chercheur peut
utiliser une « phrase de lancement » pour débuter l’entretien et établir la relation et
la confiance, puis aborder la partie délicate avec une « phrase d’entame facilitante ».
Si un chercheur s’intéresse aux styles de management, et s’il pense que le style d’un
manager peut être conditionné par son mode d’entrée dans la fonction, il peut com-
mencer avec une première phrase du type « En quoi consiste la direction d’une unité
comme la vôtre ? », et après une première partie d’entretien introduire le thème déli-
cat avec une phrase du type : « Quand un cadre prend la responsabilité d’un nouveau
service il y a en général des difficultés dans les premiers temps. Comment ça s’est
passé pour vous ? » Une telle phrase signale que les difficultés sont considérées
comme un élément normal, alors que le répondant peut hésiter à en parler s’il pense
qu’un manager doit tout réussir tout le temps, et que toute personne qui avoue l’exis-
tence de difficultés est un incompétent ou un faible.
Pour terminer sur la phrase d’entame, il faut signaler le fait que le répondant
peut ne pas comprendre la question. Dans ce domaine, il est prudent d’essayer (sou-
vent avec des collègues et amis) de faire une simulation avant le premier entretien.
Par exemple, dans un entretien sur la gestion des filiales dans les groupes, si la phrase
d’entame est « Pouvez-vous m’expliquer commet vous gérez vos filiales ? », et si la
réponse du cadre dirigeant interrogé est « On ne peut pas dire que nous gérons les
filiales : ce sont les directeurs de filiales qui font ça », alors le chercheur aura intérêt
à savoir comment il va poursuivre son recueil de données.
La phrase d’entame n’est pas le seul moment du début de l’entretien.
Avant la phrase d’entame, il y a pratiquement toujours un moment au cours
duquel le chercheur est amené à informer l’interviewé de la nature de la recherche :
qui la fait, pourquoi, quelles peuvent en être les utilisations, quelles démarches sont
entreprises pour garantir la confidentialité des données, etc. Les répondants deman-
dent des précisions dans ces domaines même si des explications ont été données
avant l’entretien, au moment où le chercheur sollicite un rendez-vous. Le chercheur
La phrase d’entame, le début de l’entretien 111
14 Au cours de cette phase très préliminaire, on a deux phénomènes qui sont en cours. D’abord, la
relation entre le chercheur et le répondant est fragile : le répondant n’a pas encore manifesté avec
certitude qu’il va effectivement accepter de consacrer une heure de son temps pour fournir des don-
nées. Le chercheur peut, consciemment ou inconsciemment, craindre que la relation ne s’établisse
pas, que le répondant manifeste une réticence ou une opposition, voir qu’il mette fin à l’entretien
avant que l’entretien n’ait commencé. Ensuite, dans cette phase, c’est le chercheur qui est sur la sel-
lette, et qui doit répondre aux questions d’une de façon satisfaisante pour son interlocuteur. Or le
chercheur n’a pas d’information précise sur ce que le répondant attend, et le répondant peut formu-
ler des questions de façon assez incisive parce qu’il a besoin d’être rassuré sur le fait qu’il n’existe
pas d’enjeux cachés dans l’entretien, qu’il a besoin d’avoir une idée claire des conséquences possi-
bles que ses réponses peuvent avoir pour lui, et qu’il a besoin de tester le niveau de professionna-
lisme de l’interviewer : il serait réticent, à juste titre, à accepter de consacrer du temps à l’entretien
s’il avait l’impression d’avoir affaire à un chercheur qui est un amateur. Pour ces raisons, et parce que
le chercheur n’est pas forcément très sûr de lui et de ses compétences, cette phase initiale peut
comporter des germes de tension qu’il faut surmonter. Pour faciliter la gestion de cette phase, le
chercheur peut éventuellement faire une simulation du début d’entretien avec un collègue.
15 Nous utilisons ici des termes qui peuvent être employés avec les répondants. Les termes techni-
ques sont « entretien semi-directif centré », « entretien guidé », « questionnaire administré en face
à face », et « entretien non directif » (voir au paragraphe suivant). Bien entendu, ces termes font
partie du vocabulaire technique du chercheur et n’ont pas à être employé avec les répondants. D’une
part il n’est pas utile de le faire, et les répondants n’y accordent en général pas d’importance, et
d’autre part ces termes peuvent être nuisibles parce qu’ils apportent un sentiment de distance et
injectent le monde de la recherche dans l’entretien, alors qu’au contraire ce que le chercheur sou-
haite est d’atteindre une proximité avec le monde du répondant.
16 Il y a même souvent plus qu’une gêne, et, entre autres pour les chercheurs qui débutent dans la
pratique de l’entretien semi-directif, on n’est pas loin du bon terme si on parle d’angoisse : le répon-
dant va-t-il parler ? Va-t-il interrompre l’entretien avant qu’il ait commencé ?
112 L’entretien de recherche
ENCADRÉ 4.1
Un exemple de démarrage assez laborieux d’un entretien
Chercheur : Quelles ont été les principales formations suivies par les cadres dirigeants
dans votre entreprise au cours des deux ou trois dernières années ?
Répondant : Qu’est ce que vous appelez une formation ? Un processus peut être une
formation. Ou bien vous voulez simplement parler des formations qu’on appelle expli-
citement formations ?
C : Les deux, aussi bien les formations au sens très général du terme, processus
comme vous dites, que les formations au sens étroit du terme avec un formateur et des
formés.
R : Et vous me posez la question à moi dans mon cas particulier, ou bien vous me
posez la question sur ce que je vois autour de moi ?
C : Sur ce que vous voyez autour de vous, sur ce qui à votre avis marque le plus la
partie du groupe dans laquelle vous opérez et la partie du groupe dans laquelle vous
avez opéré éventuellement.
R : D’accord. Et puis, votre horizon, pourquoi vous limitez-vous à deux ou trois ans ?
Ça ne me paraît pas beaucoup.
C : Si c’est important de voir ce qui se passait avant, ça ne pose pas de problème.
R : D’accord. Bon, je vois à peu près clairement votre question. Je vais repartir chro-
nologiquement, donc, en partant du présent en allant vers le passé.
Puis le répondant développe longuement sa réponse à la question a.
a. L’entretien d’où est extrait ce début assez laborieux vient d’une série de 63 entretiens guidés sur la formation des cadres dirigeants. Pour informa-
tion, pratiquement tous les autres répondants dans cette enquête ont commencé à développer leur réponse directement après la première question, sans
avoir besoin de précisions complémentaires.
alors fortement de poser les questions sans structure et sans une formulation appro-
priée, et les données qu’il recueillera ne seront pas de qualité scientifique. Face au
silence initial du répondant, il suffit en général d’attendre quelques secondes 17.
4. Le guide de l’interviewer,
le guide d’entretien
17 Aux chercheurs qui débutent dans la pratique de l’entretien, il convient sans doute de dire que
ce silence d’au plus une dizaine de secondes paraît une éternité, et que des centaines d’interviewers
se sont trouvés à un moment ou à une autre dans cette situation, et ont survécu.
Le guide de l’interviewer, le guide d’entretien 113
formulation des thèmes n’ont presque pas d’importance pour un ESDC car les ques-
tions du guide de l’interviewer ne seront pas posées au répondant. Les thèmes de ce
guide sont un aide-mémoire qui signale au chercheur tous les éléments sur lesquels il
essaiera d’amener le répondant à s’exprimer de façon approfondie, mais seulement si
le répondant aborde ou mentionne le thème lui-même. Le guide de l’interviewer doit
être connu par coeur par l’interviewer.
18 Le pire serait naturellement de redécouvrir ce qui a déjà été vu et publié par d’autres chercheurs,
et de s’attribuer la paternité de cette découverte. La question de l’utilisation de la littérature dans la
conception de la recherche est un sujet de débat assez vif dans la communauté scientifique. Chaque
chercheur doit savoir que s’il tient compte des résultats des recherches antérieures il risque d’être
considéré comme un esprit étriqué par certains, et que s’il n’utilise pas la littérature pertinente, il
risque de se le voir reprocher par d’autres, dans le cas où, à cause de cette négligence, il y a des rai-
sons de penser qu’il est passé à côté d’éléments explicatifs des phénomènes de gestion sur lesquels il
conduit sa recherche.
19 La terminologie employée dans les trois alinéas qui suivent n’est pas entièrement fixée. Par
exemple, l’expression « entretien non directif » est utilisée avec des sens différents selon les
auteurs.
20 Comme les questions du guide d’entretien seront posées au répondant, il est nécessaire avant le
premier entretien de s’assurer du fait que leur formulation est correcte par rapport à la recherche,
dénuée d’ambiguïté, exprimées dans un langage adapté, non inductrices des réponses, et que les
questions sont posées dans un ordre qui facilite l’entretien. Ce premier test est la plupart du temps
effectué auprès d’un chercheur du laboratoire. Il est également nécessaire d’effectuer un pré-test
auprès d’un petit nombre de personnes appartenant aux catégories de personnes auprès desquelles
les entretiens seront conduits. On retrouve ici les règles de méthodes applicables aux questionnaires.
Le guide d’entretien est une première version du protocole d’analyse de contenu. Il est donc néces-
saire qu’il soit « saturé pour les théories » (voir plus haut la définition de la saturation théorique).
114 L’entretien de recherche
prudent d’avoir un bref guide de l’interviewer pour chacune des questions du guide
d’entretien 21.
Dans un « entretien non directif » il n’y a pas de guide d’entretien ni de guide
de l’interviewer. Selon les auteurs qui traitent de cette approche, l’entretien peut con-
tenir entre autres des interprétations faites par le chercheur « à chaud » en cours
d’entretien, qui sont proposées au répondant pour obtenir son opinion ou ses réac-
tions, il peut inclure des interventions effectuées en fonction de l’inspiration du cher-
cheur, ou un travail par lequel le chercheur cherche à amener le répondant à se
comprendre lui-même 22. D’une façon générale, ces méthodes sont plus utilisées en
psychologie, psychosociologie et en sociologie qu’en gestion. Il y a sans doute au
moins deux raisons à ce fait. D’une part les entretiens doivent sans doute être d’autant
moins directifs que les phénomènes sont plus complexes et moins connus. Les phéno-
mènes abordés dans les recherches en gestion sont un peu plus simples que ceux abor-
dés dans les trois autres disciplines mentionnées ci-dessus, et ils commencent à être
un peu connus après cinquante années de recherches 23. D’autre part, les entretiens
doivent sans doute être d’autant plus « cadrés » que les objectifs de la recherche sont
plus clairs, et en général les recherches en gestion sont plus focalisées sur des objec-
tifs que celles des autres disciplines. Sans savoir ce qu’on cherche, naturellement, on
sait néanmoins dans quelle zone on cherche et dans quel but on cherche.
Le chercheur peut également utiliser un « entretien mixte » : il commence par
un ESDC qui peut durer de 1/2 heure à 1 heure. Le répondant s’est alors exprimé sur
tous les sujets qu’il aborde spontanément, éventuellement avec des approfondisse-
ments suscités par les relances de l’interviewer (voir plus bas). Le chercheur termine
alors en posant directement celles des questions qui figurent sur son guide de l’inter-
viewer qui n’ont pas été abordées par le répondant. Il passe alors à une phase
d’entretien guidé. Concernant ces entretiens mixtes, l’analyse effectuée par le cher-
cheur devra naturellement faire la différence entre les données communiquées spon-
tanément et les données qui ont été recueillies dans la phase plus directive de
l’entretien guidé final 24.
Pour terminer, signalons que le guide de l’interviewer et le guide d’entretien
peuvent être fixes ou évolutifs.
Au démarrage d’une recherche, il est possible que les premiers entretiens
apportent beaucoup de surprises par rapport à la problématique du chercheur. Il est
également possible que le chercheur n’ait pas une problématique très fixée, et se
lance dans une série d’entretiens pour « prendre contact avec le terrain » et pour fixer
21 Il est possible qu’en cherchant à élaborer son guide d’entretien, le chercheur constate que son
sujet de recherche est trop vaste ou mal cadré C’est le cas quand les questions ouvertes qu’il faudrait
poser au répondant dépassent le nombre d’une quinzaine, ou quand elles n’ont pas une structure
d’ensemble claire.
22 Sur les entretiens non directifs et l’utilisation des entretiens dans les autres sciences humaines
que la gestion, voir notamment Grawitz (2001) et Blanchet et Gotman (1992).
23 La plus grande simplicité des recherches en gestion est toute relative. Si ces phénomènes
étaient simples, il n’y aurait pas besoin de recherche en gestion.
24 Dans un entretien mixte, le libellé et l’ordre des questions du guide de l’interviewer doivent res-
pecter les règles applicables aux questionnaires, puisque les questions sont susceptibles d’être
posées au répondant.
Le guide de l’interviewer, le guide d’entretien 115
la problématique qui sera la sienne. Dans ces situations, le guide d’entretien et/ou le
guide de l’interviewer varieront au cours de la séquence d’entretiens. Par exemple, le
chercheur partira avec un premier guide de l’interviewer G0, qu’il obtient à partir de
divers éléments (Figure 4.2). À partir de là, le chercheur conduit un premier entre-
tien, qui lui amène de nouveaux éléments, et en fonction de ce nouveau « morceau
de réalité » 25, il ou elle élabore un nouveau guide G1 qu’il utilisera pour son second
entretien. S’il a encore des surprises, alors leur prise en compte aboutira à un guide
encore modifié G2, etc. On a alors une séquence qui peut être schématisée comme
dans la Figure 4.2.
Entretien E2 Guide G2
Entretien E3 Guide G3
Entretien E4
Le protocole désigné dans la Figure 4.2 est indicatif. Il est possible par exem-
ple que le chercheur fasse « une rafale » de trois ou quatre entretiens avec le guide
G0, puis tienne compte de ce qui lui a été apporté par cette rafale pour élaborer son
guide modifié G1, puis fasse une seconde rafale avant de passer au guide G2, etc.
Il est en un sens gênant que le guide de l’interviewer ou le guide d’entretien
soit évolutif : les données recueillies dans les entretiens successifs ne seront pas
comparables. On pourra effectuer une analyse de contenu qui révèle la richesse des
données, mais on ne pourra par exemple pas effectuer une analyse de contenu qui
révèle les structures comparées des réponses des interviewés. Le processus de modifi-
cation du guide s’arrête donc en général assez vite. Si un chercheur constate qu’après
quatre modifications de son guide d’entretien il ou elle a encore des surprises impor-
tantes, c’est probablement le signe qu’il y a un problème de fond dans sa façon
25 L’identification des éléments apportés par l’entretien peut être effectuée par une analyse de con-
tenu. L’analyse de ces éléments nouveaux peut conduire le chercheur à considérer qu’il faut effectuer
des observations additionnelles, effectuer un complément d’analyse de la littérature, etc. La façon de
prendre en compte ces éléments pour modifier la problématique et le dispositif de recueil et de trai-
tement des données varie naturellement selon la recherche.
116 L’entretien de recherche
d’aborder la recherche. Une remise en cause sérieuse s’impose sans doute, qui peut
être faite dans le cadre du dialogue avec d’autres chercheurs 26.
La maîtrise des reformulations et des relances est un art difficile. D’abord elle
impose une capacité d’attention très importante, ensuite elle exige de savoir interve-
nir sans introduire de biais dans toute la mesure du possible.
Un entretien exige des capacités d’attention et de mémoire en général mobili-
sées au maximum et en permanence.
Si on reprend la Figure 4.1, on voit que l’interviewer doit connaître son guide
de l’interviewer par cœur. Il ou elle doit noter mentalement sans interrompre ou alté-
rer l’entretien que le répondant est en train de mentionner un thème du guide de
l’interviewer, mais qu’il ne le traite pas complètement (parfois il y a une simple brève
mention en passant). Ce thème doit être gardé en mémoire.
L’interviewer doit aussi noter mentalement les thèmes évoqués par le répon-
dant en cours d’entretien, qui ne sont pas dans le guide de l’interviewer, mais qui
paraissent intéressant pour la recherche. Cette identification n’est ni facile ni
objective : on peut facilement passer à côté d’un élément intéressant parce qu’on a
Les reformulations et les relances, le recentrage 119
29 Notamment pour les chercheurs qui débutent dans la pratique de l’entretien (mais pas seulement
pour eux), il est fréquent de sortir épuisé physiquement d’un entretien semi-directif centré d’une
heure et demie.
120 L’entretien de recherche
Par exemple, dans une phase d’entretien portant sur l’utilisation d’une
méthode de gestion, alors que dans les phases précédentes le répondant s’est exprimé
sur l’entreprise en général, il répond cette fois spécifiquement sur son département.
La relance du chercheur est alors :
Pour votre département comme pour les autres départements ?
Et la réponse est :
Oui. Il y des départements, mais on n’est quand même pas chacun dans une tour de Babel :
il y a toute une série d’activités qui sont conduites conjointement.
30 On pourrait être tenté de dire que le chercheur veut « rattraper son erreur », mais il n’a en fait
pas évoqué la question des relations entre les départements. Il a suffi qu’il mentionne « le
département » et « les autres départements » dans la même phrase pour susciter une réponse un peu
sèche.
31 Dans la recherche d’où est issu cet extrait d’entretien, la question des relations entre les dépar-
tements est par ailleurs abordée, dans la mesure où elle a une influence sur le sujet de la recherche.
Mais elle est abordée en prenant les précautions nécessaires concernant les sujets délicats, selon les
méthodes vues plus haut.
Les premiers entretiens 121
Les premiers entretiens qu’un chercheur conduit dans sa vie ne peuvent pas en
général être utilisés comme matériau de recherche. Le chercheur s’aperçoit surtout
des erreurs qu’il commet.
Les premiers entretiens conduits par un chercheur au début de son travail sur
un sujet doivent être suivis d’un examen attentif (1) de la pertinence du guide de
l’interviewer et du guide d’entretien s’il y en a un ; (2) du degré de différence entre ce
qu’on attend et ce qui arrive ; et (3) de la pertinence du sujet de recherche et de la
méthode choisie.
On peut par exemple constater que, dans le temps que le répondant peut con-
sacrer à l’entretien, il n’est pas possible d’aborder en profondeur plus de la moitié des
thèmes que le chercheur souhaite aborder. Il faut alors probablement revoir la con-
ception de la recherche.
Même si ce n’est pas agréable à constater, il faut admettre que les phénomènes
de gestion sont souvent très complexes, le fonctionnement des organisations, des
entreprises et des clients aussi, et il faut admettre qu’il existe des sujets intéressants,
122 L’entretien de recherche
probablement très utiles par leurs applications possibles, sur lesquels en l’état actuel
des choses il n’est pas possible de conduire une recherche scientifique par le moyen
d’entretiens (ou même par d’autres moyens).
On ne peut pas traiter des entretiens sans évoquer ne serait-ce que brièvement
leur relation avec l’analyse de contenu 32.
La prise en compte de l’analyse de contenu est conseillée :
– quand on fabrique le guide d’entretien et le guide de l’interviewer ;
– avant le premier entretien ;
– après les cinq ou six premiers entretiens ;
– tout au long des entretiens au cours de la phase exploratoire.
Le guide d’entretien et le guide de l’interviewer contiennent des thèmes sur
lesquels on apprécierait que les répondants d’expriment, et sur lesquels on les relan-
cera s’ils les mentionnent sans les traiter de façon approfondie. Donc, normalement,
ces thèmes seront utilisés dans la suite de la recherche et feront partie du protocole
d’analyse de contenu avec lequel on traitera les comptes rendus d’entretiens. Il est
donc prudent, une fois le guide de l’interviewer stabilisé, de se demander comment on
le prendra en compte dans l’analyse de contenu des transcriptions des entretiens
qu’on fera.
Il est vivement conseillé, avant même le premier entretien :
■ d’écrire de quelle façon on s’y prendra pour analyser le contenu des entretiens ;
■ de vérifier la faisabilité de cette analyse de contenu ;
■ de vérifier la cohérence entre les six éléments suivants :
– le sujet de recherche ;
– la littérature de recherche ;
– la méthode choisie ;
– le guide de l’interviewer et, éventuellement, le guide d’entretien,
– l’analyse de contenu ; et
– les phases ultérieures du travail (questionnaire, analyse de contenu, obser-
vations, méthodes quantitatives, etc).
L’idée, dans cette vérification, est d’éviter de se lancer dans un recueil de don-
nées si on n’a pas une idée raisonnablement claire de la façon dont on va exploiter les
données ensuite. Cette précaution est particulièrement recommandée dans la mesure
où les entretiens, particulièrement quand ils sont semi-directifs, prennent beaucoup
de temps aussi bien pour les faire que pour les transcrire.
32 Concernant l’analyse de contenu, nous avons vu dans la note 7 du paragraphe 2 que cette
méthode doit s’entourer de précautions importantes pour assurer la scientificité, compte tenu du fait
qu’elle est un traitement subjectif de données qualitatives.
La relation entre entretien et analyse de contenu 123
Cette vérification est aussi recommandée après qu’une première série d’entre-
tiens ait été effectuée. On dispose alors d’une première base de données sur laquelle
on peut effectuer une simulation du traitement des données 33. Il est encore temps de
modifier la conduite des entretiens à ce stade de la recherche.
Comme on l’a vu plus haut, quand la recherche en est à une phase exploratoire,
ou quand il y a trop de différences entre ce à quoi on s’attend et ce qu’on trouve dans
les entretiens, alors le chercheur est amené à modifier le guide de l’interviewer pour
tenir compte des nouvelles données recueillies. Ces nouvelles données peuvent venir
de l’analyse de contenu des premiers entretiens.
L’analyse de contenu consiste à identifier l’occurrence de thèmes dans un
objet, par exemple dans une transcription d’entretien. Si on dispose d’une liste de
thèmes avant de commencer, cette liste s’appelle couramment « le dictionnaire des
thèmes ». Comme on verra plus bas, il est possible, quand on analyse la transcription
d’un entretien donné, d’identifier non seulement des éléments qui sont dans le dic-
tionnaire des thèmes, mais aussi d’autres éléments qui paraissent intéressants pour la
recherche bien qu’ils ne figurent pas dans le dictionnaire des thèmes actuel.
Il existe plusieurs sortes d’analyses de contenu. On dit que l’analyse de con-
tenu est :
– « formatée » si les thèmes sont fixés avant l’entretien ;
– « semi-formatée » si une partie des thèmes est fixée avant l’entretien, mais que
le chercheur se laisse la possibilité de découvrir de nouveaux thèmes au cours
de l’analyse de contenu ;
– « ad hoc » si les thèmes « saillants » sont identifiés dans le matériau « sans
hypothèses préalables ni présupposé » ;
– « cumulative » si dans l’analyse de contenu de l’entretien numéro n on repère
systématiquement l’occurrence des thèmes identifiés dans les entretiens 1, 2,
…, n-1 ;
– « complète et ad hoc », si on identifie les thèmes de façon ad hoc dans chaque
entretien, qu’on rassemble l’ensemble en un dictionnaire des thèmes, et qu’on
réeffectue l’analyse de tous les entretiens avec ce dictionnaire comme clé
d’analyse. Ce travail est bien entendu très exigeant et rigoureux et long.
L’utilisation de l’une ou l’autre de ces méthodes d’analyse de contenu dans les
premières phases de la recherche, sur les premiers entretiens, peut conduire à des gui-
des de l’interviewer finalement différents. Il convient donc d’examiner ces différentes
possibilités. La première peut par exemple conduire à supprimer du guide de l’inter-
viewer des thèmes qui ne sont apparus dans aucun des dix premiers entretiens, sans
chercher à identifier des thèmes qui apparaissent comme intéressants pour le sujet de
recherche et qui ne sont pas dans le guide de l’interviewer, donc dans le dictionnaire
des thèmes fixe qu’on utilise. Cette conduite de la recherche est plutôt « fermée »,
elle a le mérite de la simplicité, mais naturellement elle est susceptible de laisser le
33 Nous appelons cette opération simulation parce qu’on effectue les mêmes opérations qu’on
effectuera quand on aura rentré tous les entretiens, mais sur une base très limitée. Les résultats sont
scientifiquement peu significatifs. On a cependant un bon test de la viabilité de la méthode.
124 L’entretien de recherche
Face à toute transcription d’un entretien de type ESDC, on doit se poser des
questions sur la qualité des données :
■ dans quelle mesure l’entretien m’apporte toutes les informations que je
recherchais ? Si la réponse est non, alors il faut noter ces éléments et :
– voir comment modifier la conception et la conduite de l’entretien pour amé-
liorer la qualité des données recueillies ;
– voir dans quelle mesure il est possible de se « rattraper » au cours d’un
entretien ultérieur avec la même personne ou au cours d’un entretien avec
une autre personne qui disposera des mêmes données (c’est rarement le cas,
sauf pour des données simples qui ne sont en général pas celles qu’on veut
obtenir dans une recherche) 34 ;
– voir dans quelle mesure les données ne sont pas trop « sensibles » pour
qu’on puisse les obtenir, même dans un ESCD bien conduit. Si c’est le cas,
alors il faudra peut-être reconsidérer le sujet de recherche.
■ ai-je bien conduit l’entretien ? comment aurais-je pu faire mieux, et
autrement ? Ici, l’analyse peut s’inspirer de ce que nous avons vu plus haut
dans les paragraphes 2 à 5 : la phrase d’entame est-elle efficace ? la gestion
du début de l’entretien est-elle bien conduite ? les relances sont-elles
appropriées ? etc.
■ dans quelle mesure les données que j’obtiens se « triangulent » avec celles que
j’ai obtenues dans les entretiens précédents, ou dans les observations ? La
réponse à cette question sous forme précise viendra de l’analyse de contenu.
34 Ceci arrive par exemple quand, après un entretien guidé, le chercheur s’aperçoit qu’il y a des
questions qu’il n’a pas eu le temps de poser. C’est aussi le cas si, dans un ESDC, le chercheur s’aper-
çoit au moment de l’analyse de contenu qu’un thème intéressant a été abordé mais n’a pas fait
l’objet de relance. Le chercheur peut éventuellement recontacter l’interviewé.
Qualité et validation des contenus d’entretiens 125
Mais comme les analyses de contenu sont conduites avec un certain décalage
dans le temps par rapport à la « rafale » des entretiens par laquelle on passe
fréquemment, il faut effectuer ce pilotage des entretiens en temps réel au
moins de façon rapide.
des exemples de mise en œuvre. Par exemple, si un répondant déclare « pour moi le
client et le personnel, ça passe avant tout », le chercheur pourra orienter les relances
pour amener le répondant à décrire des situations concrètes dans lesquelles il a des
contacts avec les clients et le personnel, et qui permettent de voir comment le prin-
cipe général est mis en pratique 37.
Certaines données sont des principes généraux relatifs à des actions et à des
méthodes de gestion, ou des descriptions générales de méthodes sans illustrations
concrètes. Ces données sont utiles seulement si le chercheur s’intéresse aux
« théories affichées » du répondant, c’est-à-dire à ce qu’il pense mettre en pratique
ou à ce qu’il prétend mettre en pratique. Dans ce cas, le chercheur pourra utiliser une
phrase d’entame du type « La gestion des projets d’innovation, comment ça se passe
chez vous ? »
Si ce qui intéresse le chercheur est plutôt la « théorie en usage » du répondant
(c’est-à-dire ce qui se passe dans la réalité) 38, alors le chercheur fera plutôt porter
l’entretien sur ce qui s’est passé concrètement dans un projet d’innovation récent, ou
s’il a le temps sur deux projets concrets (l’un plutôt satisfaisant, l’autre plutôt déce-
vant), quitte ensuite à « monter d’un cran » en demandant au répondant « si ça se
passe de la même façon pour les autres projets ».
37 Le chercheur peut aussi penser à effectuer une relance du type : « Si on prend par exemple ce
que vous avez fait la semaine dernière, l’importance des clients et du personnel, ça se manifeste
comment ? » Une telle relance risque d’amener une réponse de justification. Par contre, cette relance
est sans doute très efficace s’il est prévu que le chercheur fasse ensuite des entretiens avec des
clients et des membres du personnel.
38 Les expressions « théories affichées » et « théories en usage » ont été forgées par Argyris et
Schon (1978).
Le temps et le lieu de l’entretien, l’environnement social de l’entretien 127
ou cohérents. En même temps cette approche permet, par l’identification des diffé-
rences et des divergences éventuelles, de voir dans quelle mesure la problématique de
la recherche est assez bien fixée, et les concepts assez bien définis et opérationnali-
sés. Ceci permet souvent aussi d’identifier des facteurs de contingence auxquels on
n’avait pas prêté attention. Selon le stade de la recherche auquel on se trouve, on
tient compte de ces facteurs dans la suite de la recherche, ou on les note comme élé-
ments pour des recherches futures.
La triangulation ou la combinaison de méthodes n’est pas une simple accumu-
lation. Lorsqu’une telle approche est adoptée, il faut se demander quelle est la perti-
nence d’ensemble de la combinaison de méthodes, et ce qu’on gagne réellement en
utilisant plusieurs méthodes. Cette question est importante quand on est en train
d’élaborer ou d’ajuster la méthode de recherche : les coûts induits par l’utilisation de
plusieurs méthodes doivent être évalués. Ils sont souvent importants.
Les entretiens peuvent être effectués dans les temps et les lieux les plus
divers :
Le premier cas est celui des entretiens portant sur un sujet lié au travail ou à
l’expérience professionnelle, ou à l’entreprise du répondant, avec un entretien qui est
effectué sur le lieu de travail. Dans ce cas il faut l’accord au moins informel de la
direction et de l’encadrement. Les conditions de confidentialité du contenu de l’entre-
tien sont difficiles à garantir si le lieu de travail n’est pas un bureau individuel :
bureau paysager, bureau partagé, atelier, chantier, hangar de stockage, lieu de pause,
etc. Nombre des lieux d’entretien mentionnés ci-dessus ne permettent en pratique
que des entretiens brefs, sans doute au plus une vingtaine de minutes. L’ambition du
recueil de données doit être ajusté en conséquence.
Dans un second cas, on a les entretiens portant sur le travail ou l’entreprise du
répondant, et qui sont effectués dans des lieux autres que le lieu de travail. Ces lieux
d’entretien peuvent être divers : salle d’embarquement d’un aéroport, café, espace de
bureau mis à disposition par une autre entreprise que celle du répondant, domicile du
répondant, etc. Dans ces conditions, il peut y avoir des difficultés d’enregistrement,
et le chercheur doit veiller avec un soin tout particulier aux conditions de confidenti-
alité. La durée disponible est alors très variables : parfois on peut effectuer des
entretiens de longue durée en profitant de moments qui sont en quelques sorte des
périodes « de suspension hors du temps », mais parfois aussi ces temps et lieux de
passage apportent des contraintes fortes sur la durée de l’entretien. On a fréquem-
ment les mêmes difficultés pour les entretiens effectués sur les lieux de
consommation : magasin, supermarchés, salles de sport, etc.
L’un des éléments importants dans le temps et le lieu de l’entretien est celui de
l’environnement de l’entretien : le répondant est susceptible de ne pas réagir de la
même façon selon que sa hiérarchie et ses collègues de travail le voient en train
128 L’entretien de recherche
d’avoir un entretien avec une personne extérieure, selon qu’il est entouré par la situa-
tion de gestion dont on parle dans l’entretien ou au contraire distancié de cette situa-
tion 39.
■ Le contenu d’un entretien est susceptible d’être « coloré » par les préoccupa-
tions principales du répondant au moment où il se déroule : la période de clô-
ture des comptes dans un service comptable, la période souvent très chargée
et tendue qui marque la fin d’un projet d’innovation ou la mise en œuvre d’un
logiciel, la période qui suit immédiatement une réunion difficile ou un conflit,
etc.
39 Par exemple concernant un recueil de données qui porte sur le travail du répondant, s’il est
effectué par un entretien effectué au pied des machines ou dans le bureau, le répondant aura sous
les yeux en permanence les dossiers, les installations, et tout ce qui lui rappelle les événements
quotidiens : ceci facilite la mémorisation mais en revanche, gêne peut-être la prise de distance. Un
entretien sur le même thème conduit hors de l’entreprise permettra au répondant, en un sens à la
fois physique, cognitif et affectif, de « voir les choses de plus loin ».
40 Ici on a à la fois le relâchement après une période de tension passée, et l’absence momentanée
de tension future.
41 Cet alinéa et le suivant mentionnent des cas dans lesquels le chercheur dispose pour l’entretien
de moins de temps que prévu. Le cas inverse est fréquent. Les répondants sollicités pour un entre-
tien « d’une bonne heure » accordent en pratique assez souvent un entretien qui dure une heure et
demie ou plus.
42 Il y a toujours en pratique une petite utilité : on a rencontré une personne de plus, on a glané
quelques données du terrain, etc. D’une façon très prosaïque, on a un entretien de plus dont on peut
faire état dans le compte rendu de recherche. Cet entretien bref fera diminuer un peu la durée
moyenne des entretiens, mais qu’il peut néanmoins être intéressant de le faire. Mais le temps consa-
cré à l’entretien pourrait être consacré à des activités « plus rentables ».
43 Pour assurer la continuité du contact, pour ne pas vexer la personne.
Le temps et le lieu de l’entretien, l’environnement social de l’entretien 129
phonique qu’il passe « pour décrocher l’entretien », le répondant lui dit qu’il
ne pourra pas le voir pour plus d’une demi-heure.
■ Il arrive que le répondant découvre une contrainte de temps en cours d’entre-
tien, par un appel d’un collaborateur, d’un client ou d’un supérieur, et qu’il
dise au chercheur : « Donc il me reste un quart d’heure. Je vous laisse deux
questions ». Ici encore, le chercheur doit réagir très rapidement, donc avoir
quelque idée, à chaque moment de l’entretien, des deux ou trois points essen-
tiels sur lesquels conclure le plus utilement le recueil de données.
Les éléments ci-dessus nous ont déjà permis d’aborder une partie des sujets
concernant l’environnement social de l’entretien : l’échange entre le chercheur et le
répondant peut-il être en partie entendu par d’autres personnes, y a-t-il des person-
nes de l’environnement de travail ou de l’environnement familial qui savent que
l’entretien se déroule, etc.
Sur cette question, il existe d’autres aspects :
■ La nature des données recueillies, et les conditions de confidentialité, sont
sans doute différentes selon que le répondant a accordé l’entretien de son pro-
pre chef, sur recommandation d’un collègue estimé, ou sur la demande
expresse de sa hiérarchie.
■ Les conditions seront également différentes selon que le texte de l’entretien
sera communiqué ou pas (en totalité ou en partie) à la hiérarchie directe ou à
d’autres personnes de l’entreprise. Ces conditions dépendent de même de
l’usage qui pourra être fait des données : des usages prévus bien entendu,
mais aussi de la confiance que le répondant peut avoir vis-à-vis de son entre-
prise sur les usages non prévus initialement.
Pour terminer sur les conditions de l’entretien, on mentionnera également
l’existence d’entretiens « clandestins » effectués sur des sujets concernant la gestion
d’une entreprise, avec une personne de l’entreprise, sans que les divers niveaux de
130 L’entretien de recherche
direction soient informés. Les conditions éthiques et juridiques de tels entretiens doi-
vent naturellement être soupesées avec le plus grand soin 44.
44 Pour ne mentionner qu’un exemple, une recherche ne doit pas étudier le mode de gestion de pro-
duction d’une entreprise si la direction considère, ou est susceptible de considérer, que les aspects
positifs comme négatifs de sa gestion de production doivent rester confidentiels. L’interdiction éthi-
que et juridique s’applique également, naturellement, dans le cas de recherches financées par une
entreprise, aux d’entretiens clandestins qu’il pourrait lui être suggéré de conduire auprès de person-
nels d’entreprises qui sont des concurrents du financeur.
45 Avant que le répondant accepte l’entretien, il y a la phase de prise de rendez-vous. La pratique
montre que des entretiens d’une bonne heure sont possibles, mais aussi qu’ils ne sont pas faciles à
obtenir compte tenu entre autres de l’emploi du temps très chargé des répondants sollicités. Il n’est
pas rare d’avoir besoin de dix appels téléphoniques pour avoir un entretien, et de voir le rendez-vous
décalé trois fois. Le chercheur doit donc gérer l’intensité de son activité de recherche et de négocia-
tion d’entretiens, et être flexible : parfois il y aura beaucoup moins de rendez-vous que prévus, et
parfois beaucoup plus, avec éventuellement des difficultés de déplacement si les entretiens ont lieu
dans des lieux éloignés les uns des autres.
46 D’autres expressions peuvent être appropriées : le répondant a volonté de se confier à un expert
qui le « comprendra » alors qu’il n’est pas compris dans son entourage, l’interviewé « se livre », il
« vide son sac », etc.
L’entretien comme situation de communication interpersonnelle 131
« volonté d’être à la hauteur » peuvent induire des biais amenant les réponses à être
plus « intellectualisées » et cohérentes que la réalité.
Le chercheur ne peut pas, bien entendu, être toujours certain des motivations
qui ont conduit son interlocuteur à accepter l’entretien. La présentation que nous
venons de faire de quelques unes des motivations possibles doit permettre au cher-
cheur de prendre des précautions dans la négociation et dans la conduite de l’entre-
47 Naturellement, un tel engagement ne doit être donné que si on a de bonnes raisons de penser
qu’il peut être tenu.
48 Si le répondant se sent forcé d’accepter l’entretien et qu’il n’apprécie pas, il peut chercher à
trouver des raison objectives de ne pas le faire, ou « noyer l’entretien » en développant avec un luxe
de détails des aspects secondaires de la question de recherche.
49 Le chercheur peut éventuellement s’engager à fournir une analyse personnalisée à chaque répon-
dant. Pour les recherches comportant de nombreux entretiens, cette méthode est très consommatrice
de temps.
132 L’entretien de recherche
50 Il y a naturellement bien d’autres motivations possible pour un répondant : plaisir de faire une
pause, plaisir de savoir que les collègues et camarades de travail savent qu’il est avec un chercheur,
etc.
51 Dans ce dernier cas, le chercheur peut chercher à établir sa légitimité par des références à des
travaux antérieurs qui sont « parlants » pour le répondant, et par des informations qui sont sur le
site internet du laboratoire.
52 Ce « biais de désirabilité sociale » peut conduire le répondant à passer sous silence les difficul-
tés qu’il a, et à vouloir donner l’image d’un manager « efficace et gagnant ». Ce biais peut par exem-
ple le conduire à se présenter comme plus participatif et plus enclin à déléguer ses responsabilités
qu’il n’est en réalité, s’il perçoit que la prise de décision et l’exercice de l’autorité « ne sont pas dans
la norme » ou « sont des modes de management considérés comme ringards ». C’est à cause de ces
types de biais que le chercheur peut utiliser avec profit certaines des techniques mentionnées plus
haut : les « relances facilitantes », et la validation du contenu d’un entretien par confrontation avec
des données venant de personnes qui travaillent en contact avec le premier répondant.
L’entretien comme situation de communication interpersonnelle 133
« s’objectiver » L’interviewé peut alors être perturbé ou effrayé par ce qu’il découvre
de lui-même : il peut être en contradiction avec ses propres valeurs ou avec des
valeurs socialement admises, et ceci qui peut l’amener à « résister » dans l’entretien.
La semi-directivité et la non-directivité ont précisément comme objet d’abaisser (for-
cément de façon partielle) ces « barrières à la communication ».
Mentionnons aussi qu’il peut y avoir « auto conditionnement » de l’interviewé,
qui cherche à maintenir de façon artificielle l’expression d’une cohérence personnelle.
Pour terminer sur l’entretien vu comme situation de communication du côté de
l’interviewé, rappelons des éléments que nous avons vus plus haut : le discours du
répondant peut être influencé par le lieu de l’entretien, par le temps de l’entretien (le
moment dans la journée ou dans l’année), et il convient d’être attentif à valider dans
la mesure du possible le contenu de l’entretien.
Concernant l’entretien comme situation de communication vue du côté de
l’interviewer, on peut noter les difficultés provenant de plusieurs sources :
– la « distance sociale » et de la « différence de mondes », réelles ou supposées,
entre les interlocuteurs ;
– la connaissance éventuellement limitée qu’a le chercheur des usages sociaux
du milieu du répondant, du langage de son organisation, des codes vestimen-
taires adaptés, etc.
Ces éléments peuvent avoir un impact dans les recherches dans des milieux
étrangers au chercheur, par exemple les traders, les chercheurs en électronique, les
ouvriers du bâtiment, les directions générales, ou autres milieux professionnels typés
que le chercheur connaîtrait assez mal 53. La familiarisation avec le milieu peut s’avé-
rer utile ou nécessaire avant de savoir si une recherche basée sur les entretiens pourra
être conduite 54.
La communication peut également être « brouillée » par les préoccupations du
chercheur. Un exemple classique est celui des phrases d’entame du type : « Pouvez-
vous me parler du problème des relations hiérarchiques ? » C’est un problème pour le
chercheur, pas nécessairement pour l’interviewé. La formulation de la question peut
entraîner une réponse du type : « Mon patron vous a dit que j’avais des problèmes
avec lui ou avec mes subordonnés ? » On comprend que l’interviewé puisse être sur la
défensive avec une telle formulation si l’entretien a lieu à l’initiative de son supé-
rieur.
53 On a potentiellement des difficultés comparables pour effectuer par entretiens des recherches
dans des milieux dans lesquels le jargon, l’argot professionnel ou local, ou les références aux histoi-
res personnelles sont constants et empêchent le chercheur d’avoir un réel accès. Il ne faut pas tou-
tefois penser que ces difficultés sont en moyenne très importantes. Les thèses en gestion
fournissent de bons exemples de recherches effectuées par des chercheurs jeunes qui n’avaient pas
forcément au départ une familiarité avec les milieux dans lesquels ils ont effectué des dizaines
d’entretiens, y compris sur des sujets a priori confidentiels et auprès de cadres dirigeants. Voir par
exemple Ederlé (1999), Dameron (2001), ou Torset (2003).
54 Par ailleurs, comme indiqué plus haut dans ce chapitre, le chercheur doit faire attention à ne pas
utiliser des termes non connus par l’interlocuteur, ou des termes qui risquent d’avoir un sens techni-
que qui n’est pas exactement le même que celui qu’ils ont dans le langage courant.
134 L’entretien de recherche
12. Conclusion
55 En ce qui concerne les biais et les risques venant de l’interviewer, nous avons déjà signalé la
peur des silences du répondant, et dans ce cas la tentation du retour à un mode d’entretien directif
« plus confortable », mais qui risque d’être catastrophique s’il n’a pas été préparé. Nous avons aussi
vu que le chercheur doit être très attentif à ne pas injecter ses valeurs dans les relances qu’il effec-
tue en cours d’entretien. Par exemple, si le répondant s’exprime de façon contradictoire à plusieurs
moments de l’entretien, on peut dire que le chercheur qui lui fait remarquer la contradiction affirme
implicitement qu’il faut être cohérent et rationnel. Une telle affirmation constitue l’injection dans
l’entretien d’une valeur du chercheur.
Conclusion 135
la recherche, lister les caractéristiques qui peuvent induire de la variété dans les
réponses, voir s’il faut procéder à une analyse de contenu formatée ou pas, etc. Il est
très utile de consigner toutes ces actions et réflexions dans un « journal de bord » de
la méthode de recherche. Cette discipline permet tous les trois à six mois de faire le
point et de vérifier que la méthode est bien cadrée. Elle permet au chercheur de justi-
fier ses choix dans les communications de recherches, les interventions dans les collo-
ques, les articles soumis aux revues.
Pour le thésard et les étudiants réalisant un mémoire de recherche, cette disci-
pline permet le dialogue lors des entretiens avec le directeur de mémoire ou le direc-
teur de thèse. Et elle permet, lors de la rédaction et de la soutenance, de désamorcer
les critiques ou d’y répondre. Mais c’est une discipline extrêmement exigeante.
Toutes les recherches en gestion sont en partie discutables du point de vue du
choix des méthodes de recherche et de l’usage de ces méthodes. La question à se
poser n’est pas « Est-ce parfait ? », mais « Est-ce pertinent et adéquat ? » et
« Aurait-on pu faire mieux à un coût raisonnable ? » Ces questions s’appliquent aux
entretiens comme aux autres méthodes, qu’elles soient qualitatives ou quantitatives.
Les conceptions développées dans le présent chapitre ne reflètent ni une
vérité révélée, ni une opinion unanime de la communauté scientifique, ni des impéra-
tifs scientifiquement incontestables. Ils présentent une vision qui a l’ambition d’être
assez précise pour fournir des guides pratiques aux utilisateurs, et de fournir un stan-
dard par rapport auquel évaluer la scientificité d’un recueil de données par entre-
tiens 56.
Le cadre limité de ce chapitre ne nous a pas permis de traiter de tout ce qui
concerne l’entretien de recherche, par exemple la présentation des types de sujets sur
lesquels on peut recueillir des données avec des entretiens 57, la présentation des rai-
sons en faveur d’une non-directivité forte 58, ou encore l’entretien de groupe et le
focus group 59.
Pour terminer ce chapitre, il faut dire que l’usage des entretiens est une
méthode de recherche passionnante. Elle permet d’engager le contact avec des per-
sonnes qui ont des expériences et des styles variés, et très souvent des qualités
humaines remarquables. Les entretiens permettent de collecter des données très nom-
breuses et scientifiquement solides sur des situations de travail et des situations de
56 Nous ne prétendons pas que l’ESDC tel que décrit ici est le standard à suivre en toutes circons-
tances. Mais nous soutenons que c’est un mode d’entretien utilisable en pratique, et qui donne
d’assez bonnes garanties sur la richesse et la fiabilité des données quand il est utilisé dans les cir-
constances adéquates. Par ailleurs, comme ce mode de conception et de conduite des entretiens de
recherche est défini avec précision, il permet aux chercheurs recueillant des données par entretiens
avec d’autres approches de se positionner.
57 Blanchet et Gotman (1992) donnent une liste orientée sur la psychosociologie, dont on peut lar-
gement s’inspirer pour les recherches en gestion, et à laquelle nous pouvons faire de nombreux
ajouts.
58 Guittet (1990), Muchielli (1991), et Blanchet et Gotman (1992), ont des positions très axées sur
une non-directivité assez radicale, qui est fort éloignée de ce qui est à notre sens doute le plus utile
aujourd’hui dans les recherches en gestion. Grawitz (2001) a une présentation assez détaillée des
divers niveaux de directivité.
59 Sur ces questions, voir Fenneteau (2002), Morgan (1988), et Giami (1985).
136 L’entretien de recherche
gestion extrêmement diverses, qui finissent par donner au chercheur une connais-
sance profonde et valide du monde de la gestion. Certes, un entretien semi-directif
centré est long à faire et long à analyser. Mais on obtient par ce moyen des données
qui ont une richesse considérablement supérieure à celle fournie par bien d’autres
méthodes.
Nous avons beaucoup insisté dans ce chapitre sur les difficultés possibles dans
les entretiens, parce qu’il faut savoir les détecter, les prévenir quand c’est possible, et
les surmonter quand on les rencontre. Il faut insister ici sur le fait que ces difficultés
sont gérables pour la très grande majorité des chercheurs. Les débuts ne sont pas
faciles, et on doit en permanence veiller à s’améliorer, mais on accède rapidement à
une telle qualité de contacts avec les terrains et avec les personnes qu’on attend avec
impatience le plaisir du prochain entretien, et des conclusions scientifiques qu’on en
tirera.
Bibliographie
Argyris C. et Schon D. (1978), Organizational Learning : A Theory of Action Perspective,
Addison Wesley.
Bézille H. (1985), « Les interviewés parlent », pp. 117-148 dans Blanchet A. (dir.),
1985, L’entretien dans les sciences sociales, Dunod.
Blanchet A. (dir.) (1985), L’entretien dans les sciences sociales, Dunod.
Blanchet A. et Gotman A. (1992), L’enquête et ses méthodes : l’entretien, coll. Sociolo-
gie 128, Nathan.
Corraze J. (1992), Les communications non verbales, PUF.
de Ketele J.-M. et Roegiers X. (1993), Méthodologie du recueil d’informations : fonde-
ments des méthodes d’observations, de questionnaires, d’interviews et d’études de
documents, De Boeck.
Dameron S. (2000), Génération de la coopération dans l’organisation, le cas d’équipes
projet, Thèse de doctorat en Sciences de Gestion, Université Paris IX Dauphine.
Dubar C. (1991), La socialisation : construction des identités sociales et professionnelles,
A. Colin.
Ederlé N. (2001), Vision et pilotage d’entreprise, conceptualisation, représentation et
pratiques, Thèse de doctorat en Sciences de Gestion, Université Paris IX Dauphine.
Fenneteau H. (2002), Les techniques d’enquête : entretien et questionnaire, Dalloz, col-
lection Topos,
Giami A. (1985), « L’entretien de groupe », pp. 221-232 dans Blanchet A. (dir.), 1985,
L’entretien dans les sciences sociales, Dunod.
Grawitz M. (2001), Méthodes des sciences sociales, Dalloz.
Guittet A. (1990), L’entretien, Armand Colin.
Gummesson E. (1991), Qualitative Methods in Marketing Research, Sage.
Kirk J. et Miller M. (1986), Reliability and Validity in Qualitative Research, Sage.
Miles M. et Huberman M. (1991), Analyse des données qualitatives, De Boeck.
Morgan D. (1988), Focus Groups as Qualitative Research, Sage.
Bibliographie 137
Recherche-intervention
et innovations managériales
Jean-Michel PLANE 1
Sommaire
1 L’intervention du chercheur en management :
implications théoriques, méthodologiques,
pratiques 143
3 Conclusion 154
2 Au sein de l’ERFI, nous avons mis en discussion nos travaux (présentations des recherches lors
de réunions de l’équipe, cahiers de recherche) et réalisé plusieurs publications : principalement des
communications à des congrès, des articles et des chapitres d’ouvrages. Cela nous a conduit à soute-
nir une Habilitation à diriger des recherches (juin 1999) à l’Université de Montpellier I ainsi qu’à la
préparation du concours d’agrégation en sciences de gestion. Cette soutenance a donné lieu à la
publication d’un ouvrage de recherche consacré aux Méthodes de recherche-intervention en manage-
ment (janvier 2000), ainsi qu’à un ouvrage sur les nouvelles problématiques de la GRH, publié aux
Éditions Economica (avril 2003).
Recherche-intervention et innovations managériales 141
3 Dans le cadre de cette contribution, le terme constructivisme est utilisé au singulier en tant que
paradigme de référence, même si l’on admet qu’il existe plusieurs formes de constructivisme.
Fr. Wacheux (1996) parle de plusieurs attitudes constructivistes possibles (p. 43), tout en insistant
particulièrement sur l’idée (p. 27) que la démarche s’apparente à un processus d’enactment (Weick,
1979) dans lequel la production scientifique est une forme de construction sociale (Morgan, 1990).
4 Ce positionnement épistémologique a des implications théoriques et méthodologiques significa-
tives dans les recherches. Nous l’avons particulièrement discuté dans un article publié par le Journal
of Business Ethics, « The Ethnomethodological Approach of Management : A New Perspective on
Constructivist Research » (2000). Par ailleurs, un certain nombre de travaux récents s’inscrivent dans
cette perspective. Par exemple, les recherches de Bournois et Roussillon (1998), consacrées à la pré-
paration des dirigeants de demain, montrent que la question du haut potentiel est un construit
social contingent.
142 Recherche-intervention et innovations managériales
les conditions de validité des connaissances produites à partir d’un travail fondé sur
l’expérimentation. La synthèse des travaux développée ici vise à rappeler le question-
nement et la quête de connaissances suivis. Dans quelle mesure et sous quelles condi-
tions méthodologiques peut-on produire des connaissances valides à partir d’une
démarche et d’un processus fortement interactifs ? Sur le plan épistémologique, com-
ment peut-on s’efforcer d’entrer dans une logique d’objectivation à partir d’informa-
tions inévitablement subjectives ? Pour l’essentiel, l’étude des relations et des
interactions chercheurs-acteurs a porté sur les éléments suivants.
Les relations de travail qui s’instaurent entre les chercheurs et les acteurs
d’une organisation, dans le cadre d’une recherche-intervention en management, se
caractérisent par de fortes interactions qui produisent des transformations, sources de
développement du potentiel humain de l’organisation. Au fond, quels peuvent être les
résultats produits par une démarche de recherche-intervention en management ?
Pourquoi sont-ils relativement singuliers ? Sur le plan des implications managériales,
quelles sont les transformations fondamentales et donc structurantes produites par le
processus de recherche-intervention en management dans les organisations ? Ce tra-
vail de recherche vise à chercher à identifier des éléments de méthode de recherche-
intervention en management fondés sur de fortes interactions chercheurs-acteurs.
L’intensification des processus d’interactions entre les chercheurs et les acteurs active
le développement de deux actes de gestion : les actes introspectifs et conceptifs.
À travers nos recherches, nous avons cherché à soutenir l’idée que l’objectif
d’une recherche-intervention en management est le développement chez les acteurs
d’actes conceptifs. Ces actes de gestion constituent des leviers d’actions considéra-
bles car ils reposent sur des connaissances éprouvées et mises en œuvre régulière-
ment par les acteurs. Cette logique de diffusion de connaissances dans les
organisations intéresse les acteurs, souvent à la recherche de nouveaux savoirs. On
peut donc définir les actes conceptifs comme des pratiques visant la détection d’inva-
riants de fonctionnement plus efficaces à partir de l’accumulation formalisée et struc-
turée des enseignements tirés des multiples expériences des acteurs. Cela peut se
manifester par des conceptualisations de principes d’actions efficaces et susceptibles
d’être mis en œuvre lorsqu’un événement donné se produit. Nos travaux indiquent que
le chercheur en gestion est en position d’agent de changement dans le sens où il a
pour principale mission d’aider les acteurs à prendre conscience d’une série de problè-
mes (introspection) et à imaginer des transformations durables (conceptualisation).
Il participe ainsi à l’évolution des possibles au sein de l’organisation. Concrètement,
les différentes expériences réalisées ont participé à une logique de développement
organisationnel notamment sur les axes suivants : l’enrichissement du travail humain
par des actions de formation, de nouvelles connaissances en gestion et une plus
grande polyvalence ; le développement du pilotage par la mise en place d’instruments
de gestion ; des dispositifs de communication visant la synchronisation des services
(logique de coopération) et la qualité du dialogue professionnel.
La production d’innovations managériales 147
un point de passage obligé, chacun devant concentrer ses ressources sur son métier
de base. On peut donc dire que la profession s’organise autour de grands équipemen-
tiers en électronique. C’est un marché porteur, en pleine évolution mais fortement
atomisé et concurrencé. On dénote ainsi un nombre important de concurrents mais
seulement sur certains marchés. La part de marché de Thélec se situe environ à 1 %
pour un chiffre d’affaires de 10 millions d’euros. L’entreprise se classe parmi les 150
premiers sous-traitants français et son chiffre d’affaires, depuis sa création, ne cesse
de croître même si plus d’un millier d’entreprises se partagent le marché. La stratégie
de l’entreprise est de se positionner le plus largement possible sur le cycle industriel
et de développer des prestations à forte valeur ajoutée telles que l’industrialisation
ou la conception (activité représentant actuellement 10 à 20 % des activités) pour
faire face aux exigences de la demande.
A. POSITIONNEMENT CONCURRENTIEL
Face à une vive concurrence, cette entreprise ne peut pas supporter durable-
ment une compétition par les coûts. Elle vise à développer un avantage concurrentiel
en termes de réactivité et de flexibilité organisationnelle fondées sur l’avantage
logistique. Précisément, il s’agit de créer un service de tout premier plan en termes de
réactivité, de qualité et de tenue des délais dans le but de relativiser les inconvé-
nients d’une main-d’œuvre à coût élevé par une qualité de service, une forte réacti-
vité et une technicité irréprochable. C’est en proposant aux clients un processus
permanent d’amélioration des coûts d’obtention, c’est-à-dire non seulement du prix
du produit, mais aussi de tout ce qui l’entoure (qualité, capacité d’évolution, qualité
du système d’information, livraison…) que Thélec cherche à relever le défi de la con-
currence mondiale. Cette politique est guidée par la volonté stratégique de générali-
ser les partenariats aussi bien avec les fournisseurs qu’avec les clients.
La production d’innovations managériales 149
la communication active entre les services ainsi que la mutation des fonctions
comme cela est prévu.
■ Les horaires dynamiques. Ce système d’horaire flexible doit permettre aux sala-
riés de faire varier leurs horaires, voire même de s’absenter de l’entreprise, si
les délais sont respectés. Un logiciel a été implanté à cet effet.
■ La formation et l’autonomie des hommes. Le plan de formation est centré sur
le développement de l’autonomie et la responsabilité de l’ensemble du person-
nel. Pour cela, une priorité est donnée aux formations permettant à l’entre-
prise d’être autoapprenante et qualifiante et d’améliorer sa performance
globale : principes de management et de communication interpersonnelle,
méthodes de résolutions de problèmes, formation de formateurs. Au total, la
performance globale est aujourd’hui redéfinie dans cette entreprise comme la
capacité de faire face aux six défis précédemment cités (délais, coûts, flexibi-
lité, qualité, innovation, variété) à partir d’une vision des compétences humai-
nes fondée sur l’autonomie et la responsabilité de l’acteur.
moyennes entreprises soulignent que les dirigeants ne dressent pas, le plus souvent,
le diagnostic des performances et des dysfonctionnements qui leur permettrait de
définir les améliorations possibles 5. Précisément, les actes de gestion auxquels on
fait référence correspondent en fait à des pratiques de management réitérées périodi-
quement lorsqu’un événement donné se produit. Cette approche des actes de gestion
introspectifs s’appuie sur l’idée selon laquelle un chercheur peut agir tel un facilita-
teur et un catalyseur pour rendre nombre d’acteurs de plus en plus capables d’affron-
ter et de résoudre eux-mêmes leurs problèmes. Les solutions apportées par les acteurs
aux problèmes auxquels ils sont confrontés doivent concourir d’une certaine manière
au développement de la performance de l’entreprise. En ce sens, les chercheurs, par la
nature même de leurs prestations immatérielles, développent les actes de gestion
introspectifs des cadres ou des dirigeants concernés. Les groupes de projet d’amélio-
ration favorisent le développement de l’introspection organisationnelle. Les instru-
ments de gestion (tels que par exemple le tableau de bord de pilotage ou l’analyse
des compétences) conduisent simultanément à une analyse approfondie de l’utilisa-
tion du temps de travail au sein de différents services, ainsi qu’à une étude rigoureuse
de la répartition de l’état des compétences. En définitive, le développement de
l’introspection contribue à l’autonomie de l’acteur puisque cela conduit à l’accroisse-
ment du niveau de visibilité et de lisibilité. Il convient à présent de s’intéresser aux
capacités conceptives des acteurs.
5 Cf. M. Marchesnay, C. Fourcade (éd.), Gestion des PME/PMI, Paris, Nathan, 1997.
152 Recherche-intervention et innovations managériales
L’analyse du cas de l’entreprise Thélec montre que l’on peut identifier des élé-
ments à prendre en considération afin de réaliser une innovation organisationnelle
facilitée par le développement de l’autonomie dans l’entreprise. Néanmoins, le projet
stratégique et organisationnel de cette entreprise en croissance pose un certain nom-
bre de questions qu’un chercheur peut faire émerger dans l’entreprise pour contribuer
avec succès à la réalisation d’un tel projet. Quelles sont les difficultés à prévoir pour
La production d’innovations managériales 153
mettre en œuvre le projet ? Quelles sont les chances de réussite de celui-ci ? Com-
ment le processus de changement peut-il évoluer favorablement et sous quelles
conditions ?
3. Conclusion
Cette quête de compétitivité ne peut être discutée sans tenir compte des profondes
mutations auxquelles sont soumises les organisations et leur mode de management.
La mondialisation des entreprises peut constituer une réelle opportunité pour déve-
lopper les compétences des hommes et leur niveau de qualification. C’est suivant une
telle perspective que se développent les systèmes de gestion des compétences et des
connaissances. En effet, le contexte international caractérisé par la montée de la
complexité et de l’incertitude rend indispensable la maîtrise de compétences clés tel-
les que des capacités de discernement des managers internationaux, d’organisation de
réseaux relationnels, de conduite de projets émergents, de mise en synergie d’activi-
tés différentes, d’interculturalité, etc. Les approches contemporaines du management
ainsi que le cas de l’entreprise Thélec visent à montrer les conditions de production
de la compétence dans le contexte d’une économie du savoir et d’une dématérialisa-
tion de l’entreprise. Le développement du travail collectif, de la gestion des équipes
et de nouvelles formes de coopération dans les entreprises résulte bien d’innovations
organisationnelles qui conduisent à une approche renouvelée de la gestion des hom-
mes.
Bibliographie
Amadieu J.-F. et Cadin L. (1996), Compétences et organisation qualifiante, Economica,
Paris.
Aoki M. (1986). « Horizontal versus Vertical Information Structure of the Firm », Ameri-
can Economic Review, vol. 76, n° 5, September, pp. 971-983.
Argyris C. (1983). « Action Science and Intervention », Journal of Behavioral Science,
vol. 19, pp. 115-140.
Berger P. et Luckmann T. (1986), La construction sociale de la réalité, Paris, Méridiens
Klincksieck.
Bournois F. et Roussillon S. (1998), Préparer les dirigeants de demain, Les éditions
d’Organisation, Paris.
Chaval V., Lesca H. et Martinet A.-C. (1997), Vers une ingénierie de la recherche en
sciences de gestion, Revue française de gestion, n° 116, octobre-novembre, pp. 41-
51.
Devereux G. (1980), De l’angoisse à la méthode dans les sciences du comportement,
Paris, Flammarion.
Drucker P.F. (1999), Knowledge-Worker Productivity : The Biggest Challenge, California
Management Review, vol. 41, n° 2, pp 79-98.
Garfinkel H. (1967), Studies in Ethnomethodology, Englewoods Cliffs, NJ, Prentice Hall.
Girin J. (1990), Analyse empirique des situations de gestion : éléments de théorie et de
méthode, in Épistémologies et sciences de gestion coordonné par A.-C. Martinet, Eco-
nomica, Paris, pp 141-181.
Hatchuel A. (1992), L’intervention des chercheurs en entreprise, Éducation permanente,
n° 113, pp. 73-88.
Huberman M.A. et Miles M.B. (1991), Analyse des données qualitatives. Recueil de nou-
velles méthodes, De Boeck Université, Première édition américaine 1984.
156 Recherche-intervention et innovations managériales
Hubert G. et Van de Ven A. (1990), Longitudinal Field Research Methods for Studying
Processes of Organizational Change, Organizational Science, vol. 1, n° 3, pp. 213-219.
Igalens J. et Roussel P. (1998), Méthodes de recherche en gestion des ressources humai-
nes, Economica, Paris, Coll. Recherche en Gestion.
Johnson H.T. (1982), : Relevance Regained. From Top-Down Control to Bottom-up
Empowerment, Free Press, New-York.
Kaplan R. S. (1998). « Innovation Action Research : Creating New Management Theory
and Practice », Journal of Management Accounting Research, vol. 10, pp. 89-117.
Koenig G. (1993), « Production de la connaissance et constitution des pratiques
organisationnelles », Revue de gestion des ressources humaines, n° 9, pp. 4-17.
Lewin K. (1947), Group Decision and Social Change, in Newcomb T. M. et Hartley E. L. :
Reading in Social Psychology, New York, Holt.
Lorino P. (1995), Comptes et récits de la performance. Essai sur le pilotage de l’entre-
prise, Les éditions d’Organisation, Paris.
Louart P. (1995), Succès de l’intervention en gestion des ressources humaines, Liaisons,
Paris.
March J.G. et Simon H.A. (1958), Les organisations, Paris, Dunod, 2e édition française
1991.
Martinet A.-C. (1992), La recherche en gestion en collaboration avec les entreprises,
Communication au colloque du 08 avril organisé par l’Institut de Recherche en ges-
tion. Actes publiés par le Groupe ESC Lyon, pp. 23-36.
Mathieu M. (1986), La familiarité distante, Gérer et Comprendre, Annales des Mines,
mars, pp 81-94.
Mevellec P. (1990), Outils de gestion. La pertinence retrouvée, Éd. Comptables Malesher-
bes, Paris.
Miller D. et Friesen P.H. (1984), Organizations. A Quantum View, Prentice Hall Inc.,
Englewood Cliffs, New Jersey.
Morgan G. (1990), Paradigm Diversity in Organizational Research, in Theory and Philoso-
phy in Organizational Research, Edited by Hassard J. et Pym D., Routledge, pp. 13-
29.
Nonaka I. (1994), A Dynamic Theory of OrganizationalKnowledge Creation, Organization
Science, vol. 5, n° 1, février, pp. 14-37.
Ouchi W. (1979), A Conceptual Framework for the Design of Organizational Control
Mechanisms, Management Science, vol. 25, n° 9, Sept., pp. 833-847.
Perrow Ch. (1967), A framework for Organizational Analysis, American Sociological
Review, n° 16, pp. 444-459.
Pettigrew A.M. (1990), Longitudinal Field Research on Change : Theory and Pratice, Orga-
nization Science, vol. 1, n° 3, pp. 267-292.
Plane J.-M. (2003), Management des organisations, Dunod, Paris.
Plane J.-M. (2001), Action Science, Intervention on Company Management and Develop-
ment, EGOS, July, Lyon.
Plane J.-M. (2000), Méthodes de recherche-intervention en management, L’Harmattan,
Paris, Coll. Économiques.
Porter M.E. (1986), L’avantage concurrentiel, InterÉditions, Paris.
Reix R. (1995), Savoir tacite et savoir formalisé dans l’entreprise, Revue française de
gestion, septembre-octobre, n° 105, pp. 17-28.
Bibliographie 157
La recherche en gestion
et les méthodes ethnosociologiques
Jean-François CHANLAT 1
Sommaire
4 Conclusion 172
singulier. C’est à partir de la mise en rapport critique de tous les points de vue par le
chercheur que l’on va arriver à bâtir un modèle. En outre, il est important de prendre
en compte que même lorsque les gens accomplissent la même fonction, ils ne la rem-
plissent pas toujours de la même manière. Cette différentialité provient des expérien-
ces sociales propres à chaque personne. Le récit de vie permet aussi de rendre compte
de cette diversité de manière de jouer son rôle en interrogeant des individus diffé-
rents. Cela peut, dans certains cas, aller jusqu’à rechercher le cas négatif qui poussera
le chercheur à revoir son modèle théorique.
Les hypothèses s’élaborent aussi progressivement. Contrairement à la démar-
che hypothéticodéductive, ce type de recherche développe ses hypothèses au cours
de la recherche de terrain. Les récits de vie fournissent des éléments qui vont, en
s’agrégeant, faire sens pour le chercheur et donneront donc lieu à une interprétation
plausible, comme le souligne là encore Bertaux. La confrontation des interprétations
et les comparaisons avec d’autres terrains ont valeur de vérification de la solidité de
l’interprétation trouvée. La saturation des données obtenues permet enfin de valider
les configurations et de répondre à la sempiternelle question sur la représentativité
de l’échantillon. Dans leur étude désormais classique sur la boulangerie artisanale
française, Bertaux et Bertaux-Wiame ont pu reconstituer cet univers professionnel en
interviewant par la méthode des récits de vie cent boulangers et cent boulangères. Ils
se sont arrêtés lorqu’ils ont constaté que des récits de vie supplémentaires n’appor-
taient plus rien de nouveau. Leur posture sociologique leur permettait de rendre
compte de cette singularité sociale bien française et d’expliquer sa pérennité dans le
temps (1980 ; 1982). L’objet du récit de vie n’était donc pas de restituer une histoire
personnelle, une autobiographie, celle d’un boulanger, mais bien à travers le récit
qu’en faisait chaque boulanger et chaque boulangère, la réalité socioprofessionnelle
dans son contexte, en l’occurrence, ici, la boulangerie française artisanale au cours
des années 1960, 1970. Grâce à cette recherche, on était en mesure de mieux com-
prendre pourquoi la France avait encore une boulangerie très majoritairement indé-
pendante et familiale, la boulangère étant un élément clé dans l’installation et le
succès commercial.
par certains sociologues aux méthodes ethnologiques. Comme nous l’avons déjà men-
tionné précédemment, les travaux de Warner et Low, ceux de Mayo et de son équipe
et la recherche de William Foote Whyte, sont les premières tentatives de ce type entre
les deux grandes guerres mondiales. Par la suite, cette méthode va être, plus ou moins
utilisée selon les disciplines et les endroits. Mais il reste que depuis les années 1980,
l’ethnographie semble intéresser plus de monde et notamment, le monde de l’entre-
prise. Celui-ci s’intéresse à ce type d’approche pour mieux comprendre les comporte-
ments des usagers, des clients, des équipes de travail et de manière plus globale,
mieux décrypter la symbolique organisationnelle (Turner, 1990 ; Van Maanen, à paraî-
tre).
La recherche ethnographique repose principalement sur l’observation partici-
pante. Cette méthode, comme son nom l’indique, consiste à s’immerger dans un
milieu de façon prolongée et à recueillir par l’observation, les rencontres, les entre-
tiens, la participation aux activités, des données concernant la vie sociale du groupe
étudié. Par ailleurs, il y a plusieurs types d’observateurs : « l’observateur complet »,
« l’observateur en tant que participant », « le participant en tant qu’observateur » et
« le participant complet ». Ces types correspondent au degré d’implication du cher-
cheur dans la situation qu’il étudie. Comme on peut le voir, l’observation participante
pose la question du rapport du chercheur à l’objet de son étude, lequel est un collec-
tif d’humains. C’est la raison pour laquelle cette question de la relation au terrain a
fait l’objet de nombreuses publications qui ont essayé de préciser le degré d’apparte-
nance que le chercheur doit avoir à son terrain d’enquête (Adler et Adler, 1987).
L’observation peut tout d’abord se faire ouvertement ou clandestinement. La
première posture est bien sûr de loin la plus populaire, la seconde plus rare. Mais il y
a des études classiques qui ont permis de raconter la vie des travailleurs en cachant la
véritable identité de l’enquêteur. L’expérience de Gunter Wallraff, journaliste allemand
qui a vécu sous l’identité d’un Turc pendant deux ans (1986) ou celle, toute récente
de Barbara Eirenhreich, sociologue américaine, qui a passé deux ans aux États-Unis à
faire des boulots à des salaires très bas (2003), en sont deux illustrations exemplai-
res. Ces deux enquêtes ont permis de révéler au monde des réalités sociales à la fois
méconnues et importantes dans les deux sociétés concernées : la vie des travailleurs
immigrés turcs et l’existence des working poors américains. Dans le cas d’une observa-
tion non dissimulée, selon Adler et Adler, il y aurait trois types d’appartenance :
l’appartenance participante périphérique, l’observation participante active et l’obser-
vation participante complète.
L’appartenance participante périphérique est adoptée par des chercheurs qui
pensent qu’il est important d’avoir un degré d’implication dans le groupe qu’ils étu-
dient mais dont le degré d’implication demeure secondaire. Ils ne cherchent pas à
remplir un rôle clé par exemple. Cette posture renvoie à une prudence méthodologi-
que. C’est une manière de garder une distance suffisante pour maintenir une analyse.
On pourrait parler de familiarité distante. De nombreux chercheurs adoptent ainsi le
rôle d’écrivain, de celui qui va écrire un livre sur le groupe étudié (Whyte, 1994).
L’observation participante active est adoptée par des chercheurs qui jouent un
rôle formel précis au sein du groupe ou de l’organisation. C’est une posture plus diffi-
cile car le chercheur peut introduire par son action d’autres valeurs dans la situation
qu’il étudie.
Deux méthodes ethnosociologiques 167
mistes (1991). Cet aspect n’est pas toujours bien mis en valeur. Or, certaines de ses
enquêtes d’observation participante, en s’apparentant souvent à de la recherche-
action (Whyte, 1985 ; Becker, 2002), montrent combien cette méthode peut-être
utile dans l’intervention sociale. Elle ne se contente pas uniquement d’observer pour
observer mais aussi souvent de bien décrire pour mieux intervenir.
pante, développée par l’ethnologie, ne doit être utilisée, à notre avis, que quand qua-
tre conditions sont réunies :
■ lorsqu’un chercheur et un terrain d’observation se rencontrent avec la volonté
de rendre compte d’un univers social méconnu, incompris voire oublié ;
■ lorsque le rapport au temps n’est pas un problème ;
■ lorsque le chercheur a les qualités humaines requises ;
■ lorsque le chercheur est prêt à composer avec la charge socioaffective propre à
ce type de démarche.
En effet, la méthode de l’observation participante nécessite l’ouverture d’un
terrain. Or, étant donné le caractère ethnographique de la démarche, il n’est pas tou-
jours facile d’en trouver. Nombreux sont les univers organisés qui restent encore fer-
més à ce genre d’approche. On ne se livre pas facilement au regard d’un étranger. Il
faut qu’il y ait une volonté d’ouverture et un désir d’être l’objet d’une telle enquête.
C’est la raison pour laquelle certains chercheurs, à l’instar de Barbara Eirenreich déjà
citée, avancent masqués et restent ainsi inconnus des personnes observées. La fausse
identité permet d’accéder au terrain d’enquête et de rendre compte de ce qui s’y
passe.
C’est également une méthode très coûteuse en temps, le chercheur devant
s’immerger pendant des mois, voire plus dans certains cas. Par exemple, Whyte a
passé deux ans à vivre dans un quartier difficile de Boston pour en rendre compte
(1948). Si le terrain doit être ouvert et prêt à accepter une observation longue, le
chercheur, quant à lui, doit être en mesure d’avoir le temps voulu. Tous les chercheurs
ne sont pas dans cette situation, et toutes les organisations ne se prêtent pas à une
enquête aussi longue.
C’est aussi une méthode qui exige un ensemble de compétences humaines :
savoir se faire accepter par un groupe, savoir poser les bonnes questions, saisir les
éléments implicites, éviter les jugements hâtifs, se comporter en apprenti, savoir
exprimer ses émotions (empathie, sympathie, chaleur des relations), posséder une
bonne capacité d’écoute, être authentique, posséder une certaine ouverture d’esprit,
apprendre à se taire, éviter de singer, avoir la bonne distance, que tous les chercheurs
ne possèdent pas, bien sûr, spontanément. Tout le monde n’est donc pas doté des
compétences requises pour ce type de recherche.
C’est enfin une méthode qui demande une réflexivité constante par rapport au
terrain et aux personnes observées. On doit en effet constamment gérer la relation,
sujet d’enquête –chercheur et contrôler le degré d’identification avec les observés.
Car, il faut que le chercheur maintienne la bonne distance et qu’il ait recours à des
vérifications régulières pour éviter que ce qu’il a pu noter soit le produit de ses pro-
jections. Il faut donc avoir le réflexe de valider continuellement les données
recueillies auprès non seulement des informateurs clés mais aussi d’autres informa-
teurs, voire d’autres collègues. Si tout cela s’apprend, il reste que tous les chercheurs
n’ont pas forcément cette aptitude de retour sur soi et sur la relation avec les sujets
de l’observation. Comme certains le rappellent avec raison, la qualité d’une ethnogra-
phie réside le plus souvent, pour ne pas dire avant tout, dans les qualités personnel-
les de l’ethnographe. Car, comme nous venons de le voir, s’il existe un grand nombre
de ficelles de métier pour parler comme Becker, ficelles auxquelles chacun peut se rat-
172 La recherche en gestion et les méthodes ethnosociologiques
4. Conclusion
Bibliographie
Adler P., Adler P. et Rochford B. (1986), « The Politics of Participation in Field
research », Urban Life, 14, n° 4, pp. 363-376.
Aktouf O. (1986), « Une vision interne des rapports de travail : le cas de deux
brasseries », Le travail humain 49 (3), pp. 237-248.
Aktouf O. (1985), « La méthode de l’observation participante » in Chanlat A. et Dufour
M. (1985), La rupture entre l’entreprise et les hommes, Montréal Québec Amérique,
Paris, Les Éditions d’Organisation, pp. 243-285.
Alter N. (2000), L’innovation ordinaire, Paris, PUF.
Battagliola F., Bertaux-Wiame I., Ferrand M. et Imbert F. (1991), Dire sa vie : entre tra-
vail et famille. La construction sociale de trajectoires, Paris, Centre de sociologie
urbaine/IRESCO.
Battagliola F., Bertaux-Wiame I., Ferrand M. et Imbert F. (1993) « À propos des
biographies : regard croisés sur questionnaire et entretiens », Population, 2.
Bate S.P. (1997), « Whatever happened to organizational anthropologie ? A review of
the field of organizational ethnography and anthropological studies », Human Rela-
tions, 50 (9) 1147
Becker H.S. (1963), « Outsiders : Studies in the Sociology of Deviance », New York, Free
Press (trad. française : Outsiders : études de sociologie de la déviance, Paris, A.-M.
Métailié, 1985).
Becker H.S. (2002), Les ficelles du métier. Comment conduire sa recherche en sciences
sociales, Paris, La Découverte.
Berry M. (1987), « Vers une technologie invisible ? », Cahier du CRG, Paris.
Bertaux D. et Bertaux-Wiame I. (1980), Une enquête sur la boulangerie artisanale, Paris,
rapport au CORDES (Commissariat au Plan).
Bertaux D. (1997), Les récits de vie, Paris, Nathan Université.
Boden D. (1994), The Busines of Talk. Organization in Action, Cambridge, Polity Press.
Bouchard S. (1985), « Être truckeur (routier) » in Chanlat A. et Dufour M (1985), La
rupture entre l’entreprise et les hommes, Montréal Québec Amérique, Paris, Les Édi-
tions d’Organisation, pp. 331-359.
Bouilloud J.-P. et Lecuyer B.-P. (1994), L’invention de la gestion, Paris, L’Harmattan.
Brabet J. (dir.) (1993), Repenser la gestion des ressources humaines ?, Paris, Economica.
Cartron D. (2003), « Le sociologue pris en sandwich ! Retour sur une observation parti-
cipante au Mc Donald’s », Travail et emploi, n° 94.
Castaneda C. (1985), Les enseignements d’un sorcier yaqui, Paris, Gallimard.
Chanlat A. et Dufour M. (1985), La rupture entre l’entreprise et les hommes, Montréal
Québec Amérique, Paris, Les Éditions d’Organisation.
Chanlat J.-F. (dir.) (1990), L’individu dans l’organisation, les dimensions oubliées, Ste
Foy, Les Presses de l’Université Laval, Paris, Eska.
Chanlat J.-F. (1998), Sciences sociales et management. Plaidoyer pour une anthropologie
générale, Ste Foy, Les Presses de l’Université Laval, Paris, Eska.
Chanlat J.-F. (2000), « L’analyse des organisations : un regard sur la production de lan-
gue française contemporaine (1950-1990) », in Côté M. et Hafsi T., Le management
aujourd’hui. Une perspective nord-américaine, Ste Foy, Les Presses de l’Université
Laval, Paris, Economica pp. 129-151.
174 La recherche en gestion et les méthodes ethnosociologiques
Sainsaulieu R. (1977), L’identité au travail, Paris, Les Presses de la Fondation des scien-
ces politiques.
Sanseau P.-Y. (2001), « Aménagement du temps de travail et vécu des individus :
réflexion autour de perspectives d’analyse et d’une approche méthodologique », in
Swarte (de) T. (éd.), Psychanalyse, Management et Dépendances au sein des Organisa-
tions. Paris : L’Harmattan. pp. 140-170.
Schmidt G. (2002), Gestion des ressources humaines 1995-1997, Colloque de l’AGRH,
Nantes.
Séguin F. et Chanlat J.-F. (1983), L’analyse des organisations, Tome I : Les théories de
l’organisation, Montréal, Gaétan Morin éditeur.
Schwartzman H. (1993), Ethnography in Organizations, Londres, Sage.
Turner B. (1990), Organizational Symbolism, Londres, Sage.
Turner B. (à paraître), « La symbolique organisationnelle » in Chanlat J.-F. (éd.), L’ana-
lyse des organisations Perspectives contemporaines, Ste-Foy, Les Presses de l’Univer-
sité Laval, Paris,
Van Maanen J. (1988), Tales of the Field : On Writing Ethnography, Chicago, University
of Chicago Press.
Van Maanen J. (1998), Qualitative Studies of Organizations, Newbury Park, Sage.
Van Maanen J. (à paraître), « L’usine à sourire : travailler à Disneyland », Chanlat J.-F.
(éd.), L’analyse des organisations. Perspectives contemporaines, Ste-Foy, Les Presses
de l’Université Laval, Paris,
Wacheux F. (1996), Méthodologies qualitatives et recherche en gestion, Paris, Economica.
Weber M. (1971), Économie et société, Paris, Plon.
Whyte W. F. (1943), Street Corner Society, Chicago, University of Chicago Press.
Whyte W. F. (1948), Human Relations in the Restaurant Industry, New York McGraw Hill.
Whyte W. F. (1994), Participant Observer An autobiography, Ithaca, ILR Press
Wren D. (1994), The Evolution of management Thought, New York, John Wiley.
Wright S. (ed.) (1994), The Anthropology of Organizations, Londres, Routledge.
Chapitre 7
La méthodologie Q
et l’étude de la subjectivité 1
Claire GAUZENTE 2
Sommaire
4 Conclusion 195
1 L’auteur tient particulièrement à remercier le Professeur Steven Brown pour sa relecture attentive
du chapitre, ses commentaires, ses indications bibliographiques et ses encouragements.
2 Maître de Conférences, Université d’Angers.
178 La méthodologie Q et l’étude de la subjectivité
Réaliser une étude statistique sur un cas unique paraît relever de la gageure
sinon de l’impossibilité. Pourtant la méthodologie Q, qui s’appuie sur l’analyse facto-
rielle, offre bien cette possibilité. Il convient toutefois de ne pas se méprendre sur ce
que l’on obtient en bout d’analyse. Dans l’optique Q, l’objectif est moins de produire
des résultats quantitatifs que de représenter une structure subjective. La notion de
statistique prend donc, ici, une signification limite.
Pour illustrer la perspective qui sous-tend l’analyse de type Q, nous reprenons
l’exemple symbolique et très visuel de Brown (1997). Il rappelle que l’analyse facto-
rielle classique porte sur des caractéristiques objectives. Ainsi, une étude sur le corps
humain fondée sur des données de type : mesures des membres, taille, etc. donnera
un résultat représenté sur la figure 7.1. Par contraste, une étude sur la perception du
corps par les individus, fondée donc sur des données subjectives, montrera une per-
ception de l’homme selon la figure 7.2.
Nous proposons, au travers de ce chapitre, d’apporter une vue introductive de
la méthodologie Q. Dans une première partie, nous discuterons de l’objectif d’étude
poursuivi dans le cadre d’une démarche de type Q, à savoir l’étude de la subjectivité.
Cet objectif s’appuie sur un cadre de référence développé par Stephenson et baptisé
la « théorie des concours » que nous décrirons rapidement. Dans une deuxième partie,
nous livrerons les éléments essentiels à la conception et la mise en œuvre d’une étude
de type Q. La dernière partie sera consacrée à une mise en pratique sur une étude de
cas. Il s’agira d’étudier la vision subjective d’un responsable de centre de profit con-
cernant la personnalité de ses cinq collaborateurs.
La théorie des « concours » (ou concourse theory) a été développée par Ste-
phenson (1980) initialement pour tenter de comprendre comment la communication
interindividuelle est possible. Selon lui, cette communication est possible grâce à
l’existence de concours, des savoirs partageables qui sont eux-mêmes ancrés dans la
subjectivité. Sur un plan étymologique, le « concours » provient du latin conscire :
scire (savoir) et con (avec). Le concours renvoie donc aux « savoirs partagés avec ».
Toutefois, tout en étant potentiellement partageable, ce savoir ne prend sens qu’en
termes d’autoréférence, c’est ce qui permet à n’importe qui d’entrer en conversation
avec d’autres personnes sur un sujet. Autrement dit, c’est en me situant par rapport à
tel ou tel sujet que je peux prendre part à la conversation. En résumant, la communi-
180 La méthodologie Q et l’étude de la subjectivité
cation est possible grâce à un savoir partagé à propos duquel j’ai ma propre vision
(nécessairement subjective), laquelle génère des significations.
La première publication sur cette théorie date de 1978. Elle fut suivie d’un
chapitre dans le Communication Yearbook (1980). Mais la publication la plus complète
a été diffusée ultérieurement, en 1986 ; il s’agit des documents utilisés par Stephen-
son dans ses cours.
Selon la théorie des concours, la signification d’une affirmation A est contin-
gente à son contexte d’énonciation et à la personne qui l’énonce. Mais, plus loin,
cette signification précise appartient à un ensemble plus vaste de significations
parallèles qui auraient également pu être mobilisées, ces significations parallèles
appartiennent à l’univers partagé décrit plus haut.
Si l’on reprend l’exemple de Stephenson (1978, 1986) : « Il pleut », cette affir-
mation peut refléter plusieurs significations / sentiments possibles : « tant mieux, je
n’aurai pas à arroser le jardin », ou bien « combien de temps est-ce que cela va
durer ? » ou encore « j’aime les parfums mouillés de pluie » etc. L’univers des signifi-
cations est infini. Un concours est donc un ensemble d’affirmations ou d’énoncés (sta-
tements) attachés à un thème, un événement, une image.
Le concours constitue la matière première permettant l’étude de la subjecti-
vité. Pour mener une telle étude, il faut extraire du concours un sous-ensemble
d’énoncés qui sera ensuite utilisé pour explorer la subjectivité d’une (ou plusieurs)
personne(s).
La constitution d’un concours peut être réalisée de bien des manières. L’inter-
view qualitative constitue naturellement la plus évidente, mais il est possible de pui-
ser dans toutes sortes de matériaux : poèmes, romans, journaux, photos, peintures,
couleurs, etc. Quels que soient les éléments retenus dans le concours, il convient de
souligner que le concours constitué ne pourra pas jamais être exhaustif puisqu’il est
infini. Néanmoins, lors de l’élaboration du sous-ensemble d’énoncés, il sera important
d’intégrer l’ensemble des différents points de vue possibles. Ainsi que le souligne
Brown (1980) si le point de vue C n’est pas intégré dans les énoncés, il ne pourra,
naturellement, pas ressortir des analyses.
Les énoncés sont issus du concours identifié auparavant (le plus souvent au
travers d’une série d’entretiens). Le concours constitue ce que l’on appelle également
la population Q, de laquelle sera extrait un échantillon Q. En clair, la population Q
d’énoncés attachés à une situation (cf. « il pleut ») sera utilisée pour qu’y soit tiré un
sous-ensemble d’énoncés, l’échantillon Q.
La constitution de l’échantillon Q n’est pas soumise au hasard. Stephenson
(1953, 1967) recommande de constituer l’échantillon Q selon les règles du design
expérimental (plan d’expérience). En d’autres termes, si dans le concours apparaissent
deux aspects différents comprenant chacun trois modalités particulières d’expression,
un plan d’expérience de type 2 X 3 sera utilisé pour sélectionner un nombre égal
d’énoncés représentant chaque combinaison. Cette règle n’est pas une règle absolue
mais elle permet d’éviter que soit négligé un aspect important du problème.
Une fois constitué l’échantillon Q, il convient de constituer l’échantillon P, qui
est celui des personnes. Un échantillonnage de type raisonné 3 sera utilisé (voir par
exemple : Tashakkori et Teddlie, 1998). Les énoncés de l’échantillon Q seront soumis
au(x) répondant(s) qui aura(ont) pour tâche de les classer en fonction de ce qu’il(s)
pense(nt) ou aime(nt) (ex. de tout à fait vrai à pas du tout vrai). Pour faciliter la
tâche de classement du(es) répondant(s), chaque énoncé est inscrit sur une carte (un
morceau de papier). Il convient de noter qu’une personne peut fournir plusieurs q-
sorts. Par exemple : la personne classe des énoncés décrivant l’attention dont elle a
fait l’objet de la part du médecin, de l’infirmière A, de l’infirmière B lors de son séjour
hospitalier. Cela fait 3 q-sorts pour 1 personne. Néanmoins on peut également avoir
seulement un q-sort par personne.
Les cartes, reprenant les énoncés, doivent être classées selon une loi quasi
normale. C’est-à-dire qu’aux extrémités (tout à fait faux et tout à fait vrai) il y aura
très peu de cartes et qu’au centre (modérément vrai ou peu caractéristique) il y aura
de nombreuses cartes, ainsi que le montre la figure 7.3.
Exemple de carte :
4 cartes 4 cartes
6 cartes
3 L’échantillon raisonné fait partie des échantillons non probabilistes. Il correspond à la sélection
d’individus ou de groupes sur la base de questions ou d’objectifs de recherche spécifiques et sur la
base des informations disponibles sur les individus.
182 La méthodologie Q et l’étude de la subjectivité
ENCADRÉ 7.1
De l’usage de la distribution forcée
Selon Block (1956), les procédures de distribution forcée et non forcée comportent
chacune des avantages et des limites.
Ainsi, la procédure de classement forcé autorise des comparaisons directes entre q-
sorts (puisque les individus utilisent la même distribution pour leur réponse), d’un point
de vue calculatoire, les q-sorts forcés sont plus simples à traiter, enfin ils permettent une
bonne discrimination.
Toutefois, on peut discuter le fait que la distribution forcée contraint les choix et peut
donc faire apparaître des discriminations qui sont plus apparentes que réelles, cela
particulièrement si le répondant est obligé d’évaluer au-delà de ses capacités de dis-
crimination.
Malgré les inconvénients potentiels de la distribution forcée, Block met en évidence la
supériorité de cette procédure sur la procédure non forcée.
4 L’analyse factorielle de type R porte sur les variables qu’elle vise à réduire. La matrice de corréla-
tion utilisée est une matrice de corrélation entre variables.
5 Cette métaphore constitue le titre du premier article de Stephenson sur le sujet.
L’instrumentation de l’étude de la subjectivité 183
ENCADRÉ 7.2
Q-vocabulaire
Q-sort : un Q-sort est le classement complet des énoncés selon une distribution nor-
male ou quasi normale. Exemple : le répondant A évalue l’attitude de l’infirmière à
son égard, puis celle du médecin ; cela donne lieu à deux Q-sorts.Nota : un individu
peut donc procurer un ou plusieurs Q-sorts, d’où l’idée d’étude de cas.
Carte : pour faciliter le recueil des Q-sorts, les énoncés sont chacun inscrits sur des
cartes (papier) différentes ; le répondant peut alors les classer. Un instrument de
recueil sur le web est disponible (WebQ).
Échantillon Q : Q-sample ou Q-set, il s’agit de l’ensemble des énoncés soumis au
classement.Exemple : pour évaluer l’attitude de l’infirmière et du médecin à son
égard, le répondant dispose de 40 énoncés. Donc l’échantillon Q = 40.
Échantillon P : P-sample, il s’agit des individus qui réalisent le(s) classement(s).
Exemple : si l’on reprend l’exemple précédent : l’échantillon P = 1.
Technique Q ou analyse factorielle Q : analyse factorielle de type Q (i.e. portant sur
les énoncés et non sur les individus). Il existe d’autres techniques de type Q que la
méthode Q — les analyses typologiques sont considérées par Miller (1978) acomme
appartenant à la famille des analyses Q —.
Méthodologie Q : il s’agit d’une démarche de recherche complète comprenant un
objectif de recherche particulier (l’étude de la subjectivité), une méthodologie de
recueil particulière (constitution des échantillons Q et P ; recueil des Q-sorts) et une
technique d’analyse statistique particulière (analyse factorielle Q).
a. Toutefois, un échange assez vif a eu lieu entre Brown et Miller dans Operant Subjectivity (1984 et
1985) suite à la publication de Miller et Friesen.
ENCADRÉ 7.3
Petit point sur l’appellation des analyses factorielles
Stewart (1981) rappelle que six types d’analyses factorielles existent, chacune
portant sur des objets différents. Nous les reprenons dans le tableau 7.1.
Le tableau 7.1 montre comment s’est installée durablement l’idée selon
laquelle l’analyse de type Q correspond simplement à l’inversion de la matrice croisant
variables et individus. Si bien qu’en marketing, son utilisation a été principalement
liée à la segmentation, puisque les personnes et non les variables sont analysées,
l’analyste recherche des groupes homogènes d’individus.
Toutefois, cet usage suppose de négliger la méthodologie Q que nous avons
exposée précédemment. La démarche proposée par Stephenson ne fonctionne pas sur
des données objectives mais sur des données subjectives. En outre, les données sub-
jectives ne sont pas conçues comme étant indépendantes les unes des autres, puisque
chaque énoncé appartenant à l’échantillon Q est évalué par rapport aux autres et non
dans l’absolu.
Au total, ainsi que le souligne Brown, il n’y a pas une matrice de données que
l’on inverse mais bien deux matrices distinctes, l’une comprenant un croisement indi-
vidus-variables objectives et l’autre croisant individus-variables subjectives. Ce point
a. En réalité, les tenants de l’approche Q considèrent qu’il n’existe qu’une véritable alternative qui renvoie soit à une approche de type R (corrélation
de variables, quel que soit le nombre de collectes) soit à une approche de type Q (corrélation de « personnes » quel que soit le nombre de collectes).
Étapes Objectifs
#1 : génération d’énoncés concernant le sujet d’étude, au travers d’entretiens Constitution d’une population
d’énoncés ou population Q, encore
désignée par concours.
#2 : constitution d’un échantillon d’assertions par élimination des redondances et Constitution de l’échantillon Q,
reformulation éventuelle des énoncés échantillon d’énoncés
#2’ : utilisation éventuelle d’un plan expérimental pour sélectionner un nombre
d’énoncés caractéristiques de chaque case.
#3 : sélection raisonnée des individus participant à l’étude Constitution de l’échantillon P,
échantillon des personnes
#4 : détermination de la distribution attendue selon une loi quasi normale ; affectation Préparation du recueil
d’un n° d’ordre à chaque énoncé.
Chaque énoncé doit être retranscrit sur une carte-papier permettant le recueil
matériel de chaque classement (i.e. :q-sort).
N.B. : certains n’imposent pas de distribution particulière mais fixent simplement
le nombre de catégories à utiliser pour classer les cartes.
#5 : recueil des Q-sorts auprès des individus qui classent les énoncés-cartes selon la Recueil des Q-sorts
distribution requise.
N.B. : le logiciel libre Web-Q permet de recueillir les q-sorts sur Internet.
#6 : saisie et traitement des données Analyse factorielle
N.B. : plusieurs logiciels de traitement existent :
PQMethod : logiciel libre conçu par Peter Schmolck régulièrement mis à jour ;
Quanal : logiciel commercial en Fortran ;
PCQ for Windows : logiciel commercial (une version buggée est disponible
librement).
#7 (option) : entretien ex post en s’appuyant sur les résultats de l’analyse factorielle Validation
#8 (option) : nouvelle collecte de plusieurs Q-sorts auprès d’un seul individu pour Approfondissement, étude de cas
réaliser une étude de cas.
6 Funder (2001) dénombre quatre paradigmes classiques dans la recherche sur la personnalité : le
paradigme psychoanalytique, le paradigme des traits de personnalité, le paradigme béhavioriste et le
paradigme humaniste. À cela, s’ajoutent de nouveaux paradigmes issus des recherches en biologie et
en sciences cognitives.
7 Cette théorie s’est bâtie sur l’analyse factorielle de type R, ainsi que le rappelle Block dans les
archives de la liste Q.
Une application : la perception de la personnalité des collaborateurs 187
ENCADRÉ 7.4
Liste des adjectifs utilisés
–4 –3 –2 –1 0 1 2 3 4 Catégories
I I I I I I I I I
I I I I I I I
I I I I I
I I I I I
Catégories
I I I
I
FIGURE 7.4 – Répartition de 30 cartes en 9 catégories selon une loi quasi normale
Une application : la perception de la personnalité des collaborateurs 189
ENCADRÉ 7.5
Dispositif de recueil des Q-sort : Exemple pour le cadre « Séverine »
Ne
Vraiment Parfaitement
Très mal Mal Plutôt mal s’applique Plutôt bien Bien Très bien
mal bien
pas
Mettre Mettre Mettre Mettre Mettre Mettre Mettre Mettre Mettre
1 carte 2 cartes 4 cartes 5 cartes 6 cartes 5 cartes 4 cartes 2 cartes 1 carte
Nota : Il n’y a pas de bonne réponse, c’est ce que vous pensez qui est important.
en fonction des individus (ici, en fonction des adjectifs puisque la matrice est inver-
sée). Si cela n’est pas important dans l’approche R (en effet, les individus ne servent
pas à interpréter les facteurs), c’est essentiel dans l’approche Q puisque ce sont les
énoncés qui caractérisent les facteurs qui permettront de leur donner sens.
Sur la base de notre collecte, nous obtenons la matrice de corrélations sui-
vante (tableau 7.3), les différents q-sorts sont désignés par le nom de la personne
évaluée par le cadre (le q-sort 1 est le cadre Séverine évalué par son supérieur hiérar-
chique). Le listing complet des résultats est fourni en annexe et annoté.
Le tableau 7.3 permet d’observer de premiers regroupements, ainsi le cadre
Fabrice est celui dont la personnalité est perçue comme la plus proche du cadre
Séverine ; et celle de Vianney comme la plus éloignée de toutes. L’extraction des fac-
teurs livre les éléments suivants (Tableau 7.4).
Les résultats mettent en évidence que les deux premiers facteurs résument
74 % de la variance des données. Par la suite, seules ces deux dimensions seront rete-
nues 9.
Bien que le graphique (Figure 7.5) soit lisible compte tenu d’un faible nombre
de points (5), une rotation varimax est demandée, elle permet de visualiser le posi-
tionnement de chaque cadre dans l’espace subjectif du responsable hiérarchique (le
logiciel offre la possibilité de réaliser une rotation manuelle 10 sans rotation varimax
ou bien encore après la rotation varimax).
8 Nous avons ressaisi les données sous SPSS pour réaliser une analyse factorielle classique, elle
donne les mêmes résultats.
9 Les deux premières dimensions sont retenues dans la suite du texte. Néanmoins, ainsi que le
souligne Brown (1978), dans l’approche Q, le critère de sélection des facteurs Q est avant tout leur
signification et leur apport à la compréhension, le critère statistique étant très secondaire
(eigenvalues, % de variance expliquée).
10 La rotation manuelle est réalisée via le curseur sur la base de la représentation graphique des
facteurs concernés à l’écran.
190 La méthodologie Q et l’étude de la subjectivité
q-sorts 1 2 3 4 5
Nous reproduisons ici la matrice de corrélations telle qu’elle est fournie par le logiciel PQ-Method dans lequel les corrélations sont expri-
mées selon la métrique [-100 ;+100].
F 1 2 3 4 5
avec :
ré,i = rang donné à l’énoncé é dans le Q-sort i
wi/f = poids du Q-sort i sur le facteur f
Ici : Σé = 30 ; –4 ≤ r ≤ 4 ; w = contribution factorielle (cf. tableau 7.5), et
1≤i≤5
Une application : la perception de la personnalité des collaborateurs 191
2
1
3
2
FIGURE 7.5 – Représentation graphique des axes factoriels après rotation varimax
et positionnement des Q-sorts
Dans le logiciel PQMETHOD, le résultat de ces calculs est ensuite converti selon
la métrique initiale des Q-sorts. Ainsi, comme les catégories utilisées vont de – 4 à 4,
les résultats sont présentés en utilisant les 9 catégories de la figure 7.4. Cela permet
de restituer les q-sorts synthétiques représentant les 2 facteurs. Les résultats sont les
suivants (Tableau 7.6).
Pour faciliter l’interprétation, nous avons suivi la procédure de Brown (1993)
qui consiste à représenter chaque facteur sous la forme de Q-sort synthétiques
(Figure 7.6). On reprend donc (manuellement) les éléments du tableau 7.6 que l’on
QSORT 1 2
1 Séverine 0,6709 0,4607
2 Fabrice 0,7577 0,4162
3 Benjamin 0,0409 0,8327
4 Vianney –0,9062 0,1238
5 Christel 0,2285 0,8530
% de variance expliquée 38 36
TABLEAU 7.5 – Contributions des Q-sorts sur les axes factoriels retenus
(après rotation varimax)
192 La méthodologie Q et l’étude de la subjectivité
Adjectifs F1 F2
Autoritaire 3 –1
Bien informé 2 –1
Calme –3 –2
Égoïste 0 –2
De mauvais caractère 4 –3
Dynamique 3 3
Émotionnellement stable –2 1
Facile à vivre –3 2
Imprudent 1 –1
Instable 1 –1
Irritable 2 –3
Peu averti –1 –2
Nonchalant –4 –4
Obstiné 0 0
Peu imaginatif –1 –1
Plein d’entrain 2 4
Prévenant 0 1
Prudent –1 0
Réservé –1 0
Résistant 1 2
Sérieux 0 2
Serviable 0 1
Silencieux –2 –1
Sociable 0 1
Spirituel 1 0
Tenace -2 2
Timide 2 1
Travailleur 1 3
Vite démuni –1 –2
Vulnérable –2 0
ordonne comme un q-sort, ce travail est facilité par la conversion des scores en la
métrique initiale (ici : 9 catégories).
Cette base, plus visuelle que le tableau 7.6, permet de mieux appréhender la
signification des deux facteurs. Elle est complétée par l’examen des énoncés significa-
tifs pour chaque facteur. Le plus intéressant est le tableau des énoncés distinctifs
(Tableau 7.7) qui met en évidence sur quels énoncés les facteurs se différencient.
Sur la base de la figure 7.6 et du tableau 7.7, il ressort que les facteurs 1 et 2
se distinguent l’un de l’autre de façon significative sur 11 adjectifs. Quatre adjectifs
distinctifs le sont au seuil de p=0.01 : « de mauvais caractère, autoritaire, irritable,
facile à vivre ». Sept le sont au seuil de p=0.05 : « bien informé, plein d’entrain,
imprudent, égoïste, prévenant, émotionnellement stable, timide ». Ce premier constat
conduit à interpréter les 2 facteurs en termes d’opposition. Par exemple, le facteur 1
renvoie au mauvais caractère, à l’autorité contrairement au facteur 2 (les rangs sont
opposés : « de mauvais caractère » a le rang 4 sur F1 et le rang –3 sur F2). Mais cette
Une application : la perception de la personnalité des collaborateurs 193
Facteur 1
–4 –3 –2 –1 0 1 2 3 4
nonchalant calme émotion. stable peu averti égoïste imprudent bien informé autoritaire mauvais caractère
facile à vivre silencieux peu imaginatif obstiné instable irritable dynamique
timide prudent prévenant résistant plein d’entrain
vulnérable réservé sérieux spirituel tenace
vite démuni serviable travailleur
sociable
Facteur 2
–4 –3 –2 –1 0 1 2 3 4
nonchalant mauvais caractère calme autoritaire bien informé émotion. stable facile à vivre dynamique plein d’entrain
irritable égoïste imprudent obstiné prévenant résistant travailleur
peu averti instable prudent serviable sérieux
vite démuni peu imaginatif réservé sociable tenace
silencieux spirituel timide
vulnérable
interprétation est très insuffisante. Les éléments de la figure 7.6 intègrent également
les adjectifs spécifiques à chaque facteur. En figurant les deux facteurs sous la forme
de q-sorts synthétiques, on voit comment s’agence le sens porté par les deux facteurs.
Il n’est pas étonnant de trouver des adjectifs « spécifiques » communs aux deux fac-
teurs. Par exemple, l’adjectif « dynamique » apparaît « spécifique » à F1 et F2 car cet
Facteur 1 Facteur 2
adjectif est associé à chacun des facteurs de façon significative (voir annexe pour
détails) mais il ne les distingue pas (il n’est pas positionné de façon différente sur
chacun des facteurs). En revanche, cet adjectif apparaît dans des contextes diffé-
rents. Ainsi, pour F1, l’adjectif « dynamique » jouxte les adjectifs distinctifs suivants
« de mauvais caractère », « autoritaire » alors que pour F2, il côtoie d’autres adjectifs
distinctifs : « plein d’entrain », « facile à vivre ».
Ce point permet de souligner l’optique de complémentarité, sinon de dualité,
qu’il convient d’adopter dans le travail d’interprétation. En d’autres termes, un même
adjectif (ou plus généralement, un même énoncé) revêt des significations différentes,
ce qui est en droite ligne avec la théorie des concours. De sorte que, si l’on souhaite
interpréter plus globalement la figure 7.6, il est nécessaire d’approfondir la première
lecture. Ainsi, une première lecture conduit-elle à considérer que F1 oppose le
« mauvais caractère » (pour faire bref) au caractère « facile à vivre » et à la
nonchalance ; et que F2 oppose le « mauvais caractère » au caractère « plein
d’entrain et travailleur ». Une lecture plus approfondie permet de relever que le
« mauvais caractère » peut renvoyer à deux univers. Le premier est de type
relationnel : les personnes qui sont perçues comme étant de mauvais caractère sont
également celles qui sont perçues comme tenaces, capables d’autorité, de dyna-
misme. Le « mauvais caractère » est, en fait, du caractère. Le second univers renvoie
aux qualités de collaboration (au sens étymologique du terme) de la personne. Une
personne perçue comme de « mauvais caractère » est vue comme nonchalante et
incapable de s’investir dans le travail (entrain, travail, dynamisme sont les termes en
opposition).
En somme, le premier facteur regroupe les collaborateurs qui sont perçus
comme ayant du caractère, des capacités managériales 11 et relationnelles ou bien, au
contraire, qui en sont totalement dépourvus (opposition de Séverine et Fabrice à
Vianney). Le second facteur regroupe, lui, des personnes qui sont vues comme capa-
bles de s’investir dans leur travail (Benjamin et Christel).
Enfin, pour compléter l’étude, il est utile de procéder à une étape de validation
comme indiqué dans le tableau 7.2 (étape 7). Nous avons réalisé un court entretien
avec le responsable de centre de profit, cinq mois après le recueil des données. Quatre
questions ont été posées :
■ Dans un cadre professionnel, quelle est la dimension de la personnalité la plus
importante à vos yeux ?
■ Parmi vos cadres, quels sont ceux qui se ressemblent le plus en termes de
personnalité ?
■ Quels sont ceux qui vous semblent être les plus travailleurs ?
■ Quels sont ceux qui ont, selon vous, le plus de caractère, de leadership,
d’autorité ?
11 Les notions d’autorité et caractère sont ici interprétées comme le reflet des capacités managéria-
les compte tenu du contexte de l’étude (ici : le centre de profit étudié est un magasin de grande dis-
tribution spécialisé). Il est clair qu’une connaissance antérieure du terrain permet d’enrichir
l’interprétation. On voit donc ici l’importance d’une démarche d’étude complète (entretiens préala-
bles, constitution du concours, etc.).
Conclusion 195
4. Conclusion
(OCEAN) nous avons obtenu une représentation de la vision d’un supérieur hiérarchi-
que à propos de la personnalité de ses cadres. Dans une méthodologie de type R, nous
aurions interrogé chaque cadre (et non pas le responsable hiérarchique) sur leur per-
sonnalité et nous aurions dû obtenir 5 facteurs de personnalité à partir desquels il
aurait été possible de décrire chacun des participants à l’étude, cela nous aurait per-
mis de voir, par exemple, jusqu’à quel point Séverine se trouve Ouverte ou Conscien-
cieuse. Ici, nous pouvons voir que le responsable hiérarchique perçoit trois types de
personnalités : les cadres ayant du leadership et développant un bon relationnel,
ceux n’en ayant pas du tout et ceux qui sont travailleurs. Il s’agit bien de perspecti-
ves complètement différentes.
L’usage de l’analyse factorielle Q suppose néanmoins le respect d’une méthodo-
logie précise. Elle peut être utilisée sur un individu seul ou bien sur plusieurs ; dans
ce second cas, un ou plusieurs Q-sorts peuvent être collectés. Dans un cas comme
dans l’autre, la préparation minutieuse de l’échantillon d’énoncés (échantillon Q) et
des catégories de classement apparaît fondamentale.
À ces conditions, les résultats obtenus présentent une forte cohérence, ainsi
qu’en témoigne l’illustration présentée. Ils permettent d’appréhender un sujet sans
simplification excessive (nombre des assertions), dans sa complexité (interactions
entre les assertions) tout en respectant le contexte (individu et positionnement rela-
tif).
Bibliographie
Baumgartner G. (1989), Une nouvelle méthode d’analyse factorielle pour la typologie
des consommateurs. Recherche et Applications en Marketing, vol. 4, n° 3, pp. 3-23.
Baas L.R. et Brown S.R. (1973), Generating rules for intensive analysis : the study of
transformations. Psychiatry, vol. 36, pp. 172-183.
Block J. (1956), A comparison of the forced and unforced Q-sorting procedures. Educa-
tional and Psychological Measurement, vol. 16, pp. 481-493.
Borkenau P. et Ostendorf F. (1998), The big five as states : how useful is the five-factor
model to describe intra-individual variations over time ? Journal of Personality, vol.
32, pp. 202-221.
Brouwer M. (1999), Q is accounting for tastes. Journal of Advertising Research, vol. 39
n° 2, pp. 35-39.
Brown S.R. (1972), A fundamental incommensurability between objectivity and subjec-
tivity. In S.R. Brown et D.J. Brenner (Eds.), Science, Psychology, and Communication :
Essays Honoring William Stephenson. New York : Teachers College Press, pp. 57-94.
Brown S.R. (1974), Intensive analysis in political research. Political Methodology, vol.
1, n° 1, pp. 1-25.
Brown S.R. (1978), The importance of factors in Q methodoloqy : statistical and theore-
tical considerations. Operant Subjectivity, vol. 1, n° 4, pp. 117-124.
Brown S.R. (1980), Political Subjectivity — Applications of Q Methodology in Political
Science,Yale University Press.
Brown S.R. (1984), Misunderstandings, misattributions, and mis-Qs. Operant Subjecti-
vity, n° 8, pp. 28-30.
Bibliographie 197
Brown S.R. (1986), The subjective side of enterprise : organizational dimension and
decision structure. Fifth Policy Sciences Summer Inctitute and Association for Public
Policy Analysis and Mangement, University of Texas, October 30- November 1.
Brown S.R. (1993), A Q methodological tutorial. Operant Subjectivity, vol. 16, pp. 91-
138 [disponible sur www.qmethod.org].
Brown S.R. (1996), Q methodology and qualitative research. Qualitative Health
Research, vol. 6, n° 4 (November), pp. 561-567.
Brown S.R. (1997), The history and principles of Q methodology in psychology and the
social sciences. British Psychological Society symposium on « A Quest for a Science of
Subjectivity : The Lifework of William Stephenson », University of London, England
(QArchive).
Costa P.T. et McCrae R.R. (1992), Revised NEO Personality Inventory (NEO-PI-R) and NEO
Five Factor Inventory. Professional Manuel, Odessa, Floride, Psychological Assessment
Resources.
Cottle C.E. et McKeown B. (1980), The forced-free distinction in Q technique : a note
on unused categories in the Q sort continuum, Operant Subjectivity, vol. 3, n° 2,
pp. 58-63.
Dubois P.L. et Jolibert A. (1998), Le Marketing, Fondements et Pratique, Paris : Econo-
mica.
Ekinci Y. et Riley M. (2001), Validating quality dimensions. Annals of Tourism Research,
vol. 28, n° 1, pp. 202-223.
Ferrandi J.M., Fine-Falcy S. et Valette-Florence P. (1999), L’échelle de personnalité des
marques de Aaker appliquée au contexte français : un premier test. 15e Congrès Inter-
national de l’Association Française de Marketing, Strasbourg, pp. 1089-1112.
Funder D.C. (2001), Personality. Annual Review of Psychology (annual), [disponible sur
www.findarticles.com].
Miller D. (1978), The role of multivariate ‘Q-Techniques’ in the study of organization.
The Academy of Management Review, vol. 3, n° 3, pp. 515-531.
Miller D. (1985), Comment. Operant Subjectivity, n° 8, pp. 70-71.
Morf M.E., Miller C.M. et Syrotuik J.M. (1976), A comparison of cluster analysis and Q-
factor analysis. Journal of Clinical Psychology, vol. 32, 59-64.
O’Reilly C., Chatman J. et Caldwell D. (1991), People and organizational culture : a Q-
sort approach to assessing person-organization fit. Academy of Management Journal,
vol. 34, pp. 487-516.
Pierrehumbert B, Sieye A., Zaltman V. et Halfon O. (1995), Entre salon et laboratoire :
l’utilisation du Q-sort de Waters et Deane pour décrire la qualité de la relation d’atta-
chement parent-enfant. Enfance, n° 3, pp. 277-291.
Pierrehumbert B., Karmaniola A., Sieye A., Meister C., Miljkovitch R. et Halfon O.
(1996), Les modèles de relation : Développement d’un autoquestionnaire d’attache-
ment pour adultes. Psychiatrie de l’enfant, vol. 34, n° 1, pp. 161-206.
Popovitch K et Popovitch M. (1994), Use of Q methodology by public relations practi-
tioners for hospital strategic planning. Operant Subjectivity, vol. 17 (April/July),
pp. 40-54.
Reuchlin M. (1962), Les méthodes quantitatives en psychologie, PUF Psychologie
d’aujourd’hui, 2e édition (1975), pp. 254-302.
Simon-Rosenthal C. (1999), One experience is worth a thousand words : engaging
undergraduates in field research on gender. Political Science et Politics, March [dispo-
nible sur www.findarticles.com].
198 La méthodologie Q et l’étude de la subjectivité
Sites internet
www.qmethod.org
Q-METHOD@LISTSERV.KENT.EDU et les archives de cette liste de discussion très active.
Annexe 199
ANNEXE
LISTING PQMETHOD (VERSION 2.09)
Voici les sorties produites par le logiciel Pqmethod. Nous avons inséré dans le listing des
annotations en italiques signalées par une flèche (➡) afin de permettre au lecteur de sui-
vre le déroulement de l’analyse.
Correlation Matrix Between Sorts
SORTS 1 2 3 4 5
1 severine 100 55 32 -44 51
2 fabrice 55 100 33 -54 52
3 benjamin 32 33 100 -8 52
4 vianney -44 -54 -8 100 -9
5 christel 51 52 52 -9 100
➡ Matrice des contributions factorielles après rotation varimax. Les X marquent les
q-sorts qui seront associés à chaque facteur pour le calcul des q-sorts
synthétiques
Free Distribution Data Results
Q-SORTS MEAN ST.DEV.
1 0.000 1.948
2 0.000 1.948
3 0.000 1.948
4 0.000 1.948
5 0.000 1.948
200 La méthodologie Q et l’étude de la subjectivité
➡ Scores des énoncés sur les facteurs 1 et 2 (score et rang, rang allant de 1 à 30)
Correlations Between Factors
1 2
1 1.0000 0.2846
2 0.2846 1.0000
Normalized Factor Scores -- For Factor 1
No. Statement No. Z-SCORES
4 de mauvais caractere 4 1.992
5 dynamique 5 1.756
1 autoritaire 1 1.220
26 tenace 26 1.044
11 irritable 11 0.975
2 bien informe 2 0.926
16 plein d entrain 16 0.822
28 travailleur 28 0.709
9 imprudent 9 0.621
10 instable 10 0.508
Annexe 201
20 resistant 20 0.445
25 spirituel 25 0.418
22 serviable 22 0.272
21 serieux 21 0.223
6 egoiste 6 0.175
24 sociable 24 0.154
14 obstine 14 0.132
17 prevenant 17 -0.272
19 reserve 19 -0.508
18 prudent 18 -0.558
12 peu averti 12 -0.640
15 peu imaginatif 15 -0.682
29 vite demuni 29 -0.704
7 emotionnellement stable 7 -0.731
27 timide 27 -0.934
23 silencieux 23 -1.024
30 vulnerable 30 -1.107
8 facile a vivre 8 -1.261
3 calme 3 -1.951
13 nonchalant 13 -2.020
➡ Reprise des scores des énoncés sur le facteur 1 : en souligné, les énoncés
significatifs à p<=0.01 ; en italique souligné, les énoncés significatifs à <=0.05
(voir calculs plus loin).
Normalized Factor Scores -- For Factor 2
No. Statement No. Z-SCORES
16 plein d entrain 16 1.767
28 travailleur 28 1.535
5 dynamique 5 1.493
8 facile a vivre 8 1.451
20 resistant 20 0.904
21 serieux 21 0.904
26 tenace 26 0.904
22 serviable 22 0.862
24 sociable 24 0.778
17 prevenant 17 0.589
7 emotionnellement stable 7 0.315
27 timide 27 0.042
14 obstine 14 0.000
18 prudent 18 0.000
2 bien informe 2 0.000
25 spirituel 25 -0.084
19 reserve 19 -0.232
23 silencieux 23 -0.273
1 autoritaire 1 -0.273
9 imprudent 9 -0.315
10 instable 10 -0.315
30 vulnerable 30 -0.399
15 peu imaginatif 15 -0.547
29 vite demuni 29 -0.589
6 egoiste 6 -0.862
202 La méthodologie Q et l’étude de la subjectivité
➡ Calcul des différences de score de chaque énoncé entre les 2 facteurs (afin de
déterminer les énoncés distinctifs) calcul : sén/1-sén/2 (score de l’énoncé é sur
facteur 1) ; en souligné, les énoncés distinctifs avec p<=0.01 en italique souligné,
les énoncés distinctifs avec p<=0.05
Factor Q-Sort Values for Each Statement
Factor Arrays
No. Statement No. 1 2
1 autoritaire 1 3 -1
2 bien informe 2 2 0
3 calme 3 -3 -2
4 de mauvais caractere 4 4 -3
Annexe 203
5 dynamique 5 3 3
6 egoiste 6 0 -2
7 emotionnellement stable 7 -2 1
8 facile a vivre 8 -3 2
9 imprudent 9 1 -1
10 instable 10 1 -1
11 irritable 11 2 -3
12 peu averti 12 -1 -2
13 nonchalant 13 -4 -4
14 obstine 14 0 0
15 peu imaginatif 15 -1 -1
16 plein d entrain 16 2 4
17 prevenant 17 0 1
18 prudent 18 -1 0
19 reserve 19 -1 0
20 resistant 20 1 2
21 serieux 21 0 2
22 serviable 22 0 1
23 silencieux 23 -2 -1
24 sociable 24 0 1
25 spirituel 25 1 0
26 tenace 26 2 2
27 timide 27 -2 1
28 travailleur 28 1 3
29 vite demuni 29 -1 -2
30 vulnerable 30 -2 0
➡ Conversion des scores des énoncés en la métrique initiale (ici 9 catégories allant
de — 4 à 4). Ce sont les q-sort de synthèse représentant les facteurs.
Variance = 3.667 St. Dev. = 1.915
Factor Q-Sort Values for Statements sorted by Consensus vs Disagreement
(Variance across normalized Factor Scores)
Factor Arrays
No. Statement No. 1 2
29 vite demuni 29 -1 -2
14 obstine 14 0 0
15 peu imaginatif 15 -1 -1
26 tenace 26 2 2
5 dynamique 5 3 3
12 peu averti 12 -1 -2
19 reserve 19 -1 0
13 nonchalant 13 -4 -4
20 resistant 20 1 2
25 spirituel 25 1 0
18 prudent 18 -1 0
22 serviable 22 0 1
24 sociable 24 0 1
21 serieux 21 0 2
30 vulnerable 30 -2 0
23 silencieux 23 -2 -1
3 calme 3 -3 -2
204 La méthodologie Q et l’étude de la subjectivité
10 instable 10 1 -1
28 travailleur 28 1 3
17 prevenant 17 0 1
2 bien informe 2 2 0
9 imprudent 9 1 -1
16 plein d entrain 16 2 4
27 timide 27 -2 1
6 egoiste 6 0 -2
7 emotionnellement stable 7 -2 1
1 autoritaire 1 3 -1
11 irritable 11 2 -3
8 facile a vivre 8 -3 2
4 de mauvais caractere 4 4 -3
➡ Idem que sortie précédente en classant les énoncés du plus faible au plus fort
désaccord.
Factor Characteristics
Factors
1 2
No. of Defining Variables 3 2
On peut alors revenir sur les résultats précédents pour identifier les énoncés les plus
caractéristiques de chaque facteur. Cela contribue à l’interprétation mais les éléments
d’interprétation les plus importants sont à suivre.
Les erreurs standard hors diagonale permettent d’identifier les énoncés distinctifs
entre les 2 facteurs. La différence entre scores devra être au minimum de 2.58 × 0.434
soit 1.119 pour p ≤ 0.01 et de 1.96 × 0.434 soit 0.850 pour p ≤ 0.05
Distinguishing Statements for Factor 1
(P <.05 ; Asterisk (*) Indicates Significance at P <.01)
Both the Factor Q-Sort Value and the Normalized Score are Shown.
Factors
1 2
No. Statement No. RNK SCORE RNK SCORE
4 de mauvais caractere 4 4 1.99* -3 -1.77
1 autoritaire 1 3 1.22* -1 -0.27
11 irritable 11 2 0.98* -3 -1.45
2 bien informe 2 2 0.93 0 0.00
16 plein d entrain 16 2 0.82 4 1.77
9 imprudent 9 1 0.62 -1 -0.32
6 egoiste 6 0 0.18 -2 -0.86
17 prevenant 17 0 -0.27 1 0.59
7 emotionnellement stable 7 -2 -0.73 1 0.32
27 timide 27 -2 -0.93 1 0.04
8 facile a vivre 8 -3 -1.26* 2 1.45
Sommaire
4 Conclusion 241
admises. Il faut enfin opter, et c’est essentiel pour ce type de recherches, entre des
données en coupes transversales ou longitudinales. Ces dernières ont l’avantage de
clarifier la nature des processus étudiés et de permettre de progresser sur la question
de la causalité. Elles soulèvent toutefois deux problèmes spécifiques :
■ Elles élèvent tout d’abord le risque d’erreur de mesure, puisque les pratiques et
la performance sont appréciées sur une période de plusieurs années.
■ Elles se heurtent ensuite à la double question du temps de latence, entre la
mise en œuvre des pratiques et l’obtention éventuelle des résultats, mais aussi
entre la décision d’engager les pratiques et leur réalité effective. Ainsi l’entre-
prise peut être en pleine phase de crise lors de la période d’observation, et les
choses peuvent alors empirer avant de s’améliorer. Le calage entre les données
longitudinales et la dynamique des processus est un point essentiel, restant
très difficile à vérifier. Cette difficulté est plus nette encore si l’on considère
les possibles différences d’horizon entre l’entreprise et ses salariés. Ainsi, les
salariés n’ont-ils pas toujours envie de s’inscrire dans des contrats de long
terme, préférant obtenir tout de suite la rémunération (monétaire ou pas) qui
leur semble justifiée. De même peut-on facilement concevoir de fortes disso-
nances entre l’urgence de certains objectifs économiques et le délai d’obten-
tion des comportements individuels et collectifs visés par les pratiques RH.
Un dernier choix, source de multiples biais, demeure celui de l’échantillon. De
nombreux travaux consacrés aux liens GRH-performance sont fondés sur des données
collectées par enquête et souffrent d’un biais d’autosélection, les entreprises en difficul-
tés économiques ou sociales étant peu susceptibles de participer. Ce biais attribuable à
la performance est souvent plus net encore dans les études longitudinales, du fait du
taux de mortalité ou de disparition des entreprises, inévitable au sein d’un échantillon,
causé notamment par le départ ou encore les faillites et rachats de certaines entreprises.
4 Un rendement est dit « anormal » lorsqu’il est statistiquement différent de ce qu’il devrait être,
selon un modèle théorique d’évaluation de type Medaf.
212 Méthodes de régression et traitement des données financières et sociétales
ser une série de problématiques liées à la mise en œuvre des méthodes de régressions
et à l’interprétation des résultats obtenus.
5 Cette performance a fait l’objet de nombreuses propositions, notamment stimulées par les tra-
vaux de Caroll (1979). On y retrouve les deux acceptions possibles de la performance, qui est à la
fois action et résultat. Perçue comme action, la performance sociétale peut être définie comme l’arti-
culation et l’interaction de responsabilités sociales, de problèmes qui leur sont liés et de philoso-
phies qui en traitent (Caroll, 1979), ou encore comme une configuration organisationnelle de
principes, de processus, de politiques et de résultats observables liés aux relations sociales de
l’entreprise (Wood, 1991, cité par Gond, 2003). Compte tenu de l’opérationnalisation difficle de ces
approches, certains auteurs estiment que les résultats des politiques sont finalement le seul objet
mesurable (Wood, 1991), Cette perspective est d’autant plus séduisante qu’elle peut s’appuyer sur la
théorie des parties prenantes, et développer ainsi une conception segmentée de la performance, sta-
keholder par stakeholder. Ainsi déplacée de l’action vers le résultat, la performance sociale n’en
demeure pas moins un construit, du fait de l’agrégation nécessaire des résultats obtenus sur chaque
stakeholder. La nature combinatoire des résultats unidimensionnels, additive ou multiplicative, est
encore à découvrir.
6 Ces mesures disposent d’une validité « faciale » reconnue, appelée encore validité de contenu,
leur usage étant couramment accepté et faisant l’objet d’un large consensus au sein de la commu-
nauté scientifique concernée (« We believe that KLD data, in spite of their limited coverage of only
650 large companies, will continue to be used by researchers in the field for many years to come »,
Harrison et Freeman, 1999, p. 481).
Application au cas de la relation entre performances financière et sociétale 213
7 Dans un logiciel statistique tel que SPSS, cette analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Tabuler > Tableaux statistiques de base ; puis dans la fenêtre obtenue et
intitulée « Tableaux statistiques de base », on sélectionne la ou les variable(s) à étudier en
« Principales caractéristiques », et la variable de segmentation de l’échantillon (ici « secteur ») en
« Sous-groupes : Verticalement ». Avant de cliquer sur le bouton « OK », le choix des indicateurs
souhaités (Effectif, Moyenne, Minimum, Maximum) doit être effectué en cliquant sur le bouton
« Statistiques ».
214 Méthodes de régression et traitement des données financières et sociétales
8 Dans un logiciel statistique tel que SPSS, cette analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Statistiques descriptives > Caractéristiques ; puis dans la fenêtre obtenue
et intitulée « Caractéristiques », on sélectionne en « Variables » la ou les variable(s) à étudier. Avant
de cliquer sur le bouton « OK » lançant l’analyse, les statistiques souhaitées (Moyenne, Dispersion,
Distribution) doivent être sélectionnées en cliquant sur le bouton « Options ».
Application au cas de la relation entre performances financière et sociétale 215
La tableau 8.3 est, quant à lui, lié à la difficulté d’obtenir et de justifier le cal-
cul d’un indicateur unique, synthétisant les ratings relatifs à la gestion des parties
prenantes. Sur un plan opérationnel, le calcul de la moyenne arithmétique des huit
ratings de l’agence KLD pourrait résoudre la question (cette solution a d’ailleurs été
retenue par certains auteurs comme Hillman et Keim, 2001). Cependant, afin d’éviter
une telle équipondération, pouvant s’éloigner des préférences exprimées par les
experts, Waddock et Graves (1997) ont réalisé une enquête, menée auprès de trois
spécialistes dotés d’une longue expérience dans le domaine de l’investissement socia-
lement responsable. Conformément à la technique proposée par Von Winterfeldt et
Edwards (1986), ils aboutissent à une série de pondérations, dont la somme est bien
égale à 1. On notera que les relations avec les salariés, affectées d’un coefficient de
pondération de 0.168, figurent parmi les dimensions de la performance sociétale con-
sidérées comme primordiales.
Cette première approche, strictement descriptive, étant réalisée, Waddock et
Graves (1997) présentent les résultats de l’analyse des corrélations entre la variable
expliquée et les variables explicatives, ou de contrôle. L’indépendance statistique
entre ces dernières variables, indispensable pour la mise œuvre d’un modèle de
régression multiple, doit être testée impérativement. En effet, un niveau élevé de
multicolinéarité pourrait rendre instables, voire incohérentes, les estimations empiri-
ques des paramètres du modèle. Waddock et Graves (1997) retiennent, en l’occur-
rence, deux catégories de modèles empiriques, correspondant respectivement aux
deux hypothèses formulées précédemment.
Le premier type de modèle retient en variable expliquée ou dépendante, la
variable de performance sociétale (CSP) pour l’année 1990. Les variables supposées
explicatives correspondent à la performance financière (PF), mesurée sur un plan
comptable pour l’année 1989 soit par la rentabilité sur actifs (ROA), soit par la renta-
216 Méthodes de régression et traitement des données financières et sociétales
Pondération Attributs
bilité financière (ROE), soit encore, par la rentabilité sur ventes (ROS). Les autres
variables, dites de contrôle, viennent compléter le modèle afin de tenir compte des
influences possibles du niveau de risque, mesuré par l’endettement (D/C), et de la
taille (Sales, Assets, No. empl.) pour l’année 1989.
Le premier modèle prend, par conséquent, la forme suivante :
CSP1990 = f (PF1989, D/C1989, Taille1989, Secteur) (1)
sachant que :
PF1989 peut être alternativement apprécié à partir des variables ROA, ROE ou ROS, de
même que la Taille1989 peut être estimée à partir les variables Sales (total des ventes),
Assets (total actif) ou encore No. Empl. (nombre d’employés).
Le tableau 8.4 permet de présenter les corrélations observées pour la première
catégorie des modèles testés. Les coefficients de corrélations entre variables indépen-
dantes, estimant respectivement la performance financière, l’endettement, et la taille,
ne laissent pas apparaître un niveau élevé de multicolinéarité, ces derniers étant net-
tement inférieurs en valeur absolue au seuil de 0,7. S’agissant des corrélations obser-
vées au sein des variables de performance financière ou de taille, ce seuil est en
revanche dépassé. Ces niveaux élevés de corrélations, de surcroît statistiquement
significatifs 9, paraissent satisfaisants. En termes de validité convergente, on en
déduira, au sujet des différentes mesures retenues, leur aptitude à apprécier convena-
blement les phénomènes de performance financière ou de taille.
9 Dans le cas de mesures continues, on utilise généralement les corrélations de Pearson. Si l’ana-
lyse inclut des variables ordinales, on peut alors recourir aux corrélations de Spearman. Toutefois, il
est important de rappeler que ces mesures d’association ne correspondent qu’à des relations linéai-
res. Dans un logiciel tel que SPSS, la procédure à suivre, afin d’obtenir un tableau de corrélations
croisées, est la suivante : Menu Analyse > Corrélations > Bivariées. Avant de lancer l’analyse avec le
bouton « OK », l’utilisateur pourra cocher la case « Repérer les corrélations significatives » et choisir
avec le bouton « Options » certaines statistiques descriptives des variables étudiées.
Application au cas de la relation entre performances financière et sociétale 217
ROA 1.00 0.47 *** 0.71 *** –0.22*** –0.08+ –0.23*** –0.05
Variable indépendante : Rentabilité sur actifs 1.189 *** 1.206 *** 1.225 ***
Variables de contrôle
Dette / Fonds propres –0.079 –0.079 –0.079
Chiffre d’affaires –0.772E–6
Total actif –0.903E–7
Nombre d’employés –0.962E–4
R2 0.11 0.11 0.11
R2 ajusté 0.08 0.07 0.08
F 3.443 *** 3.426 *** 3.435 ***
4 5 6
Variables de contrôle
Dette / Fonds propres –0.173 + –0.176 + –0.175 +
Chiffre d’affaires –0.136E–5
Total actif –0.453E–6
Nombre d’employés –0.721E–5
R2 0.09 0.09 0.09
R2 ajusté 0.06 0.06 0.06
F 2.884*** 2.844*** 2.822 ***
7 8 9
Variable indépendante : Rentabilité sur ventes 0.597 *** 0.602 *** 0.614 ***
Variables de contrôle
Dette / Fonds propres –0.152 –0.154 –0.154
Chiffre d’affaires –0.113E–5
Total actif –0.355E–6
Nombre d’employés 0.292E–4
R2 0.09 0.09 0.09
R2 ajusté 0.06 0.06 0.06
F 2.940 *** 2.911 *** 2.899 ***
+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.001
Variables de contrôle
Dette / Fonds propres –0.471 *** –0.471 ** –0.472 **
Chiffre d’affaires 0.136E–6
Total actif –0.194E–7
Nombre d’employés 0.500E–4
R2 0.07 0.07 0.07
R2 ajusté 0.04 0.04 0.04
F 2.200 *** 2.199 *** 2.201 ***
Variable dépendante : Rentabilité sur ventes 7 8 9
Variables de contrôle
Dette / Fonds propres –0.115 *** –0.116 *** –0.113 ***
Chiffre d’affaires –0.427E–6
Total actif –0.137E–6
Nombre d’employés –0.784E–4
R2 0.20 0.20 0.20
R2 ajusté 0.17 0.17 0.17
F 6.994 *** 6.853 *** 6.976 ***
+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.001
McWilliams et Siegel rappellent que le modèle 2 tel que proposé par Waddock
et Graves (1997) risque d’être mal spécifié dès lors qu’une variable omise, telle que la
R&D, apparaît fortement corrélée à la fois à la variable dépendante, ici la performance
financière, et à l’une des variables indépendantes, en l’occurrence la performance
sociétale. Or, une telle conjecture est effectivement confirmée suite à l’analyse des
corrélations présentée en tableau 8.8, celle-ci portant sur un échantillon de 524
entreprises observées sur la période 1991-1996.
Ainsi, la relation entre deux variables, bien qu’elle puisse paraître en première
analyse statistiquement significative, pourrait en réalité provenir de l’omission
d’autres variables, dont l’influence et le pouvoir explicatif sont plus élevés 14. Il
importe, par conséquent, de toujours rester non seulement extrêmement attentif à la
définition d’un modèle, mais également très prudent quant à l’interprétation des
résultats empiriques.
RDINT Dépenses de R&D sur ventes 0.011 0.949 0.403** 0.449*** 1.00
15 Dans un logiciel statistique tel que SPSS, une telle analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Régression > Linéaire. La variable à expliquer est ensuite placée en
« Variable dépendante », et les variables indépendantes ou de contrôle sont placées en « Variables
explicatives ».
16 Dans le cas français, le coefficient de corrélation de Pearson entre les variables R&D et CSP, pour
l’année 1999, s’élève à — 0,252 avec une signification de 0,430.
17 L’ajout au modèle de variables sectorielles ne conduit nullement à modifier la portée des obser-
vations réalisées au tableau précédent, même si les statistiques F des modèles testés ne sont plus
significatives.
18 Certains frais de recherche et développement peuvent être activés au bilan en France, alors que
l’ensemble des frais de R&D doivent être passés en compte de résultat aux États-Unis.
Application au cas de la relation entre performances financière et sociétale 225
Variables de contrôle :
Dette / Fonds propres – 0.087 *** – 0.084 *** – 0.091 ***
Chiffre d’affaires – 4.73 E–5
Total actif – 7.48 E–6
Nombre d’employés – 1.75 E–6
R2 0.186 0.194 0.170
R2 ajusté 0.156 0.167 0.142
F 6.866 *** 7.200 *** 6.125 ***
Variable dépendante : Rentabilité financière 4 5 6
Variables de contrôle :
Dette / Fonds propres – 0.178 ** – 0.179 ** – 0.181 **
Chiffre d’affaires 2.161 E–4 *
Total actif 2.258 E–5
Nombre d’employés 3.63 E–5
R2 0.108 0.096 0.099
R2 ajusté 0.078 0.065 0.069
F 3.619 *** 3.173 *** 3.295 ***
Variable dépendante : Cash flow sur ventes 7 8 9
Variables de contrôle :
Dette / Fonds propres 0.050 0.038 0.065
Chiffre d’affaires – 6.49 E–5
Total actif 3.70 E–6
Nombre d’employés – 3.08 E–5 *
R2 0.017 0.012 0.044
R2 ajusté – 0.018 – 0.023 0.011
F 0.483 0.348 1.317 *
Variables indépendantes :
Variables indépendantes :
On pourra, tout d’abord, par souci de simplification, opérer une analyse facto-
rielle portant respectivement sur les mesures censées représenter un même phéno-
mène 19. Si l’on obtient une seule valeur propre supérieure à 1, on ne retient alors
qu’un seul axe factoriel résumant l’essentiel de l’information, et expliquant un pour-
centage élevé de la variance totale. Tel a été le cas pour les analyses factorielles pra-
tiquées à partir des mesures de performance financière, ou des mesures de taille. Un
tel traitement de données présente l’avantage de réduire le nombre d’équations de
régression à tester, en utilisant les variables obtenues à partir des analyses factoriel-
les (extraction en composantes principales).
19 Dans un logiciel tel que SPSS, la procédure d’analyse factorielle est lancée en choisissant : Menu
Analyse > Factorisation > Analyse factorielle, puis en sélectionnant les variables concernées. L’utili-
sateur est ensuite appelé à opter pour une série de paramétrages en cliquant sur les boutons
« Extraction » afin de retenir les valeurs propres supérieures à 1, « Rotation » afin de choisir un
algorithme de rotation, « Facteur » afin de cocher la case « Enregistrer dans des variables » permet-
tant d’obtenir la(les) variable(s) correspondant à l’ (ou aux) axe(s) factoriel(s) constitué(s) dans le
fichier de données.
20 Dans le logiciel SPSS, l’utilisateur peut sélectionner les tests de colinéarité à partir du bouton
« Statistiques » appartenant à la fenêtre intitulée « Régression linéaire ».
21 Dans le logiciel SPSS, on cochera « Résidus non standardisés » après avoir appuyé sur le bouton
« Enregistrer » dans la fenêtre intitulée « Régression linéaire ».
22 Les résidus non standardisés étant enregistrés, SPSS retient une appellation automatique du
type « res_n », où « n » correspond au numéro des énièmes résidus enregistrés. La procédure à sui-
vre afin de tester la normalité de distribution de la variable « res_n » consiste alors à sélectionner
dans le Menu Analyse > Statistiques descriptives > Explorer. La variable « res_n » doit ensuite être
placée dans la zone « Variables dépendantes ». Il s’agit enfin de cliquer sur le bouton
« Diagrammes » et de cocher la case « Graphes de répartition gaussiens avec tests ».
228 Méthodes de régression et traitement des données financières et sociétales
Variable dépendante : Performance Rel. signif. Coeff. t de Student Sign. VIF Coefficients
financière (signe)
Variable indépendante :
(moyenne géométrique)
Variables de contrôle :
Dette / Fonds propres *** (–) – 0,023 – 4,405 0,000 1,192 – 0,011
Pour les modèles de type 1, établis selon la formulation retenue par Waddock
et Graves (1997), on notera également, à partir du tableau 8.16, l’absence d’une
influence significative de la performance financière sur la performance sociétale agré-
gée.
24 Afin de rendre comparables les tableaux 14 et 15, il serait nécessaire de renouveler une analyse
multivariée conforme au tableau 14, mais en retenant l’échantillon sélectionné dans le tableau 15.
Dans SPSS, ceci est envisageable via l’éditeur de données, et le Menu Données > Sélectionner des
observations. Le critère pourrait alors correspondre à la condition logique d’existence de la variable
R&D, c’est-à-dire « si R&D sur ventes >0 ».
230 Méthodes de régression et traitement des données financières et sociétales
25 On entend ici par « slack organisationnel », la constitution de réserves financières, pouvant être
réallouées ultérieurement aux différents partenaires, afin d’accroître notamment leur degré de satis-
faction.
26 Toutefois, la mise en œuvre des modèles de type 1, avec pour variables expliquées les dimen-
sions de la performance sociétale obtenues suite à une analyse factorielle sur les ratings ARESE,
pourrait conduire à conforter partiellement l’hypothèse 1 dans les domaines de la gestion des rela-
tions avec les salariés, l’environnement et la société civile (facteur 1). En revanche, les entreprises
pourraient réduire leurs efforts en matière de gouvernance (ACT) et de mécénat (SC) (facteur 2) con-
sécutivement à l’obtention d’une meilleure performance financière.
232 Méthodes de régression et traitement des données financières et sociétales
Variable dépendante : Performance sociétale Rel. signif. Coeff. t de Student Sign. VIF Coefficients
(moyenne géométrique) (signe)
bilité des résultats. En l’absence d’un cadre théorique encore suffisamment robuste, la
recherche des relations entre performance sociétale et performance financière doit donc
s’appuyer sur une analyse particulièrement rigoureuse des résultats pour éviter les
interprétations trop hâtives. Un double travail de modélisation et d’accumulation de
résultats empiriques, même partiels, est encore nécessaire. C’est un travail de longue
haleine, tant les relations cherchées sont complexes. Le cas de l’actionnariat salarié
constitue, de ce point de vue, un exemple intéressant, les résultats accumulés depuis
15 ans permettant progressivement d’avancer plusieurs conclusions.
assurer un meilleur alignement entre l’intérêt de leurs actionnaires et celui des sala-
riés. La concrétisation de tels effets mérite cependant une vérification empirique, car
les coûts de mise en place de tels dispositifs sont importants, et les retombées posi-
tives de tels investissements, étroitement liées aux réactions humaines, demeurent
hasardeuses 27.
Le relevé des données financières a été réalisé afin de déterminer dans quelle
mesure l’actionnariat salarié (apprécié soit par la variable ASK pour le pourcentage de
capital détenu par les actionnaires salariés, soit par la variable ASB codée 1 ou 0 en
fonction de la présence ou de l’absence d’un actionnariat salarié) peut être considéré
comme l’une des variables susceptibles d’être associées au niveau de performance
(variable MKCE, voir tableau 8.17) et de risque d’une entreprise (variable RISKROE,
voir tableau 8.18, et RISKBETA, voir tableau 8.19). Les équations de régression ont
intégré un ensemble de caractéristiques économiques et financières afférentes aux
entreprises. Les principales correspondent à l’endettement (DEBT et LTDEBT), et à la
croissance des effectifs et du chiffre d’affaires (EGROWTH et SGROWTH), ainsi qu’en
matière de facteurs de contingence, à l’appartenance sectorielle (S01 à S11), à
l’ancienneté de la cotation en bourse (AGE), au montant d’actif par employé (APE), à
27 Aucune recherche, à notre connaissance, n’a pu repérer des effets négatifs de l’actionnariat sur
la performance de l’entreprise. Quant à ses possibles effets positifs, ils ne sont pas encore clairement
établis. L’influence du contexte d’application est déterminante. Ainsi, tous les travaux disponibles
montrent-ils que les entreprises obtiennent des résultats sensiblement meilleurs lorsque l’actionna-
riat des salariés s’intègre dans une politique active de participation. Mis en place isolément, il ne
semble pas avoir d’effets notoires.
28 L’expression de « coupe transversale » est utilisée lorsque les variables dépendantes et indépen-
dantes sont mesurées à une date identique. Dans ce cas, les résultats obtenus à partir d’une régres-
sion ne permettent pas toujours d’identifier des relations de causalité. Les variables statistiquement
significatives traduisent en fait la présence de corrélations venant conforter l’existence de relations
de causalité justifiées sur un plan théorique.
234 Méthodes de régression et traitement des données financières et sociétales
29 Compte tenu de la très forte dispersion des mesures classiques de taille (total actif, total du
chiffre d’affaires, nombre d’employés), celles-ci sont usuellement transformées à partir d’une fonc-
tion logarithme, et ce afin d’obtenir une distribution plus acceptable, atténuant l’incidence statisti-
que des valeurs extrêmes.
30 La méthode ascendante consiste à introduire une à une les variables explicatives dont la corréla-
tion avec la variable expliquée est la plus forte. La procédure prend fin lorsqu’il n’existe plus de
variables satisfaisant au seuil de signification de 5 % de la statistique F. La méthode descendante
retient le bloc de toutes les variables explicatives puis les supprime l’une après l’autre en fonction du
critère de suppression, à savoir le seuil de signification de 10 % de la statistique F. Les différences
entre ces méthodes peuvent naturellement conduire à ne sélectionner certaines variables que dans le
cadre d’une démarche ascendante ou descendante.
31 Ce type de régression est obtenu dans SPSS à partir du Menu Analyse > Régression > Logistique
binaire.
Cas de la relation entre performance financière et actionnariat salarié 235
Les signes du coefficient selon la régression linéaire classique et la régression PLS sont opposés.
Source : d’Arcimoles et Trébucq (2003, pp. 17-19).
comme variable explicative, mais comme variable expliquée. Les résultats obtenus
(d’Arcimoles et Trébucq 2003) indiquent notamment que la taille (SIZE) et l’apparte-
nance à certains secteurs (S05, secteur automobile) appartiennent aux variables de
contingence les plus fortement associées à la présence d’un actionnariat salarié 32.
32 On notera en particulier l’importance des coefficients associés aux variables ‘Secteur 05’ et ‘Size’
avec une valeur respective de 1,9740 et 1,1087. On peut interpréter ces coefficients positifs et éle-
vés comme la nécessité pour les grandes entreprises d’assurer une plus forte cohésion et une
meilleure coordination des individus, notamment lorsqu’elles subissent, comme dans le secteur auto-
mobile, une très forte concurrence internationale. En revanche, les coefficients associés aux autres
variables, même si elles sont significatives, sont beaucoup plus proches de zéro, ce qui permet de
considérer leur influence comme plus mineure.
236 Méthodes de régression et traitement des données financières et sociétales
TABLEAU 8.18 – Régressions avec RISKROE (écart type des rentabilités financières)
comme variable dépendante
capital détenu par les actionnaires salariés peut apparaître comme une mesure empi-
rique particulièrement réductrice. Elle ne permet pas d’appréhender pleinement le
pouvoir d’influence exercé par les actionnaires salariés, de même qu’elle ne renseigne
en rien sur les raisons de la mise en place d’un actionnariat salarié, son ancienneté
ou encore l’effectif concerné par un tel dispositif et les taux de participation établis
en fonction des tranches de revenus ou des niveaux hiérarchiques.
S’agissant de l’interprétation des résultats, il importe également d’éviter de
conclure trop hâtivement à des relations de causalité pouvant en réalité correspondre
à des biais de sélection. En effet, dans le cadre d’observations en coupes transversa-
les, il reste toujours envisageable que la variable expliquée puisse influer sur l’une
des variables indépendantes. On pourrait, par exemple, imaginer à partir du
tableau 8.19, que les entreprises disposant d’un risque perçu par les investisseurs
comme trop élevé puissent avoir délibérément recours à un plus fort pourcentage
d’actionnariat salarié dans leur capital. Ainsi, l’actionnariat salarié ne constituerait-il
plus la cause d’un risque supplémentaire, mais seulement la conséquence. Afin de par-
faire le traitement de tels aspects, il serait nécessaire de mettre en œuvre des modè-
les à équations simultanées (ex. Prevost et al., 2002) ou des modèles dynamiques
reposant sur des données longitudinales, ou encore, des recherches menées à partir
d’études de cas.
Cas de la relation entre performance financière et actionnariat salarié 237
ENDT – – – – – – – –
(***) (***) (***) (***) (***) (**) (***) (***)
CROISS + + + + + + + + + + +
(***) (**) (**) (**) (***) (***) (***) (***) (*) (**) (**)
TAILLE – – + +
(**) (*) (***) (*)
IND – – – –
**) (*) (***) (***)
SERV + + +
(***) (***) (***)
Résultats Cf. Tableau 3 Cf. Tableau 4 Cf. Tableau 5
détaillés : in S. Trébucq in S. Trébucq in S. Trébucq
(2002) (2002) (2002)
(1) : régression pas à pas ; (2) : régression descendante ; + ou – : Signe de la relation ; (***), (**) ou (*) :
Relation significative au seuil de 1 %, 5 % ou 10 %.
Source : Trébucq (2003, p. 9) et Trébucq (2002, pp. 107-135).
TABLEAU 8.20 – Synthèse des régressions portant sur la performance des entreprises
(Régressions appliquées à l’échantillon 2 composé
de 109 entreprises du SBF250, pour l’année 1998)
(2003). Les résultats exposés dans le tableau 8.20 confirment bien l’existence de dif-
férences sensibles en fonction de la nature des variables de performance expliquées.
En effet, le lien avec l’actionnariat salarié apparaît plus significativement pour les
mesures classiques de performance (relations significatives avec les variables ROE,
ROA, et MKCE), que pour les mesures de création de valeur (relation significative uni-
quement avec la variable TEVAB, correspondant au nombre d’années présentant une
EVA positive sur la période 1995-1998). Ces différences renvoient naturellement à
l’étude des écarts et proximités existant entre les différentes mesures de performance
financière.
Les résultats de la classification hiérarchique 35, présentée dans la
figure 8.1 36, permettent de distinguer trois groupes de variables expliquées.
C A S E 0 5 10 15 20 25
Variables Num
ROE 1
ROA 2
ROI 3
Q de Tobin 7
MKCE 4
TEVAB 6
MVA 5
35 Ce traitement est obtenu dans SPSS via le Menu Analyse > Classification > Classification hiérar-
chique. Afin d’obtenir une classification des variables, on coche l’option « Agréger Variables ».
36 Le dendogramme représente une arborescence horizontale. La distance entre les variables est
graduée sur une échelle allant de 0 à 25 (0 indique une très forte proximité, alors que 25 correspond
à l’éloignement maximal). A titre d’exemple, la mesure MVA est rattachée par un trait vertical aux
autres branches au niveau de 25. Elle apparaît par conséquent avec une distance maximale par rap-
port aux autres mesures de performance. Inversement, les mesures MKCE, Q de Tobin et TEVAB appa-
raissent avec une forte proximité.
37 La relation entre la MVA et le Q de Tobin s’exprime de la façon suivante : MVA = VC (Q — 1), soit
encore : Q = (MVA/VC) + 1, sachant que MVA = VM — VC (VM représentant la valeur de marché des
capitaux investis, et VC leur valeur comptable).
240 Méthodes de régression et traitement des données financières et sociétales
– pour le second groupe, des relations positives et significatives entre les varia-
bles ASB et MKCE, ou encore ASK et TEVAB, mais aucune relation entre les
variables ASB ou ASK et le Q de Tobin.
38 Un simple test non paramétrique de moyenne concernant la variable de taille permet de confir-
mer la plus grande taille des entreprises appartenant à l’indice SBF250 comparativement aux autres
sociétés françaises cotées.
39 Dans le cadre du quartile 1 et de la variable expliquée MKCE, le coefficient négatif correspondant
à la variable ASK et le coefficient positif lié à la variable ASB laissent supposer que les effets positifs
associés à la présence d’un actionnariat salarié (ASB) sont annulés lorsque le pourcentage de capital
détenu par les salariés (ASK) dépasse un seuil proche de 14 %.
Conclusion 241
les quartiles 3 et 4). En revanche, avec des coefficients supérieurs à 10, la présence
d’un actionnariat salarié est une variable liée à un accroissement significatif des ren-
tabilités pour les quartiles 1 et 2. S’agissant de la variable MKCE, la variable ASB dis-
pose d’un coefficient statistiquement significatif de 14,11 pour le premier quartile,
mais seulement de 2,63 et 1,10 respectivement dans les quartiles 3 et 4. On peut
donc estimer que l’influence positive de la présence d’un actionnariat salarié sur la
performance financière s’atténue au fur et à mesure que la taille des entreprises aug-
mente.
Comme nous venons de le voir, dans l’idéal, un travail d’approfondissement
statistique, mené à partir de bases de données communes, pourrait conduire les cher-
cheurs à mieux comprendre les différences se faisant jour entre les études explorant
un même champ de recherche, et à explorer plus avant l’origine des écarts constatés.
4. Conclusion
Bibliographie
Arcimoles (d’) C.-H. (2002), La GRH : moteur du développement durable. In Le dévelop-
pement durable : des enjeux stratégiques pour l’entreprise, Paris, Éditions d’Organisa-
tion.
Arcimoles (d’) C.-H. et Trébucq S. (2002), The Corporate Social Performance Financial
Performance Link : Evidence from France. Conférence Internationale de l’AFFI, Stras-
bourg, 24-26 juin.
Arcimoles (d’) C.-H. et Trébucq S. (2003), Une approche du rôle de l’actionnariat salarié
dans la performance des entreprises françaises. Revue de Gestion des Ressources
Humaines, n° 48, avril-mai-juin, pp. 1-20.
Becker G. et Gerhart B. (1996), The Impact of Human Resource Management on Organi-
zational Performance : Progress and Prospects. Academy of Management Journal, vol.
39, pp. 779-801.
Blasi J., Conte M. et Kruse D. (1996), Employee Stock Ownership and Corporate Perfor-
mance Among Public Companies. Industrial and Labor Review, vol. 50, n° 1, October,
pp. 60-79.
Caroll A.B. (1979), A three dimensional conceptual model of corporate social perfor-
mance. Academy of Management Review, vol. 4, pp. 497-505.
Gond J.-P. (2001), L’éthique est-elle profitable ? Revue Française de Gestion, novembre-
décembre, pp. 77-85.
Gond J.-P. (2003), La mesure de la performance sociale de l’entreprise : une analyse cri-
tique et empirique des données ARESE, papier de recherche.
Harrison J.S. et Freeman R.E. (1999), Stakeholders, Social Responsibility, and
Performance : Empirical Evidence and Theoretical Perspectives. Academy of Manage-
ment Journal, vol. 42, n° 5, pp. 479-485.
Hillman A.J. et Keim G.D. (2001), Shareholder Value, Stakeholder Management, and
Social Issues : What’s the Bottom Line ? Strategic Management Journal, vol. 22,
pp. 125-139.
Ichniowski C., Shaw K. et Prennushi G. (1995), The Impact of Human Resource Manage-
ment Practices on Productivity. WP n° 5333, Cambridge, National Bureau of Economic
Research.
Marquardt D.W. (1970), Generalized Inverses, Ridge Regression and Biased Linear Esti-
mation. Technometrics, vol. 12, pp. 591-612.
Bibliographie 243
Méthodes de développement
d’échelles pour
questionnaires d’enquête
Patrice ROUSSEL 1
Sommaire
3 Conclusion 273
1 L’auteur remercie Saïd Jmel et Stéphane Vautier pour leurs nombreux commentaires et conseils
contribuant à la réalisation de ce chapitre.
246 Méthodes de développement d’échelles pour questionnaires d’enquête
Les sciences de gestion couvrent des domaines de recherche très variés. Néan-
moins, un point commun aux questions de recherche traitées en gestion des ressour-
ces humaines, marketing, management stratégique, finance, contrôle de gestion, etc.,
est d’étudier régulièrement des phénomènes non directement observables. Des con-
cepts tels que la motivation, la satisfaction, l’implication, etc., désignent des phéno-
mènes hypothétiques, supposés influencer l’activité sociale des individus : des
salariés à l’égard de leur organisation, des consommateurs à l’égard de produits ou de
marques, d’actionnaires à l’égard de dirigeants. Ces concepts sont développés dans le
cadre de théories et décrits dans des modèles d’analyse. Cette caractéristique des
phénomènes étudiés non observables dans les sciences de gestion, est également un
point commun aux autres domaines de recherche des sciences sociales, des sciences
humaines ou encore des sciences de la vie.
approches classiques. Elles vont être discutées afin d’en analyser les qualités et limi-
tes. Ce travail critique permettra de proposer de nouvelles approches mieux adaptées
aux conditions de recherche contemporaines. La seconde partie de ce chapitre propo-
sera un exemple mettant en application les nouvelles approches ayant notamment
recours aux méthodes d’équations structurelles.
toire. La première phase de la méthodologie est qualifiée d’exploratoire. Elle est des-
tinée à la réduction de l’erreur aléatoire. Celle-ci provient de l’exposition de
l’instrument de mesure à des « aléas tels que les circonstances, l’humeur des personnes
interrogées… » (Evrard et al., 1993, p. 278). Son objectif est de limiter les réponses
perturbées par des effets notamment de polarisation, de halo, de contamination, etc.
La seconde phase de la méthodologie est qualifiée de phase de validation. Elle est
destinée à la réduction de l’erreur aléatoire, renforçant le travail effectué lors de la
phase exploratoire, et à celle de l’erreur systématique, c’est-à-dire aux biais générés
par la conception même de l’instrument. L’erreur systématique provient généralement
d’une définition non pertinente ou insuffisante des variables conceptuelles et d’une
mauvaise représentation par les items de l’échelle. Dans la figure 9.1 qui représente le
paradigme de Churchill, la phase exploratoire correspond aux quatre premières étapes
de la démarche alors que la phase de validation regroupe les quatre suivantes.
Allant plus loin dans l’analyse du modèle de la vraie valeur, Roehrich (1993) se
réfère à la théorie de l’erreur de mesure de Campbell et O’Connell (1967) 4. Celle-ci
suggère qu’une échelle de mesure qui satisferait aux conditions de validités conver-
gente et discriminante, devrait être moins exposée aux risques d’erreurs systématique
et aléatoire. Elle traite également des problèmes de biais générés par l’instrument de
mesure et des erreurs de représentation des variables conceptuelles qui s’en suivent.
En effet, malgré les faiblesses d’une échelle de mesure, des résultats sont parfois
interprétés, allant dans le sens soit de la vérification, soit de la falsification des hypo-
thèses de la recherche. Or dans ce cas, les résultats trouvés ne sont pas valides et
sont le fruit d’une interaction appelée « construit-méthode ». Kalleberg et Kluegel
(1975) 5 ont montré que l’analyse des corrélations entre les construits n’était pas suf-
fisante pour estimer les qualités de validité interne d’une échelle de mesure (validités
convergente et discriminante). Notamment, ils observent que l’analyse des corréla-
tions ne permet pas de savoir si les résultats obtenus par questionnaire sont influen-
cés par la méthode utilisée (instrument, méthode d’enquête, etc.). En revanche, ils
montrent que les méthodes d’analyse factorielle permettent de mieux isoler les sour-
ces de variance des résultats. Elle permet également d’examiner si les différentes
échelles d’un questionnaire ont la capacité de discriminer plusieurs construits, c’est-
à-dire de les identifier clairement. Ces travaux suggèrent ainsi de généraliser les tech-
niques d’analyse factorielle dans les processus de tests d’échelles pour questionnaires
d’enquêtes.
4 in Roehrich (1993).
5 in Roehrich (1993).
Le paradigme de Churchill 249
Revue de littérature
2. Générer un échantillon d'items
Expérience - enquête
Exemples types
Incidents critiques
3. Collecte de données Entretiens de groupes
Coefficient alpha
4. Purifier l'instrument de mesure
Analyse factorielle
5. Collecte de données
Coefficient alpha
6. Estimer la fiabilité
Fiabilité des deux moitiés
Matrice MultiTraits-MultiMéthodes
7. Estimer la validité
Critère de validité
états de l’art traitant des techniques d’enquête et du traitement des données collec-
tées par questionnaire (Hinkin, 1998 ; Igalens et Roussel, 1998).
Approche déductive
Lorsque les travaux théoriques procurent assez de connaissances sur le phéno-
mène étudié et posent des bases théoriques intellectuellement cohérentes et empiri-
quement pertinentes (en fonction des entretiens et études de cas réalisés
précédemment, ou des travaux publiés dans les revues scientifiques), l’approche
déductive est souhaitable. Dans ce cas, la définition du concept et de ses caractéristi-
ques va guider la création des items. La phase de génération des items doit égale-
ment s’appuyer sur une revue de littérature exhaustive des échelles créées pour
mesurer le concept étudié. Le but est d’identifier toutes les échelles qui ont été cons-
truites et testées par d’autres chercheurs, puis de procéder à une analyse comparative
afin de s’en inspirer ou de s’en écarter dans la rédaction des énoncés.
Approche inductive
Inversement, lorsque les fondements théoriques sont insuffisants et ne procu-
rent ni une bonne compréhension du phénomène étudié, ni une définition précise des
facettes du concept, l’approche inductive est souhaitable. Dans ce cas, il est néces-
Le paradigme de Churchill 251
L’échelle de Likert 6 optait initialement pour 5 échelons avec un point neutre sur le
continuum intitulé « ni d’accord, ni pas d’accord ». Il est devenu ultérieurement
« indécis » ou « ni d’accord, ni en désaccord ». La question du nombre d’échelons est
d’importance car plus le nombre augmente, plus la variance des réponses peut être
importante et par conséquent, plus l’échelle peut se rapprocher des qualités des
échelles d’intervalle, c’est-à-dire, des échelles permettant de représenter des variables
métriques 7. En contrepartie, l’augmentation du nombre d’échelons conduit à solliciter
davantage les capacités cognitives, d’endurance et de concentration des répondants.
Les biais d’effets de halo, de mortalité expérimentale ou l’importance des non-répon-
ses peuvent être accentués. Il n’existe donc pas de solutions idéales. Une approche
pragmatique consisterait à recommander des échelles en 5 points lorsque les ques-
tionnaires sont longs (plus de 60 items à titre indicatif), et en 7 ou 9 points dans le
cas inverse.
blement éliminés avec les tests de Cronbach, mais également avec l’analyse
factorielle. Il est recommandé empiriquement de retenir in fine quatre à cinq
énoncés minimum dans chaque sous échelle. Techniquement et mathématique-
ment, des sous échelles à un, deux ou trois items sont défendables, mais au
risque d’avoir de faibles niveaux de cohérence interne et une mauvaise struc-
ture factorielle. Néanmoins, si l’utilisateur de l’échelle envisage d’effectuer des
traitements statistiques avec des méthodes d’équations structurelles et une
technique d’agrégation d’items (Parceling, cf. chapitre suivant), il sera alors
souhaitable de sélectionner in fine 6 items par facette du concept. Cela facili-
tera la construction des indicateurs dont les qualités métriques devraient être
satisfaisantes. Par conséquent, dans cette perspective, il est souhaitable de
générer 10 à 12 items dans la phase exploratoire. Certains de ces items seront
éliminés au cours du test de validité de contenu, puis de validité de construit.
C. LA COLLECTE DE DONNÉES
La collecte de données pose des questions ayant trait aux choix de la techni-
que d’enquête, de la taille de l’échantillon pour tester le questionnaire, et du terrain
d’enquête.
■ Enfin, les enquêtes par internet se développent actuellement. L’une des pre-
mières expériences françaises en GRH a été conduite par Cerdin (1996) qui
étudiait les salariés expatriés. Malgré l’aspect séduisant du support et son
potentiel immense pour contacter des participants, il faut être conscient des
difficultés logistiques et humaines inhérentes. Elles sont multiples : qualité du
fichier d’adresses courriel, identification du site internet organisateur par les
internautes, motivation des internautes, sélection des participants, représen-
tativité de cet échantillon et adéquation avec le sujet d’étude, coût d’acquisi-
tion d’un logiciel de saisie automatique des réponses, etc.
La taille d’échantillon
La question de la taille d’échantillon fait partie intégrante de la réflexion sur
le choix d’une technique d’enquête. Les techniques statistiques d’échantillonnage
sont connues et souvent présentées dans les ouvrages de méthodes de recherche (ex.
Evrard et al., 1993). Cependant l’observation des recherches empiriques montre un
décalage entre les recommandations et la pratique. L’application des techniques les
plus rigoureuses (sondages aléatoires, méthode des quotas) est finalement assez rare
dans certains domaines des sciences de gestion. Le plus souvent, les recherches
s’appuient sur des échantillons de convenance où le chercheur contacte toutes les
personnes qui lui sont accessibles dans la mesure où elles correspondent à la défini-
tion précise de la population étudiée et permettent de créer un échantillon homogène
au regard de critères clés (ex. salariés du public versus du privé, de PME versus de
grandes entreprises, de secteurs d’activité comparables, etc.). Les recherches publiées
dans les revues scientifiques n’échappent pas à cette observation. Même lorsque les
échantillons sont très importants, de 1000 ou 3000 personnes, voire davantage, la
représentativité n’est par garantie. Un « pari » est finalement pris sur la qualité de
l’échantillon et des données collectées. Néanmoins une décision doit être prise pour
réaliser l’enquête.
Elle dépend bien souvent du choix des techniques d’analyse des données choi-
sies pour effectuer les tests des échelles. Dans le paradigme de Churchill, c’est l’ana-
lyse factorielle (AF) qui jouit de cette influence. Les pratiques observées par Igalens
et Roussel (1998) montrent qu’il existe des marges de manœuvre selon la rigueur que
l’enquêteur s’impose. La taille de l’échantillon doit réunir de 5 à 10 fois plus d’indivi-
dus qu’il n’y a d’items soumis à une même analyse factorielle. Pour être précis, il faut
considérer l’échelle du questionnaire qui est composée du plus grand nombre d’items.
Par exemple, si un questionnaire de 100 items réunit des échelles de motivation,
d’implication et de perception de la culture d’entreprise, il n’y a probablement pas de
raisons théoriques de les traiter toutes simultanément. Si l’échelle la plus importante
est celle de la culture d’entreprise avec 54 items par exemple, la taille de l’échantillon
variera entre : 5 x 54 et 10 x 54, soit entre 270 et 540 individus. Pedhazur et Pedha-
zur Schmelkin (1991) signalent des recherches empiriques qui se sont contentées
d’échantillons de 150 personnes pour des analyses factorielles sur 40 items. Il est
nécessaire de prendre du recul par rapport à ces préconisations normatives. En effet,
un échantillon de 150 individus est exceptionnel lorsqu’il s’agit d’enquêter sur les
présidents directeurs généraux des 500 premières entreprises françaises. Il sera pro-
bablement bon si le test porte sur une population homogène : les agents de maîtrise
256 Méthodes de développement d’échelles pour questionnaires d’enquête
des grandes entreprises du secteur automobile. Il sera probablement critiqué pour une
population hétérogène de non cadres des secteurs de l’industrie.
Enfin, l’usage de plus en plus répandu de l’analyse factorielle confirmatoire
(AFC) 8 conduit à réunir des échantillons d’au moins 200 individus. Cette norme
devrait être adoptée si l’utilisation de cette méthode d’équations structurelles est
envisagée dans la phase de validation. Néanmoins, pour traiter des échantillons d’une
population de faible importance, par exemple les responsables de ressources humai-
nes des banques généralistes françaises, cette norme pourrait devenir une contrainte.
Il existe alors des techniques du type test de Bootstrap (cf. chapitre de F. Durrieu et
P. Valette-Florence) qui permettent de traiter de petits échantillons d’environ 80 indi-
vidus. Ce cas de figure doit néanmoins répondre à une situation particulière : la faible
importance de la population étudiée.
8 Par opposition, les analyses factorielles (en axes principaux, en composantes principales, par
maximum de vraisemblance) utilisées dans les phases initiales d’une recherche sont appelées Analy-
ses Factorielles Exploratoires (AFE).
9 Pour des exemples d’application, voir Parasuraman et al. (1990) et Roussel (1996).
Le paradigme de Churchill 257
10 En analyse factorielle, la variance d’un item (ou d’une variable) se décompose de deux parties :
la communauté qui représente la variance expliquée de chaque item par les facteurs communs, et
l’unicité qui prend en charge la spécificité de l’item et sa variance d’erreur. L’ACP quant à elle, consi-
dère la variance totale sans faire cette distinction.
Le paradigme de Churchill 259
δ1 X1
δ2 X2 Implication
affective
δ3 X3
δ4 X4
δ5 X5 Implication
calculée
δ6 X6
δ7 X7
δ8 X8 Implication
normative
δ9 X9
N.B. la variable delta correspond à l’estimation de l’erreur de mesure qui est effectuée dans toute analyse factorielle confirmatoire.
A. LA COLLECTE DE DONNÉES
Les conditions de collecte de données demeurent identiques à celles de la troi-
sième étape de la phase exploratoire. Cependant, il est possible de changer de mode
de recueil des données entre les phases exploratoire et de validation à condition que
l’on ait observé précédemment des problèmes de biais importants ou d’inefficacité de
la méthode.
De plus, si le test de fiabilité retenu est celui de l’alpha de Cronbach, il est
souhaitable de réunir un nouvel échantillon. Les résultats obtenus permettront
d’apprécier la stabilité de la fiabilité. Mais également, la stabilité de la structure fac-
torielle pourra être évaluée en la testant de nouveau par analyse factorielle explora-
toire.
élevé faible
ENCADRÉ 9.1
Échelle de satisfaction au travail – Minnesota Satisfaction Questionnaire
très insatisfait
Dans votre emploi actuel, êtes-vous satisfait ?
très satisfait
ni insatisfait
ni satisfait
insatisfait
satisfait
1. de vos possibilités d’avancement
2. des conditions de travail
3. des possibilités de faire des choses différentes de temps en temps
4. de votre importance aux yeux des autres
5. de la manière dont votre supérieur dirige ses employés (rapports humains)
6. de la compétence de votre supérieur dans les prises de décision (compétences
techniques)
7. des possibilités de faire des choses qui ne sont pas contraires à votre conscience
8. de la stabilité de votre emploi
9. des possibilités d’aider les gens dans l’entreprise
10. des possibilités de dire aux gens ce qu’il faut faire
11. des possibilités de faire des choses qui utilisent vos capacités
12. de la manière dont les règles et les procédures internes de l’entreprise sont mises
en application
13. de votre salaire par rapport à l’importance du travail que vous faites
14. des possibilités de prendre des décisions de votre propre initiative
15. des possibilités de rester occupé tout le temps au cours de la journée de travail
16. des possibilités d’essayer vos propres méthodes pour réaliser le travail
17. des possibilités de travailler seul dans votre emploi
18. de la manière dont vos collègues s’entendent entre eux
19. des compliments que vous recevez pour la réalisation d’un bon travail
20. du sentiment d’accomplissement que vous retirez de votre travail
Source : Copyright 1993, Vocational Psychology Research, University of Minnesota.
Reproduced by Permission. In Roussel, P. (1996), Rémunération,
Motivation et Satisfaction au Travail. Paris : Economica, pp. 170-171.
tion ce concept avec d’autres, tels que la motivation ou l’implication. Ainsi est-il sou-
haitable de choisir comme technique d’AFE, celle en axes principaux.
En phase exploratoire, la mise en œuvre de l’AFE vise deux objectifs : (1) tes-
ter la multidimensionnalité du concept de satisfaction au travail, (2) épurer le ques-
tionnaire des items qui détériorent la qualité de la structure factorielle.
264 Méthodes de développement d’échelles pour questionnaires d’enquête
ITEM 5 0,674
ITEM 6 0,554
ITEM 7 0,349
ITEM 8 0,165
ITEM 9 0,513
extrait … extrait …
ITEM 20 0,536
dimensions identifié au cours de cette première itération. Or, les deux facteurs rete-
nus n’expliquent que 39 % de variance totale. Ce résultat confirme l’analyse initiale
d’une structure factorielle insatisfaisante. De nouvelles itérations doivent être condui-
tes en introduisant une rotation orthogonale de type varimax dans la procédure de
l’AFE. Son objectif est de produire une rotation dans cet espace factoriel à deux
dimensions. Cette technique rend plus aisée l’épuration des items qui nuisent à la
qualité de l’échelle, ainsi que l’interprétation des axes factoriels.
Le tableau 9.2 présente les contributions factorielles de chaque item sur les
deux axes principaux soumis à une seconde itération. Celle-ci permet d’identifier les
items qui sont mal représentés par les facteurs principaux et qui doivent être épurés
de l’échelle du MSQ.
convergente. Chaque item associé à un facteur a une contribution forte ou assez forte
à ce seul axe factoriel. En termes de validité discriminante, on observe un peu de che-
vauchement entre les facteurs avec six items qui ont une contribution modérée sur
une seconde composante. Une analyse complémentaire de la validité discriminante
peut être réalisée avec la matrice de corrélations. Celle-ci n’étant pas présentée, nous
indiquerons qu’elle confirme des chevauchements entre les deux axes pour plusieurs
items qui présentent de une à trois corrélations supérieures avec des items apparte-
nant à l’autre axe factoriel. Cette observation suggère l’existence d’un facteur de
second ordre de satisfaction globale au travail.
L’interprétation des facteurs est basée sur une revue de littérature et sur le
cadre théorique des travaux de Weiss et al. (1967).
■ Le premier facteur se compose des items 3, 4, 10, 11, 14, 15, 16, 17, 20. Il
représente la dimension de satisfaction intrinsèque. Théoriquement, elle est
supposée liée aux sentiments suscités par la réalisation du travail (ex. possibi-
lité de faire des choses variées) et la réalisation de soi dans le travail (ex. sen-
timent d’accomplissement).
■ Le deuxième facteur se compose des items 5, 6, 12 et 19. Il représente la
dimension de satisfaction extrinsèque qui est supposée être suscitée par des
éléments externes contrôlés par l’environnement de travail (ex. manière dont
les règles et les procédures internes de l’entreprise sont mises en application)
et les supérieurs (ex. compétence du supérieur dans les prises de décision).
Nombre Fréquences pour Score Écart type Corrélation moyenne Coefficient alpha
d’items le calcul du coefficient alpha moyen des scores entre items de Cronbach
retirer, car cela aurait permis de relever le plus le niveau du coefficient alpha de
l’ensemble de l’échelle (niveau alpha sans l’item : 0,7661).
Le tableau 9.8 confirme le niveau élevé du coefficient de fiabilité de cohérence
interne de l’échelle.
N.B. : les fréquences sont calculées sur le nombre de répondants ayant répondu à tous les items de l’échelle
Nombre Fréquences pour le calcul du Score Écart type Corrélation moyenne Coefficient alpha
d’items coefficient alpha moyen des scores entre items de Cronbach
Modèles χ2 Dl χ2/dl GFI AGFI SRMR RMSEA NFI NNFI CFI AIC CAIC
Modèle un 572,79 134 4,27 0,88 0,85 0,06 0,08 0,84 0,85 0,87 304,79 –394,77
Modèle deux 510,59 164 3,11 0,90 0,88 0,05 0,06 0,87 0,89 0,90 182,59 –673,58
Modèle trois 247,45 64 3,87 0,93 0,90 0,06 0,07 0,91 0,92 0,93 119,45 –216,79
celui qui s’ajuste le mieux aux données empiriques. La décision repose sur l’interpré-
tation de plusieurs indices d’ajustement. Ces indices sont forts nombreux et tous
sujets à des problèmes de taille d’échantillon (Marsh et al., 1988 ; Roussel et al.,
2002 ; Valette-Florence, 1993). La multiplication des travaux de statisticiens dans le
domaine conduit à offrir une batterie d’indices aux propriétés différentes. Nous pré-
sentons les plus courants d’entre eux. Ils appartiennent à trois familles d’indices. En
pratique, plusieurs indices appartenant à ces trois familles sont analysés afin de pren-
dre une décision basée sur un choix multicritères.
lequel toutes les variables observées seraient non corrélées, c’est-à-dire qu’aucune
relation structurelle entre les variables ne serait supposée a priori. Ces indices varient
entre 0 et 1 et doivent dépasser 0,90 pour conclure au bon ajustement d’un modèle
théorique aux données.
■ NFI : le Normed Fit Index représente la proportion de la covariance totale entre
les variables, expliquée par le modèle testé, lorsque le modèle nul est pris
comme référence. Sa valeur est sous-estimée lorsque l’échantillon est de taille
réduite.
■ NNFI : le Non Normed Fit Index compare le manque d’ajustement du modèle à
tester à celui du modèle de base. Sa valeur permet d’estimer l’amélioration
relative, par degré de liberté, du modèle testé par rapport au modèle de base.
Cet indice n’est pas recommandé pour les petits échantillons (N < 150 obser-
vations).
■ CFI : le Comparative Fit Index est l’indice relatif de comparaison qui est le
moins sensible aux tailles d’échantillon. Il mesure la diminution relative du
manque d’ajustement entre le modèle testé et le modèle de base.
3. Conclusion
Bibliographie
Ajzen I. et Fishbein M. (1977), Attitude-behavior relations : a theoretical analysis and
review of empirical research. Psychological Bulletin, vol. 84, pp. 888-918.
Alderfer C.P. (1969), An empirical test of a new theory of human needs. Organizational
Behavior and Human Performance, vol. 4, n° 2, pp. 142-175.
Allen N.J. et Meyer J.-P. (1991), A three component conceptualization of organizatio-
nal commitment. Human Resource Management Review, vol. 1, n° 1, pp. 61-89.
Bentler P.M. (1990), Comparative fit indexes in structural models. Psychological Bulle-
tin, vol. 107, pp. 238-246.
Bentler P.M. et Bonett D.G. (1980), Significance tests and goodness of fit in the analy-
sis of covariance structures. Psychological Bulletin, vol. 88, pp. 588-606.
Berkowitz L., Cochran S., Fraser C. et Treasure F.P. (1987), Pay, Equity, Job Gratifica-
tions, and Comparisons in Pay Satisfaction. Journal of Applied Psychology, vol. 72,
n° 4, pp. 544-551.
Campbell D.T. et Fiske D.W. (1959), Convergent and discriminant validation by the Mul-
titrait-Multimethod Matrix. Psychological Bulletin, vol. 56, pp. 81-103.
Cerdin J.-L. (1996), Mobilité internationale des cadres, adaptation et decision d’expatria-
tion. Thèse de doctorat en sciences de gestion, Université Toulouse 1.
Churchill G.A. (1979), A paradigm for developing better measures of marketing cons-
tructs. Journal of Marketing Research, vol. 16, pp. 64-73.
Cortina J.M. (1993), What is coefficient alpha ? An examination of theory and applica-
tions. Journal of Applied Psychology, vol. 78, n° 1, pp. 98-104.
Cronbach L.J. (1951), Coefficient alpha and the internal structure of tests. Psychome-
trika, vol. 16, pp. 297-334.
Dubost N., Gauzente C., Guilloux V., Roussel P. et Kalika M. (2000), Franchise et culture
managériale : étude des facteurs humains et organisationnels, versus franchiseur, con-
ditionnant la pratique de la franchise — typologie de franchiseurs, rapport pour la
Fédération Française de la Franchise, octobre 2000, Crepa — Université Paris IX Dau-
phine et Lirhe — Université Toulouse 1.
Everitt B.S. et Dunn G. (1991), Applied multivariate data analysis. Londres : Edward
Arnold.
Evrard Y., Pras B., Roux E., Choffray J.-M. et Dussaix A.M. (1993), Market, études et
recherches en marketing, fondements, méthodes. Paris : Nathan.
Bibliographie 275
Sommaire
7 var ( X 1 ) + … + var ( X 7 )
α = -- 1 – -----------------------------------------------------
- , (2)
6 var ( X )
où var(Xi) indique la variance de chaque item Xi élément de la variable composite, et
var(X) correspond à la variance du score total des items. L’échelle comprend k = 7
items, ce qui donne le rapport k/k–1 devant la parenthèse. (Si la mesure composite
était basée sur la moyenne des scores, les variances élémentaires devraient être celles
des items divisés par le nombre total d’items k). La limite supérieure du coefficient
alpha est 1. Alpha est d’autant plus élevé que le nombre d’indicateurs est élevé d’une
part, et que les indicateurs sont corrélés d’autre part. Ce coefficient a fait l’objet de
nombreux examens critiques et on pourra par exemple consulter Cortina (1993),
Raykov (2001) et Schmitt (1996). Comme alpha repose sur des variances et des cova-
riances, la précision de son estimation dépend de celle des variances et des covarian-
ces, qui dépend elle-même de la qualité (taille et représentativité) de l’échantillon de
données. Fan et Thompson (2001) ont insisté sur l’intérêt de compléter l’estimation
de la cohérence interne par celle d’un intervalle de confiance associé. Pour ce faire,
on peut utiliser une approche analytique basée sur l’estimation robuste de la loi de
distribution d’alpha (Yuan & Bentler, 2002), ou bien une approche empirique basée
sur la construction de la distribution de la statistique étudiée par bootstrap (pour une
introduction, voir Mooney & Duval, 1993). C’est cette seconde approche qui sera illus-
trée ici et détaillée dans la seconde section.
La cohérence interne (on parle aussi de fiabilité de cohérence interne,
cf. chapitre précédent) d’un ensemble d’indicateurs ne correspond pas nécessairement
à la fidélité du score composite. La fidélité (reliability) d’une mesure, définie comme
rapport de la variance vraie sur la variance observée de la variable mesurée, est une
notion issue de la théorie du score vrai (Lord & Novick, 1968 ; Steyer, 2001). Le coef-
ficient alpha correspond au rapport de la variance vraie du composite sur la variance
du composite à condition seulement que les indicateurs possèdent la propriété de
tau-équivalence essentielle. Deux variables Xi et Xj sont essentiellement tau-équiva-
lentes si leurs scores vrais respectifs sont des variables égales à une constante addi-
tive près. En termes plus formels, pour toute paire d’indicateurs Xi et Xj, il existe les
variables Ti, Tj (variables des scores vrai) et Ei, Ej (variables des erreurs de mesure)
telles que :
Xi = Ti + Ei
Xj = Tj + Ej
E ( Xi ) = E ( Ti )
E ( Xj ) = E ( Xj )
, (3)
var ( X i ) = var ( T i ) + var ( E i )
var ( X j ) = var ( T j ) + var ( E j )
Ti = Tj + ci
cov ( E i ,E j ) = 0
d’erreur. Elles entraînent que l’espérance de l’erreur est nulle et que l’erreur est indé-
pendante du score vrai. La condition 7 spécifie que les indicateurs mesurent le même
attribut à une constante additive près. Cette définition implique que la covariance
des 2 indicateurs essentiellement tau-équivalents est une constante et mesure la
variance vraie de chacun des indicateurs.
L’approche résumée par Churchill (1979) n’est pas basée sur la vérification de
la tau-équivalence essentielle (TEE). En pratique, très peu de jeux de données possè-
dent cette propriété. La philosophie de la démarche consiste plutôt à s’approcher de
la TEE, en basant la sélection des indicateurs sur des analyses descriptives. Dans
l’hypothèse où les données peuvent être exprimées en termes de score vrai et sans
corrélation d’erreurs, le coefficient alpha peut être considéré comme une limite infé-
rieure de la fidélité (Green & Hershberger, 2000).
2. Application avec le
« Minnesota Satisfaction » Questionnaire
3 L’analyse effectuée à l’aide de Statistica spécifie que les communautés sont estimées à partir des
carrés des corrélations multiples. De légères différences peuvent survenir du fait que les valeurs par
défaut du critère d’arrêt des itérations ne sont pas les mêmes d’un logiciel à l’autre.
Application avec le « Minnesota Satisfaction » Questionnaire 283
5
Valeur propre
3
Analyse en facteurs principaux
Analyse en composantes principales
2
–1
0 2 4 6 8 10 12 14 16 18 20
Facteurs ou composantes
quent la sélection des indicateurs qui définit d’une part la direction caractéristique de
l’attribut dans l’espace et d’autre part la qualité globale de la mesure.
Vérifions que les indicateurs qui pourraient être retenus ont un intérêt séman-
tique. Les jugements de satisfaction relatifs aux items I5, I6, I8, I12, I13 et I18 ont
pour point commun le fait qu’ils portent sur des aspects du travail essentiellement
sous le contrôle de l’organisation (supérieurs, collègues, structure). Les jugements
relatifs à ces items peuvent refléter la satisfaction extrinsèque. Les jugements relatifs
aux indicateurs I3, I10, I11, I14, I16 et I20 portent tous sur des aspects du travail
dépendant en grande partie de la personne et de sa capacité à les contrôler. Dans ces
conditions, il semble raisonnable d’examiner cette sélection d’indicateurs de manière
plus approfondie.
Le centre de gravité de chaque ensemble d’indicateurs est indiqué approxima-
tivement par l’extrémité des vecteurs tracés sur la figure 10.2. Ces vecteurs représen-
tent la moyenne vectorielle approximative des vecteurs correspondant à chacun des
indicateurs (items). Ce vecteur moyen exprime la variance vraie du composite formé
par la moyenne des indicateurs, en négligeant les dimensions définies par les facteurs
qui n’ont pas été retenus pour l’analyse. Idéalement, la longueur du vecteur moyen
devrait tendre vers 1 (aucune erreur de mesure).
On peut constater que le vecteur moyen correspondant à la satisfaction extrin-
sèque est assez court, ce qui signifie que la mesure ne sera vraisemblablement pas
très précise. La sélection éventuelle d’indicateurs voisins comme I2 ou I19 n’est pas
284 Modéliser les différences individuelles avec l’analyse factorielle
1.0
0.8
I5
I6
0.6 I12
Facteur 2
I2 I19
I18 I1
0.4 I13
I7 I4
I20
I8 I14
I3
0.2 I9 I10 I11
I15 I16
I17
0.0
0.0 0.2 0.4 0.6 0.8 1.0
Facteur 1
FIGURE 10.2 – Projection des saturations des indicateurs sur le plan formé
par les deux facteurs orthogonaux
opportune, car d’une part le vecteur moyen serait angulairement plus proche du vec-
teur de satisfaction intrinsèque, et d’autre part ces items n’apportent pas beaucoup
de variance vraie. Ces considérations suggèrent en revanche l’opportunité de recher-
cher ultérieurement des indicateurs de satisfaction extrinsèque plus performants, qui
pourraient être substitués aux indicateurs I8, I13 et I18. Concernant les items de
satisfaction intrinsèque, la situation est plus favorable puisque le vecteur moyen pré-
sente une plus grande longueur. La sélection éventuelle des indicateurs I9, I17 et I15
ne semble pas pertinente, car ils ne permettent pas de préciser la direction de l’attri-
but et, d’autre part, ils n’apportent pas beaucoup de variance vraie. Les indicateurs
utiles sont ceux dont les vecteurs sont les plus longs et qui contribuent à définir la
direction de l’attribut mesuré.
Cette analyse débouche sur deux observations supplémentaires. Premièrement,
les directions de chaque attribut ne sont pas orthogonales, ce qui suggère qu’ils sont
(positivement) corrélés (le cosinus de l’angle de deux vecteurs est considéré dans
l’espace comme leur corrélation). Deuxièmement, les items non retenus peuvent être
interprétés comme des indicateurs moins spécifiques de chaque attribut. Il est utile
de les rejeter si l’on souhaite maximiser la spécificité des deux mesures (ou leur vali-
dité discriminante).
Analyse factorielle confirmatoire et fidélité composite 285
Les analyses précédentes ont suggéré que les deux attributs de satisfaction ne
sont pas indépendants. D’un point de vue psychologique, il est raisonnable de suppo-
ser que les deux types de satisfaction sont positivement corrélés. Cette corrélation
pourrait résulter d’un attribut de satisfaction plus général. L’idée d’un attribut général
est fortement suggérée par les graphiques des valeurs propres. Dans quelle mesure cet
attribut plus général peut-il rendre compte des variances relatives aux deux
attributs mesurés ? En d’autres termes, quelle est la part de variance spécifique à cha-
que attribut ? Est-on certain qu’un seul attribut n’est pas suffisant pour rendre
compte des données ? Pour répondre à ces questions, on peut spécifier différents
modèles et les comparer à l’aide d’une analyse factorielle confirmatoire (AFC). En par-
ticulier, l’AFC hiérarchique (ou encore de second ordre) consiste à modéliser les don-
nées à l’aide de variables latentes hiérarchisées. Une variable latente de premier
ordre, qui détermine les items, peut être elle-même déterminée par une variable
latente de second ordre.
4 M = moyenne, ET = écart type ; la normalité est évaluée selon les coefficients d’asymétrie et
d’aplatissement.
286 Modéliser les différences individuelles avec l’analyse factorielle
distorsions dans l’estimation des paramètres, des erreurs types et du chi 2 (Jöreskog
& Sörbom, 1999, p. 239). Une solution appropriée aux échantillons de taille moyenne
pour lesquels il est difficile d’estimer les corrélations polychoriques 5 (Jöreskog,
1990) est d’utiliser des sommes ou des moyennes d’indicateurs. Cette pratique est
repérée dans la littérature sous l’expression de parceling (Bagozzi & Edwards, 1998 ;
Bandalos, 2002 ; Little, Cunningham, Shahar, & Widaman, 2002).
Outre le fait de disposer de scores que l’on peut plus confortablement considé-
rer comme des mesures d’intervalles, le parceling réduit la dimension de la matrice de
covariances et par conséquent les degrés de liberté du modèle statistique. Les degrés
de liberté s’obtiennent en soustrayant le nombre de paramètres à estimer du nombre
de données de la matrice de covariances (Bentler & Bonett, 1980 ; Russell, 2002).
Comme les modèles comprennent souvent plusieurs modèles de mesure, cette techni-
que permet d’éviter que le nombre de degrés de liberté ne devienne si important qu’il
empêche de mener à bien les estimations. Dans le cadre d’une étude centrée sur la
mesure d’attributs hypothétiques, il peut être opportun que les chercheurs présentent
les caractéristiques d’un modèle de mesure compact pour faciliter son utilisation dans
des recherches plus larges.
SE1 = 1/2 (I5 + I8), SE2 = 1/2 (I6 + I18), SE3 = 1/2 (I12 + I13) ;
SI1 = 1/2 (I10 + I14), SI2 = 1/2 (I11 + I20), SI3 = 1/2 (I3 + I16) ;
5 Les corrélations polychoriques correspondent à une technique d’estimation conçue pour des
variables ordinales (comme c’est le cas avec des échelles de Likert). Le principe revient à estimer des
seuils de manière à ce que la multinormalité soit vraie. La table de contingence formée à partir de
tous les items pour tous les seuils nécessite un très grand nombre d’observations pour que toutes les
cellules de la table soient correctement représentées.
Analyse factorielle confirmatoire et fidélité composite 287
6 nested models.
7 Cette précaution peut sembler excessive dans ce contexte, mais trop de rigueur ne peut pas
nuire ici. Selon Kline (1998, p. 83), « Les versions normalisées des coefficients de Mardia sont inter-
prétées comme des scores z, mais ces statistiques peuvent être significatives dans de grands échan-
tillons même avec de petits défauts de multinormalité. »
288 Modéliser les différences individuelles avec l’analyse factorielle
non-centralité signifie qu’on ne peut pas s’attendre à ce qu’un modèle linéaire soit
vrai. Lorsque la taille de l’échantillon est importante, de faibles différences entre les
deux matrices sont facilement significatives et dans ce cas, interpréter le chi 2 revient
à rejeter l’hypothèse d’un ajustement parfait. Plus réaliste est l’hypothèse d’un ajus-
tement presque parfait, mais dans ce cas, d’autres indices sont nécessaires. Cet argu-
ment est développé par MacCallum, Browne et Sugawara (1996, p. 132). Lorsque
comme c’est le cas ici l’hypothèse d’un ajustement parfait ne peut être rejetée, l’inter-
prétation des indices prévus pour un ajustement presque parfait est superflue. Pour
information cependant, le lecteur pourra être intéressé par les résultats suivants : CFI
robuste = 1, SRMR = 0,013, RMSEA = 0 (intervalle à 90 % = [0 ; 0,05]). Pour l’inter-
prétation de ces indices d’un point de vue normatif et dans le cas où le chi 2 est
significatif, on pourra consulter Yu et Bentler (1999).
Le très bon ajustement du modèle ne doit pas être interprété comme un grand
succès scientifique. Tout d’abord, le modèle a peu de degrés de libertés, c’est-à-dire
qu’on ne peut pas facilement le tester (Mulaik, 2001). Cet aspect des choses est déli-
béré, mais il convient d’en être conscient. On peut reformuler cette caractéristique du
modèle sous l’angle de la puissance statistique, qui désigne la probabilité de mettre
un effet en évidence (Cohen, 1988). L’effet qui nous intéresse est l’écart global entre
les matrices observée et reproduite. La puissance statistique dont on dispose pour
rejeter l’hypothèse nulle que le modèle s’ajuste étroitement aux données est faible.
En définissant l’hypothèse nulle comme le fait que le modèle ait un ajustement étroit,
c’est-à-dire RMSEA ≤ 0,05, la probabilité de détecter un ajustement médiocre, c’est-à-
dire RMSEA > 0,08 est 0,54, en spécifiant l’erreur de type 1, appelée alpha (ne pas
confondre avec le coefficient alpha de Cronbach), à 0,05. Ces estimations sont effec-
tuées avec le module d’analyse de puissance de STATISTICA. Pour davantage de
détails, on pourra consulter MacCallum et al. (1996).
Ensuite, ne perdons pas de vue que le modèle provient d’un choix d’indicateurs
essentiellement basé sur la recherche d’une adéquation avec le jeu de données sur
lequel est estimé le modèle. On capitalise sur la chance, c’est-à-dire sur le fait que le
modèle est très spécifique à cet échantillon et pas forcément représentatif de la
population des salariés français en général (MacCallum, Roznowski, & Necowitz,
1992).
N’oublions pas les objectifs de l’approche confirmatoire à l’issue des analyses
exploratoires : (a) confirmer la nécessité de corréler les 2 attributs, (b) estimer la
spécificité de ces attributs dans le cadre d’un modèle hiérarchique qui formalise
l’hypothèse d’un attribut de satisfaction plus général. Peut-être est-il utile avant
d’exploiter les estimations du modèle de les commenter. Les estimations des paramè-
tres du modèle hiérarchique indiquées sur la figure 10.3 sont complétées par les
erreurs types robustes, indiquées entre parenthèses. Les erreurs types peuvent être
interprétées comme des scores z et permettent ainsi d’estimer des intervalles de con-
0,18 (0,04)
ζSE
0,33 (0,03) SE1
1
0,20 (0,04)
fiance. Les paramètres sans erreur type correspondent à des paramètres fixés. Les per-
turbations notées avec la lettre grecque zeta représentent les variables spécifiques. Le
facteur G représente une variable commune. Les valeurs numériques relatives à G et
aux perturbations indiquent leurs variances. Les erreurs de mesure ne sont pas repré-
sentées pour simplifier le schéma mais les valeurs numériques indiquent les variances
d’erreur. Le modèle hiérarchique est statistiquement équivalent au modèle à facteurs
corrélés.
fiance d’une statistique permet d’évaluer la précision avec laquelle cette statistique
est estimée. Par exemple, un alpha de 0,75 dont l’intervalle de confiance à 90 %
serait (0,50 ; 0,95) n’a pas la même signification en termes de précision d’estimation
que si alpha est compris dans (0,70 ; 0,80). Le bootstrap consiste à échantillonner
aléatoirement n observations avec remise en puisant dans l’échantillon disponible.
Celui-ci est considéré comme une représentation plausible de la distribution de la
population. Lorsqu’un nouvel échantillon est ainsi constitué, les paramètres du
modèle sont estimés et enregistrés. Cette procédure est répétée 1000 fois (c’est-à-
dire un grand nombre de fois). Ensuite, le coefficient étudié est calculé pour chaque
échantillon. Les percentiles 5 et 95 de la distribution résultante fournissent les limi-
tes d’un intervalle approximatif à 90 % pour le paramètre de population correspon-
dant à ce coefficient. Pour des raisons de commodité, ces analyses ont été effectuées
avec le module SEPATH de STATISTICA. En ce qui concerne alpha, le modèle boots-
trappé est la matrice de covariances formée par les indicateurs (non agrégés). La
variance estimée du composite est la somme de tous les paramètres estimés. Les
résultats suggèrent une précision d’estimation acceptable et une correction de la
sous-estimation de la fidélité du composite SE tout à fait importante (α = 0,73
[0,71 ; 0,76], ω = 0,78 [0,75 ; 0,80]).
4. Discussion et conclusion
attributs théoriques pour rendre compte de la structure des données. Une manière
d’en tester le bien-fondé serait de répliquer la figure 10.2 à partir d’un nouvel échan-
tillon de données issues de la même population. Si cela s’avérait impossible, il fau-
drait en conclure que les attributs modélisés sont en quelque sorte évanescents. Les
propriétés des indicateurs sont essentiellement relatives aux données. Il serait erroné
de considérer que des indicateurs « marchent » parce que se sont de bons indicateurs.
En fait, ils « marchent » relativement à un échantillon de personnes interrogées, avec
une reproductibilité qui reste toujours à démontrer (Wilkinson & APA Task Force on
Statistical Inference, 1999). L’idée même de validation d’échelle est potentiellement
abusive.
Tester le modèle hiérarchique sur un nouvel échantillon présente une difficulté
pratique, pour des raisons de puissance statistique. Le modèle a été élaboré dans
l’objectif de ne pas poser de problèmes d’ajustement, ce qui signifie qu’il est difficile
à tester. En adoptant les mêmes prémisses que celles à partir desquelles nous avons
évalué la puissance statistique du test de l’hypothèse d’un manque d’ajustement,
nous devrions théoriquement disposer de quelques 953 observations pour avoir 80 %
de chances de détecter un ajustement médiocre (RMSEA > 0,08).
La fonction du modèle hiérarchique est essentiellement de formaliser les diffé-
rences individuelles qui représentent un intérêt pour le chercheur à l’aide de variables
latentes suffisamment porteuses d’information, ce qui est un objectif atteint : les
fidélités obtenues ne sont pas particulièrement alarmantes au regard de ce qui est
habituellement publié. L’étude de la validité des mesures est sans doute celle qui pré-
sente la plus grande importance scientifique.
Le paradigme de Churchill (1979) évoque l’approche multitraits-multimétho-
des. L’analyse multitraits-multiméthodes des données (Campbell & Fiske, 1959) con-
siste à vérifier que des composites relatifs à un même attribut mais mesurés à l’aide
de méthodes différentes (par exemple des auto-évaluations et des hétéro-évalua-
tions) sont fortement corrélés, tandis que des composites relatifs à des attributs dif-
férents mesurés avec des méthodes semblables sont faiblement corrélés. Cette
approche basée sur les variables manifestes est limitée si l’on admet que les attributs
qu’elles mesurent sont multidimensionnels. Récemment, Eid, Lischetzke, Nussbeck et
Trierweiler (2003) ont montré comment importer cette approche dans le cadre de la
modélisation par équations structurelles, de manière à examiner directement les
variables latentes.
Selon que l’on considère les attributs comme des variables dépendantes ou
indépendantes, on aura aussi à répondre aux questions générales suivantes. Comment
les niveaux caractéristiques des personnes relativement aux attributs considérés :
– se modifient-ils dans le temps et en fonction de quelles influences ? (Les attri-
buts sont ici considérés comme des variables dépendantes)
– déterminent-ils d’autres variables ? (Les attributs sont ici considérés comme
des variables indépendantes)
294 Modéliser les différences individuelles avec l’analyse factorielle
Bibliographie
Bacher, F. (2002). Les modèles d’analyse factorielle hiérarchiques. Bulletin de Psycholo-
gie, 55, 573-581.
Bagozzi, R. P., & Edwards, J. R. (1998). A general approach for representing constructs
in organizational research. Organizational Research Methods, 1, 47-87.
Bandalos, D. L. (2002). The effects of item parceling on goodness-of-fit and parameter
estimate bias in structural equation modeling. Structural Equation Modeling, 9, 78-
102.
Bentler, P. M. (1995). EQS Structural equations program manual. Encino, CA : Multiva-
riate Software.
Bentler, P. M. (1998). EQS for Windows (Version 5.7b) [Computer software]. Encino, CA :
Multivariate Software, Inc.
Bentler, P. M., & Bonett, D. G. (1980). Significance tests and goodness of fit in the ana-
lysis of covariance structures. Psychological Bulletin, 88, 588-606.
Bollen, K. A. (1989). Structural equations with latent variables. New York : Wiley.
Bollen, K. A., & Lennox, R. (1991). Conventional wisdom on measurement : A structural
equation perspective. Psychological Bulletin, 110, 305-314.
Borsboom, D., Mellenbergh, G. J., & van Heerden, J. (2003). The theoretical status of
latent variables. Psychological Review, 110, 203-219.
Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by multi-
trait-multimethod matrix. Psychological Bulletin, 56, 81-105.
Churchill, G. A. (1979). A paradigm for developing better measures of marketing cons-
tructs. Journal of Marketing Research, 16, 64-73.
Cohen, J. (1988). Statistical power analysis for the behavioral sciences. (2nd ed.) Hills-
dale, NJ : Lawrence Erlbaum.
Coombs, C. H., Dawes, R. M., & Tversky, A. (1970). Mathematical psychology : An ele-
mentary introduction. Englewood Cliffs, NJ : Prentice-Hall, Inc.
Cortina, J. M. (1993). What is coefficient alpha ? An examination of theory and applica-
tions. Journal of Applied Psychology, 78, 98-104.
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychome-
trika, 16, 297-334.
Dickes, P. (1996). L’analyse factorielle linéaire et ses deux logiques d’application. Psy-
chologie Française, 41, 9-22.
Dickes, P., Tournois, J., Flieller, A., & Kop, J.-L. (1994). La psychométrie. Paris : Presses
Universitaires de France.
Edwards, J. R., & Bagozzi, R. P. (2000). On the nature and direction of relashionships
between constructs and measures. Psychological Methods, 5, 155-174.
Eid, M., Lischetzke, T., Nussbeck, F. W., & Trierweiler, L. (2003). Separating trait effects
from trait-specific method effects in multitrait-multimethod models : A multiple-
indicator CT-C(M−1) model. Psychological Methods, 8, 38-60.
Essex, C., & Smythe, W. E. (1999). Between numbers and notions. Theory & Psychology,
9, 739-767.
Fabrigar, L. R., MacCallum, R. C., Weneger, D. T., & Strahan, E. J. (1999). Evaluating the
use of exploratory factor analysis in psychological research. Psychological Methods, 4,
272-299.
Bibliographie 295
Fan, X. T., & Thompson, B. (2001). Confidence intervals about score reliability coeffi-
cients, please : An EPM guidelines editorial. Educational and Psychological Measure-
ment, 61, 517-531.
Floyd, F. J., & Widaman, K. F. (1995). Factor analysis in the development and refine-
ment of clinical assessment instruments. Psychological Assessment, 7, 286-299.
Green, S. B., & Hershberger, S. L. (2000). Correlated errors in true score models and
their effect on coefficient alpha. Structural Equation Modeling, 7, 251-270.
Hancock, G. R., & Mueller, R. O. (2001). Rethinking construct reliability within latent
variable systems. In R. Cudeck, S. Du Toit, & D. Sörbom (Eds.), Structural equation
modeling : Present and future (pp. 195-216). Chicago : Scientific Software Internatio-
nal.
Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure
analysis : Conventional criteria versus new alternatives. Structural Equation Modeling,
6, 1-55.
Jöreskog, K. G. (1990). New developments in Lisrel : analysis of ordinal variables using
polychoric correlations and weighted least squares. Quality and Quantity, 24, 387-
404.
Jöreskog, K. G., & Sörbom, D. (1999). LISREL 8.30 [Computer software]. Chicago :
Scientific Sofware International, Inc.
Kline, P. (1998). Principles and practice of structural equation modeling. New York : Guil-
ford Press.
Kline, P. (2000). Handbook of psychological testing. (2nd ed.) London : Routledge.
Little, T. D., Cunningham, W. A., Shahar, G., & Widaman, K. F. (2002). To parcel or not
to parcel : Exploring the question, weighing the merits. Structural Equation Modeling,
9, 151-173.
Little, T. D., Lindenberger, U., & Nesselroade, J. R. (1999). On selecting indicators for
multivariate measurement and modeling with latent variables : When « good » indi-
cators are bad and « bad » indicators are good. Psychological Methods, 4, 192-211.
Lord, F. M., & Novick, M. R. (1968). Statistical theories of mental test scores. Reading,
MA. : Addison-Wesley.
MacCallum, R. C., Browne, M. W., & Sugawara, H. M. (1996). Power analysis and deter-
mination of sample size for covariance structure analysis. Psychological Methods, 1,
130-149.
MacCallum, R. C., Roznowski, M., & Necowitz, L. B. (1992). Model modifications in
covariance structure analysis : The problem of capitalization on chance. Psychological
Bulletin, 111, 490-504.
McDonald, R. P. (1999). Test theory : A unified treatment. Mahwah, NJ : Erlbaum.
Michell, J. (2000). Normal science, pathological science and psychometrics. Theory &
Psychology, 10, 639-667.
Miles, J. N. V., Shevlin, M., & McGhee, P. C. (1999). Gender differences in the reliability
of the EPQ ? A bootstrapping approach. British Journal of Psychology, 90, 145-154.
Mooney, C. Z., & Duval, R. D. (1993). Bootstrapping : A non-parametric approach to sta-
tistical inference. Newbury Park, CA : Sage.
Mulaik, S. A. (1972). The foundations of factor analysis. New York : McGraw Hill.
Mulaik, S. A. (2001). Objectivity and other metaphors of structural equation modeling.
In R. Cudeck, S. Du Toit, & D. Sörbom (Eds.), Structural equation modeling : Present
and future (pp. 59-78). Chicago : Scientific Software International.
Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric theory. (3d ed.) New York :
McGraw Hill.
296 Modéliser les différences individuelles avec l’analyse factorielle
Raykov, T. (2001). Bias of coefficient α for fixed congeneric measures with correlated
errors. Applied Psychological Measurement, 25, 69-76.
Raykov, T., & Shrout, P. E. (2002). Reliability of scales with general structure : Point
and interval estimation using a structural equation modeling approach. Structural
Equation Modeling, 9, 195-212.
Russell, D. W. (2002). In search of underlying dimensions : The use (and abuse) of fac-
tor analysis in Personality and Social Psychology Bulletin. Personality and Social Psy-
chology Bulletin, 28, 1629-1646.
Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8,
350-353.
StatSoft. (2001). STATISTICA for Windows [Computer software]. Tulsa, OK : Author.
Steyer, R. (2001). Classical (psychometric) test theory. In T. Cook & C. Ragin (Eds.),
International encyclopedia of the social and behavioral sciences. Logic of inquiry and
research design (pp. 1955-1962). Oxford : Pergamon.
Steyer, R., Ferring, D., & Schmitt, M. J. (1992). States and traits in psychological asses-
sment. European Journal of Psychological Assessment, 8, 79-98.
Steyer, R., & Schmitt, M. J. (1990). The effects of aggregation across and within occa-
sions on consistency, specificity, and reliability. Methodika, 4, 58-94.
Vautier, S., Callahan, S., Moncany, D., & Sztulman, H. (2004). A bi-stable view of single
constructs measured using balanced questionnaires : Application to trait anxiety.
Structural Equation Modeling, 11, 261-271.
Vautier, S., Gaudron, J. P., & Jmel, S. (sous presse). Modèles factoriels linéaires pour
l’analyse de la fidélité des variables composites. Revue d’Épidémiologie et de Santé
publique.
Vautier, S., & Jmel, S. (2003). Transient error or specificity ? An alternative to the stag-
gered equivalent split-half procedure. Psychological Methods, 8, 225-238.
Wilkinson, L., & APA Task Force on Statistical Inference (1999). Statistical methods in
psychology journals. American Psychologist, 54, 594-604. Retrieved September 17,
2002, from http://www.apa.org/journals/amp/amp548594.html
Yuan, K. H., & Bentler, P. M. (2002). On robustness of the normal-theory based asymp-
totic distributions of three reliability coefficients estimates. Psychometrika, 67, 251-
259.
Chapitre 11
Sommaire
1 Démarche méthodologique pour les modèles
d’équations structurelles 299
3 Conclusion 322
Les modèles d’équations structurelles sont conçus depuis leur origine comme
des méthodes confirmatoires. Ils doivent être utilisés dans la phase finale d’une
recherche pour confirmer la validité interne des construits et tester des hypothèses
d’un modèle d’analyse ou d’un modèle théorique. Par conséquent, l’utilisateur de ce
type de méthode doit au préalable concevoir un cadre théorique et formuler des hypo-
thèses. La méthode s’applique par conséquent aux démarches de recherche déducti-
ves. Toutefois, ce cadre peut être très flexible selon les résultats des premiers tests
statistiques qui peuvent conduire à modifier des hypothèses du modèle de mesure et/
ou du modèle de relations linéaires.
La démarche de mise en œuvre est donc heuristique. Elle distingue cinq phases
principales représentées dans la figure 11.1 : (1) construction d’un modèle théorique,
Spécification du modèle
Estimation du modèle
Modification et
respécification
éventuelles du
modèle théorique
Identification du modèle
Interprétation
des résultats
E1 V1
E2 V2 F1
D3
E3 V3
V7 E7
F3 V8 E8
E4 V4
V9 E9
E5 V5 F2
E6 V6
D2 Modèle structurel
Modèle de mesure
Modèle global
auxquels le modèle théorique impose une contrainte soit d’égalité entre deux varia-
bles, soit de supériorité ou d’infériorité de la valeur d’une variable par rapport à celle
d’une autre. Les paramètres contraints sont parfois utilisés dans des analyses de type
AFC de second-ordre, longitudinal, multi-groupes, etc. (Roussel et al., 2002).
(S) que dans la matrice des coefficients à estimer (Σ). C’est la situation souhaitable.
Dans le cas inverse, le modèle est dit « sous-identifié ». Le nombre de paramètres à
estimer est alors supérieur au nombre de paramètres disponibles. Le logiciel utilisé
rejette alors la procédure en indiquant que le modèle est underidentified ou que « le
degré de liberté est négatif ».
Indices absolus
Indices incrémentaux
Indices de parcimonie
nante, elle représente la capacité d’une mesure à générer des résultats différents des
mesures d’autres traits ou construits (Roehrich, 1993). Pour effectuer ces deux tests,
Fornell et Larker (1981) ont proposé une approche séquentielle qui a été complétée
par Bagozzi et Yi (1989).
■ Un construit montre une validité convergente satisfaisante, si et seulement si
le test t associé à chacune des contributions factorielles est significatif (supé-
rieur à 1,96 pour p=0,05). Est associé à ce critère celui de la variance moyenne
extraite, ou rhô de validité convergente. Il doit être supérieur à 0,5 (Fornell et
Larker, 1981) car il indique que chaque indicateur lié à une variable latente
partage plus de variance avec elle qu’avec d’autres construits :
n
∑ ( λi2 )
ρ vc i=1
= -----------------------------------------------------
-
(A) n n
∑ ( λ i2 ) + ∑ var ( εi )
i=1 i=1
toutes égales. Ils sont similaires aux coefficients bêta de la régression. Ainsi, plus la
valeur absolue d’un coefficient est-elle proche de 1, plus la relation linéaire est forte,
et inversement.
Enfin, en poursuivant la comparaison avec la régression, il est recommandé
d’analyser pour chacune des variables latentes dépendantes le pourcentage de
variance expliquée. Similaire au coefficient R2 de la régression, il s’obtient en sous-
trayant à 1 le carré du coefficient standardisé de la perturbation associée à la variable
latente (Bentler, 1989). La plupart des logiciels produisent automatiquement cet
indice 7. Plus le résultat est élevé, plus on peut considérer que la variable endogène
(dépendante) est bien expliquée par les autres variables qui lui sont associées.
7 Appelé Squared Multiple Correlations for Structural Equations dans le logiciel Lisrel.
Démarche méthodologique pour les modèles d’équations structurelles 311
x1 Y1
Équité λ11 MSQ
δ1 interne Satisfaction
intrinsèque ε1
ξ1 ζ1
Équité Satisfaction
x2 externe - λ21 à l'égard de la Y2
λ11 MSQ
δ2 Rémunération rémunération γ11 Satisfaction
fixe directe ε2
η1 intrinsèque
λ31 λ21
x3 Rémunération γ21
Satisfaction Y3
δ3 flexible λ41 φ21 MSQ
au travail λ31 Reconnaissance ε3
x4 φ31
Augmentations ξ2
δ4 φ41 Y4
Satisfaction γ12 λ41 MSQ
x5 Avantages λ52 à l'égard des γ14 Autorité - Utilité
δ5 divers avantages sociale ε4
divers γ13
x6 γ22
Attente λ63 φ42 φ32 β21 β12
δ6 Perf.-Rému. ξ3
Motivation
x7 Valence λ73 par la
δ7 Rémunération Rémunération η2
λ83 directe
x8 γ23 Motivation
Attente Y5
φ43 au travail Effort
δ8 Effort - Perf. ξ4 λ52 ε5
λ84 Motivation
x9 Attente par les
δ9 Perf.-Avant. λ94 Avantages γ24
divers ζ2
λ104
x10 Valence
δ10 Avantages
ENCADRÉ 11.1
Mode d’utilisation du logiciel Lisrel 8.5
• Au préalable, il faut ordonner les items de la matrice des données brutes selon leur
ordre d’apparition dans le modèle théorique défini a priori (Figure 11.3). Le clas-
sement des items est effectué dans la matrice initiale du logiciel de saisie des don-
nées (SPSS, Excel ou SAS). Les items sont ordonnés colonne après colonne, en
commençant par ceux des indicateurs des variables à expliquer, suivis de ceux des
indicateurs des variables explicatives. La lecture doit donc se faire de droite à gau-
che, et de haut en bas en se rapportant au schéma de modèle théorique.
• Puis, il faut importer la matrice des données ordonnées sous Prelis. Il s’agit du
module de Lisrel qui convertit automatiquement le fichier en format
adapté. Démarche à effectuer : ouvrir Lisrel 8.50, aller dans le menu « File » et
sélectionner « Import External Data in Other Formats ». Puis, sélectionner le fichier
de données (« Motivation.sav », qui est le fichier SPSS de données brutes ordon-
nées). L’ouverture de ce fichier permet de l’enregistrer automatiquement sous Prelis
avec l’extension (*.psf : « Motivation.psf »).
• Une fois la matrice des données « Motivation.psf » ouverte et enregistrée sous Pre-
lis, il faut générer la matrice des covariances qui va être utilisée pour traiter le
modèle d’équations structurelles. Aller dans le menu « Satistics », sélectionner
« Output Options ».
• Dans « Output Options », il faut sélectionner le type de matrice à générer et le sau-
vegarder comme données pour Lisrel sous un nom spécifique, en cochant « Save
to File » et « LISREL system data ». Pour un modèle d’équations structurelles, la
matrice des covariances est utilisée. Elle est sauvegardée sous le nom
« Motiva.cov » (choisir un nom de fichier de 8 caractères au plus).
• Le module Prelis permet alors d’explorer les données et de générer la matrice des
covariances. Les résultats de Prelis (« Output ») comportent la syntaxe des comman-
des sélectionnées dans les menus, les valeurs manquantes par variable observée,
la taille de l’échantillon final après élimination des données manquantes, les sché-
mas des distributions univariées des variables ordinales, etc., enfin, la matrice des
covariances. Dès lors il est souhaitable d’utiliser le module Simplis de Lisrel, recom-
mandé pour sa simplicité et sa fiabilité. Il va permettre de procéder aux tests des
hypothèses.
■ Commentaire de la syntaxe
(1) titre explicite du modèle testé ;
(2) déclaration des variables manifestes (indicateurs) que Prelis devra aller lire dans la
matrice des données brutes (fichier Spss par exemple). Chaque nom de variable ne doit pas
dépasser 8 caractères et doit évoquer une des variables latentes du modèle d’un point de
vue sémantique. Les variables manifestes sont classées selon l’ordre d’apparition indiqué ci-
avant : de haut en bas et de droite à gauche dans la figure 11.3. Pour identifier le modèle,
les indicateurs sont ici des agrégats. Il s’agit des scores moyens d’échelles multi-items cal-
culés dans Spss à partir de la matrice de données brutes. L’ensemble du questionnaire fai-
sant plus de 60 items, il est nécessaire de les agréger pour former les indicateurs de chaque
variable latente. Les indicateurs associés à une variable latente correspondent à la structure
factorielle du construit. Notons que de nombreuses études retiennent également la techni-
que de la somme des scores d’items pour construire les agrégats (cf. la technique du Parce-
ling dans le chapitre 10) ;
(3) demander à Prelis de calculer la matrice des covariances ;
(4) indiquer la taille de l’échantillon : nombre d’individus ou d’observations dans la matrice
de données brutes Spss que Prelis va traiter ;
(5) déclaration des variables latentes que Simplis va ensuite traiter. Ces variables sont éga-
lement classées selon l’ordre d’apparition bien précis déjà décrit ;
(6) déclaration des relations (paramètres) que Simplis va traiter (calcul et estimation) ;
(7) les premières relations concernent le modèle de mesure. Chaque indicateur est relié à
une variable latente. Notons que l’indicateur « Attentes effort — performance » (atefperf)
est relié à deux variables latentes : « motivation par la rémunération directe » (MOTIREM)
et « motivation par les avantages divers » (MOTIAVAN). Cette possibilité repose sur un
choix conceptuel précis et justifié ;
(8) ces relations décrivent le modèle structurel. Chaque variable latente à expliquer est
reliée à l’ensemble des variables latentes explicatives afin de tester l’hypothèse 1 ;
(9) fixation des erreurs de mesure de deux indicateurs uniques « effort » et « avantage »
pour deux variables latentes « motivation » (MOTIVTRA) et « satisfaction à l’égard des
avantages divers » (SATISAVA). Par défaut, Lisrel fixe la variance d’erreur à 0 et la contribu-
tion factorielle à 1 lorsqu’une variable latente n’a qu’un seul indicateur. Pour éviter cette
hypothèse de « mesure parfaite » de la variable latente, il est souhaitable de fixer une
valeur à la variance de l’erreur de mesure. Variance d’erreur de l’indicateur = (1 — coeffi-
cient de fiabilité alpha de l’indicateur) x variance de l’indicateur. Ce calcul est possible lors-
que l’indicateur est une variable agrégée (un score d’une échelle à plusieurs items). Ces
données sont calculées dans Spss, sachant que le coefficient alpha de Cronbach est consi-
déré comme une approximation de la vraie valeur de l’indicateur. Son résidu affecté de sa
variance est alors une approximation de la variance de l’erreur de mesure de l’indicateur.
Exemple pour l’indicateur Effort = (1-0,795) x 1.01 = 0,207 ;
316 Analyse des effets linéaires par modèles d’équations structurelles
(10) options demandées à Lisrel : nombre d’itérations (IT=300 ; à défaut IT=5 x nombre de
paramètres) et commande AD=OFF introduite lorsque certaines variables latentes ont moins
de 3 indicateurs entraînant un risque de matrices non définies positives 8 ;
(11) les résultats Lisrel (Output) demandés sont : les résidus standardisés (RS), les estima-
tions standardisées (SS), et complètement standardisées des paramètres (SC), les erreurs
standardisées (SE), les t du test de Student ou « T values » (TV), effet total et effet indirect
(EF), les paramètres estimés (PC), les indices de modification (MI), les scores factoriels
(FS) ;
(12) la représentation graphique du modèle est demandée ;
(13) la fin de la syntaxe est signalée.
Remarque : il faut adopter minutieusement la syntaxe afin d’éviter des problèmes dans l’utilisation du logiciel. Il
faut notamment : laisser les espaces uniquement aux endroits où ils apparaissent dans ces lignes du
programme, utiliser les mêmes signes (: =.,) et ne pas dépasser 80 caractères par ligne.
En fin de programme Simplis, il suffit de rester dans le même écran et de cli-
quer sur l’icône bleue « L » pour exécuter « Run Lisrel ». Les résultats s’affichent, per-
mettant de commencer leur analyse. Il est possible de réécrire dans un logiciel de
traitement de texte les équations indiquant les résultats de l’analyse. Les deux équa-
tions de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se présentent comme suit :
η1 = 0,536ξ1 + 0,041ξ2 + 0,294ξ3 — 0,112ξ4 + ζ1 R2 = 0,878
η2 = 0,177ξ1 + 0,269ξ2 + 2,854ξ3 — 2,215ξ4 + ζ2 R2 = 0,410
Les valeurs t du test de signification des paramètres de GAMMA (coefficient
stucturel ou de régression entre une variable dépendante et une variables indépen-
dante) sont :
SATISREM SATISAVA MOTIREM MOTIAVAN
ξ1 ξ2 ξ3 ξ4
SATISTRA η1 5,945 0,726 1,140 -0,502
MOTIVTRA η2 0,850 2,066 2,325 -2,177
Dans la première équation, les effets (paramètres gamma) de ξ2, ξ3 et ξ4 ne
sont pas significatifs sur η1, dans la seconde, l’effet de ξ1 sur η2 ne l’est pas non plus
(t<1,96). Il est nécessaire d’examiner le comportement de ces variables lors du traite-
ment des trois autres hypothèses pour préciser les relations linéaires. À ce stade de
l’étude, il peut être conclu que les quatre variables explicatives ne sont pas des cau-
ses communes des deux variables expliquées. Ce qui va à l’encontre de la première
hypothèse. Enfin, la covariation partielle entre les deux variables expliquées est esti-
mée à partir de la matrice de variances et covariances PSI :
Matrice de Valeurs t du test de signification
variances-covariances PSI des paramètres de PSI
SATISTRA MOTIVTRA SATISTRA MOTIVTRA
η1 η2 η1 η2
SATISTRA η1 0,025 SATISTRA η1 1,500
MOTIVTRA η2 0,048 0,474 MOTIVTRA η2 3,203 6,160
La corrélation partielle entre η1 et η2 est estimée par : ψ21 / (ψ11 ψ22)1/2 =
0,441
8 Aucune solution ne peut être générée par le logiciel car le déterminant de la matrice de cova-
riances est soit nul, soit négatif. Le logiciel indique un message d’erreur : « Warning : Matrix to be
analyzed is not positive definite ».
Résolution d’un modèle d’équations structurelles 317
■ Commentaire de la syntaxe
(1) par rapport au programme précédent, seule cette ligne est modifiée avec l’introduction
de l’effet de la variable à expliquer « motivation au travail » (MOTIVTRA) sur l’autre variable
à expliquer « satisfaction au travail » (SATISTRA). Elle permet de tester l’hypothèse 2.
Le résultat des équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se pré-
sente comme suit :
η1 = 0,101η2 + 0,519ξ1 + 0,013ξ2 + 0,006ξ3 + 0,112ξ4 + ζ1 R2 = 0,902
η2 = 0,177ξ1 + 0,269ξ2 + 2,854ξ3 — 2,215ξ4 + ζ2 R2 = 0,410
Les valeurs t du test de signification des paramètres de GAMMA et BETA (coef-
ficient structurel ou de régression entre deux variables dépendantes) sont :
SATISREM SATISAVA MOTIREM MOTIAVAN MOTIVTRA
ξ1 ξ2 ξ3 ξ4 η2
SATISTRA η1 5,939 0,244 0,021 0,482 3,610
MOTIVTRA η2 0,850 2,066 2,325 -2,177 ---
Dans ce modèle, la motivation au travail η2 a un effet positif et significatif sur
la satisfaction au travail η1 (β = 0,101 ; t = 3,610). La satisfaction au travail est éga-
lement associée à la satisfaction à l’égard de la rémunération directe ξ1 de manière
318 Analyse des effets linéaires par modèles d’équations structurelles
■ Commentaire de la syntaxe
(1) par rapport au programme précédent, seule cette ligne est modifiée avec l’introduction
de l’effet de la variable à expliquer « satisfaction au travail » (SATISTRA) sur l’autre variable
à expliquer « motivation au travail » (MOTIVTRA).
Le résultat des deux équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se
présente comme suit :
η1 = 0,536ξ1 + 0,041ξ2 + 0,294ξ3 — 0,112ξ4 + ζ1 R2 = 0,878
η2 = 1,941η1 — 0,864ξ1 + 0,190ξ2 + 2,283ξ3 — 1,997ξ4 + ζ2 R2 = 0,525
Les valeurs t du test de signification des paramètres de GAMMA et BETA sont :
SATISREM SATISAVA MOTIREM MOTIAVAN SATISTRA
ξ1 ξ2 ξ3 ξ4 η1
SATISTRA η1 5,945 0,726 1,140 -0,502 ---
MOTIVTRA η2 -1,128 1,292 1,970 -2,109 1,542
Dans ce modèle, la satisfaction à l’égard de la rémunération directe a un effet
positif sur la satisfaction au travail et la motivation par les avantages divers est
négativement liée à la motivation au travail. Toutes les autres variables exercent un
Résolution d’un modèle d’équations structurelles 319
effet non significatif sur les variables latentes expliquées. En particulier, la satisfac-
tion au travail n’a statistiquement pas de lien avec la motivation au travail.
■ Commentaire de la syntaxe
(1) et (2) : ces lignes introduisent l’effet réciproque entre la variable à expliquer
« satisfaction au travail » (SATISTRA) et la variable à expliquer « motivation au travail »
(MOTIVTRA).
Les deux équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se présentent
comme suit :
η1 = 0,090η2 + 0,529ξ1 + 0,012ξ2 + 0,119ξ4 + ζ1 R2 = 0,904
η2 = 0,309η1 + 0,263ξ2 + 2,805ξ3 — 2,225ξ4 + ζ2 R2 = 0,446
Les valeurs t du test de signification des paramètres de GAMMA et BETA sont :
SATISREM SATISAVA MOTIREM MOTIAVAN SATISTRA MOTIVTRA
ξ1 ξ2 ξ3 ξ4 η1 η2
SATISTRA η1 7,506 0,261 ----- 2,427 ----- 3,178
MOTIVTRA η2 ---- 1,944 2,236 -2,211 0,864 -----
320 Analyse des effets linéaires par modèles d’équations structurelles
Modèles χ2 DI χ2/dl GFI AGFI RMR RMSEA ECVI AIC PGFI ΣR2
Hypothèse 1 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,288
Hypothèse 2 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,312
Hypothèse 3 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,403
Hypothèse 4 387,16 64 6,05 0,92 0,85 0,05 0,078 0,726 419,42 0,551 1,350
■ Commentaire de la syntaxe
(1) et (2) les relations linéaires (modèle structurel) qui sont testées retiennent les effets
significatifs observés dans le modèle 4, considéré comme ayant le meilleur ajustement.
(3) cette ligne de programme et les suivantes signalent les corrélations entre indicateurs.
Dans les modèles d’équations structurelles, les corrélations entre indicateurs sont estimées
en reliant leurs erreurs de mesure. Par défaut, ces relations sont fixées à 0, elles ne sont
donc pas estimées. Lorsque l’on établit un lien, la relation est « libérée » (« free ») pour
pouvoir l’estimer. Ce choix vient des itérations précédentes du test du modèle final. Les
résultats intermédiaires font apparaître des Indices de Modification importants et significa-
tifs (>7,88) pour plusieurs relations entre indicateurs. Seules les corrélations (covariances)
qui sont établies dans cette syntaxe ont trouvé une justification théorique et cohérente
avec le modèle. Elles sont donc estimées pour améliorer l’ajustement du modèle théorique
aux données empiriques.
Les deux équations de régression de η1 et η2 sur ξ1, ξ3 et ξ4 se présentent
comme suit :
η1 = 0,095η2 + 0,543ξ1 + 0,128ξ4 + ζ1 R2 = 0,916
η2 = 6,786ξ3 — 4,892ξ4 + ζ2 R2 = 0,582
3. Conclusion
Bibliographie
Bagozzi R.P. (1980), Causal models in marketing. New York : Wiley and Sons.
Bagozzi R.P. et Yi Y. (1989), « On the use of structural equation models in experimental
design ». Journal of Marketing Research, vol. 26, pp. 271-284.
Bentler P.M. (1989), EQS structural equations program manual. Los Angeles, CA : BMDP
Statistical Software.
Bentler P.M. (1995), EQS structural equations program manual. Encino, CA : Multivariate
Software.
Chou C.P. et Bentler P.M. (1995), « Estimates and tests in structural equation
modeling ». In Hoyle, R.H. (Eds), Structural equation modeling : concepts, issues, and
applications, Thousand Oaks, CA : Sage, pp. 37-55.
Fornell C. et Larker D.F. (1981), « Evaluating structural equations models with unobser-
vable variables and measurement error ». Journal of Marketing Research, vol. 18,
pp. 39-50.
Hair J.F., Anderson R.E., Tatham R.L. et Black W.C. (1998), Multivariate data analysis
with readings, 5e édition, Upper Saddle River, NJ : Prentice-Hall.
Hayduk L.A. (1987), Structural equation modeling with LISREL : essentials and applica-
tions. Baltimore : The John Hopkins University Press.
Jöreskog K.G. (1971), « Statistical analysis of sets of congeneric tests ». Psychometrika,
vol. 36, pp. 109-133.
Jöreskog K.G. (1973), « A general method for estimating a linear structural equation
system ». In Goldberger A.S. et Duncan O.D. (Eds), Structural equation models in the
social sciences, New York : Seminar Press/Harcourt Brace.
Jöreskog K.G. et Sörbom D. (1996), LISREL 8 : user’s reference guide. Chicago, IL :
Scientific Software International, Inc.
Keesling J.W. (1972), Maximum likelihood approaches to causal analysis. Thèse non
publiée, University of Chicago, Chicago, IL.
Olsson U.H., Foss T., Troye S.V. et Howell R.D. (2000), « The performance of ML, GLS,
and WLS estimation in structural equation modeling under conditions of misspecifica-
tion and nonnormality ». Structural Equation Modeling, vol. 7, pp. 557-595.
Pedhazur E.J. et Pedhazur Schmelkin L. (1991), Measurement, design, and analysis : an
integrated approach. Hillsdale, NJ : Lawrence Erlbaum Associates.
324 Analyse des effets linéaires par modèles d’équations structurelles
Sommaire
1 Définition des variables modératrices
et médiatrices 326
5 Conclusion 342
Une variable modératrice est une variable qui agit essentiellement sur la rela-
tion entre deux autres variables. Elle modifie systématiquement la grandeur, l’inten-
2 Il s’agit, pour simplifier, du risque de conclure à l’existence d’un effet médiateur ou modérateur
qui est en réalité fallacieux et faux (erreur de première espèce). Le risque nominal accepté est géné-
ralement de 5 %.
3 Une méthode qui a un faible pouvoir statistique (ou puissance) échoue fréquemment à détecter
des effets médiateurs et modérateurs qui existent réellement dans la population étudiée. Une excel-
lente analyse du pouvoir statistique est présentée par J. Cohen, (1988). Statistical power analysis for
the behavioral sciences, Hillsdale, NJ : L. Erlbaum.
Définition des variables modératrices et médiatrices 327
4 L’effet d’interaction (X*Z) est parfois accompagné d’un effet quadratique (Z2), ce qui donne à la
relation son caractère curvilinéaire.
328 Analyse des variables modératrices et médiatrices
XP Y
c
XM
a b
XP Y
c’
XP Y
+
–
blement pas inverser le sens de la relation entre XP et Y, (c) et (c’) devraient toujours
être de même signe ; ou (c’) devrait être nul si la médiation est intégrale. En influant
sur la direction ou la forme de la relation entre XP et Y, le rôle modérateur de la varia-
ble Z correspond à un effet d’interaction représenté généralement par le produit
(XP × Z) qui devrait avoir un effet significatif sur Y (Saunders, 1956 ; Zedeck, 1971).
Le terme (XP × Z) désigne l’effet non linéaire des variables indépendantes sur la
variable dépendante.
À ce niveau, il importe d’indiquer qu’il existe plusieurs types de variables
médiatrices et de variables modératrices. La précision des différences entre ces types
permet une meilleure compréhension conceptuelle et analytique des effets de varia-
bles intermédiaires. Ces différences sont d’autant plus importantes qu’elles requièrent
des démarches d’analyse statistiques distinctes. Les variables médiatrices peuvent
intervenir de manière intégrale ou partielle pour transmettre l’impact d’une variable
indépendante sur une variable dépendante. Les variables modératrices peuvent diffé-
rer d’une part selon l’importance de leur interaction avec la variable indépendante, et
d’autre part selon la nature de leur lien avec la variable dépendante. Deux typologies
sont retenues dans cette recherche : la typologie des variables médiatrices selon
Baron et Kenny (1986) et la typologie des variables modératrices de Sharma et al.
(1981).
5 Les théories psychométriques ne considèrent pas ce type de variable comme modératrice à partir
du moment où elles ont un lien significatif avec la variable dépendante. Il n’existe pour ces théories
que des variables modératrices pures.
Démarches d’analyse des variables médiatrices 331
(c’)
FIGURE 12.2 – Modèle de Baron et Kenny pour l’analyse des variables médiatrices
■ Étape 4. Pour établir l’existence d’une médiation complète par XM, le coeffi-
cient (c’) liant XP et Y devient nul, en contrôlant XM. Il s’agit de vérifier que
c’=0 en présence de XM, sinon la médiation est partielle.
Selon Kenny et al. (1998), les quatre étapes doivent être successivement assu-
rées afin de montrer l’existence d’un rôle médiateur intégral d’une variable. Si seule-
ment les trois premières étapes sont vérifiées, le rôle médiateur n’est que partiel. Les
étapes 2 et 3 sont donc essentielles pour s’assurer de l’existence du rôle médiateur.
Elles doivent être complétées par une estimation du pourcentage de l’effet de média-
tion et par des tests d’inférence et de signification statistique de cet effet. Selon
Ambler (1998), le pourcentage de l’effet médiateur par rapport à l’effet total est
obtenu par le ratio ci-dessous, égal à 100 % si la médiation est totale (c’=0) :
100 × ab / (ab + c’)
Afin de s’assurer de la significativité de l’effet médiateur et de vérifier que les
coefficients (a) et (b) sont statistiquement différents de zéro, Kenny et al. (1998)
recommandent l’utilisation du test de Sobel (1996) permettant de calculer l’erreur
standardisée (sab) de l’effet indirect (ab). L’erreur sab est obtenue à partir des erreurs
standardisées des coefficients (a) et (b), notées sa et sb. Le test de Sobel est simple 6
à réaliser et permet de s’assurer de la significativité du rôle médiateur. Il s’interprète
selon une distribution de loi normale.
Pour améliorer la puissance de la démarche de Baron et Kenny, nombre
d’auteurs recommandent une plus grande rigueur dans la fiabilité des mesures utili-
6 Le test de signification de l’effet indirect est de plus en plus intégré dans les logiciels d’équa-
tions structurelles. Il se calcule aussi très facilement sur le site suivant http://quantrm2.psy.ohio-
state.edu/kris/sobel/sobel.htm.
s ab = ab ⁄ s a2 s b2 + b 2 s a2 + a 2 s b
332 Analyse des variables modératrices et médiatrices
Justice
Altruisme
distributive
Soutien
organisationnel
perçu
Justice
Civisme - loyauté
procédurale
Nombre de recherches ont montré que le rôle modérateur d’une variable corres-
pond à un effet non linéaire d’interaction entre la variable indépendante principale et
la variable modératrice (Aiken et West, 1991 ; Jaccard et al., 1990 ; Saunders, 1956).
L’interaction entre les variables indépendante et modératrice génère une modification
de l’intensité ou/et de la forme de la relation entre la variable indépendante et la
variable dépendante. Plusieurs méthodes sont utilisées pour tester le rôle modérateur
d’une variable. Il s’agit essentiellement des analyses de la variance ANOVA, des analy-
ses multi-groupes et des régressions multiples hiérarchiques (Aiken et West, 1991).
L’analyse de variance est généralement utilisée lorsque les variables indépendante et
0,17 (2,23)
modératrice sont catégoriques, surtout dichotomiques avec deux modalités telles que
le sexe. Cette méthode a l’avantage d’être simple et éprouvée. Néanmoins, elle a deux
limites : elle ne permet de tester qu’un seul lien à la fois ; elle ne tient pas compte
des erreurs de mesure et n’est donc pas adaptée aux variables latentes ; de plus elle
n’est pas adaptée aux variables ordinales et continues (Aguinis, 1995 ; Baron et
Kenny, 1986).
L’analyse des effets modérateurs peut aussi être réalisée par des analyses
multi-groupes. Les groupes sont constitués selon les différents niveaux de la variable
modératrice. Une analyse par régression est alors appliquée à chaque groupe. Si les
estimations des coefficients sont différentes entre les groupes, l’effet modérateur est
établi (MacKenzie et Spreng, 1992). Le changement du coefficient de détermination
R2 selon l’appartenance aux groupes suggère aussi la présence d’un effet modérateur.
La constitution des groupes en cas de variable dichotomique (binaire, ex. sexe) est
simple. Lorsque la variable modératrice est continue ou ordinale, la division en grou-
pes se fait par la transformation de cette variable en une variable dichotomique selon
les pôles extrêmes, généralement selon la valeur médiane 8 (ex. Groupe1 : individus à
faible implication, groupe2 : individus à forte implication). Les analyses multi-grou-
pes ont l’avantage d’être simples et robustes. Elles ont toutefois deux limites : (1) la
dichotomisation des variables modératrices pour constituer les groupes génère une
perte d’information importante ; (2) le partage de l’échantillon en sous-groupes
réduit la taille de l’échantillon généralement modeste dans les recherches en gestion
(Stone-Romero et Anderson, 1994). Ces méthodes sont surtout adaptées aux variables
modératrices nominales et mesurées sans erreur. Le recours aux méthodes d’équations
structurelles permet d’améliorer leur utilisation.
Afin de dépasser les limites des analyses multi-groupes classiques, certains
auteurs ont développé une méthode de régression multiple hiérarchique, adaptée à
8 Une méthode moins arbitraire de transformation d’une variable continue en variable catégorique
est effectuée à l’aide du logiciel SPSS 11 (rubrique : Transformer / Discrétiser variables).
336 Analyse des variables modératrices et médiatrices
9 Pour un objectif de simplicité, le terme (a) comprend à la fois l’intercept (résidu statistique non
expliqué par les variables explicatives retenues ; ce résidu représente donc l’effet des variables expli-
catives non inclues dans le modèle) et l’erreur de régression.
Démarches d’analyse des variables modératrices 337
4 et EQS 5.6, étant donné que ces logiciels ne traitent que les relations linéaires (Li
et al., 1998). La procédure recommandée dans cette recherche est basée sur les tra-
vaux de Ping (1995, 1998). Cette procédure présente plusieurs avantages. Elle limite
le nombre de paramètres estimés en mesurant l’effet d’interaction (XP × Z) par un seul
indicateur égal au produit des sommes des indicateurs de XP et Z. Elle peut être utili-
sée avec tous les logiciels des méthodes d’équations structurelles, étant donné qu’elle
remplace les contraintes non linéaires par des valeurs fixées à partir des résultats de
l’analyse factorielle confirmatoire préalablement réalisée 10. Outre sa simplicité rela-
tive, la procédure de Ping (1995) a la même rigueur que les autres démarches d’ana-
lyse des effets d’interaction (Cortina et al., 2001).
La méthode de Ping (1995, 1998) repose sur la démarche d’analyse en deux
étapes d’Anderson et Gerbing (1988) : la première consiste en une analyse factorielle
confirmatoire permettant de s’assurer de la validité du modèle de mesure ; la seconde
consiste en un test des relations entre les variables latentes. Ping (1995) recom-
mande d’utiliser les résultats de l’analyse factorielle confirmatoire pour calculer l’indi-
cateur de l’effet d’interaction, ainsi que sa contribution factorielle (loading) et
l’erreur de variance. Les valeurs obtenues sont fixées lors de la seconde étape d’esti-
mation des liens entre les différentes variables (Figure 12.5). L’estimation des effets
modérateurs par la procédure de Ping (1995) consiste à mettre en œuvre les étapes
suivantes :
■ Étape 1. Réaliser une analyse factorielle confirmatoire comportant les varia-
bles XP et Z, ainsi que les autres variables du modèle, afin de déterminer les
contributions factorielles des différents indicateurs xi et zj et les termes
d’erreurs εxi et εzj. La démarche d’analyse est itérative et s’arrête lorsque les
indices d’ajustement sont acceptables, exemple CFI ≥ 0,90 ; RMSEA ≤ 0,08.
■ Étape 2. Centrer tous les indicateurs des variables du modèle, en soustrayant
de chaque valeur la moyenne de la variable. Cette opération permet de réduire
la multicolinéarité entre d’une part XP et Z et d’autre part leur produit (XP × Z).
Plusieurs auteurs ont montré que pour limiter la multicolinéarité entre les
variables explicatives et leur produit, toutes les variables doivent être centrées
en retranchant leur moyenne des données brutes (Aiken et West, 1991 ; Jac-
card et al., 1990).
■ Étape 3. Calculer l’indicateur du terme d’interaction (XP × Z). L’indicateur de
l’effet d’interaction, représentant le rôle modérateur est obtenu en faisant le
produit des sommes des indicateurs de la variable explicative et de la variable
modératrice (Σxi × zj). La contribution factorielle λxz et l’erreur θεxz de l’effet
d’interaction sont calculées par les équations suivantes (Équations 4 et 5 de
Ping 1995), avec λxi et λzj les loadings des indicateurs et, θεxi et θεzj leurs ter-
mes d’erreur (résultats de l’étape1) :
λxz = Σ λxi × Σ λzj
θεxz = (Σλxi)22 × VAR (x) × (Σθεzj) + (Σλzj)2 × VAR (z) × (Σθεxi)
+ (Σλxi) × (Σλzj).
10 Robert Ping a développé plusieurs méthodes d’analyse des effets modérateurs. L’ensemble de ces
méthodes est présenté sur son site : http://www.wright.edu/~robert.ping/research1.htm.
338 Analyse des variables modératrices et médiatrices
εxi X1
λxi
X2
XP
b1 Y1
Xi
Y Y2
εzj Z1
b2
λzj Yk
Z2
Z
b3
Zj
XP × Z
λXZ
εXZ
FIGURE 12.5 – Procédure de Ping (1995) pour l’analyse des variables modératrices
Démarches d’analyse des variables modératrices 339
Selon Brockner et Wiesenfeld (1996), les réactions des salariés aux décisions
dépendent plus de l’interaction entre la justice distributive et la justice procédurale
que d’une perception disjointe de ces deux formes de justice. À cet égard, certains
auteurs ont détecté des effets d’interaction entre ces formes de justice dans l’analyse
de la satisfaction à l’égard de la rémunération (Folger et Konovsky, 1989). Les récom-
penses obtenues et les procédures utilisées pour les allouer interagissent pour créer
un sens de la justice et influencer par conséquent les attitudes et les comportements
des individus. La justice procédurale semble avoir un effet modérateur sur la relation
entre la justice distributive et la satisfaction à l’égard de la rémunération
(Figure 12.6). L’hypothèse suivante peut être formulée.
HYPOTHÈSE 2 : la justice procédurale a un rôle modérateur sur la relation entre
la justice distributive et la satisfaction à l’égard de la rémunération.
Afin de tester le modèle de la figure 12.6, une enquête par questionnaire a été
réalisée auprès de 267 salariés du secteur bancaire. La justice distributive et la jus-
tice procédurale ont été mesurées respectivement par quatre et sept items proposés
par Folger et Konovsky (1989). La satisfaction à l’égard de la rémunération a été
mesurée par le questionnaire de Heneman (1985). Pour simplifier l’illustration, seule
une partie du modèle est présentée. Elle concernera la satisfaction à l’égard des avan-
tages divers de la rémunération. Cette dimension de la satisfaction est mesurée par
quatre items dans le questionnaire de Heneman. Le test des effets modérateurs ou
d’interaction doit être précédé d’une analyse de la normalité des données et de la fia-
bilité des construits.
L’analyse de l’effet modérateur de la justice procédurale selon la procédure de
Ping (1995) est réalisée en plusieurs étapes :
1. Test de la normalité des données par les indicateurs de skewness et de kurtosis.
Ces coefficients d’asymétrie et d’aplatissement, obtenus par SPSS, doivent être
inférieurs à 3 en valeur absolue (Hair et al., 1998). Ce test permet de suppri-
mer les items ayant des distributions non normales. Les items utilisés dans
Justice
distributive
Satisfaction
à l’égard de
la rémunération
Justice
procédurale
Effet modérateur
cette étude ont tous des coefficients skewness et kurtosis acceptables, variant
entre -3 et 3.
2. Examen de la fiabilité et de la validité des variables latentes étudiées. Suite à
une analyse en composantes principales et à une analyse de la fiabilité, les
coefficients alpha de Cronbach sont respectivement de 0,93 pour la justice dis-
tributive (4 items), 0,77 pour la justice procédurale (4 items restants), et 0,95
pour la satisfaction à l’égard des avantages divers dans la rémunération. Cet
examen de la fiabilité est complété par une analyse de la validité convergente
et discriminante. La fiabilité des variables étudiées doit être la plus élevée
possible étant donné que la fiabilité de l’effet modérateur (terme
multiplicatif : Justice distributive x Justice procédurale) dépend de la fiabilité
des deux variables en interaction (Aguinis, 1995) 11.
3. Toutes les données brutes sont centrées en y retranchant leurs moyennes,
avant de calculer le terme multiplicatif (Justice distributive x Justice procédu-
rale), représentant l’effet modérateur. Ceci est nécessaire pour réduire la mul-
ticolinéarité entre le terme multiplicatif et les variables en interaction. Les
moyennes sont calculées et retranchées des données brutes en utilisant SPSS.
4. Pour l’application de la démarche de Ping (1995) pour le test de l’effet d’inte-
raction une première étape consiste à réaliser une analyse factorielle confirma-
toire sur les trois variables du modèle. La formulation de l’analyse sous Simplis
est présentée en annexe. Cette analyse permet de s’assurer de la validité des
construits et d’obtenir les coefficients nécessaires pour calculer la contribution
factorielle (loading) et l’erreur de variance du terme (Justice distributive x
Justice procédurale). Les résultats de cette analyse ont permis de retenir res-
pectivement trois items pour la mesure de la justice distributive et de la jus-
tice procédurale. Les quatre items mesurant la satisfaction ont été tous
maintenus. L’ajustement du modèle de mesure est acceptable avec un chi-
deux = 86,28 pour un ddl = 32 ; un CFI = 0,97 ; un NNFI = 0,96 ; et un
RMSEA = 0,07.
5. Selon Ping, l’effet d’interaction (Justice distributive x Justice procédurale) est
mesuré par un seul indicateur qui est le produit des sommes respectives des
indicateurs de la variable indépendante (Justice distributive) et de la variable
modératrice (Justice procédurale). À partir des résultats non standardisés de
l’analyse factorielle confirmatoire précédente (Figure 12.7), il est possible de
calculer le loading λjj et l’erreur θεjj du terme d’interaction selon les équations
susmentionnées (étape3 de la démarche de Ping) 12 :
λjj = 8,384 et θεjj = 19,324
11 La fiabilité de l’interaction est plus ou moins égale au produit des fiabilités des deux variables en
interaction. Si par exemple, ces fiabilités sont au seuil préconisé de 0,70 et si la corrélation entre les
deux variables est nulle, la fiabilité de l’interaction ne serait que de (0,7 × 0,7) soit seulement 0,49.
Dans le cas de cette étude, la fiabilité de l’interaction est acceptable en étant égale à (0,93 × 0,77)
soit 0,72.
12 Les loadings, les termes d’erreurs et les variances, utilisés pour le calcul de λjj et θεjj sont don-
nés par les matrices Lambda X et Phi, dans l’output Lisrel. λjj = (1 + 1,03 + 1,03) × (1 + 0,94 + 0,80)
= 8,3844 ; θεjj = (1 + 1,03 + 1,03)2 × 0,824 × (0,29 + 0,37 + 0,55) + (1 + 0,94 + 0,8) 2 × 0,712 ×
(0,18 + 0,12 + 0,13) + (1 + 1,03 + 1,03) × (1 + 0,94 + 0,80) = 19,3244.
Démarches d’analyse des variables modératrices 341
J. distri1
0,56
Justice (0,06)
J. distri2 (T = 8,05) avansat1
distributive
Justice avansat4
J. proc2
procédurale
J. proc3
0,10
(0,04)
J. distributive
(T = 2,14)
∑J. distri * ∑J. proc X
J. procédurale N.S. : Lien non significatif
8,384 RMSEA = 0,07
CFI = 0,97
19,32 NNFI = 0,96
Note : La variable V999 a été omise de la représentation graphique pour faciliter la lecture. Néanmoins, la variable latente F2 a un sta-
tut endogène, d’où la covariance entre sa perturbation et la variable latente F1 pour mesurer la covariance entre les deux facteurs.
que leur perception de la justice distributive est combinée avec une percep-
tion positive de la justice procédurale.
5. Conclusion
13 McClelland et Judd (1993) ont mis l’accent sur la difficulté de détecter les effets d’interaction,
dont la grandeur est souvent faible.
Bibliographie 343
doit toutefois être expliqué par rapport aux caractéristiques de chaque indice
(Roussel et al., 2002).
■ La détection des effets médiateurs et modérateurs ne doit jamais découler de
la seule analyse statistique. La pertinence de l’argumentation théorique est la
principale garantie de l’avancement de la recherche sur les variables intermé-
diaires.
Bibliographie
Aguinis H. (1995), Statistical power problems with moderated multiple regression in
management research. Journal of Management, vol. 21, pp. 1141-1158.
Aguinis H. et Stone-Romero E. (1997), Methodological artifacts in moderated multiple
regression and their effects on statistical power. Journal of Applied Psychology, vol.
82, pp. 192-206.
Aiken L.S. et West S.G. (1991), Multiple Regression : Testing and Interpreting Interac-
tions, Newbury Park, CA : SAGE Publications.
Ambler T. (1998), Mediation and moderation : roles and tests. Pan’Agra Workin Paper,
N° 98-904, London Business School.
Anderson J.C. et Gerbing D.W. (1988), Structural equation modeling in practice : a
review and recommended two-step approach. Psychological Bulletin, vol. 103,
pp. 411-423.
Arnold H.J. (1982), Moderator variables : a clarification of conceptual, analytic and
psychometric issues. Organizational Behavior and Human Performance, vol. 29,
pp. 143-174.
Baron R.M. et Kenny D.A. (1986), The Moderator-Mediator variable distinction in social
psychological research : conceptual, strategic, and statistical considerations. Journal
of Personality and Social Psychology, vol. 51, pp. 1173-1182.
Brockner J. et Wiesfeld B.M. (1996), An integrative framework for explaining reactions
to decisions : interactive effects of outcomes and procedures. Psychological Bulletin,
vol. 120, pp. 189-208.
Busemeyer J.R. et Jones L.E. (1983), Analysis of multiplicative combination rules when
the causal variables are measured with error. Psychological Bulletin, vol. 93, pp. 549-
562.
Collins L.M., Graham J.W. et Flaherty B.P. (1998), An alternative framework for defining
mediation. Multivariate Behavioral Research, vol. 33, pp. 295-312.
Cortina J.M. (1993), Interaction, nonlinearity and multicollinearity : Implications for
multiple regression. Journal of Management, vol. 19, pp. 915-922.
Cortina J.M, Chen G. et Dunlap W.P (2001), Testing interaction effects in LISREL : exa-
mination and illustration of available procedures. Organizational Research Methods,
vol. 4, pp. 324-360.
Cronbach L.J. (1987), Statistical tests for moderator variables : flaws in analysis
recently proposed. Psychological Bulletin, vol. 102, pp. 414-417.
Eisenberger R., Fasolo P. et Davis-LaMastro V. (1990), Perceived organizational support
and employee diligence, commitment and innovation. Journal of Applied Psychology,
vol. 82, pp. 51-59.
344 Analyse des variables modératrices et médiatrices
Niehoff B.P. et Moorman R.H. (1993), Justice as a mediator of the relationship between
methods of monitoring and organizational citizenship behavior. Academy of Manage-
ment Journal, vol. 36, pp. 527-556.
Organ D.W. (1990), The motivational basis for organizational citizenship behavior. In
Staw B.M. et Cummings L.L. (Eds), Research in organizational behavior, vol. 12,
Greenwich, CT : JAI Press, pp. 43-72.
Ping R. (1995), A Parsimonious estimating technique for interaction and quadratic
latent variables. The Journal of Marketing Research, vol. 32, pp. 336-347.
Ping R. (1996a), Latent variable interaction and quadratic effect estimation : A Two-
Step technique using structural equation analysis. The Psychological Bulletin, vol.
119, pp. 166-175.
Ping R. (1996b), Latent variable regression : A technique for estimating interaction and
quadratic coefficients. Multivariate Behavioral Research, vol. 31, pp. 95-120.
Ping R. (1996c), Estimating latent variable interactions and quadratics : The state of
this art. Journal of Management, vol. 22, pp. 163-183.
Ping R. (1998), EQS and LISREL examples using survey data. In Schumacker, R.E. et
Marcoulides, G.A. (Eds), Interaction and Nonlinear Effects in Structural Equation Mode-
ling, London, Lawrence Erlbaum Associates, pp. 63-100.
Roussel P., Durrieu F., Campoy E. et El Akremi A. (2002), Méthodes d’équations
structurelles : recherches et application en gestion, Paris, Economica.
Saunders D.R. (1956), Moderator variables in prediction. Educational and Psychological
Measurement, vol. 16, pp. 209-222.
Schumacker R. (2002), Latent variable interaction modeling. Structural Equation mode-
ling, vol. 9, pp. 40-54.
Schumacker R.E. et Marcoulides G.A. (1998), Interaction and Nonlinear Effects in Struc-
tural Equation Modeling, London, Lawrence Erlbaum Associates.
Sharma S., Durand R.M. et Gur-Arie O. (1981), Identification and analysis of moderator
variables. Journal of Marketing research, vol. 18, pp. 291-300.
Shrout P.E. et Bolger N. (2002), Mediation in experimental and nonexperimental
studies : new procedures and recommendations. Psychological Methods, vol. 7,
pp. 422-445.
Sobel M.E. (1996), An introduction to causal inference. Sociological Methods and
Research, vol. 24, pp. 353-379.
Stone-Romero E.F et Anderson L.E. (1994), Relative power of moderated regression and
comparison of subgroup coefficients for detecting moderating effects. Journal of
Applied Psychology, vol. 79, pp. 354-359.
Yang Jonsson F. (1998), Modeling interaction and nonlinear effects : a step by step
Lisrel example. In Schumacker R.E. et Marcoulides G.A. (Eds), Interaction and Nonli-
near Effects in Structural Equation Modeling, London, Lawrence Erlbaum Associates,
pp. 17-42.
Zedeck S. (1971), Problems with the use of « moderator » variables. Psychological Bulle-
tin, vol. 76, pp. 295-310.
346 Analyse des variables modératrices et médiatrices
ANNEXE
PROGRAMMES SIMPLIS SOUS LISREL 8.5
Test des effets médiateurs par la démarche de Baron et Kenny (1986)
Étape (1) de la démarche
Mediator effect (1) Justice — Comportements OCB
Observed Variables : altr1 altr2 altr3 civism1 civism2 civism3 jdist1 jdist2
jdist3 jproc1 jproc2 jproc3 jproc4
Covariance Matrix from File C :\lisrel850\MM1\MEDIA1a.cov
Sample Size=422
Latent Variables : ALTRUISM CIVISME JUSTDIS JUSTPRO
Relationships :
altr2=1*ALTRUISM
altr1 altr3=ALTRUISM
civism3=1*CIVISME
civism1 civism2=CIVISME
jdist1=1*JUSTDIS
jdist2 jdist3=JUSTDIS
jproc1=1*JUSTPRO
jproc2 jproc3 jproc4=JUSTPRO
ALTRUISM=JUSTDIS JUSTPRO
CIVISME=JUSTDIS JUSTPRO
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem
avansat1=1*PAYSATIS
avansat2 avansat3 avansat4=PAYSATIS
jdistr1=1*JUSTDIST
jdistr2 jdistr3=JUSTDIST
jproc1=1*JUSTPROC
jproc2 jproc3=JUSTPROC
interac=8,384*JDXJP
PAYSATIS=JUSTDIST JUSTPROC JDXJP
Set the Error Variance of interac Equal to 19,324
Set the Correlation between JDXJP and JUSTDIST Equal to 0
Set the Correlation between JDXJP and JUSTPROC Equal to 0
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem
Chapitre 13
Études longitudinales
et comparaisons entre groupes
par les modèles d’équations
structurelles
Eric CAMPOY 1 et Marc DUMAS 2
Sommaire
3 Conclusion 375
1. Invariance de la mesure
Le besoin de vérifier l’invariance d’une mesure peut se présenter dans des cas
très variés :
– développement et validation d’un outil de mesure ;
– généralisation de la validité d’une mesure dans des groupes différents (sexe,
nationalité, etc.) ;
– validation d’un test psychotechnique ;
– comparaison de modes alternatifs de recueil des données ;
– opérationnaliser les changements alpha, bêta et gamma ;
– aide dans les études longitudinales, etc.
À cette diversité de situations où il est nécessaire de tester cette invariance
ne saurait correspondre un seul et même besoin d’invariance : selon l’objet de l’étude
concernée, le niveau ou la forme d’invariance attendus (ou plutôt de non-invariance
tolérés) sera différente comme nous le verrons par la suite.
Pendant longtemps l’on a cru pouvoir vérifier l’invariance d’une mesure par un
seul test. Néanmoins, la non-invariance d’une mesure peut avoir des origines bien dif-
férentes d’un cas à l’autre (cadre de référence différent entre groupes ou dans le
temps, recalibration de la métrique dans le temps ou conception différente des inter-
valles de réponse entre groupes, etc.), qu’un seul et unique test ne saurait différen-
cier, si ce n’est mesurer. Par ailleurs, une forme de non-invariance peut être
acceptable dans un cas et inacceptable dans un autre cas : une différence de
Invariance de la mesure 351
3 Pour des raisons de cohérence, nous reprenons les appellations données par Vandenberg et Lance
(2000). En effet, les appellations des différents tests sont souvent propres à chaque chercheur, alors
qu’elles recoupent souvent le même type de test formellement, ou seulement dans l’esprit. Par exem-
ple, le test de l’invariance métrique est appelé « invariance de la structure factorielle » (Alwin et
Jackson, 1981), « égalité de l’unité de mesure » (Cole et Maxwell, 1985), « comparabilité de la
métrique » (Drasgow et Kanfer, 1985), « invariance factorielle » (Horn et McArdle, 1992),
« invariance des contributions factorielles » (Marsh, 1994) ou encore « invariance de la mesure
totale » (Reise et al. 1993).
352 Études longitudinales et comparaisons entre groupes
(H0 : les covariances entre les facteurs sont égales d’un groupe (ou période) à
l’autre, Φij(1) = Φij(2)).
Quant à l’ordre dans lequel ces tests doivent être menés, toujours selon Van-
denberg et Lance (2000), il est impératif d’effectuer en premier lieu et dans cet ordre
les tests 1 à 4 ; en revanche, les tests 5 à 7 peuvent être menés facultativement
après, dans l’ordre souhaité par le chercheur (figure 13.1). Voici les raisons qui justi-
fient l’ordre proposé :
a) Si l’invariance des matrices de covariances (test 1) est vérifiée, il ne sera
pas nécessaire de procéder aux tests 2, 3 et 4, puisque l’on peut considérer
que l’invariance est validée (Jöreskog, 1971 ; Bagozzi et Edwards, 1998). Ce
n’est donc que dans le cas où les matrices de covariances ne sont pas égales
que l’on devra vérifier l’existence ou non des différentes autres formes d’inva-
riance. En effet, le rejet de l’hypothèse de l’égalité des matrices de covariances
ne veut pas dire qu’il n’existe pas une certaine invariance et ne donne aucune
information quant à l’origine d’une possible non-invariance de la mesure.
b) La vérification de l’invariance configurationnelle (test 2) est une condition
nécessaire pour tester l’invariance métrique (test 3) et l’invariance scalaire
(test 4). Si tel n’est pas le cas, les tests 3 et 4 n’ont plus aucune pertinence,
puisque la structure factorielle n’étant pas stable, les indicateurs représentent
des construits différents selon les groupes 4. Le non-rejet de l’hypothèse nulle
(i.e. invariance configurationnelle validée) implique (a) que les individus ont
bien utilisé le même cadre cognitif (on peut dès lors les comparer en termes
de différence de moyenne latente) et (b) que l’on peut poursuivre l’inspection
de l’invariance par les tests suivants, dans la mesure où ceux-ci seront con-
duits en maintenant la contrainte d’invariance configurationnelle. C’est pour
cela que le modèle testé pour l’invariance configurationnelle est considéré
comme le modèle de base auquel on comparera les autres modèles au fur et à
mesure des différents tests (modèles emboîtés ou nichés).
c) De même, l’invariance métrique (test 3), au moins partiellement validée, est
en général considérée comme une condition nécessaire au test de l’invariance
scalaire (test 4) (Bollen, 1989 ; Marsh, 1994), même si certains chercheurs
peuvent préférer l’ordre inverse pour les besoins de leur étude (Bagozzi et
Edwards, 1998). Ce test permet de renforcer l’invariance factorielle par rapport
au test précédent, dans la mesure où il impose comme contraintes supplémen-
4 Lorsque l’invariance configurationnelle n’est pas vérifiée, cela signifie que les individus des
divers groupes n’ont pas le même cadre cognitif concernant le concept étudié (ou qu’il a changé au
fil du temps dans le cas d’une étude longitudinale).
Invariance de la mesure 353
d) Pour l’invariance scalaire (test 4), on utilise le vecteur τ, formé des paramè-
tres de positionnement des indicateurs (i.e. la valeur de la variable observée
quand la valeur de la variable latente à laquelle elle est associée égale 0). Le
test d’égalité des moyennes des indicateurs peut donc être considéré comme
un test de différence de biais de réponses systématiques entre groupes (Bol-
len, 1989). Néanmoins l’interprétation de ce test est délicate, car elle dépend
fortement des conditions de l’étude. Par exemple, s’il s’agit de tester deux
méthodes de recueil de données, une différence significative des moyennes des
indicateurs peut être interprétée comme provenant d’un biais lié aux méthodes
de recueil des données (chaque méthode a un biais de réponse qui lui est pro-
pre et est significativement différent de celui des autres méthodes). Mais si
l’on compare deux groupes, il est nécessaire de se demander si la différence de
moyennes des indicateurs représente un biais ou si elle n’est pas justement
inhérente à la différence imposée pour bâtir les groupes (si l’on compare sala-
riés avec ou sans ancienneté, ou salariés ayant suivi ou non une formation, un
effet d’apprentissage ou de socialisation peut expliquer la différence et cette
différence est même souvent souhaitable). La différence n’est alors plus un
biais indésirable, mais bien au contraire elle peut être souhaitée et ne fait que
refléter les différences attendues entre groupes.
Il est important de noter qu’alors que l’invariance configurationnelle n’est
envisageable que totale, le chercheur peut, sous certaines conditions, ne se
contenter que d’une invariance métrique partielle et/ou d’une invariance sca-
laire partielle (en relâchant des contraintes). D’une part, comme on l’a vu pour
l’invariance scalaire précédemment (mais cela est également applicable à
l’invariance métrique), il est parfois évident que selon les hypothèses de
recherche testées, et la façon que l’on a de les tester, on ne s’attend pas à une
invariance totale. D’autre part, même dans le cas où les hypothèses de recher-
che conduisent à postuler l’invariance métrique (et/ou scalaire) totale, que
doit-on faire si un ou deux indicateurs ne permettent pas de valider cette
invariance totale ? Si le chercheur peut trouver une justification théorique,
n’est-il pas préférable, et scientifiquement intéressant, d’accepter cette inva-
riance partielle et de continuer à explorer les données afin de tester d’autres
aspects de l’invariance ? Bien évidemment, la réponse qui vient à l’esprit est
affirmative. Néanmoins, quelle est la réelle validité des résultats issus d’un
modèle qui a été modifié en fonction des données ? Ainsi, pour que l’inva-
riance (métrique et/ou scalaire) partielle soit acceptable, il est non seulement
souhaitable que les contraintes relâchées soient toutes justifiées et que leur
nombre soit le plus faible possible, mais il serait également nécessaire de
reproduire l’étude dans les mêmes conditions auprès de nouveaux échan-
tillons 6.
Ainsi, ce n’est qu’à partir du moment où le test 1 a été validé ou, s’il n’a pas
été validé, que les tests 2 à 4 ont été validés (au moins partiellement pour les
tests 3 et 4) que l’on pourra aller plus loin dans l’étude de l’invariance, selon
les objectifs de l’étude 7. Trois possibilités s’offrent alors au chercheur :
e) Tester l’invariance de la variance unique (test 6), afin de prolonger l’étude
de l’invariance de la mesure, imposant comme contrainte l’égalité entre les
groupe (ou d’une période à l’autre) de la variance des erreurs. Par définition,
les variances uniques des indicateurs sont indépendantes (i.e. non corrélées)
et la matrice Θδ est donc diagonale. Néanmoins, dans le cas des études longi-
tudinales, il est possible (parfois même probable) que certains indicateurs
covarient d’une période à l’autre (Chan, 1998). Dans ce cas on testera une
matrice non diagonale (les covariances sont hors diagonale), afin de contrôler
l’effet propre de chaque indicateur. Il est alors nécessaire d’imposer comme
contrainte supplémentaire l’égalité des covariances uniques entre indicateur
pour deux périodes successives (Willett et Sayer, 1994).
f) Tester l’invariance des variances des variables latentes (facteurs) (test 7),
afin de voir si la variabilité des construits est stable (la variance d’un facteur
représente la dispersion de ce facteur). Si c’est le cas, les individus utilisent
une amplitude similaire sur le construit, en répondant au indicateurs qui le
mesurent (pas de changement beta, cf. section 2.1). Sinon, plus la variance
est élevée, plus cette amplitude est grande. Après la validation de ce test,
deux choix s’offrent au chercheur :
– Effectuer le test précédent d’invariance de la variance unique (test 6), afin
de tester l’invariance de la fiabilité des indicateurs (le test 7 est alors une
condition nécessaire) ;
– Tester l’invariance des covariances entre les facteurs (test 8), afin de tes-
ter la présence de changement de type gamma (s’il y a bien invariance con-
figurationnelle — cf. : section 2.1) 8. En effet, si le concept est équivalent
au sein de chacun des groupes (i.e. les individus monopolisent le même
cadre de référence pour répondre aux questions), les relations entre facteurs
ne devraient pas changer. En revanche, si ce n’est pas le cas, on peut
s’attendre à ce que ces relations soient différentes d’un groupe à l’autre, non
6 On retrouve ici les mêmes problèmes posés par la possibilité d’introduire des covariances entre
les erreurs des indicateurs dans tout modèle d’équations structurelles (Roussel et al., 2002).
7 Vandenberg et Lance (2000) suivent en cela On retrouve ici la position d’Anderson et Gerbing
(1988) pour qui il est nécessaire de bien comprendre ce que l’on mesure, avant de tester les relations
entre ce qui a été mesuré. Ainsi, la démarche propose dans un premier temps de mesurer l’invariance
de mesure (relations entre les variables observées et les variables latentes), avant de tester l’inva-
riance structurelle (relations entre les variables latentes).
8 Certains auteurs utilisent le tests 7 puis 6 afin de tester l’égalité des inter-corrélations entre fac-
teurs, mais la justification d’une telle pratique reste peu claire (Vandenberg et Lance, 2000).
Invariance de la mesure 355
seulement quant à leur intensité, mais également en ce qui concerne les fac-
teurs en jeux dans les relations (Vandenberg et Self, 1993). On peut néan-
moins s’interroger sur l’apport réel de cette séquence de tests par rapport au
test de l’invariance configurationnelle (test 2) concernant le changement
gamma (cf. section 2.1). Au mieux, il y aura redondance (la validation de la
séquence ne fait que confirmer le test 2 sans apporter plus d’information, au
pire il y aura contradiction entre la séquence (tests 7 et test 8) et le test 2
et donc dans les conclusions que l’on peut en tirer. Or, le test de l’invariance
configurationnelle est bien plus fort que le reste et l’emporte donc (Vanden-
berg et Lance, 2000).
g) Tester la différence des moyennes latentes des facteurs. Il s’agit ici de tes-
ter non plus les qualités de la mesure, mais les différences entre groupes (ou
périodes) dans la mesure d’une ou de plusieurs variables latentes. Même si ce
test est très proche des méthodes classiques de comparaison des moyennes
(comme l’ANOVA), il a l’avantage de s’insérer dans une séquence qui oblige le
chercheur à vérifier l’invariance de la mesure, alors que très souvent les tests
de différence des moyennes par les méthodes classiques sont effectués par les
chercheurs sans qu’ils aient vérifié au préalable qu’ils comparent bien des cho-
ses comparables (i.e. qu’il y a bien un certain degré d’invariance de la mesure).
1.2 APPLICATION
Les données reprises ici sont tirées d’une étude sur l’effet du passage aux
35 heures sur les attitudes organisationnelles (Dumas et al., 2002). 289 salariés d’une
grande mutuelle régionale de l’ouest de la France (environ 1200 salariés) ont répondu
à deux reprises (avant le passage aux 35 heures et 18 mois après, cf. tableau 13.1) à
un questionnaire comprenant sept échelles d’attitudes, chacune mesurant un ou plu-
sieurs phénomènes (implication au travail, dans l’emploi, dans l’organisation, le con-
flit travail-famille, etc.). Le premier recueil des données a été effectué peu de temps
avant la conclusion de l’accord sur les 35 heures, tandis que le second a eu lieu
18 mois après le passage aux 35 heures. L’objectif général était d’évaluer les change-
ments d’attitudes liés à la réduction du temps de travail 9.
356
Test de l’invariance / équivalence de la mesure Test de différence entre groupes
supplémentaires
d’invariance
à mener
Oui
Σ(1) = Σ(2)
Non Non Non
Non Invariance
Relâcher des Relâcher des partielle
contraintes contraintes Invariance des
variances uniques Option B
Θδ(1) = Θδ(2)
Oui Oui Invariance Oui Homogénéité
Invariance Invariance
des variances
partielle partielle partielle Oui uniques
Nb salariés Nb de Taux de
Questionnaires Nb de réponses Tx de réponses
destinataires rép. utilisables rép. utilisables
1.2.1 Procédure
Il s’agit tout d’abord, dans une étape préliminaire, de tester l’invariance des
matrices de covariances (modèle M0). On s’intéresse ici non pas à la structure pro-
prement dite de l’échelle, mais seulement à la matrice de variances / covariances.
Autrement dit, ce modèle est composé d’autant de variables latentes qu’il y a de
variables observées (chaque item est associé à un seul facteur et réciproquement ;
9 En fait, 965 réponses (926 exploitables) ont été obtenues sur au moins une des deux vagues,
avec 318 individus (289 réponses exploitables) ayant répondu aux deux vagues (tableau 13.1).
10 En fait, l’objectif est d’étudier si il existe, à une période donnée, des différences d’attitudes dans
les trois sous-groupes homogènes de salariés. Mais avant de pouvoir tester la possible existence de
ces différences, il est nécessaire de vérifier que les concepts mesurés dans chacun des ces groupes
sont comparables.
358 Études longitudinales et comparaisons entre groupes
11 Il suffit de spécifier que la matrice des relations entre variables latentes est une matrice identité
et que la matrice des résidus de variances / covariances est nulle. Autrement dit, en l’absence des
contraintes supplémentaires exposées, il s’agit de ce que l’on appelle communément le « modèle
nul ».
Invariance de la mesure 359
12 Cette dernière contrainte n’a de sens que pour un test longitudinal et en aucun cas pour un test
multi-groupes.
13 En fait, dans tout modèle d’équations structurelles, chaque fois que l’on a une ou plusieurs varia-
ble(s) observée(s) régressée(s) par rapport à une variable latente, il faut fixer un des coefficient de
régression à 1. S’il y a plusieurs variables observées dans la régression (cas de la relation entre une
variable latente et les divers items qui la mesurent), on choisit arbitrairement le coefficient qui va
être fixé ; s’il n’y a qu’une variable observée (cas de la relation entre un item et son erreur) alors la
relation est fixée à 1.
14 Cette variable V999 est propre au logiciel EQS et sert uniquement à indiquer que l’on travaille sur
les moyennes latentes. Elle n’intervient nullement dans le calcul des coefficients de régression entre
les variables (latentes et / ou observées). Néanmoins, elle n’est que quasi transparente car sa pré-
sence transforme les variables latentes (ou facteurs) qui sont régressées, d’un statut de variables
exogènes en variables endogènes (nous verrons plus loin les conséquences pratiques de cette modi-
fication).
360 Études longitudinales et comparaisons entre groupes
15 Dans un modèle d’équations structurelles, tout lien inexistant est en fait un lien dont la valeur
est contrainte à 0.
16 En fait, Chan propose une démarche assez proche, mais moins complète que celle de Vandenberg
et Lance puisqu’il ne mène pas l’ensemble des tests proposés par Vandenberg et Lance.
Invariance de la mesure 361
ψ21
D2
σ12 σ22
F1 F2
µ1 = 0 µ2
λ11 = 1 λ21 λ31 λ41 λ51 λ12 = 1 λ22 λ32 λ42 λ52
V11 V21 V31 V41 V51 V12 V22 V32 V42 V52
τ11 = a τ21 τ31 τ41 τ51 τ12 = a τ22 τ32 τ42 τ52
1 1 1 1 1 1 1 1 1 1
E11 E21 E31 E41 E51 E12 E22 E32 E42 E52
ε11 ε21 ε31 ε41 ε51 ε12 ε22 ε32 ε42 ε52
17 La variable V999 a été omise de la représentation graphique pour faciliter la lecture. Néanmoins,
la variable latente F2 a un statut endogène, d’où la covariance entre sa perturbation et la variable
latente F1 pour mesurer la covariance entre les deux facteurs.
362 Études longitudinales et comparaisons entre groupes
Base de
Test d’invariance Modèle χ2 ddl ∆χ2 ∆ddl Sign. RMSEA NNFI CFI
comparaison
Des covariances entre facteurs M6 M6–M5 63,911 46 15,336 2 S 0,037 0,994 0,996
Notes :
LMACS = longitudinal mean and covariance structures analysis.
M0 = pas de structure factorielle (1 item = 1 indicateur), égalité des variances des facteurs et des covariances entre facteurs ; M1 =
structure factorielle fixée + contributions factorielles, variances des facteurs et des erreurs, moyennes des facteurs et des indicateurs et
covariances entre facteurs libres ; M2 = structure factorielle + égalité des contributions factorielles fixées + variances des facteurs et des
erreurs, moyennes des facteurs et des indicateurs et covariances entre facteurs libres ; M3 = structure factorielle + égalité des contribu-
tions factorielles et des moyennes des indicateurs fixées + variances des facteurs et des erreurs, moyennes des facteurs et covariances
entre facteurs libres ; M4 = structure factorielle + égalité des contributions factorielles et des moyennes des indicateurs et des facteurs
fixées + variances des facteurs et des erreurs et covariances entre facteurs libres ; M5 = structure factorielle + égalité des contributions
factorielles, des moyennes des indicateurs et des variances des facteurs fixées + variances des erreurs, moyennes des facteurs et cova-
riances entre facteurs libres ; M6 = structure factorielle + égalité des contributions factorielles, des moyennes des indicateurs, des
variances des facteurs et des covariances entre facteurs fixées + variances des erreurs et moyennes des facteurs libres ; M7 = structure
factorielle + égalité des contributions factorielles, des moyennes des indicateurs, des variances des facteurs et des erreurs fixées +
moyennes des facteurs et covariances entre facteurs libres.
RMSEA = root mean square error of approximation (Steiger, 1990), NNFI = nonnormed fit index (Bentler and Bonnett, 1980) ; CFI =
comparative fit index (Bentler, 1990).
S / NS : Différence de chi-deux significative / non significative avec p < 0,05.
18 Implication au travail : relation qu’entretient l’individu d’une part avec le travail en général
(implication dans le travail) et, d’autre part, avec son emploi en particulier (implication d’ans
l’emploi) (échelle adaptée de Kanungo (1982).
364 Études longitudinales et comparaisons entre groupes
L’analyse de la variance peut être une fin en soi lors d’une recherche ou simple-
ment une étape préliminaire mais essentielle à la mise en évidence du changement
possible d’une variable dans le temps et à l’étude de sa nature et de ses effets.
19 Ce résultat peut paraître surprenant compte tenu du fait que les contributions factorielles et les
moyennes des indicateurs sont invariantes d’un groupe à l’autre. Cela provient d’une erreur commu-
nément faite qui voudrait que le modèle soit formatif (les facteurs sont le produit des indicateurs),
alors que conceptuellement, les méthodes d’équations structurelles procèdent inversement sous la
forme d’un modèle réflexif. Par exemple, dans le cas d’une variable latente (F1) mesurée par trois
indicateurs (V1, V2 et V3) :
Pour un modèle formatif on a une équation : F1 = λ1.V1 + λ2.V2 + λ3.V3 + D1
Pour un modèle réflexif on a trois équations : V1 = λ1.F1 + E1
V2 = λ2.F1 + E2
V3 = λ3.F1 + E3
366 Études longitudinales et comparaisons entre groupes
20 L’interprétation d’un tel changement est délicate : son origine peut se trouver dans l’échelle de
réponse proposée qui est ambiguë et mérite d’être améliorée ; mais on peut également envisager que
l’échelle de valeur utilisée pour répondre a évolué au fil du temps ou n’est pas la même d’un groupe
à l’autre (par exemple quand on interroge des adhérents d’une association sur leur fréquentation du
local de l’association, la réponse « souvent » n’a pas la même signification selon qu’on est un mem-
bre très actif ou simple adhérent). Si l’on a réussi à interpréter ce changement et si sa nature est
acceptable, il est possible de le contrôler en grande partie en libérant une partie des contraintes.
L’étude du changement des attitudes 367
21 L’interprétation d’un tel changement est encore plus délicate : peut-être assiste-t-on à une
mutation du concept, peut-être est-on face à un artefact en T1 ou en T2, peut-être l’instrument est-
il de qualité médiocre, ou que le concept est mal défini ou encore peut-être n’est-il pas pertinent.
Seule la réflexion de la communauté scientifique et des études plus fines aideront à comprendre le
phénomène.
22 On pourrait considérer que le changement bêta correspond non seulement à la non-invariance
métrique, mais aussi à la non-invariance scalaire, mais cela est discutable compte tenu des remar-
ques faites précédemment à propos de l’invariance métrique.
368 Études longitudinales et comparaisons entre groupes
un changement alpha. Plus précisément, une fois un changement alpha repéré pour la
variable A et sa forme déterminée, il peut être souhaitable d’étudier séparément :
■ l’effet de la variable B mesurée en T1 sur la variable A mesurée entre T1 et Tn,
en dissociant :
– d’une part l’effet de B sur le niveau initial de A (i.e. : en T1) et,
– d’autre part, l’effet de B sur le changement de la variable A (i.e. :entre T1 et
Tn) ;
■ l’effet de la variable A mesurée entre T1 et Tn sur la variable C mesurée en Tn,
toujours en dissociant :
– d’une part l’effet du niveau initial de A sur le C et,
– d’autre part, l’effet du changement de la variable A sur C ;
Il est bien entendu possible de croiser ces deux démarches si l’on a affaire à
deux variables A et C connaissant chacune un changement alpha. On peut alors étu-
dier en outre l’effet du changement de A sur le changement de C (voir exemple déve-
loppé ci après).
2.2 APPLICATIONS
2.2.1 Mise en évidence de l’existence d’un changement alpha
et forme de ce changement : les modèles de croissance
Comme nous venons de le dire, il y a une correspondance entre type de chan-
gement et test de l’invariance : changement gamma et non-invariance configuration-
nelle, changement bêta et non-invariance métrique, changement alpha et non
invariance des moyennes latentes. Ainsi, si l’objectif de l’étude est la simple mise en
évidence d’un changement alpha, l’utilisation des modèles LMACS est suffisante. On
se reportera à l’exemple précédent (section 1.2.2.) pour un exemple de mise en
œuvre 23. Si en revanche, l’objectif est également de déterminer la forme de ce chan-
gement, il est nécessaire d’adjoindre aux modèles LMACS une autre stratégie issue
elle aussi des modèles d’équations structurelles : les modèles de croissance.
Une fois que l’on a pu établir l’invariance de la mesure par les modèles LMACS,
on peut tester en confiance la réalité du changement qu’a pu connaître la variable 24.
En effet, si l’on mesure maintenant un changement on peut en conclure qu’il s’agit
d’un changement quantitatif du même construit. Nous nous proposons de suivre la
méthode proposée par Chan (1998) appelée analyse de modèle de croissance latente
à indicateurs multiples (multiple indicator latent growth modeling analysis ou MLGM).
Comparée à l’analyse longitudinale des moyennes et des structures de cova-
riances utilisée dans la section précédente, cette méthode présente plusieurs particu-
23 Bien que l’exemple concerné porte sur une comparaison entre groupes et non sur une étude lon-
gitudinale, la procédure demeure la même.
24 En fait ici, on se limitera aux 4 premières étapes présentées dans la première section. Il suffit de
se prémunir contre l’existence d’un changement gamma et d’un changement bêta. L’existence d’un
changement alpha et sa forme vont alors être testés par les modèles de croissance.
L’étude du changement des attitudes 369
larités (figure 13.3) dont la principale est l’introduction de deux variables latentes de
second ordre :
■ Le « niveau initial » permet d’appréhender la moyenne et la variance de
l’ensemble des valeurs à l’origine de la courbe de croissance de chaque
individu ; la moyenne de ce niveau initial représente donc la valeur moyenne
de la variable latente de premier ordre en T1. Elle permet de contrôler ce
niveau initial à toutes les périodes de mesure.
■ Le « changement » permet d’appréhender la moyenne et la variance de
l’ensemble des coefficients directeurs de la courbe de croissance de chaque
individu ; la moyenne de ce changement représente donc la variation de la
variable latente de premier ordre entre Ti et Ti+1.
Dans la pratique, il faut fixer à 1 l’ensemble des coefficients de régression du
« niveau initial » vers la variable latente quelle que soit la période considérée (le
« niveau initial » demeure constant pour tous les individu au cours du temps), tandis
que pour modéliser le changement linéaire dans le temps de la variable latente, les
coefficients de régression de la « variation » vers la variable latente doivent être fixés
à 0 en T1, à 1 en T2, à 2 en T3, à 3 en T4, etc 25. Bien entendu, ces valeurs ne sont
valables que si l’intervalle entre chaque période est identique. Si ce n’est pas le cas, il
faut recalculer les coefficients afin qu’ils rendent compte du véritable écart de temps
entre chaque période 26.
Une autre différence avec l’analyse longitudinale des moyennes et des structu-
res de covariances réside dans le fait que ce qui nous intéresse ici ce sont les moyen-
nes de la « constante », de la « variation » et le cas échéant de la « variation
quadratique », mais en aucun cas ni la moyenne des variables latentes de premier
ordre, ni celle des indicateurs.
Enfin, il faut noter que, pour une analyse d’un modèle de croissance latente à
indicateurs multiples, il est nécessaire de tenir compte de l’invariance de la mesure et
des contraintes qui y sont rattachées. D’où, sur la figure 13.3, l’imposition de l’égalité
au cours du temps des contributions factorielles des indicateurs ; la contrainte d’éga-
lité au fil du temps des moyennes des indicateurs n’est pas indiquée, mais elle est
présente. Par ailleurs, si d’autres formes plus strictes d’invariance ont été validées, il
faut conserver ici les contraintes correspondantes.
Dans notre exemple, nous allons étudier l’évolution sur 2 périodes de temps de
4 variables : soutien organisationnel perçu, satisfaction au travail, engagement dans
le travail et implication organisationnelle affective. Dans tous les cas, nous avons
vérifié l’invariance de chacune des mesures avant et après le passage aux 35 heures,
donc l’absence de changement gamma et de changement bêta. Nous nous intéressons
maintenant à l’existence d’un changement alpha et, si oui, à sa nature.
Pour vérifier si un modèle de croissance est plausible nous suivons la même
stratégie que celle qui est adoptée pour l’établissement d’invariance de mesure avec
les modèles LMACS en comparant les modèles nichés mais dans l’ordre inverse.
Le premier modèle, utilisé comme modèle de référence, assure qu’il n’y a pas
de croissance dans le temps (stricte stabilité). Cela signifie qu’il n’y aurait qu’un seul
facteur latent de second ordre, le niveau initial (Stoolmiller et al., 1995), puisque
pour spécifier l’absence de changement on fixe tous les coefficients de régression du
facteur de second ordre (i.e : le changement) à 0 (on fait donc comme si ce facteur
de second ordre n’existait pas).
Le second modèle présume un modèle de croissance linéaire, avec des coeffi-
cients de régression du facteur de second ordre « changement » fixés linéairement
(voir note 22).
Contrairement au test d’invariance de la mesure, le premier modèle est ici testé
en second, puisque c’est un modèle plus contraint. On peut imaginer un troisième
modèle avec une forme quadratique, ou toute autre forme de changement, qui intè-
grerait les modèles 1 et 2.
Puisque que nous avons seulement 2 variables mesurées à deux périodes, les
modèles 2 et 3 seront exactement les mêmes (12 = 1). Ainsi une différence du chi-
deux significative (au regard de la différence des degrés de liberté) indiquera l’exis-
tence d’un effet de croissance (tableau 13.4).
Pour trois des échelles (SOP, ST et IO), le modèle 2 non seulement ajuste les
données correctement mais aussi représente une amélioration significative de l’ajus-
tement (i.e. : réduction du chi-deux). La moyenne de la valeur initiale indique que en
moyenne un individu commence à la période 1 avec un score de 2,853 (soutien),
3,745 (satisfaction) et 3,610 (implication), tandis que la moyenne significativement
positive du changement indique qu’en moyenne les individus ont leur niveau d’atti-
tude qui a augmenté respectivement de 1,861 (soutien), 0,076 (satisfaction) et 0,050
(implication) entre chaque période, ici au nombre de deux (ce sont respectivement
les moyennes des facteurs latents de second ordre niveau initial, puis changement,
i.e. : µ4 et µ5 de la figure 13.3). De plus la variance de chaque niveau initial est tou-
jours significative (0,497 pour le soutien, 0,502 pour la satisfaction et 0,605 pour
l’implication affective), comme la variance de chaque changement (0,322 pour le sou-
L’étude du changement des attitudes 371
σ54
µ4 µ5
σ42 σ52
F4 F5
Niv. initial Changement
1 0
1 1 1 2
D1 D2 D3
F11 – T F22 – T F33 – T
1 1 1 1 1 1 1 1 1 1 1 1
E11 E21 E31 E41 E12 E22 E32 E42 E13 E23 E33 E43
tien, 0,361 pour la satisfaction et 0,266 pour l’implication affective) (ce sont respec-
tivement les variances des facteurs latents de second ordre « niveau initial », puis
« changement », i.e. : σ42 et σ52 de la figure 13.3). Cela signifie que tous les indivi-
dus n’ont pas le même niveau initial et ne connaissent pas le même niveau de pro-
gression du soutien, de la satisfaction et de l’implication affective (tableau 13.5),
sinon les variances seraient nulles ou proches de 0.
27
Nous pouvons dès lors conclure qu’entre les deux périodes il y a eu un change-
ment positif significatif du soutien, de la satisfaction et de l’implication affective
pour les individus, alors qu’il n’y a eu aucun changement significatif de l’engagement
dans le travail.
27 Les 2 facteurs latents de second ordre servent à estimer la moyenne et la variance du niveau ini-
tial et du changement du facteur latent de premier ordre au cours des trois périodes. C’est pour cela
que tous leurs coefficients de régression sont fixés et non estimés librement.
372 Études longitudinales et comparaisons entre groupes
Base de
Modèle χ2 ddl ∆χ2 ∆ddl NNFI 2 CFI RMSEA
comparaison 1
S / NS : p < 0,1.
Nous avons testé deux modèles (figures 13.4 et 13.5) chacun spécifiant une
relation entre le niveau initial du soutien organisationnel et (1a) le niveau initial et
(1b) le changement de la satisfaction au travail (premier modèle) ou de l’implication
organisationnelle affective (second modèle), et une relation entre (2) le changement
du soutien organisationnel et le changement de la satisfaction au travail (premier
modèle) ou de l’implication organisationnelle affective (second modèle).
Les deux modèles ont un ajustement acceptable aux données, compte tenu du
nombre très élevé de degré de liberté (tableau 13.6) et toutes les variables dépen-
dantes sont assez bien expliquées puisque leur r2 est élevé pour la satisfaction au tra-
vail (0,622 pour le niveau initial et 0,518 pour le changement) et modérément élevé
pour l’implication organisationnelle affective (0,333 pour le niveau initial et 0,224
pour le changement).
Base de
Modèle χ2 ddl ∆χ2 ∆ddl NNFI CFI RMSEA
comparaison 1
Soutien Satisfaction
.524
organisationnel au travail r2 = .622
initial initiale
–.133
.387 .353
Les résultats reportés sur la figure 13.4 montrent que le niveau initial du sou-
tien organisationnel a une relation positive avec le niveau initial de la satisfaction
dans l’emploi mais une relation négative avec le changement de la satisfaction dans
le travail. Ceci signifie que les individus ayant les plus hauts niveaux initiaux de sou-
tien organisationnel, ont également les plus hauts niveaux initiaux de satisfaction au
travail, mais les personnes ayant un haut niveau initial de soutien organisationnel
auront une moindre augmentation de leur satisfaction que ceux ayant un plus faible
niveau initial de soutien 29. Par ailleurs, la relation positive entre le changement de
soutien et le changement de la satisfaction au travail montre que plus le soutien
perçu par les individus augmente, plus leur satisfaction augmente.
La même conclusion peut être tirée pour le lien entre le soutien et l’implica-
tion organisationnelle, excepté que la relation entre le niveau initial du soutien et le
changement de l’implication affective, bien qu’étant négative, n’est pas significative.
Ceci signifierait, si la relation était statistiquement significative, que plus le soutien
est élevé et moins l’augmentation de l’implication affective est importante
(figure 13.5).
29 Le coefficient négatif peut s’interpréter comme nous venons de la faire (i.e. : moindre augmenta-
tion) ou plus radicalement comme une diminution pour ceux qui ont un niveau initial de soutien
fort. Pour trancher, il suffit de vérifier spécifiquement sur les individus qui ont un niveau initial de
soutien fort s’il y a eu une augmentation ou une diminution de leur satisfaction (calcul d’une
moyenne simple pour chacune des périodes à l’aide n’importe quel logiciel d’analyse de données).
Néanmoins, le test du changement effectué dans la section précédente nous indique qu’une moindre
augmentation est plus probable qu’une diminution (ce qui est confirmé par le calcul des moyennes
sous SPSS).
Conclusion 375
Soutien Implication
.387
organisationnel organisationnelle r2 = .333
initial initiale
–.057 (ns)
.416 .269
3. Conclusion
C’est pourquoi, nous avons souhaité dans ce chapitre proposer une réponse au
problème de l’analyse des données longitudinales, en proposant non seulement une
démarche méthodologique rigoureuse en trois temps, mais également en présentant
une méthode d’analyse intégrée à partir des modèles d’équations structurelles parti-
culiers et adaptés à chacune des séquences 31 :
30 Nous rappelons que le recours aux modèles d’équations structurelles dans une étude transversale
ne permet en aucune manière d’établir des relations causales, seulement des relations de dépendance
linéaire. Pour qu’un lien de causalité entre deux variables soit établi, il faut que trois critères soient
remplis : (a) les deux variables doivent covarier, (b) la relation ne doit pas être attribuable à une ou
plusieurs autres variables et doit persister même lorsque cette ou ces variables sont contrôlées et,
enfin, (c) la « variable cause » supposée doit être antérieure (ou au moins simultanée) à la
« variable conséquence ». Une étude transversale permet de vérifier facilement les deux premiers cri-
tères, mais pas le troisième. Au mieux, le chercheur peut tenter de justifier l’enchaînement causal.
Néanmoins, seule une étude longitudinale permettra de valider réellement ce critère.
376 Études longitudinales et comparaisons entre groupes
La principale limite rencontrée pour mener une étude longitudinale réside dans
l’extrême lourdeur de mise en œuvre (mesurer au moins deux fois, et de préférence
plus de deux fois, un phénomène auprès des mêmes individus). À cette contrainte
s’ajoute le risque de faire face à un changement gamma qui rendraient les données
inexploitables.
Par ailleurs, nous avons tenté de faire apparaître la tension qui existe en per-
manence entre désir d’invariance de la mesure et besoin de mettre en évidence un
changement ou des différences. Il nous semble qu’une voie de recherche fructueuse
réside dans l’affinement de la compréhension des sources de non-variance (mise en
évidence, distinction entre changement inter-individuel et intra-individuel, et inter-
prétation). Cela représenterait une aide pour le chercheur d’autant plus précieuse que
c’est à lui de déterminer, en connaissance de cause, le degré de non-invariance qu’il
est prêt à accepter. Ici encore le recours aux modèles d’équations structurelles pour-
rait, sans exclure d’autres méthodes, s’avérer très utile.
Bibliographie
Alis D., Dumas M. et Campoy E. (2004), « Analyse des impacts d’un accord d’aménage-
ment — réduction du temps de travail (ARTT) à 35 heures sur l’implication et la
satisfaction des salariés — le cas de la “Mutuelle de l’Ouest” ». Rapport d’étude
DARES.
Allen N.J. et Meyer J.P. (1990), « The measurement and antecedents of affective, conti-
nuance and normative commitment to the organization », Journal of Occupational
Psychology, 63, 1-18.
Alwin D.F. et Jackson D.J. (1981), « Applications of simultaneous factor analysis to
issues of factor invariance ». In Jackson D.J. et Borgatta E.F. (dir), Factor analysis
and measurement in sociological research. Beverly Hills, CA, Sage, 249-279.
Anderson J.C. et Gerbing D.W. (1988), « Structural equation modeling in practice : a
review and recommended two-step approach ». Psychological Bulletin, 103, 411-423.
Bagozzi R.P. et Edwards J.R. (1998), « A general approach for representing constructs
in organizational research ». Organizational Research Methods, 1, 45-87.
31 Le principe présenté dans chacune de ces séquences peut trouver de multiples autres applica-
tions, en particulier grâce à la souplesse des méthodes d’équations structurelles. Nous avons par
exemple commencé à montrer en quoi le test de l’invariance de la mesure permet d’effectuer une
analyse multi-groupes. On pourrait bien entendu prolonger cette analyse multi-goupes afin de déter-
miner de façon plus fine l’origine des différences entre les groupes. On peut par ailleurs croiser les
applications, par exemple mener une analyse multi-groupes longitudinale (Alis, Dumas, Campoy,
2004).
Bibliographie 377
Bentler P.M. (1990), « Comparative fit indexes in structural models ». Psychological Bul-
letin, 107, 238-246.
Bentler P.M. et Bonnett D.G. (1980), « Significance tests and goodness of fit in the
analysis of covariance structures ». Psychological Bulletin, 88, 588-606.
Bollen K.A. (1989), Structural equations with latent variables. New York, Wiley and Sons.
Cole D.A. et Maxwell S.E. (1985), « Multitrait-multimethod comparisons across
populations : a confirmatory factor analytic approach ». Multivariate Behavioral
Research, 20, 389-417.
Drasgow F. et Kanfer R. (1985), « Equivalence of psychological measurement in hetero-
geneous populations ». Journal of Applied Psychology, 70, 662-680.
Dumas M., Alis D., Joyeau A. et Campoy E. (2002), « Analyse des impacts d’un accord
d’aménagement — réduction du temps de travail (ARTT) à 35 heures sur l’implication
et la satisfaction des salariés — le cas de la “Mutuelle de l’Ouest” ». Rapport d’étude
DARES.
Eisenberger R., Huntington R., Hutchinson S. et Sowa D. (1986), « Perceived organiza-
tional support », Journal of Applied Psychology, 71, 500-507.
Golembiewski R.T. (1986), « Contours in social change : Elemental graphics and a surro-
gate variable for gamma change ». Academy of Management Review,. 3, 550-566.
Golembiewski R.T. (1989), « The alpha, beta, gamma change typology. Perspectives on
acceptance as well as resistance ». Group et Organization Studies, 14, 150-154.
Golembiewski R.T., Billingsley K. et Yeager S. (1976), « Measuring change and persis-
tence in human affairs : Types of change generated by OD designs ». The Journal of
Applied Behavioral Science, 12, 133-157.
Horn J.L. et McArdle J.J. (1992), « A practical and theoretical guide to measurement
invariance in aging research ». Experimental Aging Research, 18, 117-144.
Jöreskog K.G. (1971), « Simultaneous factor analysis in several populations ». Psycho-
metrika, 36, 409-426.
Kanungo R.N. (1982), « Measurement of job and work involvement », Journal of Applied
Psychology, 67, 341-349.
MacCallum R.C. et Tucker L.R. (1991), « Representing sources of error in the common-
factor model : implications for theory and practice ». Psychological Bulletin, 109,
501-511.
Marsh H.W. (1994), « Confirmatory factor analysis models of factorial invariance : a
multifaceted approach ». Structural Equation Modeling, 1, 5-34.
Reise S.P., Widaman K.F. et Pugh R.H. (1993), « Confirmatory factor analysis and item
response theory : two approaches for exploring measurement invariance ». Psycholo-
gical Bulletin, 114, 552-566.
Roussel P. (1996), Rémunération, motivation et satisfaction au travail, Paris : Econo-
mica.
Roussel P., Durrieu F., Campoy E. and El Akremi A. (2002), Méthodes d’équations
structurelles : recherché et applications en gestion. Paris, Economica.
Steiger J.H. (1990), « Some additional thoughts on components, factors, and factor
indeterminacy ». Multivariate Behavioral Research, 25, pp. 41-45.
Stoolmiller M., Duncan T.E. and Patterson G.E. (1995), « Predictors of change in antiso-
cial behavior during elementary school for boys ». In Hoyle R.H. (ed), Structural
equation modeling : concepts, issues, and applications. Thousand Oaks, CA, Sage, 236-
253.
378 Études longitudinales et comparaisons entre groupes
L’analyse typologique :
de l’exploratoire au confirmatoire
François DURRIEU 1, Pierre VALETTE-FLORENCE 2
Sommaire
2 L’implication organisationnelle :
essai de typologies exploratoire et confirmatoire 388
4 Conclusion 401
Effectifs Effectifs
Addidas 60 Kenzo 65
Benetton 60 Levis 124
Boss 40 Newman 60
Celio 65 Oxbow 70
Chevignon 50 Petit Bateau 61
Dior 59 Quick Silver 60
Edenpark 60 Zara 60
Etam 60
TABLEAU 14.1 – Les marques de l’échantillon
3 Promax est une méthode de rotation oblique. Nous utilisons deux méthodes de rotation pour voir
si notre structure factorielle ne dépend pas de la méthode.
Essai de typologie exploratoire : le cas de la personnalité de marque 383
Échelle Échelle
anglo-saxonne allégée française
Sincérité Sincérité
Sincérité stricto
Convivialité
Compétence Convivialité
Qualités réelles
Reconnaissance
Dynamisme Dynamisme
Féminité Féminité
Robustesse Robustesse
individus est fondée sur la méthode des nuées dynamiques (K-means). Celle-ci pose le
problème du choix du nombre de groupes car elle nécessite de fixer le nombre de
catégories permettant de départager la population étudiée. Techniquement, cette
méthode consiste à calculer N centres de gravités (moyennes des valeurs des variables
pour tout individu composant la classe) et à classer ces individus par rapport à leur
proximité de ces centres.
Composante
1 2 3 4 5
Sincère 0,873
Honnête 0,853
Vrai 0,830
Saine 0,717
Charmante 0,768
Féminine 0,745
Douce 0,691
Séduisante 0,689
Élégante 0,641
Branchée 0,763
Audacieuse 0,762
Imagination 0,733
Moderne 0,704
Intelligente 0,694
Technique 0,691
Consciencieuse 0,620
Solide 0,926
Robuste 0,915
TABLEAU 14.2 – Dimensions de la personnalité de la marque.
4 La fonction discriminante est une combinaison linaire de variables qui permettent de discriminer
les groupes de la classification.
Essai de typologie exploratoire : le cas de la personnalité de marque 385
cela, il faut sauvegarder les centres de classes en cliquant sur le bouton « centre »,
en sélectionnant le champ « écrire » et en cliquant sur « fichier ». Le fichier de sau-
vegarde des centres est appelé « centre.sav ». Puis, il faut cliquer sur le bouton
« OK ». Nous devons, comme indiqué précédemment, reclasser les individus du pre-
mier groupe (au nombre de 85). Il faut revenir dans le fichier « centre.sav » où nous
supprimons la première ligne. Ce fichier contient une première colonne qui s’appelle
« cluster » où apparaît le numéro du groupe ainsi que le score moyen par groupe des
dimensions de la personnalité. En supprimant la première ligne, nous devons renom-
mer les autres lignes de cette colonne (2 → 1, 3 → 2, etc.). Puis nous revenons au
fichier de données « vêtement.sav ». Nous sélectionnons les mêmes variables. Puis
nous choisissons le nombre de groupes de départ en écrivant 7 dans le champ
« Nombre de classes ». Nous choisissons l’option « classer seulement ». Pour cela, il
faut lire les centres en cliquant sur le bouton « centre », en sélectionnant le champ
« lire » et en cliquant sur fichier « centre.sav ». Au bout de cinq itérations, nous
obtenons les résultats suivants (tableaux 14.3 et 14.4).
Classe
1 2 3 4
sincérité ,86938 –,34632 ,26967 –,84173
féminité –,47372 1,03393 ,21613 –,69903
dynamisme ,06171 ,32024 –,05728 –,30456
compétence ,55124 ,04987 –,97224 ,37269
robustesse –,16293 ,47966 –,58925 ,31592
TABLEAU 14.3 – Valeurs moyennes par groupe des dimensions de la personnalité
Classe 1 235,000
2 214,000
3 232,000
4 229,000
2 0 98 0 2
3 5 4 113 7
4 3 1 5 101
chevignon kenzo
compétence quick silver dynamisme
addidas
oxbow etam
newman benetton
Les résultats de l’ACP montrent que le premier facteur est composé d’items
définissant l’implication affective (3 items sur quatre), le deuxième facteur est à la
fois composé d’items d’implication calculée (Q46 et Q49) et d’implication normative.
En revanche, l’ACP ne permet pas de définir des facteurs purement affectifs ou pure-
ment normatifs. Les dimensions de l’implication organisationnelles définies par la
théorie ne sont que partiellement retrouvées dans l’analyse factorielle. Cependant,
nous obtenons une structure que nous pouvons complètement justifier théorique-
ment. Cette situation est assez fréquente. Il est par conséquent intéressant de voir
comment poursuivre le travail d’analyse typologique en maintenant la construction
théorique initiale, non retrouvée ou partiellement avec l’ACP. Pour conduire cette ana-
lyse, il est nécessaire de recourir aux méthodes confirmatoires d’analyse factorielle
afin d’examiner s’il est raisonnable de maintenir la structure factorielle initiale du
concept.
390 L’analyse typologique : de l’exploratoire au confirmatoire
Je passerais bien volontiers le reste de ma vie professionnelle dans ce réseau de franchise. (Q45FIDEL)
Je ressens vraiment les problèmes de ce réseau comme s’ils étaient les miens. (Q48PROBL)
Implication (—) Je ne me considère pas comme un « membre de la famille » dans ce réseau. (Q52NEMB)
affective (—) Je ne me sens pas « affectivement attaché » à ce réseau. (Q56NATTA)
Ce réseau a pour moi beaucoup de signification personnelle. (Q60SIGNI)
(—) Je ne ressens pas un fort sentiment d’appartenance à ce réseau. (Q63PAPPA)
Il serait très difficile pour moi de quitter ce réseau en ce moment, même si je le voulais. (Q46QUITT)
Beaucoup trop de choses seraient dérangées dans ma vie si je me décidais à quitter ce réseau maintenant.
(Q49DERAN)
En ce moment, rester dans ce réseau est un problème qui relève autant de la nécessité que du désir.
Implication
(Q53NECES)
« calculée »
Je pense avoir trop peu de possibilités pour envisager de quitter ce réseau. (Q57PQUIT)
Une des conséquences négatives de mon départ de ce réseau serait le manque de solutions de rechange
possibles. (Q61RECHA)
Si je n’avais pas tant donné de moi-même à ce réseau, j’aurais pu envisager de travailler ailleurs. (Q64AILLE)
(—) Je ne ressens aucune obligation de rester avec mon franchiseur actuel. (Q66POBLI)
Même si c’était à mon avantage, je ne me sentirais pas le droit de quitter mon réseau maintenant.
(Q50DEVOI)
Implication J’éprouverais de la culpabilité si je quittais mon réseau maintenant. (Q54CULPA)
normative Le réseau mérite ma loyauté. (Q58LOYAU)
Je ne quitterai pas mon réseau pour le moment car j’éprouve un sentiment d’obligation envers les gens qui
en font partie. (Q62OBLIG)
Je dois beaucoup à mon réseau. (Q65BEAUC)
Si les valeurs de ce franchiseur étaient différentes, je ne serais pas aussi attaché à mon réseau. (Q47ATTACH)
Depuis que j’ai rejoint ce réseau, mes valeurs personnelles et celles du franchiseur sont devenues plus
similaires. (Q51VALEU)
La raison pour laquelle je préfère ce réseau aux autres s’explique par ce qu’il représente, par ses valeurs.
Internalisation
(Q55PREFV)
Mon attachement à ce réseau est essentiellement basé sur la similitude de mes valeurs avec celles qui
caractérisent le réseau. (Q59SIMIL)
Ce que ce réseau représente est important pour moi. (Q67IMPOR)
Composante
1 2 3 4
Q56 sens pas affectivement attaché réseau 0,739
Q52 pas membre de la famille dabs réseau 0,705
Q63 pas de sentiment d’appartenance 0,626
Q66 ne ressens pas obligation rester 0,607
46 difficile quitter réseau même si je voulais 0,783
Q50 ne me sens pas le droit quitter réseau 0,657
Q49 trop choses dérangées si quittais réseau 0,596
Q62 pas quitter car sentiment obligation 0,501
Q58 réseau mérite ma loyauté 0,706
Q67 réseau représente qqchose important pour moi 0,681
Q59 attachement basé sur similitude des valeurs 0,659
Q55 préférence pour réseau en raison de ses valeurs 0,640
Q64 si pas tant donné aurais pu travailler ailleurs 0,708
Q61 conséquences départ : pas de rechange possible 0,622
Q53 rester relève autant nécessité que désir 0,545
TABLEAU 14.7 – Les dimensions de l’implication organisationnelle
min si elle pourrait être la meilleure représentation du phénomène étudié. Les traite-
ments statistiques ont été effectués avec le logiciel EQS 6. Au préalable, il apparaît
que les dimensions de l’implication organisationnelle sont fortement corrélées comme
le montre le tableau 14.8.
Le niveau très élevé des corrélations entre les dimensions de l’implication con-
duit à considérer la réalisation d’une AFC de second ordre (Bagozzi, 1981). Celle-ci
consiste à tester un modèle théorique constitué d’une variable latente générique, en
l’occurrence l’implication, qui serait une représentation de quatre autres variables
latentes corrélées. La construction de ce modèle hiérarchique dit de second ordre
392 L’analyse typologique : de l’exploratoire au confirmatoire
ainsi que les coefficients des paramètres estimés sont présentés dans la figure 14.4.
La réalisation d’une AFC est expliquée dans le chapitre consacré au développement
d’échelles de mesure pour questionnaire. Seuls les résultats sont repris présentement
avec quelques explications complémentaires. Les critères de validité interne examinés
sont ceux des validités convergente et prédictive et de cohérence interne 5. Par
ailleurs, dans le but de tester la qualité des échelles et du modèle de mesure, une
analyse des indices d’ajustement 6 du modèle théorique aux données empiriques est
systématiquement effectuée.
L’indicateur de multinormalité des variables, le KURTOSIS multivarié normalisé
de Mardia (Mardia, 1974), est trop élevé car largement supérieur à 3. En raison du
manque de normalité des variables, il est impossible de faire confiance aux tests
d’ajustement et aux erreurs standards estimées par une méthode de maximum de vrai-
semblance. Il est nécessaire d’utiliser la méthode de correction des tests et des
erreurs standards. Cette méthode développée avec le logiciel EQS accepte les paramè-
tres estimés par le maximum de vraisemblance, mais corrige le Khi2 et d’autres indi-
ces d’ajustement comme IFI, NFI, NNFI, CFI et le RMSEA (Yuan et Bentler, 1998) et
les erreurs standards (Bentler et Dijkstra, 1985).
Puis, plusieurs itérations de l’AFC sont entreprises pour épurer les échelles en
vue d’obtenir une structure factorielle bien ajustée aux données empiriques. Les indi-
ces d’ajustement doivent être acceptables et le modèle de mesure doit garder un
nombre suffisant d’items pour chaque dimension. Les items ayant une contribution
factorielle inférieure à 0,4 sont éliminés. À l’issue des itérations, l’implication affec-
tive est seulement définie par deux items : « Je passerais bien volontiers le reste de
ma vie professionnelle dans ce réseau de franchise » et « Je ressens vraiment les pro-
blèmes de ce réseau comme s’ils étaient les miens ».
Les indices GFI, CFI, IFI, MFI, supérieurs à 0,90, et RMSEA, inférieur à 0,08,
révèlent un ajustement du modèle théorique aux données empiriques satisfaisant
(Encadré 14.1). Les indices proches mais inférieurs à 0,90 (AGFI, NFI, NNFI) signalent
que l’ajustement n’est toutefois pas excellent.
Les paramètres estimés de mesure et de structure sont tous statistiquement et
significativement différents de zéro (Figure 14.4). Le coefficient de cohérence interne
sur l’ensemble de l’échelle est de 0,85 montrant une bonne fiabilité d’ensemble de
l’échelle d’implication organisationnelle. Le R_ moyen est de 0,41 révélant une vali-
dité prédictive du phénomène d’implication chez les franchisés, somme toute accep-
table.
5 La validité convergente est établie quand chaque indicateur partage plus de variance avec son
construit qu’avec son erreur de mesure. La validité convergente de chaque paramètre estimé sera
vérifiée quand chaque contribution factorielle est statistiquement différente de zéro (Anderson et
Gerbing, 1988). La validité prédictive est vérifiée quand la moyenne des R2 est proche de 1. La fiabi-
lité de cohérence interne est assurée quand tous les indicateurs mesurent bien le même construit et
que les « loadings » (contributions factorielles) ont des valeurs comparables. C’est l’indicateur rhô,
« ρ » (Jöreskog, 1971), qui est utilisé pour mesurer la fiabilité de cohérence interne du construit.
6 Les indices GFI, AGFI de Joreskog, IFI de Boollen, NFI et NNFI de Bentler et Bonnet, CFI de
Bentler. doivent être proche de 0,9 et si possible supérieurs. Quant au RMSEA de Steiger, il est
recommandé d’obtenir un RMSEA inférieur à 0,08 pour être acceptable (Brown et Cudeck, 1993).
L’implication organisationnelle 393
ENCADRÉ 14.1
Les indices d’ajustement
0,53 Q46QUIT
0,60 Q49DERAN
0,41 Implication
Q53NECES
calculée
0,40 Q61RECHA
0,62 Q45FIDEL
Implication
affective 0,97
0,57 Q48PROBL
0,51 Implication
Q55PREFV
internalisation
0,55 0,93
Q59SIMIL
0,57 Q667IMP
0,64 Q50DEVOI
0,61 Q54CULPA
Implication
normative
0,54 Q62OBLIG
0,59 Q65BEAUC
Classe
1 2 3 4
Classe 1 146,000
2 234,000
3 180,000
4 143,000
(–18,47), les franchisés du groupe 4 sont les plus impliqués normativement (21,32)
et affectivement (15,25). L’interprétation du tableau 14.9 ne permet pas de différen-
cier les groupes selon le type d’implication. En effet, il n’y a pas de groupe plutôt
défini par l’implication affective, un autre plutôt défini par l’implication normative,
etc. Finalement, le seul résultat interprétable est celui d’un niveau d’implication plus
ou moins grand selon le groupe. Le premier n’est pas du tout impliqué, le deuxième
l’est, le troisième ne l’est pas et enfin le quatrième est très impliqué. Cette analyse
typologique ne parvient donc pas à générer des structures d’implication organisation-
nelle clairement différenciées pour chaque groupe de franchisés. Pour réaliser une
analyse typologique plus intéressante, c’est-à-dire pour déterminer les facettes
d’implication qui caractérisent chaque catégorie, la méthode classique des nuées
dynamiques révèle des insuffisances. Il est nécessaire de prolonger l’analyse typologi-
que par une étude confirmatoire. Celle-ci est fondée sur la méthode des modèles de
mélange.
7 Soit deux solutions S1 et S2, si AICS1 < AICS2, alors on choisira la solution S1. Le BIC s’interprète
de la même façon.
396 L’analyse typologique : de l’exploratoire au confirmatoire
8 La méthode consiste à retenir comme solution initiale les coefficients de l’échelle d’implication
de second ordre générés par l’analyse factorielle confirmatoire puis de les faire varier pour parvenir à
une typologie satisfaisante.
L’implication organisationnelle 397
dans le tableau 14.13 que pour la première classe, les coefficients de détermination
sont les plus élevés. Toutes les variables permettent de définir quelle est l’implication
organisationnelle du groupe 1. Les individus du second groupe privilégient l’implica-
tion affective et l’implication normative par rapport aux individus du groupe 3, les
coefficient de détermination de « impaff » et « impnorm » du groupe 2 étant supé-
rieurs à ceux du groupe 3. Les individus du groupe 2 considèrent qu’il serait extrême-
ment difficile de quitter le réseau de franchise auquel ils sont fidèles et affectivement
attachés. Ils ressentent une obligation de rester dans le réseau par devoir ou en rai-
son d’engagements implicites et explicites. Les individus de ce groupe peuvent être
qualifiés d’affectifs obligés. Quant au troisième groupe de franchisés, les individus
privilégient plutôt l’implication calculée et l’internalisation, les coefficients de déter-
mination de « impcal » et « interna » du groupe 3 étant supérieurs à ceux du groupe
2. Il est perçu dans le groupe 3 que les franchiseurs proposent à leurs partenaires
franchisés des objectifs, des valeurs et une « rente de réputation ». Ceci permettrait
d’attirer, de fédérer et de retenir ces derniers. En contrepartie, les franchisés adhèrent
à un concept. Ils s’engagent à le promouvoir de façon loyale et estiment défavorable-
ment le coût d’opportunité de sortir du réseau compte tenu de tous les avantages
qu’ils en retireront en y restant. Les individus de ce groupe peuvent être qualifiés de
promoteurs.
9 Soit deux solutions S1 et S2, si AICS1<AICS2, alors on choisira la solution S1. Nous pouvons inter-
préter le BIC et le CAIC de la même façon.
400 L’analyse typologique : de l’exploratoire au confirmatoire
■ Les 3 groupes mis en évidence présentent des effectifs fort différents allant de
64,5 % de l’échantillon pour le plus important à 14,3 % pour le plus faible.
■ Les trois groupes se différencient en termes de Bénéfice réalisé (sur une
échelle de niveau moyen allant de 0 à 10) :
– les franchisés qui retirent le plus de bénéfices du réseau sont ceux du groupe
3 (6,55) ;
– les franchisés qui retirent le moins de bénéfices du réseau sont ceux du
groupe 1 (4,08).
■ Globalement, les trois groupes identifiés montrent une sensibilité différente en
termes d’importance de l’influence des quatre dimensions de l’implication
organisationnelle sur le bénéfice réalisé.
– les franchisés du groupe 1 ne privilégient pas l’implication calculée (-0,205)
pour réaliser un bénéfice ;
– les franchisés du groupe 2 privilégient l’implication calculée (0,355) sans
internaliser les valeurs du réseau (-0,793) pour réaliser un bénéfice ;
– les franchisés du groupe 3 privilégient l’implication calculée (0,89) et
l’implication affective (0,42) pour réaliser un bénéfice.
La régression avec classes latentes donne une solution à trois groupes comme
dans le cas précédent de la classification effectuée avec la méthode des modèles de
mélange. Cependant, la définition des groupes est différente car les objectifs des
deux méthodes diffèrent. Avec la régression, nous cherchons à déterminer des grou-
pes en expliquant le bénéfice par les dimensions de l’implication organisationnelle.
Avec le modèle des mélanges, il s’agit de trouver pour chaque groupe une échelle de
mesure de second ordre de l’implication. L’objectif est dans ce dernier cas de décrire,
2 Les franchises
les groupes
BUDGET 1,5
cl3
1
MAXAUTO
POINT CHAUD
–1
N.B. : Les carrés noirs correspondent aux groupes de réseaux de franchises suivant leur implication, les losanges noirs correspondent
aux réseaux de franchise. Il est possible de déterminer les réseaux représentatifs des classes, issues de la régression, pour chaque
groupe défini dans le tableau 14.15. Il suffit d’observer dans la figure 14.5 les réseaux qui sont le plus proche du centre d’un groupe.
Le groupe 1 est associé aux réseaux CAR’GO, RAPID’FLORE et L’AGE D’OR, le groupe 2 à JEFF DE BRUGES, DE NEUVILLE, SPEEDY et
CENTURY 21 et le groupe 3 à POINT CHAUD, MAXAUTO, BUDGET, JACK HOLT et L’ONGLERIE.
alors que dans celui de la régression il est d’expliquer. Aussi, est-il normal de trouver
des résultats différents. Mais, contrairement aux méthodes de mélanges, celle de la
régression avec classes latentes parvient à définir une classification où des différen-
ces se produisent au niveau des dimensions de l’implication organisationnelle, et ce
pour chaque groupe. Ce résultat permet de vérifier le critère d’explication optimale
même si le critère de mise en œuvre n’est pas vérifié (niveau très hétérogène des
groupes).
À la suite, une question naturelle se fait jour. Ces groupes sont-ils indépen-
dants ou non des franchises ? Une simple analyse factorielle des correspondances sur
SPSS permet d’indiquer une dépendance entre les profils de groupes et le choix des
franchises, comme cela est illustré dans la figure 14.5.
4. Conclusion
Bibliographie
Aaker J.L. (1997), « Dimensions of brand personality », Journal of Marketing Research,
vol. 34, n° 3, pp. 347-356.
Allen N.J. et Meyer J. (1990), « The measurement and antecedents of affective, conti-
nuance, and normative commitment to the organization », Journal of Occupational
Psychology, vol. 63, pp. 1-18.
Anderson J.C. et Gerbing D.W. (1988), « Structural Equation Modeling in Practice : A
Review and Recommended Two-Step Approach », Psychological Bulletin, vol. 103,
n° 3, pp. 411-23.
Bagozzi R.P. (1981), « An examination of the validity of two models of attitude », Mul-
tivariate Behavioral Research, vol. 16, pp. 323-359.
Bentler P.M. et Dijkstra T. (1985), « Efficient estimation via linearization in structural
models », in P. R. Krishnaiah (Ed.), Multivariate Analysis VI, Amsterdam : North-Hol-
land, pp. 9-42.
Browne M. et Cudeck R. (1993), « Alternatives ways of assessing model fit », in K. Bol-
len et L.S. Long (eds), Testing Equation Models, Thousand Oaks, CA : Sage, pp. 136-
163.
Caumont D. et Chandon JL. (1989), « Quelques problèmes liés à la validité d’une
classification », Recherche et applications en Marketing, vol. 4, n° 3, pp. 77-93.
Dubost N., Gauzente C., Guilloux V., Roussel P. et Kalika M. (2000), « Franchise et cul-
ture managériale : étude des facteurs humains et organisationnels, versus franchi-
seur, conditionnant la pratique de la franchise — typologie de franchiseurs »,
Rapport CREPA Dauphine Paris IX — LIRHE Toulouse I, pour la Fédération Française de
la Franchise.
Bibliographie 403
gestion. Elles poussent les chercheurs à faire de nouveaux progrès afin de répondre
aux faiblesses qu’elles mettent en exergue.
La première contribution, proposée par Jacques Igalens, reflète une tradition
de la critique intellectuelle fondée sur l’érudition, l’expérience de direction de recher-
che et l’expression d’opinions personnelles. L’exercice de la critique vise à mettre en
garde les chercheurs devant les risques de scientisme et d’éloignement des chercheurs
vis-à-vis de grandes questions de société, en l’occurrence ici, de management des
entreprises. Cette contribution permet à tout chercheur débutant de se préparer à
l’exercice de la critique épistémologique auquel il pourra être confronté en situation
d’évaluation. Il s’agit ici d’un exercice révélateur du regard critique qui est porté sur
les travaux publiés dans les revues scientifiques lorsque les utilisateurs de méthodes
de recherche placent le questionnement de recherche et la modélisation théorique au
second rang de leur objectif. L’article scientifique devient alors un simple support des-
tiné à démontrer les capacités du chercheur à mobiliser avec brio un ensemble de
méthodes de recherche. L’étude du phénomène de gestion considéré se trouve alors
écrasée par un flot d’arguments méthodologiques. Deux chapitres servent de point
d’appui à l’analyse critique de Jacques Igalens, celui de Charles-Henri d’Arcimoles et
Stéphane Trébucq (chapitre 8), puis de Patrice Roussel (chapitre 9).
Ces deux chapitres de l’ouvrage sont, bien entendu, rédigés comme des textes
pédagogiques visant à présenter des méthodes d’analyse de données et leur articula-
tion au sein de démarches méthodologiques structurées. Leur objectif ne vise pas à
étudier avec précision des phénomènes de gestion, leurs fondements théoriques et les
implications de leurs résultats. De même que dans l’ensemble des chapitres de
l’ouvrage, un ou plusieurs exemples de phénomènes de gestion sont choisis pour
expliquer de manière détaillée la mise en place d’un plan de recherche méthodologi-
que permettant de résoudre un problème posé. Enfin, l’exercice critique proposé par
Jacques Igalens mêle analyses épistémologiques et développement d’opinions per-
sonnelles comme annoncé en préambule de sa contribution. Cela conduit parfois
l’auteur à formuler des arguments excessifs où l’opinion prend le pas sur les fonde-
ments méthodologiques et ignore les objectifs purement méthodologiques des chapi-
tres. Cependant, tout chercheur soumis à un processus d’évaluation dans une revue
académique ou un congrès scientifique doit accepter de s’exposer à ce type d’analyse
et se préparer à y faire face. Les deux chapitres cités en exemple donneront aux lec-
teurs, les clés nécessaires pour anticiper et surmonter la critique.
La deuxième contribution, de Jean-Pierre Neveu, propose une réflexion sur les
recherches qui se rattachent au courant constructiviste. Plusieurs chapitres du livre
sont analysés par l’auteur comme se référant à ce courant et conduisent à voir en lui,
une « solution paradigmatique propre à formaliser et conduire une démarche scientifi-
que originale ». Jean-Pierre Neveu s’attache dans un premier temps à définir le cons-
tructivisme en appui des chapitres 2, 3, 5 et 6 du livre. Il relève que ces travaux
présentent le constructivisme comme une alternative au positivisme, et le seul apte à
étudier et à comprendre les problèmes d’interactions « individu, organisation,
contexte ». Il apporte un regard critique à l’égard de cette position en tentant de
montrer que cette capacité n’est pas l’apanage du constructivisme. En mobilisant les
grands penseurs de la recherche scientifique pour nourrir sa réflexion, il appelle les
auteurs de ces chapitres à apporter une réponse claire sur l’apport distinctif de ce
Conclusion 407
s’accompagne également, pour les plus anciennes d’entre elles, d’un taux de sélecti-
vité élevé, ce qui entraîne obligatoirement des exigences méthodologiques de plus en
plus sévères pour espérer être publié. Pour ne prendre que deux exemples, RAM
(Recherche et applications en marketing) affiche un taux de sélectivité d’un article
publié pour dix soumis et la Revue de gestion des ressources humaines d’un pour sept,
et encore faudrait-il tenir compte de l’autosélection, car plus une revue scientifique
est exigeante, moins elle reçoit de propositions. Un autre indice de ce progrès de la
recherche est constitué par le nombre croissant d’ouvrages consacrés aux méthodes
de recherche, qu’ils soient généraux ou spécialisés (Evrard et al., 1993 ; Igalens et
Roussel, 1998 ; Wacheux, 1998).
Ces ouvrages sont utilisés dans les cours de DEA, par les doctorants et tous
ceux qui constituent la communauté des chercheurs en gestion dans les écoles, les
universités, mais aussi certaines sociétés de conseil et certains départements de
grandes entreprises.
Sans avoir la prétention de bâtir un idéal type de la « bonne recherche » il
semble que pour avoir des chances d’être retenu dans un congrès international ou
d’être publié dans une revue académique (par opposition à revue professionnelle), le
candidat doit apporter la preuve de sa maîtrise des méthodes et des outils de recher-
che récents, ceux que l’on qualifie parfois de troisième, quatrième ou xième génération.
L’objet de cette contribution consiste à poser une question : n’y a t il pas un
risque que la course actuelle à l’amélioration des méthodes de recherche et des tech-
niques de traitement des données ne s’opère au détriment de l’intérêt de la recherche
elle-même ? Ce risque doit être précisé pour pouvoir être sereinement évalué car il ne
s’agit pas de faire preuve de nostalgie et encore moins d’évoquer un hypothétique âge
d’or de la recherche qui n’a jamais existé. Le risque auquel nous sommes confrontés
est celui d’une clôture autoréférentielle de la recherche qui nous éloignerait de plus
en plus des préoccupations des praticiens de la gestion.
Précisons qu’il ne s’agit nullement de sous-entendre que les praticiens sont les
seuls à même de juger de la qualité ou tout simplement de l’intérêt d’une recherche,
car souvent la recherche est en avance sur la pratique et il serait dangereux de ne
tenir compte que des retombées immédiates d’une recherche pour, par exemple, auto-
riser son financement.
Le risque évoqué est davantage celui d’une dérive, celle de chercheurs en ges-
tion qui emportés par la passion de la recherche en oublieraient l’objet de la recher-
che.
La gestion a parfois eu du mal à se démarquer de l’économie et la recherche en
gestion n’obéit pas aux finalités de la recherche en économie (Lorino, 1992).
Lorsqu’une technique de recherche pose plus de problèmes qu’elle n’en résout,
elle n’est pas adaptée aux sciences de gestion. Lorsqu’une technique de recherche
pose sans cesse de nouveaux problèmes qu’elle seule est capable de résoudre dans des
versions avancées qui elles-mêmes ne résoudront les problèmes anciens qu’en accep-
tant d’en endosser de nouveaux, il y a également un risque de dérive.
4 Cf. à ce sujet les différents rapports sur les recherches doctorales publiés à l’occasion des jour-
nées des IAE ou directement par la Fnege.
Conclusion 409
Enfin, et c’est le cas le plus courant (notamment dans les thèses de doctorat)
lorsqu’un chercheur ayant choisi un sujet intéressant pour la progression des connais-
sances en gestion et pour les gestionnaires semble oublier ses résultats pour ne se
consacrer qu’à des considérations méthodologiques, il y a un risque de dérive.
En d’autres termes, veillons à ce que le sens de la recherche ne s’épuise pas
dans la succession d’apparentes solutions qui ne font que déplacer les problèmes.
Toute discipline scientifique a besoin d’un discours de la méthode, mais en gestion,
l’un des critères essentiels consiste à vérifier que la méthode permet de répondre au
problème posé.
Conservons cette recherche de sens qui distingue les sciences sociales et tout
particulièrement les sciences de l’action dans lesquelles s’inscrivent les sciences de
gestion.
Les éditeurs m’ont demandé de réagir à deux chapitres que j’ai eu à choisir
parmi trois, j’ai retenu :
1. méthodes de régression et traitement des données financières et sociétales :
questionnements et applications (d’Arcimoles et Trébucq, chapitre 8) d’une
part ;
2. méthodes de développement d’échelles pour questionnaires d’enquête (Rous-
sel, chapitre 9), d’autre part.
Ces deux chapitres offrent un grand intérêt car ils se situent dans une perspec-
tive d’amélioration des techniques de recherche, notamment par l’utilisation de
méthodes nouvelles ou renouvelées de traitement des données ; l’un et l’autre utili-
sent des recherches déjà publiées et en quelque sorte les « revisitent ».
Examinons, dans un premier temps, le chapitre de d’Arcimoles et Trébucq. Pour
des raisons de clarté nous ne retiendrons que les deux premières parties de ce chapi-
tre, c’est-à-dire que nous ne réagirons pas à la troisième partie consacrée à l’action-
nariat salarié.
Quatre niveaux différents d’analyse sont présentés, chaque niveau étant conçu
pour apporter une valeur ajoutée par rapport au niveau précédent.
À la base, nous trouvons des entreprises qui composent un indice boursier
américain. Le premier niveau d’analyse est celui d’une agence de notation américaine
de Boston, KLD. Cette agence produit des données de performance sociale qui servent
(entre autres) à des investisseurs dans le cadre de l’ISR (investissement socialement
responsable). Le second niveau d’analyse est constitué par un article de recherche dû
à deux chercheurs, Waddock et Graves, qui croisent les données de l’agence KLD avec
des données de performance financière et concluent à l’existence d’une liaison entre
performance sociale et performance financière. Les chercheurs consacrent un quart de
l’article aux conséquences pratiques de leur découverte et notamment détaillent ce
qu’ils appellent le cercle vertueux de certaines entreprises. Le troisième niveau d’ana-
lyse prend également la forme d’un article de recherche publié trois ans plus tard dans
la même revue par McWilliams et Siegel qui, à partir des mêmes données que les
auteurs précédents, aboutissent à un résultat inverse en introduisant une nouvelle
variable, les dépenses de recherche-développement et les dépenses publicitaires. Au
passage les auteurs modifient sensiblement la mesure de la performance sociale sans
410 Management des ressources humaines
expliquer les raisons de cette modification 5. La discussion des résultats pratiques qui
occupait quatre pages précédemment est ici réduite à une page.
Le quatrième niveau d’analyse est celui de d’Arcimoles et Trébucq. Ces deux
auteurs critiquent les auteurs du niveau précédent :
« (ils) ne présentent pas de statistique F pour les différentes régressions effec-
tuées, ils n’abordent pas non plus les éventuels problèmes de colinéarité pouvant se
poser dans le cas d’une corrélation significative entre ces deux variables
explicatives… »
Ils s’intéressent ensuite aux entreprises françaises. Après avoir reproduit les
types d’analyse de Waddock et Graves puis de McWilliam et Siegel, ils proposent
« plusieurs améliorations sur la forme et le fond par rapport aux solutions retenues par
Waddock et Graves ou McWilliam et Siegel » :
– analyse factorielle ;
– analyse de multicolinéarité ;
– test de la normalité des résidus ;
– partial least square (PLS) afin de résoudre le problème des données manquan-
tes.
L’utilité de l’analyse factorielle pour s’assurer de la cohérence des données
sociétales, la supériorité de la méthode PLS sont longuement justifiées. En revanche
lorsqu’on arrive à un résultat qui met en évidence « qu’une gestion partenariale don-
nant la faveur aux clients et aux fournisseurs pourrait s’exercer au détriment de la
performance financière » et que cette influence disparaît lorsqu’on introduit la varia-
ble « R&D sur Ventes » le lecteur, qu’il soit chercheur ou praticien, ne peut manquer
de s’interroger.
Pourquoi, par quels mécanismes une gestion de la qualité influence-t-elle
négativement la performance ? Dans la mesure où les auteurs ne fournissent pas de
réponse, le lecteur qui veut comprendre par lui-même doit effectuer le chemin à
l’envers : il a des résultats, mais quelle est la théorie ?
QUAL, cette variable qui influence négativement la performance, est une varia-
ble qui entre dans la mesure du concept de performance sociale (ou sociétale) de
l’entreprise. Mais qu’est-ce que la performance sociale de l’entreprise ? Dans la mesure
où l’article de quatrième niveau est muet sur ce point, il faut se reporter à l’article
princeps de Waddock et Graves, qui écrivent :
« CSP is a multidimensional construct with behaviors ranging across a wide
variety of inputs (e.g. investment in pollution control equipment or other environ-
mental strateies), internal behaviors or processes (treatment of women and minori-
ties, nature of products produced, relationships with customer), and outputs (e.g.
community relations and philanthropic programs) ».
5 La meilleure méta-analyse sur les relations entre performance sociale et performance économi-
que portant sur 52 études conclut à une association positive modérée bidirectionnelle et simultanée,
mais les différences d’échantillonnage ou de définitions de la performance sociale expliquent entre
15 et 100 % de la variation de la corrélation d’une étude à l’autre (Orlitzky et al., 2003).
Conclusion 411
pour mener à bien sa recherche, doit procéder à des mesures ; le cas est à peu près
inverse du précédent : nous supposons qu’il dispose d’un cadre théorique solide, de
concepts bien définis et que, classiquement, il cherche à étudier l’articulation de ces
concepts compte tenu de facteurs de contingence. Au second niveau se situe le para-
digme de Churchill, qui n’est pas un paradigme mais une méthode conçue pour répon-
dre aux attentes de notre chercheur en lui proposant une démarche systématique en
huit étapes. Le troisième niveau correspond à la pratique des chercheurs qui s’est
développée depuis quelques années en incluant au paradigme de Churchill une ana-
lyse factorielle confirmatoire et en le prolongeant par des modèles d’équations struc-
turelles. Pour notre chercheur, depuis l’apparition de logiciels spécialisés, le recours
aux modèles d’équations structurelles n’offre que des avantages. En premier lieu et
sans que la raison soit vraiment connue, cette méthode est dite avancée ; or, dans le
train de la recherche, il est plus utile d’être dans un wagon de tête que de savoir où
on va. En second lieu, je n’ai encore jamais lu une recherche qui après un recours aux
modèles d’équations structurelles aboutisse au constat suivant : mon cadre théorique
ne tient pas la route.
Le chercheur teste plusieurs modèles théoriques et retient celui qui s’ajuste au
mieux aux données qu’il a collectées. Seul un puriste pourrait s’étonner qu’un modèle
s’ajuste au mieux à des données alors qu’une certaine logique formelle pourrait impo-
ser que ce soit les données qui s’ajustent au modèle. Comme l’écrit Roussel,
« l’utilisation des analyses factorielles confirmatoires et des modèles d’équations
structurelles introduit l’estimation systématique des erreurs de mesure dans le traite-
ment des données », ce qui peut être interprété par notre chercheur comme un cin-
glant démenti de l’imprécation que me jetaient mes maîtres lorsque j’étais étudiant
doctoral, GIGO ! (Garbage In, Garbage Out !)
À certains égards les logiciels d’équations structurelles sont devenus les
machines à laver de la recherche en gestion, on peut y placer des données très sales
et en ressortir un modèle tout propre sachant que peu de personnes ont le courage de
passer la tête à l’intérieur d’une machine à laver pour comprendre son fonctionne-
ment…
Le quatrième niveau correspond, en toute logique, à un dépassement du
troisième « Les recherches récentes … recommandent d’utiliser l’analyse factorielle
en axes principaux, qui, elle, procède à l’estimation des erreurs de mesure des
variables. » L’auteur rappelle enfin que les modèles d’équations structurelles exigent
de construire plusieurs agrégats pour chaque facette du construit :« Les travaux
récents conduisent à recommander de construire au minimum trois indicateurs pour
chaque variable latente, chaque indicateur devant être le score moyen ou la somme
totale d’au minimum deux items ». Cette technique dite du parcelling résout donc cer-
tains problèmes posés par l’utilisation des modèles d’équations structurelles qui
avaient (abusivement ?) été sollicités par les chercheurs pour aller au-delà du para-
digme de Churchill. La technique du parcelling elle-même n’est pas exempte de criti-
ques, ne serait-ce que le préformatage qu’elle impose tant au niveau du nombre de
facettes du construit que des items constituant chacune de ces facettes. Espérons que
demain un spécialiste nous proposera un parcelling étendu qui réduira ces contraintes
mais redoutons que cette extension ne s’opère au prix de nouvelles conditions restric-
tives ou limitatives.
414 Management des ressources humaines
Nous appuyant sur la lecture d’un ensemble de textes publiés dans cet
ouvrage, nous aborderons une sélection de thèmes justifiant, de notre point de vue, la
poursuite d’efforts en vue de concrétiser les ambitions exprimées par la proposition
constructiviste. Dissipant à l’avance tout malentendu possible, nous voudrions préci-
ser que nous ne sommes absolument pas opposé au constructivisme, mais que les
remarques éventuellement critiques que nous serons amené à formuler vont plutôt
dans le sens d’interrogations incitatrices de plus grande robustesse conceptuelle et
méthodologique. Notre démarche se veut donc constructive dans le souci de préserver
la plus grande ouverture théorique du champ des sciences de gestion.
416 Management des ressources humaines
6 Cette notation de deux dates est utilisée 1) pour indiquer la première édition d’un ouvrage
étranger, 2) l’édition française d’une citation.
Conclusion 417
À longueur de revues parmi les plus accessibles, il est répété combien la que-
relle des méthodes quali vs quanti est infondée, qu’elle ne correspond pas à la réalité
du travail scientifique et que la fameuse séparation établie par Weber entre approches
compréhensives et approches explicatives ne correspond pas à la réalité historique 7
(Mucchielli, 1994, 1998). Concernant les méthodes, il est vrai que le recours au for-
malisme de modélisations chiffrées peut parfois éloigner le chercheur du terrain au
point de le rapprocher du monde abstrait des mathématiques. Ceci pose un problème
à la mission scientifique appliquée des sciences de gestion. Mais le chiffre en lui-
même n’est rien car c’est la façon dont il est utilisé qui lui confère sa réputation
(Gould, 1996). Le vice inhérent aux méthodes quantitatives est d’induire une routine
de l’investigation, une standardisation progressive des connaissances que facilite le
recours aux technologies de l’informatique. Une véritable « MacDonalisation » de la
science, pour reprendre l’image de Ritzer (1993). Certaines revues (et pas uniquement
nord-américaines) accueillent ainsi des contributions n’apportant véritablement rien
d’autre au domaine qu’une énième validation de modèles pré-établis de seule garantie
académique. Mais ceci représente un excès du courant quantitativiste, qui ne doit
conduire ni à « jeter le bébé avec l’eau du bain », ni à accepter de façon béate un
qualitativisme salvateur. L’étude non experte du discours a aussi ses dangers, menant
le scientifique insouciant, ou inconscient, tout droit vers le lieu commun, ou le
sophisme militant. Ayant en tête les remarquables études qualitatives d’un Van Maa-
nen évoquées par Chanlat, que penser, en effet, de certaines références (aussi réper-
toriées par Chanlat) comme Enriquez ou encore Pagès, types même de ces démarches
non scientifiques tant décriées par Popper ? Le cas Bourdieu est quant à lui devenu
un véritable cas d’école en matière de méthodologie douteuse : opinions tenant lieu
d’hypothèses, échantillons d’études non contrôlés, délégations d’entretiens à du per-
sonnel non formé (Verdès-Leroux, 1998).
Si l’on peut tout faire dire à un chiffre, quoi de plus redoutable qu’un mot,
qu’un geste ou qu’une conduite ? Sûre de son fait, Gombault ironise sur l’approche
quantitative « qui ne se salit pas le bas du pantalon », (reprenant ainsi une réflexion
de R. Park), et de nous assurer que ses données, à elles, sont le résultat d’un travail
« entièrement réalisé à la main, artisanalement (sic) pourrait-on dire ». Le discours
prend parfois un tour véritablement intégriste, Chanlat n’hésitant pas à opposer le
quantitatif à « l’humain », et Gombault nous annonçant avoir écarté le recours à un
7 Rappelons que Max Weber, si souvent invoqué comme une des références fondamentales de la
démarche constructiviste fut avant tout un générateur de réflexions, toujours « propre sur lui ».
Conclusion 419
Il convient d’abord de préciser que ce qui suit est une lecture très personnelle
des textes des deux auteurs dont les contributions précèdent. Certes, elle reste aussi
près du texte que possible, mais d’une part, elle peut dépasser leur pensée parce
qu’elle l’interprète et en tire des conclusions qu’ils n’auraient peut-être pas souhai-
tées eux-mêmes, et, d’autre part le langage de l’un des auteurs est parfois assez abs-
trait et un deuxième niveau d’interprétation s’ensuit.
Ceci dit, ce commentaire réunit deux textes qui, apparemment, s’inscrivent
dans le même courant théorique et qui présentent donc des similarités. Cependant, à
voir de plus près, ils illustrent aussi des différences assez profondes à l’intérieur de ce
courant.
Dans un premier temps, il est souhaitable de brièvement rappeler ce qui est
frappant dans la présentation de leurs positions théoriques par les auteurs.
Fréderic Wacheux se situe délibérément au niveau de l’ensemble des méthodes
qualitatives et présente une analyse très conceptuelle. Le point de départ est simple :
l’examen seul des faits n’apporte rien, la réalité est ambiguë, l’observation est par
nature déficiente. Le rôle du chercheur, et ce qui le distingue du simple témoin, est
de construire du sens à partir de ce qu’il constate. Par ailleurs, les méthodes de
recherche sont connues et standardisées. Cependant « aucune recherche ne ressemble
à une autre ». L’essentiel de la démarche du chercheur qualitatif est donc dans le con-
trôle du processus de recherche. Ce processus est celui de la construction de sens par
focalisation progressive.
L’auteur nous indique ses postulats épistémologiques dès le départ. Le premier
est le constructivisme, bien sûr, mais dans ce qui va se révéler à l’analyse être une
version assez radicale. Non seulement la réalité sociale est construite, ce qui est la loi
du genre, mais toute situation sociale est en perpétuelle construction et reconstruc-
tion, à laquelle participe bien évidemment le chercheur par sa présence et son action.
Il en découle logiquement que toute structuration d’une situation n’est que provi-
soire, et donc l’on doit en déduire que la théorisation, de même, l’est aussi. Elle est le
moyen de guider l’interprétation. Il s’en suit que le rôle du chercheur est celui de
422 Management des ressources humaines
données), les passe au cadre de ses connaissances théoriques, qu’il est amené à
accommoder elles-mêmes et donc à modifier pour rendre compte de ce qui reste à
expliquer, une fois ces premiers cadres épuisés. Le processus est itératif et cumulatif
et c’est ainsi que la connaissance se bâtit additivement par itération et par modifica-
tions successives des schémas théoriques.
Cependant, et c’est une troisième point, le chercheur doit maintenir objecti-
vité et distance, pour ne pas risquer de simplement s’intégrer à la démarche pratique
des acteurs, perdant ainsi ses repères de constructeur de connaissances, et au con-
traire apportant celles qu’il maîtrise déjà pour faciliter l’action. Néanmoins il doit
pouvoir accéder à ce que Frédéric Wacheux considère comme les phénomènes de
« reliance », et que l’on pourrait tout aussi bien assimiler aux ethnométhodes des
« membres » d’une collectivité selon Garfinkel. Le chemin est étroit entre les deux
impératifs, et sa difficulté est bien illustrée ailleurs et d’ailleurs par les risques
qu’illustrent certaines démarches de certains chercheurs en relations professionnelles.
En fin de compte, la démarche est équilibrée, chacun s’y retrouvera, acteurs
qui trouveront des réponses à leurs questions, et chercheur qui accumulera des con-
naissances.
Au passage, l’auteur indique que « l’étude de cas est l’un des instruments les
plus puissants pour encadrer le processus de recherche ». L’on aimerait qu’il précise
en détail comment il l’insère dans les contraintes du cadre qu’il vient de définir, au-
delà de l’avertissement de ne pas « imposer une raison froide sur les situations ».
L’étude de cas en elle-même, en effet ne s’inscrit pas automatiquement dans un pro-
cessus piagétien de recherche action. La section suivante s’attache à le faire, dans
une certaine mesure, mais à sa lecture il s’avère alors s’agir d’une étude de cas bien
particulière, du type de celles conduites par les ethnométhodologues.
C’est en effet le processus qui, on le déduit implicitement, permet au cher-
cheur de maintenir le difficile équilibre entre distanciation et intégration. Ici aussi, le
processus joue un rôle essentiel, garde-fou en plus d’instrument de légitimité du
caractère scientifique de la démarche conduite.
La pique, au passage, à l’égard des méthodes quantitatives, qui auraient la naï-
veté d’établir une relation causale simple pour rendre compte d’un phénomène com-
plexe devrait s’accompagner d’une critique de l’argument du « tout se passe comme
ci », absente ici.
L’inspiration de la démarche explicatoire trouve sa source dans « l’intuition
kantienne ». Au fond ce qui légitime la démarche du chercheur est d’inspiration phé-
noménologique. Il n’y a non seulement pas de réalité objective, mais pas non plus de
réalité totalement socialement construite Les sciences sociales, et donc les sciences
de gestion, restent « approximatives » et une part « d’indicible » est irréductible.
La contribution de Jean-Michel Plane se situe elle aussi dans le cadre des
méthodes quantitatives apparemment proches, mais finalement se situant sur un plan
assez différent de celui de la précédente.
Là aussi, le point de départ sera une brève réflexion sur la présentation faite
par l’auteur. Il nous présente de façon très pragmatique la recherche intervention par
l’exemple, en exposant son propre parcours.
424 Management des ressources humaines
dans la conception qu’il en donne. Cependant, en effet, la juxtaposition des deux tex-
tes démontre bien que la catégorie de la recherche-action est loin d’être homogène et
peut recouvrir des réalités bien différentes. Il y a en effet loin du modèle, qualifié de
piagétien, sous notre seule responsabilité, de Frédéric Wacheux, à celui, dans les
mêmes conditions, « d’accoucheur socratique », mais d’un Socrate « sachant » de
Jean-Michel Plane. De même, l’intuition kantienne dans un cas situe la démarche dans
une autre perspective que celle de l’amélioration délibérée du management dans
l’autre.
En conclusion, ce que nous considérons être l’apport majeur et ce que met en
évidence pour nous l’approche de Frédéric Wacheux est le rôle fondamental des micro-
fondements de l’organisation pour expliquer sa naissance et son fonctionnement et le
rôle du processus de recherche pour équilibrer la démarche du chercheur qui restera
toujours subjective et provisoire dans des structures elles-mêmes en permanente
construction et déconstruction.
Plus classiquement, Jean-Michel Plane reconnaît une objectivité aux structures
socialement construites. L’apport et le caractère nouveau de sa démarche, là aussi de
notre point de vue, est que, une fois construites par les acteurs, elles vont les con-
traindre autant que les habiliter, au sens d’un autre apport de Giddens.
L’objection que l’on peut apporter au caractère de généralité de la méthode de
la recherche action, et la question implicite à laquelle aucun des deux auteurs ne
répond réellement, consiste dans l’obstacle bien illustré par Weick. Celui-ci met en
évidence l’impossibilité pour une recherche d’être à la fois simple (simple), de portée
générale (general) et exacte (accurate). Le point est illustré par un cadran d’horloge
où figurent ces trois caractéristiques respectivement à la place de 8h, 12h et 4h. Une
aiguille qui se déplace sur le cadran ne peut évidemment être proche que de l’une de
ces positions et une seulement. Weick, d’un naturel généreux, admet les compromis
(i.e., à 2h une recherche est, pour lui, à la fois générale et exacte, mais ne peut être
simple. Cependant, si l’on pousse la métaphore un peu plus loin, cette recherche n’est
plus vraiment générale ni exacte, se situant dans une position intermédiaire de celles
de ces deux points.
Si l’on admet que la recherche action est remarquablement adaptée à la com-
préhension la plus exacte des situations qui se présentent dans les organisations et
que peu d’autres outils peuvent permettre, il ensuit, si l’on suit Weick, qu’elle est tout
simplement incapable d’être générale et simple. Il convient donc de s’y résigner, et
d’adopter le seul remède possible proposé par Weick : lire les autres types de recher-
ches, centrées sur les autres points significatifs du cadran.
Bibliographie
Bachelard, G. (1934). Le nouvel esprit scientifique. Paris : Presses Universitaires de
France.
Bernard, H. R. (1988). Research methods in cultural anthropology. Newbury Park : Sage.
Bjork, D. W. (1993) : B. F. Skinner — A life. New-York : BasicBooks.
Conclusion 427
Rosnow, R.L. & Georgoudi, M. (éds.) (1986). Contextualism and understanding in beha-
vioral science. New-York : Praeger.
Schopenhauer, A. (1966/1859, troisième édition). Le monde comme volonté et comme
représentation. Paris : Presses Universitaires de France.
Sorokin, P.A. (1959/1956). Tendances et déboires de la sociologie américaine. Paris :
Aubier.
Verdès-Leroux, J. (1998). Le savant et la politique. Paris : Grasset.
Wacheux, F. (1996). Méthodes qualitatives et recherches en gestion. Paris : Economica.
Waddock, S.A. et Graves, S.B. (1997). The Corporate Social Performance — Financial
Performance Link. Strategic Management Journal, vol.18, n° 4, juin, pp. 303-319.
Présentation des auteurs
la Revue de Sciences de Gestion, ainsi que dans la Revue Française de Gestion de Res-
sources humaines.
Assâad EL AKREMI, Maître de Conférences et chercheur au LIRHE CNRS, à l’Uni-
versité de Toulouse 1, il est membre du GRACCO–GDR CNRS. Ses domaines de recher-
che sont le comportement organisationnel, la flexibilité organisationnelle et les
méthodes de recherche. Coauteur de deux ouvrages, il s’intéresse particulièrement aux
applications des méthodes d’équations structurelles dans la recherche en Sciences de
gestion.
Claire GAUZENTE, Maître de Conférences HDR, coresponsable du DESS-Master
Marketing & NTIC de l’UFR Droit Économie Gestion de l’Université d’Angers. Ses recher-
ches portent sur la culture organisationnelle, l’orientation marché, les pratiques éthi-
ques en commerce électronique et les méthodes de recherche en gestion (http://
www.univ-angers.fr/Enseignant.asp ?ID=613). Ses publications sont parues dans des
revues françaises et internationales (Journal of Electronic Commerce Research, Journal
of Consumer Marketing, Academy of Marketing Science Review, Journal of Small Busi-
ness Management, International Journal of Retail and Distribution Management, etc.).
Anne GOMBAULT, Professeur à Bordeaux École de Management, membre du
centre de recherche Humanisme et Gestion, responsable de la Chaire ACME (Art, Cul-
ture et Management en Europe) qu’elle a créée en 2004. Ses domaines de recherche
sont le comportement organisationnel, le management des organisations artistiques
et culturelles et les méthodes qualitatives de recherche en gestion. Ses travaux ont
été publiés dans plusieurs revues et ouvrages, notamment à la Documentation Fran-
çaise.
Jocelyn HUSSER, Maître de Conférences, membre du centre de recherche du
CREFF, Université Montesquieu–Bordeaux IV. Ses domaines de recherche sont le com-
portement organisationnel, le management hospitalier et les méthodes qualitatives
de recherche en management.
Jacques IGALENS, Professeur de Sciences de gestion à l’IAE de Toulouse et
chercheur au LIRHE CNRS, il a été à l’origine de la création de l’AGRH, Association
francophone de Gestion des Ressources Humaines. Ses travaux de recherche actuels
concernent la responsabilité sociale de l’entreprise et notamment l’évaluation et la
communication extra-financière. Au sein de l’ADERSE et de l’IAS, il contribue à l’ana-
lyse des besoins en formation et en développement des managers des grandes entre-
prises sur le thème de la RSE. Par son activité de directeur de recherche de nombreux
doctorants français et étrangers, il participe à l’amélioration et à la diffusion des con-
naissances en gestion des ressources humaines.
Saïd JMEL est ingénieur statisticien à l’Université de Toulouse Le Mirail. Ses
contributions à la recherche se situent dans le champ de la statistique appliquée aux
sciences humaines. Il est coauteur d’articles parus notamment dans Psychometrika,
Psychological Methods et Social Indicators Research.
Jean-Pierre NEVEU, Professeur des Universités, responsable de la filière Gestion
des Organisations à l’Institut d’Études Politiques de Bordeaux, et chercheur associé au
LIRHE-CNRS, Université de Toulouse 1. Ses domaines d’expertise sont la théorie des
organisations, l’implication au travail, ainsi que la santé organisationnelle. Il est
auteurs de plusieurs livres, articles et communications en France et à l’étranger. Mem-
Présentation des auteurs 431
INTRODUCTION ............................................................................................................... 5
CHAPITRE 1
COMPRÉHENSION, EXPLICATION ET ACTION DU CHERCHEUR
DANS UNE SITUATION SOCIALE COMPLEXE ................................................................ 9
Frédéric WACHEUX
1. Accéder aux situations sociales .............................................................................. 11
2. Observer, comprendre, analyser ............................................................................. 16
3. Expliquer et proposer .............................................................................................. 20
4. Conclusion : épistémologie constructiviste des méthodes qualitatives .............. 27
CHAPITRE 2
LA MÉTHODE DES CAS ................................................................................................. 31
Anne GOMBAULT
1. La méthode des cas : une stratégie privilégiée d’accès au réel ........................... 32
1.1 Définition et intérêt .............................................................................................. 32
1.2 Les différentes études de cas ou le choix d’un plan de recherche ............................. 34
1.3 La réalisation de l’étude de cas .............................................................................. 36
2. Un exemple de mise en œuvre de la méthode des cas ......................................... 39
2.1 Du plan de recherche au choix de l’étude de cas ..................................................... 40
2.1.1 La problématique ............................................................................................ 40
2.1.2 Une logique exploratoire, constructiviste, inductive et itérative, qualitative ............ 41
2.1.3 Un cas unique ................................................................................................ 41
2.2 La réalisation ........................................................................................................ 45
2.2.1 Le déroulement du processus de recherche ......................................................... 45
2.2.2 Production et analyse des données .................................................................... 45
2.2.3 Présentation des résultats ................................................................................ 50
A. Situation .................................................................................................... 51
434 Management des ressources humaines
CHAPITRE 3
CONTEXTUALISME ET RECUEIL DE DONNÉES ............................................................. 65
Jocelyn HUSSER
1. La démarche contextualiste .................................................................................... 66
1.1 Fondements de la démarche contextualiste ............................................................. 66
1.2 Pertinence de la démarche contextualiste pour la GRH ............................................. 68
2. Les cadres intermédiaires hospitaliers dans leur contexte de gestion ................ 69
2.1 Mobilisation des éléments des contextes interne et externe
pour l’échantillonnage des études de cas ................................................................. 69
2.2 Mobilisation des variables du contexte pour une étude longitudinale
par étude de cas ..................................................................................................... 70
2.3 Description des étapes de la gestion du changement organisationnel
à partir d’une grille de lecture contextuelle .............................................................. 73
2.3.1 Présentation du contexte interne de l’unité des Urgences pédiatriques
en phase initiale ............................................................................................. 73
A. Contexte général .......................................................................................... 73
B. Contexte particulier ....................................................................................... 74
2.3.2 Description des étapes de l’émergence du changement observé .............................. 75
3. Recueil et analyse de données ................................................................................ 80
3.1 Recueil et analyse de données par entretiens .......................................................... 80
3.1.1 Mise en œuvre de l’analyse structurale ............................................................... 82
A. Présentation d’une première grille de décomposition ............................................ 82
B. Présentation d’une seconde grille de décomposition ............................................. 83
3.2 L’observation directe participante : un mode de recueil complémentaire
de données contextuelles ........................................................................................ 86
3.2.1 Le choix d’un dispositif d’observation à double niveau : interactions
et production d’outils de gestion. ...................................................................... 88
A. Identification des acteurs ............................................................................... 89
B. Types d’observations ...................................................................................... 90
3.2.2 Mise en évidence des observations menées dans des contextes d’interactions ........... 91
3.3 Recours à l’analyse documentaire ........................................................................... 92
3.3.1 Mise en œuvre de l’analyse documentaire ............................................................ 94
3.3.2 Analyse transversale des documents produits lors du processus d’accréditation ......... 95
4. Conclusion ................................................................................................................ 98
Table des matières 435
CHAPITRE 4
L’ENTRETIEN DE RECHERCHE ...................................................................................... 101
Pierre ROMELAER
1. Définition de l’entretien semi-directif centré (ESDC) ......................................... 102
2. Le nombre d’entretiens et la variété de l’échantillon ......................................... 104
3. La phrase d’entame, le début de l’entretien ........................................................ 108
4. Le guide de l’interviewer, le guide d’entretien ................................................... 112
5. Les reformulations et les relances, le recentrage ............................................... 116
5.1 Les types de reformulations et de relances ............................................................ 116
5.2 La difficulté de l’interviewer à maîtriser les reformulations et les relances .............. 118
6. Les premiers entretiens ......................................................................................... 121
7. La relation entre entretien et analyse de contenu ............................................. 122
8. Qualité et validation des contenus d’entretiens ................................................. 124
9. ESDC et méthodologie de la recherche ................................................................ 126
10. Le temps et le lieu de l’entretien, l’environnement social de l’entretien ......... 127
11. L’entretien comme situation de communication interpersonnelle .................... 130
12. Conclusion .............................................................................................................. 134
CHAPITRE 5
RECHERCHE-INTERVENTION ET INNOVATIONS MANAGÉRIALES .......................... 139
Jean-Michel PLANE
1. L’intervention du chercheur en management : implications théoriques,
méthodologiques, pratiques ................................................................................. 143
1.1 L’étude des relations chercheurs – terrain ............................................................. 143
1.1.1 Une logique de production de connaissances et la question
de l’objectivation des informations .................................................................. 144
1.1.2 La question de la place et de la neutralité du chercheur ..................................... 144
1.1.3 L’implication du chercheur et la gestion de la « familiarité distante » ................... 144
1.2 De la recherche-intervention au développement du potentiel humain
des organisations ................................................................................................. 145
1.2.1 Les apports produits sur le terrain par un processus de recherche-intervention ....... 145
1.2.2 Le développement des capacités conceptives des acteurs des organisations ........... 146
2. La production d’innovations managériales : le cas d’une entreprise
de production de cartes électroniques ................................................................ 147
2.1 Une entreprise en pleine mutation et en quête de compétitivité ............................ 147
2.1.1 Situation de l’entreprise ................................................................................. 147
A. Positionnement concurrentiel ........................................................................ 148
B. Les innovations organisationnelles ................................................................. 149
2.1.2 Le management des ressources humaines de l’entreprise ..................................... 149
2.2 Les implications managériales des innovations organisationnelles ......................... 150
2.2.1 Une logique d’apprentissage organisationnel ..................................................... 150
436 Management des ressources humaines
CHAPITRE 6
LA RECHERCHE EN GESTION ET LES MÉTHODES ETHNOSOCIOLOGIQUES ......... 159
Jean-François CHANLAT
1. Les méthodes ethnosociologiques appliquées aux organisations
et à la gestion ........................................................................................................ 160
2. Deux méthodes ethnosociologiques ..................................................................... 163
2.1 La méthode des récits de vie ................................................................................ 163
2.2 La méthode de l’observation participante .............................................................. 165
3. Les méthodes ethnosociologiques et le champ de la recherche en gestion ..... 168
4. Conclusion .............................................................................................................. 172
CHAPITRE 7
LA MÉTHODOLOGIE Q ET L’ÉTUDE DE LA SUBJECTIVITÉ ......................................... 177
Claire GAUZENTE
1. Les objectifs d’étude .............................................................................................. 178
1.1 L’étude de la subjectivité ..................................................................................... 178
1.2 La théorie des concours ou ce que signifie vraiment « Il pleut » ............................ 179
2. L’instrumentation de l’étude de la subjectivité ................................................... 180
2.1 La méthode de recueil – Le Q-sort ........................................................................ 180
2.2 La méthode d’analyse – L’analyse factorielle Q ...................................................... 182
2.3 Récapitulatif de la démarche et des options possibles ........................................... 185
3. Une application : la perception de la personnalité des collaborateurs ............. 186
3.1 Considérations préalables ..................................................................................... 186
3.2 Dispositif de recueil des données .......................................................................... 188
3.3 Résultats, interprétation et validité ...................................................................... 188
4. Conclusion .............................................................................................................. 195
CHAPITRE 8
MÉTHODES DE RÉGRESSION ET TRAITEMENT DES DONNÉES FINANCIÈRES
ET SOCIÉTALES : QUESTIONNEMENTS ET APPLICATIONS ........................................ 207
Charles-Henri D’ARCIMOLES et Stéphane TRÉBUCQ
1. Ressources humaines et performance de l’entreprise ......................................... 208
1.1 Protocole et échantillonnage ................................................................................ 208
1.2 Homogénéité des données .................................................................................... 209
Table des matières 437
CHAPITRE 9
MÉTHODES DE DÉVELOPPEMENT D’ÉCHELLES POUR QUESTIONNAIRES
D’ENQUÊTE ................................................................................................................... 245
Patrice ROUSSEL
1. Le paradigme de Churchill : une méthode classique de développement
d’échelles de questionnaire .................................................................................. 247
1.1 Enjeux et fondements .......................................................................................... 247
1.2 Mise en œuvre et actualisation du Paradigme de Churchill ..................................... 248
1.2.1 Les quatre étapes de la phase exploratoire ........................................................ 249
A. Spécifier le domaine du construit .................................................................. 250
B. Générer un échantillon d’items ..................................................................... 250
Approche déductive ..................................................................................... 250
Approche inductive ...................................................................................... 250
Rédaction des items ..................................................................................... 251
Les formats des modalités de réponse ............................................................... 251
Le nombre d’items dans l’échelle ..................................................................... 252
Évaluation de la validité de contenu ................................................................ 253
C. La collecte de données ................................................................................ 254
Le mode d’administration du questionnaire ........................................................ 254
La taille d’échantillon ................................................................................... 255
D. Purifier l’instrument de mesure ...................................................................... 256
Analyse critique de la démarche de Churchill ...................................................... 256
Actualisation de la démarche de Churchill .......................................................... 260
1.2.2 La phase de validation ................................................................................... 260
A. La collecte de données ................................................................................ 260
B. Estimer la fiabilité et la validité ..................................................................... 260
438 Management des ressources humaines
CHAPITRE 10
MODÉLISER LES DIFFÉRENCES INDIVIDUELLES AVEC L’ANALYSE FACTORIELLE ..... 277
Stéphane VAUTIER, Patrice ROUSSEL et Saïd JMEL
1. Construire des variables composites : analyse factorielle exploratoire
et cohérence interne ............................................................................................. 279
1.1 La notion de variable composite .......................................................................... 279
1.2 La cohérence interne ............................................................................................ 280
1.3 L’analyse factorielle exploratoire .......................................................................... 281
2. Application avec le « Minnesota Satisfaction » Questionnaire .......................... 282
2.1 Analyses factorielles exploratoires ........................................................................ 282
2.2 Cohérence interne et corrélation moyenne ............................................................. 284
3. Analyse factorielle confirmatoire et fidélité composite ..................................... 286
3.1 Construction d’une matrice de covariance de petite taille ...................................... 286
3.2 Modèles emboîtés et modèle hiérarchique ............................................................. 287
3.3 Fidélité et spécificité des composites .................................................................... 290
3.4 Bootstrapper les coefficients de fidélité et alpha ................................................... 291
4. Discussion et conclusion ....................................................................................... 291
4.1 La démarche globale pour construire des variables composites ............................... 291
4.2 Pour aller plus loin .............................................................................................. 293
CHAPITRE 11
ANALYSE DES EFFETS LINÉAIRES PAR MODÈLES D’ÉQUATIONS STRUCTURELLES . 297
Patrice ROUSSEL, François DURRIEU, Eric CAMPOY et Assâad EL AKREMI
1. Démarche méthodologique pour les modèles d’équations structurelles ............ 299
1.1 Étape 1 – Élaboration d’un modèle théorique ........................................................ 300
1.2 Étape 2 – La spécification du modèle théorique .................................................... 300
Table des matières 439
CHAPITRE 12
ANALYSE DES VARIABLES MODÉRATRICES ET MÉDIATRICES PAR LES MÉTHODES
D’ÉQUATIONS STRUCTURELLES ................................................................................... 325
Assaâd EL AKREMI
1. Définition des variables modératrices et médiatrices ......................................... 326
2. Typologie des variables médiatrices et modératrices ......................................... 328
3. Démarches d’analyse des variables médiatrices .................................................. 330
3.1 La démarche d’analyse de Baron et Kenny pour les effets médiateurs .................... 330
3.2 Illustration de la démarche d’analyse de Baron et Kenny pour les effets médiateurs 332
4. Démarches d’analyse des variables modératrices ................................................ 334
4.1 La démarche d’analyse de Ping pour les effets modérateurs ................................... 336
4.2 Illustration de la démarche de Ping pour les effets modérateurs ............................ 339
5. Conclusion .............................................................................................................. 342
440 Management des ressources humaines
CHAPITRE 13
ETUDES LONGITUDINALES ET COMPARAISONS ENTRE GROUPES
PAR LES MODÈLES D’ÉQUATIONS STRUCTURELLES ................................................... 349
Eric CAMPOY et Marc DUMAS
1. Invariance de la mesure ........................................................................................ 350
1.1 Les différents tests de l’invariance de la mesure .................................................... 351
1.2 Application ......................................................................................................... 355
1.2.1 Procédure .................................................................................................... 357
1.2.2 Exemple : stabilité d’une échelle de mesure auprès de plusieurs populations .......... 362
2. L’étude du changement des attitudes .................................................................. 365
2.1 Les formes du changement ................................................................................... 366
2.2 Applications ........................................................................................................ 368
2.2.1 Mise en évidence de l’existence d’un changement alpha et forme
de ce changement : les modèles de croissance ................................................... 368
2.2.2 Étude de l’impact du changement .................................................................... 372
3. Conclusion .............................................................................................................. 375
CHAPITRE 14
L’ANALYSE TYPOLOGIQUE : DE L’EXPLORATOIRE AU CONFIRMATOIRE ................ 379
François DURRIEU, Pierre VALETTE-FLORENCE
1. Essai de typologie exploratoire : le cas de la personnalité de marque ............. 381
2. L’implication organisationnelle : essai de typologies exploratoire
et confirmatoire ..................................................................................................... 388
2.1 L’implication organisationnelle : essai de typologie exploratoire
à partir de scores factoriels confirmés .................................................................... 390
2.2 L’implication organisationnelle : essai de typologie confirmatoire
et utilisation des modèles de mélange ................................................................... 395
3. Que retire le franchisé de son appartenance au réseau ? :
l’analyse de régression avec classes latentes ...................................................... 399
4. Conclusion .............................................................................................................. 401