Vous êtes sur la page 1sur 435

Management

des ressources
humaines
Méthodes de recherche
en sciences humaines et sociales
La collection Méthodes & Recherches poursuit un double objectif :
• présenter en langue française des états de l’art complets sur des
thèmes de recherches contemporains mais également pratiques,
d’intérêt et de niveau international.
• réunir des auteurs et des lecteurs de divers champs disciplinaires
(économistes, gestionnaires, psychologues et sociologues) et les
aider à communiquer entre eux.

Nathalie Delobbe, Olivier Herrbach, Delphine Lacaze, Karim Mignonac


(sous la direction de)
Comportement organisationnel - Vol.1. Contrat psychologique,
émotions au travail, socialisation organisationnelle
Assâad El Akremi, Sylvie Guerrero, Jean-Pierre Neveu (sous la direction de)
Comportement organisationnel - Vol.2. Justice organisationnelle, enjeux
de carrière et épuisement professionnel
Jean-Jacques Rosé (sous la direction de)
Responsabilité sociale de l'entreprise. Pour un nouveau contrat social
Patrice Roussel, Frédéric Wacheux (sous la direction de)
Management des ressources humaines. Méthodes de recherche
en sciences humaines et sociales
Bénédicte Vidaillet, Véronique d'Estaintot et Philippe Abecassis
(sous la direction de)
La décision. Une approche pluridisciplinaire des processus de choix
Sous la direction de
Patrice ROUSSEL et Frédéric WACHEUX

Management
des ressources
humaines
Méthodes de recherche
en sciences humaines et sociales
Pour toute information sur notre fonds et les nouveautés dans votre
domaine de spécialisation, consultez notre site web : www.deboeck.com

© De Boeck & Larcier s.a., 2005 1re édition


Éditions De Boeck Université 2e tirage 2006
Rue des Minimes 39, B-1000 Bruxelles

Tous droits réservés pour tous pays.


Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment
par photocopie) partiellement ou totalement le présent ouvrage, de le stocker dans
une banque de données ou de le communiquer au public, sous quelque forme et
de quelque manière que ce soit.

Imprimé en Belgique

Dépôt légal : ISSN 1781-4944


Bibliothèque Nationale, Paris : mars 2005 ISBN 2-8041-4711-8
Introduction

Chacun reconnaîtra que « tout ce qui est humain n’est pas totalement
compréhensible ». Mais tout chercheur en management et en gestion des ressources
humaines consacre son énergie à cette quête. Qu’on la nomme variance inexpliquée
dans les démarches quantitatives ou la part d’indicible dans les approches qualitati-
ves, les ambitions des projets de connaissance se ressemblent. Pendant longtemps,
les différences épistémologiques ont structuré les oppositions. Aujourd’hui, il est
temps de les dépasser pour construire un savoir actionnable dans les organisations,
terrain d’investigation des recherches en management et gestion des ressources
humaines, et de cumuler réellement les connaissances relatives à leurs pratiques.
Quel que soit le moment de la construction des connaissances, il existe tou-
jours une phase d’intuition et une phase de certification. Les allers-retours entre
l’exploration quantitative et la sensibilité qualitative sont, de fait, complémentaires à
l’émergence des savoirs. Il est nécessaire pour tout chercheur d’exposer dans quelle
logique de recherche et dans quel référent il s’inscrit. Même si la réflexion méthodolo-
gique provoque chez lui le sentiment d’être mis à nu. Peu l’acceptent. Pourtant la
validité et la fidélité supposent l’exposé des intentions et des motifs sociaux à l’ori-
gine de la recherche. Dès lors, la justification des méthodes de recherche employées
devient une nécessité, de même que l’acceptation de l’analyse critique, qui contribue
à l’examen de la validité des résultats d’une étude.
Cet ouvrage est construit pour apporter des réponses aux interrogations des
chercheurs et des utilisateurs de méthodes scientifiques (étudiants, experts et techni-
ciens en sciences humaines et sociales). Certes, toutes les questions épistémologi-
ques et méthodologiques ne seront pas résolues par les contributions des auteurs de
cet ouvrage. Mais chacun d’entre eux montre, dans son domaine, les avancées, les
doutes et les certitudes sur lesquels d’autres peuvent imaginer et construire un projet
de connaissance fécond.
Cet ouvrage peut apparaître atypique. Rassembler des contributions qualitati-
ves et quantitatives dans un même livre n’est pas banal dans la recherche franco-
phone en management des ressources humaines. C’est parce que nous pensons qu’il
est temps de reconnaître la diversité des positionnements épistémiques et des
6 Management des ressources humaines

moyens d’accéder au réel, que nous pourrons mieux comprendre et agir sur les prati-
ques de recherche. Les démarches par les chiffres ou par les mots s’enrichissent
mutuellement. La fécondité des recherches est souvent le résultat d’une délibération,
au sens de Ricœur 1, entre la volonté de certifier par une validation statistique et une
volonté d’expliquer par le sens.
Les différentes contributions à cet ouvrage ont toutes un point commun : la
volonté d’apporter des réponses aux difficultés rencontrées au quotidien par les cher-
cheurs (ou toute personne conduisant des études dans ou sur les organisations). Cha-
cun des auteurs a l’ambition d’exposer sa pratique et son expérience de la
compréhension de l’action organisée en entreprise. Bien sûr, il est difficile de resti-
tuer par des mots un vécu et une attitude de compréhension, mais les points de
repère et les développements proposés par les auteurs permettront au lecteur de
construire une démarche de recherche scientifique, à partir de la position épistémolo-
gique dans laquelle il s’inscrit.
La présentation didactique des méthodes de recherche exposées dans l’ouvrage
vise à répondre aux attentes des chercheurs — étudiants, experts et techniciens —
en management et en gestion des ressources humaines, mais également, à ceux
d’autres domaines de la gestion, comme le marketing, la finance comportementale, la
finance d’entreprise, la stratégie, les systèmes d’information, l’audit comptable, etc.
De plus, les lecteurs venant d’autres champs disciplinaires des sciences humaines et
sociales, notamment de la psychologie et de la sociologie du travail et des organisa-
tions, mais aussi des sciences de la vie, en santé et en médecine, trouveront dans les
chapitres de l’ouvrage des travaux particulièrement utiles pour la conduite de leurs
programmes de recherche.
Cette large ouverture révèle l’importance des transferts de connaissances entre
champs disciplinaires. Ils permettent un enrichissement mutuel grâce aux partages de
savoir, savoir-faire et savoir-être dans l’utilisation de méthodes, de techniques et
d’outils de recherche. En croisant les résultats d’expériences méthodologiques de mul-
tiples champs disciplinaires, la qualité de la recherche dans l’ensemble des disciplines
se trouve confortée. C’est la raison pour laquelle les auteurs de l’ouvrage viennent
d’horizons différents : gestion des ressources humaines, management, stratégie,
finance d’entreprise, marketing, psychologie, psychométrie, statistiques, sociologie.
Cette large ouverture des thèmes méthodologiques exposés, l’origine discipli-
naire variée des auteurs, l’esprit didactique de la rédaction des chapitres, les
réflexions critiques de fond sont autant d’objectifs que les éditeurs de l’ouvrage ont
voulus. Car l’ambition de ce projet vise à donner accès aux avancées les plus récentes
en matière de méthodes de recherche, aux étudiants de fin de cycle universitaire, aux
chercheurs, aux experts et techniciens qui conduisent des études dans les entreprises
(services ressources humaines, marketing, veille stratégique, systèmes d’information,
etc.), les cabinets conseils, les instituts d’études privés, et dans les institutions
publiques (services statistiques, de veille et de développement des ministères ; orga-
nismes publics d’études et de statistiques).

1 Paul Ricœur a défendu tout au long de son œuvre l’idée d’une possible sagesse pratique par la
mise en débat dans différentes instances afin de parvenir à un jugement avisé (c’est l’idée de phrone-
sis, qui traverse l’œuvre du philosophe).
Introduction 7

Les différentes contributions permettent d’aborder la diversité des démarches


et des pratiques de recherche. Les chapitres « qualitatifs » se situent soit à un niveau
épistémologique, soit à un niveau des techniques de compréhension. Le choix d’une
démarche sensible s’explique souvent par la volonté de donner du sens. En manage-
ment des ressources humaines, c’est sur l’action et sur les comportements que l’atten-
tion se porte.
■ Frédéric Wacheux expose, dans le chapitre 1, la nécessaire implication sensible
du chercheur auprès des acteurs et une attention à l’idéel et au jeu des rela-
tions dans la structuration des pratiques organisationnelles.
■ Anne Gombault, auteur d’une thèse remarquée sur l’identité organisationnelle,
revient, dans le chapitre 2, sur les approches par étude de cas.
■ Jocelyn Husser, à l’origine d’un travail doctoral important sur le jeu des
acteurs dans les processus d’accréditation, montre, dans le chapitre 3, l’impor-
tance du contextualisme dans un projet de recherche.
■ Pierre Romelaer développe, dans le chapitre 4, une approche réaliste pour
structurer l’échange chercheur-acteur par les différentes méthodes d’entretien.
■ Jean-Michel Plane défend, dans le chapitre 5, les démarches de recherche
action, trop souvent critiquées pour le motif d’une impossible distance entre
l’objet et le sujet.
■ Jean-François Chanlat évoque avec conviction, dans le chapitre 6, le néces-
saire recours à une approche ethnosociologique pour situer le sens et les
ambivalences de l’action sociale.
Les chapitres « quantitatifs » se situent, quant à eux, à un niveau de descrip-
tion de la mise en œuvre de méthodes et de techniques de recherche visant à explorer
et à confirmer des propositions relatives à la formalisation ou à la modélisation théo-
rique du réel. Cette modélisation s’emploie à proposer des explications sur les rela-
tions entre l’organisation et les ressources humaines dans la quête d’efficacité
individuelle et collective. Les tests visant à éprouver la validité de cette formalisation
sont effectués à partir de données collectées sur le terrain. Celles-ci sont issues soit
d’enquêtes auprès de salariés, de cadres et de dirigeants, soit de banques de données
accessibles auprès d’entreprises ou d’institutions privées et publiques. Les méthodes
de collecte et d’exploitation statistique de ces données sont au cœur des analyses
proposées dans les chapitres qui suivent.
■ Claire Gauzente, dans le chapitre 7, établit le lien entre méthodes de recherche
qualitatives et quantitatives en exposant la méthodologie Q par analyse facto-
rielle pour l’étude de la subjectivité des individus.
■ Charles-Henri d’Arcimoles et Stéphane Trébucq, dans le chapitre 8, montrent la
diversité et les possibilités de mise en œuvre des méthodes de régression pour
traiter les données sociétales et financières d’entreprises.
■ Patrice Roussel, dans le chapitre 9, présente les avancées les plus récentes en
matière d’élaboration d’échelles de mesure destinées aux questionnaires
d’enquêtes.
■ Stéphane Vautier, Patrice Roussel et Saïd Jmel, dans le chapitre 10, poursui-
vent la présentation des avancées en matière d’exploitation de données issues
d’enquêtes par questionnaires. Ils exposent les techniques d’agrégation de
8 Management des ressources humaines

variables, utilisées dans les phases préparatoires aux tests de modèles d’équa-
tions structurelles.
■ Patrice Roussel, François Durrieu, Éric Campoy, Assaâd El Akremi, dans le
chapitre 11, développent une démarche méthodologique complète de test de
modèles d’équations structurelles.
■ Assaâd El Akremi, dans le chapitre 12, expose les méthodes et les techniques
de tests d’effets non linéaires à partir du traitement de variables médiatrices
et modératrices avec des méthodes d’équations structurelles.
■ Éric Campoy et Marc Dumas, dans le chapitre 13, apportent une contribution
importante à la compréhension des démarches longitudinales en montrant leur
mise en œuvre avec des méthodes d’équations structurelles.
■ François Durrieu et Pierre Valette-Florence, dans le chapitre 14, montrent
l’apport des recherches en marketing par la présentation des dernières avan-
cées en matière d’études typologiques exploratoires et confirmatoires.
La conclusion de l’ouvrage propose des ouvertures épistémologiques. Plusieurs
auteurs réagissent sur les différents chapitres de l’ouvrage. Ils apportent une vision
critique qui enrichit le débat et permet la contradiction pour prolonger les réflexions
sur les apports et les limites des méthodes de recherche présentées.
Jacques Igalens, Jean-Pierre Neveu et Jacques Rojot proposent une réflexion
dense, consacrée à la posture du chercheur en management et gestion des ressources
humaines. Ils examinent plusieurs chapitres du livre afin de mettre en perspective les
méthodes de recherche exposées au regard d’une réflexion épistémologique et criti-
que.
L’ensemble des chapitres de l’ouvrage ne prétend pas représenter toutes les
méthodes de recherche existantes, ni systématiquement les plus avancées. La logique
adoptée dans l’ouvrage est d’exposer les méthodes contemporaines parmi les plus uti-
lisées dans les recherches en management et gestion des ressources humaines. Cela
signifie que les chapitres proposés exposent les méthodes qui ont connu des évolu-
tions importantes dans une période récente, qui sont régulièrement utilisées dans les
articles publiés dans les revues scientifiques et dans les programmes de recherche
doctoraux ou de laboratoires universitaires. Cela signifie enfin que les méthodes
« classiques », largement exposées dans les ouvrages antérieurs et n’ayant pas reçu
de contributions nouvelles significatives ne sont pas reprises.
Les auteurs espèrent que cet ouvrage permettra de prolonger un débat engagé
depuis plusieurs années sur une approche réflexive des méthodes de recherche. Il faut
aujourd’hui codifier les démarches de recherche pour progresser. L’ouvrage souhaite
ainsi contribuer à cette réflexion pour aller plus avant dans la validité des postures,
des méthodes, des techniques d’analyse des données et de restitution des résultats,
afin d’engager un véritable processus de cumulation de connaissances en sciences de
gestion.
Patrice ROUSSEL
Frédéric WACHEUX
Chapitre 1

Compréhension, explication
et action du chercheur dans une
situation sociale complexe
Frédéric WACHEUX 1

Sommaire
1 Accéder aux situations sociales 11

2 Observer, comprendre, analyser 16

3 Expliquer et proposer 20

4 Conclusion : épistémologie constructiviste


des méthodes qualitatives 27

1 Professeur, Université Paris-Dauphine.


10 Compréhension, explication et action du chercheur

Peut-on encore innover dans les méthodes qualitatives ? Certes non, l’observa-
tion du réel, la construction d’un corpus, les analyses et l’interprétation suivent des
schèmes éculés et validés par la plupart des sciences sociales. L’intelligence du cher-
cheur, plus que les outils d’analyse qu’il utilise, lui facilite la compréhension d’un
environnement social complexe, tel qu’on le trouve dans les organisations.
Aujourd’hui, les méthodes qualitatives tendent à se formaliser. Les outils sont de plus
en plus en résonance avec le pragmatisme de James. Cependant, il ne faut pas con-
fondre le formalisme et la procédure. Si les méthodes quantitatives s’arrangent d’une
rationalité imposée par les modèles statistiques, les approches compréhensives sup-
posent une démarche de focalisation progressive sur un objet pour faire émerger le
sens.

Aucune réalité ne se dévoile naturellement par l’observation contemplative. Le


mythe de la caverne reste indépassable. Rien ne remplacera, chez le chercheur, l’expé-
rience de l’intuition du sens, puis de sa formalisation dans une refiguration théorique.
Le réel contemplé, comme les mots des acteurs, ne sont pas immédiatement compré-
hensibles et ne s’inscrivent jamais totalement dans des cadres théoriques définis a
priori. Les insuffisances de l’observation s’ajouteront toujours aux ambiguïtés et au
désordre du réel. La polysémie est intrinsèque aux situations humaines. Le chercheur
qualitatif accepte cette difficulté pour construire une explication.

Les réflexions méthodologiques ne peuvent apporter toutes les réponses aux


doutes, aux difficultés et aux erreurs d’un chercheur sur son terrain. Par contre, elles
doivent l’inspirer et l’obliger à respecter les contraintes formelles pour recueillir des
données, la manière de les analyser et de les restituer aux acteurs ou à la commu-
nauté scientifique. Contrairement aux approches quantitatives, la validité du qualita-
tif s’exprime par une exigence de moyens plus que de résultats.

On ne peut se limiter à une quête factuelle dans les sciences sociales. La quête
du sens, théorique et social, doit structurer la démarche. Ce chapitre tente donc de
montrer un spectre méthodologique enseignable à partir duquel le chercheur peut
organiser son processus de compréhension des situations sociales locales. Il met
l’accent sur les difficultés d’accès au réel, la nature de l’observation et la construction
explicative. Toutefois, il s’agit d’un idéal type à partir duquel chaque chercheur ima-
gine concrètement ses actes. Aucune recherche qualitative ne ressemble à une autre.
Si les outils d’analyse peuvent être standardisés (entretien, observation, analyse de
contenu, …), un processus de recherche contrôlé est le meilleur garant de la validité.
Ce ne sont pas les résultats qui sont scientifiques, mais la démarche adoptée pour les
produire.

Les idées défendues ici sont simples. Elles s’articulent autour de trois postulats
épistémologiques à la base des démarches constructivistes. Il faut les adopter pour
accepter les raisonnements suivants.
■ La réalité est construite et non donnée. Toute situation sociale est en perpé-
tuel devenir par les actes, les faits et l’attribution de sens par les acteurs,
comme par les chercheurs, actualisée dans l’instant. Les invariants ne sont que
la forme idéelle de l’instantanéité. Il est donc fondamental de comprendre les
processus pour analyser la structuration d’une situation.
Accéder aux situations sociales 11

■ La théorisation n’est pas une finalité mais un moyen. Les concepts permettent
un encodage provisoire des situations ou des propositions d’expérience. Celles-
ci peuvent être ad hoc sur un contexte local, de moyenne portée sur des con-
textes parents ou des conjectures dans l’attente d’une traduction.
■ Le chercheur est un médiateur entre une réalité complexe abstraite et une
théorisation dédiée à l’interprétation ou la constitution de connaissances. Il a
donc pour mission de confronter les faits et les concepts pour proposer une
explication qui fait sens pour les acteurs et la communauté scientifique.

Ce chapitre suit donc un schéma chronologique. La partie « accéder aux situa-


tions sociales » montre comment un chercheur peut s’immiscer dans un contexte avec
son bagage théorique. La seconde partie « observer, analyser, comprendre » expose
les outils à utiliser et les comportements à tenir pour construire un corpus.
« Expliquer et proposer » donne les principes de la construction explicative. Enfin, on
ne peut conclure sans réaffirmer quelques principes épistémologiques constructivistes
pour les soumettre à la discussion.

1. Accéder aux situations sociales

Dans l’entreprise, les acteurs sont engagés dans un tissu de relations sociales,
une distribution des rôles, pour une finalité plus ou moins explicite. Lorsque le cher-
cheur arrive dans ce contexte, très largement structuré, il est normal qu’il se heurte à
des incompréhensions, des résistances. Comment accepter ce regard extérieur, perçu
comme « inquisiteur », sur les pratiques, le comportement, l’efficacité des pratiques ?
Les premiers moments de la présence en entreprise sont essentiels à la réussite de
l’observation. C’est banal de dire qu’il faut établir une relation de confiance avec les
acteurs. Il est évident de rappeler qu’il faut rédiger un contrat. Mais, c’est plus inno-
vant d’affirmer que le chercheur doit nécessairement apporter une plus-value aux
acteurs pour qu’ils acceptent son regard et le légitiment. Cette plus-value peut
d’ailleurs prendre de multiples formes : retours d’expériences, préconisations managé-
riales, interventions en responsabilité.

Tous ceux qui réussissent à nouer une relation mutuellement profitable recon-
naîtront qu’alors les données sont d’une fidélité et d’une qualité incomparables, lors-
que les acteurs attendent les résultats de la recherche. La réflexion en méthodologie a
pour vocation d’imaginer des méthodes pour garantir le processus scientifique d’une
démarche de recherche interactive avec les acteurs. Depuis plusieurs années, de nom-
breux auteurs nous ont apporté ces méthodes. Aujourd’hui, l’étude de cas semble faire
l’objet d’un consensus dans la communauté scientifique pour garantir la validité théo-
rique et l’intérêt gestionnaire des recherches qualitatives.

Les motifs de l’utilisation de l’étude de cas en sciences de gestion sont mainte-


nant connus. On peut les résumer par trois dimensions complémentaires :
■ la volonté de contextualiser la problématique dans l’environnement même de
sa production pour appréhender la dynamique des situations ;
12 Compréhension, explication et action du chercheur

■ la nécessaire prise en compte du temps dans l’analyse de processus organisa-


tionnels pour montrer l’appropriation, l’actualisation et la construction des
situations ;
■ l’intérêt pour la compréhension du quotidien des acteurs dans l’entreprise de
produire une connaissance des situations vécues par les acteurs.
Comme le défend Javeau (2003), « il y a toujours un passé et un avenir à une
situation sociale ». Elle ne peut se comprendre sans référence à ce qui l’a construite
et sans imaginer son devenir. C’est le caractère idéel de l’instantanéité qui est l’objet
même de la dynamique sociale. Le temps intervient comme un flux qui anime les faits
et les acteurs. Dans cet esprit, peut-on se contenter des analyses à un instant t, de
photos figées du réel, comme s’il s’agissait d’un état scriptural et sculptural ? La réa-
lité sociale n’est jamais figée. S’il est nécessaire de comprendre les facteurs contin-
gents et structurants d’un contexte, ils ne peuvent que qualifier les faits. Les
situations sociales existent parce qu’elles se reproduisent et non parce qu’elles sont.
Pour accéder au réel, le chercheur doit donc s’y impliquer. Il a peut-être une chance
de comprendre le vécu, la construction sociale, les processus d’appropriation et de
contextualisation de la pensée.
La conscience de l’acteur n’est pas un miroir sans tain du réel. Le sens image
les structures et non l’inverse. Par exemple, un entretien de recrutement n’a de sens
que par rapport au passé, l’émergence d’un besoin, dont la perception sociale est plus
ou moins explicitée dans le présent de la rencontre. L’actualisation par les acteurs des
temps sociaux sera imparfaitement mimée par les dispositifs théoriques, aussi com-
plexes soient-ils. Les acteurs produisent et reproduisent les faits sociaux dans
une coconstruction du temps et de l’espace qu’ils maîtrisent plus ou moins et
qu’ils conscientisent imparfaitement.
Les situations en entreprise sont structurées par les interactions pensées, pro-
voquées et vécues. Le chercheur doit donc construire des relations avec les acteurs
pour s’immiscer dans leur quotidien. La parole de l’acteur ne se livre que s’il y a une
parole du chercheur. La relation se construit par l’échange dans les rapports humains.
L’interaction volontaire et durable entre le chercheur et les acteurs facilite
alors un processus d’équilibration piagétien. Si les praticiens prennent conscience des
logiques sous-jacentes au problème, acceptent de discuter les rationalisations théori-
ques, alors les chercheurs intègrent à partir de cette discussion, les normes, les
croyances et les routines de la structuration des situations sociales. Cependant, le
processus interactif de constitution du corpus doit s’accompagner d’une maîtrise des
méthodes de distanciation et d’objectivation, exposées dans les paragraphes suivants.
Le « syndrome de Stockholm » existe aussi dans un processus de recherche. Les
microanalyses et les interprétations théoriques, pendant la présence sur le terrain,
demeurent les meilleurs garants de cette forme minimale d’objectivation.
Par cet intermédiaire, la rationalité limitée et les théories implicites des
acteurs entrent, de fait, dans l’analyse à partir de ce qui est considéré comme
important pour eux (Figure 1.1). Historiquement, socialement et abstraitement les
acteurs pensent leur situation et l’équilibre au moment où ils les vivent. Comment
peut-on imaginer une objectivité « à froid », loin du contexte ? C’est sans doute le
problème majeur des recherches en stratégie. Elles s’intéressent la plupart du temps à
Accéder aux situations sociales 13

Espace empirique Espace argumentatif Espace théorique


Données, faits, savoir pratique
Contexte acte théorique Hypothèses, concepts
Apriorisme

Intuition compréhension Démonstration

Expérience connaissance Entendement

Source : Kahla et Wacheux, 1996.

FIGURE 1.1 – Construction d’un espace conatif

des rationalisations a posteriori. Les dirigeants acceptent de parler quand les déci-
sions sont appliquées, lorsqu’il n’y a plus d’ambiguïté, ni d’incertitudes ou d’enjeux.
Dans ces analyses, les stratégies apparaissent rationnelles. Alors qu’a priori ou dans
l’instant, elles sont relationnelles. L’analytique prend le pas sur l’émotionnel et les
errances de l’approximation.
Les méthodes qualitatives donnent l’opportunité de la compréhension par un
effort structuré d’observation et d’empathie aux situations. Bien sûr, la simple obser-
vation, ou la présence, ne permet pas la compréhension. L’argument défendu ici se
résume par une idée simple. Le chercheur présent en entreprise peut constater des
faits, interagir avec les acteurs, conceptualiser en actes. Cette méthode de production
des données donne un corpus original qu’aucune autre démarche ne peut faire émer-
ger.
Cependant, cette relation ne s’établit pas de manière naturelle et immédiate.
Le chercheur doit avoir la volonté de la construire. Les acteurs ont naturellement
une connaissance immédiate de leur situation (savants ordinaires), et ils ne
comprennent pas souvent l’intérêt d’être engagé dans une démarche de recher-
che (primat de la praxis). Cette situation est confortée par le fait, qu’au début du
processus empirique, le chercheur a plutôt une attitude d’empathie naïve pour
apprendre et comprendre avant de proposer, puisque c’est l’objet même de son explo-
ration. Dès les premières rencontres, il faut montrer la nature des résultats suscepti-
bles d’être établis, accepter d’expliquer la nature des objectifs de la recherche pour
avoir une chance d’impliquer les praticiens dans la production de connaissances théo-
riques.
C’est aussi de cette manière que l’on a une chance de comprendre les phéno-
mènes de reliance (selon le concept de Maffesoli, 1979). C’est-à-dire l’ensemble des
liens non structurés entre les acteurs d’un système social. « Le caractère de préstruc-
turation symbolique de l’objet des sciences sociales : non seulement le sociologue
développe nécessairement ses analyses dans un contexte de signification déjà consti-
tué dans la communication intersubjective, mais le comportement social des individus
est lui aussi toujours le résultat d’une précompréhension symbolique du réel »
(Crespi, 1983).
14 Compréhension, explication et action du chercheur

Lorsqu’une relation de confiance se noue entre le chercheur et les acteurs-


décideurs dans une étude de cas, des demandes précises émergent naturellement dans
les discussions. Il s’agit souvent d’interrogations formulées dans un style de consul-
tance. Mais, l’interprétation de ces demandes dans un cadre théorique et méthodolo-
gique pose rarement des problèmes insurmontables. Si l’on convainc le praticien de
s’interroger sans visée transformative immédiate, sa connaissance de la situation et
l’œil extérieur du chercheur permettent d’organiser une relation mutuellement
féconde. Il est de la responsabilité du chercheur d’élaborer plusieurs restitutions de la
recherche pour satisfaire à ce dédoublement des rôles.
Toutes les recherches sur l’organisation ne parviennent pas à établir cette rela-
tion aux acteurs, elle n’est d’ailleurs pas systématiquement nécessaire, ni souhaita-
ble. Mais, des recherches constructivistes exploratoires sur les réalités quotidiennes
des acteurs dans leur espace de travail trouvent leur véritable intérêt dans cette
démarche. Les liaisons restent « dangereuses ». Le risque de n’être finalement qu’un
consultant amélioré demeure. Aujourd’hui, les réflexions méthodologiques dans diffé-
rents domaines des sciences sociales sont suffisamment approfondies pour donner les
outils scientifiques permettant d’assumer les deux objectifs d’une recherche interac-
tive. Le cas de la recherche action est exemplaire à cet égard. Cette démarche s’inscrit
aujourd’hui dans une tradition ancienne. Paradoxalement, les sciences de gestion
acceptent mal de devenir sciences de l’action.
C’est la raison pour laquelle le chercheur doit anticiper sa stratégie de recher-
che et de présence en entreprise pour construire son objet (Encadré 1.1). L’étude de
cas semble être l’un des instruments les plus puissants pour guider et encadrer le pro-
cessus de recherche, à condition de ne pas imposer une « raison froide » sur les situa-
tions 2. On ne peut plus accepter aujourd’hui les critiques « d’inductionnisme naïf »,
ni les oppositions sur le caractère local des théorisations. Les démarches qualitatives
sont productrices de téléologie dans un espace de représentativité théorique 3.
Il faut plutôt concevoir l’apprentissage de la pratique de chercheur dans
une logique de la découverte permanente (théories, pratiques, raisonnement, …)
et comme la volonté de repérer des faits significatifs dans l’attente d’une abstraction
théorique. On peut bien sûr mettre des œillères et réduire son sujet à une relation de
causalité simple entre A et B. Mais, lorsque l’on accepte de laisser la problématique
ouverte, d’interagir avec les acteurs, de comprendre en profondeur les contextes, c’est
infiniment plus fécond par la présence d’un homme incarné dans sa recherche.
La plupart des observations et du corpus est constituée par des « mots ».
Encore faut-il distinguer ce qu’ils sont censés signifier. À différents moments de la
recherche, l’observateur « désinvente » (Finkielkraut) les sens théoriques et empiri-
ques emcapsulés. Lorsque le chercheur est l’instrument de la compréhension par des
entretiens, des observations ou des quasi-expérimentations, alors la connaissance est
d’abord intime (Kant), avant d’être sensible, puis théorique ou expérientielle. Il y a
toujours une part de phénoménologie dans une recherche interactive. Les méthodes

2 C’est-à-dire un raisonnement par principes positifs qui nie le sens et les intuitions des acteurs
en situation.
3 Au sens de Glaser et Strauss.
Accéder aux situations sociales 15

ENCADRÉ 1.1
Risques pendant le processus d’observation

Le questionnement n’est jamais définitivement figé. Tout au long du déroulement,


les découvertes théoriques et les rencontres avec les acteurs alimentent la réflexion du
chercheur et nécessitent des ajustements, quelquefois des remises en cause du projet.
La problématisation locale est une étape essentielle dans la construction de l’objet. De
cette manière, l’abstraction théorique est contextualisée.
La maîtrise des différentes techniques par le chercheur ne peut être parfaite. Tout
le monde fait des erreurs dans la réalisation d’entretiens, dans l’interprétation de
tableaux de chiffres, dans la compréhension des postulats sous-jacents aux théories.
Ce serait naïf de croire à l’idéalisme d’un chercheur deus ex machina de la construc-
tion de connaissances. Les sciences sociales sont approximatives par essence pour
être réalistes.
Les résultats ne s’articulent jamais idéalement à d’autres savoirs. La spécificité des
contextes étudiés, comme les particularismes du projet de recherche (problématique,
protocole, analyse), singularisent le projet et rendent difficile l’accumulation de con-
naissances (même provisoires). Dès que l’on s’intéresse à une situation où des hom-
mes sont impliqués la spécificité est évidente. On ne retrouve jamais deux fois le
même contexte, les mêmes enjeux et acteurs au même moment de leur histoire person-
nelle.

d’extériorisation, d’encodage, de distanciation et d’interprétation empruntent néces-


sairement à cette épistémologie.

Au minimum, le chercheur doit distinguer dans ses données, sur la base de la


philosophie de Ricœur :

■ les événements infrasignificatifs : le descriptif de ce qui arrive dans le con-


texte (vécus ou non) ;

■ l’ordre et le règne du sens : le non-événementiel auquel les acteurs font réfé-


rence dans leur discours (schémas réguliers d’interprétation) ;
■ l’émergence d’événements suprasignificatifs : la construction narrative d’iden-
tité fondatrice (provoqués ou naturels).

À partir de cette position, dans la période d’observation intensive auprès des


acteurs, les théorisations interviennent comme un moteur de la compréhension et de
la construction explicative, à cause d’un nécessaire réalisme, même dans l’abstrac-
tion. L’absence d’objectivité et de distanciation, la difficile démonstration de la vali-
dité et de la fidélité sont les critiques les plus fortes et les plus fondées par rapport à
la méthode des études de cas. Mais de nombreuses réflexions épistémologiques appor-
tent des arguments pour y répondre. La partie suivante évoque justement cette struc-
turation de la recherche, construite pour contrôler l’implication du chercheur dans le
contexte social.
16 Compréhension, explication et action du chercheur

2. Observer, comprendre, analyser

L’étude de cas suppose une présence longue sur le terrain afin de se position-
ner dans une situation d’intermédiation, entre un rôle d’acteur et un rôle d’observa-
teur. Dans cette position, le chercheur élabore progressivement une rationalité
explicite qui agence les spécificités du terrain et le cadre théorique. L’analyse de
l’environnement social de proximité et des détails de la vie quotidienne dans l’organi-
sation se nourrit de ce paradigme. On est quelquefois surpris de la naïveté de certai-
nes recherches quantitatives, lorsqu’une relation causale singulière est supposée
signifier une réalité complexe, qui plus est généralisable. La richesse des méthodes
interactives résulte de la prise en compte des théories implicites des acteurs dans le
processus de compréhension et de la spécificité du contexte dans lequel elles se cons-
truisent.
Fondamentalement, « le monde social ne se réduit pas aux représentations que
s’en font les agents » (Blin, 1995). Par conséquent, les données recueillies par une
étude de cas apportent des informations originales par rapport aux questionnements
directs et indirects des acteurs. « On ne peut pas étudier les hommes comme des
botanistes. » (Laplantine, 1987.) Il faut échanger avec eux et partager leur quotidien
durablement pour pouvoir, peut-être, accéder au sens des situations. C’est le constat
ethnologique. Pour comprendre un phénomène, le chercheur doit s’intégrer, sociale-
ment et objectivement dans un contexte organisationnel, grâce à sa maîtrise du théo-
rique.
L’observation directe par la présence en entreprise permet de s’imprégner des
thèmes obsessionnels d’une société, selon Laplantine (1987). En étant impliqué dans
un rôle participant, le chercheur a plus de chances de pouvoir restituer aux acteurs
leur savoir, leurs savoir-faire et les encoder abstraitement. On a une meilleure con-
naissance des choses que l’on vit. Il est plus facile de les appréhender intrinsèque-
ment parce qu’une multitude de sens sont mobilisés (a posteriori, comme a priori dans
l’acte). Même si ces impressions subissent des perturbations cognitives et que les
souvenirs s’estompent rapidement par les équilibrations successives.
De fait, il restera toujours un état de sensibilité kantien qu’un chercheur
peut faire émerger avec une assistance et grâce à un exercice phénoménologi-
que. Dans les sciences de gestion, comme pour la plupart des sciences sociales, les
faits recueillis sont marqués par la thèse de la « contamination » chère aux épistémo-
logues contemporains 4. Il faut donc revenir à des objectifs réalistes de la connais-
sance des situations humaines : décrire, expliquer, prescrire ; et non s’enfermer dans
la quête d’une naturalisation théorique globalisante.
L’argument de la confrontation synchrone entre le fait et le concept, de la pos-
sibilité de tester les théories en actes et l’opportunité de chercher les faits signifiants
constituent un avantage déterminant des méthodes qualitatives. Les méthodes quan-
titatives asynchrones font précéder l’empirique par le théorique. Au moment des
entretiens, les mots des acteurs évoquent des concepts et restituent des théories

4 La contamination correspond au principe que les faits observés sont nécessairement empreints
de concepts. L’objectivité, au sens étroit des empiristes positivistes, est un non-sens social.
Observer, comprendre, analyser 17

implicites. Le chercheur doit alors provoquer un discours, sans cesse équilibré par un
théorique en résonance avec les représentations de l’acteur. Le corpus est donc d’une
qualité et d’une précision empirique sans équivalent.

Encore faut-il savoir jouer de l’engagement et de la distanciation 5 dans les


mécanismes d’attention aux situations sociales pour pouvoir raisonner l’empirique
avec le théorique et contextualiser les concepts par les faits (Tableau 1.1). Selon les
phases de la recherche, le regard porté sur les situations ne peut être le même. La
compréhension suppose de mobiliser plusieurs référents théoriques dont la nécessité
s’impose en fonction des découvertes et des analyses au cours des observations.

Au début de la présence Être empathique pour comprendre Donner à voir pour susciter
l’identité et la structuration de l’engagement des acteurs dans
la situation observée. la recherche.

Lors la phase intensive Prévenir tout transfert sur le chercheur Susciter la révélation des faits par de la
d’observation pour un autre motif que l’observation. quasi-expérimentation, même verbale.

À la terminaison Impliquer les acteurs dans l’interpréta- Redonner un statut explicatif majeur
de l’observation tion des faits à partir de leurs théories aux théories et engager une distanciation
implicites. par l’abstraction.

Pour la restitution des résultats Montrer l’apport d’une analyse théori- Traduire dans un langage pragmatique
que pour l’agir en organisation. pour faciliter l’appropriation.

TABLEAU 1.1 – Paradoxe de la présence du chercheur sur son terrain

L’observation suppose de passer par une phase descriptive de l’observation,


avant de problématiser puis de comprendre (Adam et al., 1995). Pour appréhender les
attitudes d’un individu, il faut aussi connaître comment il perçoit son environnement
(Becker, 1970) 6. L’observation participante privilégie le contexte de la découverte sur
la preuve (Lessart-Hebert et al., 1990). Il s’agit en quelque sorte de construire des
théories « enracinées » dans un contexte spécifique. Le concept de motivation, ou
même d’engagement, par exemple, est souvent beaucoup trop décontextualisé pour
faire sens et les résultats de recherche sont peu utiles pour les acteurs en situation.

Néanmoins, dans une approche par étude de cas, il existe trois limites indépas-
sables (Mucchielli, 1988) :
■ L’observateur est localisé dans l’espace et le temps. La problématique de
recherche sera donc limitée par ce qu’il est possible de « voir » ou de reconsti-
tuer.
■ Les moyens d’observation sont imprécis (physiques et mécaniques). La produc-
tion de données est toujours validée par une triangulation.

5 Selon les concepts de Norbert Elias, particulièrement adaptés à l’attitude du chercheur sur son
terrain.
6 Cité par Hamel et al. (1991).
18 Compréhension, explication et action du chercheur

■ Le chercheur a forcément une attention sélective (regards et schémas cogni-


tifs). La codification et les microanalyses continues obligent à maintenir une
attention théorique.
Dans le paradigme ethnométhodologique, le chercheur se donne comme
projet de ne pas considérer l’acteur social comme un automate programmable.
Cicourel et Garfinkel sont bien sûr les deux auteurs fondamentaux de ce courant.
Dosse (1995) le définit comme « une démarche ethnographique de simple observation
participante des actes de la vie quotidienne, afin de percevoir et de révéler les procé-
dures à l’œuvre, sans pour autant avancer des hypothèses préalables à l’étude de
terrain ». L’ethnométhodologie se place donc entre l’ordre et l’action sociale (Dosse,
1995). L’étude de cas peut s’approprier sans réserve les postulats de ce paradigme.
Dans ces conditions, il s’agit d’une expérience phénoménologique. Le cher-
cheur pense son expérience pour la restituer et la rendre signifiante. Néanmoins, il ne
s’agit pas d’une autobiographie, il y a une exigence de problématisation sur une base
réflexive de l’expérience et une interprétation du vécu des acteurs. Quel que soit le
type de recherche qualitative entreprise, la dimension phénoménologique sera pré-
sente. Dans tous les cas, le chercheur déploie des outils et des instruments pour maî-
triser son objet. Il acquiert progressivement des intuitions raisonnées. C’est son
expérience du projet, son entendement même. Elle fait partie de la recherche, et doit
donc être présente dans la restitution des résultats.
Le chercheur enregistre et analyse ses faits intimes (au sens de Maine de
Biran). La conscience immédiate est acquise par un effort voulu de l’individu sur lui-
même, elle figure la causalité des faits de l’expérience intime. À la différence des phé-
nomènes physiques, les causalités sont difficilement réductibles à un rapport de suc-
cession lorsqu’elles impliquent des hommes. « Tout ce qu’un être pensant et sentant
aperçoit ou sent actuellement, en lui ou hors de lui, par quelque sens externe ou
interne, devient pour cet être ce que nous appelons un fait. » (Maine de Biran, 1766-
1824.) Le chercheur analyse ces faits comme des causalités irréductibles à un causa-
lisme simple. Contrairement à l’énoncé de Mauss (1950), dans une approche construc-
tiviste, l’ensemble des faits ne peut pas s’expliquer indépendamment de ceux qui les
vivent. L’attention ne suffit pas à élaborer un construit. Les deux citations suivantes
résument, mieux qu’une longue démonstration, l’esprit dans lequel il faut aborder
l’observation et la compréhension des situations sociales :
« Il ne suffit pas regarder ou d’entendre pour savoir. » (Besnier, 1996)
« L’imagination est plus importante que le savoir. » (Einstein)

Trop souvent les chercheurs croient que la simple attention à une situation
permet de découvrir une structure de sens à la base de propositions théoriques, voire
de modélisations. Il ne suffit pas d’écouter pour entendre, il ne suffit pas d’entendre
pour comprendre. Aux deux étapes, les effets déformants doivent êtres contrôlés par
la méthode. Les précautions prises par le chercheur dans son protocole de recherche
le distinguent sans ambiguïté de tous ceux qui s’intéressent à l’action managériale.
Or, le management est souvent normatif dans le discours et très empirique dans
les pratiques. Les théories ne sont pas a priori dans les phénomènes, en tout cas, pas
sous une forme immédiatement perceptible. Et les événements ne sont jamais totale-
Observer, comprendre, analyser 19

ment assimilables à un schéma déterministe. Dans ces conditions, tout phénomène


devient une énigme à résoudre par une démonstration. Par exemple, au moment de
négociations salariales individuelles, le face à face entre les deux acteurs typifie
d’autres significations que l’objet même de la discussion. Le passé, le présent et le
futur se cristallisent dans l’instantanéité de la rencontre et structurent le dialogue. Ce
moment, somme toute banal, peut difficilement s’épuiser par des mots, même de la
part de ceux qui le vivent.

La volonté de comprendre les praxis dans leur complexité rend difficile toute
tentative de modélisation. Le risque d’une conceptualisation ad hoc, et d’une généra-
lisation arbitraire guette toute recherche compréhensive ou constructiviste. C’est
pour cette raison qu’une démarche empirique contextuelle se donne explicitement
comme finalités d’expliquer les situations par du théorique et de conceptualiser pour
permettre à d’autres de produire des abstractions de moyenne portée. Le constructi-
visme, c’est aussi les allers-retours permanents entre les concepts de niveaux de vali-
dité différents.

Le principe de contextualisation théorique et pratique des études de cas


résout, en partie, cette difficulté épistémologique. Chaque situation est singulière, il
n’existe donc pas d’explication théorique a priori. Le chercheur intervient dans les
contextes avec son « bagage théorique » pour essayer de construire une explication
signifiante et vraisemblable. Le temps de l’intervention est consacré à rapprocher les
faits observés, les théories disponibles et les concepts ad hoc pour élaborer une
représentation qui doit satisfaire aux critères spécifiques du théorique émergent 7. La
validité et la fidélité de l’explication résultent donc de la contextualisation théorique
et empirique. De cette manière, le chercheur remplit une fonction d’utilité sociale qui
fait cruellement défaut aux approches distantes de l’organisation.

Mais, le processus de la recherche ne peut pas s’interrompre à ce moment.


Deux prolongements doivent permettre d’engager une accumulation des connaissan-
ces sur la thématique particulière. D’une part, la description précise des situations
étudiées donne les moyens de repérer des contextes parents (Simmel, 1981), donc
l’occasion de reprendre l’explication pour féconder des situations apparemment sem-
blables. D’autre part, après plusieurs expériences empiriques, le chercheur construit
un ensemble conceptuel cohérent et propose des théorisations de moyenne portée. Ce
système forme sa problématique personnelle qu’il communique régulièrement à partir
d’une codification temporaire de ses états de sensibilité. C’est la fonction d’exposition
de la recherche, à condition de ne pas faire de la refiguration arbitraire ou de l’exem-
plification.

Cette démarche de construction explicative ad hoc pour les connaissances


empiriques, et conatives 8 pour les propositions théoriques, nous semble être l’un des
idéaux types à formaliser. L’approche correspond à une orientation constructiviste.

7 Selon la position de Glaser et Strauss (1967), les critères sont la saturation des concepts, la
complétude et l’acceptation.
8 Le sens du mot conatif n’est pas repris dans l’acception traditionnelle des linguistes. Il exprime
plutôt la simulation d’une discussion entre les faits et les théories, telle qu’elle a été exposée dans
une communication avec K. Kahla (1996).
20 Compréhension, explication et action du chercheur

L’objectif est la traduction des connexions subjectives dans des propositions d’expé-
riences, selon les deux catégories de la philosophie kantienne (Tableau 1.2).
Le moment où le chercheur réapprend à dire « je » se matérialise par l’objet de
l’explication et des propositions. À ce moment, la construction d’un discours théorisé
tente de linéariser par des mots la complexité d’une situation.

Principe Définition Application

La rectification Une formalisation progressive de la problé- Une volonté de prendre en compte l’ensemble
matique au contact du terrain, à partir d’une des dimensions du problème théorique dans un
théorisation provisoire. contexte particulier et de le préciser grâce aux
interactions constructives avec les acteurs.

Le principe d’intelligence Le travail empirique passe progressivement L’interaction avec les praticiens autorise l’inté-
partagée d’une observation naïve des faits à une véri- gration dans l’analyse des connaissances « pré-
table analyse, avant de parvenir à une cons- et quasi scientifiques » des acteurs portant sur
truction explicative. les problèmes qu’ils vivent quotidiennement.

Le principe d’enregistrement Pendant la présence sur le terrain, les échan- Le chercheur confronte les qualités sensibles de
systématique ges avec les acteurs, le travail sur documents l’objet à ses intuitions et mobilise des concep-
et l’observation passive sont systématique- tualisations pour les préciser.
ment enregistrés, codifiés et classés dans le
dictionnaire des thèmes.

Le principe de créativité Les observations permettent d’accumuler des La discussion ne concerne pas la validité des
analytique faits et des microanalyses pour l’explication résultats, mais la fidélité du processus de
et l’abstraction de premier niveau. Ils sont recherche et la capacité à expliquer les situa-
sans cesse réinterprétés. tions.

Le principe de refiguration La représentation sera toujours un artefact La construction explicative concorde avec un
démonstrative susceptible d’expliquer le contexte. Le cher- principe d’organisation des données pour figu-
cheur s’assigne l’objectif de réduire les don- rer la réalité et un principe poïétique pour con-
nées pour les catégoriser dans une vaincre de la fécondité des résultats.
description séquentielle.

Le principe de la preuve L’entendement kantien fonde les critères de Les critères classiques d’acceptation interne et
« ostensive » validité des démarches qualitatives : « c’est externe, de complétude et de saturation des
le pouvoir de produire des représentations » concepts traduisent en pratique l’exigence de
pour ordonner les autres représentations. penser l’objet par les intuitions sensibles, puis
de convaincre par la démonstration.

TABLEAU 1.2 – Six principes adoptés pour conduire les études de cas

3. Expliquer et proposer

Que faire, comment faire, face à des données volumineuses, quelquefois con-
tradictoires et enveloppant la problématique sans la dévoiler ? Dans le secret de son
laboratoire, noyé sous des milliers de pages de mots, le chercheur qualitatif envie les
certitudes de son collègue quantitatif sur la croyance d’une réduction objective des
Expliquer et proposer 21

données par la quantification. Ce sentiment s’évapore en général rapidement lorsque


le travail d’analyse approfondi commence. Il a vécu auprès des acteurs, il a entendu,
quelquefois dans l’hésitation, l’extériorisation des théories implicites. Il sait que les
acteurs en entreprise sont des hommes et des femmes qui ne peuvent être enfermés
dans une équation, même structurelle. D’abord et avant tout, les situations sociales
ne cadrent jamais parfaitement avec une modélisation, aussi complexe soit-elle.
Les données collectées sont des apparences à partir desquelles le chercheur
tente de découvrir un sens social construit. Il ne peut y avoir d’études qualitatives
sans un corpus 9 recueilli par de multiples sources. Il ne peut y avoir d’énoncé théori-
que assertotique sans une réduction des données à des faits signifiant une réalité ou
confirmant une hypothèse. Or, la manière dont l’objet de recherche est construit rend
difficile cette typification théorique. Le passage de l’ensemble empirique à la raison
théorique se révèle difficile et fait l’objet de multiples critiques dans la démarche
constructiviste. Au fond, il faut admettre le postulat épistémologique constructiviste
d’une construction théorique dédiée à comprendre puis à expliquer une situation sans
la mimer. Les encodages, les réductions de données et les analyses sont des figura-
tions pour combiner une rationalité théorique abstraite et un savoir implicite des
acteurs.
Nous ne connaissons la réalité que par la description qu’on en fait (Einstein)
et par les sentiments qui nous assaillent. Encore faut-il savoir quel récit faire des
situations. Les chercheurs ne peuvent les restituer que par des modèles dans lesquels
chacun projette ses propres cadres de références. Dans cet esprit, les données quali-
tatives et quantitatives ne sont que des indices dans l’attente d’inférences causales,
théoriques ou symboliques. L’expérience quotidienne des acteurs ne s’encode pas
linéairement dans les faits et la mémoire. Le réel est donc une catégorie appréhendée
dans le cadre de perception selon l’approche kantienne. Aucun outil, aucune méthode
ne pourra se substituer à l’intelligence compréhensive et interprétativiste du cher-
cheur.
La quête d’une réalité objective est donc vaine, voire inutile. Le langage scienti-
fique agit par idéalisation successive dans les concepts d’une réalité pensée comme un
objet. Vouloir sans cesse objectiver aboutit à nier les acteurs, à ignorer la sensibilité
vécue et à oublier la part d’indicible, inhérente à toute situation sociale. Pour parvenir
à expliquer et à proposer, l’étonnement philosophique d’Aristote se révélera toujours
plus riche et prégnant qu’une démonstration. Lorsque les chercheurs accepteront que
la démarche qualitative produit des abstractions pour expliquer et que les outils
quantitatifs examinent la généralisation pour la validité, beaucoup d’incompréhen-
sions seront résolues.
La distinction entre la phase d’analyse théorique et le travail empirique rend
difficile la confrontation des deux puisque le chercheur construit sur la chose en soi.
On pourrait, comme dans les enquêtes quantitatives, choisir des indicateurs simplifiés
supposés signifier un concept. Mais, cet artifice est particulièrement insatisfaisant
pour des méthodes dédiées à faire émerger le sens, à proposer des explications de
réalité complexe et à théoriser sur des problématiques locales. Il faut explorer

9 Un corpus est un ensemble de données brutes recueillies méthodiquement dans un but précis, en
l’occurrence la problématique de recherche.
22 Compréhension, explication et action du chercheur

d’autres voies, d’autres démarches. Accepter de se départir un instant d’un positi-


visme déguisé, auquel notre esprit cartésien nous ramène sans cesse.
L’observateur est l’acteur de son observation. On peut difficilement dissocier
celui qui observe de celui qui interprète. Le processus est socialement construit et
théoriquement raisonné. La subjectivité dépend beaucoup de l’encodage du réel dans
des cadres conceptuels et de la résonance empirique des interprétations qu’il propose.
Le sens attribué aux faits est nécessairement le fait d’une personne, le chercheur ou
l’acteur. La confrontation des concepts raisonnés de l’un s’enrichit des théories impli-
cites de l’autre. Il est illusoire de croire que la scientificité des modèles sociaux inter-
prétatifs, peut simplement se légitimer par une rationalité intrinsèque mathématique.
Quelle que soit la situation sociale, il restera une part d’indicible. Encore une fois, il
faut accepter le caractère nécessairement approximatif des sciences sociales. Les con-
naissances certaines resteront rares.
Pour dépasser ce nœud épistémologique, il faut entreprendre un double
travail :
■ D’une part, l’analyste construit des groupes de données liées entre elles
par le sens et le contexte, attachés à un thème figurant un concept. C’est
donc une logique de réduction des données par un mécanisme d’entonnoir
dans des agrégats qui transcende le fait par l’explication.
■ D’autre part, le chercheur déploie ces ensembles réduits dans des signifi-
cations théoriques. Le chercheur se pose la question de savoir « qu’est-ce que
tout cela signifie ? » (Aubusson, 2002). Il tente d’interpréter les faits par des
concepts parce que ses schèmes sont théoriques et d’illustrer les concepts par
des faits parce que qu’il veut faire sens. Au fond, c’est une logique de média-
tion sociale qui ne renierait pas les néo-institutionnalistes. Pour y parvenir,
l’explication agence quatre référents (Tableau 1.3).
Le sens des situations sociales est construit par les concepts et les théories
implicites des acteurs. C’est donc une logique de construction explicative par un
mécanisme de diffusion d’îlots de rationalité en quête d’interprétation théorique et
pratique. Dans la plupart des recherches, ces deux mouvements sont concomitants
avant d’être exposés grâce à un processus rhétorique par une démonstration. Dans les
méthodes qualitatives, les résultats de recherche sont texte à partir de texte. L’exer-
cice herméneutique est donc nécessairement présent. Toutefois, le glissement vers un
postmodernisme de façade doit être éviter.
L’analyse des causalités récursives complexes donne l’exemple d’une possible
application des principes précédents. Un énoncé causal se construit en quatre
étapes :
■ De mettre en relation deux concepts, deux sphères de la représentation
( 10), et de supposer l’existence de manifestations repérables. La causalité
théorique n’est pas en soit problématique puisque le langage scientifique l’est
par définition. Par contre, le repérage des effets et des causes dans les situa-
tions sociales nécessitent de déployer une logique de la preuve ostensive (voir
précédemment).

10 Auroux (1989) définit la nature d’un concept comme « la sphère de la représentation ».


Expliquer et proposer 23

Référents Exemples

Idéologique Les discours managériaux, à vocation supposée prescriptive pour visualiser une vision
collective

Social Les outils de gestion, supposés représenter de manière homothétique une réalité cons-
truite et référentielle

Technique Les interactions programmées par la structure formelle que les acteurs s’approprient
plus ou moins

Matériel / Physique Le dispositif spatio — temporel à l’intérieur duquel les acteurs interviennent et intera-
gissent

TABLEAU 1.3 – Quatre référents des situations sociales managériales

■ D’expliquer, a priori, dans le domaine des intuitions sensibles, la chaîne


des événements liés par du théorique (Moles, 1990). C’est à ce moment que
l’expérience phénoménologique inspire le chercheur, à condition de se prému-
nir contre toute attribution causale lewinienne trop rapide.
■ De constater les faits dans le monde réel perceptible. La confrontation
entre les observations encodées dans le dictionnaire des thèmes et les con-
cepts mobilisés au cours de l’observation seront rationalisés à ce moment.
L’administration de la preuve dans la démarche constructiviste mobilise, à la
fois l’entendement raisonné et des procédures d’analyse certifiées et quelque-
fois mêmes positivistes 11.
■ Avant de proposer une synthèse sur la nature, par la « cause de la
causalité ». Le théorique reprend alors le primat sur l’empirisme parce que le
langage de la recherche est abstraction. Mais, l’abstrait n’est pas synonyme
d’abscons. Les praticiens se retrouveront dans les constructions explicatives 12.
Pour cela, les propositions doivent immédiatement entrer en résonance avec le
vécu des acteurs et du chercheur.
L’attitude constructiviste se résout dans des propositions d’expériences kan-
tiennes. L’observation donne à voir la succession des phénomènes. Elle doit d’abord et
avant tout permettre la compréhension intersubjective du sens par le sens. Le cher-
cheur élabore progressivement les connexions subjectives nécessaires entre les
phénomènes (intuitions sensibles) dans une synthèse des perceptions (l’expé-
rience). L’analyse de l’organisation et de ses acteurs s’intéresse donc à plusieurs
catégories signifiantes et signifiées, pour mettre en évidence l’ipséité des situations.
Ces catégorisations se construisent dans le contexte et se légitiment par le théorique.
Trois modèles s’opposent souvent sur la cause de la cause théorique (Tableau 1.4).
L’idéal type constructiviste est bien sûr tansfigurationnel, mais cette attitude n’est
pas toujours possible. Et refiguration ou défiguration constituent quelquefois le seul
moyen de restituer une recherche.

11 Comme dans l’analyse de contenu, par exemple.


12 C’est d’ailleurs un des critères de validité de la démarche.
24 Compréhension, explication et action du chercheur

Comportement Acte Sens construit

Refiguration L’induction naïve fait office de Les faits sont par essence les Reconstruire le réel et
modélisation symptômes d’une réalité supposer le mimer par le
révélée théorique

Transfiguration Le sens émerge de la Les observations sont des Construire le réel autour
confrontation permanente indices à interpréter d’une abstraction explicative
entre l’observé et le pensé

Défiguration Le théorique épuise le réel L’empirisme est un simple Substituer la rationalité


sans le dévoiler constat des modélisations théorique à la rationalité
théoriques empirique

TABLEAU 1.4 – Les trois sphères de l’abstraction

Le statut des énoncés, tout comme les sens communs sur l’organisation, res-
tent souvent indéterminés. La multiplication des discours, sans logique de conti-
nuité 13, rend difficile la compréhension des différents domaines de recherche, l’état
des préoccupations et des connaissances à un moment donné. Souvent, le statut
scientifique d’un discours est acquis par une reconnaissance des pairs grâce à des
mécanismes auto-référentiels de cocitations (Latour, 1995). Les chercheurs sont des
producteurs de téléologie, dans l’attente d’une validation communautaire. Refigura-
tion, transfiguration ou défiguration sont légitimes, en fonction des objectifs de
recherche et de l’épistémologie dans laquelle elle s’inscrit.
Les sciences humaines, donc les sciences de gestion, s’alimentent aux mots
des acteurs, même s’ils sont contraints par un questionnement structuré. Les hommes
sont doués de raison, d’intentions multiples, de mécanismes de résistance, de contra-
dictions. On ne peut pas pré-supposer que leurs « dire » ne sont pas emprunt d’autre
chose que du vécu. On ne peut pas croire à l’objectivité sélective d’un chercheur qui
entend les « dire » des acteurs. Enfin, on peut douter que les outils et les instru-
ments, qualitatifs ou quantitatifs, figurent le réel à l’identique, sans erreur de mesure,
de représentation ou d’interprétation. Par conséquent, il ne faut pas s’accrocher à un
idéal scientifique d’objectivité, mais accepter de travailler avec ces approximations
pour construire des explications théoriques fécondes à la compréhension et à l’action.
Reste de nombreuses difficultés méthodologiques, encore difficiles à dépasser
aujourd’hui :
■ L’ambivalence entre le discours et l’action dans les pratiques organisationnel-
les. Les acteurs construisent beaucoup de théories implicites de l’action qu’ils
médiatisent par des mots.
■ L’articulation entre une réalité connaissable et un concept supposé signifiant.
Les concepts sont des abstractions à traduire pour l’observation.
■ La combinaison entre les savoirs pratiques et les savoirs théoriques. Les
savoirs pratiques s’expriment dans une rationalité différente des concepts.

13 Dans un programme de recherche par exemple.


Expliquer et proposer 25

À partir d’entretiens, ou d’archives, le chercheur qualitatif travaille sur des


énoncés constatifs 14. C’est-à-dire des actes de langage qui affirment une idée ou
décrivent une réalité perçue. Le filtre des représentations, les intentions au moment
de la communication, déforment les énoncés. Cela nécessite de la part du chercheur
un travail de triangulation (croiser les énoncés pour établir les faits), de com-
préhension (reconstruire le système) et d’interprétation (discuter l’énoncé). Il
s’agit donc de rapprocher deux systèmes de représentations. Strauss (1987) considère
même que la codification est déjà une phase de l’interprétation. L’analyse ne peut pas
être réduite à une catégorisation ou à une classification des données. Il s’agit d’une
refiguration, puis de la reconstruction d’un phénomène social (Atkinson et Coffey,
1996). La pertinence et la fécondité dépendent donc des procédures utilisées dans
cette phase.
La position de Piaget (1975) sur la nature du fait social (résultant d’actions
d’hommes insécables 15), raisonnée par le système des quatre causes d’Aristote, donne
quelques orientations pour l’analyse de la situation d’un acteur dans son environne-
ment. L’acteur exprime ses intuitions d’actions conventionnelles, comme un com-
promis entre ses représentations et ses projections. Son discours vise donc à
mettre un ordre dans le réel imaginé, de manière à obtenir un résultat conforme
aux normes et aux contraintes perçues.
Le travail d’analyse et d’interprétation « force le réel », sans le démasquer
totalement. Il est illusoire de croire que l’on peut épuiser le réel dans un encodage
théorique abstrait à partir du langage scientifique. L’objectif est explicitement de réa-
liser une attribution sociale, au sens de Lewin, entre la représentation théorique a
priori et les discours ou les pratiques des acteurs. Les concepts ne peuvent pas
s’imposer aux situations sans interprétation.
Cette analyse doit mettre en évidence le stock de connaissances sociales
potentiellement mobilisable dans l’action. Par conséquent, ce travail analogique se
justifie comme une exploration de la structuration des schèmes causaux, exprimés par
les acteurs, dans des situations réalistes. La plupart des travaux de recherche sont
focalisés sur la mise en évidence d’un artefact organisationnel ou humain, comme le
résultat d’une appréhension par l’individu de son environnement professionnel et
social traduit dans l’abstraction.
Pour cela, le chercheur construit :
■ des liens de causalité (au sens d’Aristote) ;
■ des représentations (de la personne, du groupe) ;
■ une formalisation explicative des sens communs ;
■ des explications théoriques de contextes locaux.
Les mécanismes de la rhétorique doivent être maîtrisés par le chercheur pour
avoir une chance de convaincre. La recherche et la communication de la recherche
correspondent à deux moments distincts du processus de recherche. On peut utiliser

14 Selon Austin, voir Sciences humaines, n° 57.


15 Piaget défend l’idée d’une solidarité théorique entre la sociologie et la psychologie. Par consé-
quent, l’élaboration des explications tient compte des deux paradigmes sur l’homme.
26 Compréhension, explication et action du chercheur

la rhétorique, tout en évitant le sophisme. Dans les méthodes qualitatives, le cher-


cheur a le souci du détail signifiant. Le théorique est toujours illustré par du signi-
fiant empirique. La logique classificatrice à l’œuvre dans les méthodologies
(qualitative et quantitative) suppose la possibilité de repérer des groupes d’objets à
partir de certaines propriétés observées, afin d’inventer des concepts pour expliquer
ce que l’on ne comprend pas.
Il ne s’agit pas de parvenir à un objectivisme de façade, mais de contrôler
les conditions de la production des énoncés et la figuration pour donner les
moyens d’évaluer la validité des explications proposées. Cependant, quatre ques-
tions resteront systématiquement en débat :
■ Comment choisir a priori les propriétés signifiantes (objectives, perçues, …) ?
■ Comment démontrer la similarité intraclasse et l’hétérogénéité interclasses ?
■ Comment s’assurer de la validité du système de classes sur un autre (cohérence
interne) ?
■ Comment introduire dans les théories le système de perception et de valeurs,
propre à chaque acteur ?
Les sciences sociales, et par extension les sciences de gestion sont par leur
objet même dans une situation d’incomplétude. D’où la volonté de réduire les approxi-
mations dans les méthodes qualitatives. L’étude des phénomènes naturels suppose
d’inventer des théories et des concepts pour décrire et expliquer. Tandis que l’étude
des phénomènes sociaux nécessite une compréhension des sociétés construites par
les hommes et qu’ils contribuent à reproduire par leurs actions (Blaikie, 1993) ou
même par leur simple présence dans une situation.
Les savoirs sur les pratiques organisationnelles et le management sont diffici-
lement encyclopédiques, même s’il existe des théories et des concepts apparemment
récurrents. Il restera toujours une part d’indicible dans les comportements humains.
Les interactions et l’environnement transforment les conditions de l’activité humaine.
Trouver les moyens de penser l’articulation entre l’individuel et le structurel est
un enjeu majeur pour les sciences de gestion aujourd’hui. À défaut, le domaine
reste dans un système d’idées, plus que dans un système de théories.
Par conséquent, il faut tirer toutes les conséquences d’une idée apparemment
triviale : les organisations sont des ensembles sociaux. Elles sont donc le résultat de
l’action des hommes, des interactions entre les hommes et d’un dispositif collectif
plus ou moins structurant. Par conséquent, les analyses distantes ne permettent pas
de comprendre l’ensemble des faits et des phénomènes de l’organisation. Les recher-
ches construites dans l’interaction avec les acteurs et dans la durée sont à l’origine
d’une connaissance originale sur l’entreprise. L’enjeu théorique consiste à réussir à
articuler les connaissances entre elles pour permettre une véritable accumulation de
connaissances.
Il est paradoxal d’étudier la complexité d’une organisation (contexte, acteurs,
changements, …), simplement à partir d’un seul point de vue, par un entretien ou un
questionnaire. Les méthodes qualitatives construites dans l’interaction, par l’explora-
tion ou l’action, permettent la contextualisation (des théories et des pratiques) en
prenant une situation de gestion comme unité d’analyse. C’est-à-dire la prise en
Conclusion : épistémologie constructiviste des méthodes qualitatives 27

compte des différentes logiques d’acteurs, de la dimension spatiale et temporelle de


l’organisation (multiples rationalités et points de vue dans l’espace et le temps).
L’enjeu majeur est de trouver aujourd’hui des formes d’explication, de présen-
tation qui démontrent par l’exposition la validité et la fidélité ; et de mettre en place
une véritable logique de cumulation des connaissances de moyenne portée, encadrée
par des théories générales paradigmatiques.
Néanmoins, ce projet ne peut pas être une normalisation des méthodes quali-
tatives. Parce que justement, ce qui fait leur richesse c’est la diversité et l’adaptation
aux situations particulières. C’est un paradoxe apparent qu’aucune épistémologie ne
pourra résoudre. Il faut donc construire un idéal type méthodologique par rapport
auquel les chercheurs pourront se positionner, comme c’est le cas dans les méthodes
quantitatives avec la roue de Wallace. Il s’agit de montrer comment les énoncés se
construisent empiriquement, comment se réalisent les études de terrain, com-
ment les observations s’articulent avec les théories (Figure 1.2). Il faut inventer
des outils et des instruments qui facilitent le travail d’analyse et de présentation
(Figure 1.2).
Il est naïf de croire à une homothétie entre l’encodage théorique et le constat
des pratiques. Toute recherche nécessite une médiatisation de la théorie et une inter-
prétation des faits. C’est l’objet de la méthode de garantir la scientificité de ce méca-
nisme. Les concepts n’ont pas a priori de propriétés numériques (Coulon, 1987) ou de
correspondances immédiates avec le réel.

Expériences concrètes Problématique Observations


(théorique et pratique) locale et générique et analyses contextuelles

Structuration Description et
des représentations interprétation

Formulation de théories Refiguration contextuelle Formation de concepts


locales et de moyenne par les analyses généraux ou ad hoc
portée

FIGURE 1.2 – Adaptation du cycle expérimental de Kolb

4. Conclusion : épistémologie constructiviste


des méthodes qualitatives

Beaucoup de théories sont des artefacts qui refigurent la réalité. Il s’agit donc
de construits qui ne sont pas immédiatement perceptibles dans les situations (par
exemple : les compétences fondamentales, la motivation, …). De toute façon, les
études montrent que les individus appréhendent le sens plutôt dans l’ordinal que le
métrique (Moles, 1990). La construction théorique d’une étude de cas doit alors dis-
cuter les six catégories proposées par Strauss (1995) : l’abstraction, l’étendue, le
28 Compréhension, explication et action du chercheur

niveau d’analyse, la spécificité, la conceptualisation et les applications possibles pour


légitimer le discours.
D’où la question : qu’est-ce qui autorise le chercheur à donner une vision ou
une modélisation sur les réalités empiriques observées ? Il est nécessaire aujourd’hui
que les chercheurs qualitatifs expliquent mieux la manière dont ils recueillent, analy-
sent et interprètent les données et les postulats épistémologiques qui fondent leur
démarche pour inscrire leur projet dans un programme de recherche et légitimer leur
intervention auprès des acteurs.

Bibliographie
Adam J.-M. et Revez F., Analyse des récits, Seuil, 1996.
Atkinson P. & Coffey A., Making Sense of Qualitative Data, Sage, 1996.
Aubusson P., « Using Metaphor to Make Ense and Building Theory in Qualitative
Analysis », The Qualitative Report, vol. 7, n° 4, 2002 (www.nova.edu/ssss/QR/QR7-4/
aubusson.html).
Ben Kahla K. et Wacheux F., « De l’organisation de la théorie à la théorie des
organisations : vers un positivisme raisonné », Méthodes qualitatives et gestion des
resources humaines, Lille, 1996.
Berry M., « Savoirs théoriques et gestion », Savoirs théoriques et savoirs d’actions, PUF,
1998, pp. 43-56.
Besnier J.M., Les théories de la connaissance, Flammarion, 1992.
Blaikie N., Approaches to Social Enquiry, Polity Press, 1993.
Blanchot F., « La connaissance objective de Karl Popper : Principales thèses et apports
pour les recherches en gestion », FCS, vol. 2, n° 3, septembre 1999, pp. 25-62.
Boyatzis R., Transforming Qualitative Information, Sage, 1998.
Chermack T.J. et van der Merwe L. (2003), « The role of constructivist learning in sce-
nario planning », Futures, vol. 35, n° 5, pp. 445-460.
Clegg S. et Hardy C. (editors), Studying Organization, Sage, 1999.
Coulon A., L’ethnométhodologie, PUF, 1987.
Crespi F., Médiation symbolique et société, Librairie des Méridiens, 1983 (Édition ita-
lienne 1982).
Czarniawska B., A Narrative Approach to Organization Studies, Sage, 1998.
Denzin N. et Lincoln Y., Handbook of Qualitative Research, 2e édition revue, Sage, 2000.
Dosse F., « Paul Ricœur révolutionne l’histoire », Revue Espace Temps, n° 59, 1995,
pp. 6-26.
Elias N., Engagement et distanciation, Fayard, 1983.
Glaser B. et Strauss A., The Discovery of grounded Theory, Strategies for Qualitative
Research, Aldine Publishing company, 1967.
Glassner B. et Hertz R. (editors), Qualitative Sociology as Every Life, Sage, 1999.
Grize J.-B., « Savoirs théoriques et savoirs d’action : point de vue logico discursif »,
Savoirs théoriques et savoirs d’action, PUF, 1998, pp. 119-129.
Hall J., History of Qualitative Methods, University of California Davis, 2001.
Bibliographie 29

Hamel et al., Case Study Method, Sage, 1993.


James W, Le pragmatisme, Flammarion, 1968.
Javeau C., La sociologie du quotidien, PUF, 2003.
Kahla K. et Wacheux F., « De l’organisation de la théorie à la théorie des organisations :
vers un positivisme raisonné », Méthodes qualitatives et gestion des ressources humai-
nes, Journée de l’IAE de Lille, 1996.
Kincheloe J., « Describing the Bricolage : Conceptualizing a new Rigor in Qualitative
Research », Qualitative Inquiry, vol. 7, n° 8, pp. 679-692.
Laplantine F., L’anthropologie, Seghers, 1987.
Laplantine F., La description ethnographique, Nathan, 1996.
Latour B., Le métier de chercheur, regard d’un anthropologue, INRA Éditions, 1995.
Lyon E., « Applying Ethnography », Journal of Contempary Ethnography, vol. 26, n° 1,
1997, pp. 3-27.
Maffesoli M., La conquête du présent, Desclée de Brouwer, 1998 (1re édition 1979).
Maine De Biran (1766-1824), La vie intérieure, Recueil de textes présenté par Bégout
B., Payot, 1995.
Manning K., « Authenticity in Constructivist Inquiry : Methodological Considerations
Without Prescriptions », Qualitative Inquiry, vol. 3, n° 1, 1997, pp. 93-115.
Mauss M., Sociologie et anthropologie, PUF, 1950.
Meyer M., Découverte et justification en science, Klincksieck, 1979.
Miller G. et Dingwall R., Context and Method in Qualitative Research, Sage, 1997.
Moles A., Les sciences de l’imprécis, Seuil, 1990 (Réédition en collection Points Seuil,
1995).
Mucchieli A., Les méthodes qualitatives, PUF, 1991.
Piaget J., Études sociologiques, Droz, Genève, 1965 (Recueil de textes écrits entre 1941
et 1950).
Pillsbury G., « First — Person Singular and Plural », Journal of Contempary Ethnography,
vol. 26, n° 4, 1998, pp. 450-478.
Putnam H., Représentation et réalité, Gallimard, 1990.
Ricœur P., « Sur la phénoménologie », Esprit, 1953.
Schön D., The Reflective Practitioner, Arena, 1998 (1re édition 1983).
Sehr N., « The Salt of Social Science », Sociological Research Online, vol. 1, n° 1, 1996.
Simmel G., Sociologie et Épistémologie, PUF, 1981.
Strauss A., « Notes on the Nature and Development of General Theories », Qualitative
Inquiry, Volume 1, Number 1, 1995, pp. 7-18.
Van Fraassen B., The Empirical Stance, Yale University Press, 2002.
Van Maanen J. (editor), Qualitative Studies of Organizations, Sage, 1998 (sélection
d’articles parus dans Administrative Science Quartely).
Wacheux F., « Le paradigme de la structuration sur l’analyse des situations de travail :
effets en retour dans les processus de routinisation », in Autisser et Wacheux, Struc-
turation et management des organisations, L’Harmattan, 2000.
Wacheux F., « Modèles et représentation de l’organisation : le symbolisme
actionnable », in Modéliser le fonctionnement des organisations, coordonné par M.
Nikitin, L’Harmattan, 2002, pp. 315-332.
Yaarub A., Le concept de causalité chez Gazalin, Éditions Bouslama, 1978.
30 Compréhension, explication et action du chercheur

Strauss A., « Notes on the Nature and Development of General Theories », Qualitative
Inquiry, vol. 1, n° 1, 1995, pp. 7-18.
Chapitre 2

La méthode des cas

Anne GOMBAULT 1

Sommaire

1 La méthode des cas :


une stratégie privilégiée d’accès au réel 32

2 Un exemple de mise en œuvre


de la méthode des cas 39

3 Conclusion 61

1 Professeur à Bordeaux École de Management.


32 La méthode des cas

Les méthodologies qualitatives sont désormais familières des sciences de ges-


tion comme des sciences humaines et sociales en général. Parmi elles, la méthode des
cas, utilisée dans de nombreuses disciplines dont les sciences naturelles, est peut-
être l’apanage des sciences de gestion, pour des raisons intrinsèques, liées à leur
objet même, l’organisation, et à leur finalité praxéologique. Évidente donc dans la
discipline, très utilisée et d’abord par les grands auteurs, elle est pourtant méconnue
et incomprise par péché d’ignorance (Smith, 1991). Elle apparaît souvent hétérodoxe,
soit trop originale soit au contraire trop banale, presque facile. Ce relatif manque de
noblesse, qui semble paradoxal, vient sans doute du fait qu’elle touche un point sen-
sible dans toute communauté scientifique comme dans la nôtre, à savoir la distance
entre le chercheur et la réalité. Où se rencontrent-ils ? Jusqu’à quel point ? N’ont-ils
pas tendance, trop souvent, à s’ignorer mutuellement ? Chercheurs en gestion, que
savons-nous du fonctionnement des organisations ? Pour reprendre l’expression du
sociologue américain Robert Park, un des premiers promoteurs de l’étude de cas dans
les années 1920 avec l’École de Chicago, sommes-nous prêts à nous « salir les bas de
pantalon » en arpentant les organisations pour mieux les comprendre 2 ? Déni de
l’abstraction, la méthode des cas est à l’opposé une puissante stratégie d’accès au
réel. C’est son intérêt majeur, sa fonction centrale et le plus important défi de sa mise
en œuvre. La restitution de l’étude de la construction de l’identité organisationnelle
menée au musée du Louvre s’attache à illustrer cette caractéristique centrale de la
méthodologie.

1. La méthode des cas :


une stratégie privilégiée d’accès au réel

La définition et l’intérêt de la méthode des cas se confondent dans l’« accès au


réel » qu’elle permet, via ce qui est traditionnellement désigné comme le contexte du
phénomène étudié. Elle a une fonction stratégique parce qu’elle sert, en facilitant cet
accès au réel, un plan de recherche, qui selon ses attributs, donne lieu à différents
types d’études de cas. Sa réalisation optimale dépend alors de la juste opérationnali-
sation de cet accès au réel.

1.1 DÉFINITION ET INTÉRÊT


La méthode des cas est une stratégie de recherche adéquate quand la question
de recherche débute par « pourquoi » ou « comment » (Yin, 1990). Elle vise à la com-
préhension des dynamiques présentes au sein d’environnements spécifiques (Eisen-
hardt, 1989). Distincte, en sciences humaines, de l’enquête, de l’expérimentation et
de l’étude historique, l’étude de cas est une enquête empirique qui « examine un phé-
nomène contemporain au sein de son contexte réel lorsque les frontières entre phé-

2 Park (1915) invitait ses pairs à quitter la bibliothèque, à sortir des articles et des livres, pour
voir l’expérience humaine en construction. Il écrivait ainsi : « Go and sit in the lounges of the luxu-
rious doorsteps of the flophouses ; sit on the Gold Coast settes and on the and on the slum
shakedowns ; sit in the Orchestra Hall and in the Star and Garter Burlesque. In short, get the seats of
your pants dirty in real research. »
La méthode des cas : une stratégie privilégiée d’accès au réel 33

nomène et contexte ne sont pas clairement évidentes et pour laquelle de multiples


sources de données sont utilisées » (Yin, 1990, p. 13). Son intérêt majeur est donc
d’abord d’intégrer à part entière le contexte dans l’analyse du phénomène étudié,
c’est-à-dire de positionner ce phénomène dans ses circonstances temporelles et socia-
les. L’étude de cas comporte en effet une dimension diachronique puisqu’elle permet
de suivre ou de reconstruire des événements dans le temps, mais en ajoutant d’autres
sources de « preuves », qui n’existent pas dans l’étude historique, notamment l’obser-
vation directe et l’entretien systématique. Elle privilégie de ce fait une dimension
synchronique en réunissant une très grande variété de données. Elle est donc parfai-
tement adaptée pour étudier des processus ou pour donner une vision holiste d’un
phénomène, en somme pour restituer la complexité en montrant ses intrications. De
par la dimension contextuelle qui la caractérise, la méthode des cas se range claire-
ment dans la famille des méthodologies qualitatives, même si elle peut intégrer sans
problème la production de données quantitatives en fonction du plan de recherche
retenu.

La méthode des cas a longtemps souffert d’un certain manque de reconnais-


sance en sciences de gestion en tant que stratégie de recherche à part entière (Yin,
1981 ; Smith, 1991). Elle était souvent assimilée et réduite, plus ou moins consciem-
ment, à son utilisation pédagogique. Très intéressante au demeurant pour l’enseigne-
ment (Bonoma, 1982 ; Lapierre, 1992), elle s’appuie dans cette configuration sur des
descriptions simplifiées de situations de gestion à partir desquelles il est possible de
transmettre des savoirs aux étudiants et de les faire réfléchir. Utilisée pour la recher-
che, la méthode des cas permet de faire une étude empirique approfondie pour décrire
un phénomène, générer ou bien tester des théories à propos de ce phénomène (Eisen-
hardt, 1989 ; Lee, 1989). Certains chercheurs ont eux-mêmes contribué à discréditer
la méthode en en faisant une utilisation « fourre-tout » et souvent bâclée, alors que
son processus est foncièrement rigoureux et long. Par ailleurs, un débat nourri a sou-
vent mis en cause l’idiosyncrasie de l’étude de cas et, par suite, ses possibilités limi-
tées de généralisation et de modélisation. Ce faux procès positiviste, aujourd’hui
dépassé, résultait, là encore, d’une méconnaissance de la méthode : la généralisation
est analytique et non statistique (Yin, 1990) 3. D’autres arguments ne permettent pas
de douter de la légitimité et même de l’orthodoxie de cette stratégie de recherche en
sciences de gestion, particulièrement, il est vrai, en GRH, en organisation ou en stra-
tégie (Hartley, 1994), où elle est plus courante qu’en marketing ou en finance mais
peut-être pas moins pertinente (Bonoma, 1985). D’abord, parmi l’ensemble des
méthodes qualitatives appliquées en gestion, l’étude de cas est sans doute la straté-
gie la plus utilisée parce qu’elle est bien adaptée à l’objet d’analyse qu’est l’organisa-
tion (Wacheux, 1996). Elle permet de l’appréhender dans sa globalité, de la découper
en unités d’analyse, et ainsi de comprendre une situation de gestion (Eisenhardt,
1989). Ensuite, les plus grands auteurs en management ont donné au genre ses let-
tres de noblesse : citons, par exemple, les travaux de Pettigrew (1985) qui a souvent
eu recours à l’étude de cas pour étudier des entreprises de grande taille, empreintes
d’une histoire longue et nourrie. Enfin, par rapport à d’autres méthodologies, elle
offre l’avantage, précieux dans les champs de la gestion des ressources humaines, de

3 Cet argument sera développé dans le point 1.2 suivant.


34 La méthode des cas

l’organisation et de la stratégie, de pouvoir s’intéresser aux acteurs tout en compre-


nant le contexte. « Sa force […] repose sur sa capacité à explorer les processus
sociaux tels qu’ils se produisent dans les organisations » (Hartley, 1994, pp. 212-
213).

1.2 LES DIFFÉRENTES ÉTUDES DE CAS OU LE CHOIX D’UN PLAN


DE RECHERCHE

La méthode des cas est souvent classée et pensée comme stratégie de recher-
che à but exploratoire, suivant une logique constructiviste ou interprétative, qualita-
tive, inductive. À raison : elle est communément mise en œuvre de cette manière
« qui lui va si bien ». Mais aussi à tort : l’étude de cas présente différentes variantes
moins connues pourtant fort intéressantes (Hlady Rispal, 2002). La nature de l’étude
de cas dépend en fait du plan de recherche dans lequel elle s’inscrit, dit encore cane-
vas de recherche ou research design (Yin, 1990).
Le plan de recherche est fondé sur la problématique ou question de recherche
qui appelle 4 plusieurs choix méthodologiques : l’objectif de la recherche et la logique
de la recherche qui comprend le positionnement épistémologique, la démarche d’ana-
lyse et de production des données. La question de recherche n’est pas autre chose,
comme cette dénomination l’indique, qu’un questionnement. Il se structure potentiel-
lement autour de trois composantes (Hlady Rispal, 2002) : au minimum un point cen-
tral ou fil directeur (Mintzberg, 1979), par exemple la définition du domaine de
recherche ou directement une question centrale ; puis éventuellement, en fonction de
la théorie préexistante, des propositions ou hypothèses définissant clairement la
question centrale, guidant le chercheur de façon déterminante ; enfin souvent des
questions complémentaires venant préciser ou enrichir la question centrale, notam-
ment dans les études de cas descriptives et exploratoires. En outre, les épistémologies
familières des méthodes qualitatives admettant généralement une progression simul-
tanée des axes de recherche, de la production des données et de l’analyse (Bryman et
Burgess, 1994), le projet de recherche et la problématique peuvent évoluer pendant la
réalisation. La problématique peut ainsi se construire, ou bien changer même, au con-
tact du terrain, dès lors qu’un point central permet d’initier la recherche ; sans lui, en
effet, la recherche n’aurait pas de sens (littéralement) et le chercheur serait submergé
par le volume des données (Mintzberg, 1979).
En fonction de la problématique définie, l’étude de cas peut alors indifférem-
ment servir des objectifs exploratoire, descriptif, explicatif et/ou confirmatoire. Quels
que soient ses objectifs, son ambition doit toujours rester compréhensive. Le posi-
tionnement épistémologique ou paradigme théorique (Guba et Lincoln, 1982), en
soubassement des choix méthodologiques, peut être constructiviste, interprétativiste,
réaliste, post-moderne… ou positiviste. Y a-t-il un paradigme théorique meilleur
qu’un autre ? Non, a priori, puisqu’il dépend de la problématique et de l’objectif de la
recherche. Cependant, force est de reconnaître qu’il est difficile de tenir une position
purement positiviste dans la méthode des cas, car les prescriptions de sa réalisation 5
sont largement d’inspiration constructiviste : le contexte peut difficilement être

4 Conformément à l’idée que la méthode suit l’objet et non l’inverse.


La méthode des cas : une stratégie privilégiée d’accès au réel 35

appréhendé autrement que par un couple sujet-objet régi par l’échange, qui produit la
réalité (Berger et Luckmann, 1966). Vient ensuite la démarche d’analyse déployée
dans l’étude de cas qui peut être inductive, déductive, itérative, abductive… Se pose
à cet endroit la question de la place de la théorie. Dans la seule démarche inductive,
la théorie n’est mobilisée qu’après avoir produit les données empiriques, mais sans
qu’il soit jamais possible de faire parfaitement abstraction de ses connaissances ni de
se départir, pour engager l’étude de cas, d’un minimum d’idées rationnelles et de
directions liminaires ; même dans l’étude de cas exploratoire, qui utilise souvent cette
démarche, il faut bien savoir avant de partir sur le terrain, à l’instar de Christophe
Colomb, ce qui doit être exploré, le propos de l’exploration, et les critères au regard
desquels l’exploration pourra être jugée intéressante. Dans les autres démarches, la
théorie intervient toujours avant la production des données empiriques qu’elle oriente
par un schéma conceptuel, puis éventuellement pendant et après. Appuyé sur la défi-
nition préalable de la question de recherche et sur une revue détaillée de la littéra-
ture, le schéma conceptuel expose, de manière graphique ou narrative, les principaux
éléments à étudier — facteurs clés, construits ou variables — et leurs liens présu-
més. Ensuite, les données recueillies dans l’étude de cas peuvent être strictement
qualitatives ou mixtes, c’est-à-dire pour partie qualitative (le contexte ne peut être
appréhendé exclusivement par des données quantitatives) et pour partie quantitative.
De même, le traitement des données peut être purement qualitatif (analyse qualita-
tive de données qualitatives, Paillé, 1996 ; Mucchielli, 1996) ou mixte (analyse quan-
titative de données qualitatives). La logique de recherche ainsi définie peut être
précisée par l’inscription du travail dans un ou plusieurs types d’études. Par exemple,
une recherche qualitative inductive peut relever de l’approche clinique, de l’ethnomé-
thodologie, de l’ethnographie…. Ou de la grounded theory (Glaser et Strauss, 1967)
de laquelle elle est souvent rapprochée. L’idée de « la théorie enracinée dans les
faits » centrée sur une approche de terrain, visant la production d’une théorie relative
à un phénomène étudié, semble proche de l’étude de cas, mais il faut pourtant, selon
nous, bien la différencier : la grounded theory est une logique de recherche que
l’étude de cas déploie effectivement de façon idoine. Mais l’étude de cas n’est pas une
logique de recherche : c’est une stratégie qui met en œuvre une logique de recherche,
quelle qu’elle soit ; elle n’en préjuge pas.
C’est donc le plan de recherche qui définit la forme de l’étude de cas en gui-
dant la fixation de plusieurs paramètres : le type de cas et le nombre de cas, en
somme l’échantillon. Cette étape clé détermine la réalisation de l’étude de cas. En
sciences sociales, un cas peut être une personne, un groupe, un projet déterminé, une
organisation ou un groupe d’organisations (Hlady Rispal, 2002). En sciences de ges-
tion, Eisenhardt (1989) le définit plus largement comme une situation de gestion. Le
cas, contingent à la recherche, pourra être choisi parce qu’il est typique ou au con-
traire original, pour son intérêt instrumental par rapport à la théorie (site-test d’une
théorie par exemple) ou pour son intérêt intrinsèque (Stake, 1994) ; son choix pourra
même être imposé (recherche commanditée) ou guidé par les circonstances (opportu-
nité unique), etc. Le choix du nombre de cas est un point important qui a fait l’objet
d’un débat à épisodes, aujourd’hui clarifié : là encore, c’est la question de recherche

5 Voir point 1.3 suivant : les principes d’interaction avec les sujets étudiés et de recherche de sens
sont issus des épistémologies constructivistes.
36 La méthode des cas

qui commande. Les études exploratoires sont concentrées sur un ou deux cas, parce
que le cas sert un propos nouveau, révélateur ; ou parce que le cas concerne un évé-
nement, un fait, une organisation rare ou unique (Yin, 1990) ; et encore parce qu’il
permet une investigation en profondeur (Dyer et Wilkins, 1991), autorisant un temps
long d’observation et d’écoute des acteurs, proche de l’ethnographie et permettant de
ce fait une meilleure imprégnation de l’organisation. Les études explicatives ou con-
firmatoires préfèrent souvent les cas multiples (d’un nombre variable adapté au plan
de recherche, souvent entre quatre et dix) pour leur potentiel de comparaison et de
réplication, favorisant la génération ou la confirmation de théories susceptibles d’être
généralisées (Eisenhardt, 1989). Est-ce à dire pour autant que l’étude de cas unique
limite sérieusement la génération de théories et la modélisation, comme cela lui est
souvent reproché (Eisenhardt, 1989 6) ? Yin (1993) rapporte la position de Giddens
qui considérait la méthode des cas comme « microscopique » parce qu’il lui manque
toujours un nombre suffisant de cas. Ce à quoi Yin et Hamel (et al., 1993) répondent
que quelle que soit la taille de l’échantillon, qu’il comporte deux, dix ou cent cas, il
ne transforme pas l’étude de cas multiples, en méthode macroscopique ! En ce sens,
l’étude de cas unique, comme les études de cas multiples, est généralisable à des pro-
positions théoriques et non à des populations et à des univers autres que ceux du cas
(Yin, 1990). Cette généralisation analytique est possible grâce à une modélisation
générative du ou des cas, c’est-à-dire une modélisation édifiée à partir de raisonne-
ments analogiques, métaphoriques et par correspondances (Maffesoli, 1985 ; Gergen,
1994). Et comme, suivant Karl Popper (1935), une théorie reste vraie tant qu’il n’a
pas été démontré qu’elle est fausse (principe de falsifiabilité), la valeur de la contri-
bution théorique des études de cas ne peut être mise en cause comme l’explique De la
Ville (1997). Ainsi en gestion, March (et al., 1991) ou Mintzberg (1979) postulent le
principe de l’unité de nature entre les différentes organisations : « Tout phénomène
observé dans une organisation a vocation à se produire dans d’autres organisations,
et chaque recherche sur chaque organisation a potentiellement une portée générale »
(Romelaer, 1994, p. 49). Chaque cas est donc bien comme « un cas particulier du
possible » (Bachelard, 1949). En sociologie, Bourdieu (1992), fort des modélisations
reconnues qu’il a tirées de ses monographies, légitime la généralisation à partir d’un
cas unique en expliquant que ce ne sont pas les caractéristiques intrinsèques du cas
qui importent d’un point de vue scientifique, mais le regard théorique que le cher-
cheur porte à son cas.

1.3 LA RÉALISATION DE L’ÉTUDE DE CAS

La réalisation de l’étude de cas se caractérise par un processus long gouverné


par l’enquête empirique. Le premier grand défi de sa réalisation est la présence du
chercheur sur le terrain qu’il veut observer : y accéder est souvent difficile et chrono-
phage, s’y maintenir parfois périlleux, en sortir toujours délicat. La possibilité de
mener l’étude de cas dépend donc de ce cadre indispensable : la définition d’une rela-

6 Dans cet article, Eisenhardt affirme même qu’il n’est pas envisageable de faire une recherche sur
un échantillon théorique inférieur à quatre cas, parce que la théorie résultante pécherait par sim-
plisme et manque d’ancrage dans le terrain. Par la suite (Eisenhardt, 1991), elle concède finalement
une légitimité théorique au cas unique s’il est suffisamment riche.
La méthode des cas : une stratégie privilégiée d’accès au réel 37

tion au terrain. Souvent contractuelle, l’intervention du chercheur dans l’organisation


doit toujours être négociée (Benghozi, 1990). Après cet accès physique au terrain,
condition nécessaire mais pas suffisante, l’autre grand défi est de réussir à appréhen-
der et à comprendre le phénomène étudié sur ce terrain, de parvenir à générer de la
connaissance dans l’interaction : là sans doute se trouve l’enjeu de cet « accès au
réel » de l’étude de cas. Pour y arriver au mieux, trois phases successives, qui peuvent
plus ou moins se chevaucher, sont généralement définies : la production des données,
l’analyse des données, la production des résultats, le tout devant pouvoir être validé.
Il faut noter à cet endroit que la réalisation de l’étude de cas demande d’y consacrer
du temps : c’est une ressource essentielle à sa réussite.

L’étude de cas postule un principe d’interaction avec les sujets étudiés, condi-
tion de la connaissance. Il n’y a donc pas « recueil des données » comme on le dit
souvent mais « production » ou « coproduction » des données (Le Moigne, 190).
L’étude de cas ne peut se départir du regard de l’observateur sur le phénomène (the
obsever effect). Tenter de le neutraliser serait d’ailleurs un non-sens dans cette
méthodologie puisque la subjectivité du chercheur est un outil d’investigation
(Arnaud, 1996). Le chercheur produit des explications qui ne sont pas la réalité, mais
un construit sur le construit de la réalité des acteurs, susceptible de l’expliquer
(Wacheux, 1996). Ce principe d’interaction s’opérationnalise par un mouvement de
participation-décentration (Hlady Rispal, 2002), nécessaire pour comprendre com-
ment le sens s’incarne dans le discours et l’action. En effet, pour permettre le chemi-
nement intellectuel, il s’agit d’allier une réelle présence dans la situation, tout en
ménageant une certaine distance à son égard. Cette juste attitude qualifiée
d’« implication contrôlée » (Ancelin-Schutzenberger, 1972) ou de « familiarité
distante » (Matheu, 1986) est favorisée d’une part par une réelle réflexion sur le com-
portement à adopter sur le terrain, toujours particulier à la situation bien que de
nombreuses règles doivent être connues (Devereux, 1980 ; Arnaud, 1996 ; Arborio et
Fournier, 1999), et d’autre part par des retraits réguliers de ce terrain, nécessaires
pour contrôler l’implication.

Le système de production des données préconisé est la multiangulation


— souvent une triangulation — classiquement des sources et des techniques de pro-
duction et/ou, plus rarement pour des raisons pratiques mais non moins intéressan-
tes, des chercheurs. Les techniques de production utilisées appartiennent aux
méthodologies qualitatives (Denzin et Lincoln, 1994 ; Bryman et Burgess, 1994).
Entretiens, observations, documentation ou autres artefacts, sous toutes leurs formes
(Blanchet et Gotman, 1992 ; Arborio et Fournier, 1999 ; Miles et Huberman, 1991),
peuvent être sollicités et combinés de multiples façons : par exemple, entretiens de
groupe, collecte de documents officiels, observation participante, ou encore, entre-
tiens individuels, entretiens de groupe, observation directe, etc. En général dans la
multiangulation des techniques de production, une technique dite « centrale » ou
« principale » sera privilégiée en fonction de son utilité dans le plan de recherche.
Cependant, l’étude de cas ne se départira pas de l’observation, quelle que soit sa
place dans le système de production des données, car sinon la contextualisation est
impossible. Toutefois l’observation, même ouverte (sans grille structurée a priori), ne
préjuge pas que « tout est bon » (Feyeraband, 1975) à observer. Weick (1968) souli-
gne en effet que ne pas se poser la question des situations particulières à observer en
38 La méthode des cas

fonction de l’objectif d’investigation recherché équivaudrait à affirmer l’équivalence


et l’interchangeabilité de celles-ci.

L’orientation générale des analyses qualitatives est la recherche de sens : il


s’agit d’identifier des systèmes formels sous-jacents aux conduites humaines et aux
faits sociaux. La méthode des cas s’inscrit dans cette orientation générale, opération-
nalisée par un travail de codification des données. L’analyse consiste alors selon Yin
(1990) à examiner, comparer, catégoriser et recomposer les données, l’opération
devant être menée « intra-cas » ou « inter-cas » s’il y en a plusieurs. Il faut réussir à
réduire les données en les ordonnant. Miles et Huberman (1991) proposent dans leur
ouvrage de référence de multiples outils pour y parvenir, en partant des données
— fiches d’entretien, grilles d’observation, journal de bord… — pour approcher au
plus près de l’analyse, notamment par l’analyse thématique de contenu qu’ils préconi-
sent principalement. Ces outils fournissent la mémoire indispensable du contexte et
la base motrice d’une structure signifiante pour la construction descriptive et explica-
tive. Cependant, ils ne constituent jamais que les contreforts de cette recherche du
sens dans laquelle le seul ordinateur est le cerveau du chercheur (Wacheux, 1996).
Ainsi, si le recours à un logiciel d’analyse autorise le repérage partiel de « bulles de
sens » (Wacheux, 1996, p. 236), il ne peut suffire à générer une compréhension du
phénomène étudié, ne pouvant à lui seul appréhender le sens de la réalité sociale
construite par les acteurs dans un discours spécifique et une logique propre. Donc les
données classifiées seront toujours soumises en dernier lieu aux interprétations théo-
riques et explicatives du chercheur afin de dégager les propositions finales (Wacheux,
1993).

La production des résultats consiste alors à dégager ces propositions finales, à


rédiger l’étude de cas et à la restituer aux acteurs concernés. Ces trois opérations ne
sont pas censées se dérouler selon un ordre précis. Là encore, la démarche doit tou-
jours procéder du mouvement initial de participation-décentration, qualifié ici par
Hlady Rispal (2002, p. 173) de distanciation-restitution. Le mouvement peut être ité-
ratif ou successif. La distanciation par rapport au terrain permet la concentration et
la réflexion ainsi que le travail en bibliothèque et/ou dans le laboratoire de recher-
che, conditions favorables à la production des résultats, de l’analyse aux propositions
finales. Les propositions finales doivent être formulées à partir des analyses : certains
chercheurs le feront plus facilement après avoir formalisé ces analyses, d’autres for-
muleront les résultats au fil des analyses sans les dissocier. Quelle que soit la façon de
travailler, la deuxième opération cruciale pour produire les résultats consiste à rédiger
l’étude de cas. Il s’agit d’écrire un récit étayé et cohérent qui montre le cheminement
de la recherche, de la problématique jusqu’aux résultats. La qualité du récit fait partie
intégrante de la réussite de la méthode des cas. La principale difficulté de l’exercice
est de bien rendre le contexte et la complexité du phénomène étudié : si différents
types de récits et techniques de présentation peuvent être utilisés, deux points au
moins doivent être toujours présents : un travail d’écriture à la fois descriptif et
démonstratif, propre aux méthodologies qualitatives, qui doit être adapté aux scien-
ces sociales (pas de littérature), et l’illustration du texte à différents endroits par les
données brutes et/ou catégorisées, comme par exemple les verbatims. De plus, l’orga-
nisation du récit doit répondre aux normes de l’exercice dans lequel l’étude de cas
s’inscrit. D’un point de vue académique, l’étude de cas est souvent présentée suivant
Un exemple de mise en œuvre de la méthode des cas 39

un schéma minimum qui la rationalise a posteriori : introduction, théorie mobilisée


(avant ou après l’étude empirique), méthodologie, analyses, résultats ; la question de
recherche pouvant être annoncée en introduction, puis développée dans la partie
théorique ou méthodologique. Enfin la restitution aux acteurs concernés par le phé-
nomène étudié est cruciale dans l’étude de cas, à la fois test de validité, élément
déontologique et nouvelle occasion d’observation. Elle ne suit pas de règles ex
nihilo : le contexte et le plan de recherche orientent les choix en la matière. La resti-
tution peut être progressive (il est toujours intéressant de réenregistrer les réactions
des acteurs à ce moment-là) ou finale (il faut aussi savoir sortir de l’étude de cas en
sortant de l’observation). Elle peut prendre diverses formes : en groupe, individuelle,
écrite, orale…

Plus largement, quels sont les critères de validation ou « tests-qualité » (Hlady


Rispal, 2002) de l’étude de cas ? Différents auteurs, dont Yin (1990), en proposent
plusieurs dont l’appellation et le mode opératoire varient suivant le paradigme théori-
que dans lequel ils s’inscrivent ; cependant tous visent à vérifier, d’une part, la fidé-
lité ou crédibilité de la recherche et, d’autre part, sa validité (de construit, interne et
externe). En raison de l’indispensable dimension qualitative de la méthode des cas,
les critères énoncés par les tenants des méthodologies qualitatives semblent mieux
adaptés, notamment ceux de Mucchielli (1994, 1996). Dans cette optique, la fidélité
est assurée par la complétude et la saturation et la validité est assurée par la cohé-
rence interne, l’acceptation interne et la confirmation externe. Sans entrer dans les
détails de leur opérationnalisation, on retiendra qu’ils visent à garantir trois éléments
clés pour la réussite des études de cas : une grande rigueur méthodologique, de bons
construits et de bons récits (Eisenhardt, 1991).

2. Un exemple de mise en œuvre


de la méthode des cas

Une recherche menée dans le cadre d’une thèse de doctorat (Gombault, 2000)
au sujet de la construction de l’identité organisationnelle, étudiée au musée du Lou-
vre, fournit ici un exemple d’application de la méthode des cas 7. Il s’agit moins de
rentrer dans l’analyse longue et multidimensionnelle du phénomène étudié que de
montrer comment la méthode des cas a été appliquée dans la conduite de la recher-
che. En premier lieu, le plan de recherche, soubassement de l’étude de cas, est
exposé. En second lieu, la réalisation de l’étude de cas est relatée, du déroulement de
la recherche jusqu’à la production des résultats. En dernier lieu, l’utilisation de la
méthode des cas dans l’étude menée est commentée autour de son arcane principal :
la relation au terrain, riche mais complexe.

7 Cette étude a également servi d’illustration, entre autres, à Martine Hlady Rispal (2002) dans son
ouvrage sur la méthode des cas. On pourra s’y reporter pour une présentation plus détaillée : plu-
sieurs encarts, résumant chaque phase de l’étude, jalonnent l’ouvrage.
40 La méthode des cas

2.1 DU PLAN DE RECHERCHE AU CHOIX DE L’ÉTUDE DE CAS

Le plan de recherche a été défini à partir d’une problématique émergente, cen-


trée sur le phénomène de la construction de l’identité organisationnelle, servie par
une logique de recherche exploratoire, constructiviste, inductive et itérative, qualita-
tive. Il a guidé le choix de l’étude d’un cas unique : le musée du Louvre.

2.1.1 La problématique
La recherche a débuté par une attention portée à la culture des organisations
culturelles et à son influence sur leur gestion, question peu explorée par la littérature
managériale sur ces organisations alors que pourtant souvent affirmée comme cru-
ciale. Il s’agissait de découvrir, décrire et comprendre les comportements des indivi-
dus, des groupes et de l’organisation dans ce contexte spécifique. Plus précisément,
une revue de la littérature sur la gestion des institutions culturelles faisait ressortir
l’importance des facteurs idéologiques impliqués. La problématique de départ a été
finalement formulée en ces termes : comment les valeurs des acteurs interviennent-
elles dans la gestion des organisations culturelles ? Avec cette problématique de
départ, l’étude empirique a été initiée au musée du Louvre, cas choisi pour sa figure
d’archétype de l’organisation culturelle française et ses enjeux de gestion importants.
La progression de l’étude a transformé le propos de la recherche, en découvrant une
problématique non pas rapportée à la culture de l’organisation, mais à son identité.
On observait en effet au Louvre une grande focalisation des acteurs sur l’identité de
l’organisation, accompagnée de dynamiques identitaires groupales et individuelles
significatives. Un examen minutieux de la littérature managériale a alors été conduit
afin de trouver les outils théoriques permettant d’interpréter les résultats de l’étude
empirique.

Après plusieurs mois d’errement, des travaux américains sur le concept d’iden-
tité organisationnelle ont été repérés qui fournissaient l’épine dorsale théorique ad
hoc pour analyser le phénomène tel qu’il apparaissait au Louvre. Dans un article fon-
dateur d’un courant de recherche majeur sur le sujet, Albert et Whetten (1985) propo-
saient la définition suivante : l’identité organisationnelle, qui répond à la question
« qui sommes-nous en tant qu’organisation ? », désigne les caractéristiques centra-
les, distinctives et stables d’une organisation telles qu’elles sont perçues par les
membres de cette organisation. Cette définition et les travaux multiples de ce courant
de recherche se sont avérés en grande partie opérationnels pour décrire et interpréter
les résultats empiriques, mais ils étaient impuissants à expliquer ce qui constituait le
cœur du problème au Louvre dans un contexte de changement profond dû au Projet
Grand Louvre, à savoir comment les perceptions de l’identité de l’organisation se
construisaient. La problématique définitive de la recherche s’est donc posée en ces
termes : comment se construit l’identité organisationnelle au musée du Louvre entre
1996 et 1998, période de l’étude ? Des questionnements auxiliaires sont venus com-
pléter cette question principale, en la reliant à quatre thèmes : identité organisation-
nelle et production de sens, changement de l’identité organisationnelle, identité
organisationnelle et performance, identité organisationnelle et gestion des organisa-
tions culturelles.
Un exemple de mise en œuvre de la méthode des cas 41

La problématique a donc été le fruit d’une progression en deux temps : l’initia-


lisation de la recherche à partir d’un intérêt pour la gestion des organisations cultu-
relles et d’un questionnement sur la culture de ces organisations, et la finalisation de
la recherche au cours de l’étude empirique mise en œuvre au musée du Louvre. La
logique de la recherche, exploratoire, constructiviste, inductive et qualitative, expli-
que cette lente maturation.

2.1.2 Une logique exploratoire, constructiviste, inductive et itérative,


qualitative

Le tableau 2.1 récapitule la logique de la recherche qui a été longuement jus-


tifiée dans la thèse, document de présentation de l’étude de cas, comme, au demeu-
rant, la problématique.

2.1.3 Un cas unique

Ce plan de recherche a conduit à choisir comme stratégie d’investigation


l’étude exploratoire d’un cas unique (Yin, 1990 ; Dyer et Wilkins, 1991), à la fois ins-
trumental et intrinsèque (1994). Le tableau 2.2 présente les arguments de ce choix.

La visée exploratoire de l’étude appelait un, deux, voire trois cas au maximum.
Le choix du Louvre ne s’est donc pas imposé immédiatement. Une première sélection
de cas a été faite selon deux critères : il fallait d’une part trouver une organisation
culturelle archétypique, dans la mesure où il s’agissait d’ouvrir la boîte noire de
l’organisation culturelle en général, et il fallait d’autre part que les enjeux de gestion
y soient assez importants pour être significatifs. Le Centre national d’art et de culture
Georges Pompidou se dégageait parce qu’il présentait une production culturelle très
diversifiée. Réunissant un musée (le Musée national d’art moderne), une bibliothèque
(la Bibliothèque publique d’information), un centre de recherche sur la musique con-
temporaine (l’IRCAM), un centre de recherche sur le design industriel (le Centre de
création industrielle) et une salle de cinéma (salle Garance), il permettait d’étudier
une organisation culturelle se définissant plus par la nature culturelle de sa produc-
tion que par une production culturelle en particulier.

Venaient ensuite le musée du Louvre et le château de Versailles, organisations


muséales et patrimoniales, espèce la moins investie par les travaux de recherche en
gestion de la culture, qui de surcroît bénéficiaient, avec le statut d’Établissement
public administratif, d’une récente autonomie de gestion. Le musée du Louvre appa-
raissait particulièrement intéressant en raison de l’importante transformation qu’il
connaissait dans le cadre du Projet Grand Louvre. En outre, pour des raisons matériel-
les et parce que la connaissance du contexte était la meilleure, la recherche de ces
cas était limitée à la France. Finalement, le centre Pompidou et le Louvre furent donc
retenus. Un effet d’opportunité majeur décida en fait d’un cas unique, le Louvre, et
contribua à entrer et à se maintenir dans l’organisation dans des conditions privilé-
giées. Le récit de cet épisode décisif du début de l’étude de cas est restitué dans
l’encadré 2.1.
42 La méthode des cas

Nature Justifications Mise en œuvre

• Connaissance existant sur la question de recherche Description et compréhension par la mise à jour de différentes
Objectif

Exploratoire (initiale et finale) insuffisante en propositions de relations, causalités, processus, de la construction de l’identité
concepts et d’hypothèses. organisationnelle au musée du Louvre entre 1996 et 1998.

• L’identité organisationnelle est une notion socialement et


symboliquement construite destinée à donner du sens à
l’expérience. Les perceptions de l’identité de
l’organisation n’existent pas en elles-mêmes, elles sont
Positionnement épistémologique

Constructivisme Appréhension et figuration de la construction de l’identité


par excellence des représentations, c’est-à-dire le résultat organisationnelle telle qu’elle est vécue par les acteurs, et
d’une « construction sociale de la réalité » de interprétation de cette construction. Pour cela, plusieurs
l’organisation (Berger et Luckmann, 1966) par les options méthodologiques ont été arrêtées, familières du cadre
acteurs et le chercheur. épistémologique constructiviste et de la phénoménologie
• La construction de l’identité organisationnelle, sociale, en même temps qu’adaptées à la problématique en
introspection des individus, des groupes et du collectif de gestation et à l’objectif de la recherche : démarche de
l’organisation sur cette organisation, est médiatisée par production et d’analyse des données (voir infra) et étude de
Phénoménologie cas comme stratégie de recherche (voir infra).
l’expérience que le chercheur en fait lui-même (Schütz,
sociale
1932). Sa connaissance n’est possible que dans
l’interexpérience du chercheur et des acteurs sociaux qu’il
étudie.

Raisonnement • Absence d’hypothèses de départ en raison d’un quasi-


inductif vide théorique.
• Favoriser l’opportunité de la découverte Approche mixte a relevant à la fois de l’ethnographie
• L’étude de la construction de l’identité organisationnelle (production des données), de la phénoménologie sociale
Démarche d’analyse et de production des données.

ne peut partir que du vécu des acteurs. (production des données, dictionnaire des thèmes empiriques)
• Ancrer la théorisation dans la réalité empirique construite et de la grounded theory (analyse des données,
par les acteurs. problématique, dictionnaire des thèmes théoriques, résultats
et itératif • Émergence de la question de recherche puis des résultats sous forme de propositions).
par une comparaison constante entre la production des
données et l’analyse et entre les catégories de l’analyse.

• La question de recherche de départ était large et Succession d’opérations visant à faire surgir le sens des
nécessitait une présence sur le terrain. phénomènes observés au Louvre dans le cadre de la question
• L’identité organisationnelle relève de l’expérience de départ, puis dans le cadre de la problématique de la
Production subjective des acteurs. Ce n’est pas fait un fait social recherche : techniques de production des données qualitatives
et analyse observable, mesurable et manipulable. (entretiens en profondeur, obser-vation longue, recueil de
des données • Les recherches sur l’identité organisationnelle s’appuient documents) ; techniques d’analyse qualitative des données :
purement fortement sur les récits des acteurs ; l’identité et analyse de contenu thématique manuelle (codification),
qualitative l’identification organisationnelle sont mieux décrites de élaboration d’un référentiel théorique (catégorisation),
manière narrative et qualitative (Whetten et Godfrey, itérations (mise en relation). Ces techniques ont permis
1998 Eds, 12). d’identifier et de formuler la problématique et les propositions
finales (intégration, modélisation et théorisation).

a. Strauss et Corbin (1994, 282) notent que dans certains champs, les chercheurs utilisent fréquemment des combinaisons variées entre, par exemple
(c’est celle que les auteurs citent), l’ethnographie, la phénoménologie et la grounded theory.

Source : Gombault (2000)


TABLEAU 2.1 – La logique de la recherche
Un exemple de mise en œuvre de la méthode des cas 43

• La formulation de la question de départ et de la question définitive débutait par « comment ».


Étude de cas • La problématique demandait de réunir une grande variété de données.
• La problématique demandait un traitement diachronique et synchronique.

Exploratoire • Quasi-vide théorique de la problématique de départ et de la problématique définitive.

• La nécessité de comprendre en profondeur la spécificité du contexte organisationnel et


environnemental pour saisir les logiques d’acteurs, d’une part, et la jeunesse du champ conceptuel,
d’autre part, justifient que les travaux sur l’identité organisationnelle ne retiennent en général qu’un
petit nombre de cas plutôt que des échantillons importants.
• L’étude du musée du Louvre s’est inscrite dans la volonté d’ouvrir de nouvelles perspectives dans la
recherche sur les organisations culturelles. Ce choix a effectivement permis de faire surgir avec
l’identité organisationnelle, un phénomène, une dimension de l’organisation, qui à défaut d’être
révélatrice, est toutefois peu explorée par les gestionnaires.
• Le musée du Louvre est une organisation, sinon unique en son genre — on peut la comparer aux
quelques autres musées internationaux mastodontes comme le musée de l’Hermitage à Saint-
Cas unique
Pétersbourg, le Metropolitan Museum à New York ou le British Museum à Londres —, au moins
rare. C’est une des plus grosses institutions culturelles françaises avec près de 6 millions de visiteurs
par an, soit presque la moitié de la fréquentation totale des musées français. Plus qu’un musée,
c’est un établissement artistique, culturel (expositions, musique, conférences, architecture,
audiovisuel…), patrimonial (le palais des rois), touristique (63 % de la fréquentation en
1996)… Autant d’éléments qui font de lui un véritable laboratoire in vivo. Il est d’ailleurs perçu
comme tel au ministère de la Culture qui lui fait réaliser des expériences pilotes. Il constitue un
terrain de recherche riche, surtout au regard des changements récents qui l’ont affecté avec la
construction du Grand Louvre.
• Le choix d’un cas unique permettait une investigation en profondeur.

• L’étude du Louvre se propose de nourrir et d’affiner la théorie récente de l’identité organisationnelle.


Le cas a pour rôle de faciliter la compréhension de quelque chose d’autre, en l’occurrence la
À la fois
construction de l’identité organisationnelle.
instrumentale
• Le cas du musée du Louvre constitue un intérêt en soi parce qu’il est spécifique. De plus, ce n’est
et intrinsèque
pas un cas classique en science de gestion où l’on s’intéresse plutôt, en général, aux entreprises
privées, ni même en management public où les organisations culturelles sont un peu délaissées.

Source : Gombault (2000)

TABLEAU 2.2 – La configuration de l’étude de cas choisie

ENCADRÉ 2.1
Récit de la négociation de l’étude et de l’entrée au musée du Louvre

L’effet d’opportunité : de deux cas au cas unique


Après plusieurs tentatives infructueuses — les portes du monde de la culture ne
s’ouvrent pas facilement… —, un rendez-vous fut obtenu au milieu de l’année 1996
avec l’administrateur général et l’administrateur général adjoint du Centre Pompidou,
suite à la recommandation d’un député auprès du ministre de la Culture de l’époque
— il fallait donc bien être pragmatique… Pendant l’entretien, le projet, explicité dans
un document d’accompagnement, fut présenté. Après quelques contacts téléphoni-
44 La méthode des cas

L’effet d’opportunité : de deux cas au cas unique


ques avec l’administrateur général, l’autorisation de réaliser l’étude était accordée, à
condition toutefois que le Centre Pompidou ne soit pas le seul cas de la thèse, qu’il y
en ait au moins un autre. Par chance, l’administrateur général adjoint venait du musée
du Louvre où il avait occupé cette même fonction. Grâce à son intervention, un autre
rendez-vous fut obtenu auprès de l’administrateur général du musée du Louvre au mois
de septembre 1996. La présentation du projet de l’étude reçut un accueil enthou-
siaste et l’étude débuta au Louvre, à partir d’un échantillon de deux cas : le musée du
Louvre et le centre Pompidou. La population de l’étude devait se concentrer exclusive-
ment sur les personnes fortement impliquées dans le processus de décision au sein des
établissements, donc majoritairement les cadres, parce que la question de départ
— l’influence des valeurs des acteurs sur la gestion de l’organisation — semblait plus
féconde si elle se concentrait à un niveau de décision interférant effectivement avec la
gestion de l’organisation, a fortiori dans ces organisations hiérarchisées et peu partici-
patives. Au bout de quelques mois au Louvre, l’administrateur général suggéra d’élar-
gir la population étudiée à l’ensemble des acteurs du musée. Parallèlement,
l’approche du centre Pompidou relativisait l’intérêt du cas tel qu’il avait été pensé : le
bâtiment allait en effet être fermé au public pendant deux ans pour cause de rénova-
tion, le climat organisationnel semblait être tendu et peu propice à l’acceptation d’un
observateur extérieur, la direction était installée depuis peu, et pour toutes ces raisons,
l’organisation semblait moins réceptive au projet. Le choix a finalement été fait, en
accord avec le musée du Louvre, de le retenir comme cas unique de l’étude, en consi-
dérant tous les acteurs internes du musée.
Négociation de l’entrée et du maintien au musée du Louvre
La négociation de l’entrée au musée du Louvre se fit à partir du même document de
présentation de la recherche qu’au Centre Pompidou. Un premier contrat fut signé,
puis un avenant quand il fut clair que le musée serait le seul cas de l’étude. L’accord
prévoyait quatre mois de présence in situ pour mener l’étude, répartis sur une plus lon-
gue période, pour permettre des allers et retours entre le terrain et la théorie. Il était
aussi précisé que la relation avec le musée serait entretenue jusqu’à ce que la recher-
che soit terminée. Le musée accordait la rémunération demandée pour couvrir les frais
de transport et de séjour occasionnés par l’étude, l’université d’appartenance étant
Bordeaux, soit un peu moins de cinq mille euros en tout, payés sous forme de vaca-
tions administratives au taux de chargé d’étude, ce qui permettait d’avoir un badge
pour circuler librement dans le musée et déjeuner au restaurant du personnel. La
demande de cette somme modeste n’était pas conçue comme une rémunération de
l’étude, mais plutôt comme un engagement financier minimum destiné à garantir
l’engagement en général du musée à bien accueillir et suivre le projet (Benghozi,
1990). De plus, lors de la négociation, une demande financière élevée dans un con-
texte d’établissement public faisait courir le risque d’un refus de l’étude, risque qui ne
voulait pas être pris : le droit de pouvoir observer une organisation comme le Louvre
valait plus cher qu’un contrat lucratif dans une organisation moins intéressante. Surtout
cette faible contrepartie financière était la garantie d’une grande liberté dans la
recherche, dans son déroulement, d’une autonomie dans l’organisation. Elle n’astrei-
gnait à aucun travail opérationnel sur l’organisation et la gestion du musée, autre que
dans le cadre de l’étude. Il s’agissait d’éviter les contraintes de la recherche-action
pour pouvoir se consacrer à une approche ethnographique de l’organisation. Ce
cadre désintéressé était aussi la promesse d’une meilleure acceptation de l’observa-
tion par les acteurs. Cependant, l’organisation devait légitimement trouver un intérêt à
l’accueil d’une telle démarche. Aussi, le contrat signé prévoyait, mais sans échéance
Un exemple de mise en œuvre de la méthode des cas 45

temporelle précise, le retour des résultats, et, avant cela, à la demande de l’adminis-
trateur général, un rapport intermédiaire, dit « rapport d’étape », afin que la direction
du musée puisse prendre connaissance des résultats empiriques dans un but opéra-
tionnel. Sur la base de ce contrat, la durée d’observation in situ dura en réalité plus
de dix mois soit quarante-deux semaines, réparties sur presque trois ans de contacts
avec l’organisation, dont neuf mois consacrés à la production des données (soit
trente-six semaines étalées sur un an et demi), et un mois et demi consacré à la restitu-
tion des données et au recueil des réactions (soit cinq semaines sur une année).
L’ouverture de la direction du musée fut remarquable et le maintien sur le terrain ne
posa pas de problèmes. D’une manière générale, l’accès à tous les endroits, les
documents ou les personnes nécessaires à l’étude fut accordé quasiment sans aucune
restriction. Il semble que ce soit assez rare pour qu’il faille le souligner. La base logisti-
que de la recherche se situait au service culturel, au gré des bureaux libérés pour une
période donnée. Le badge mentionnait l’appartenance à ce service. Ce rattachement
à un service plutôt qu’à la direction était bienvenu pour pénétrer directement et facile-
ment dans l’organisation, et ce d’autant plus que le service culturel se trouve en étroite
relation avec des services opérationnels comme la surveillance ou l’accueil, des servi-
ces administratifs comme le financier ou la régie, ainsi qu’avec les départements de
conservation. Le chef du service, sollicité par l’administrateur général pour accompa-
gner la recherche, présent depuis 1987 au musée et le connaissant parfaitement,
apporta une aide et une écoute précieuses à la recherche. La proximité avec de nom-
breux cadres de ce service, très disponibles, fut aussi un soutien important. Pour
autant, l’observation et les analyses eurent à l’esprit de se départir, autant que possi-
ble, de ce biais d’emplacement, en limitant l’occupation du lieu au travail de mise à
jour des données en général et à la production de données sur ce service, en en sor-
tant tout le reste du temps, ainsi qu’en essayant d’accorder ni plus ni moins d’impor-
tance à la vie de ce service qu’à celle des autres unités dans l’organisation en
général.
Source : Gombault (2000)

2.2 LA RÉALISATION
La réalisation complète de l’étude de cas, de l’initiation du projet à sa commu-
nication, a duré en tout un peu plus de quatre ans, dont trois de relation avec le
musée du Louvre. Après l’exposition du déroulement du processus puis de l’opération-
nalisation de la production et de l’analyse des données, les résultats de l’étude de cas
sont introduits.

2.2.1 Le déroulement du processus de recherche


La description des étapes de la recherche (Tableau 2.3) et la chronologie de
l’étude empirique (Tableau 2.4) permettent d’appréhender le processus complet de
l’étude de cas.

2.2.2 Production et analyse des données


Pour satisfaire au critère de complétude, la triangulation des modes de produc-
tion des données a constitué la clé de voûte du système d’information de l’étude de
46 La méthode des cas

ÉTAPE 1
Décembre 1995-Juin 1996
• Délimitation du sujet
• Élaboration de la question de départ
• Définition des choix méthodologiques

ÉTAPE 2
Juin 96-Septembre 96
• Négociation de l’étude
• Premiers contacts avec le musée du Louvre

ÉTAPE 3
Octobre 96-Mars 98
• Réalisation de l’étude, période principale de production des données

ÉTAPE 4
Mars 98-Mars 99
• Analyse des données et construction de la problématique

ÉTAPE 5
Septembre 98-Octobre 99
• Restitution des résultats empiriques
• Poursuite de l’étude par des contacts intermittents avec le musée du Louvre,
période secondaire de collecte des données
• Restitution des résultats théoriques

ÉTAPE 6
Mars 99-Juillet 2000
• Rédaction de la thèse
• Corrections
• Mise en forme définitive
• Soutenance

Source : Gombault (2000)


TABLEAU 2.3 – Les étapes de la recherche

cas, avec des entretiens semi-directifs en mode principal, une observation directe en
mode contextuel et le recueil de documents en mode complémentaire.
Les entretiens ont été placés au centre du système car ils constituaient l’outil
le plus approprié pour étudier l’identité organisationnelle, dont le langage est un des
plus forts marqueurs. Cent ving-cinq entretiens semi-directifs de deux heures en
moyenne ont été menés. La population définie était le personnel du musée stricto
sensu, divisée, en fonction de la participation au processus de décision et au vu du
fonctionnement du musée, en deux sous-populations : le personnel d’encadrement
(direction, conservateurs, cadres supérieurs et moyens) et le personnel non enca-
drant. La constitution de l’échantillon a répondu à deux contraintes : la nécessité de
contraster au maximum les individus et les situations et celle d’obtenir des unités
Un exemple de mise en œuvre de la méthode des cas 47

sept. 96 oct. 96 nov. 96 déc. 96 févr. 97 avr. 97 juin 97 sept. 97 janv. 98 mars 98 oct. 98 nov. 98 févr. 99 oct. 99

1 4 4 4 5 5 5 4 2 2 2 1 1 1

nombre de semaines in situ par mois

Production des données

Analyse des données

Restitution des résultats

RELATION AVEC LE TERRAIN


3 ans, dont 40 semaines in situ

Source : Gombault (2000)


TABLEAU 2.4 – Chronologie de l’étude empirique

d’analyse suffisantes pour être significatives. Le guide d’entretien et la réalisation des


entretiens ont été soigneusement préparés. Le guide d’entretien, élaboré à partir de
la problématique de départ, n’a pas été modifié, ni dans sa structure ni dans ses con-
signes, au fur et à mesure qu’apparaissait la problématique finale ; seules des relances
ont été ajoutées.

L’observation a permis de rendre intelligible et de vérifier les constructions dis-


cursives des acteurs sur leurs représentations et leurs pratiques. Pour comprendre les
perceptions de l’identité de l’organisation décrites par les acteurs, les sentiments
éprouvés à l’égard de cette identité, tous les mécanismes identitaires conscients ou
inconscients saisis dans les entretiens et parfois les documents, il fallait nécessaire-
ment observer le fonctionnement du musée du Louvre à la même période. Parmi beau-
coup d’autres, quelques exemples simples illustrent le propos : comment vraiment
comprendre l’emprise des lieux sur les acteurs (et vice-versa) quand ils évoquent leur
« beauté », leur « magie », leur « mystère » 8, sans en prendre la mesure soi-même en
les arpentant de tout côté ? Comment vraiment comprendre les discours des acteurs
travaillant sous la pyramide sans voir effectivement comment cela se passe ? Com-
ment vraiment décrypter les angoisses identitaires, les conflits d’identité, les enjeux
de pouvoir ou autres, au-delà des discours parcellaires des acteurs, sans les observer
de facto pendant les réunions, dans les bureaux, les couloirs, dans le cœur de
l’action ; sans être le plus près possible de ceux qui les vivent ? Afin de pouvoir accé-
der à une variété de situations et de données, le choix a été fait d’un mode d’observa-
tion direct à découvert, qui peut se définir comme l’autorisation d’être présent dans
l’organisation pour regarder, enregistrer et analyser la réalité quotidienne. L’objectif
exploratoire a défini un processus d’observation ouvert, non systématique et sans
grille structurée au préalable, compris comme un « travail d’imprégnation » à la fois
aux sens ethnométhodologique et phénoménologique 9 du terme ; néanmoins, afin de
ne pas se disperser, différents types de situations naturelles à observer, quadrillant
l’organisation, ont été délimitées au fil de la recherche et catégorisées comme suit :

8 Mots d’acteurs extraits d’entretiens.


48 La méthode des cas

la vie de la partie interne de l’organisation, la vie de la partie externe de l’organisa-


tion ouverte, les événements, les processus de gestion. Le processus d’observation
s’est agencé autour de différents supports pour l’analyse : délimitation des différents
types de situations à observer, journal de bord, comptes rendus d’observation. Il s’est
déroulé pendant les trois années de relation avec le musée, avec une concentration
pendant les dix mois d’immersion dans l’organisation.
Enfin, bien que l’étude du Louvre soit plus transversale que longitudinale, la
documentation a permis une bonne appréhension de l’histoire du musée depuis le
Projet Grand Louvre, puis du déroulement des événements pendant la période d’étude,
ce qui s’est avéré capital pour saisir le changement de l’identité organisationnelle du
musée. La documentation a autorisé en outre un accès très large à l’information dans
l’espace : elle donnait la possibilité quand l’observation se déroulait dans une partie
du musée de cerner ce qui se passait ailleurs. Elle a également largement contribué au
suivi de la vie du musée en dehors des périodes d’observation. Elle a finalement pré-
senté un caractère confirmatoire des faits décrits dans les entretiens et a été plus lar-
gement le support d’une bonne compréhension du contexte tant dans les entretiens
que dans l’observation. Des documents à usage interne et externe ont été collectés
« au vol », c’est-à-dire au gré de l’observation. Une sélection de ces documents a été
opérée a posteriori en fonction du degré de pertinence avec la question de recherche,
qui a conduit à en étudier seulement quelques-uns en profondeur et à les classer dans
des fiches de synthèse de document.
Les analyses ont été menées pendant et après l’étude empirique. Pendant, elles
ont consisté, à chaque retrait du terrain, à réduire et à classifier les données dans des
fiches d’analyse par entretien, des fiches de synthèse d’observation et des fiches de
synthèse de document. Les données ont été systématiquement transcrites et relues
plusieurs fois. Cela permettait à chaque fois d’engendrer de nouveaux questionne-
ments, de corriger la problématique existante et de réaliser des analyses intermédiai-
res. Les ajustements nécessaires étaient opérés lors du retour sur le terrain. À la fin
de l’étude empirique et surtout après, les analyses ont commencé à être plus appro-
fondies. Les données recueillies ont été entièrement reconsidérées afin de se familia-
riser au maximum avec elles. Elles ont été réduites une première fois et catégorisées
dans un dictionnaire des thèmes empiriques fouillé et restitué aux acteurs. Le dic-
tionnaire des thèmes empiriques donnait une description phénoménologique de
l’organisation telle qu’elle est vécue par les acteurs, c’est-à-dire qu’il restituait l’expé-
rience de l’organisation faite par le chercheur au plus près possible de l’expérience
des acteurs, en éliminant l’abstraction et la reconstruction théorique (Schütz, 1987),
en l’occurrence mon expérience de l’expérience de l’identité de l’organisation faite par
les acteurs. Une seconde réduction des données a permis l’élaboration d’un référentiel
théorique ou dictionnaire des thèmes théoriques, permettant de fournir une interpré-
tation des schémas repérés dans la perception des acteurs de l’identité de l’organisa-
tion. Cet outil puissant a permis une description du cas, de nombreuses itérations et
la proposition d’explications. Les théories mobilisées ont puisé dans quatre viviers : la

9 Le travail d’imprégnation de l’observation a consisté à acquérir une grande familiarité avec


l’organisation (sens ethnométhodologique) et à l’éprouver soi-même dans la subjectivité, la cons-
cience de son expérience de l’organisation (sens phénoménologique) afin de tenter de comprendre
les phénomènes étudiés de l’intérieur.
Un exemple de mise en œuvre de la méthode des cas 49

jeune littérature managériale — stratégique et organisationnelle — sur le concept


d’identité organisationnelle, qui a donné la base théorique ; la littérature pluridisci-
plinaire — philosophique, psychologique, psychanalytique, sociologique, anthropolo-
gique et surtout psychosociologique — sur le concept d’identité en général, qui a
nourri la conceptualisation existante de l’identité organisationnelle ; la littérature
managériale, économique et sociologique sur les organisations culturelles qui a
apporté des éclairages intéressants ; et enfin en arrière-plan la littérature gestion-
naire en général. Ce travail d’analyse a été entièrement réalisé à la main, artisanale-
ment pourrait-on dire, afin de ne jamais considérer ces données hors de l’expérience
qui en avait été faite sur le terrain ; le recours à un logiciel a été écarté parce qu’il
apparaissait comme un artifice inutile ou d’un apport marginal au mouvement de
réflexion, voire risquant de l’entraver en l’encombrant. L’opération a demandé du
temps et de la patience, plus de deux années et demie en tout depuis les analyses
débutées pendant l’étude empirique, dont plus d’une année consacrée presque exclu-
sivement aux analyses après l’étude empirique. Mais elle a permis de découvrir le fil
d’Ariane — la problématique — de le suivre et de sortir du labyrinthe du sens pour
dégager une construction descriptive et explicative puis pour formuler les proposi-
tions de la recherche.

La rédaction a fait partie intégrante du travail d’analyse : l’étude de cas s’est


concrétisée « en analysant, en écrivant » 10. La présentation du cas s’est évertuée
également à témoigner de la recherche de sens en adoptant quelques principes
d’exposition. Un premier parti pris a été de mener simultanément les deux voies de
l’exploration — la description et la compréhension — de la construction de l’identité
organisationnelle au musée du Louvre entre 1996 et 1998 dans les trois chapitres
d’analyse, après avoir donné, au préalable, un descriptif de l’organisation permettant
de l’identifier et d’appréhender le contexte de l’étude. Un second parti pris a été de
faire remonter, dans la rédaction des chapitres d’analyse, de nombreux extraits de
données brutes, pour illustrer la description de la construction de l’identité organisa-
tionnelle et donner à voir comment le schéma théorique de la recherche s’est cons-
truit à partir de l’expérience des acteurs. Des extraits d’entretiens, principalement,
mais aussi de documents, de comptes rendus d’observation ou du journal de bord
émaillent le descriptif et surtout les analyses. Des fragments du discours des acteurs,
signalés par des caractères italiques, sont repris dans le texte même des analyses. Le
dernier parti pris a été de ne pas tronquer l’espace rédactionnel requis par des analy-
ses qualitatives se voulant à la fois descriptives et explicatives, d’éviter des raccour-
cis théoriques qui feraient trop l’économie de la narration de l’expérience des acteurs,
ainsi que de privilégier une démonstration impressionniste, par petites touches, éti-
rée dans les chapitres d’analyse. Les résultats de cette démonstration sont ensuite
ramassés dans un dernier chapitre de synthèse présentant les contributions de la
recherche.

Le document final de l’étude de cas, la thèse, est structuré en sept chapitres.


Ils suivent une présentation rationalisée de la recherche sous la forme classique de la
communication scientifique : théorie, méthodologie, description du cas, analyse, et

10 Pour reprendre de manière métaphorique le titre de l’ouvrage de Julien Gracq selon lequel, la lit-
térature se fait « en lisant, en écrivant » (En lisant, en écrivant. Paris : Corti, 1980).
50 La méthode des cas

contribution. Les deux premiers chapitres exposent les armatures théorique et métho-
dologique de la thèse. L’une ne peut pas se comprendre sans l’autre puisque dans
cette recherche constructiviste, inductive et itérative, qualitative, la théorie présen-
tée a été progressivement mobilisée au cours des analyses pendant et après la pro-
duction des données, afin d’abord d’inférer la problématique de la recherche et
ensuite d’y répondre en décrivant et en expliquant les résultats empiriques de l’étude
du Louvre. Le troisième chapitre décrit les caractéristiques les plus extérieures de
l’organisation, nécessaires au lecteur gestionnaire pour identifier l’organisation, et
appréhender les éléments généraux de son contexte général et précis au moment de
l’étude. En effet, dans une recherche sur l’identité organisationnelle, il était difficile
de décrire trop avant l’organisation par les traits de ses acteurs, de leurs représenta-
tions, comportements et problèmes, sans déflorer des analyses qui précisément
mêlent description et interprétation de ce qu’est l’organisation aux yeux de ces
acteurs. Le troisième chapitre n’est donc pas la traditionnelle description support des
analyses, propre aux études de cas, mais plutôt la tête de pont des analyses, le pas-
sage obligatoire pour les éclairer. Les quatrième, cinquième et sixième chapitres pré-
sentent les analyses, selon, respectivement, les trois perspectives collective,
groupale, et individuelle qui éclairent la construction de l’identité organisationnelle
au musée du Louvre au moment de l’étude. Ces chapitres d’analyses, qui occupent près
de la moitié de l’espace rédactionnel, constituent le cœur de la thèse, sa
« substantifique moelle ». Ils portent le patient travail de tissage inductif et itératif
entre les données produites et les instruments théoriques utilisés pour les interpréter.
Le septième et dernier chapitre extrait les résultats du tissu démonstratif des chapi-
tres d’analyse qui les a égrenés, et les rassemble dans une réflexion ramassée et dis-
tanciée sous forme de propositions théoriques visant à une certaine « généralisation
analytique » (Yin, 1990) ou « modélisation générative » (Maffesoli, 1985 ; Gergen,
1994) du cas de la construction de l’identité organisationnelle au musée du Louvre
entre 1996 et 1998.
Le processus de recherche s’est efforcé de satisfaire aux critères de validation
propres aux méthodes qualitatives pour parvenir à la fiabilité et à la validité de la
recherche, tels que les définit Mucchielli (1994, 1996 Ed.) : complétude et saturation
d’une part, acceptation interne, cohérence interne, confirmation externe d’autre part
(Tableau 2.5). Cependant, conformément à ce que préconisent Guba et Lincoln
(1982), ces critères ont été énoncés dans l’esprit du plan de recherché adopté, en
l’occurrence une option phénoménologique sociale dans une épistémologie construc-
tiviste, mettant en avant la validité phénoménologique, l’authenticité, l’empathie, le
double mouvement de l’implication et de la distance critique et vérificatoire de la
recherche (Schütz, 1932).

2.2.3 Présentation des résultats


L’analyse de la construction de l’identité organisationnelle au musée du Lou-
vre, menée aux trois niveaux pertinents du phénomène tel qu’il apparaissait dans
l’organisation — collectif, groupale, individuel — a conduit à énoncer quatre-vingt-
six propositions classées en neuf catégories de contributions, qui enrichissent d’une
part la connaissance de l’identité organisationnelle et d’autre part la connaissance
des organisations culturelles. Ce cheminement est résumé ici.
Un exemple de mise en œuvre de la méthode des cas 51

• Triangulation des modes de production des données (logique, empirique,


créative), triangulation des théories (l’ensemble des données a été analysé avec
Complétude
différentes théories et celles qui ont laissé le moins de résidu ont été retenues).
• Présentation cohérente de l’évolution et des résultats de la recherche.
Fiabilité
• Saturation empirique (lorsque les données produites ne semblaient plus nouvelles
et illustraient des résultats empiriques déjà connus)
Saturation
• Saturation théorique (lorsque les données produites s’intégraient dans le
dictionnaire des thèmes théoriques sans définir de nouveaux thèmes).

• Acceptation du chercheur et de la recherche : bonne.


Acceptation interne • Acceptation du retour d’analyse : non consensuelle.
• Degré d’intersubjectivité avec les acteurs : fort.

• Satisfaisante : plusieurs opérations de contrôle pour la vérifier — rencontres


Validité
Cohérence interne avec le directeur de thèse, communications variées — ayant entraîné des
réajustements.

• Validation de la recherche par des experts : directeur de thèse, rapporteurs et


Confirmation externe
membres du jury lors de la soutenance.

Source : Gombault (2000)


TABLEAU 2.5 – La validation de la recherche

A. SITUATION

Après un siècle de stase, le musée du Louvre, institution culturelle hors du


commun, a vécu pendant ces vingt dernières années une métamorphose prodigieuse,
tournant majeur dans son histoire, qui a bouleversé profondément sa physionomie et
son organisation. Cette seconde naissance du musée l’a doté d’un nouvel espace
— accueil, salles réaménagées, bureaux et coulisses techniques, espace visuel —,
d’une nouvelle structure qui a vu la création de quinze services — culturels, adminis-
tratifs, techniques, opérationnels — aux côtés des sept départements de conserva-
tion, l’obtention du statut d’Etablissement Public Administratif et l’enrichissement de
ses missions. Le métier de l’organisation, sa logique dominante, a été redéfini, en
ouvrant une large place au public à côté de la conservation du patrimoine, avec la
présentation des oeuvres, la pédagogie, l’accueil, la politique du public en général ;
mais aussi à d’autres formes de production culturelle avec de la musique, du cinéma,
des conférences dans le nouvel auditorium, et par ailleurs de la création audiovisuelle
et multimédia. Le Grand Louvre est à ce jour le plus grand musée du monde par ses
surfaces (plus de cent soixante mille mètres carrés), sa fréquentation (six millions de
visiteurs par an) et la richesse de ses collections. Il offre le visage d’un musée
moderne, dans la phase haute de sa courbe de croissance, affichant une forte spécia-
lisation, source de diversité et de complexité, avec près de mille sept cents personnes
offrant une grande variété de professions, statuts, positions sociales, en somme,
d’identités très différentes. Son succès n’exempte pas l’organisation de certaines dif-
ficultés de gestion, mais ayant conquis en partie son autonomie dans l’aventure, elle
s’est manifestement approprié son destin et démontre une force d’apprentissage acti-
vée par la recherche de l’excellence. La période de l’étude se situe à la fin de cette
52 La méthode des cas

épopée reviviscente. Marquée par la fin des travaux, un changement de direction, et


une rationalisation progressive de l’organisation, elle incarne la transition entre le
Grand Louvre et l’après-Grand Louvre. Le franchissement de cette nouvelle étape dans
la vie du musée souligne d’une part sa structuration hétéroclite, entre forces bureau-
cratiques et forces adhocratiques, organisation missionnaire et arène politique,
d’autre part sa culture organisationnelle insolite, à la fois très fragmentée et formida-
blement unifiée par l’emprise de l’organisation.

B. DESCRIPTION ET ANALYSE DE LA CONSTRUCTION DE L’IDENTITÉ


ORGANISATIONNELLE AU MUSÉE DU LOUVRE ENTRE 1996 ET 1998

Suite au Projet Grand Louvre initié au début des années 1980, source d’un
long processus de changement et de changement d’image, en externe comme en
interne, et à la veille de la fin de ce projet, l’identité organisationnelle du Louvre,
entre 1996 et 1998, change intensément. L’expérience de ce changement, doulou-
reuse pour les acteurs, se traduit par une crise latente de l’identité organisationnelle,
repérée comme à la fois une déconstruction du sens et une atteinte au sentiment de
l’identité de l’organisation. Plus précisément, la crise prend la forme de perceptions
collectives de la confusion, la banalisation et la discontinuité des caractéristiques
constitutives de l’organisation, qui altèrent les sentiments d’unité et de cohérence,
d’unicité et de différence, et de continuité de l’identité de l’organisation. Elle se
manifeste dans l’organisation par un climat organisationnel tourmenté, une clôture
organisationnelle et une forte différenciation. Cependant cette crise est une étape de
la construction de l’identité organisationnelle, facteur d’apprentissage organisation-
nel. Opportunité d’un questionnement de l’organisation sur elle-même et sur le sens
de son action, la crise d’identité débouche sur une évolution de la définition de
l’identité de l’organisation par ses acteurs, désormais centrée sur la performance et
les publics de l’organisation. Cet apprentissage transcendant ou en boucle triple favo-
rise un enrichissement des cadres de références de l’action, soit un apprentissage
cognitif ou en boucle double, et un ajustement progressif de l’organisation, soit un
apprentissage comportemental ou en boucle simple.
Cette identité organisationnelle en mutation se construit en grande partie par
l’intermédiaire du groupe dans une configuration idéographique, c’est-à-dire dans
laquelle chaque groupe représente une des identités de l’organisation. Structurées
autour des unités de l’organisation, des professions, des positions, les identités de
groupe sont plurielles. Elles se construisent et se maintiennent par un puissant pro-
cessus de catégorisation sociale, qui permet de repérer et comprendre l’existence d’un
biais endogroupe dans les perceptions de l’identité de l’organisation. La pluralité des
identités de groupe et leur influence dans les perceptions de l’identité de l’organisa-
tion expliquent la pluralité de l’identité organisationnelle. Elle se construit par agré-
gation et par croisement des perceptions groupales de l’identité de l’organisation. Les
différentes perceptions groupales se croisent dans une dynamique conflictuelle et
négociatrice. La conflictualité de l’identité organisationnelle, motivée par la recher-
che d’une identité sociale positive, s’exprime par la présence de plusieurs coalitions
de l’identité organisationnelle, défendant chacune un idéal type de l’identité de
l’organisation. À cause de cette conflictualité et pour limiter les tensions qu’elle pro-
voque, les groupes négocient leurs perceptions de l’identité de l’organisation :
Un exemple de mise en œuvre de la méthode des cas 53

d’abord à un niveau faible en négociant leur identité propre par des stratégies identi-
taires qui visent à occuper le plus de place possible dans l’organisation ; ensuite à un
niveau moyen, par un processus d’acculturation antagoniste qui leur permet de faire
des compromis.
Enfin l’identité organisationnelle du Louvre se construit également au niveau
individuel. Différents aspects de la relation entre l’individu et l’organisation contri-
buent à forger les perceptions de l’identité de l’organisation. D’abord, ces perceptions
sont construites dans un mouvement d’appropriation, par le biais de ce que l’on a
appelé des marqueurs de l’identité organisationnelle, c’est-à-dire des éléments dans
l’organisation qui permettent à ses membres d’appréhender l’identité de l’organisa-
tion, à partir desquels ils infèrent l’identité de l’organisation, et auxquels ils s’identi-
fient. L’espace, le langage et le vêtement de travail apparaissent comme des
marqueurs très saillants de l’identité organisationnelle du musée du Louvre. Plus lar-
gement, les perceptions de l’identité de l’organisation sont construites en fonction de
la nature des processus d’identification des individus à l’organisation. Ce point a été
établi à travers la description de ces processus d’identification. Très affirmée, l’identi-
fication organisationnelle sert au Louvre la valorisation de soi, la recherche de dis-
tinction, une quête de sens et de sensations. Elle s’inscrit dans une configuration
ternaire source d’effets positifs et négatifs dans l’action, avec une forte suridentifica-
tion, une identification conflictuelle symptomatique de la crise d’identité organisa-
tionnelle, et une sous-identification faible et délimitée. Enfin de manière globale, les
perceptions de l’identité de l’organisation sont construites à partir de l’expérience
cognitive, affective et comportementale que font les individus de l’identité de l’orga-
nisation. Elles s’inscrivent dans un schéma de connaissance indissociable d’un senti-
ment de l’identité de l’organisation. Elles sont exprimées, formées, maintenues et
modifiées par les comportements.

C. CONTRIBUTIONS
Partant de cette analyse, la recherche apporte donc d’une part des contribu-
tions pour mieux connaître le phénomène de la construction de l’identité organisa-
tionnelle, sous des aspects inconnus ou identifiés mais non analysés par la littérature
existante sur le sujet. Première contribution, elle permet d’étoffer la définition
d’Albert et Whetten en proposant que l’identité organisationnelle est une construction
subjective et intersujective des membres de l’organisation à propos de son identité,
en proposant ensuite que cette construction se réalise à trois niveaux : collectif,
groupal, individuel, que les identités individuelles et groupales interviennent forte-
ment dans cette construction, que cette construction est largement langagière et nar-
rative, enfin que c’est une construction dynamique. Deuxième contribution, le cas du
Louvre conduit à faire des propositions sur la construction de l’identité organisation-
nelle au niveau collectif, précisément sur la crise de l’identité organisationnelle : cau-
ses, déroulement, dépassement et valeur d’apprentissage. Troisième contribution, la
recherche fait des propositions sur comment se construit, à partir des identités de
groupe une identité organisationnelle plurielle et idéographique. Quatrième contribu-
tion, pour comprendre la construction de l’identité organisationnelle au niveau indivi-
duel, les notions de marqueurs et d’expérience de l’identité de l’organisation sont
proposées, la notion d’identification organisationnelle est approfondie. Cinquième
54 La méthode des cas

contribution, la recherche permet de souligner l’impact de l’identité organisationnelle


dans le fonctionnement de l’organisation, par ses liens avec le changement, l’équili-
bre intégration/différenciation, l’apprentissage, la performance. Sixièmement, des
actions managériales permettant de limiter les dysfonctionnements d’une identité
organisationnelle intense et idéographique comme celle du Louvre sont proposées.
La recherche amène d’autre part des contributions pour mieux connaître les
organisations culturelles. Septième contribution, le cas du Louvre établit que l’iden-
tité organisationnelle dans le secteur culturel est intense, saillante, abstraite, hétéro-
gène, complexe, idéographique, qu’elle comporte une dimension affective
fondamentale, que l’identification aux organisations culturelles est forte, qu’elle se
produit surtout par affinité antérieure à l’entrée de l’individu dans l’organisation et
qu’elle est un puissant facteur d’intégration et de motivation. Huitièmement, le cas
étudié est emblématique du changement de l’identité organisationnelle des musées
après la modernisation qu’ils ont connue dans les pays anglo-saxons et plus récem-
ment dans les pays latins. Neuvièmement, à travers le prisme de l’identité organisa-
tionnelle, des éléments de fonctionnement des organisations culturelles peuvent être
mieux compris, comme leur forme organisationnelle hybride, les résistances bien con-
nues au développement des normes de gestion, des problématiques aiguës, comme
l’équilibre intégration/différenciation, le changement, le leadership, enfin l’apprentis-
sage actuel du new public management.
Il n’est pas possible de reprendre ici les quatre-vingt-six propositions qui ont
formé ces contributions mais des extraits sont présentés dans le tableau 2.6.
La conclusion de la recherche soulignait ses limites ainsi que les voies qu’elle
ouvrait pour d’autres travaux. En ce qui concerne la stratégie de recherche adoptée, la
limite découle du choix effectué d’étudier un cas unique : le cas est généralisable à
des propositions théoriques, mais non à des contextes autres que le Louvre. Il était
donc suggéré en prolongement, pour une recherche future, de tester les propositions
dans d’autres organisations.

2.3 COMMENTAIRES DE L’APPLICATION DE LA MÉTHODE DE CAS


Si la méthode des cas est une stratégie de recherche pour accéder au réel,
alors tout l’enjeu de son application tient, comme on l’a dit précédemment, à mener à
bien cette stratégie, depuis la définition du plan de recherche jusqu’à la réalisation
complète de la recherche. Le bilan de l’application de cette méthode dans la recher-
che exposée ici montre à la fois l’intérêt et la difficulté de son utilisation. Elle a pré-
senté, de manière indissociable, le défaut de sa qualité qui réside dans sa
caractéristique principale : la relation au terrain, omniprésente, riche mais complexe,
passionnante et rude à la fois.

2.3.1 Cheminant chemin faisant… : un processus de recherche


patient
La réalisation de l’étude au Louvre s’est déroulée, par chance, dans une pro-
gression continue, régulière et fluide, sans heurt majeur, ni à-coups, arrêt, vicissitude
ou revirement intempestif. Néanmoins, chaque phase a varié grâces et obstacles ; ce
Un exemple de mise en œuvre de la méthode des cas 55

2 La crise d’identité organisationnelle : éclairages sur la construction de l’identité organisationnelle dans une
perspective collective
2–1 Le processus de changement de l’identité organisationnelle s’inscrit dans une aire transitionnelle qui offre le paradoxe du changement et de la stabilité. La
faible tolérance des membres de l’organisation au paradoxe du changement de l’identité organisationnelle est un facteur de déclenchement d’une crise
d’identité organisationnelle.
2–2 Une crise d’identité organisationnelle est une déconstruction collective du sens de l’identité de l’organisation et une atteinte collective au sentiment d’identité
de l’organisation. Elle apparaît dans l’ensemble des perceptions des membres de l’organisation, de la confusion, la banalisation et la discontinuité des
caractéristiques constitutives de l’organisation. L’atteinte au sentiment d’identité de l’organisation entraîne un mouvement de désidentification
organisationnelle.
2–3 Une crise d’identité organisationnelle peut être ouverte ou latente.
2–4 Une crise d’identité organisationnelle se manifeste par un climat organisationnel tourmenté, anxiogène.
2–5 Une crise d’identité organisationnelle entraîne un mouvement de clôture organisationnelle, qui se signale par un narcissisme organisationnel, c’est-à-dire une
amplification idéalisée, une exagération des caractères propres à l’organisation et un rejet de l’altérité environnementale.
2–6 Une crise d’identité organisationnelle se manifeste par une très forte différenciation interne. La différenciation interne entraîne d’une part une distance
intérieure, marquée par une communication interne difficile et un solipsisme de l’identité organisationnelle défini comme une situation où il n’y a pour les
membres de l’organisation d’autre réalité que leurs perceptions individuelles et/ou groupales de l’identité de l’organisation ; et d’autre part une conflictualité
de l’organisation, fruit de la distribution idéographique exacerbée de l’identité organisationnelle qui caractérise la crise.
2–7 Le dépassement d’une crise d’identité organisationnelle se réalise dans la résolution progressive par les acteurs du paradoxe du changement de l’identité
organisationnelle et dans la négociation intense de l’identité organisationnelle qu’ils conduisent.
2–8 Une crise d’identité organisationnelle peut être interprétée comme une étape du processus de construction de l’identité organisationnelle parce qu’elle permet
l’apprentissage d’une nouvelle définition de l’identité de l’organisation, un apprentissage en boucle triple ou transcendant.
2–9 Dans la crise de l’identité organisationnelle, se révèle une praxis de l’identité organisationnelle, c’est-à-dire une réflexion et une action portant sur l’identité
de l’organisation et qui ont pour but de la transformer.
2–10 L’apprentissage d’une nouvelle définition de l’identité de l’organisation, un apprentissage en boucle triple ou transcendant, favorise un apprentissage en
boucle double (cognitif) et boucle simple (comportemental).
7 L’identité organisationnelle dans les organisations culturelles
7–1 La production culturelle fortement symbolique de l’organisation culturelle, détermine la construction d’une identité organisationnelle saillante, intense et
assez abstraite.
7–2 Dans une organisation culturelle, les œuvres sont le principal objet de focalisation de l’identité organisationnelle.
7–3 Dans certaines organisations culturelles et notamment les organisations muséales et patrimoniales, l’architecture apparaît comme le Moi-peau de
l’organisation, c’est-à-dire une figuration dont les acteurs de l’organisation se servent pour se représenter l’identité de l’organisation comme élément
contenant l’organisation.
7–4 La diversité identitaire de l’organisation culturelle détermine la construction d’une identité organisationnelle hétérogène, complexe, idéographique.
7–5 Dans l’organisation culturelle, l’identité organisationnelle se construit de manière privilégiée par la lutte d’influences de quatre coalitions principales de
l’identité organisationnelle, structurées autour de noyaux durs de la conception idéale de l’identité de l’organisation : la coalition des œuvres, la coalition du
public, la coalition de l’organisation, la coalition du personnel.
7–6 L’organisation culturelle appelle une forte identification organisationnelle.
7–7 Dans l’organisation culturelle, l’expérience de l’identité de l’organisation comporte une dimension affective fondamentale. Par suite, l’identification
organisationnelle comporte une dimension affective fondamentale.
7–8 Dans l’organisation culturelle, l’image organisationnelle, c’est-à-dire l’image externe perçue par les membres de l’organisation, est un facteur important dans
la construction de l’identité organisationnelle et de l’identification organisationnelle.
7–9 Dans l’organisation culturelle, le processus d’identification organisationnelle se produit principalement par affinité.
7–10 Dans l’organisation culturelle, la recherche de sens et de sensations sont des motifs caractéristiques de l’identification organisationnelle.
7–11 Dans l’organisation culturelle, très différenciée, la forte identification organisationnelle est un puissant facteur d’intégration.
7–12 Dans l’organisation culturelle, la forte identification organisationnelle est un facteur puissant de motivation et d’implication, parce que la nature culturelle de
l’activité de l’organisation fournit un salaire informel sous forme de gratifications psychologiques et sociales.

Source : Gombault (2000)

TABLEAU 2.6 – Exemples de propositions issues de l’étude de cas (2e et 7e contributions)


56 La méthode des cas

qui, compte tenu de la longueur et de l’intensité de l’étude empirique, a déterminé un


processus de recherche lui-même étiré et éreintant. L’immersion dans l’organisation,
qui a requis un effort intense pour produire les données, explique en partie ce chemi-
nement patient, détaillé dans le tableau 2.7. Mais la principale difficulté de cette
étude de cas n’a pas été l’accès physique au terrain ni le maintien sur celui-ci, ni
même l’interaction sociale avec les acteurs, à laquelle beaucoup de soin avait été
apporté (cf. infra), mais bien plutôt la compréhension du terrain et des acteurs. La
complexité de « l’accès au réel » s’est située dans ce face-à-face avec les données,
parfois ressenti comme inextricable, en raison d’une théorie pauvre ou mal mobilisée.
L’identification de la « vraie » problématique notamment et l’élaboration des analyses
ont requis un travail important, méticuleux et créatif à la fois, que les métaphores de
« bricolage 11 théorique » inventée par Lévi-Strauss (1962) et « d’imagination
disciplinée » de Weick (1989) cernent parfaitement. L’inférence théorique dans cette
étude exploratoire s’est avérée être un parcours du combattant : des heures à ratisser
en bibliothèque et à lire… Pour trouver les bons outils d’analyse des
données produites. Des heures à réfléchir pour bien s’en servir…

2.3.2 La relation au terrain : une attention constante


Une grande attention a été portée au terrain de la recherche par le comporte-
ment adopté dans l’organisation et par la relation instaurée avec les acteurs.

A. LE COMPORTEMENT DANS L’ORGANISATION


Le temps long de l’étude rendait son acceptation par les acteurs de l’organisa-
tion tout à fait cruciale. De plus, le choix d’une observation directe à découvert con-
duisait à ne pas négliger le poids que représentait l’intrusion d’un étranger dans
l’organisation. Il s’agissait de rendre cette présence efficace, c’est-à-dire favorable à
l’interaction, tout en faisant en sorte qu’elle soit la plus légère possible. Les principa-
les règles de conduite suivies sont présentées dans l’encadré 2.2.

B. LA RELATION AVEC LES ACTEURS


La relation avec les acteurs s’est bien passée. Ils se sont montrés dans l’ensem-
ble très disponibles, accueillants et coopératifs. L’étude ne les perturbait pas vrai-
ment et éveillait plutôt une curiosité bienveillante. Plusieurs facteurs peuvent
expliquer cette bonne relation. D’abord « l’habitude d’être observés » 12 par différen-
tes personnes extérieures (stagiaires, journalistes, consultants) a sans doute contri-
bué à une bonne acceptation des acteurs, ainsi que l’a souligné l’administrateur
général au début du projet, qui ne s’inquiétait pas de cette présence gratuite dans le
quotidien de l’organisation. L’introduction de l’étude par la direction, présentée
comme une recherche universitaire indépendante et non pas comme un audit qu’elle
aurait demandé, a favorisé considérablement cette acceptation. Enfin le travail,
patient et prenant, de socialisation et de rapprochement avec les acteurs afin de se
faire accepter d’eux en les perturbant le moins possible, semble avoir porté ses fruits.

11 Au sens noble du mot.


12 Mots de l’administrateur général du musée.
Un exemple de mise en œuvre de la méthode des cas 57

Richesses Difficultés
Étape 1 • Champ de recherche ouvert. • Choix de la recherche : délimitation du sujet et élaboration de la
• Période de réflexion. question de départ.

Étape 2 • Rencontre avec les organisations. • Négociation de l’étude.


• Mise en route de l’étude empirique. • Entrée dans l’organisation, terra incognita.

Étape 3 • Découverte du terrain. • Acceptation du terrain : travail de patience et d’humilité.


• Observation directe très stimulante. • Méfiance et agressivité de certains acteurs.
• Richesse des rencontres. Ouverture et gen- tillesse de • Activité intense prenante et épuisante tant intellectuel-lement
la majorité des acteurs. que physiquement : chaque journée au musée se prolonge tard
• Travail d’écoute et d’empathie. en soirée avec la rédaction du journal de bord, des comptes
• Chance de pouvoir se glisser dans les coulisses d’une rendus d’observation, des comptes rendus d’entretiens. Horaires
organisation, a fortiori du musée du Louvre pour types d’une journée in situ : 9h00–22h00, quasiment non
pouvoir l’observer directement et rencontrer ses stop.
acteurs. • Maintien d’une distance affective avec les personnes
• Satisfaction d’une adaptation réussie au terrain. rencontrées : socialisation extrême de façade, l’observation
• Bonne acceptation interne. Relations de confiance directe réclamant une non-implication. La distance minimum
avec les acteurs. requise a pu être assurée grâce à des allers et retours successifs
• Premier travail d’induction captivant. sur le terrain.
• Non-intervention dans le processus décisionnel, jamais absolue :
la présence physique dans une situation d’observation directe ou
d’entretiens amenant forcément à être parfois pris à partie ou à
intervenir plus ou moins volontairement. La passivité totale face
au déroulement des événements est difficile à réaliser parce que
l’observateur sollicité peut difficilement refuser de donner aussi
de lui-même, par exemple en commentant le processus de
recherche ; un refus peut entraver la confiance de l’acteur. Enfin
il est ardu de faire totalement abstraction de soi-même sur une
longue période d’observation.

Étape 4 • Satisfaction de disposer d’un matériau riche et fécond. • Important travail de réduction des données.
• Émulation théorique. • Moments d’incertitude et de déroute pour construire la
• Apprentissage intellectuel. problématique.
• Émergence de la problématique, fil d’Ariane de la • Progression laborieuse des analyses. Efforts répétés de
recherche. « déconstruction-reconstruction » pour comprendre les
• Échanges avec des chercheurs confirmés. intrications du phénomène étudié.
• Distance à parcourir des données à leur théorisation.

Étape 5 • Retours sur le terrain. • Sortie du terrain


• Recueil de données complémentaires. • Négociation de la restitution des analyses.
• Retrouvailles avec les acteurs. • Restitution des analyses.
• Satisfaction de constater une demande forte de • Relations et suivi de l’étude par la nouvelle direction du musée.
résultats à l’égard de l’étude.
• Relations faciles avec les acteurs, fruit d’un long
travail d’acclimatation. Reconnaissance mutuelle.
• Suivi de l’évolution.

Étape 6 • Travail d’écriture. • Activité intense.


• Concrétisation et matérialisation de la recherche. • Progression laborieuse.
• Échanges avec des chercheurs confirmés. • Solitude du travail.

Source : Gombault (2000)

TABLEAU 2.7 – Richesses et difficultés du processus de la recherche


58 La méthode des cas

ENCADRÉ 2.2
Se faire accepter et interagir : les règles de conduites
dans l’organisation

En premier lieu, il s’est agi de rendre familière aux acteurs la présence étrangère que
leur imposait mon travail d’observation. Les participants réagissant forcément à cette
présence, il fallait essayer de se faire oublier au quotidien, afin de neutraliser au
mieux les mécanismes de défense. Par exemple, l’observation des réunions de direc-
tion a été effectuée le plus souvent en retrait de l’immense table centrale, depuis une
petite table installée à l’arrière sur un côté de la pièce. L’acceptation de l’observation
d’une manière générale a pu se faire en sillonnant inlassablement le musée de long
en large, en rendant régulièrement visite aux différents acteurs, sans but particulier, en
« traînant » le plus possible dans le musée : bureaux, salles, restaurant du personnel,
salles de pause, niveaux souterrains du musée. L’observation était d’autant plus facile
que bien que cette présence d’un observateur ait été explicitée en tant que telle par la
direction du musée, certains acteurs l’assimilaient à celle d’un stagiaire, ce qui dissi-
pait automatiquement toute méfiance. Pour les autres, l’introduction de cette présence
par la direction était un gage de légitimité indispensable à une libre circulation dans
le musée, mais engendrait forcément parfois une mauvaise interprétation de la part
des acteurs (observateur émissaire de la direction), qui lorsqu’elle était exprimée per-
mettait une rectification et une affirmation de l’indépendance de la recherche par rap-
port aux intérêts de la direction. En second lieu, une attitude générique d’ouverture
aux autres a été adoptée. Une façon d’économiser du temps d’investigation en
gagnant la confiance des acteurs était de leur poser un grand nombre de questions à
caractère informatif sur leurs pratiques, voire sur eux-mêmes, à toutes les occasions de
rencontre qui se présentaient. Cette volonté d’empathie a systématique a permis
d’entendre les acteurs en profondeur, de comprendre leur état d’esprit. Les questions
devaient être justifiées et ne pas paraître incongrues. En troisième lieu, l’entrée en inte-
raction avec les acteurs et la répétition de ces interactions dans des relations suivies
se sont appuyées sur un rapprochement avec certains acteurs, alliés, informateurs pri-
vilégiés, collaborateurs de la recherche (Arborio et Fournier, 1999) qualifiés dans
l’étude de « personnes-ressources ». Le soutien de ces acteurs a été précieux. Il a servi
à l’approfondissement de l’investigation : comme informateurs ou comme commenta-
teurs de situations ombrées ou complexes, comme médiateurs pour constituer des
échantillons et rencontrer certains acteurs et enfin comme interlocuteurs privilégiés lors
des retours sur le terrain après la période principale de l’étude. Le groupe des person-
nes-ressources a été constitué au fur et à mesure de la recherche : l’administrateur
général qui a accepté le projet, puis son successeur à qui le relais a été transmis, le
chef du service culturel proposé comme tuteur de la recherche par le premier adminis-
trateur général qui a joué un rôle clé d’accompagnement, puis différentes personnes
rencontrées au gré des entretiens et de l’observation, très réceptives à la recherche
avec qui une relation plus ou moins étroite s’est établie. La base logistique de l’étude
se situant au service culturel, les personnes-ressources y ont été les plus nombreuses.
Pour bien prendre la mesure de la qualité des informations auxquelles leur entremise a
permis d’accéder, il a fallu s’interroger sur les intérêts très divers que chacun pouvait
trouver à servir l’étude. Dans l’analyse, il a fallu traiter avec plus de circonspection les
récits de ces personnes que le reste des données. Pour bien prendre la mesure de la
qualité des informations auxquelles leur entremise a permis d’accéder, il a fallu s’inter-
roger sur les intérêts très divers que chacun pouvait trouver à servir l’étude. En dernier
Un exemple de mise en œuvre de la méthode des cas 59

lieu, le comportement sur le terrain a consisté à faire varier au maximum le point de


vue sur les situations, en triangulant le recueil des données, mais aussi en essayant
d’être le plus mobile possible, en essayant de suivre les multiples facettes de la vie du
musée et de ses acteurs. Le périmètre du musée étant très étendu — de la Seine à la
rue de Rivoli, de la cour Carrée à la cour Napoléon, des terrasses aux profonds sous-
sols… — les déplacements physiques étaient constants et obligatoires pour pouvoir
embrasser toute l’activité du musée et j’ai en conséquence parcouru au Louvre beau-
coup de kilomètres.
Source : Gombault (2000)

a. L’empathie permet de comprendre le vécu de quelqu’un d’autre sans l’éprouver réellement. A partir des années 50, Rogers donne au mot empa-
thie son acception moderne. C’est selon lui l’essence de l’attitude non directive de compréhension d’autrui, la compréhension intellectuelle du vécu de
l’autre. Différente de la sympathie qui est une identification quasi émotionnelle, l’empathie indique la capacité de s’immerger dans le monde subjectif
d’autrui, de participer à son expérience dans la mesure où la communication verbale et non verbale le permet, de capter la signification personnelle des
paroles de l’autre bien plus que de répondre à leur contenu intellectuel. Il s’agit d’une sensibilité altérocentrique, sociale, d’une réceptivité aux réactions
d’autrui, d’une participation à l’expérience d’autrui tout en demeurant émotionnellement indépendant (Rogers et Kinget, 1963, 105-108).

Cependant cette bonne relation d’ensemble n’a pas exclu ici et là quelques dif-
ficultés. L’étude a provoqué des contre-stratégies (Arnaud, 1996) qualifiées par Deve-
reux (1980) de « conduites contre-transférentielles », « l’observé observateur de son
observateur » éprouvant immanquablement de l’angoisse. La méfiance (surtout dans
le service de la surveillance et dans les départements) avec des évitements caractéri-
sés, voire l’agressivité (quelques personnes), ont parfois été suscitées. Une gestion en
douceur des tensions soulevées permettait finalement d’obtenir une coopération des
acteurs, sauf dans quelques rares cas : un cadre s’est braqué contre le principe de
l’étude refusant carrément de participer, d’autres conservaient leur attitude méfiante
de départ éventuellement à cause des maladresses qui avaient été commises pour
essayer de les approcher. Les « fuyards », moins d’une dizaine, étaient laissés en paix,
mais les modalités de l’évitement (changement d’itinéraire, embarras, rendez-vous
annulés, retards répétés) ont été enregistrés dans l’observation comme incidents cri-
tiques. À l’inverse, mais plus rarement, il fallait quelquefois discerner le bluff ou les
comportements « séducteurs ». En fait la difficulté majeure résidait davantage dans
l’organisation des rencontres avec les acteurs, réellement très occupés. Il fallait trou-
ver du temps en perturbant le moins possible l’action quotidienne. Quelques uns n’ont
finalement pas pu être rencontrés pour un entretien comme il était prévu, à cause de
ce manque de disponibilité. Enfin la restitution des résultats n’a pas été consensuelle
(Encadré 2.3). Si elle a enthousiasmé certains et n’a pas suscité d’hostilité directe à
l’égard de l’étude, elle a aussi suscité un certain malaise. Mais dans une étude centrée
sur les perceptions des acteurs, a fortiori dans une organisation composée de sous-
groupes aux intérêts divergents, la recherche du consensus dans cet exercice est illu-
soire (Arborio et Fournier, 111). Si la restitution plaît à l’un des sous-groupes ou indi-
vidu, elle déplaira à d’autres. Le fait de causer des remous est inéluctable. En outre,
l’acceptation du contenu de la restitution se heurte toujours à la mobilisation de
60 La méthode des cas

ENCADRÉ 2.3
Un exemple de restitution peu consensuelle

Suite à la restitution de groupe, en dehors de la direction et de quelques cadres, peu


de réactions se sont manifestées ouvertement, confortant le repérage d’un climat feu-
tré, où les choses ne se disent pas en public. Et pourtant, cet exercice de restitution
des résultats d’une étude universitaire qui a fait ouvertement part à tous du questionne-
ment de l’organisation sur elle-même, une première dans le genre, n’a pas laissé les
acteurs indifférents. De manière prévisible, à cause de la difficile communication
interne directe de l’organisation, des bruits de couloir ont fait état, quelques jours plus
tard, de certaines réactions, se demandant quel était l’intérêt de parler des représenta-
tions des acteurs ouvertement. Une rumeur a couru qui faisait de l’étude un audit com-
mandité par la direction dont elle allait se servir pour procéder à des réorganisations.
Un cadre a fait part à la direction de son découragement pour mener son action au
vu des résultats qui lui renvoyaient l’image d’une évolution très lente des perceptions
des autres acteurs sur certains points. La direction a donc du gérer cette restitution
groupale et rassurer les acteurs.
D’autres cadres en revanche, dont quatre chefs de service et un chef de département,
se sont montrés très enthousiastes, appréciant « qu’une parole libre et extérieure ait pu
être prononcée sur des choses essentielles » a et espérant qu’elle ouvrirait un débat
interne ; ces cadres ont souhaité une restitution individuelle des résultats pour leur unité
(partie 2 du dictionnaire des thèmes empiriques). Les restitutions des perceptions du
musée pour chaque service, département et unité, ont été faites systématiquement par
un document écrit si elles étaient demandées et dès lors que les résultats étaient
consistants ; la remise du document écrit a été suivie d’une discussion approfondie
avec la direction de l’unité si elle la sollicitait. Ces discussions approfondies, comme
celles s’étant déroulées avec l’administrateur général et l’administrateur général
adjoint du musée lors de la restitution globale des résultats empiriques, ont témoigné
de l’intérêt porté par certains acteurs au sujet de l’étude et de la volonté de retirer un
apprentissage des résultats.
Source : Gombault (2000)

a. Mots d’acteurs.

mécanismes de défense chez les acteurs, que la psychanalyse a parfaitement démon-


trée 13.

Si la qualité de la relation établie était gratifiante lors du travail d’enquête,


elle rendait plus exigeant encore l’autocontrôle nécessaire pour maintenir la bonne
distance avec les acteurs : ni trop près, ni trop loin. Les retraits réguliers du terrain
ont favorisé cette « implication contrôlée » (Ancelin-Schutzenberger, 1972) ou
« familiarité distante » (Matheu, 1986), sans laquelle la relation avec les acteurs pou-

13 Durant la cure analytique, le patient refuse inconsciemment de connaître les désirs refoulés qui
son en lui. Il résiste aux interprétations du psychanalyste. Il ne veut rien savoir de sa vérité bien
qu’il tienne le discours inverse. De la même façon dans l’organisation, les travaux de Kets de Vries et
Miller (1985) entre autres montrent que les acteurs ont mille façons de résister à la restitution du
contenu d’une recherche comme celle-ci.
Conclusion 61

vait être source de confusion émotionnelle et nuire ainsi à la qualité de l’étude. Cette
relation de proximité délicate, instaurée, rompue et restaurée (Bourdieu, 1984), a
néanmoins quelquefois été difficile à tenir tout à la fin de l’étude, lors de la restitu-
tion des résultats, non seulement à cause de l’équilibrisme de l’exercice, mais aussi de
la familiarité avec l’organisation et certains de ses acteurs, de l’impression éventuel-
lement pesante, de trop et mieux connaître l’organisation sur certains points que cer-
tains interlocuteurs, tout en la connaissant beaucoup moins sur d’autres. L’élasticité
et l’habileté relationnelle, facteurs majeurs de la bonne acceptation pendant la lon-
gue période de l’étude, montraient des limites sous la forme parfois d’un excès de
spontanéité, d’erreurs d’attitude ou de comportement, aussitôt rappelées à l’ordre par
la réaction de l’interlocuteur.

3. Conclusion

L’exemple de l’étude de la construction de l’identité organisationnelle au


musée du Louvre permet de tirer deux enseignements principaux au sujet de la
méthode des cas. En premier lieu, la question de l’accès au réel est au cœur de son
utilisation. C’est sa force : le cas du Louvre démontre sa richesse, ce « voyage au cen-
tre de la situation de gestion » qu’elle permet, cette interaction avec les acteurs
qu’elle valorise. C’est aussi sa faiblesse : si dans cette recherche, le choix de cette
stratégie a été la clé de sa réussite, nombreux ont été les écueils qui aurait pu faire
échouer la recherche, et au premier rang d’entre eux, le découragement devant les
obstacles successifs rencontrés. Car la méthode des cas est une épreuve de force avec
le terrain autant qu’avec soi-même. Chance (?) inouïe, la relation au terrain a presque
été facile, comparée aux récits qu’en font d’autres chercheurs. Et malgré cela, le pro-
cessus s’est avéré ardu. Outre les facteurs externes considérables au demeurant
(accessibilité du terrain, temps, situations), la voie du succès réside sans doute dans
« l’obstinée rigueur », la maîtrise de la complexité pour relier les données empiriques
et la théorie, l’organisation, le pragmatisme et bien sûr dans tout ce qui peut faire la
qualité de la relation humaine ; autant d’éléments que l’enseignant en gestion, de
surcroît en GRH, n’est pas censé ignorer… En second lieu et en conséquence de cette
question centrale de l’accès au réel, la méthode des cas requiert de façon évidente
une habileté et une expérience dans la recherche qualitative qu’un jeune chercheur
n’a pas encore. L’utiliser dans une thèse est donc à double tranchant : c’est autant
une formation accélérée à la recherche qualitative, très utile pour les recherches sui-
vantes (les connaissances méthodologiques à acquérir sont considérables parce que
diverses), qu’un chemin de Damas risqué pour qui manquerait d’endurance.

Bibliographie
Albert S. et Whetten D.A. (1985), Organizational identity. In Cummings, L.L et Staw,
B.M. (Eds), Research in Organizational Behavior. Greenwich, CT : JAI Press, vol. 7,
pp. 262-295.
Ancelin-Schutzenberger A. (1972), Observations dans les groupes de formation et de thé-
rapie. Paris : L’Epi.
62 La méthode des cas

Arborio A.M. et Fournier P. (1999), L’enquête et ses méthodes : l’observation directe.


Paris : Nathan Université.
Arnaud G. (1996), Quelle stratégie d’observation pour le chercheur en gestion ? Prolé-
gomènes à toute recherche in situ. Économies et Sociétés, Série Sciences de Gestion,
n° 22, pp. 235-264.
Berger H. et Luckmann T. (1966), La construction sociale de la réalité. Paris : Méridiens
Klincksieck, 1992.
Benghozi P.J. (1990), La négociation d’une recherche : une étape clé dans la méthodo-
logie d’intervention. Économies et Sociétés, n° 15, pp. 195-209.
Blanchet A. et Gotman A. (1992), L’enquête et ses méthodes : l’entretien. Paris : Nathan
Université, 128.
Bonoma T. V. (1982), Questions and answers about the case method. Boston : Harvard
Business School.
Bonoma T. V. (1985), Case Research in Marketing : Opportunities, Problems and a Pro-
cess. Journal of Marketing Research, mai 199-208.
Bourdieu P. (1984), Homo Academicus. Paris, Minuit.
Bourdieu P. (1992), Réponses. Pour une anthropologie réflexive, Paris : Seuil, Libre exa-
men.
Bryman A. et Burgess R.G. (1994), Analysing qualitative data. Londres et New York :
Routledge.
De la Ville V. (1997), Recherche idiographique et enjeux du processus de modélisation
dans le champ de la stratégie. Actes du colloque Constructivisme et Sciences de ges-
tion, Lille, 23 octobre, pp. 269-281.
Denzin N.K. et Lincoln Y. S. (1994), Handbook of Qualitative Research. Sage Publica-
tions.
Devereux G. (1980), De l’angoisse à la méthode dans les sciences du comportement.
Paris : Flammarion.
Dyer W.G. et Wilkins A.L. (1991), Better stories, not better constructs, to generate bet-
ter theory : a rejoinder to Eisenhardt. Academy of Management Review, vol. 16, n° 3,
pp. 613-619.
Eisenhardt K. M. (1989), Building theories from case study research. Academy of Mana-
gement Review, octobre, 14(4), pp. 532-550.
Eisenhardt K. M. (1991), Better stories and better constructs : the case for rigor and
comparative logic. Academy of Management Review, juillet, 16(3), pp. 620-627.
Feyerabend P. (1975), Contre la méthode : esquisse d’une théorie anarchiste de la con-
naissance, Paris : Seuil, 1979.
Gergen K. (1994), Realities and relationships. Soundings en social construction. Cam-
bridge, Mass. : Harvard University Press.
Glaser B. et Strauss A. (1967), The discovery of grounded theory. Chicago : Adline.
Gombault A. (2000), La construction de l’identité organisationnelle : une étude explo-
ratoire au musée du Louvre. Thèse pour l’obtention du doctorat en Sciences de Gestion.
Université Montesquieu-Bordeaux IV.
Guba E.G. et Lincoln Y.S. (1982), Effective evaluation. San Francisco : Jossey Bass Pub.
Hamel J., Dufour S. et Fortin D. (1993), Case study methods. Newbury Park, CA : Sage
Publications.
Hartley J. (1994), Case studies in organizational research. In Cassel, C. et Symon, G.
(Eds), Qualitative methods in organizational research, London : Sage Publications.
Bibliographie 63

Hlady Rispal M. (2002), La méthode des cas. Application à la recherche en gestion.


Bruxelles : De Boeck Université.
Kets de Vries M. et Miller D. (1985), L’entreprise névrosée. Mc Graw Hill.
Lapierre L (1992), L’approche clinique, la fiction et la recherche sur le leadership. Ima-
ginaire et leadership, Montréal : Québec/Amérique et Presses des H.E.C., pp. 57-88.
Lee A.S. (1989), A scientific methodology for MIS case studies. MIS Quaterly, 13 (1),
pp. 33-50.
Le Moigne J.-L. (1990), Épistémologies constructivistes et sciences de l’organisation.
In Martinet, A.C. (Ed.), Épistémologies et sciences de gestion, Paris : Economica,
pp. 81-140.
Levi-Strauss C. (1962), La pensée sauvage. Paris : Plon.
Maffesoli M. (1985), La connaissance ordinaire. Paris : Librairie des Méridiens.
March J., Sproull L. et Tamuz M. (1991), Learning from samples of one or fewer. Organi-
zation Science, vol. 2, n° 1, pp. 1-13.
Matheu M. (1986), La familiarité distante : quel regard poser sur la gestion dans notre
société ? Annales des Mines. Gérer et comprendre, mars, pp. 81-94.
Miles M. et Huberman A. (1991), Analyse de données qualitatives. Recueil de nouvelles
méthodes, Bruxelles : De Boeck Université, Pédagogie en développement/Méthodolo-
gie de la recherche.
Mintzberg H. (1979), An emerging strategy of direct research, Administrative Science
Quaterly, vol. 24, pp. 582-589.
Mucchielli A. (1994), Les méthodes qualitatives, Paris : PUF, Que sais-je ?
Mucchielli A. (1996, Ed.), Dictionnaire des méthodes qualitatives. Paris : Armand Colin,
U.
Paillé P. (1996), De l’analyse qualitative en général et de l’analyse thématique en parti-
culier. Recherches Qualitatives, 14.
Park R.E. (1915), La ville, propositions de recherche sur le comportement humain en
milieu urbain. In Grafemeyer Y. et Joseph I. (Eds), L’école de Chicago. Naissance d’une
écologie urbaine, Ed. Aubier, 1990.
Pettigrew A. (1985), The awakening Giant. Continuity and change in ICI. Oxford : Basil
Blackwell.
Popper K. (1935), Logique de la découverte scientifique. Paris : Payot.
Rogers C. et Kinget G.M. (1963), Psychothérapie et relations humaines. Université de
Louvain, 1, 3e éd. 1966.
Romealer P. (1994), Management : les constructeurs. James March, Revue française de
gestion, mars-avril-mai, pp. 48-60.
Schütz A. (1932), The phenomenology of the social world. Evanston, IL : Northwestern
University Press, 1967.
Schütz A. (1987), Le chercheur et le quotidien, Méridiens Klincksieck.
Smith, N.C. (1991), The Case Study : A Vital yet Misunderstood Research Method for
Management. In Smith, N.C. et Dainty, P. (Ed), The Management Research Handbook,
New York : Routledge, pp. 145-158
Stake R. (1994), Case studies. In Denzin N.K. et Lincoln Y. S. (Eds.), Handbook of Quali-
tative Research, Sage Publication, pp. 236-247.
Strauss Al. et Corbin J. (1994), Grounded theory methodology : an overview. in Denzin
N.K. et Lincoln Y.S. (Eds), Handbook of qualitative research, Sage Publications,
pp. 273-285.
64 La méthode des cas

Whetten D.A. et Godfrey P.C. (1998, Eds), Identity in organizations. Building theory
through conversations. Thousand Oaks : Sage Publications, Foundations for organiza-
tional science.
Wacheux F. (1996), Méthodes qualitatives et recherche en gestion, Paris : Economica,
Gestion.
Weick K.E. (1968), Systematic observational methods. In Lindzey G. et Arowson E., The
handbook of social psychology, vol. 2, Research Methods, Addison-Wesley.
Weick K.E. (1989), Theory construction as dicisciplined imagination. Academy of Mana-
gement Review, vol. 14, n° 4, 516-531.
Yin R. (1981), The case study crisis : some Answers. Adminstrative Science Quaterly, vol.
26, pp. 58-65.
Yin R. (1990), Case study research : design and methods. Beverly Hills, CA : Sage Publi-
cations.
Yin R. (1993), Applications of case study research. Beverly Hills, CA : Sage Publishing.
Chapitre 3

Contextualisme et recueil
de données
Jocelyn HUSSER 1

Sommaire
1 La démarche contextualiste 66

2 Les cadres intermédiaires hospitaliers


dans leur contexte de gestion 69

3 Recueil et analyse de données 80

4 Conclusion 98

1 Maître de Conférences, Université de Bordeaux IV.


66 Contextualisme et recueil de données

L’approche contextualiste s’inscrit, selon Brouwers et al. (1997), comme l’une


des démarches les plus prometteuses et les plus riches pour la compréhension des
organisations dans leurs dimensions humaines et processuelles.
La notion de contextualisme renvoie directement aux travaux de Pettigrew
(1985, 1987) et de son groupe de recherche (Pettigrew et Whipp, 1991 ; Wilson,
1992). Il s’agit d’un cadre particulier d’analyse qui tente de comprendre, dans une
perspective constructiviste, les processus interactifs par lesquels un contenu (par
exemple la fonction ressources humaines ou le management humain) évolue dans un
contexte particulier, traversé par un processus où prédominent les relations, interac-
tions, jeux de pouvoirs entre acteurs influant la vie des organisations. Une telle pers-
pective oriente la recherche vers un examen minutieux des spécificités qui
caractérisent le fonctionnement de chaque organisation.
C’est précisément ce que rappelle la première partie de ce chapitre à travers la
présentation de la démarche contextualiste.
Vient ensuite la nécessaire confrontation de la démarche et du recueil de don-
nées qualitatives intéressant les ressources humaines. Cette confrontation sera illus-
trée par l’étude du pilotage du changement organisationnel par les cadres
intermédiaires dans leur contexte de gestion.
Sur la base de cette confrontation empirique, trois modes de traitement des
données sont abordées, correspondant chacune à un mode de recueil particulier :
entretien, observation et étude documentaire.

1. La démarche contextualiste

L’analyse contextualiste de toute dynamique organisationnelle s’articule


autour de deux principes fondateurs : tout d’abord la nécessité d’analyser la dynami-
que organisationnelle dans le contexte qui l’entoure et ce à différents niveaux. L’ana-
lyse contextualiste ne se réduit pourtant pas à un sous-ensemble de l’approche
contingente. En effet, l’analyse contextualiste a aussi pour vocation d’étudier un pro-
cessus organisationnel dans son rapport au passé, au présent et au futur (Beaumont,
1995).

1.1 FONDEMENTS DE LA DÉMARCHE CONTEXTUALISTE


L’analyse contexualiste constitue une grille d’analyse qui note en valeur la
dimension temporelle, la perspective historique, la chronologie des événements nou-
veaux, déstabilisateurs ou sources de renforcement des organisations.
En articulant contexte, contenu et processus, cette approche vise à compren-
dre et à expliquer de façon longitudinale les modalités de transformation de l’organi-
sation (Figure 3.1).
Elle souligne les contextes de gestion, les antécédents qui lui donnent sens,
tout en intégrant des événements dans la dynamique organisationnelle.
La démarche contextualiste 67

CONTENU DE GESTION

CONTRAINTES MANAGEMENT
• changement contraint HUMAIN
• réponse limitée dans le temps
• contrainte externe

CONTEXTE MOTEUR PROCESSUS


INTERNE EXTERNE DE
RECHERCHE Démarche longitudinale
• variété des cas lors de l’autodiagnostic
• strates d’expériences qualité
• routines comportementales
• structures d’organisation
• poids des acteurs

FIGURE 3.1 – Déclinaison de l’approche contextualiste

L’approche restitue une place prépondérante aux acteurs clés dans l’organisa-
tion. Au centre de cette démarche analytique figure l’importance reconnue des per-
ceptions et des représentations mentales du contexte sur les situations de gestion.

Le contextualisme constitue ainsi un des modes d’approche de la connaissance


du réel. Il constitue une démarche heuristique qui met l’accent sur le caractère situa-
tionnel et multidimensionnel de la recherche.

Une telle démarche exige de pouvoir élaborer un cadre de collecte et d’analyse


de données multidimensionnel, capable de saisir l’interrelation de différentes varia-
bles dans le temps afin d’appréhender la dynamique organisationnelle.

Tel est le positionnement choisi par Pettigrew (1985) selon lequel l’analyse
contextualiste requiert que les phénomènes puissent être appréhendés à un niveau
d’analyse vertical mais aussi horizontal. Ces deux niveaux se trouvent en relation
d’étroite interdépendance à travers le temps :
■ le niveau vertical comporte la combinaison de variables externes à l’organisa-
tion (facteurs environnementaux, économiques, sociaux, politiques) et de
variables internes (structure, culture, technologies, acteurs, mode de manage-
ment). Ces deux aspects qualifiés de contextes interne et externe présentent
certes une dimension objective accessible grâce à des données observables
(voire quantifiables), mais aussi une dimension subjective, construite par des
perceptions, des actions-interactions, les interprétations de ces contextes par
les acteurs de l’organisation ;
■ le niveau horizontal se rapporte à la séquence interconnectée de phénomènes
dans le passé, le présent et le futur. Il lie ainsi les contraintes organisationnel-
les expérimentées dans le passé, les actes et pensées de gestion construites et
les objectifs représentés, voulus ou contraints, pour l’organisation future.
68 Contextualisme et recueil de données

Cette dimension processuelle recouvre les actions, les interactions, les repré-
sentations et les différents contextes au fil du temps.
Les quatre fondements de la démarche contextualiste sont donc le contexte
(interne et externe), les acteurs clés, les variables actuelles de l’organisation et le
processus de gestion.

1.2 PERTINENCE DE LA DÉMARCHE CONTEXTUALISTE POUR LA GRH


La GRH représente à la fois un corps de connaissances lié à une entité organi-
sationnelle et un champ d’investigation pour un acteur se rapportant à d’autres
acteurs (Peretti, 1990). Ce corps de connaissances dépasse le simple cadre de la fonc-
tion ressources humaines. Elle s’intéresse notamment au management humain, au
middle management dans ses compétences hiérarchiques au moment où les cadres
intermédiaires « jouent un rôle important dans le contrôle de l’activité des opération-
nels directs » (Bournois et Brabet, 1993).
L’approche contextuelle s’inscrit pleinement dans la démarche heuristique de la
GRH : elle doit permettre de comprendre la dynamique des rôles et des pratiques de
gestion des ressources humaines dans un contexte déterminé. Elle s’attache égale-
ment à comprendre les acteurs (managers, cadres intermédiaires) dans leurs pratiques
quotidiennes de management humain. Ainsi, le contexte interne s’attache à présenter
la structure, la culture, la technologie, mais aussi la politique de l’organisation et son
histoire comme autant de facteurs révélateurs de contextes de management des hom-
mes. Un point prépondérant de l’analyse contextualiste réside justement dans le fait
de pouvoir lier les variables contextuelles, le processus observé et les acteurs du pro-
cessus. Cette approche refuse de considérer le contexte simplement comme un ensem-
ble de déterminations qui façonnent le processus, constituant ainsi seulement des
contraintes à son déroulement. L’approche contextualiste reconnaît une étroite rela-
tion entre contexte, processus et acteurs : les managers sont certes contraints dans
leur contexte d’action concret, mais le construisent en même temps, soit en le renfor-
çant, soit en le transformant (Pettigrew, 1990).
Si le projet principal des recherches en GRH est de comprendre la place de
l’homme dans l’entreprise et de donner aux praticiens les moyens d’une gestion effi-
cace et efficiente, alors l’approche contextualiste apparaît comme pertinente. La vie
dans les organisations est faite de microréalités à tous les niveaux. Les acteurs négo-
cient, ajustent leurs comportements et changent d’orientation au jour le jour, par le
jeu de microévénements (Moles et Rohmer, 1976). L’approche contextualiste facilite la
prise en compte des acteurs dans l’analyse de ces incertitudes, paradoxes et dilemmes
quotidiens par la recherche des contextes et de leurs significations. Elle met en valeur
les dimensions infra-organisationnelles nécessaires à la compréhension des mécanis-
mes de GRH (Louart, 1995).
La perspective contextualiste propose ainsi un cadre général d’analyse
(Figure 3.2), structuré autour de trois pôles : le contenu, le contexte et le processus
de gestion (changement, réorientation, pilotage). Ce cadre n’a pas pour vocation de
représenter à lui seul un modèle explicatif. Il cherche simplement à élargir et à struc-
turer le cadre de référence habituellement utilisé dans le cadre d’analyse de la GRH.
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 69

CONTEXTE DE LA GRH
(contexte interne, antériorités)

GRH VARIABLE
D’AJUSTEMENT

CONTENU DE LA GRH MISE EN PROCESSUS


Contenu du Management ADÉQUATION DE TRANSFORMATION
humain DE LA GRH DE LA GRH
• variété des cas Démarche longitudinale
• strates d’expériences qualité
• routines comportementales
• structures d’organisation
• poids des acteurs

FIGURE 3.2 – Mise en évidence des dimensions de la GRH


par l’approche contextualiste

Il s’agit, à travers le contextualisme, de décrire de façon minutieuse les actes


de management de la GRH et de fournir ainsi les détails de la dynamique de la fonc-
tion RH ou du management humain. Ce fut le cas pour la démarche de Beaumont
(1996, 1999) dans le cadre d’une étude de la qualité des ressources humaines dans les
entreprises certifiées.
Cependant, il ne faut pas négliger le fait qu’une telle démarche risque d’être
qualifiée d’historicisme si elle ne fournit qu’une chronique détaillée et complexe du
cours des événements. Le danger du relativisme intégral qui en découle (chaque cas
est un cas particulier, aucune généralisation n’est possible) est en effet bien réel. La
réflexion doit alors se porter à un autre niveau, en tentant de préciser, à l’aide de
modèles explicatifs robustes les relations particulières entre les trois pôles du cadre
d’analyse. Ainsi le modèle incrémental, celui de la planification ou le modèle politi-
que sont autant de moteurs de recherche structurants qui, en se combinant à l’appro-
che contextuelle, permettent une avancée dans la connaissance des mécanismes de
GRH.

2. Les cadres intermédiaires hospitaliers


dans leur contexte de gestion

2.1 MOBILISATION DES ÉLÉMENTS DES CONTEXTES INTERNE ET EXTERNE


POUR L’ÉCHANTILLONNAGE DES ÉTUDES DE CAS

Le choix des études de cas s’est opéré à partir des travaux de Pettigrew (1985)
qui offre un cadre de recherche original pour l’étude du changement organisationnel.
70 Contextualisme et recueil de données

Ce cadre est à la fois contextuel et processuel. Les six études de cas sélectionnées
répondent à un souci de variété des situations de gestion en milieu hospitalier. Ces
situations ont été identifiées à partir de la revue de la littérature à propos du mana-
gement hospitalier. Trois dimensions ont émergé : le degré de prévisibilité de l’acti-
vité, le niveau d’acculturation à la qualité, le type de production effectué dans les
services (soins, actes, examens, transports…). La sélection a été menée à partir des
premiers éléments contextuels identifiés et présentés dans le tableau 3.1.
La numérotation des cas correspond à l’ordre chronologique de contacts et
négociations du chercheur avec les unités du CHU.
Les cas 1, 2, 3 et 6 sont des unités de diagnostic et de soins, ils sont en con-
tact direct avec les patients.
Les cas 4 et 5 peuvent être assimilés à des services que l’on pourrait rencontrer
dans d’autres organisations publiques ou privées.
Ces cas font partie du support logistique de l’activité hospitalière.
Le contextualisme se présente ici comme un guide d’échantillonnage des étu-
des de cas, favorisant la recherche de la variété des situations de gestion, la compré-
hension des variables organisationnelles inhérentes aux spécificités de la gestion des
services hospitaliers et la mise en relation d’un moteur de recherche théorique avec la
réalité enracinée dans les faits (Glaser et Strauss, 1967)

2.2 MOBILISATION DES VARIABLES DU CONTEXTE POUR UNE ÉTUDE


LONGITUDINALE PAR ÉTUDE DE CAS

Un autre aspect essentiel de l’approche contextualiste comme le souligne


Beaumont (1995, p. 157) est la dimension temporelle : « Le temps offre une grille
d’analyse pour détecter et expliquer les changements ».
La recherche ainsi menée tient compte des critiques de Pettigrew (1990,
p. 268) : « Bien des recherches sur le changement organisationnel ont été menées sans
tenir compte des aspects historiques, processuels et contextuels ».
Le phénomène doit être saisi à la fois sur le moment et dans son contexte
comme le précise Pettigrew (1990, p. 270) : « les conditions antérieures, l’importance
de l’ancrage du phénomène dans le temps sont des éléments qui prennent sens pour un
modèle multidirectionnel du changement. L’histoire n’est pas comprise juste comme une
chronologie d’événements passés sans importance ». Elle conditionne les événements
présents sans pour autant les déterminer. Ainsi, pour Van de Ven et Poole (1995,
p. 512) : « Les trajectoires de changement sont multiples, incertaines à cause des con-
textes variés. » Si le contexte change, la connaissance va également changer.
Les variables du contexte interne qui ont servi à échantillonner les études de
cas sont ensuite mobilisées pour définir de façon plus précise la quotidienneté et la
spécificité de la gestion de services. Cette gestion quotidienne qui fonde
« l’organizing » se caractérise par la notion d’articulation. En effet, au-delà de l’arti-
culation structurante institutionnelle propre à chaque ensemble hospitalier, Strauss
(1997) a proposé une typologie des modes de gestion des services à partir d’un cer-
tain nombre de règles et d’interactions relevées dans des situations de gestion de pro-
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 71

CONTEXTE INTERNE CONTEXTE EXTERNE

Organisation du travail Degré d’acculturation à la Référentiel ANAES


qualité

Typologie Typologie Degré Expériences Production Références Degré de


cadres des soins/ de prévision antérieures de documents spécifiques connaissance
intermédiaires services produits de l’activité des qualité antérieurs ANAES pour initiale des
démarches à l’accréditation l’accréditation références
qualité d’accréditation

CAS 1 Encadrement Accueil Faible Non Non Oui Faible


Service des médical Diagnostic/Tri
urgences pathologie soins
pédiatriques trajectoire
patients

CAS 2 Encadrement Diagnostic Moyen Oui Oui : Non Moyen


Service de médical trajectoire Procédures
radiologie patient multiples
pédiatrique • manipulations
appareils
• accueil

CAS 3 Encadrement Accueil Faible Non Non Non Faible


Service médical diagnostic
obstétrique soins/aide
trajectoire
patients

CAS 4 Encadrement Nettoyage Fort Non Non Oui Faible


Service de technique désinfection
logistique/ optimisation
Lingerie des flux
stockage
support
logistique

CAS 5 Encadrement Diagnostic Moyen Oui Oui : Non Faible


Service d’analyses médical Procédures
médicales d’amélioration
continue

CAS 6 Encadrement Accueil Fort Oui Oui Non Moyen


Service ORL médical diagnostic soins 4 documents
Consultation trajectoires formalisés
externe patients

TABLEAU 3.1 – Prise en compte du contexte


pour la sélection des études de cas
72 Contextualisme et recueil de données

duction de soins. Cette typologie a été déclinée en termes d’articulations ; ce sont


des modalités de gestion reconnues comme spécifiques à l’organisation hospitalière
(Gonnet, 1992). La recherche utilisera cette typologie pour décrire les contextes
internes des services, antérieurs à l’arrivée de l’autoévaluation et pour décrire les éta-
pes de l’émergence du changement observé. Cette typologie se présente sous la forme
d’idéaux types d’articulations ainsi que d’éléments hybrides issus des recherches pos-
térieures à Strauss (Minvielle, 1996a ; Moisdon et Tonneau, 2000) :
■ L’articulation structurante institutionnelle relève de l’organisation inter-servi-
ces pour l’ensemble d’un complexe hospitalier. Mais un certain nombre d’évé-
nements et de règles communément admises dépendent plus spécifiquement
d’un service : coopérations entre catégories de personnel et de cadres intermé-
diaires, modalités d’organisation de la sectorisation, organisation des commu-
nications orales et écrites, productions d’artefacts matériels et
organisationnels locaux. Ces différentes modalités sont plus locales mais elles
n’en sont pas moins structurantes pour la gestion quotidienne des services.
■ L’articulation structurante locale se définit comme un mode d’organisation de
la sectorisation, des coopérations entre catégories, des communications orales
et écrites, des procédures techniques, relationnelles et organisationnelles. Ce
type d’articulation dépend des conventions locales de coordination de trans-
mission d’information. Il résulte de règles implicites et explicites propres à la
spécialité du service et aux apprentissages successifs pour gérer de façon flexi-
ble et singulière des flux de patients.
■ L’articulation opérationnelle se caractérise par l’organisation et la réalisation
quotidienne des trajectoires prescrites par le corps médical ainsi que par les
diverses tâches de soins et de maintenance induits par les trajectoires des
patients. C’est cette gestion qui tend à construire l’information, coordonne les
actions et réorganise l’activité en fonction des aléas. Elle est fondée sur la cir-
culation de l’information majoritairement orale et sur la compréhension du
sens des multiples actions et interactions autour des trajectoires.
■ L’articulation de trajectoire se présente comme un mode d’organisation centré
sur la situation et le devenir spécifique de chaque patient. Elle se décline par
la pensée et la mise en œuvre des trajectoires, par une prise de décision entre
des impératifs contradictoires générés par les différentes interventions sur un
même patient, enfin par une mesure des écarts entre les prévisions et la trajec-
toire effective suivie par le malade.
■ L’articulation par l’action immédiate se caractérise par la primauté de l’immé-
diateté de l’action, de l’articulation simplifiée et locale. Elle se présente
comme une forme d’articulation opérationnelle, réactive, effectuée par dyades
ou triades. Elle est utilisée dans des contextes d’immédiateté ou de conduites
à tenir par phénomène de routinisation.
■ L’articulation anticipatrice se caractérise par une articulation structurante
locale, pensée en amont de l’action pour favoriser la gestion d’un aléa peu
complexe et la production de soins ou de services en interaction avec le
patient. Elle se distingue également par une organisation formalisée des com-
munications verbales et écrites.
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 73

2.3 DESCRIPTION DES ÉTAPES DE LA GESTION DU CHANGEMENT


ORGANISATIONNEL À PARTIR D’UNE GRILLE DE LECTURE CONTEXTUELLE

La description des étapes de la gestion du changement s’opère à partir d’un


contexte initial puis par des modifications successives du contexte de gestion local.
Le cas présenté ici, celui des Urgences Pédiatriques, permet de saisir les deux dimen-
sions du contexte ainsi que les relations entre acteurs, contexte et processus du chan-
gement.

2.3.1 Présentation du contexte interne de l’unité des Urgences


pédiatriques en phase initiale

A. CONTEXTE GÉNÉRAL

■ L’unité des Urgences pédiatriques fait partie de « l’Hôpital des enfants ». Elle
n’est pas rattachée au centre des Urgences adultes. Elle représente l’un des
points d’accueil des patients de l’Hôpital des enfants. L’unité se distingue du
service de réanimation pédiatrique par des locaux séparés (même s’ils dispo-
sent de voies d’accès dédiées) et par des activités fondamentalement
différentes : accueil, relations avec les médecins de ville et unités sanitaires
urbaines, diagnostic, soins de première nécessité, tri et éventuellement hospi-
talisation de court séjour.
■ La nature du service entraîne une articulation de l’activité de façon
ininterrompue : 24 heures et 7 jours sur 7.

■ Le degré de prévisibilité est faible, la quantité de patients est variable, le


degré d’urgence à déterminer et la phase de diagnostic demeurent les priorités
du service.
■ La salle d’attente pèse sur l’activité ; la pression sur le corps médical est forte
lorsque la salle d’attente est pleine. La logique de l’action par la gestion de
celle-ci est un des paramètres d’orientation de l’activité de l’urgence pédiatri-
que.
■ La primauté est donnée à l’action immédiate, par une logique d’arrangement
local (observée en phase initiale) qui se fait au coup par coup, en fonction de
l’événement, avec des acteurs variés, et selon une stratégie de typification de
diagnostic puis de soin à produire. L’articulation opérationnelle prime sur
l’articulation structurante. Le traitement des problèmes par les cadres intermé-
diaires doit souvent se réaliser dans l’« ici et maintenant ».
■ L’encadrement intermédiaire dans son ensemble favorise la production d’arti-
cles professionnels et la participation aux colloques locaux et nationaux trai-
tant des problématiques des Urgences. Une propension notable à la mise en
représentation des thèmes de travail est à souligner. Elle témoigne d’une
recherche identitaire forte autour du concept d’urgence pédiatrique.
74 Contextualisme et recueil de données

B. CONTEXTE PARTICULIER
Les locaux des Urgences pédiatriques sont situés au sous-sol. La salle d’attente
et les salles de soins sont privées de lumière naturelle. Un déménagement imminent
de toute l’unité est programmé pour des travaux d’amélioration et de rénovation.
Cette programmation entraîne des changements organisationnels de type I
(Watzlawick et Weakland, 1981) :
– articulation de la production de soins et des trajectoires des patients pendant
la période du déménagement ;
– modification des routines spatio-organisationnelles pendant une période de
huit mois dans les locaux provisoires ;
– articulation de la production de soins et des trajectoires des patients pendant
la seconde période de déménagement ;
– seconde modification des notions spatio-organisationnelles. Gestion de deux
unités : urgence et hospitalisation courte-durée.
Ce contexte particulier est vécu comme difficile à gérer dans l’instant mais
aussi comme porteur d’améliorations matérielles, relationnelles (personnel soignant-
patients) et organisationnelles (rationalisation des productions de soins).
L’encadré 3.1 présente le contexte interne vécu par les cadres intermédiaires.
Ils intègrent l’accréditation dans deux idées fortes : l’événementiel (le déménage-
ment) et la valeur de l’Urgence.
L’arrivée de l’autoévaluation se situe dans ce contexte. Elle prend la forme d’un
document émanant de la direction du groupe Pellegrin. Ce document 2 décline les éta-
pes de l’accréditation sans en donner le contenu et précise que le groupe Pellegrin
s’engage dans la démarche d’accréditation en dernière position, après tous les autres
groupes hospitaliers bordelais.
■ L’unité d’Urgences pédiatriques ne présente aucune antériorité en matière de
qualité : aucun cadre intermédiaire (cadre infirmier, interne, praticien-hospita-
lier, infirmière coordonatrice) n’a suivi de formation professionnelle ou de spé-
cialisation diplomante E.N.S.P. 3.
■ Aucune expérience ni aucune démarche participative n’a été menée au nom
d’une forme plus ou moins élaborée de gestion de la qualité. Seul un projet
d’établissement a été vaguement évoqué présentant des « caractéristiques »
qualité.
■ Par conséquent, aucun document décrivant des actions quotidiennes en
matière de qualité n’a été produit dans cette phase initiale. Seule une démar-
che d’évaluation de la conformité du dossier du patient a été effectuée à partir
d’un échantillonnage de 400 patients venus dans le service.
■ Cette démarche a été entreprise par un praticien hospitalier et relayée par un
étudiant en stage appartenant au DESS gestion sanitaire et sociale de l’Univer-
sité Victor Segalen — Bordeaux II.

2 Pour plus de précisions se reporter au document du service Qualité en Annexe 4 — Tome 2.


3 E.N.S.P. : École nationale de la Santé publique (Rennes).
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 75

ENCADRÉ 3.1
Extraits d’entretiens réalisés en Phase 1 – Thème 2 – Cas 1

Un praticien-hospitalier : « Les Urgences ça doit être une passion car c’est difficile.
Nous manquons de moyens alors l’accréditation ça peut nous aider à montrer aux
organismes de tutelle que nous manquons de moyens… La salle d’attente par exem-
ple elle est trop petite, heureusement nous allons avoir de nouveaux locaux et nous
serons plus à l’aise… alors ça plus l’accréditation on espère que ce sera mieux. Mais
il faut avant cela gérer nos deux déménagements » (entretien 1.2.1)
Un praticien-hospitalier : « Vous savez les Urgences c’est un travail d’équipe. Le plus
difficile c’est l’accueil… car à côté de la bobologie il y a les vraies Urgences. Il faut
avoir l’œil sinon on risque de passer à côté. Et là le personnel d’accueil il faut le
mobiliser car il nous aide dans ce travail de tri, on peut appeler cela du pré-diagnos-
tic… Pendant les travaux cela risque d’être difficile de maintenir cette mobilisation à
l’accueil » (entretien 1.3.1)
Un cadre infirmier : « Je ne sais pas comment nous allons faire… Il y a ce déména-
gement à assurer et il faut en plus que nous nous occupions des patients. Il faut abso-
lument que nous assurions le déménagement dans l’urgence. Mais c’est toujours
comme ça… J’essaie de programmer mais c’est très difficile. Espérons que les nou-
veaux locaux changeront quelque chose dans notre organisation. (entretien 1.1.1)

2.3.2 Description des étapes de l’émergence du changement


observé
Avant d’envisager une analyse plus approfondie des étapes de l’émergence du
changement, il convient d’avertir le lecteur à propos de l’ensemble des cas étudiés. La
figure 3.3 construite tout au long de la recherche, proposée puis discutée (en phase
de restitution) avec l’encadrement intermédiaire se présente comme un cadre d’ana-
lyse situant le cas (l’évolution du pilotage) au cours des 24 mois d’investigation.
Cette figure donne naissance à une analyse diachronique et synchronique ; les
étapes temporelles imposées par « l’environnement externe » (passation du question-
naire, nomination des personnes-ressources, traitement du retour du questionnaire)
ont été mobilisées comme repères pour le suivi du changement et la comparaison
avec les cinq autres cas. Les éléments essentiels de la dynamique du changement ont
été portés sur ces figures ; ils constituent des repères indispensables pour comprendre
le changement organisationnel à partir des représentations, des interactions et des
artefacts.
Ce cadre d’analyse présente par ailleurs des boucles d’actions et de rétroac-
tions. Celles-ci établissent la dynamique de la phase d’émergence du changement.
Elles doivent être envisagées sous un angle particulier, celui de l’effort des cadres
intermédiaires pour porter l’accréditation au-devant de la scène organisationnelle.
76 Contextualisme et recueil de données

Mars 2000 Décembre 2000 Septembre 2001

2 Mise en représentation 4 Mise en représentation 6 Mise en représentation


de l’accréditation par la de l’accréditation par de l’accréditation par :
multiplication des interactions l’artefact ANAES - artefacts locaux
en réunion : vision d’une scène - réunions
organisationnelle - conférences

Pilotage de l’accréditation
• Émergence de deux

pour le service
autorités morales : • Comparaison avec
• Confrontation
- autorité médicale le pilotage quotidien
des représentations
- autorité infirmière

• Diagnostic de • Volonté • Évitement de • Émergence d’une


l’accréditation de produire la crise par la troisième
• Nécessité du consensus prise d’autonomie autorité morale :
d’un arbitrage intra-service de l’artefact ANAES l’ingénieur qualité

• Débats informels :
Discussions • Évitement de • Pratiques • Choix de
• Choix de

Pilotage quotidien du service


Contradictions la crise par la défensives légitimer
Argumentations privilégier distinction des • Évitement le pilotage
l’activité références ANAES : de crise de l’activité
• Diagnostic quotidienne - Réduction entre les trois quotidienne
de l’articulation - Accentuation autorités
du service - Assimilation morales
du contenu

1 Pilotage par l’articulation 3 Pilotage par 5 Tentative de pilotage 7 Retour au pilotage


opérationnelle et la l’articulation par l’articulation par l’articulation
gestion des aléas : opérationnelle structurante opérationnelle
Accréditation = Aléa
Janvier 2000 Juin 2000 Mai 2001 Décembre 2001

Arrivée Passation Retour 24


du questionnaire du questionnaire du questionnaire mois
d’autoévaluation d’autoévaluation d’autoévaluation

FIGURE 3.3 – L’émergence du changement organisationnel au sein


du service des Urgences pédiatriques

Enfin, la figure 3.3 déclinée en sept étapes d’équilibres temporaires, permet


dans un second temps d’établir une analyse transversale des six études de cas.
En ce qui concerne le cas présent (les Urgences pédiatriques), l’effort de repré-
sentation des cadres intermédiaires est bien présent. Une convention d’effort de com-
munication hors du cadre des activités quotidiennes pour faire émerger une
représentation communément partagée de l’accréditation n’apparaît qu’en phase 2. La
présence de deux modes de pilotages interreliés pour un même service en témoigne
largement au cours de ces 24 mois.
La première boucle de rétroaction fait apparaître la « vision d’une scène orga-
nisationnelle idéalisée » (Encadré 3.2).
Ce concept partagé par les deux autorités morales correspond à une organisa-
tion future idéalisée, diffusée auprès du personnel et présentant les caractéristiques
présentée dans le tableau 3.2.
Cette vision d’un idéal type organisationnel se comprend comme un processus
extrêmement court (inférieur à trois mois) qui est piloté avant l’arrivée du question-
naire d’autoévaluation.
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 77

ENCADRÉ 3.2
Extraits d’entretiens réalisés en Phase 1 – Thème 4 – Cas 1

Un praticien-hospitalier : « Si nous arrivons à obtenir tous les moyens demandés


alors nous pourrons vraiment vivre une mission de service public ».
« Les Urgences vous savez ce n’est pas le pansement que l’on pose ou les points que
l’on doit refaire. C’est vraiment traiter les cas graves avec un personnel qualifié, réac-
tif, dévoué ». (entretien 1.2.1)
Un praticien-hospitalier : « La qualité ça nous manquait en fait. Mais les change-
ments je les vois nombreux et réalisables… parce qu’il faut que l’on sorte de l’impasse
dans laquelle nous sommes ». « La qualité va permettre au personnel non reconnu de
se mettre en valeur. Ils vont pouvoir se réaliser dans des projets comme le livret
d’accueil, le traitement de la douleur… voilà comment moi je vois le projet qualité ».
(entretien 1.3.1)
Un cadre infirmier : « Si l’accréditation nous permet de changer c’est que nous
aurons réussi à démontrer le manque de moyens et alors là on aura vraiment réussi à
changer quelque chose ».
« Les changements je les vois aussi et surtout pour les patients parce que le service
vous savez… on ne peut pas envisager de l’avoir encore comme ça longtemps. Il faut
revenir à notre mission d’Urgence ». (entretien 1.1.1)

L’organisation idéalisée construite fait ressortir l’importance des cadres inter-


médiaires dans le déclenchement d’un changement organisationnel local. Le discours
produit met en relation des représentations avec le système d’interaction souhaité et
confirme cette connection par un écrit local.
La capacité de l’encadrement intermédiaire à saisir un intérêt commun
« sacralisé » au nom de la qualité s’éloigne totalement des objectifs de l’accrédita-
tion. Cette divergence ne prend véritablement effet que lors de l’arrivée des référen-
ces ANAES et du questionnaire d’autoévaluation.
La mise en représentation de l’accréditation n’est alors déclenchée que dans
un second temps avec la seconde boucle d’action-rétroaction.
Le premier effort de mise en représentation du changement provient d’une
confrontation des représentations de l’accréditation. Les interprétations mentales
laissent apparaître des divergences mineures inter- et intracatégorielles. Des débats
informels lors des réunions de service et de relèves entraînent la nécessité vécue par
l’encadrement intermédiaire de porter la question de l’accréditation en représenta-
tion, c’est-à-dire dans un espace-temps décalé par rapport aux activités quotidiennes.
La mise en représentation (phase 2) se comprend comme une projection collective
gérée par l’encadrement intermédiaire. Il s’agit d’une gestion bipolaire correspondant
à l’émergence de deux autorités morales (infirmière et médicale).
La tentative de pilotage du service par l’articulation structurante est l’œuvre
de l’encadrement intermédiaire médical qui perçoit l’accréditation comme un effort
continu de rationalisation de l’activité et une mise en adéquation d’un projet de ser-
vice également à mettre en place.
78 Contextualisme et recueil de données

Discours Interactions Représentations Repères par


les artefacts

Déclenchement Qualité : intérêt supé- Ajustement inter-caté- Vision d’une possibi- Documents externes
rieur communément goriel cadres intermé- lité de convergence des reçus
partagé diaires représentations

Design • Intérêt du service = Démultiplication des Représentation d’une Dossier du patient :


argumentatif Intérêt des salariés interactions en réu- relation au patient Diagnostic mitigé
• Mise en nion d’accréditation idéalisée
correspondance
avec l’amélioration
des locaux
(contexte)

Diffusion Réunions élargies à Mise en correspon- Projection d’actions Comptes rendus


toutes les catégories dance avec un système possibles : de réunion
de personnel d’interaction quotidien • temps disponible
idéalisé • tri des patients
• actes de soins
d’urgence

Réappropriation/ • Intérêt supérieur du Retour au système • Redéfinition de la Révision des comptes


Argumentation service d’interactions notion d’urgence rendus
• Outil de en vigueur • Élimination d’un
négociation avec la service de
direction « Bobologie »

TABLEAU 3.2 – Vision d’une scène organisationnelle idéalisée

Cette tentative présente un caractère éphémère. Elle se heurte à l’articulation


opérationnelle des soins et à la gestion de l’aléa dès l’accueil préconisée par l’enca-
drement infirmier.
La confrontation de ces deux modes de pilotage quotidiens entraîne une crise
organisationnelle locale d’arrière-scène au sens de Goffman (1973b).
L’évitement de la crise se caractérise par un retour rapide du pilotage quoti-
dien antérieur et par un traitement des références ANAES (Tableau 3.3).
La prise d’autonomie de l’artefact ANAES correspond à un arrêt d’investisse-
ment (en termes de temps, de conduite de réunions et d’effort de représentations
mentales) vis-à-vis de la méthodologie préconisée et pilotée par la direction du CHU.
Le traitement administratif en second retour d’analyse (étapes 6 et 7 sur la
figure du cas) entraîne un certain désintérêt. Ce dernier correspond à la mise en place
d’artefacts locaux correspondant aux représentations initiales de l’accréditation.
Les entretiens menés en phase 3 expriment ce désintérêt pour l’artefact ANAES
ainsi qu’une légitimation des outils produits au sein du service (Encadré 3.4).
Les cadres intermédiaires ont ainsi opéré à partir des normes perçues comme
pertinentes pour leur service (c’est-à-dire en correspondance avec leurs pratiques
Les cadres intermédiaires hospitaliers dans leur contexte de gestion 79

ENCADRÉ 3.3
Extraits d’entretiens réalisés en Phase 2 – Thème 2 – Cas 1

Un praticien-hospitalier : « On essaie de mettre en place un fonctionnement du ser-


vice comme dans les textes. Mais entre les déménagements, les nouveaux locaux, le
dossier de prise en charge du patient qui est refait on n’arrive pas à s’en sortir ».
(entretien 1.2.2)
Un praticien-hospitalier : « Le plus difficile c’est de respecter toutes les nouvelles con-
signes pour le dossier du patient. Tout tourne autour de ça désormais. Remplir, remplir
et remplir et faire intégrer en plus cela aux internes. Ce n’est pas évident. En plus
l’encadrement infirmier ne suit pas vraiment ». (entretien 1.3.2)
Un cadre infirmier : « Comment peut-on intégrer toute cette démarche ? Moi je ne
comprends pas l’utilité de faire toute cette paperasserie. Déjà les agents de l’accueil
ils ne sont pas d’accord… alors… euh… on peut faire comme on a toujours fait »
« Les médecins veulent avancer dans le sens de la direction. Ça va pas être facile de
leur faire comprendre… De toute façon les infirmières ne sont pas d’accord pour faire
ça en plus ». (entretien 1.4.2)
Un cadre infirmier : « Je me demande vraiment où on prend en compte les patients.
D’accord le dossier, la prévention, l’information ce sont des choses à améliorer…
mais où est la relation au patient. C’est ça la qualité. Il faut prendre en charge le
patient. Personne ne se retrouve là-dedans ! ». (entretien 1.1.2)

quotidiennes, avec les valeurs partagées : dévouement auprès des enfants) des trans-
ferts d’actions : mise en place d’artefacts matériels locaux comme les fiches de con-
trôle de la salle d’Urgence et d’artefacts organisationnels locaux comme la prise en
charge de la douleur.

Traitement local Questionnaire Référentiel


= d’autoévaluation ANAES
effet de distraction

Réduction Critères non spécifiques au service


10 critères non renseignés
du contenu • Définition des missions et des objectifs
5 critères jugés non applicables
• Projet de service

Accentuation Majorité de cotations en conformité • Organisation quotidienne du service


du contenu (Note maximale)
Minorité de cotations en absence • Archivage
de conformité (Note minimale) • Amélioration continue de la qualité

Assimilation Mise en conformité sur des critères spécifiques Dossier du patient


du contenu au service (accueil et trajectoire)

TABLEAU 3.3 – Traitement local des références ANAES


80 Contextualisme et recueil de données

ENCADRÉ 3.4
Extraits d’entretiens réalisés en Phase 3 – Thème 3 – Cas 1

Un praticien hospitalier : « Quand nous avons eu à traiter les questionnaires il a vrai-


ment fallu exprimer notre avis car il y avait des critères où on ne pouvait pas répondre
et d’autres comme le projet de service où nous n’avions rien fait. Alors, il a fallu expli-
quer à quelques-uns pourquoi on considérait que c’était non fait… ». « Maintenant on
utilise certains critères ; on a même rédigé nos propres procédures » (entretien 1.2.3)
Un praticien hospitalier : « Il a fallu à la fois que l’on traite ces questionnaires et que
l’on explique aussi pourquoi on devait les traiter. Il a fallu aussi négocier entre nous
car nous n’étions pas d’accord sur les cotations… Je n’imaginais pas que l’accrédita-
tion c’était ça. On a vraiment appris des trucs mais il y a des mots que je ne com-
prends toujours pas ». (entretien 1.3.3)
Un cadre infirmier : « Nous avons traité trop de questionnaires avec l’équipe d’infir-
mières. J’ai dû les réunir à plusieurs reprises mais heureusement nous étions motivés.
Maintenant, nous sommes sauvés en quelque sorte… ».
« Maintenant ce qu’il en reste c’est la mise en place d’un petit livret d’accueil que des
infirmières et des ARH ont créé pour les enfants. C’est déjà ça ! » (entretien 1.4.3)

3. Recueil et analyse de données

La spécificité d’une démarche contextualiste consiste à reconnaître l’impor-


tance des perceptions et des représentations des acteurs clés concernés par le con-
texte organisationnel. Cependant, ces perceptions et représentations ne prennent
sens que dans un « organizing » spécifié par un ensemble d’interactions et une pro-
duction d’actes de gestion et de traces écrites de ces actes. La liaison des variables
contextuelles au processus piloté par l’encadrement intermédiaire ne peut être opéré
qu’à partir d’une triangulation des données collectées à l’aide d’entretiens, d’observa-
tions et de recherches documentaires. La triangulation des trois modes de production
des données constitue la clé de voûte de la démarche contextualiste qui a pour voca-
tion d’étudier les acteurs, leurs actions et leurs interactions mais également l’évolu-
tion d’un système à travers ses acteurs.
La réalisation de la recherche a été menée par l’enchaînement de cinq phases
successives comme le montre le tableau 3.4.

3.1 RECUEIL ET ANALYSE DE DONNÉES PAR ENTRETIENS


La méthode d’analyse retenue pour les trois séries d’entretiens est de type
structural. Initiée par Barthes (1981 et 1991), opérationnalisée par Demazière et
Dubar (1997) pour des entretiens biographiques, cette approche présente l’avantage
de fournir au chercheur un cadre d’analyse structuré et cohérent. Cette méthode évite
au chercheur trois écueils : la posture illustrative, consistant à découper arbitraire-
ment quelques passages d’entretiens servant d’illustration ou l’attitude restitutive
consistant à reproduire les entretiens retranscrits considérés comme parlant d’eux-
Recueil et analyse de données 81

Phase préparation Janvier 1999 — Décembre 1999

État de l’art : qualité et management public


• Délimitation du sujet
• Élaboration de la question de départ
• Élaboration d’un canevas de recherche
• Premiers choix méthodologiques
• Positionnement épistémologique

Phase 1 Janvier 2000 — Août 2000


• Négociation de l’étude
• Premiers contacts : Direction du CHU et Services du CHU
• Choix des études de cas
• Première phase : entretiens, études documentaires, choix des situations d’observations

Phase 2 Septembre 2000 — Juin 2001


• Construction de la problématique : délimitation des questions de recherche
• Positionnement moteur de recherche : convention, encadrement intermédiaire
• Réalisation de l’étude, deuxième série de production des données

Phase 3 Juillet 2001 — Janvier 2002


• Réalisation de l’étude : troisième série de production de données
• Analyse des données et formulation des propositions théoriques et conjectures
• Intégration Etat de l’art

Phase 4 Février 2002 — Mai 2002


• Restitution des résultats empiriques
• Restitution des résultats théoriques
• Premières conceptualisations moyenne portée
• Critère de validation : Acceptation

Phase 5 Mai 2002 — Octobre 2002


• Proposition formulations finales
• Rédaction de la thèse
• Corrections
• Mise en forme définitive

TABLEAU 3.4 – Les phases du processus de recherche


82 Contextualisme et recueil de données

mêmes. Enfin, il s’agit d’une procédure standardisée et systématique qui renforce le


processus d’objectivation en retardant la phase d’interprétation.
Pour Bourgeois et al. (1996, p. 9), la méthode se présente comme un garde-
fou donnant au chercheur les moyens d’approcher le matériau de sa recherche sans y
projeter ses propres conceptions.
Le choix de l’analyse structurale implique un positionnement à clarifier parmi
les différentes approches sémantiques et structurales ainsi qu’une explication de la
mise en œuvre (niveaux d’analyse retenus, schéma minimal recherché, place des
acteurs et des actions).
Parmi les méthodes sémantiques, Mucchielli (1998, p. 40) distingue les
méthodes logicosémantiques et les méthodes sémantiques et structurales. Selon ses
termes, les premières « ne concernent pas la recherche des sens implicites, des ‘seconds
sens’ du texte. Elles s’en tiennent au contenu manifeste et directement accessible ». On
retrouve dans cette catégorie toutes les méthodes d’analyse de contenu dont l’opéra-
tion centrale est le classement catégoriel des unités de sens du discours. Les métho-
des sémantiques et structurales, en revanche, cherchent à dépasser le contenu
manifeste explicite et à atteindre, par une analyse au second degré un sens implicite,
non immédiatement donné à la lecture.
Ces méthodes cherchent à dépasser le contenu manifeste, immédiat du dis-
cours et à dégager la structure sémantique profonde qui le sous-tend. Le postulat
central de toute approche structurale est donc que les éléments du discours ne pren-
nent sens que, dans et par, leurs relations entre eux.
Si l’on se réfère à la classification de Mucchielli, l’analyse structurale fait partie
des méthodes d’analyse de contenu qualifiées de sémantiques et structurales.
« C’est une méthode d’analyse sémantique, dans la mesure où l’on s’intéresse au
sens du discours » (Bardin, 1996, p. 63). Plus précisément, l’objectif que l’on poursuit
en utilisant la méthode est de comprendre correctement celui qui s’exprime, autre-
ment dit, d’attribuer à ce que dit le locuteur le sens qu’il y met effectivement. C’est
aussi une méthode structurale, car elle consiste à saisir les associations, les opposi-
tions qui relient les thèmes d’un discours, c’est-à-dire, comme son nom l’indique, à
saisir la structure de ce discours. Ce sont les relations entre les éléments du texte et
non les éléments eux-mêmes qui permettent de découvrir la signification du discours
du locuteur.

3.1.1 Mise en œuvre de l’analyse structurale


A. PRÉSENTATION D’UNE PREMIÈRE GRILLE DE DÉCOMPOSITION
Selon Barthes (1981, p. 12), tout récit peut être analysé à trois niveaux cor-
respondant à trois lectures différentes mais nécessairement articulées : « le niveau
des ‘fonctions’, le niveau des ‘actions’ et le niveau de la ‘narration’. Ces trois niveaux
sont liés entre eux selon un mode d’intégration progressive : une fonction n’a de sens
que pour autant qu’elle prend place dans l’action générale d’un actant ; et cette action
elle-même reçoit son sens dernier du fait qu’elle est narrée, confiée à un discours qui a
un sens propre ».
Recueil et analyse de données 83

Ces trois fonctions représentent selon Barthes (1991) une première grille de
lecture d’un récit.
■ le niveau des fonctions ou des épisodes du récit : ce sont les séquences types
d’une histoire (un énoncé) reliées par une syntaxe spécifique. La recherche des
séquences types consiste à relever une suite logique d’énoncés unis entre eux
par une relation de solidarité. « La séquence s’ouvre lorsque l’un de ces termes
n’a pas d’antécédent directement solidaire et elle se ferme lorsqu’un autre de ces
termes n’a plus de conséquent » (Barthes, 1981, p. 19) ;
■ le niveau des actions concerne les éléments du récit qui mettent en scène des
« actants », c’est-à-dire des personnages qui agissent, interviennent, jouent
un rôle dans le récit. Les actions sont considérées par Demazière et Dubar
(1997, p. 113) comme « des articulations de la praxis », c’est-à-dire des
« systèmes de personnages » concrétisant « des perspectives sur l’action » ;
■ le niveau de la narration se repère par la présence de thèses, d’arguments, de
propositions destinées à convaincre l’interlocuteur, à défendre son point de
vue à inventorier l’univers des possibles. Il met en jeu, selon Barthes (1981),
la dimension nécessairement dialogique du récit, celle qui permet d’accéder le
mieux à sa logique interne. La narration permet ainsi l’articulation des deux
premiers niveaux et leur intégration dans un discours argumentaire ; elle est
destinée à un auditeur/lecteur.

L’analyse structurale du récit consiste donc à articuler les épisodes d’une his-
toire (ses séquences) pour découvrir la logique du discours tenu à son destinataire
(les arguments). Elle consiste à saisir les associations, les oppositions, les tensions
qui relient les thèmes d’un discours, autrement dit, à saisir la structure du discours.
Elle entend ainsi mettre à jour la structure des représentations de l’individu. L’analyse
structurale est particulièrement adaptée lorsque les objets de l’étude sont des repré-
sentations.

B. PRÉSENTATION D’UNE SECONDE GRILLE DE DÉCOMPOSITION


Ces trois niveaux d’analyse du récit (Séquences, Actants et Propositions narra-
tives) constituent un premier niveau de mise en ordre des données. Il est enrichi par
une décomposition de chacun des trois niveaux en disjonctions, valorisations, con-
densations et doubles disjonctions.
Cette reconstruction du texte est présentée par Bourgeois et al. (1996). Il
s’agit des éléments élémentaires de l’analyse structurale. La relation de disjonction
suppose la mise en relation de deux éléments du discours. Cette technique repose sur
les postulats de binarité, d’exclusivité et d’exhaustivité de l’unité de discours décrite.
La valorisation est une disjonction spécifique à connotation positive ou néga-
tive.
Quand un locuteur construit une disjonction, souvent il connote un des termes
de manière positive, et son inverse de manière négative. Les termes utilisés pour con-
noter positivement ou négativement une réalité sont appelés indices de valorisation.
Les indices de valorisation sont quelquefois disséminés dans tout le texte sous la
84 Contextualisme et recueil de données

forme de verbes (préférer, détester, faire, …), d’adjectifs (regrettable, bon, …),
d’adverbes (plutôt, mieux, …).
Ces deux éléments de base se combinent parfois entre eux pour former des
structures plus complexes : les condensations et les structures croisées.
Il peut arriver qu’à plusieurs endroits du discours une même réalité soit mani-
festée dans un matériau par plusieurs mots ou plusieurs expressions synonymes, ou
très proches dans leur signification ; une opération de condensation est alors effec-
tuée.
L’opération de condensation peut également s’appliquer quand la signification
de plusieurs disjonctions est proche et que la prise en compte de chacune d’elles fait
apparaître des redondances.
Les structures croisées regroupent deux disjonctions dont les termes ne
s’impliquent pas mutuellement. Le croisement génère ainsi quatre quadrants pouvant
féconder des réalités théoriquement possibles ou prises en compte par le locuteur.
L’analyse de chaque entretien a donc été menée à travers le repérage des
séquences et de leurs liens avec les actants comme le montre le tableau 3.5.
Les actants sont des participants au récit et aux actions passées, présentes ou
projetées par l’interviewé. Ils font partie de l’espace de gestion représenté par le
cadre intermédiaire. Les actants interviennent aussi dans les propositions narratives
en tant qu’opposants, adjuvants ou destinataires de l’action. Ils interviennent dans la
construction d’une organisation locale possible, souhaitée ou idéalisée. Les actants
peuvent être les cadres intermédiaires interviewés. Ils se projettent alors eux-mêmes
dans le pilotage du changement comme acteur principal, opposant actif ou passif,
catalyseur ou simple destinataire.
Les propositions narratives mettent en valeur l’argumentation des personnes
interviewées. Les univers des possibles ont été relevés dans l’ordre et par thème
abordé à partir du guide d’entretien, comme le souligne le tableau 3.6.
Les propositions narratives constituent la première étape des représentations
du cadre intermédiaire interviewé. Celles-ci ne sont pas encore valorisées. La valorisa-
tion permet à la recherche de repérer le déséquilibre ou l’équilibre cognitif, permet-
tant ainsi de mobiliser le modèle de la dissonance cognitive comme moteur de
recherche et de produire des résultats quant à l’effort du cadre intermédiaire pour
réduire cette dissonance.
Le tableau 3.7 complète l’analyse de contenu ; il constitue le second niveau
d’analyse en soulignant les disjonctions, condensations et valorisations des cadres
interviewés.
Les disjonctions et les condensations permettent d’appréhender la catégorisa-
tion mentale et les valorisations (+/-) des représentations. Elles permettent de com-
prendre les composantes sur lesquelles portent la dissonance ou la consonance
cognitive du cadre intermédiaire interviewé.
Chaque entretien a ensuite fait l’objet d’une analyse/réduction respectant la
démarche structurale afin de produire un schème spécifique pour chacune des trois
séries d’interviews.
Recueil et analyse de données 85

Relevé structural d’un entretien correspondant au guide d’interview phase 1

ÉTAPE 1
Cas Interwievé 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier

Le contrôle externe La priorité à l’organisation Le risque de démobilisation Un travail supplémentaire


S1
quotidienne

S2 La perte du métier L’accréditation imposée L’éparpillement Un travail impossible

La dispersion Le projet d’établissement La réflexion avant l’action Le recours à la paperasserie


Séquences = fonctions du récit

S3
ancien
La contrainte Relation entre services La réorganisation La multiplication des
S4
réunions

La gestion à la place des soins Des contraintes Intégration de Le ralentissement du travail


S5
supplémentaires l’accréditation
La difficulté de mise en œuvre Demande de personnel Traduction de l’accréditation L’implication inattendue
S6
supplémentaire

S7 L’inconnu Maîtrise des flux de patients

S8 Un investissement sans retour

D11 : ARH D11 : Cadre infirmier D11 : Cadre infirmier D1 : Cadre infirmier
A1
• adjuvants : Ad ; • opposants : O ; • destinataires : D

D12 : Direction D12 : Infirmières D12 : Infirmières


D13 : Aide-soignants
O21 : Infirmières Ad1 : Malade D21 : Infirmières D2 : Cadre infirmier
Actants = actions et personnages

A2
O22 : Direction D2 : Soignants D22 : Aide-soignants

D31 : Infirmières D3 : Direction D3 : Médecins D3 : Cadre infirmier


A3
D32 : Aide-soignants Infirmières
D4 : Direction Ad4 : Médecins seniors Op4 : Cadre infirmier
A4
Ad4 : Médecins

A5 D5 : Personnel soignant D5 : Cadre infirmier D5 : Infirmières

O61 : Cadre Infirmier D6 : Personnel soignant AD6 : Direction D6 : Aide-soignants


A6
O62 : Infirmières
AD7 : Ingénieur Qualité A6 : Médecins seniors
A7
D7 : Nov-s D7 : Personnel soignant

TABLEAU 3.5 – Relevé des séquences et des actants

La comparaisons des entretiens pour chaque service et pour chaque série


d’entretiens conduit à la construction d’un schème commun structuré suivant le prin-
cipe de convergences et de divergences des représentations des cadres intermédiaires,
comme le montre la figure 3.4.
Cette démarche de réduction et de valorisation progressive des données corres-
pond à un objectif pratique : « pouvoir manipuler et travailler sur des données contex-
tuelles volumineuses » (Wacheux, 1996, p. 231). Elle permet aussi une comparaison
des représentations intraservice et interservices correspondant à l’objet de recherche
centré sur l’encadrement intermédiaire dans son contexte de gestion.
86 Contextualisme et recueil de données

ÉTAPE 1
Cas Interwievé 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier

Le contrôle externe peut La priorité doit être La multiplication des Changer les
permettre d’obtenir des accordée au travail être projets autour de la qualité comportements
P1
moyens accordée au travail risque d’entraîner la
quotidien avec les malades démobilisation

La gestion prend le pas sur L’accréditation ne vient pas La multiplication des Mobiliser pour introduire
le suivi des patients du personnel elle nous est projets autour de la qualité supplémentaire
P2 imposée par les risque d’entraîner la
organismes de tutelle démobilisation
Eparpillement
• argumentation ; • univers des possibles

ll faut éviter la dispersion La qualité avait déjà été Si les médecins engagent Maîtriser les phases
dans le travail quotidien définie par la direction dans la qualité sans plan de changement
P3
le projet d’établissement d’action le risque est de
Propositions narratives =

revenir en arrière

Le travail s’effectue plus L’accréditation devrait La réorganisation se fera Il faut éviter la réunionite
P4 sous la contrainte renforcer les liens entre les par l’intermédiaire des Elle conduit à la
services médecins seniors démobilisation

La gestion prend la place Apport de contraintes L’intégration de la qualité L’investissement des


des soins supplémentaires car au quotidien est difficile car infirmières est important
P5
augmentation des écrits elle repose sur moi mais cela risque de les
ralentir dans leur travail

La difficulté provient d’un L’accréditation devrait La traduction de termes Les aide-soignants ont
manque de moyens montrer l’insuffisance de doit venir de la direction répondu présents
P6 personnel dans tous les Ils semblent plus
services impliqués que les autres

Sans aide d’un ingénieur Le personnel soignant doit


qualité nous partons dans apprendre à maîtriser le
P7 l’inconnu car nous ne flux de patients avec
savons rien à propos de la l’accréditation
qualité

TABLEAU 3.6 – Relevé des propositions narratives par thème abordé

3.2 L’OBSERVATION DIRECTE PARTICIPANTE : UN MODE DE RECUEIL


COMPLÉMENTAIRE DE DONNÉES CONTEXTUELLES

L’observation directe a souvent été placée assez bas dans la hiérarchie des
méthodes à apprendre, maîtriser et utiliser. Pour Peretz (1998, p. 7), l’observation
serait considérée comme une méthode subjective de recueil d’anecdotes et dérogerait
à deux principes scientifiques :

■ totale distance à l’égard du milieu ;

■ représentativité statistique.
Recueil et analyse de données 87

ÉTAPE 1
Cas 1 Thème 1 Thème 2 Thème 3 Thème 4
Cadre Infirmier

Disjonctions V1 D1 V1 D1
= Le contrôle externe peut Le travail quotidien La qualité Il est difficile de changer dans
D nous sortir d’un état de dans le service nos comportements et dans
crise dans la mesure où Avec les (avec les nos mentalités
Valorisations il peut nous permettre malades Niveau de changement
autres) démobi- (mobili-
=
d’obtenir les moyens lisation sation)
V +
humains pour soigner D2 – nos compor-- (nos
Condensation
les patients Contraintes par la V2 tements mentalités)
= Contrôle bureaucratie La qualité dans le
C service D2
Interne Externe Accrédi- (autres Nous sommes toujours en
Doubles – + tation écrits) réunion au lieu d’être auprès
Éparpil- (recen-
disjonctions trage) des malades
Hôpital lement
= D3 + Se situer

DD Relations entre services D1
Gestion Soins
– + Adjuvant qualité malades réunions
Renforce- (dégrada-
ment tion de service d’accréditation
Moi (les autres)
D3
Changer dépend du temps que
l’on peut avoir et des moyens
donnés
Changement

temps moyens
D6
Implication

Aide-soignants (les autres)

Niveau II
DD
Comportements
temps
et ni temps
moyens ni moyens

TABLEAU 3.7 – Second niveau de relevé structural

Pourtant, l’observation marque pour Soler (2000) une progression par rapport
à la démarche expérimentale dans le champ des sciences empiriques : elle permet une
richesse d’analyse par la mise en évidence des contextes de gestion.

Ainsi, l’étude des cadres intermédiaires, des gestionnaires du changement


organisationnel, qui se veut complète et sans préjugés, passe par une démarche
88 Contextualisme et recueil de données

Relevé structural 1 Relevé structural 2 ••••••••• Relevé structural n

S S S

A A A

P P P

Disjonctions/Valorisations Disjonctions/Valorisations Disjonctions/Valorisations

Schéme spécifique 1 Schéme spécifique 2 Schéme spécifique n

S S S

A A A

P P P

Représentation principale Représentation principale Représentation principale

Schème commun pour un service


à une phase donnée

FIGURE 3.4 – Construction d’un schème commun par étude de cas


à partir des entretiens menés

d’observation : qualitative, flottante puis plus précise, sans a priori, et dans laquelle
l’observateur en sciences de gestion devra rester conscient du processus dans lequel il
s’engage et, en même temps, rendre compte de l’intérieur des phénomènes vécus par
les acteurs.
Cette argumentation rejoint les propos d’Aktouf (1985, p. 248) même s’ils con-
cernent le champ des sciences sociales : « S’il suffisait d’un questionnaire pour com-
prendre le travail et ce qui se passe dans l’être du travailleur, il suffirait aussi d’un
‘sondage’ pour connaître à la fois le milieu, les hommes et les systèmes de relations…
qu’en penseraient alors Malinowski ou Margaret Mead ? »

3.2.1 Le choix d’un dispositif d’observation à double niveau :


interactions et production d’outils de gestion
Pour Aktouf (1992, p. 162), l’observation participante est une méthode de ter-
rain qui se veut « complète, directe, synthétique, qualitative ». Cependant, une fois
sur le terrain, le chercheur est confronté à une multitude d’événements : les infirmiè-
res en train de travailler, les patients circulant dans l’unité de soins, les dossiers
médicaux, une foule d’histoires et de récits… Rapidement, des questions se posent
sur la manière d’utiliser toutes ces données et d’en recueillir d’autres. Même si des
travaux antérieurs (Husser, 1999b) nous ont permis de caractériser les « cadres
intermédiaires » et donc les acteurs à privilégier lors de nos observations, plusieurs
questions se sont posées dès les premiers jours de l’interaction avec le terrain : Quelle
crédibilité donner à tel ou tel propos, à telle ou telle situation ? Comment trier d’une
manière méthodique les données que l’on jette sur le carnet chaque jour à partir des
Recueil et analyse de données 89

situations d’observations négociées ? Enfin, quels éléments privilégier : les échanges


verbaux, les comportements, les messages non verbaux, les écrits produits ?
Face à ces questionnements, Hatzfeld et Spiegelstein (2000) proposent de
créer un dispositif d’observation préalable afin de l’intégrer dans un cadre institution-
nel précis et de délimiter ainsi les espaces d’investigation, les fréquences et données
d’observation ainsi que les niveaux d’exploitation de ces données. Ce dispositif préa-
lable peut évoluer au fur et à mesure de la démarche d’observation en fonction des
faits mais aussi des aller-retour avec la théorie.
L’observation des unités du CHU s’est déclinée en deux étapes : la recherche
d’une cible d’observation comparative puis la détermination d’une observation et d’un
codage restreint pour les six études de cas. Ainsi, la ligne de visée selon les termes de
Minvielle (1996a) a été construite à partir de la question centrale de recherche : la
gestion de l’émergence du changement par l’encadrement intermédiaire dans leurs
unités de travail. Ensuite, il convient de définir le degré de précision par une décom-
position en « actes élémentaires » (Aktouf, 1985) dans un contexte donné : celui
d’une unité qui a pour objectif de produire des soins ou des actes liés aux soins quo-
tidiens.
Cette recherche propose une étude en plan rapproché qui reprend le postulat
de Guigo (1994, p. 15) : « les organisations semblent être divisées en unités ayant cha-
cune leur logique propre, sans que rien n’assure a priori la cohérence de l’ensemble ».
Ainsi, les situations d’observations présentées au chapitre précédent ont été
déterminées suite à une première série d’entretiens semi-directifs et après une pre-
mière période d’interaction de trois mois avec le terrain. Cette observation en plan
rapproché reprend en partie la démarche méthodologique de Minvielle (1996a, p. 68)
qui cherchait à « comprendre comment se construit cette organisation » à partir des
individus dans « leurs pratiques, leurs comportements, leurs relations au travail »
même s’il ne s’agissait dans sa démarche que d’une seule unité de soins.
La figure 3.5 met en relation les acteurs et les types d’observations réalisées.
Elle définit également les unités temporelles d’observation par les fréquences et les
lieux suivant les préconisations de Hatzfeld et Spiegelstein (2000).

A. IDENTIFICATION DES ACTEURS


Le terme d’« acteurs du terrain » est une notion vague qui renvoie à des caté-
gories professionnelles très différentes dans le cas du travail hospitalier : médecins,
infirmières, aides-soignantes, secrétaires. Au moment de l’observation, l’identification
de tous ces acteurs est rendue d’autant plus difficile que, si les tenues sont souvent
identiques, les statuts sont diversifiés et les rapports hiérarchiques complexes (Min-
vielle, 1996a, p. 72) — dans les faits, « il s’est avéré que certaines catégories profes-
sionnelles étaient plus impliquées dans notre recherche : praticiens hospitaliers,
surveillantes générales, infirmières, aides-soignants et internes dans l’unité de méde-
cine interne, surveillantes panseuses… ».
Un état de l’art préalable nous a permis de privilégier les praticiens hospita-
liers, les cadres infirmiers et les cadres techniques.
Les médecins permanents, qu’il s’agisse des chefs de service, des agrégés, ou
des chefs de clinique ont été aussi concernés par nos analyses. Mais la nuance entre
90 Contextualisme et recueil de données

« impliqué » et « concerné » a ici son importance. Car si les médecins ont accompa-
gné l’ensemble de la démarche, ce sont aussi les praticiens hospitaliers et les cadres
infirmiers impliqués par les changements organisationnels qui se sont engagés. On ne
doit pas s’étonner d’ailleurs de ce constat : ils se situent en première ligne lorsque
s’engage l’exécution du travail de prise en charge des patients mais en arrière-plan,
leurs actions se situant également dans la conception de la prise en charge, en conce-
vant les stratégies diagnostiques et thérapeutiques à mener et les moyens à mettre en
œuvre (Pascal, 2000).

B. TYPES D’OBSERVATIONS
Pour Coenen-Huther (1991), l’hôpital apparaît comme un cadre institutionnel
de relations interpersonnelles. Aussi est-il possible d’observer trois niveaux d’interac-
tions distincts :
■ relations entre patients et membres du personnel ;
■ relations entre patients ;
■ relations entre membres du personnel.

TYPES D’OBSERVATIONS
1 Recherche des contextes possibles (Acteurs, Lieux, Fréquences)
2 Recadrage : interactions verbales / situations de production d’écrits
3 Reproduction des observations dans leurs contextes

2
recadrage
retour empirique recadrage 1
3 3
recadrage retour empirique
définition 2 définition
d’un dispositif 3
d’un dispositif
d’observations préalable retour empirique d’observations préalable

2 définition
d’un dispositif
d’observations préalable
1
Identification des acteurs observés

Espaces/Types d’observations • praticiens hospitaliers


• cadres infirmiers
• réunions formalisées • infirmières
qualité/accréditation • responsables de production
• situations formalisées et non
formalisées de production
Fréquences d’observations
d’écrits organisationnels relatifs
à l’accréditation • présence aux réunions formalisées
1 par mois pour accréditation
• présence aux réunions qualité
1 par semaine à 1 par mois
• présence aux situations avant-scène
et arrière-scène 1 fois par quinzaine

FIGURE 3.5 – Élaboration d’un dispositif d’observation à double niveau


dans un cadre institutionnel
Recueil et analyse de données 91

La recherche menée a été recentrée autour des relations entre l’encadrement


intermédiaire et les membres du personnel dans les unités choisies pour les six études
de cas ; il s’agissait en effet de décrire les modalités de gestion du changement par
les cadres intermédiaires. Les types d’observations ont par ailleurs été réalisés essen-
tiellement en arrière-scène pour reprendre les propos de Goffman (1973b).
Cependant, cette orientation ne rend pas compte du degré de cadrage des
observations menées ni du type de données collectées.
Le cadrage réalisé a suivi les recommandations de Peretz (1998) qui préconise
un relevé des dialogues lors des interactions (réunions, situations de production
d’artefacts organisationnels induits par l’autoévaluation).
Cependant, dans le domaine des sciences de gestion, cette collecte d’informa-
tions apparaît comme insuffisante. Pour Money et al. (1998), le chercheur en sciences
de gestion doit être capable de rendre compte par l’observation directe de la produc-
tion et des modalités de production des outils de gestion et des artefacts organisa-
tionnels.
Ce cadre dépasse la simple observation des interactions ; il impose au cher-
cheur une présence lors de la production par l’encadrement intermédiaire de ces élé-
ments de gestion locale. Cette orientation suppose de changer de niveau d’analyse,
pour passer du collectif au singulier, avant de reconstruire par le jeu des interactions
des cadres intermédiaires l’organisation comme « un ensemble d’entités en interdépen-
dance et de retrouver une perspective gestionnaire par les outils créés et les instruments
produits » (Wacheux, 1997b, p. 3).

3.2.2 Mise en évidence des observations menées dans des contextes


d’interactions
Les observations menées dans des situations d’interactions ont permis d’appré-
hender deux types d’espaces de gestion :
■ des espaces productifs routinisés où les cadres intermédiaires orientent l’acti-
vité quotidienne des membres de leurs services en fonction d’un mode d’articu-
lation privilégié dépendant du degré de programmation des tâches
quotidiennes et du degré d’intégration des démarches qualité antérieures.
L’objectif des productions de soins et de services entraîne une continuité des
interactions. Ces espaces productifs se retrouvent aussi bien en avant-scène
qu’en arrière-scène et peuvent être appréhendés selon les mécanismes décrits
par Goffman (1991) ;
■ des espaces représentatifs ritualisés où les cadres intermédiaires pilotent les
changements d’activités présents et à venir dans leurs services par une démar-
che participative singulière. Le terme de singularité définit en fait un mode
d’animation particulier des réunions formelles et informelles à propos de la
qualité.
La mobilisation discontinue de ces espaces représentatifs entraîne une
absence de fluidité des interactions entre les cadres intermédiaires ou avec les mem-
bres du personnel. Ces espaces représentatifs sont dédiés à l’accréditation, à sa mise
92 Contextualisme et recueil de données

en place et à son pilotage. L’accréditation en tant qu’objet d’analyse unique n’est


ainsi traitée que de façon discrète.
La notion d’espace représentatif doit être précisée. Il ne s’agit pas d’une sim-
ple dichotomie entre des territoires d’arrière-scène ou d’avant-scène comme le précise
Goffman (1974a).
La gestion intègre une dimension supplémentaire, celle de la temporalité des
interactions. Aussi, l’espace représentatif se définit-il comme un temps de gestion
piloté par les cadres intermédiaires en l’absence de patients, se situant en dehors de
l’articulation quotidienne des services. Le temps est maîtrisé par l’encadrement lors
des réunions de service de relèves et des réunions « qualité ».
Les réunions traitant de la qualité sont par ailleurs souvent formalisées par un
ordre du jour et par les objectifs à atteindre pour les prochaines réunions.
Les prises de paroles autorisant seulement un système d’interactions simples
(action-réaction) ont été observées lors des trois étapes de l’émergence du change-
ment quel que soit le service étudié.Le modèle de pilotage par la mobilisation d’espa-
ces de gestion interactionnistes présente six dynamiques permettant le passage d’un
espace productif à un espace représentatif et le retour à un nouvel espace productif
routinisé (Figure 3.6).
Le modèle du pilotage local du changement dans sa phase émergente admet
ainsi six passages et plusieurs états d’équilibre différents (Figure 3.6).
Ces six mouvements se caractérisent par des efforts successifs de projection de
la quotidienneté, de recentrage sur les activités récurrentes, de nouvelle projection
d’un univers routinisé modifié de façon marginale, d’effet de réduction de l’espace
créatif et d’action d’agrégation/repli lorsque la mission d’autoévaluation est finale-
ment remplie.
Ces six mouvements sont initiés par les cadres intermédiaires qui, pour des rai-
sons de confrontations à gérer, d’intérêts communs à légitimer ou pour convaincre le
personnel, organisent des réunions au nom de l’accréditation et gèrent un espace de
réflexion au nom du groupe. Les interactions sont structurées par les autorités mora-
les de chaque service (cadres intermédiaires) qui délimitent la conduite des
réunions : convocations, ordre du jour, thèmes traités, personnes habilitées à prendre
la parole, tours de paroles, objectifs à atteindre lors de chaque nouvelle rencontre.

3.3 RECOURS À L’ANALYSE DOCUMENTAIRE


Il existe dans les organisations un grand nombre de documents, de nature et
de forme diverses. Il convient de distinguer des documents écrits et des documents
oraux chiffrés ou enregistrés, les documents officiels et les documents privés. Pour
Grawitz (1996, p. 521), nous sommes une civilisation de bureaucratie : « Il serait
important de connaître la tendance de cette bureaucratie, ce qu’elle classe, ce qu’elle
cherche à savoir, son contenu ». Une caractéristique importante de cette documenta-
tion écrite réside dans le fait que le chercheur n’exerce aucun contrôle sur la façon
dont les documents ont été établis et doit sélectionner ce qui l’intéresse, interpréter
ou comparer des matériaux pour les rendre utilisables. Il se trouve devant un ensem-
ble de renseignements recueillis sans lui. L’analyse des documents et des archives
Recueil et analyse de données 93

ESPACE REPRÉSENTATIF ÉLARGI ESPACE REPRÉSENTATIF RECENTRÉ ESPACE REPRÉSENTATIF RESTREINT


A A

Cadre Cadre Cadre Cadre Cadre Cadre


intermédiaire intermédiaire intermédiaire intermédiaire intermédiaire intermédiaire
catégorie 1 catégorie 2 catégorie 1 catégorie 2 catégorie 1 catégorie 2
A R A A R A A R

Objectif d’anticipation Objectif d’anticipation


Objectif de légitimation
réflexive des critères ANAES

R A R R A/R R R A

autrui autrui
autrui généralisé autrui généralisé autrui autrui
individualisé individualisé
catégorie 1 catégorie 2 individualisé individualisé
restreint restreint
catégorie 1 catégorie 2
catégorie 1 catégorie 2

R A/R
réduction $
rece

rece
ntra

ntra
projection  projection agrégation/repli !
ge

ge
"

#
A/R/Aj A/R/Aj A/R/Aj

Cadre Cadre Cadre Cadre Cadre Cadre


intermédiaire intermédiaire intermédiaire intermédiaire intermédiaire intermédiaire
catégorie 1 catégorie 2 catégorie 1 catégorie 2 catégorie 1 catégorie 2
A/R/Aj A/R/Aj A/R/Aj
A/Aj A/Aj A/Aj A/Aj A/Aj A/Aj
R R R Objectif de production R R Objectif de production R
Objectif de production
de qualité à accréditer

A/R/Aj A/R/Aj A/R/Aj

autrui généralisé autrui généralisé autrui généralisé autrui généralisé autrui généralisé autrui généralisé
catégorie 1 catégorie 2 catégorie 1 catégorie 2 catégorie 1 catégorie 2

A/R/Aj A/R/Aj A/R/Aj

ESPACE PRODUCTIF ROUTINISÉ ESPACE PRODUCTIF ROUTINISÉ ESPACE PRODUCTIF ROUTINISÉ

Avant l’autoévaluation Pendant l’autoévaluation Après l’autoévaluation


(repère questionnaire ANAES) (repère questionnaire ANAES) (repère questionnaire ANAES)

A : Action / R : Réponse à l’action / Aj : Ajustement

FIGURE 3.6 – Modèle de pilotage interactionniste


du changement dans sa phase émergente

consiste alors à effectuer une opération de « structuration d’informations éparses »


(Wacheux, 1996, p. 220) et une opération de contextualisation dans la mesure où les
informations collectées puis analysées prennent place par rapport à leur nature, à la
spécificité des situations de gestion et aux acteurs producteurs de ces informations.
L’analyse documentaire ne constitue pas un mode d’accès au réel négligeable ou
secondaire. Elle permet au contraire la prise en compte des relations entre passé, pré-
sent et futur. Les finalités de l’analyse documentaire menée sont de deux ordres :

■ chercher dans les actions passées le présent organisationnel (en l’occurrence


les dispositifs de mise en place de la qualité) ;

■ comprendre un discours (celui de l’encadrement intermédiaire) par rapport à


des faits, à des décisions et des actions quotidiennes menées.
94 Contextualisme et recueil de données

3.3.1 Mise en œuvre de l’analyse documentaire


Ce troisième axe de la réalisation de la recherche correspond aux préconisa-
tions de Yin (1994) qui souligne l’importance de recourir à un moment donné de la
recherche à des sources écrites. La méthodologie qui a été suivie a tenu compte des
productions d’artefacts antérieurs, organisationnels locaux ou relatifs à la qualité pro-
duite localement puis des artefacts produits par l’encadrement intermédiaire lors de
l’introduction de l’accréditation.
Dans une organisation, à un niveau général ou local, les écrits présentent plu-
sieurs fonctions déterminées. Dans les organisations hospitalières, ils actent les évé-
nements, constituent des preuves d’actions, engagent les individus dans des
articulations de trajectoires (Strauss, 1997). Aussi, la première phase a-t-elle consisté
à relever tous les documents internes aux services hospitaliers (pour les 6 études de
cas) puis d’établir une première typologie et des rapports entre les documents de
l’organizing local et ceux de la démarche d’accréditation (Tableau 3.8).

Origine des documents Catégories Provenances Cadres


intermédiaires

Interne à l’organisation locale Artefacts matériels Check-lists d’appareils Cadres techniques


du service Procédures manipulatoires Cadres infirmiers
Normes de sécurité

Interne à l’organisation locale Artefacts organisationnels : Dossiers patients Cadres médecins


du service articulation de trajectoires Questionnaires

Interne à l’organisation locale Artefacts organisationnels : Notes de service Cadres techniques


du service articulation interne Plannings Cadres infirmiers
Projets de service Cadres médecins

Interne à l’organisation locale Artefacts organisationnels : Procédures de procédures Cadres techniques


du service démarches qualité Réunions qualité Cadres infirmiers
Questionnaires qualité Cadres médecins

Externe à l’organisation Artefacts organisationnels : Projet qualité Cadres techniques


locale du service projet d’établissement Compte rendu réunions Cadres infirmiers
Rapport officiel Cadres médecins

Externe à l’organisation Artefacts organisationnels : Référentiel ANAES Cadres techniques


locale du service démarche d’accréditation Questionnaires d’autoévaluation Cadres infirmiers
Critères généraux et spécifiques Cadres médecins

TABLEAU 3.8 – Première typologie des documents recensés

Ce travail correspond à l’élaboration d’une structure organisationnelle à partir


des écrits qui prend en compte le contexte à travers les variables suivantes : degré
d’expérience en matière de démarches qualité, spécificité de l’articulation du service,
agencements équipe-technique, degré d’interactions personnel-patients.
La seconde phase a consisté à rendre compte de la production des artefacts
locaux et du traitement des artefacts organisationnels locaux provenant des cadres
Recueil et analyse de données 95

intermédiaires. Le relevé thématique, issu d’une démarche classique d’analyse de con-


tenu d’entretien, a permis de mettre en valeur l’assimilation des documents externes
et l’intégration des concepts externes en cohérence avec les valeurs locales du
service : citation et/ou mise en valeur des thèmes dans les documents locaux.
La troisième phase a consisté à repérer les thèmes locaux, issus des documents
spécifiques aux services, intégrés dans les artefacts globaux lors du traitement des
questionnaires d’autoévaluation en phase de sortie des services.
De façon parallèle, les thèmes généraux, repris dans les documents internes
des services (organisation, qualité) ont fait l’objet d’un relevé et d’une analyse spéci-
fique à chaque étude de cas.
L’ensemble des trois phases a permis de mettre en valeur la prise d’autonomie
par rapport aux artefacts d’accréditation et le renforcement des artefacts organisa-
tionnels et matériels locaux.

3.3.2 Analyse transversale des documents produits lors du processus


d’accréditation
Les analyses documentaires menées dans les six services viennent à la fois
enrichir les entretiens, les situations d’observations et révéler le contexte d’action des
cadres intermédiaires. Elles mettent en valeur le contexte du pilotage. Ainsi, le ques-
tionnaire d’autoévaluation a constitué un document central pour la recherche menée.
La suite du chapitre met en valeur les transformations locales successives des arte-
facts organisationnels à partir des contraintes et opportunités contextuelles.
Le questionnaire d’autoévaluation (représentant l’artefact organisationnel) fait
l’objet d’un triple traitement :
■ traitement à l’entrée avec le choix des questionnaires pertinents, le choix des
critères à renseigner et des critères non applicables ;
■ traitement lors de la passation du questionnaire auprès du personnel. Les
cadres intermédiaires pilotent des réunions spécifiques auprès de leur person-
nel pour traduire les critères ;
■ traitement final lorsque les cadres intermédiaires se retrouvent pour représen-
ter à l’aide des réponses aux questionnaires leur propre évaluation. Les négo-
ciations inter-catégorielles opèrent alors pour trouver une cotation commune à
chaque critère. La négociation a pour effet d’accentuer la cotation vers les
valeurs positives (4) ou négatives (1).
Les résultats de ces actions apparaissent dans le tableau de synthèse 3.9 rele-
vant les critères ayant fait l’objet d’un mécanisme de rejet et les critères ayant béné-
ficié d’une acceptation interne. Les commentaires sont le fruit d’une synthèse menée
à partir d’une collecte d’information auprès de chefs de service (dans certains cas)
auprès du personnel, et auprès des cadres intermédiaires eux-mêmes.
Les cadres intermédiaires pilotent le changement à partir des questionnaires et
critères spécifiques. Les critères les plus fortement notés appartiennent majoritaire-
ment à des actes quotidiens de l’articulation des services. Ces critères appartiennent
96 Contextualisme et recueil de données

Sortie Sortie Entrée Sortie

Critères Cotations Nombre de commentaires Effets sur l’Artefact Effets sur l’Artefact

Critères généraux Filtrage questions Prise d’autonomie

Projet de Service +++ Réduction contenu Prise autonomie

Amélioration continue de ++ Réduction contenu Prise autonomie


la qualité

Relations inter-services <> Prise d’autonomie

Management du service <> Prise d’autonomie

Encadrement des X Point fort


stagiaires

Évaluation annuelle Neutralité

Gestion des stocks X Point fort

Gestion des documents <> Point faible

Critères spécifiques Neutralité Accentuation

Accueil X ++ Point fort

Hygiène dans le service Point faible

Droit et information du ++ Point faible


patient

Conformité des locaux et Point faible


équipements

Dossier patient X Point fort

Protocoles et Procédures Point fort


* Comité de Coordination de l’Évaluation Clinique et de la Qualité en Aquitaine
Légendes
Critère ayant une notation faible
X Critère ayant une notation élevée
<> Critère ayant une notation variable (en fonction du contexte)
+++ Commentaires très nombreux
++ Commentaires nombreux

TABLEAU 3.9 – Analyse transversale des six études de cas à partir du questionnaire
d’autoévaluation du CCECQA*

aussi aux valeurs des soignants : expertise médicale, dévouement (prise en charge
des patients).
Les critères généraux font l’objet d’une grande neutralité sauf en ce qui con-
cerne le projet de service. Il cristallise le rejet d’une démarche accréditive vécue
Recueil et analyse de données 97

comme imposée pour les tutelles. Le projet de service n’est que rarement en place
dans les unités de soins ou les unités logistiques. Les cadres intermédiaires expriment
à travers les entretiens une incompréhension de l’utilité d’un projet de service à tra-
vers les items suivants :
■ Existe-t-il un projet qui définit les missions et les objectifs du service à court
terme ?
■ Existe-t-il une procédure, écrite, valide, connue et mise en œuvre définissant
les conditions d’actualisation du projet de service (périodicité,
responsabilité) ?
■ Les objectifs du projet sont-ils cohérents avec ceux du projet d’établissement
(ou du plan stratégique) ?
■ Le projet d’établissement (ou le plan stratégique) est-il diffusé et connu de
tous dans le service, grâce à une stratégie de diffusion auprès de tous les per-
sonnels, y compris les nouveaux arrivants ?
Les commentaires produits expriment l’inutilité d’un tel investissement, le
manque de moyens, la volonté de préserver l’articulation quotidienne du service et le
fait d’éviter le découragement du personnel.
Les convergences de représentations sont importantes tant chez les cadres
infirmiers, les cadres praticiens-hospitaliers et les cadres techniques en ce qui con-
cerne la non-pertinence d’un projet de service. Le projet d’établissement, quant à lui,
fait l’objet de valorisations positives tant dans les entretiens que dans les commentai-
res des questionnaires en retour d’analyse.
La prise d’indépendance de l’artefact organisationnel produit par la direction
du CHU se matérialise par une intensification du recours aux artefacts locaux. Cette
intensification dépend du contexte de gestion de la qualité. Pour les services ayant
expérimenté une démarche qualité, l’intensification prend les modalités suivantes :
■ Impulsion : mise en comparaison des artefacts locaux avec les artefacts
ANAES ;
■ Diffusion : création de nouveaux artefacts matériels (procédures de manipula-
tion et de contrôle de matériels) et légitimation des artefacts organisationnels
(intensification du recours au manuel de procédures internes) ;
■ Consolidation : recherche de correspondances ciblées des critères d’autoéva-
luation avec les artefacts locaux.
Pour les services n’ayant pas expérimenté de démarche, les cadres intermédiai-
res pilotent le changement avec les modalités suivantes :
■ Création : création d’artefacts matériels fédérateurs répondant aux valeurs du
service (expertise, dévouement, esprit d’équipe). Il s’agit d’artefacts se rappor-
tant aux manipulations quotidiennes. Les artefacts matériels autorisent
ensuite la production d’artefacts organisationnels limités ;
■ Légitimation : mise en représentation des artefacts matériels et organisation-
nels créés (conférences thématiques, affichages auprès des patients, affichage
auprès du personnel) avec l’accréditation comme thème fédérateurs ;
98 Contextualisme et recueil de données

■ Consolidation : recherche de correspondances ciblées des critères d’autoéva-


luation avec les artefacts locaux. Ces correspondances consolident auprès du
personnel des services les avancées effectuées au nom d’un principe supérieur,
l’accréditation.

4. Conclusion

Le contextualisme redonne une place centrale aux acteurs dans le cadre de leur
gestion quotidienne. Il permet une analyse fine des situations de gestion en plan rap-
proché et contribue ainsi à la compréhension des conditions de maintien ou de chan-
gement organisationnel.
Une telle perspective aboutit à des conceptions nouvelles pour la fonction res-
sources humaines et pour le management humain dans le processus du pilotage du
changement organisationnel. Ainsi, la fonction ressources humaines peut être appré-
hendée dans toutes ses dimensions contextuelles — son statut, son histoire, sa
structure, ses capacités et ses spécificités — pour expliquer son rôle et son pouvoir
qu’elle est susceptible d’exercer dans la gestion du changement organisationnel.
De même le contexte permet d’éclairer les potentialités, les contraintes, la pré-
gnance des pratiques passées et de comprendre ainsi toutes les dimensions du mana-
gement humain opéré par les dirigeants et cadres intermédiaires.
Etant donnée son ouverture paradigmatique, le contextualisme renvoie à diffé-
rents modèles descriptifs et explicatifs de la reconduction ou du changement des pra-
tiques organisationnelles. Il peut ainsi se combiner au modèle de la planification
stratégique tout comme au modèle contingent, politique ou incrémental.
Cette combinaison aboutit à exprimer l’importance du management humain
dans la gestion quotidienne des organisations. Ce dernier n’est plus seulement
entrevu à partir du simple degré de réalisation d’objectifs assignés. Il est appréhendé
à partir de critères qui tiennent compte à la fois des contraintes et des opportunités
du contexte c’est-à-dire des éléments antérieurs à la situation de gestion mais aussi
de la diversité des intérêts et rapports de force en présence et des phénomènes émer-
geant commis dans la quotidienneté des actes de gestion.

Bibliographie
Aktouf O. (1985), La méthode de l’observation participante, in La rupture entre l’entre-
prise et les hommes, sous la direction de A. Chanlat et M.Dufour, Paris : Les Éditions
d’Organisation.
Aktouf O. (1992), Méthodologie des sciences sociales et approche qualitative des organi-
sations, Presses Universitaires du Québec.
Bardin L. (1996), L’analyse de contenu, Paris : PUF.
Barthes R. (1981), Introduction à l’analyse structurale des récits, Paris : Le Seuil, Collec-
tion Points Essais.
Bibliographie 99

Barthes R. (1991), L’aventure sémiologique, Le Seuil, Collection Points Essais,


1re édition 1985, Paris.
Beaumont M. (1995), « Certification Qualité et gestion des ressources humaines :
méthodologie », Actes du 6e colloque AGRH, pp. 155-162.
Beaumont M. (1996), La qualité de la GRH dans les entreprises certifiées, Thèse de doc-
torat en sciences de gestion, sous la direction de J. Igalens, Université de Toulouse I.
Beaumont M. (1999), « Qualité de la Gestion des ressources humaines et certification
d’entreprise », Revue de gestion des ressources humaines, n° 34, pp. 2-14.
Bourgeois E., Nizet J. et Piret A. (1996), L’analyse structurale : une méthode d’analyse
de contenu, Bruxelles : De Boeck Université.
Bournois F. et Brabet J. (1997), « Qu’est-ce que la gestion des ressources humaines ? »
in Encyclopédie de gestion, Paris : Economica, 2e édition, article 143, Tome 3,
pp. 2732- 2752.
Brabet J. (1993), « La gestion des ressources humaines en trois modèles », in Repenser
la gestion des ressources humaines, Paris : Economica, collection Gestion.
Brouwers I. et alii (1997), Management humain et contexte de changement, Bruxelles :
De Boeck Université.
Coenen-Huther J. (1991), « Observation en milieu hospitalier », Sociétés contemporai-
nes, n° 8, Décembre 1991, pp. 127-143.
Demazière D. et Dubar C. (1997), Analyser les entretiens biographiques, Paris : Essais et
recherches, Nathan.
Goffman E. (1973), La mise en scène de la vie quotidienne — tome 2 : les relations en
public, Paris : Les Éditons de Minuit, collection Le sens commun.
Goffman E. (1974), Les rites d’interaction, Paris : Les Éditions de Minuit, collection Le
sens commun.
Goffman E. (1991), Les cadres de l’expérience, Paris : Les Éditions de Minuit, collection
le sens commun.
Gonnet F. (1992), L’hôpital en questions, Paris : Éditions Lamare.
Grawitz M. (1996), Méthodes des Sciences Sociales, Paris : Dalloz.
Guigo D. (1994), Ethnologie des hommes des usines et des bureaux, Paris : L’harmattan,
Logiques de Gestion.
Hatzfeld H. et Spiegelstein J. (2000), Méthodologie de l’observation : comprendre, éva-
luer, agir, Paris : Dunod.
Hlady Rispal M. (2002), Les études de cas : Application à la recherche en gestion,
Bruxelles : De Boeck Université.
Husser J. (1999), « L’accréditation : Une nouvelle forme de production de la qualité
dans les services d’urgence hospitalière ? », Sciences et Technologie : regards croisés,
Paris : L’Harmattan, pp. 107-128.
Louart P. (1995), Succès de l’intervention en GRH, Éditions Liaisons.
Minvielle E. (1996), Gérer la singularité à grande échelle ou comment maîtriser la trajec-
toire des patients à l’hôpital ?, Thèse de sciences de gestion, École Polytechnique.
Moisdon J.-C. et Tonneau D. (2000), La démarche gestionnaire à l’hôpital tome2 : La
régulation du système hospitalier, Paris : Éditions Seli Arslam.
Moles A. et Rohmer E. (1976), Micropsychologie et vie quotidienne, Paris : Médiations
Denoël/Gonthier.
Money A., Remenyi D., Swartz E. et Williams B. (1998), Doing Research in Business and
Management, Sage Publications.
100 Contextualisme et recueil de données

Mucchielli R. (1998), L’analyse de Contenu, des documents et des communications,


Paris : Éditions ESF, Entreprise Moderne d’Édition, Librairies Techniques.
Pascal C. (2000), Gérer les processus à l’hôpital : une réponse à la difficulté de faire
ensemble, Thèse de doctorat en sciences de gestion, Université Jean Moulin Lyon III.
Peretti J.-M. (1990), Ressources Humaines, Paris : Vuibert.
Peretz H. (1998), Les méthodes d’enquête : l’observation, Paris : La Découverte, collec-
tion Repères.
Pettigrew A.M. (1985), « Contextualist Research : « A natural way to link Theory and
Practice » » in E.E., Lawler (Ed), Doing Research that is useful in Theory and Practicy,
Jossey Bass, pp. 222-274.
Pettigrew A.M. (1987), « Context and Action in the transformation of the Firm », The
Journal of management studies, vol. 24, n° 6, pp. 649-670.
Pettigrew A.M. (1990), « Longitudinal Field research on change : Theory and practice »,
Organization science, vol. 1, n° 3, pp. 267-292.
Pettigrew A.M. et Whipp R. (1991), Managing Change for Competitive Success, Oxford :
Basil Blackwell.
Soler L. (2000), Introduction à l’épistémologie, Paris : Ellipses éditions Marketing.
Strauss A. (1997), Organization of Medical Work, Transaction Publishers, 2e édition, New
Brunswick.
Van de Ven A. et Poole M. (1995), « Explaining Develoment and Change in
Organizations », Academy of management review, vol. 20, n° 3, pp. 510-540.
Wacheux F. (1996), Méthodes Qualitatives et Recherches en Gestion, Paris : Economica.
Wacheux F. (1997), « La gestion des ressources et l’épistémologie du quotidien », Cahier
de recheche, Université Paris I Panthéon-Sorbonne - CERGOR, n° 97/01, pp. 1-15.
Watzlawick P. et Weakland J. (1981), Changements, paradoxes et psychothérapie, Paris :
Le Seuil, collection Points Essais.
Yin R. (1994), Case Study Research Design and Methods, Sage Publications, Thousand
Oaks.
Chapitre 4

L’entretien de recherche

Pierre ROMELAER 1

Sommaire
1 Définition de l’entretien semi-directif centré (ESDC) 102

2 Le nombre d’entretiens et la variété de l’échantillon 104

3 La phrase d’entame, le début de l’entretien 108

4 Le guide de l’interviewer, le guide d’entretien 112

5 Les reformulations et les relances, le recentrage 116

6 Les premiers entretiens 121

7 La relation entre entretien et analyse de contenu 122

8 Qualité et validation des contenus d’entretiens 124

9 ESDC et méthodologie de la recherche 126

10 Le temps et le lieu de l’entretien,


l’environnement social de l’entretien 127

11 L’entretien comme situation de communication


interpersonnelle 130

12 Conclusion 134

1 Professeur, Université Paris-Dauphine.


102 L’entretien de recherche

L’entretien est une des méthodes qualitatives les plus utilisées dans les recher-
ches en gestion. Un entretien de recherche n’a rien de commun avec une discussion
dans laquelle on se laisse porter par l’inspiration du moment.
Le premier objectif de ce chapitre est de fournir des éléments pour concevoir
et conduire les entretiens, si on veut recueillir des données de qualité scientifique
dans le cadre d’une recherche en gestion. Le second objectif est de permettre au lec-
teur d’analyser dans quelle mesure les entretiens sont utilisés de façon pertinente et
avec la rigueur adéquate dans des recherches publiées. Cette analyse contribue au
jugement qu’on peut porter sur la solidité scientifique des résultats présentés dans les
articles dans les revues scientifiques, les communications dans les colloques, les thè-
ses, les livres à orientation recherche.
Nous traiterons très essentiellement de ce qu’on appelle l’entretien semi-direc-
tif centré, un mode d’entretien dans lequel le chercheur amène le répondant à com-
muniquer des informations nombreuses, détaillées et de qualité sur les sujets liés à la
recherche, en l’influençant très peu, et donc avec des garanties d’absence de biais qui
vont dans le sens d’une bonne scientificité. De plus, les entretiens effectués avec plu-
sieurs répondants peuvent être conduits avec un caractère systématique qui lui aussi
va dans le sens d’une bonne scientificité. L’absence de biais et le caractère systémati-
que sont possibles malgré le fait que, vu de l’extérieur et notamment par le répon-
dant, l’entretien paraît être conduit comme une conversation. Mais il y a du côté du
chercheur, comme nous le verrons, beaucoup de rigueur et un travail très exigeant.
Il existe d’autres types d’entretiens. Certains sont plus dirigés ou directifs que
l’entretien semi-directif centré : ils se rapprochent alors du format des entretiens gui-
dés et des questionnaires. Certains entretiens sont encore moins directifs que les
entretiens semi-directifs centrés. Nous verrons plus loin qu’ils sont souvent moins
adaptés pour les recherches en gestion 2.

1. Définition de l’entretien semi-directif centré (ESDC)

L’entretien semi-directif centré (nous le noterons ESDC dans la suite) est une
des méthodes d’entretien les plus utilisées. Ses caractéristiques principales sont les
suivantes :
■ L’interviewer commence par obtenir l’accord du répondant pour faire l’entre-
tien, et il prononce la « phrase d’entame ». La phrase d’entame est du style :
« Pourriez vous me décrire la journée de travail d’hier ? », ou « Pourriez vous
me décrire ce que vous avez regardé la dernière fois que vous avez utilisé
Internet ? », ou encore « Pourriez vous choisir un projet d’investissement de
votre filiale et me dire qui est intervenu dans ce projet depuis le début ? »
Cette partie de l’entretien est la seule qui soit directive.
Dans la suite de l’entretien, l’interviewer laisse le répondant s’exprimer dans
son propre langage, mais il oriente l’entretien par des « reformulations » et des

2 Nous verrons les autres types d’entretiens dans le paragraphe 4 sur « Le guide de l’interviewer et
le guide d’entretien ».
Définition de l’entretien semi-directif centré (ESDC) 103

« relances » 3. Les relances sont exprimées dans le langage du répondant, mais


elles portent sur des thèmes soigneusement déterminés avant l’entretien. Ces
thèmes ne sont pas communiqués au répondant. On appelle guide de l’inter-
viewer la liste de ces thèmes 4. Plus précisément, la suite de l’entretien se
déroule comme indiqué ci-dessous.
■ Le chercheur laisse le répondant s’exprimer de façon spontanée et non direc-
tive, en soutenant le discours par des « oui.. » pour signaler qu’il est dans une
situation d’écoute attentive. Le chercheur fait des reformulations-résumés 5,
qui peuvent éventuellement amener le répondant à préciser tel point sur lequel
il s’est exprimé. Le chercheur recommence les reformulations-résumés jusqu’au
moment où il peut considérer qu’on a complètement fini une partie de l’entre-
tien.
■ Le chercheur choisit, parmi tout ce qui vient d’être dit dans l’entretien, un
thème qui figure dans son guide de l’interviewer (ou un thème qui est intéres-
sant par rapport à son objectif de recherche mais n’est pas dans son guide), et
improvise une « phrase de relance » sur ce thème, en utilisant le vocabulaire
utilisé par le répondant.
■ Le répondant répond à cette intervention de l’interviewer, et on reprend la
même séquence que précédemment, avec si besoin des reformulations-résumés
jusqu’au moment où le thème introduit par la relance est couvert de façon
complète, souvent d’ailleurs avec un discours dans lequel le répondant abor-
dera aussi d’autres thèmes que celui qui est dans la relance.
■ Le chercheur effectue une nouvelle relance, à laquelle le répondant répond, et
ainsi de suite jusqu’au moment où tous les thèmes du guide de l’interviewer
qui ont été mentionnés par le répondant ont été traités de façon suffisamment
approfondie, éventuellement à l’instigation des relances du chercheur.
La Figure 4.1 donne une représentation schématique de cette méthode de ges-
tion de l’entretien avec des reformulations et des relances.
Dans la Figure 4.1, l’entretien se déroule depuis la phrase d’entame (à gau-
che), jusqu’à la fin (à droite). Les traits en gras marquent le discours de l’interviewé,
et les absences de traits marquent les interventions du chercheur. Par exemple, en
réponse à la phrase d’entame, le répondant commence à parler, puis le chercheur fait
une reformulation-résumé qui amène le répondant à donner un complément d’infor-
mation. C’est seulement après la seconde reformulation-résumé du chercheur que le
répondant a fini de traiter ce qu’il a voulu développer en réponse à la phrase

3 Les termes « reformulation », « reformulation résumé » et « relance » sont précisés plus loin, au
paragraphe 5.
4 Il existe une différence importante entre le « guide de l’interviewer » et le « guide d’entretien ».
Si on définit ce dernier comme une liste de questions spécifiées avant l’entretien et qui seront
posées l’une après l’autre au répondant, alors l’entretien semi-directif centré ne comporte pas de
guide d’entretien. Dans l’ESDC, la majorité des thèmes de relance est définie a priori. Nous revien-
drons sur cette question au paragraphe 4.
5 Dans la « reformulation-résumé », l’interviewer résume dans ses propres termes ce que le répon-
dant vient de dire. Cette démarche lui permet de s’assurer qu’il a bien compris ce que l’interviewé a
dit, et elle permet à l’interviewé de rectifier ou de compléter son propos si nécessaire.
104 L’entretien de recherche

PE RR RR R1 RR RR R2 RR R3 FIN

PE = phrase d’entame RR = reformulation-résumé R1, R2, etc. = relance 1, relance 2, etc.

FIGURE 4.1 – Un schéma de conduite d’entretien,


avec reformulations-résumés et relances

d’entame. L’origine d’une flèche signale le moment de l’entretien au cours duquel le


répondant a évoqué un thème qui fait l’objet d’une relance. Par exemple la relance R1
est effectuée sur un thème qui a été évoqué par le répondant dans la partie de
l’entretien qui suit immédiatement la phrase d’entame.
L’ESDC réalise un compromis souvent optimal entre la liberté d’expression du
répondant et la structure de la recherche. Le répondant s’exprime sur les thèmes qu’il
souhaite, et dans son propre langage : la directivité de l’entretien est donc très
réduite. Le chercheur en retire deux éléments : (1) des informations sur ce qu’il cher-
che a priori (les thèmes du guide de l’interviewer) ; et (2) des données auxquelles il
n’aurait pas pensé (la surprise venant de la réalité du terrain).

2. Le nombre d’entretiens et la variété de l’échantillon

Un ESDC demande de un quart de jour à un jour transport compris, sa trans-


cription de une demi-journée à une journée selon la durée 6, et son analyse une jour-
née, voire beaucoup plus pour les entretiens très riches sur les sujets complexes et
selon le degré de finesse de l’analyse. L’entretien semi-directif centré est donc un
moyen de recherche lourd et coûteux, qu’on utilise seulement parce qu’il est très riche
et dans certains cas irremplaçable. La première question à se poser est de savoir com-
ment faire un nombre minimum d’ESDC en restant pertinent par rapport au sujet de
recherche et à la méthode choisie.
En termes de quantité, la multiplication des ESDC n’a de sens que si l’analyse
de contenu qui suit est formatée (voir la définition au paragraphe 7) et utilisée dans
un repérage statistique ou pour un test d’hypothèse.
Le repérage statistique est la mesure de la fréquence d’apparition de chaque
valeur d’un descripteur donné dans une population ou un échantillon donnés. Par
exemple, si un descripteur de la recherche est « degré de motivation des
collaborateurs », et si mes modalités du descripteur sont « forte », « très faible »,
« moyenne », le repérage statistique consistera à compter, dans un ensemble d’entre-
tiens transcrits, combien de fois apparaissent (dans chaque entretien et dans l’ensem-
ble des entretiens) des expressions qui peuvent être assimilées à « les collaborateurs
sont fortement motivés », « ils sont très faiblement motivés », « ils sont moyenne-

6 La durée d’un ESDC est en général de l’ordre de 1h30.


Le nombre d’entretiens et la variété de l’échantillon 105

ment motivés », etc. Les expressions utilisées par les répondants n’ont pas nécessai-
rement cette forme précise dans la mesure où chacun s’exprime dans son propre
langage 7. Le repérage statistique est en quelque sorte un « repérage du réel » qui
permet de se faire une idée plus précise du terrain qu’on observe. Sur un ensemble
d’une dizaine d’ESDC, ce repérage n’a pas bien entendu une valeur scientifique per-
mettant d’aboutir à des conclusions et à des lois statistiques.
La même méthode que ci-dessus peut servir à fonder des tests d’hypothèses.
Le nombre et la distribution des ESDC doit alors respecter les critères exigés pour un
test de cette nature. On remarque en passant que la méthode est alors à la fois quali-
tative et quantitative. Dans ce cas le choix du nombre d’entretiens s’effectue avec les
mêmes méthodes que celles utilisées en méthodes quantitatives. Par exemple, si on
teste l’hypothèse « dans les projets d’innovations réussis les chefs de projets ont plus
de préoccupations stratégiques », on peut effectuer des entretiens avec des chefs de
projets, mesurer dans chaque entretien la proportion du texte qui contient des préoc-
cupations stratégiques, et comparer cette proportion entre les 40 % des projets les
plus réussis et les 40 % des projets les moins réussis 8.
Les entretiens ne sont pas toujours utilisés dans une partie de recherche à
visée quantitative. Ce n’est pas le cas quand on cherche à voir dans quelle mesure les
descripteurs pertinents du sujet de recherche déjà identifiés par la littérature sont
présents dans le terrain étudié, ou quand on veut identifier des descripteurs perti-
nents qui n’ont pas encore été mentionnés par des chercheurs ou des experts. Dans ce
cas, le critère n’est pas le nombre d’entretien mais la saturation sémantique et la
saturation théorique.
Il y a saturation sémantique si deux conditions sont remplies :
■ Les nouveaux ESDC qu’on conduit n’apportent plus de descripteurs ou de
modalités différents de ce qui a été obtenu par les anciens entretiens. Par
exemple, si les quatre derniers entretiens n’ont rien amené de neuf, on peut
penser qu’on a un nombre suffisant d’entretiens.
■ L’échantillon des entretiens est suffisamment divers au sens suivant :
– d’abord, on regarde la population dans son ensemble (par exemple les ven-
deurs en clientèle) ;

7 Le fait qu’une partie d’un texte d’un entretien soit le signe de la présence d’un descripteur de la
recherche (par exemple le fait que l’expression « ils se sont très investis dans ce job » est le signe
que « les collaborateurs sont très motivés ») est affaire de jugement. Comme le jugement est porté
par un sujet, il s’agit d’un jugement subjectif. Pour qu’on soit dans le domaine de la science il faut
alors se donner des garanties. On les trouve par exemple dans le « double codage » : (1) le chercheur
définit un protocole pour chaque descripteur, c’est-à-dire une procédure qui permet de reconnaître
que le descripteur est dans le texte ; (2) il communique la liste des descripteurs, des protocoles de
reconnaissance, et la transcription de l’entretien à un autre chercheur ; (3) il compare son propre
codage à celui de l’autre codeur. S’il y a un « taux d’accord intercodeurs » (en anglais : inter rater
agreement) supérieur à 80 %, on peut considérer qu’on a une mesure de qualité suffisamment scien-
tifique. On remplace l’objectivité par le « degré d’accord intersubjectif ». Il est souvent considéré
comme suffisant que le double codage porte sur 10 % des textes analysés.
8 Sur un tel exemple, on voit à quel point la recherche est délicate. Par exemple, il faut disposer
d’un indicateur de succès d’un projet d’innovation qui permette la comparaison de projets de natures
différentes dans des entreprises différentes.
106 L’entretien de recherche

– ensuite, on se demande quels sont les critères en fonction desquels les phé-
nomènes auxquels on s’intéresse dans la recherche peuvent varier dans la
population. On recueille le plus grand nombre possible de critères impor-
tants auprès des sources classiques : la littérature de recherche, les experts
et praticiens, la problématique de la recherche, l’intuition du chercheur, la
littérature professionnelle, les observations. Par exemple, si la recherche
concerne les mécanismes de coordination les plus efficaces que l’entreprise
peut utiliser vis-à-vis des vendeurs en clientèle, on se demandera qu’est ce
qui a priori peut conduire à utiliser des mécanismes de coordination diffé-
rents. On pourra ainsi identifier six ou sept critères, parmi lesquels le degré
de technicité des produits, l’importance de la fonction marketing dans
l’entreprise, la taille de l’entreprise, etc. 9 ;
– alors on conclut que l’échantillon est suffisamment varié s’il comporte par
exemple au moins une (ou deux si on est exigeant) observations sur chaque
niveau de chaque critère. Si on reprend l’exemple des mécanismes de coor-
dination des vendeurs en clientèle, il faut qu’il y ait des vendeurs de pro-
duits techniques et peu techniques, des vendeurs de grandes et de petites
entreprises, etc.
L’idée ici n’est pas du tout d’avoir une représentativité statistique et un échan-
tillon complet. L’idée est d’avoir exploré suffisamment la variété des situations.
Il y a « saturation théorique » si chaque descripteur identifié dans un ESDC est
replacé dans le cadre d’une théorie ou d’un modèle, qui peuvent être ceux du cher-
cheur ou venir de la littérature. Si par exemple on identifie dans un ESDC qu’une ques-
tion importante pour les salariés en cours de recrutement et dans les premiers mois
de leur travail est la préoccupation de « faire partie » de l’entreprise qui les recrute,
d’y être intégrés, alors le chercheur doit incorporer cette donnée à un modèle, par
exemple les modèles de socialisation de Sainsaulieu, de Dubar ou de Sathe. À partir
de là, le chercheur doit incorporer dans le guide de l’interviewer de ses futurs ESDC les
descripteurs utilisés dans ces modèles, auxquels il n’a pas forcément pensé lorsqu’il
effectuait ses premiers entretiens exploratoires. En ce sens, le guide de l’interviewer
d’un ESDC se sature progressivement à l’aide des descripteurs venant de théories assez
cohérentes et complètes (celles du chercheur, celles de la littérature).
Le choix des personnes interrogées et le choix du nombre d’entretiens sont des
compromis. L’efficacité de ces choix doit faire l’objet d’une analyse ex ante et d’un
réexamen ex post :
– en revenant sur les critères ci-dessus ;

9 Parmi les critères classiquement rencontrés, on peut avoir ceux qui suivent :
- les critères liés aux personnes interrogées : âge, sexe, CSP, fonction et niveau dans l’entreprise,
style de leadership, formation, type de motivation, etc. ;
- les critères liés au terrain : degré de turbulence de l’industrie, entreprise indépendante ou
filiale, type de technologie, milieu urbain/péri-urbain/rural, etc. ;
- les critères identifiés par la littérature de recherche.
- les critères liés à la recherche elle-même : moment de l’ESDC dans la journée, dans la semaine
ou dans l’année, lien entre le chercheur et la direction, lieu de l’entretien avec les consomma-
teurs, etc.
Le nombre d’entretiens et la variété de l’échantillon 107

– en examinant le contenu des entretiens faits ;


– en jugeant de la saturation sémantique et de la saturation théorique (voir plus
haut).
Au minimum il faut une phrase du compte rendu de recherche dans laquelle le
chercheur juge son efficacité sur ce point.
La recherche est une activité dans laquelle il est souvent utile d’exposer ce
qu’on fait au regard des collègues, même de façon informelle en cours de travail : il
est très productif pour le chercheur de demander à un autre chercheur (un autre thé-
sard du labo, un directeur de recherche, etc.) son jugement sur la qualité de la satu-
ration sémantique et de la saturation théorique :
– avant le travail : si on a des critiques, on peut alors modifier le programme de
travail ;
– après qu’une batterie d’entretiens ait été effectuée : si on a des critiques, on
peut alors peut-être encore compléter le recueil de données.
La variété des entretiens est un élément important lorsque les entretiens sont
utilisés pour générer les items sur lesquels le chercheur, dans la suite de sa recherche,
recueillera des données par questionnaire.
Il existe plusieurs cas d’utilisation des entretiens qui n’entrent pas dans les
catégories précédentes.
D’abord, on a le cas des entretiens de la phase exploratoire d’une recherche.
Dans cette phase, où la recherche n’est pas encore fixée, les thèmes des entretiens
peuvent évoluer, voire aussi le sujet de la recherche et la méthodologie envisagée
pour la recherche. Le nombre des entretiens à conduire est alors fixé par l’objectif de
cette phase du travail : aboutir à l’élaboration d’une problématique de recherche et
d’une méthodologie. Il y a très peu de règles, à notre connaissance. Il est certain que
la connaissance des résultats de la littérature et des échecs antérieurs peut être un
guide pour éviter les impasses et s’orienter plus vite vers les voies les plus fructueu-
ses 10. Il est certain que l’immersion dans le terrain et dans le travail de modélisation
et de modification permanente des modèles permet de développer des intuitions, de
même que le recueil de données variées auprès de personnes variées (par entretiens
ou par d’autres méthodes). Mais ici on quitte le domaine des techniques pour entrer
dans celui de la créativité, du talent et du hasard. Parfois il suffit d’un seul entretien,
ou même d’une brève conversation informelle pour aboutir à une idée (qui devra
ensuite être patiemment construite, avec saturation sémantique et théorique). Par-
fois, dix entretiens ne conduisent à rien, et le chercheur doit envisager de changer de
sujet, ou de changer de métier.
Ensuite, on a le cas des entretiens qui servent à illustrer qualitativement des
résultats quantitatifs. Si, par exemple, une phase de recherche quantitative a permis
d’identifier quatre types de clients potentiels vis-à-vis de l’achat d’une gamme de pro-
duits sur Internet, alors des entretiens conduits avec des personnes représentatives
de ces différents types permettront de « donner de la chair » à la typologie en illus-

10 Mais il est certain aussi que la focalisation sur la littérature peut « assécher l’imagination » et
conduire au conformisme et à la scolastique dans le mauvais sens du terme.
108 L’entretien de recherche

trant ce que peuvent être concrètement des comportements types. Le nombre des
entretiens à conduire et la variété des répondants sont éminemment dépendants du
type de données illustratives recherchées.
Enfin, il y a le cas des recherches longitudinales dans lesquelles des méthodes
qualitatives sont utilisées pour étudier un phénomène dans la durée (souvent de
quelques semaines à plusieurs années). Il faut alors conduire des ESDC répétés, et
veiller à ce que la densité temporelle des entretiens soit adéquate dans chaque sous-
durée de la durée totale, ainsi que lors des périodes charnières.
Pour terminer, signalons que les entretiens :
– peuvent être utilisés comme seule méthode de la recherche, ou en complément
à d’autres types de données : questionnaires, observations formatées, textes ou
données comptables fournis par les organisations étudiées, etc. 11 ;
– peuvent être effectués auprès de répondants d’une même organisation ou
auprès de répondants appartenant à des organisations différentes. On est dans
la première situation dans le cas d’une « recherche clinique », ou dans une
recherche basée sur des études de cas. On est dans le second cas si, par exem-
ple, dans une recherche sur la gestion de l’innovation, on conduit trois entre-
tiens par projet d’innovation, avec deux projets par entreprise sur douze
entreprises différentes.
Le nombre et la variété des entretiens ne sont pas les mêmes selon qu’on est
dans l’une ou l’autre des situations décrites ci-dessus. Dans une recherche sur l’inno-
vation, comme celle mentionnée ci-dessus, il peut par exemple être utile que, dans
chaque entreprise, il y ait un entretien avec un cadre dirigeant et deux entretiens
avec des membres du groupe projet, l’un étant un spécialiste de marketing, et l’autre
un ingénieur. Une telle approche permet de « confronter les points de vue » d’une
façon systématique.

3. La phrase d’entame, le début de l’entretien

La phrase d’entame doit être exprimée dans le langage du répondant. Elle doit
être simple, amener le répondant à un discours utile pour la recherche et ne doit pas
être menaçante.
Les trois exemples ci-dessous montrent le genre de phrases d’entame à éviter :
■ « Comment sont vos relations avec vos collègues de travail ? » : à éviter parce
que la formulation de la question peut sous-entendre que ces relations pour-
raient être mauvaises, et parce qu’un répondant en général ne souhaite pas
parler de sujets délicats dès le début d’un entretien. La réponse à la question
risque d’être « Bonnes » même si ces relations sont mauvaises, avec pour con-
séquence supplémentaire, dommageable pour la qualité de l’entretien, d’avoir
un répondant qui est sur la défensive s’il craint que l’interviewer ne cherche à

11 Quand on cherche à voir si les données recueillies à partir de méthodes diverses (avec, entre
autres, des entretiens, par exemple) donnent des résultats convergents, on dit qu’on fait appel à la
triangulation méthodologique.
La phrase d’entame, le début de l’entretien 109

obtenir des informations qui pourraient lui causer du tort si elles venaient à
être connues comme provenant de lui.
■ « Pourriez vous m’indiquer quelle est votre carte cognitive ? », ou « Quel est
l’agenda stratégique de l’entreprise ? » : à éviter parce que ces termes ne font
sans doute pas partie du langage naturel du répondant. De façon générale dans
les entretiens, le chercheur doit savoir jouer sur deux registres lexicaux très
différents : d’une part les termes du langage de la recherche, qui servent à
comprendre le réel dans un langage codifié et à communiquer les résultats à la
communauté scientifique ; et d’autre part les termes naturellement utilisés par
les répondants. Les termes de la phrase d’entame doivent appartenir à ce
second registre lexical.
■ « Quel est le degré de décentralisation de votre entreprise ? », « Quelle est la
structure organisationnelle de l’usine ? » (à éviter parce que les termes utilisés
ont un sens très précis dans la recherche, et que ces termes risquent fort
d’avoir pour le répondant un sens qui n’est pas celui que leur donne le cher-
cheur).
La phrase d’entame peut aussi ne pas mentionner le sujet de la recherche. Par
exemple une phrase d’entame du type « Pourriez vous me décrire votre journée de tra-
vail d’hier ? » peut être utilisée dans une recherche portant sur les mécanismes de
coordination, sur la gestion des compétences ou sur la décentralisation des décisions.
Dans ce cas la phrase d’entame est utilisée de façon « projective » : elle projette le
répondant dans une partie de son réel. L’extraction des données qui intéressent le
chercheur se fera ensuite par le moyen des reformulations et des relances.
Dans ce mode d’entretien, il est même possible que le sujet de la recherche ne
soit pas indiqué au répondant 12. Il peut paraître a priori bizarre que le chercheur
n’indique pas au répondant le sujet de sa recherche dans l’entretien ou au début de
l’entretien. C’est toutefois une approche à laquelle il faut songer (1) lorsque certains
des sujets abordés sont sensibles (qualité des relations entre les personnes, relations
de pouvoir, mode de travail du groupe de direction générale, etc.) ; ou (2) lorsque sur
certains sujets il existe le risque de voir le répondant chercher à communiquer à
l’interviewer une image de lui même ou de son entreprise conventionnellement consi-
dérée comme bonne (en se présentant comme compétent, motivé, rationnel, coopéra-
tif, etc.).
Ne pas indiquer au répondant quel est le sujet de la recherche peut mettre
l’interviewer mal à l’aise, lui donner l’impression d’être « moralement condamnable »
parce qu’il dissimule l’essentiel à son interlocuteur. Sur ce point il faut à notre avis à
la fois dédramatiser et mettre en garde :
■ le sujet de recherche est une préoccupation essentielle du chercheur, c’est nor-
malement une préoccupation que les entreprises ont ou devraient avoir, mais
ce n’est dans beaucoup de cas pas une préoccupation essentielle du
répondant 13 ;

12 Souvent, le répondant déduira le sujet de la structure des reformulations et des relances.


13 On peut par exemple inviter les doctorants à se demander si leur sujet de thèse est une préoccu-
pation essentielle des personnes auprès desquelles ils conduisent des entretiens.
110 L’entretien de recherche

■ il existe deux cas dans lesquels la non-indication du sujet de l’entretien pose


un problème éthique, et donc doit être proscrite. D’abord lorsque les résultats
seront, après travail du chercheur et de l’entreprise, utilisés pour modifier
l’entreprise, avec des conséquences possibles sur le répondant. Ensuite lorsque
les résultats de la recherche sont susceptibles de faire apparaître le répondant
sous un jour qui lui déplaît. Dans chacun de ces cas le répondant aurait
l’impression tout à fait justifiée d’avoir été manipulé.

Il n’y a pas de phrase d’entame optimale pour un entretien. Mais comme nous
l’avons vu ci-dessus il peut y avoir des phrases d’entame à éviter. Pour savoir si une
phrase d’entame est à éviter, le chercheur dispose de plusieurs méthodes : (1) se
demander dans quelle mesure la phrase d’entame peut être menaçante, ou exprimée
dans un langage inadéquat ; (2) tester la phrase d’entame auprès d’un autre cher-
cheur ou d’un directeur de recherche ; (3) se demander comment la phrase d’entame
est susceptible d’être interprétée par le répondant, et se familiariser avec le monde
dans lequel vivent les répondants pour acquérir une meilleure connaissance du lan-
gage qu’ils utilisent et des interprétations qu’ils peuvent donner à la phrase d’entame.
Si le sujet de la recherche comporte des aspects délicats, le chercheur peut
utiliser une « phrase de lancement » pour débuter l’entretien et établir la relation et
la confiance, puis aborder la partie délicate avec une « phrase d’entame facilitante ».
Si un chercheur s’intéresse aux styles de management, et s’il pense que le style d’un
manager peut être conditionné par son mode d’entrée dans la fonction, il peut com-
mencer avec une première phrase du type « En quoi consiste la direction d’une unité
comme la vôtre ? », et après une première partie d’entretien introduire le thème déli-
cat avec une phrase du type : « Quand un cadre prend la responsabilité d’un nouveau
service il y a en général des difficultés dans les premiers temps. Comment ça s’est
passé pour vous ? » Une telle phrase signale que les difficultés sont considérées
comme un élément normal, alors que le répondant peut hésiter à en parler s’il pense
qu’un manager doit tout réussir tout le temps, et que toute personne qui avoue l’exis-
tence de difficultés est un incompétent ou un faible.
Pour terminer sur la phrase d’entame, il faut signaler le fait que le répondant
peut ne pas comprendre la question. Dans ce domaine, il est prudent d’essayer (sou-
vent avec des collègues et amis) de faire une simulation avant le premier entretien.
Par exemple, dans un entretien sur la gestion des filiales dans les groupes, si la phrase
d’entame est « Pouvez-vous m’expliquer commet vous gérez vos filiales ? », et si la
réponse du cadre dirigeant interrogé est « On ne peut pas dire que nous gérons les
filiales : ce sont les directeurs de filiales qui font ça », alors le chercheur aura intérêt
à savoir comment il va poursuivre son recueil de données.
La phrase d’entame n’est pas le seul moment du début de l’entretien.
Avant la phrase d’entame, il y a pratiquement toujours un moment au cours
duquel le chercheur est amené à informer l’interviewé de la nature de la recherche :
qui la fait, pourquoi, quelles peuvent en être les utilisations, quelles démarches sont
entreprises pour garantir la confidentialité des données, etc. Les répondants deman-
dent des précisions dans ces domaines même si des explications ont été données
avant l’entretien, au moment où le chercheur sollicite un rendez-vous. Le chercheur
La phrase d’entame, le début de l’entretien 111

doit également être prêt à se présenter brièvement, et à indiquer à l’interviewé com-


ment il en est arrivé à avoir ce contact avec lui 14.
La phase de début de l’entretien doit également comporter des précisions sur
le degré de directivité : le répondant doit savoir clairement et rapidement si l’inter-
viewer lui posera un ensemble de questions ou si l’entretien sera libre 15.
Après la phrase d’entame il n’est pas rare qu’il y ait une phase de « mise en
place » : le répondant s’assure qu’il comprend bien la phrase d’entame et ce qui est
attendu de lui (l’entretien porte-t-il plutôt sur les aspects financiers du travail, sur les
aspects techniques ou sur le côté managérial ? etc.). L’extrait d’entretien de
l’encadré 4.1 donne un exemple.
Au cours de cette phase de mise en place qui suit immédiatement la phrase
d’entame, le chercheur peut avoir à maîtriser une difficulté, qui est celle du silence du
répondant. Ce silence n’est pas synonyme d’un refus de répondre. Il est en général le
signe que le répondant rassemble ses idées, et cherche à déterminer « par quel bout
commencer ». L’interviewer, surtout s’il est assez débutant dans la pratique des entre-
tiens, peut être gêné par ce silence 16. Il ou elle peut avoir la tentation d’intervenir
par des questions directives. Il y a là un gros danger. D’une part, si l’interviewer a
l’intention d’effectuer un ESDC, alors il n’a en général pas préparé ses questions, et il
risque donc fortement de poser des questions biaisées. D’autre part, en posant des
questions directes, l’interviewer signale implicitement que l’entretien sera conduit par
une série de questions, et il s’enferme alors dans un échange dans lequel le répondant
donnera des réponses brèves et attendra la question suivante. Le chercheur risque

14 Au cours de cette phase très préliminaire, on a deux phénomènes qui sont en cours. D’abord, la
relation entre le chercheur et le répondant est fragile : le répondant n’a pas encore manifesté avec
certitude qu’il va effectivement accepter de consacrer une heure de son temps pour fournir des don-
nées. Le chercheur peut, consciemment ou inconsciemment, craindre que la relation ne s’établisse
pas, que le répondant manifeste une réticence ou une opposition, voir qu’il mette fin à l’entretien
avant que l’entretien n’ait commencé. Ensuite, dans cette phase, c’est le chercheur qui est sur la sel-
lette, et qui doit répondre aux questions d’une de façon satisfaisante pour son interlocuteur. Or le
chercheur n’a pas d’information précise sur ce que le répondant attend, et le répondant peut formu-
ler des questions de façon assez incisive parce qu’il a besoin d’être rassuré sur le fait qu’il n’existe
pas d’enjeux cachés dans l’entretien, qu’il a besoin d’avoir une idée claire des conséquences possi-
bles que ses réponses peuvent avoir pour lui, et qu’il a besoin de tester le niveau de professionna-
lisme de l’interviewer : il serait réticent, à juste titre, à accepter de consacrer du temps à l’entretien
s’il avait l’impression d’avoir affaire à un chercheur qui est un amateur. Pour ces raisons, et parce que
le chercheur n’est pas forcément très sûr de lui et de ses compétences, cette phase initiale peut
comporter des germes de tension qu’il faut surmonter. Pour faciliter la gestion de cette phase, le
chercheur peut éventuellement faire une simulation du début d’entretien avec un collègue.
15 Nous utilisons ici des termes qui peuvent être employés avec les répondants. Les termes techni-
ques sont « entretien semi-directif centré », « entretien guidé », « questionnaire administré en face
à face », et « entretien non directif » (voir au paragraphe suivant). Bien entendu, ces termes font
partie du vocabulaire technique du chercheur et n’ont pas à être employé avec les répondants. D’une
part il n’est pas utile de le faire, et les répondants n’y accordent en général pas d’importance, et
d’autre part ces termes peuvent être nuisibles parce qu’ils apportent un sentiment de distance et
injectent le monde de la recherche dans l’entretien, alors qu’au contraire ce que le chercheur sou-
haite est d’atteindre une proximité avec le monde du répondant.
16 Il y a même souvent plus qu’une gêne, et, entre autres pour les chercheurs qui débutent dans la
pratique de l’entretien semi-directif, on n’est pas loin du bon terme si on parle d’angoisse : le répon-
dant va-t-il parler ? Va-t-il interrompre l’entretien avant qu’il ait commencé ?
112 L’entretien de recherche

ENCADRÉ 4.1
Un exemple de démarrage assez laborieux d’un entretien

Chercheur : Quelles ont été les principales formations suivies par les cadres dirigeants
dans votre entreprise au cours des deux ou trois dernières années ?
Répondant : Qu’est ce que vous appelez une formation ? Un processus peut être une
formation. Ou bien vous voulez simplement parler des formations qu’on appelle expli-
citement formations ?
C : Les deux, aussi bien les formations au sens très général du terme, processus
comme vous dites, que les formations au sens étroit du terme avec un formateur et des
formés.
R : Et vous me posez la question à moi dans mon cas particulier, ou bien vous me
posez la question sur ce que je vois autour de moi ?
C : Sur ce que vous voyez autour de vous, sur ce qui à votre avis marque le plus la
partie du groupe dans laquelle vous opérez et la partie du groupe dans laquelle vous
avez opéré éventuellement.
R : D’accord. Et puis, votre horizon, pourquoi vous limitez-vous à deux ou trois ans ?
Ça ne me paraît pas beaucoup.
C : Si c’est important de voir ce qui se passait avant, ça ne pose pas de problème.
R : D’accord. Bon, je vois à peu près clairement votre question. Je vais repartir chro-
nologiquement, donc, en partant du présent en allant vers le passé.
Puis le répondant développe longuement sa réponse à la question a.

a. L’entretien d’où est extrait ce début assez laborieux vient d’une série de 63 entretiens guidés sur la formation des cadres dirigeants. Pour informa-
tion, pratiquement tous les autres répondants dans cette enquête ont commencé à développer leur réponse directement après la première question, sans
avoir besoin de précisions complémentaires.

alors fortement de poser les questions sans structure et sans une formulation appro-
priée, et les données qu’il recueillera ne seront pas de qualité scientifique. Face au
silence initial du répondant, il suffit en général d’attendre quelques secondes 17.

4. Le guide de l’interviewer,
le guide d’entretien

Le guide de l’interviewer est la liste des thèmes auxquels l’interviewer s’inté-


resse, thèmes sur lesquels il est susceptible d’effectuer ses relances. Il doit comporter
les thèmes jugés pertinents par la littérature de recherche et/ou par les praticiens, les
thèmes pertinents par rapport à la problématique du chercheur, et les thèmes venant
de l’intuition et de l’observation. Ces thèmes seront replacés dans un cadre concep-
tuel globalement cohérent plus tard au cours de la recherche. L’ordre, la structure et la

17 Aux chercheurs qui débutent dans la pratique de l’entretien, il convient sans doute de dire que
ce silence d’au plus une dizaine de secondes paraît une éternité, et que des centaines d’interviewers
se sont trouvés à un moment ou à une autre dans cette situation, et ont survécu.
Le guide de l’interviewer, le guide d’entretien 113

formulation des thèmes n’ont presque pas d’importance pour un ESDC car les ques-
tions du guide de l’interviewer ne seront pas posées au répondant. Les thèmes de ce
guide sont un aide-mémoire qui signale au chercheur tous les éléments sur lesquels il
essaiera d’amener le répondant à s’exprimer de façon approfondie, mais seulement si
le répondant aborde ou mentionne le thème lui-même. Le guide de l’interviewer doit
être connu par coeur par l’interviewer.

La place à accorder dans un guide de l’interviewer aux thèmes jugés pertinents


par la littérature de recherche est sujette à controverse. Certains chercheurs considè-
rent qu’il ne faut pas en tenir compte dans les recherches exploratoires ou constructi-
vistes. Je considère pour ma part qu’il faut avoir une conception cumulative de la
science, et qu’à notre époque il est rare qu’un sujet de recherche soit complètement
nouveau. L’attitude qui consiste pour un chercheur à écarter a priori et systématique-
ment tous les résultats de recherches déjà obtenus par les centaines de chercheurs
qui l’ont précédé est à mon avis souvent d’un orgueil excessif et non justifié. Un « œil
neuf » sur un sujet de recherche est nécessaire, mais pas en négligeant ce qui est
acquis à moins qu’il n’existe de bonnes raisons de le faire. Lorsqu’on néglige la littéra-
ture de recherche dans l’élaboration d’un guide de l’interviewer, on court clairement le
risque de « réinventer la roue » 18.

Le guide de l’interviewer est un élément qui différencie fortement l’ESDC des


autres types d’entretiens 19 :

Dans un « entretien guidé », les questions sont posées au répondant. La perti-


nence et l’ordre des questions doit être appréciée avec les mêmes règles que celles
qui s’appliquent aux questionnaires. La liste des questions à poser s’appelle alors le
guide d’entretien 20. On peut dire qu’un entretien guidé à questions ouvertes est une
suite d’entretiens semi-directifs centrés. Lorsque les questions sont très ouvertes, ou
autrement dit lorsque les réponses qu’on attend des interviewés sont complexes, il est

18 Le pire serait naturellement de redécouvrir ce qui a déjà été vu et publié par d’autres chercheurs,
et de s’attribuer la paternité de cette découverte. La question de l’utilisation de la littérature dans la
conception de la recherche est un sujet de débat assez vif dans la communauté scientifique. Chaque
chercheur doit savoir que s’il tient compte des résultats des recherches antérieures il risque d’être
considéré comme un esprit étriqué par certains, et que s’il n’utilise pas la littérature pertinente, il
risque de se le voir reprocher par d’autres, dans le cas où, à cause de cette négligence, il y a des rai-
sons de penser qu’il est passé à côté d’éléments explicatifs des phénomènes de gestion sur lesquels il
conduit sa recherche.
19 La terminologie employée dans les trois alinéas qui suivent n’est pas entièrement fixée. Par
exemple, l’expression « entretien non directif » est utilisée avec des sens différents selon les
auteurs.
20 Comme les questions du guide d’entretien seront posées au répondant, il est nécessaire avant le
premier entretien de s’assurer du fait que leur formulation est correcte par rapport à la recherche,
dénuée d’ambiguïté, exprimées dans un langage adapté, non inductrices des réponses, et que les
questions sont posées dans un ordre qui facilite l’entretien. Ce premier test est la plupart du temps
effectué auprès d’un chercheur du laboratoire. Il est également nécessaire d’effectuer un pré-test
auprès d’un petit nombre de personnes appartenant aux catégories de personnes auprès desquelles
les entretiens seront conduits. On retrouve ici les règles de méthodes applicables aux questionnaires.
Le guide d’entretien est une première version du protocole d’analyse de contenu. Il est donc néces-
saire qu’il soit « saturé pour les théories » (voir plus haut la définition de la saturation théorique).
114 L’entretien de recherche

prudent d’avoir un bref guide de l’interviewer pour chacune des questions du guide
d’entretien 21.
Dans un « entretien non directif » il n’y a pas de guide d’entretien ni de guide
de l’interviewer. Selon les auteurs qui traitent de cette approche, l’entretien peut con-
tenir entre autres des interprétations faites par le chercheur « à chaud » en cours
d’entretien, qui sont proposées au répondant pour obtenir son opinion ou ses réac-
tions, il peut inclure des interventions effectuées en fonction de l’inspiration du cher-
cheur, ou un travail par lequel le chercheur cherche à amener le répondant à se
comprendre lui-même 22. D’une façon générale, ces méthodes sont plus utilisées en
psychologie, psychosociologie et en sociologie qu’en gestion. Il y a sans doute au
moins deux raisons à ce fait. D’une part les entretiens doivent sans doute être d’autant
moins directifs que les phénomènes sont plus complexes et moins connus. Les phéno-
mènes abordés dans les recherches en gestion sont un peu plus simples que ceux abor-
dés dans les trois autres disciplines mentionnées ci-dessus, et ils commencent à être
un peu connus après cinquante années de recherches 23. D’autre part, les entretiens
doivent sans doute être d’autant plus « cadrés » que les objectifs de la recherche sont
plus clairs, et en général les recherches en gestion sont plus focalisées sur des objec-
tifs que celles des autres disciplines. Sans savoir ce qu’on cherche, naturellement, on
sait néanmoins dans quelle zone on cherche et dans quel but on cherche.
Le chercheur peut également utiliser un « entretien mixte » : il commence par
un ESDC qui peut durer de 1/2 heure à 1 heure. Le répondant s’est alors exprimé sur
tous les sujets qu’il aborde spontanément, éventuellement avec des approfondisse-
ments suscités par les relances de l’interviewer (voir plus bas). Le chercheur termine
alors en posant directement celles des questions qui figurent sur son guide de l’inter-
viewer qui n’ont pas été abordées par le répondant. Il passe alors à une phase
d’entretien guidé. Concernant ces entretiens mixtes, l’analyse effectuée par le cher-
cheur devra naturellement faire la différence entre les données communiquées spon-
tanément et les données qui ont été recueillies dans la phase plus directive de
l’entretien guidé final 24.
Pour terminer, signalons que le guide de l’interviewer et le guide d’entretien
peuvent être fixes ou évolutifs.
Au démarrage d’une recherche, il est possible que les premiers entretiens
apportent beaucoup de surprises par rapport à la problématique du chercheur. Il est
également possible que le chercheur n’ait pas une problématique très fixée, et se
lance dans une série d’entretiens pour « prendre contact avec le terrain » et pour fixer

21 Il est possible qu’en cherchant à élaborer son guide d’entretien, le chercheur constate que son
sujet de recherche est trop vaste ou mal cadré C’est le cas quand les questions ouvertes qu’il faudrait
poser au répondant dépassent le nombre d’une quinzaine, ou quand elles n’ont pas une structure
d’ensemble claire.
22 Sur les entretiens non directifs et l’utilisation des entretiens dans les autres sciences humaines
que la gestion, voir notamment Grawitz (2001) et Blanchet et Gotman (1992).
23 La plus grande simplicité des recherches en gestion est toute relative. Si ces phénomènes
étaient simples, il n’y aurait pas besoin de recherche en gestion.
24 Dans un entretien mixte, le libellé et l’ordre des questions du guide de l’interviewer doivent res-
pecter les règles applicables aux questionnaires, puisque les questions sont susceptibles d’être
posées au répondant.
Le guide de l’interviewer, le guide d’entretien 115

la problématique qui sera la sienne. Dans ces situations, le guide d’entretien et/ou le
guide de l’interviewer varieront au cours de la séquence d’entretiens. Par exemple, le
chercheur partira avec un premier guide de l’interviewer G0, qu’il obtient à partir de
divers éléments (Figure 4.2). À partir de là, le chercheur conduit un premier entre-
tien, qui lui amène de nouveaux éléments, et en fonction de ce nouveau « morceau
de réalité » 25, il ou elle élabore un nouveau guide G1 qu’il utilisera pour son second
entretien. S’il a encore des surprises, alors leur prise en compte aboutira à un guide
encore modifié G2, etc. On a alors une séquence qui peut être schématisée comme
dans la Figure 4.2.

(1) la problématique de la recherche


(2) les apports de la littérature de recherche
(3) des idées diverses que le chercheur a eues
en faisant des premières observations
sur le terrain
(4) des écrits et des déclarations de
professionnels
(5) les intuitions du chercheur

Guide G0 Entretien E1 Guide G1

Entretien E2 Guide G2

Entretien E3 Guide G3

Entretien E4

FIGURE 4.2 – Une séquence possible du guide de l’interviewer ou du guide d’entretien


dans la phase exploratoire de la recherche

Le protocole désigné dans la Figure 4.2 est indicatif. Il est possible par exem-
ple que le chercheur fasse « une rafale » de trois ou quatre entretiens avec le guide
G0, puis tienne compte de ce qui lui a été apporté par cette rafale pour élaborer son
guide modifié G1, puis fasse une seconde rafale avant de passer au guide G2, etc.
Il est en un sens gênant que le guide de l’interviewer ou le guide d’entretien
soit évolutif : les données recueillies dans les entretiens successifs ne seront pas
comparables. On pourra effectuer une analyse de contenu qui révèle la richesse des
données, mais on ne pourra par exemple pas effectuer une analyse de contenu qui
révèle les structures comparées des réponses des interviewés. Le processus de modifi-
cation du guide s’arrête donc en général assez vite. Si un chercheur constate qu’après
quatre modifications de son guide d’entretien il ou elle a encore des surprises impor-
tantes, c’est probablement le signe qu’il y a un problème de fond dans sa façon

25 L’identification des éléments apportés par l’entretien peut être effectuée par une analyse de con-
tenu. L’analyse de ces éléments nouveaux peut conduire le chercheur à considérer qu’il faut effectuer
des observations additionnelles, effectuer un complément d’analyse de la littérature, etc. La façon de
prendre en compte ces éléments pour modifier la problématique et le dispositif de recueil et de trai-
tement des données varie naturellement selon la recherche.
116 L’entretien de recherche

d’aborder la recherche. Une remise en cause sérieuse s’impose sans doute, qui peut
être faite dans le cadre du dialogue avec d’autres chercheurs 26.

5. Les reformulations et les relances, le recentrage

Les reformulations et les relances sont des interventions de l’interviewer. Dans


l’entretien semi-directif centré, ces interventions sont soigneusement gérées pour
que les données recueillies conservent un caractère scientifique.
Deux préoccupations seront en filigrane dans ce qui suit :
– éviter le risque de biais, c’est-à-dire éviter que les interventions de l’inter-
viewer n’amènent le répondant à s’exprimer dans un sens qui ne reflète pas
fidèlement ce qu’il sait, ce qu’il a vécu, ce qu’il pense et ce qu’il ressent ;
– éviter le risque de variation. Il est fréquent que le chercheur souhaite comparer
les réponses de plusieurs personnes. Pour que ces réponses soient comparables,
il faut que la conduite de l’entretien soit la même dans tous les entretiens 27.

5.1 LES TYPES DE REFORMULATIONS ET DE RELANCES


Il existe de nombreuses formes de relances et de reformulations : la relance
par des « Oui… », la reformulation-résumé, la relance pour approfondissement, le
recentrage, la reformulation en écho, la reformulation inversée, la relance par con-
traste sémantique, et la relance évaluative. Nous les présentons tour à tour ci-des-
sous.
Une relance par des « Oui… » est en général suffisante pour que le répondant
sente que l’interviewer est bien « dans l’entretien » et qu’il poursuive son discours.
Les « Oui… » ne doivent pas pouvoir être interprétés comme signifiant
l’approbation donnée par l’interviewer aux propos du répondant, ou son étonnement
sur les informations qu’il recueille 28.

26 Ou avec le directeur de recherche dans le cas d’un thésard.


27 On a ici un principe scientifique simple. Si on a administré le même stimulus à plusieurs person-
nes, alors les différences entre les réponses viennent des répondants. L’application de cette règle
suppose que les stimulus soient les mêmes, et donc que dans les entretiens la phrase d’entame et les
modes d’intervention de l’interviewer soient les mêmes.
28 Les « oui… » marquent l’empathie. Pour respecter l’impératif de non-directivité, les « oui… »
ne doivent marquer ni la complicité, ni l’incrédulité. En pratique il n’est pas rare que cette neutralité
du chercheur soit perçue comme gênante par le répondant (Blanchet et Gotman, 1992 ; Bézille,
1985). Il arrive que les répondants demandent directement au chercheur s’il pense que les comporte-
ments, les phénomènes, et les modes de gestion dont on parle « sont les meilleurs », ou même « si
c’est normal ». Dans un ESDC, il convient au moins de ne pas répondre pendant l’entretien. Répondre
juste après l’entretien est possible si cette réponse n’a pas de conséquences sur la suite de la recher-
che. Par exemple il serait contre-indiqué de donner des évaluations, des jugements et des conclu-
sions « à chaud » s’il y a encore des données à recueillir dans la même organisation, et si le
répondant peut modifier ces données en communiquant l’avis du chercheur. De telles analyses sont
pourtant communiquées, mais en général plutôt après une analyse de l’entretien (et plutôt pas « à
chaud ») dans le cadre des « recherches-actions », des « recherches-interventions », et des
« recherches longitudinales ». Dans ces cas, il faut que la conception de la recherche intègre les pos-
sibilités d’influences mutuelles entre le chercheur et l’organisation qu’il ou elle étudie.
Les reformulations et les relances, le recentrage 117

La reformulation-résumé : l’interviewer résume dans ses propres termes ce que


le répondant vient de dire. Cette reformulation lui permet de vérifier qu’il a bien com-
pris ce que le répondant veut lui dire : le répondant corrige s’il ou elle estime qu’il y a
distorsion, ou s’il s’aperçoit grâce au résumé que la réponse qu’il a donné n’exprime
pas tout ce qu’il veut dire sur le sujet.
Il est très utile d’effectuer une telle reformulation (1) à chaque fois que
l’interviewer estime que le répondant vient de terminer ce qu’il a à dire sur une partie
de l’entretien ; (2) lorsque le répondant arrête de parler et ne semble pas être en
train de réfléchir à ce qu’il veut dire ensuite (dans ce dernier cas la reformulation est
en fait utilisée pour « relancer » le répondant). Toutefois, effectuer mécaniquement
une reformulation toutes les dix minutes peut donner à l’entretien une structure tem-
porelle forte et empêcher le répondant d’aller jusqu’au bout de ce qu’il veut exprimer.
Les reformulations-résumés permettent de s’assurer qu’on parle le même lan-
gage et qu’on s’est bien compris. Elles permettent de faire le point, de marquer la clô-
ture d’un sujet, et donc préparer le passage au sujet suivant, qui sera introduit par la
question suivante du guide d’entretien, ou par une relance pour approfondissement
s’il s’agit d’un entretien semi-directif centré (voir ci-dessous).
La relance pour approfondissement : lorsque le répondant a fini de s’exprimer
sur une question, l’interviewer sélectionne dans ce qui a été dit précédemment par le
répondant un élément qui a été mentionné spontanément par le répondant sans être
approfondi, qui porte sur un thème de son guide de l’interviewer (ou sur un thème qui
est intéressant par rapport à son objectif de recherche mais n’est pas dans son guide),
et il ou elle invite le répondant à s’exprimer sur cet élément. La question est dans ce
cas formulée en reprenant les termes mêmes avec lesquels le répondant s’est exprimé.
Le recentrage : si le répondant s’éloigne du sujet, l’interviewer rappelle la
phrase d’entame pour « recentrer » l’entretien. Par définition, l’ESDC est « centré »
sur le sujet de la recherche, et même recentré si nécessaire. Avec la phrase d’entame,
les recentrages sont les seules interventions du chercheur qui soient directives.
Il n’est pas toujours facile de savoir si le répondant s’éloigne du sujet, ou si ce
qu’il dit est en réalité et tout à la fois (1) relié au sujet selon lui (consciemment ou
pas), et (2) éloigné du sujet pour le chercheur parce que ce dernier a une conception
erronée du sujet. Donc, pour effectuer un recentrage, le chercher peut trouver utile de
demander au répondant quel lien il voit entre ce qu’il dit et le thème de l’entretien tel
qu’il a été fixé dans la phrase d’entame.
Certains chercheurs utilisent d’autres modes de reformulation et de relance, qui
sont un peu (ou beaucoup) plus perturbateurs que celui que nous avons mentionné.
Quelques unes de ces possibilités sont mentionnées ci-dessous.
Pour relancer l’entretien et maintenir sa dynamique de façon neutre, certains
chercheurs utilisent la reformulation en écho, qui consiste à répéter la dernière
phrase du répondant en terminant sur un ton suspensif, de façon à inviter implicite-
ment le répondant à continuer.
Dans la reformulation inversée, si le répondant dit en substance « dans notre
équipe projet on est plus soudé que dans les autres », alors le chercheur « résume »
en prononçant la phrase : « Les autres équipes sont moins soudées… ». D’un côté on
118 L’entretien de recherche

a un « test de robustesse » de la déclaration du répondant, mais bien entendu, on ris-


que de donner à la relation interviewer-interviewé une tonalité qui dépasse le recueil
de données avec neutralité.
Dans la relance par contraste sémantique, après une déclaration dans laquelle
le répondant utilise une expression du type « Dans notre département (nous opérons
de telle ou telle façon) », le chercheur pourra relancer avec une phrase du type « Et
comment ça se passe dans les autres départements ? » De nombreux autres types de
contrastes sémantiques peuvent être utilisés, par exemple :
– vous vs les autres ;
– avec cette technique vs avec d’autres techniques ;
– ici vs ailleurs ;
– maintenant vs avant vs à l’avenir ;
– ce qu’on a constaté vs ce qu’on attendait.
Bien entendu il est éminemment souhaitable que l’entretien reste focalisé sur
les thèmes utiles pour la recherche, et que l’interviewer n’introduise pas sans une
bonne raison un élément que le répondant ne mentionne pas.
Les relances évaluatives, du type « Est-ce que vous appréciez (cette méthode
de gestion, ce genre de travail, etc.) ? » ou « Qu’est-ce que vous souhaiteriez dans ce
domaine ? », sont à gérer avec le plus grand soin. En particulier, si la recherche est
focalisée sur l’organisation du répondant (l’entreprise ou le département dans lequel
il travaille) et si surtout si la recherche est faite sur demande de l’encadrement ou de
la direction, de telles questions peuvent donner à penser au répondant qu’il y a peut-
être des projets de changement et que l’entretien comporte une phase de « sondage
informel ». De telles questions ne sont pas à écarter a priori, mais la décision de les
utiliser et le traitement des données qui en résultent demandent une réflexion atten-
tive.

5.2 LA DIFFICULTÉ DE L’INTERVIEWER À MAÎTRISER LES REFORMULATIONS


ET LES RELANCES

La maîtrise des reformulations et des relances est un art difficile. D’abord elle
impose une capacité d’attention très importante, ensuite elle exige de savoir interve-
nir sans introduire de biais dans toute la mesure du possible.
Un entretien exige des capacités d’attention et de mémoire en général mobili-
sées au maximum et en permanence.
Si on reprend la Figure 4.1, on voit que l’interviewer doit connaître son guide
de l’interviewer par cœur. Il ou elle doit noter mentalement sans interrompre ou alté-
rer l’entretien que le répondant est en train de mentionner un thème du guide de
l’interviewer, mais qu’il ne le traite pas complètement (parfois il y a une simple brève
mention en passant). Ce thème doit être gardé en mémoire.
L’interviewer doit aussi noter mentalement les thèmes évoqués par le répon-
dant en cours d’entretien, qui ne sont pas dans le guide de l’interviewer, mais qui
paraissent intéressant pour la recherche. Cette identification n’est ni facile ni
objective : on peut facilement passer à côté d’un élément intéressant parce qu’on a
Les reformulations et les relances, le recentrage 119

l’attention complètement mobilisée par l’entretien qui se déroule et par la nécessité


de garder en mémoire le guide de l’interviewer. L’élément intéressant pourra ensuite
être identifié par analyse de contenu, mais on sera alors après l’entretien, et on aura
perdu l’opportunité de poser une question d’approfondissement.
Cette identification des thèmes de relance (ceux qui sont dans le guide de
l’interviewer comme ceux qui sont intéressants) n’a rien de simple dans la mesure où
il faut « rester dans l’entretien », conserver le contact visuel avec le répondant et res-
ter naturel, tout en ayant complètement en tête le guide de l’interviewer pour ne pas
oublier de noter les thèmes qui passent.
Souvent il y aura progressivement de l’ordre d’une dizaine de thèmes de
relance ainsi notés en mémoire, alors qu’on est toujours dans l’entretien, qu’on fait
les reformulations-résumés quand c’est nécessaire, etc. Bien entendu, on peut voir
arriver des thèmes qui appellent des relances pour approfondissement en milieu
d’entretien, quand le répondant est en train de s’exprimer sur une question elle-même
introduite par une relance.
La « charge cognitive » de cette activité de mémorisation des relances à faire
est très importante 29.
La maîtrise du processus de relance est également exigeante dans la mesure
où, comme le chercheur intervient et comme il veut que son intervention soit la
moins perturbatrice possible, il est nécessaire de s’entourer de précautions pour évi-
ter les biais qui diminueraient le caractère scientifique des données recueillies.
Pour ce faire, dans la relance pour approfondissement, le chercheur intervient
en général par une question ou une phrase qui reprend les termes mêmes avec les-
quels le répondant s’est exprimé. L’idée est ici encore d’être le moins directif possible,
et d’éviter de « polluer l’entretien » en confrontant le répondant avec le vocabulaire
du chercheur, voire même ses valeurs, ses préférences et ses jugements.
En pratique le chercheur a souvent la tentation, presque irrépressible, d’inter-
venir par une « question directe », une question « qui lui brûle la langue », ou un
commentaire évaluatif.
On a ici une grande difficulté à surmonter pour les chercheurs qui débutent
dans la pratique des entretiens, et un point qui reste à surveiller en permanence pour
les chercheurs confirmés.
Dans l’esprit d’un entretien qui influence les réponses aussi peu que possible
et qui est basé sur la confiance entre le chercheur et le répondant, il faut sans doute
ne pas utiliser des reformulations et des relances qui peuvent implicitement suggérer
que l’interviewer se demande si l’interviewé dit ce qu’il pense, s’il pense ce qu’il dit,
ou s’il a dit tout ce qu’il sait. Le chercheur peut avoir de la difficulté à percevoir le
caractère perturbateur de ses propres interventions. La question est celle de la per-
ception de ce qu’on dit par l’interlocuteur. Ce dernier peut percevoir des évaluations
et des sous-entendus que l’interviewer n’a aucune intention d’introduire.

29 Notamment pour les chercheurs qui débutent dans la pratique de l’entretien (mais pas seulement
pour eux), il est fréquent de sortir épuisé physiquement d’un entretien semi-directif centré d’une
heure et demie.
120 L’entretien de recherche

Par exemple, dans une phase d’entretien portant sur l’utilisation d’une
méthode de gestion, alors que dans les phases précédentes le répondant s’est exprimé
sur l’entreprise en général, il répond cette fois spécifiquement sur son département.
La relance du chercheur est alors :
Pour votre département comme pour les autres départements ?

Et la réponse est :
Oui. Il y des départements, mais on n’est quand même pas chacun dans une tour de Babel :
il y a toute une série d’activités qui sont conduites conjointement.

La réponse peut être interprétée comme défensive, dans la mesure où le cher-


cheur sait, d’après les entretiens précédemment conduits dans l’entreprise, que la
question des relations entre les départements est une question sensible.
Le chercheur souhaite alors « recadrer l’entretien » 30 en précisant :
Je pensais moins à une question de conflits ou de difficultés de relations qu’à la différence
entre les compétences des départements, avec votre département qui est plus sur (tel ou tel
sujet) 31.

Pour s’améliorer dans sa conduite des entretiens, et se perfectionner dans la


gestion et le contrôle des relances, il est conseillé de faire après l’entretien une ana-
lyse ex post (un debriefing) pour identifier la qualité des relances qui ont été faites, et
les « occasions de relances manquées ». Cette analyse est souvent faite sur la base de
la transcription de l’entretien plus que par écoute de la cassette d’enregistrement.
L’analyse est encore meilleure si elle est faite avec une personne externe. De telles
analyses ex post sont indispensables :
■ Au début d’une recherche, pour être sûr qu’on est « sur les rails ».
■ Quand une recherche implique plusieurs interviewers, pour vérifier que tous les
interviewers ont les mêmes styles et qualités de relance.
■ Pour les chercheurs débutants, jusqu’au moment où ils ont produit à la suite
deux ou trois entretiens qui ont été bien conduits.
Trois remarques pour terminer cette partie sur les reformulations et les
relances :
■ Il est en général impossible, sauf sur les sujets de recherche simples, de faire
des relances sur l’ensemble des thèmes, c’est-à-dire d’avoir des réponses tota-
lement approfondies sur tous les thèmes du guide de l’interviewer. Il y a un

30 On pourrait être tenté de dire que le chercheur veut « rattraper son erreur », mais il n’a en fait
pas évoqué la question des relations entre les départements. Il a suffi qu’il mentionne « le
département » et « les autres départements » dans la même phrase pour susciter une réponse un peu
sèche.
31 Dans la recherche d’où est issu cet extrait d’entretien, la question des relations entre les dépar-
tements est par ailleurs abordée, dans la mesure où elle a une influence sur le sujet de la recherche.
Mais elle est abordée en prenant les précautions nécessaires concernant les sujets délicats, selon les
méthodes vues plus haut.
Les premiers entretiens 121

jugement à exercer de la part du chercheur, et de la part de la communauté


scientifique, sur « la qualité des données ».
■ Il n’est pas rare qu’un répondant soit très disert sur certaines parties de
l’entretien, au point qu’au bout de 45mn le chercheur a l’impression que si les
choses continuent sur le même mode, il n’aura qu’une partie des données qui
l’intéressent. C’est le cas par exemple dans un ESDC quand le chercheur a en
mémoire une quinzaine de sujets de relance alors qu’on est dans le dernier
tiers de l’entretien. C’est le cas aussi quand le chercheur conduit un entretien
guidé avec douze questions et qu’il est encore à la quatrième question alors
que plus de la moitié du temps normalement imparti est passée. Il n’y a pas de
règle fixe pour traiter ce genre de situation. Si les données apportées sont très
intéressantes, il est probablement utile de laisser continuer l’entretien, quitte
à avoir un entretien qui ne sera pas comparable aux autres. Alors on accepte
de diminuer le nombre d’entretiens utilisés dans la recherche comparative tout
en ayant des données additionnelles peut-être remarquables. Dans d’autres
cas, le chercheur préfèrera « intensifier l’entretien » pour faire en sorte d’avoir
des réponses raisonnablement détaillées sur tous les thèmes qui l’intéressent,
ce qui lui permettra d’enrichir sa recherche comparative, au risque de passer à
côté d’une observation fortement productrice de savoir. Cette
« intensification » demande que le chercheur « casse le style de l’entretien »
en le rendant plus directif. Cette rupture du rythme de l’entretien n’est pas
facile à gérer, et les données recueillies sur la dernière partie de l’entretien ris-
quent d’être superficielles.
■ Le maintien d’un style fluide dans l’entretien demande sans doute que le cher-
cheur reste sur une dose modérée d’interventions et de relances, qu’il ou elle
accepte les silences du répondant et sache les interrompre.

6. Les premiers entretiens

Les premiers entretiens qu’un chercheur conduit dans sa vie ne peuvent pas en
général être utilisés comme matériau de recherche. Le chercheur s’aperçoit surtout
des erreurs qu’il commet.
Les premiers entretiens conduits par un chercheur au début de son travail sur
un sujet doivent être suivis d’un examen attentif (1) de la pertinence du guide de
l’interviewer et du guide d’entretien s’il y en a un ; (2) du degré de différence entre ce
qu’on attend et ce qui arrive ; et (3) de la pertinence du sujet de recherche et de la
méthode choisie.
On peut par exemple constater que, dans le temps que le répondant peut con-
sacrer à l’entretien, il n’est pas possible d’aborder en profondeur plus de la moitié des
thèmes que le chercheur souhaite aborder. Il faut alors probablement revoir la con-
ception de la recherche.
Même si ce n’est pas agréable à constater, il faut admettre que les phénomènes
de gestion sont souvent très complexes, le fonctionnement des organisations, des
entreprises et des clients aussi, et il faut admettre qu’il existe des sujets intéressants,
122 L’entretien de recherche

probablement très utiles par leurs applications possibles, sur lesquels en l’état actuel
des choses il n’est pas possible de conduire une recherche scientifique par le moyen
d’entretiens (ou même par d’autres moyens).

7. La relation entre entretien


et analyse de contenu

On ne peut pas traiter des entretiens sans évoquer ne serait-ce que brièvement
leur relation avec l’analyse de contenu 32.
La prise en compte de l’analyse de contenu est conseillée :
– quand on fabrique le guide d’entretien et le guide de l’interviewer ;
– avant le premier entretien ;
– après les cinq ou six premiers entretiens ;
– tout au long des entretiens au cours de la phase exploratoire.
Le guide d’entretien et le guide de l’interviewer contiennent des thèmes sur
lesquels on apprécierait que les répondants d’expriment, et sur lesquels on les relan-
cera s’ils les mentionnent sans les traiter de façon approfondie. Donc, normalement,
ces thèmes seront utilisés dans la suite de la recherche et feront partie du protocole
d’analyse de contenu avec lequel on traitera les comptes rendus d’entretiens. Il est
donc prudent, une fois le guide de l’interviewer stabilisé, de se demander comment on
le prendra en compte dans l’analyse de contenu des transcriptions des entretiens
qu’on fera.
Il est vivement conseillé, avant même le premier entretien :
■ d’écrire de quelle façon on s’y prendra pour analyser le contenu des entretiens ;
■ de vérifier la faisabilité de cette analyse de contenu ;
■ de vérifier la cohérence entre les six éléments suivants :
– le sujet de recherche ;
– la littérature de recherche ;
– la méthode choisie ;
– le guide de l’interviewer et, éventuellement, le guide d’entretien,
– l’analyse de contenu ; et
– les phases ultérieures du travail (questionnaire, analyse de contenu, obser-
vations, méthodes quantitatives, etc).
L’idée, dans cette vérification, est d’éviter de se lancer dans un recueil de don-
nées si on n’a pas une idée raisonnablement claire de la façon dont on va exploiter les
données ensuite. Cette précaution est particulièrement recommandée dans la mesure
où les entretiens, particulièrement quand ils sont semi-directifs, prennent beaucoup
de temps aussi bien pour les faire que pour les transcrire.

32 Concernant l’analyse de contenu, nous avons vu dans la note 7 du paragraphe 2 que cette
méthode doit s’entourer de précautions importantes pour assurer la scientificité, compte tenu du fait
qu’elle est un traitement subjectif de données qualitatives.
La relation entre entretien et analyse de contenu 123

Cette vérification est aussi recommandée après qu’une première série d’entre-
tiens ait été effectuée. On dispose alors d’une première base de données sur laquelle
on peut effectuer une simulation du traitement des données 33. Il est encore temps de
modifier la conduite des entretiens à ce stade de la recherche.
Comme on l’a vu plus haut, quand la recherche en est à une phase exploratoire,
ou quand il y a trop de différences entre ce à quoi on s’attend et ce qu’on trouve dans
les entretiens, alors le chercheur est amené à modifier le guide de l’interviewer pour
tenir compte des nouvelles données recueillies. Ces nouvelles données peuvent venir
de l’analyse de contenu des premiers entretiens.
L’analyse de contenu consiste à identifier l’occurrence de thèmes dans un
objet, par exemple dans une transcription d’entretien. Si on dispose d’une liste de
thèmes avant de commencer, cette liste s’appelle couramment « le dictionnaire des
thèmes ». Comme on verra plus bas, il est possible, quand on analyse la transcription
d’un entretien donné, d’identifier non seulement des éléments qui sont dans le dic-
tionnaire des thèmes, mais aussi d’autres éléments qui paraissent intéressants pour la
recherche bien qu’ils ne figurent pas dans le dictionnaire des thèmes actuel.
Il existe plusieurs sortes d’analyses de contenu. On dit que l’analyse de con-
tenu est :
– « formatée » si les thèmes sont fixés avant l’entretien ;
– « semi-formatée » si une partie des thèmes est fixée avant l’entretien, mais que
le chercheur se laisse la possibilité de découvrir de nouveaux thèmes au cours
de l’analyse de contenu ;
– « ad hoc » si les thèmes « saillants » sont identifiés dans le matériau « sans
hypothèses préalables ni présupposé » ;
– « cumulative » si dans l’analyse de contenu de l’entretien numéro n on repère
systématiquement l’occurrence des thèmes identifiés dans les entretiens 1, 2,
…, n-1 ;
– « complète et ad hoc », si on identifie les thèmes de façon ad hoc dans chaque
entretien, qu’on rassemble l’ensemble en un dictionnaire des thèmes, et qu’on
réeffectue l’analyse de tous les entretiens avec ce dictionnaire comme clé
d’analyse. Ce travail est bien entendu très exigeant et rigoureux et long.
L’utilisation de l’une ou l’autre de ces méthodes d’analyse de contenu dans les
premières phases de la recherche, sur les premiers entretiens, peut conduire à des gui-
des de l’interviewer finalement différents. Il convient donc d’examiner ces différentes
possibilités. La première peut par exemple conduire à supprimer du guide de l’inter-
viewer des thèmes qui ne sont apparus dans aucun des dix premiers entretiens, sans
chercher à identifier des thèmes qui apparaissent comme intéressants pour le sujet de
recherche et qui ne sont pas dans le guide de l’interviewer, donc dans le dictionnaire
des thèmes fixe qu’on utilise. Cette conduite de la recherche est plutôt « fermée »,
elle a le mérite de la simplicité, mais naturellement elle est susceptible de laisser le

33 Nous appelons cette opération simulation parce qu’on effectue les mêmes opérations qu’on
effectuera quand on aura rentré tous les entretiens, mais sur une base très limitée. Les résultats sont
scientifiquement peu significatifs. On a cependant un bon test de la viabilité de la méthode.
124 L’entretien de recherche

chercheur passer à côté d’innovations en gestion et d’idées de liens de causalités pou-


vant faire progresser la connaissance s’ils sont validés.
L’analyse de contenu doit naturellement, comme toute méthode qualitative ou
quantitative de recherche, faire l’objet d’une analyse critique. Sur ce point nous ne
verrons ici qu’un élément. Il est souvent opportun, face au contenu d’un entretien, de
se poser la question suivante : les thèmes repérés par l’analyste sont-ils réellement
les plus importants pour l’interviewé, et/ou les thèmes les plus importants pour
l’explication des phénomènes étudiés dans le cadre de la recherche ? Ces deux sortes
d’importance sont différentes. Par exemple, dans l’achat d’une voiture par un particu-
lier, les données les plus importantes pour l’interviewer peuvent ne pas inclure les
réactions de l’entourage familial, ou l’exposition aux bandeaux publicitaires Internet,
alors que ces éléments sont inclus dans le modèle explicatif des comportements
d’achat que le chercheur veut tester.

8. Qualité et validation des contenus


d’entretiens

Face à toute transcription d’un entretien de type ESDC, on doit se poser des
questions sur la qualité des données :
■ dans quelle mesure l’entretien m’apporte toutes les informations que je
recherchais ? Si la réponse est non, alors il faut noter ces éléments et :
– voir comment modifier la conception et la conduite de l’entretien pour amé-
liorer la qualité des données recueillies ;
– voir dans quelle mesure il est possible de se « rattraper » au cours d’un
entretien ultérieur avec la même personne ou au cours d’un entretien avec
une autre personne qui disposera des mêmes données (c’est rarement le cas,
sauf pour des données simples qui ne sont en général pas celles qu’on veut
obtenir dans une recherche) 34 ;
– voir dans quelle mesure les données ne sont pas trop « sensibles » pour
qu’on puisse les obtenir, même dans un ESCD bien conduit. Si c’est le cas,
alors il faudra peut-être reconsidérer le sujet de recherche.
■ ai-je bien conduit l’entretien ? comment aurais-je pu faire mieux, et
autrement ? Ici, l’analyse peut s’inspirer de ce que nous avons vu plus haut
dans les paragraphes 2 à 5 : la phrase d’entame est-elle efficace ? la gestion
du début de l’entretien est-elle bien conduite ? les relances sont-elles
appropriées ? etc.
■ dans quelle mesure les données que j’obtiens se « triangulent » avec celles que
j’ai obtenues dans les entretiens précédents, ou dans les observations ? La
réponse à cette question sous forme précise viendra de l’analyse de contenu.

34 Ceci arrive par exemple quand, après un entretien guidé, le chercheur s’aperçoit qu’il y a des
questions qu’il n’a pas eu le temps de poser. C’est aussi le cas si, dans un ESDC, le chercheur s’aper-
çoit au moment de l’analyse de contenu qu’un thème intéressant a été abordé mais n’a pas fait
l’objet de relance. Le chercheur peut éventuellement recontacter l’interviewé.
Qualité et validation des contenus d’entretiens 125

Mais comme les analyses de contenu sont conduites avec un certain décalage
dans le temps par rapport à la « rafale » des entretiens par laquelle on passe
fréquemment, il faut effectuer ce pilotage des entretiens en temps réel au
moins de façon rapide.

Ces questions vis-à-vis du caractère complet et triangulé des contenus des


entretiens sont importantes pour la raison suivante : elles amènent à identifier des
données manquantes et des problèmes de cohérence inter-entretiens, et le chercheur
peut alors les incorporer dans le guide de l’interviewer qu’il utilisera dans la suite.
Cette analyse de la qualité des données, et les actions d’amélioration qu’elle
entraîne, doivent souvent intervenir de façon intense dans le début de la recherche.
Dans de nombreux projets de recherche vient un moment où il faut conduire un nom-
bre important d’entretiens avec un protocole fixe pour effectuer une analyse compara-
tive scientifiquement pertinente. Quand cette partie du recueil des données est
lancée, le chercheur ne peut plus effectuer d’amélioration.
Un autre aspect de mesure de la qualité des données et de la validation du
contenu des entretiens est celui de la confrontation de l’entretien avec le répondant.
Que le répondant ait dit ce qu’il a dit ne pose pas de problème si l’entretien a été
enregistré 35. La question se pose naturellement de savoir comment traiter des don-
nées que le répondant veut ajouter après lecture de la transcription. Ces ajouts sont
susceptibles de contenir des éléments auto-justificateurs. Sans doute faut-il les trai-
ter à part de toutes façons, car ils ne sont pas venus dans le cadre direct de l’entre-
tien. Le chercheur doit réfléchir, avant même de conduire ses entretiens, à l’impact
possible de ce traitement différencié de parties de texte 36.
Pour terminer sur la validation, rappelons que l’entretien fournit des données
communiquées par un sujet, donc des données au moins en partie subjectives. Obte-
nir des données valides suppose qu’on s’intéresse à la vision du répondant et à son
vécu, et qu’on cherche aussi à voir à quel degré ces données sont « reliées au réel ».
Par exemple : les faits relatés par l’interviewé ont ils été vécus par lui ? sinon quelles
sont ses sources d’information ? s’agit-il de « faits bruts » ? ou d’interprétations que
l’interviewé s’est forgé ? ou d’interprétations qui sont couramment admises dans tout
ou partie de son milieu ?
Certaines des données sont « subjectives par nature », par exemple quand
elles concernent les croyances, les préférences, les principes et valeurs du répondant.
Le chercheur peut souvent mieux « ancrer ces données dans la réalité » en demandant

35 Il est vivement conseillé de demander au répondant l’autorisation d’enregistrer. Cette autorisa-


tion est donnée dans la très grande majorité des cas. L’enregistrement est en pratique rarement
gênant et perturbateur. La prise de note est au moins aussi gênante que l’enregistrement pour le
répondant, et même pour le chercheur, qui alors perd une bonne part de la qualité de contact dans la
mesure où il est surtout occupé à prendre des notes. De plus, la prise de note sans enregistrement
fait perdre une grande partie du contenu de l’entretien. Le chercheur ne peut même pas avoir la
garantie qu’il a noté l’essentiel.
36 Il n’est pas rare qu’en réponse à une démarche de validation le répondant exprime le souhait
qu’une partie de l’entretien soit citée sans mention de la source, par exemple s’il estime que la publi-
cation de cette partie du texte accolée à son nom peut le placer dans une situation délicate ou dan-
gereuse.
126 L’entretien de recherche

des exemples de mise en œuvre. Par exemple, si un répondant déclare « pour moi le
client et le personnel, ça passe avant tout », le chercheur pourra orienter les relances
pour amener le répondant à décrire des situations concrètes dans lesquelles il a des
contacts avec les clients et le personnel, et qui permettent de voir comment le prin-
cipe général est mis en pratique 37.
Certaines données sont des principes généraux relatifs à des actions et à des
méthodes de gestion, ou des descriptions générales de méthodes sans illustrations
concrètes. Ces données sont utiles seulement si le chercheur s’intéresse aux
« théories affichées » du répondant, c’est-à-dire à ce qu’il pense mettre en pratique
ou à ce qu’il prétend mettre en pratique. Dans ce cas, le chercheur pourra utiliser une
phrase d’entame du type « La gestion des projets d’innovation, comment ça se passe
chez vous ? »
Si ce qui intéresse le chercheur est plutôt la « théorie en usage » du répondant
(c’est-à-dire ce qui se passe dans la réalité) 38, alors le chercheur fera plutôt porter
l’entretien sur ce qui s’est passé concrètement dans un projet d’innovation récent, ou
s’il a le temps sur deux projets concrets (l’un plutôt satisfaisant, l’autre plutôt déce-
vant), quitte ensuite à « monter d’un cran » en demandant au répondant « si ça se
passe de la même façon pour les autres projets ».

9. ESDC et méthodologie de la recherche

Comme dans le cas des méthodes quantitatives (par exemple l’approche


« multitraits-multiméthodes »), il est souvent très productif de chercher la
« triangulation méthodologique » en comparant les données produites :
– par des méthodes qualitatives diverses : entretiens avec des personnes diffé-
rentes, ESDC et/ou entretiens guidés et/ou questionnaires, analyse de dossiers
de salariés ou de profils d’achat, analyse de contenu de documents de l’entre-
prise, entretiens individuels et entretiens de groupe, observations participan-
tes ou non, etc. ;
– par un ensemble de méthodes qualitatives et de méthodes quantitatives.
Par exemple, pour étudier les rôles, les comportements, les cartes mentales et
bien d’autres sujets concernant une personne, il est souvent nécessaire de conduire
des entretiens non seulement avec la personne mais aussi avec quelques personnes de
son entourage.
La validité des résultats est notablement renforcée quand plusieurs sources et
plusieurs méthodes apportent en « tir groupé » des résultats similaires, concordants

37 Le chercheur peut aussi penser à effectuer une relance du type : « Si on prend par exemple ce
que vous avez fait la semaine dernière, l’importance des clients et du personnel, ça se manifeste
comment ? » Une telle relance risque d’amener une réponse de justification. Par contre, cette relance
est sans doute très efficace s’il est prévu que le chercheur fasse ensuite des entretiens avec des
clients et des membres du personnel.
38 Les expressions « théories affichées » et « théories en usage » ont été forgées par Argyris et
Schon (1978).
Le temps et le lieu de l’entretien, l’environnement social de l’entretien 127

ou cohérents. En même temps cette approche permet, par l’identification des diffé-
rences et des divergences éventuelles, de voir dans quelle mesure la problématique de
la recherche est assez bien fixée, et les concepts assez bien définis et opérationnali-
sés. Ceci permet souvent aussi d’identifier des facteurs de contingence auxquels on
n’avait pas prêté attention. Selon le stade de la recherche auquel on se trouve, on
tient compte de ces facteurs dans la suite de la recherche, ou on les note comme élé-
ments pour des recherches futures.
La triangulation ou la combinaison de méthodes n’est pas une simple accumu-
lation. Lorsqu’une telle approche est adoptée, il faut se demander quelle est la perti-
nence d’ensemble de la combinaison de méthodes, et ce qu’on gagne réellement en
utilisant plusieurs méthodes. Cette question est importante quand on est en train
d’élaborer ou d’ajuster la méthode de recherche : les coûts induits par l’utilisation de
plusieurs méthodes doivent être évalués. Ils sont souvent importants.

10. Le temps et le lieu de l’entretien,


l’environnement social de l’entretien

Les entretiens peuvent être effectués dans les temps et les lieux les plus
divers :
Le premier cas est celui des entretiens portant sur un sujet lié au travail ou à
l’expérience professionnelle, ou à l’entreprise du répondant, avec un entretien qui est
effectué sur le lieu de travail. Dans ce cas il faut l’accord au moins informel de la
direction et de l’encadrement. Les conditions de confidentialité du contenu de l’entre-
tien sont difficiles à garantir si le lieu de travail n’est pas un bureau individuel :
bureau paysager, bureau partagé, atelier, chantier, hangar de stockage, lieu de pause,
etc. Nombre des lieux d’entretien mentionnés ci-dessus ne permettent en pratique
que des entretiens brefs, sans doute au plus une vingtaine de minutes. L’ambition du
recueil de données doit être ajusté en conséquence.
Dans un second cas, on a les entretiens portant sur le travail ou l’entreprise du
répondant, et qui sont effectués dans des lieux autres que le lieu de travail. Ces lieux
d’entretien peuvent être divers : salle d’embarquement d’un aéroport, café, espace de
bureau mis à disposition par une autre entreprise que celle du répondant, domicile du
répondant, etc. Dans ces conditions, il peut y avoir des difficultés d’enregistrement,
et le chercheur doit veiller avec un soin tout particulier aux conditions de confidenti-
alité. La durée disponible est alors très variables : parfois on peut effectuer des
entretiens de longue durée en profitant de moments qui sont en quelques sorte des
périodes « de suspension hors du temps », mais parfois aussi ces temps et lieux de
passage apportent des contraintes fortes sur la durée de l’entretien. On a fréquem-
ment les mêmes difficultés pour les entretiens effectués sur les lieux de
consommation : magasin, supermarchés, salles de sport, etc.
L’un des éléments importants dans le temps et le lieu de l’entretien est celui de
l’environnement de l’entretien : le répondant est susceptible de ne pas réagir de la
même façon selon que sa hiérarchie et ses collègues de travail le voient en train
128 L’entretien de recherche

d’avoir un entretien avec une personne extérieure, selon qu’il est entouré par la situa-
tion de gestion dont on parle dans l’entretien ou au contraire distancié de cette situa-
tion 39.

La question du temps de l’entretien a d’autres aspects :

■ Le contenu d’un entretien est susceptible d’être « coloré » par les préoccupa-
tions principales du répondant au moment où il se déroule : la période de clô-
ture des comptes dans un service comptable, la période souvent très chargée
et tendue qui marque la fin d’un projet d’innovation ou la mise en œuvre d’un
logiciel, la période qui suit immédiatement une réunion difficile ou un conflit,
etc.

■ Des « périodes de grâce » existent, au cours desquelles le temps prend souvent


une dimension plus élastique : la fin de journée ou la fin de semaine, les mois
de juillet et août, les périodes brèves qui suivent immédiatement la fin d’un
projet 40, les demi-journées libérées à la dernière minute parce qu’une réunion
a été annulée, etc.

■ Il arrive que le répondant annonce en début d’entretien qu’il a une contrainte


et qu’il n’aura qu’une bonne vingtaine de minutes à consacrer à l’interviewer,
alors qu’il était convenu que l’entretien durerait une bonne heure 41. On doit
alors se poser quelques questions : dans quelle mesure un tel entretien est
utile pour la recherche ? est-ce que ma position vis-à-vis de la personne que je
contacte me permet de lui demander une heure d’entretien à une date
ultérieure ? dois-je quand même accepter l’entretien, même si c’est peu utile
pour la recherche 42, pour des raisons relationnelles 43 ? Le chercheur doit donc
être prêt à répondre aux questions ci-dessus immédiatement, et donc il con-
vient sans doute qu’il réfléchisse avant à la façon dont il répondra dans ce type
de situation. Le chercheur a le même genre de problème à résoudre s’il
demande un entretien d’une heure environ et que, au cours de l’entretien télé-

39 Par exemple concernant un recueil de données qui porte sur le travail du répondant, s’il est
effectué par un entretien effectué au pied des machines ou dans le bureau, le répondant aura sous
les yeux en permanence les dossiers, les installations, et tout ce qui lui rappelle les événements
quotidiens : ceci facilite la mémorisation mais en revanche, gêne peut-être la prise de distance. Un
entretien sur le même thème conduit hors de l’entreprise permettra au répondant, en un sens à la
fois physique, cognitif et affectif, de « voir les choses de plus loin ».
40 Ici on a à la fois le relâchement après une période de tension passée, et l’absence momentanée
de tension future.
41 Cet alinéa et le suivant mentionnent des cas dans lesquels le chercheur dispose pour l’entretien
de moins de temps que prévu. Le cas inverse est fréquent. Les répondants sollicités pour un entre-
tien « d’une bonne heure » accordent en pratique assez souvent un entretien qui dure une heure et
demie ou plus.
42 Il y a toujours en pratique une petite utilité : on a rencontré une personne de plus, on a glané
quelques données du terrain, etc. D’une façon très prosaïque, on a un entretien de plus dont on peut
faire état dans le compte rendu de recherche. Cet entretien bref fera diminuer un peu la durée
moyenne des entretiens, mais qu’il peut néanmoins être intéressant de le faire. Mais le temps consa-
cré à l’entretien pourrait être consacré à des activités « plus rentables ».
43 Pour assurer la continuité du contact, pour ne pas vexer la personne.
Le temps et le lieu de l’entretien, l’environnement social de l’entretien 129

phonique qu’il passe « pour décrocher l’entretien », le répondant lui dit qu’il
ne pourra pas le voir pour plus d’une demi-heure.
■ Il arrive que le répondant découvre une contrainte de temps en cours d’entre-
tien, par un appel d’un collaborateur, d’un client ou d’un supérieur, et qu’il
dise au chercheur : « Donc il me reste un quart d’heure. Je vous laisse deux
questions ». Ici encore, le chercheur doit réagir très rapidement, donc avoir
quelque idée, à chaque moment de l’entretien, des deux ou trois points essen-
tiels sur lesquels conclure le plus utilement le recueil de données.

Le lieu de l’entretien conditionne également l’accès à des données supplémen-


taires et des possibilités d’observation minimes, mais néanmoins intéressantes :
■ Les entretiens sur le lieu de travail permettent l’accès plus rapide à des don-
nées de type comptes rendus de réunions, statistiques de production et de
vente, exemple d’outils de travail, etc. Le simple fait que ces données soient
accessible ou pas est en soi révélateur. Par exemple si, dans une recherche sur
la gestion des relations sociales dans les entreprises, le chercheur a un entre-
tien avec un Directeur des Relations Sociales, que ce dernier propose de com-
muniquer les statistiques concernant les élections sociales dans l’entreprise,
mais ne parvient pas en quelques minutes à mettre la main sur ces données, ni
à les obtenir de son assistant, on a alors des indications intéressantes, même
si elles ne sont pas statistiquement significatives.
■ L’observation du bureau du répondant, de son environnement immédiat, du
style de communication entre cadres et non cadres ou entre cadres dirigeants,
l’observation des interruptions et communications pendant l’entretien, peu-
vent également être des données significatives.

Les éléments ci-dessus nous ont déjà permis d’aborder une partie des sujets
concernant l’environnement social de l’entretien : l’échange entre le chercheur et le
répondant peut-il être en partie entendu par d’autres personnes, y a-t-il des person-
nes de l’environnement de travail ou de l’environnement familial qui savent que
l’entretien se déroule, etc.
Sur cette question, il existe d’autres aspects :
■ La nature des données recueillies, et les conditions de confidentialité, sont
sans doute différentes selon que le répondant a accordé l’entretien de son pro-
pre chef, sur recommandation d’un collègue estimé, ou sur la demande
expresse de sa hiérarchie.
■ Les conditions seront également différentes selon que le texte de l’entretien
sera communiqué ou pas (en totalité ou en partie) à la hiérarchie directe ou à
d’autres personnes de l’entreprise. Ces conditions dépendent de même de
l’usage qui pourra être fait des données : des usages prévus bien entendu,
mais aussi de la confiance que le répondant peut avoir vis-à-vis de son entre-
prise sur les usages non prévus initialement.
Pour terminer sur les conditions de l’entretien, on mentionnera également
l’existence d’entretiens « clandestins » effectués sur des sujets concernant la gestion
d’une entreprise, avec une personne de l’entreprise, sans que les divers niveaux de
130 L’entretien de recherche

direction soient informés. Les conditions éthiques et juridiques de tels entretiens doi-
vent naturellement être soupesées avec le plus grand soin 44.

11. L’entretien comme situation


de communication interpersonnelle

Le fait que l’entretien soit une situation de communication interpersonnelle


nous amène à identifier les facteurs qui peuvent influencer la transmission par ce
moyen d’information de qualité scientifique, c’est-à-dire raisonnablement complètes
et non biaisées.
On peut dans un premier temps se demander pourquoi l’interviewé participe 45.
La curiosité et la politesse, voire même simplement l’hésitation à refuser, sont
des éléments souvent suffisants pour expliquer l’acceptation. Ces conditions très neu-
tres permettent en principe l’obtention de bonnes données.
Dans des cas qui sont moins rares qu’on ne pourrait le penser, le répondant
accepte parce qu’il a « besoin de parler » et qu’il ne trouve pas dans son environne-
ment des personnes qui l’écoutent, ou qu’il a, à tort ou à raison, le sentiment qu’il ne
peut pas parler sans qu’il en résulte des risques importants sur sa carrière, sa réputa-
tion, voire même sur son maintien dans l’organisation. On a dans ce cas des répon-
dants qui s’expriment très librement, ou même qui se confient, et se soulagent de
préoccupations ou d’angoisses longtemps contenues 46. Le chercheur doit naturelle-
ment prêter une grande attention à ne pas transmettre telles quelles à l’extérieur avec
indication de la source ces informations, que le répondant n’aurait certainement pas
communiquées à son entourage.
Le répondant peut également accepter parce que, consciemment ou incons-
ciemment, il est « fier » d’être considéré comme une source de données intéressantes
pour une recherche scientifique. Dans ces conditions, l’image qu’il a de la science et la

44 Pour ne mentionner qu’un exemple, une recherche ne doit pas étudier le mode de gestion de pro-
duction d’une entreprise si la direction considère, ou est susceptible de considérer, que les aspects
positifs comme négatifs de sa gestion de production doivent rester confidentiels. L’interdiction éthi-
que et juridique s’applique également, naturellement, dans le cas de recherches financées par une
entreprise, aux d’entretiens clandestins qu’il pourrait lui être suggéré de conduire auprès de person-
nels d’entreprises qui sont des concurrents du financeur.
45 Avant que le répondant accepte l’entretien, il y a la phase de prise de rendez-vous. La pratique
montre que des entretiens d’une bonne heure sont possibles, mais aussi qu’ils ne sont pas faciles à
obtenir compte tenu entre autres de l’emploi du temps très chargé des répondants sollicités. Il n’est
pas rare d’avoir besoin de dix appels téléphoniques pour avoir un entretien, et de voir le rendez-vous
décalé trois fois. Le chercheur doit donc gérer l’intensité de son activité de recherche et de négocia-
tion d’entretiens, et être flexible : parfois il y aura beaucoup moins de rendez-vous que prévus, et
parfois beaucoup plus, avec éventuellement des difficultés de déplacement si les entretiens ont lieu
dans des lieux éloignés les uns des autres.
46 D’autres expressions peuvent être appropriées : le répondant a volonté de se confier à un expert
qui le « comprendra » alors qu’il n’est pas compris dans son entourage, l’interviewé « se livre », il
« vide son sac », etc.
L’entretien comme situation de communication interpersonnelle 131

« volonté d’être à la hauteur » peuvent induire des biais amenant les réponses à être
plus « intellectualisées » et cohérentes que la réalité.

Dans de nombreux cas, le répondant accepte parce qu’une personne de son


entreprise lui a suggéré ou demandé d’accepter l’entretien. Il est possible que dans
ces conditions la recherche d’informations raisonnablement complètes et fiables exige
des précautions, en particulier naturellement si c’est le supérieur hiérarchique qui
envoie le chercheur, et si les résultats de la recherche sont susceptibles d’entraîner
des conséquences sur l’organisation et sur le répondant. Le chercheur doit veiller à ce
qu’il existe un « contrat moral » acceptable, tant avec l’organisation dans son ensem-
ble qu’avec le supérieur et avec le répondant. Ces « contrats » peuvent en partie être
découplés, par exemple en garantissant que tout ou partie de l’entretien pourra être
utilisée dans la recherche sans indication de la source 47. Le découplage est toujours
partiel : le répondant peut avoir tendance à calibrer son discours en fonction des con-
séquences qu’il craint ou qu’il souhaite. Il peut être mû par la volonté de faire valoir
son point de vue « plus haut dans l’entreprise » sans risque. Parfois il s’agira de son
point de vue personnel, parfois du point de vue d’un groupe formel ou informel
auquel il appartient : groupe des agents de maîtrise ou des contrôleurs de gestion,
groupe ethnique, groupe des personnes de même tranche d’âge ou de même sexe, Par-
fois il s’agira d’un point de vue institutionnel : position d’un syndicat, position d’un
membre d’un partenariat vis-à-vis des autres membres, position d’un consultant vis-à-
vis de l’entreprise, etc. Le répondant peut aussi être motivé par la simple volonté de
contribuer à changer les choses, même si ce n’est pas du tout ce que le chercheur
souhaite dans le cadre de son protocole de recherche 48.

Dans de nombreux cas également, le répondant accepte l’entretien, mais


demande une contrepartie au chercheur. La transmission des résultats de la recherche
est souvent une contrepartie suffisante dans les recherches en gestion : le répondant
pense, souvent à juste raison, qu’il pourra mieux réfléchir, agir et se positionner s’il
dispose des données venant des autres entretiens conduits par le chercheur et des
analyses du chercheur 49. Les contreparties demandées peuvent être de tous ordres, y
compris des conseils personnels en gestion sur des sujets qui ne sont pas celui de la
recherche. Le chercheur doit être prêt à évaluer très rapidement les sollicitations fai-
tes en ce sens, et à les négocier de façon à ce que l’échange reste raisonnablement
équilibré pour les deux parties.

Le chercheur ne peut pas, bien entendu, être toujours certain des motivations
qui ont conduit son interlocuteur à accepter l’entretien. La présentation que nous
venons de faire de quelques unes des motivations possibles doit permettre au cher-
cheur de prendre des précautions dans la négociation et dans la conduite de l’entre-

47 Naturellement, un tel engagement ne doit être donné que si on a de bonnes raisons de penser
qu’il peut être tenu.
48 Si le répondant se sent forcé d’accepter l’entretien et qu’il n’apprécie pas, il peut chercher à
trouver des raison objectives de ne pas le faire, ou « noyer l’entretien » en développant avec un luxe
de détails des aspects secondaires de la question de recherche.
49 Le chercheur peut éventuellement s’engager à fournir une analyse personnalisée à chaque répon-
dant. Pour les recherches comportant de nombreux entretiens, cette méthode est très consommatrice
de temps.
132 L’entretien de recherche

tien, et de porter un jugement lucide sur la fiabilité et le caractère complet des


données 50.
L’accord du répondant pour que l’entretien ait lieu ne lève pas toutes les diffi-
cultés.
D’abord, dans de très nombreux cas, au cours des échanges informels qui pré-
cèdent l’entretien comme au début de l’entretien, il n’est pas rare que le répondant
cherche à « tester » le chercheur sur son professionnalisme, sa connaissance de la
gestion en général, sa connaissance de l’activité de l’organisation, sa connaissance
de l’industrie, ou du fonctionnement de l’organisation elle-même, ses contacts parmi
les dirigeants de l’organisation ou avec les concurrents, etc.
Ensuite, spécifiquement dans le cas des ESDC, le répondant peut ne pas se sen-
tir à l’aise vis-à-vis d’un interlocuteur qui ne prend pas parti, qui ne dit pas ce qu’il
pense (Bézille, 1985). Or tel est typiquement le comportement du chercheur dans un
entretien semi-directif centré.
La recherche d’informations qui sont le moins biaisées possible demande aussi
à ce que le chercheur soit attentif à l’influence de l’image que l’interviewé a de lui. Le
voit-il comme un expert à qui on pourra parler de ses propres problèmes profession-
nels et de gestion pour qu’il aide à les résoudre ? Comme un psychologue à qui il
s’ouvrira éventuellement des problèmes de relation qu’il a avec des collègues, des col-
laborateurs, ou même ses enfants ? Pense-t-il qu’un « jeune chercheur » ou un uni-
versitaire est forcément une personne qui ne peut pas comprendre ce qui se passe
dans une organisation ou dans une entreprise ? 51. Il est également possible que la
qualité de l’entretien soit altérée parce que le répondant a, consciemment ou incons-
ciemment, l’impression qu’être en face d’un chercheur c’est être avec une personne
très compétente qui forcément identifiera ses faiblesses.
L’interviewé peut aussi exprimer non ce qu’il pense et ressent, mais ce qu’il
perçoit comme légitime qu’on dise dans son équipe de travail ou dans l’entreprise ou
dans la société en général, ou ce qu’il perçoit que l’interviewer considère comme légi-
time 52.
Il peut également se produire que l’interviewé n’a pas au début de l’entretien
une idée claire de ce qu’il pense et de ce qu’il fait dans le domaine traité par l’entre-
tien, et que l’entretien ait pour résultat ou pour objet de l’amener à se clarifier, à

50 Il y a naturellement bien d’autres motivations possible pour un répondant : plaisir de faire une
pause, plaisir de savoir que les collègues et camarades de travail savent qu’il est avec un chercheur,
etc.
51 Dans ce dernier cas, le chercheur peut chercher à établir sa légitimité par des références à des
travaux antérieurs qui sont « parlants » pour le répondant, et par des informations qui sont sur le
site internet du laboratoire.
52 Ce « biais de désirabilité sociale » peut conduire le répondant à passer sous silence les difficul-
tés qu’il a, et à vouloir donner l’image d’un manager « efficace et gagnant ». Ce biais peut par exem-
ple le conduire à se présenter comme plus participatif et plus enclin à déléguer ses responsabilités
qu’il n’est en réalité, s’il perçoit que la prise de décision et l’exercice de l’autorité « ne sont pas dans
la norme » ou « sont des modes de management considérés comme ringards ». C’est à cause de ces
types de biais que le chercheur peut utiliser avec profit certaines des techniques mentionnées plus
haut : les « relances facilitantes », et la validation du contenu d’un entretien par confrontation avec
des données venant de personnes qui travaillent en contact avec le premier répondant.
L’entretien comme situation de communication interpersonnelle 133

« s’objectiver » L’interviewé peut alors être perturbé ou effrayé par ce qu’il découvre
de lui-même : il peut être en contradiction avec ses propres valeurs ou avec des
valeurs socialement admises, et ceci qui peut l’amener à « résister » dans l’entretien.
La semi-directivité et la non-directivité ont précisément comme objet d’abaisser (for-
cément de façon partielle) ces « barrières à la communication ».
Mentionnons aussi qu’il peut y avoir « auto conditionnement » de l’interviewé,
qui cherche à maintenir de façon artificielle l’expression d’une cohérence personnelle.
Pour terminer sur l’entretien vu comme situation de communication du côté de
l’interviewé, rappelons des éléments que nous avons vus plus haut : le discours du
répondant peut être influencé par le lieu de l’entretien, par le temps de l’entretien (le
moment dans la journée ou dans l’année), et il convient d’être attentif à valider dans
la mesure du possible le contenu de l’entretien.
Concernant l’entretien comme situation de communication vue du côté de
l’interviewer, on peut noter les difficultés provenant de plusieurs sources :
– la « distance sociale » et de la « différence de mondes », réelles ou supposées,
entre les interlocuteurs ;
– la connaissance éventuellement limitée qu’a le chercheur des usages sociaux
du milieu du répondant, du langage de son organisation, des codes vestimen-
taires adaptés, etc.

Ces éléments peuvent avoir un impact dans les recherches dans des milieux
étrangers au chercheur, par exemple les traders, les chercheurs en électronique, les
ouvriers du bâtiment, les directions générales, ou autres milieux professionnels typés
que le chercheur connaîtrait assez mal 53. La familiarisation avec le milieu peut s’avé-
rer utile ou nécessaire avant de savoir si une recherche basée sur les entretiens pourra
être conduite 54.
La communication peut également être « brouillée » par les préoccupations du
chercheur. Un exemple classique est celui des phrases d’entame du type : « Pouvez-
vous me parler du problème des relations hiérarchiques ? » C’est un problème pour le
chercheur, pas nécessairement pour l’interviewé. La formulation de la question peut
entraîner une réponse du type : « Mon patron vous a dit que j’avais des problèmes
avec lui ou avec mes subordonnés ? » On comprend que l’interviewé puisse être sur la
défensive avec une telle formulation si l’entretien a lieu à l’initiative de son supé-
rieur.

53 On a potentiellement des difficultés comparables pour effectuer par entretiens des recherches
dans des milieux dans lesquels le jargon, l’argot professionnel ou local, ou les références aux histoi-
res personnelles sont constants et empêchent le chercheur d’avoir un réel accès. Il ne faut pas tou-
tefois penser que ces difficultés sont en moyenne très importantes. Les thèses en gestion
fournissent de bons exemples de recherches effectuées par des chercheurs jeunes qui n’avaient pas
forcément au départ une familiarité avec les milieux dans lesquels ils ont effectué des dizaines
d’entretiens, y compris sur des sujets a priori confidentiels et auprès de cadres dirigeants. Voir par
exemple Ederlé (1999), Dameron (2001), ou Torset (2003).
54 Par ailleurs, comme indiqué plus haut dans ce chapitre, le chercheur doit faire attention à ne pas
utiliser des termes non connus par l’interlocuteur, ou des termes qui risquent d’avoir un sens techni-
que qui n’est pas exactement le même que celui qu’ils ont dans le langage courant.
134 L’entretien de recherche

L’interviewer peut également être influencé par les habitudes de sa commu-


nauté de recherche, ainsi que par ses propres croyances et valeurs. Par exemple, s’il y
a dans son laboratoire une tradition d’entretiens non directifs où on cherche le vécu
du répondant, le chercheur peut hésiter à conduire un ESDC ou un entretien guidé 55.
Pour terminer sur l’entretien comme situation de communication interperson-
nelle, mentionnons le fait que la relation entre interviewer et interviewé « met en jeu
des émotions, des sentiments, des jeux de pouvoir, de séduction, de rivalité,
d’opposition » (Guittet, 1990, p. 7).

12. Conclusion

Un entretien de recherche n’est pas une conversation à bâtons rompus. C’est


un instrument de travail qui répond à quatre exigences :
■ Il est rigoureux : toujours calibré de la même façon pour une rafale d’entre-
tiens. Ou avec des évolutions en cours de la recherche, mais des évolution
réfléchies, calculées, et intégrées à la problématique et à la méthodologie de
la recherche.
■ Il vise à obtenir des données dont on pense qu’elles sont importantes. Le cher-
cheur pense qu’elles sont importantes à cause de l’un des quatre pieds sur les-
quels repose sa recherche : (a) les résultats et modèles de la littérature ; (b)
les modèles et la problématique du chercheur ; (c) les intuitions du chercheur,
les intuitions de praticiens et d’experts ; et (d) les données sur les pratiques
du terrain et sur les phénomènes concrets qui se produisent dans l’entreprise,
entre autres celles qui viennent d’observations directes.
■ Il cherche à obtenir des données qui reflètent réellement les connaissances,
pensées et émotions du répondant. Dans le cas de l’ESDC, ces données sont
plus fiables parce que l’entretien est peu directif. D’une certaine façon, on
peut dire que dans l’entretien semi-directif centré, le chercheur « obtient les
réponses sans poser les questions ».
■ Le chercheur se donne les moyens d’apprendre sur le terrain, lors de l’entretien,
qu’il existe des descripteurs du réel qu’il faut prendre en compte, alors même
que la littérature de recherche n’y a jamais fait référence, et que le chercheur
ou les experts n’y ont pas pensé. L’ESDC est un puissant moyen de découverte.
Le présent document évoque de nombreuses actions et réflexions que le cher-
cheur peut conduire ou qui sont conseillées : vérifier que le guide de l’interviewer
contient les descripteurs pertinents que la littérature a déjà identifié pour le sujet de

55 En ce qui concerne les biais et les risques venant de l’interviewer, nous avons déjà signalé la
peur des silences du répondant, et dans ce cas la tentation du retour à un mode d’entretien directif
« plus confortable », mais qui risque d’être catastrophique s’il n’a pas été préparé. Nous avons aussi
vu que le chercheur doit être très attentif à ne pas injecter ses valeurs dans les relances qu’il effec-
tue en cours d’entretien. Par exemple, si le répondant s’exprime de façon contradictoire à plusieurs
moments de l’entretien, on peut dire que le chercheur qui lui fait remarquer la contradiction affirme
implicitement qu’il faut être cohérent et rationnel. Une telle affirmation constitue l’injection dans
l’entretien d’une valeur du chercheur.
Conclusion 135

la recherche, lister les caractéristiques qui peuvent induire de la variété dans les
réponses, voir s’il faut procéder à une analyse de contenu formatée ou pas, etc. Il est
très utile de consigner toutes ces actions et réflexions dans un « journal de bord » de
la méthode de recherche. Cette discipline permet tous les trois à six mois de faire le
point et de vérifier que la méthode est bien cadrée. Elle permet au chercheur de justi-
fier ses choix dans les communications de recherches, les interventions dans les collo-
ques, les articles soumis aux revues.
Pour le thésard et les étudiants réalisant un mémoire de recherche, cette disci-
pline permet le dialogue lors des entretiens avec le directeur de mémoire ou le direc-
teur de thèse. Et elle permet, lors de la rédaction et de la soutenance, de désamorcer
les critiques ou d’y répondre. Mais c’est une discipline extrêmement exigeante.
Toutes les recherches en gestion sont en partie discutables du point de vue du
choix des méthodes de recherche et de l’usage de ces méthodes. La question à se
poser n’est pas « Est-ce parfait ? », mais « Est-ce pertinent et adéquat ? » et
« Aurait-on pu faire mieux à un coût raisonnable ? » Ces questions s’appliquent aux
entretiens comme aux autres méthodes, qu’elles soient qualitatives ou quantitatives.
Les conceptions développées dans le présent chapitre ne reflètent ni une
vérité révélée, ni une opinion unanime de la communauté scientifique, ni des impéra-
tifs scientifiquement incontestables. Ils présentent une vision qui a l’ambition d’être
assez précise pour fournir des guides pratiques aux utilisateurs, et de fournir un stan-
dard par rapport auquel évaluer la scientificité d’un recueil de données par entre-
tiens 56.
Le cadre limité de ce chapitre ne nous a pas permis de traiter de tout ce qui
concerne l’entretien de recherche, par exemple la présentation des types de sujets sur
lesquels on peut recueillir des données avec des entretiens 57, la présentation des rai-
sons en faveur d’une non-directivité forte 58, ou encore l’entretien de groupe et le
focus group 59.
Pour terminer ce chapitre, il faut dire que l’usage des entretiens est une
méthode de recherche passionnante. Elle permet d’engager le contact avec des per-
sonnes qui ont des expériences et des styles variés, et très souvent des qualités
humaines remarquables. Les entretiens permettent de collecter des données très nom-
breuses et scientifiquement solides sur des situations de travail et des situations de

56 Nous ne prétendons pas que l’ESDC tel que décrit ici est le standard à suivre en toutes circons-
tances. Mais nous soutenons que c’est un mode d’entretien utilisable en pratique, et qui donne
d’assez bonnes garanties sur la richesse et la fiabilité des données quand il est utilisé dans les cir-
constances adéquates. Par ailleurs, comme ce mode de conception et de conduite des entretiens de
recherche est défini avec précision, il permet aux chercheurs recueillant des données par entretiens
avec d’autres approches de se positionner.
57 Blanchet et Gotman (1992) donnent une liste orientée sur la psychosociologie, dont on peut lar-
gement s’inspirer pour les recherches en gestion, et à laquelle nous pouvons faire de nombreux
ajouts.
58 Guittet (1990), Muchielli (1991), et Blanchet et Gotman (1992), ont des positions très axées sur
une non-directivité assez radicale, qui est fort éloignée de ce qui est à notre sens doute le plus utile
aujourd’hui dans les recherches en gestion. Grawitz (2001) a une présentation assez détaillée des
divers niveaux de directivité.
59 Sur ces questions, voir Fenneteau (2002), Morgan (1988), et Giami (1985).
136 L’entretien de recherche

gestion extrêmement diverses, qui finissent par donner au chercheur une connais-
sance profonde et valide du monde de la gestion. Certes, un entretien semi-directif
centré est long à faire et long à analyser. Mais on obtient par ce moyen des données
qui ont une richesse considérablement supérieure à celle fournie par bien d’autres
méthodes.
Nous avons beaucoup insisté dans ce chapitre sur les difficultés possibles dans
les entretiens, parce qu’il faut savoir les détecter, les prévenir quand c’est possible, et
les surmonter quand on les rencontre. Il faut insister ici sur le fait que ces difficultés
sont gérables pour la très grande majorité des chercheurs. Les débuts ne sont pas
faciles, et on doit en permanence veiller à s’améliorer, mais on accède rapidement à
une telle qualité de contacts avec les terrains et avec les personnes qu’on attend avec
impatience le plaisir du prochain entretien, et des conclusions scientifiques qu’on en
tirera.

Bibliographie
Argyris C. et Schon D. (1978), Organizational Learning : A Theory of Action Perspective,
Addison Wesley.
Bézille H. (1985), « Les interviewés parlent », pp. 117-148 dans Blanchet A. (dir.),
1985, L’entretien dans les sciences sociales, Dunod.
Blanchet A. (dir.) (1985), L’entretien dans les sciences sociales, Dunod.
Blanchet A. et Gotman A. (1992), L’enquête et ses méthodes : l’entretien, coll. Sociolo-
gie 128, Nathan.
Corraze J. (1992), Les communications non verbales, PUF.
de Ketele J.-M. et Roegiers X. (1993), Méthodologie du recueil d’informations : fonde-
ments des méthodes d’observations, de questionnaires, d’interviews et d’études de
documents, De Boeck.
Dameron S. (2000), Génération de la coopération dans l’organisation, le cas d’équipes
projet, Thèse de doctorat en Sciences de Gestion, Université Paris IX Dauphine.
Dubar C. (1991), La socialisation : construction des identités sociales et professionnelles,
A. Colin.
Ederlé N. (2001), Vision et pilotage d’entreprise, conceptualisation, représentation et
pratiques, Thèse de doctorat en Sciences de Gestion, Université Paris IX Dauphine.
Fenneteau H. (2002), Les techniques d’enquête : entretien et questionnaire, Dalloz, col-
lection Topos,
Giami A. (1985), « L’entretien de groupe », pp. 221-232 dans Blanchet A. (dir.), 1985,
L’entretien dans les sciences sociales, Dunod.
Grawitz M. (2001), Méthodes des sciences sociales, Dalloz.
Guittet A. (1990), L’entretien, Armand Colin.
Gummesson E. (1991), Qualitative Methods in Marketing Research, Sage.
Kirk J. et Miller M. (1986), Reliability and Validity in Qualitative Research, Sage.
Miles M. et Huberman M. (1991), Analyse des données qualitatives, De Boeck.
Morgan D. (1988), Focus Groups as Qualitative Research, Sage.
Bibliographie 137

Muchielli A. (1991), Les méthodes qualitatives, Que-sais-je ?, PUF.


Sainsaulieu R. (1988), L’identité au travail, Presses de la FNSP.
Sathe V. (1985), Cultures and Related Corporate Realities : Texts, Cases, and Readings on
Organizational Entry, Establishment, and Change, Irwin.
Sébillotte S. (1991), « Décrire les tâches selon les objectifs des opérateurs : de l’inter-
view à la formalisation », Le Travail Humain, 54 :3, pp. 193-223.
Torset C. (2003), La décentralisation de la réflexion stratégique, Thèse de doctorat en
Sciences de Gestion, Université Paris IX Dauphine.
Chapitre 5

Recherche-intervention
et innovations managériales
Jean-Michel PLANE 1

Sommaire
1 L’intervention du chercheur en management :
implications théoriques, méthodologiques,
pratiques 143

2 La production d’innovations managériales :


le cas d’une entreprise de production
de cartes électroniques 147

3 Conclusion 154

1 Professeur des Universités, Université Paul Valéry-Montpellier III.


140 Recherche-intervention et innovations managériales

C’est au sein d’un département de production informatique d’une grande com-


pagnie d’assurances, situé au treizième étage d’une tour de La Défense, que nos
recherches en sciences de gestion ont commencé. Cette première immersion, d’une
durée de cinq mois, en entreprise a constitué le point de départ de nos recherches
interactives en gestion puisque ce travail, fondé sur une approche expérimentale, a
donné lieu à une première publication. Le sujet consista alors en l’analyse des problè-
mes de management des hommes liés à une restructuration du département de pro-
duction informatique de l’entreprise représentant environ cent cinquante personnes.
Cette première recherche-intervention en entreprise a donné lieu à d’autres investiga-
tions approfondies ainsi qu’à des expérimentations sur une longue durée conduisant à
un essai de théorisation, puis à la soutenance d’une thèse de doctorat à l’Université
Lumière-Lyon 2, au sein de l’équipe de recherche ISEOR (Institut de socioéconomie
des entreprises et des organisations). À partir de 1995, nous avons poursuivi ce type
de recherche dans les entreprises et les organisations en tant que chercheur à l’ERFI 2
(Équipe de recherche sur la firme et l’industrie) à l’Université de Montpellier I. Dans
cette optique, nous avons développé nos travaux selon nos orientations de recherche
initiales tout en élargissant les méthodologies opératoires utilisées, en particulier
concernant des recherches réalisées dans le cadre d’appels d’offres émanant d’institu-
tions publiques.
À partir de la lecture que nous faisons de nos propres travaux de recherche, un
élément fédérateur se dégage : l’analyse des interactions entre le management des
ressources humaines et le développement de l’organisation. Ces recherches visent à
analyser les processus de développement du potentiel humain des organisations. Dans
cette perspective, nous nous sommes intéressé d’abord aux stratégies d’intervention
du chercheur en gestion s’appuyant principalement sur le potentiel humain considéré
ainsi comme le premier levier de développement possible. L’importance du développe-
ment organisationnel à partir de l’activation du potentiel humain nous est apparue
lorsque l’on a montré que les difficultés de restructuration d’un grand groupe d’assu-
rances pouvaient être fortement atténuées à partir d’une stratégie de développement
humain. Dans le cadre de notre recherche doctorale et à partir de cas d’expérimenta-
tions, nous avons soutenu la thèse selon laquelle le processus de recherche-interven-
tion en management, fondé sur une interactivité productrice de connaissances,
stimule les capacités introspectives et conceptives des acteurs, contribuant ainsi au
développement de l’organisation. La thèse comporte bien une dimension méthodolo-
gique conséquente qui a été approfondie par la suite et qui est consacrée aux métho-
des de recherche-intervention en management. Ces travaux nous ont ainsi conduit à
réfléchir à la question de la production de connaissances en sciences de gestion à
partir de cette démarche, ce qui nous a amené à élaborer progressivement un certain
nombre de contributions méthodologiques et épistémologiques. Ces investigations et

2 Au sein de l’ERFI, nous avons mis en discussion nos travaux (présentations des recherches lors
de réunions de l’équipe, cahiers de recherche) et réalisé plusieurs publications : principalement des
communications à des congrès, des articles et des chapitres d’ouvrages. Cela nous a conduit à soute-
nir une Habilitation à diriger des recherches (juin 1999) à l’Université de Montpellier I ainsi qu’à la
préparation du concours d’agrégation en sciences de gestion. Cette soutenance a donné lieu à la
publication d’un ouvrage de recherche consacré aux Méthodes de recherche-intervention en manage-
ment (janvier 2000), ainsi qu’à un ouvrage sur les nouvelles problématiques de la GRH, publié aux
Éditions Economica (avril 2003).
Recherche-intervention et innovations managériales 141

les perspectives qui en résultent se sont inscrites, après le programme doctoral, au


sein d’un collectif de recherche de l’ERFI consacré à la question du management de la
compétitivité et de l’emploi. Pour traiter de la mesure des contributions par l’analyse
des résultats de la recherche et expliciter notre projet de connaissances, nous avons
choisi d’articuler, dès cette introduction, notre positionnement épistémologique et
méthodologique autour de deux axes de réflexion.

LA QUESTION DU POSITIONNEMENT ÉPISTÉMOLOGIQUE


ET DES CHOIX MÉTHODOLOGIQUES ASSOCIÉS

Le positionnement adopté est celui du constructivisme 3 dans la mesure où


l’on sait que l’intervention modifie le comportement des acteurs et transforme ainsi la
réalité. Dans cette optique, il convient de ne pas occulter la question de la scientifi-
cité de notre approche de la recherche. En ce sens, nos travaux s’inscrivent dans une
logique à travers laquelle la production de connaissances ainsi que les conditions de
validité et de validation ne peuvent être dissociées. Cependant, nous ne nous inscri-
vons pas dans une démarche qui relèverait d’un constructivisme radical par trop rela-
tiviste, consistant à dénier toute réalité aux phénomènes sociaux. Nous pensons qu’il
s’agit plus d’une attitude ouverte de recherche qui vise à donner du sens à la réalité
et qui « s’efforce d’inscrire l’intelligibilité du modèle dans les faits, c’est-à-dire dans
les comportements sociaux », qui « se veut une analyse immanente du réel » (De
Bruyne et al., 1974, p. 143) et que l’on peut découvrir « entre les phénomènes
sociaux quelques relations légitimes et relativement stables » (Huberman et Miles,
1991, p. 31). Le chercheur s’intéresse à l’ensemble des savoirs disponibles et à
l’émergence des modes de connaissances nécessaires à la modélisation de ces savoirs.
Dans une recherche constructiviste, la production de connaissances et leur validation
s’inscrivent dans la même logique d’explicitation du protocole d’analyse et il est fina-
lement capital de considérer que l’observateur fait partie intégrante de l’observation
(Lévi-Strauss, 1950). Si, comme on l’a déjà souligné, le constructivisme doit être
envisagé comme une attitude ouverte de recherche plutôt que comme un paradigme
définitif, force est de reconnaître qu’il semble exister un dénominateur commun. En
effet, on admettra que le chercheur produit des explications qui ne sont pas la réalité,
mais un construit 4 sur une réalité susceptible de l’expliquer. Un tel positionnement
épistémologique s’appuie sur des choix méthodologiques (recherches-interventions,
méthodes qualitatives) qui apparaissent adaptés au projet de recherche, et sur un dis-

3 Dans le cadre de cette contribution, le terme constructivisme est utilisé au singulier en tant que
paradigme de référence, même si l’on admet qu’il existe plusieurs formes de constructivisme.
Fr. Wacheux (1996) parle de plusieurs attitudes constructivistes possibles (p. 43), tout en insistant
particulièrement sur l’idée (p. 27) que la démarche s’apparente à un processus d’enactment (Weick,
1979) dans lequel la production scientifique est une forme de construction sociale (Morgan, 1990).
4 Ce positionnement épistémologique a des implications théoriques et méthodologiques significa-
tives dans les recherches. Nous l’avons particulièrement discuté dans un article publié par le Journal
of Business Ethics, « The Ethnomethodological Approach of Management : A New Perspective on
Constructivist Research » (2000). Par ailleurs, un certain nombre de travaux récents s’inscrivent dans
cette perspective. Par exemple, les recherches de Bournois et Roussillon (1998), consacrées à la pré-
paration des dirigeants de demain, montrent que la question du haut potentiel est un construit
social contingent.
142 Recherche-intervention et innovations managériales

positif d’analyse (approche interactive, formation-action et études de cas) conçu en


fonction de l’objet de recherche. Celui-ci peut être varié : des dirigeants d’entreprises,
des équipes de direction et d’encadrement, des salariés, des formations au manage-
ment ainsi qu’une implication en tant que chercheur dans les organisations.
Sur le plan de la méthodologie opératoire de la recherche, de nombreuses
expérimentations ont été effectuées au sein d’entreprises et d’organisations très
diverses. Nous citerons à titre principal une compagnie d’assurances (6 mois, 1991),
une organisation de service public (6 mois, 1992), une entreprise de l’industrie phar-
maceutique (4 mois, 1991), une société de conseil en organisation (2 mois, 1991),
une organisation de service public (18 mois, 1993), une société de service en ingé-
nierie informatique (3 mois, 1994), une PME spécialisée dans la production audiovi-
suelle (12 mois, 1995), une organisation de service public (4 mois, 1996), une
association de réinsertion par l’économique qui constitue en fait la dernière recher-
che-intervention réalisée sur 28 mois, de mars 1997 à juin 1999. Ces expérimenta-
tions présentent un caractère approfondi illustré par la diversité des prestations
réalisées et le volume de temps consacré à celles-ci. L’élaboration de notre base
d’information expérimentale a été guidée principalement par deux critères. D’une
part, nous avons toujours fait le choix, dans nos travaux, d’utiliser et de privilégier
comme matériaux de démonstration les prestations réalisées dans les organisations,
objets d’investigations. D’autre part, ces expérimentations visent à formaliser un dia-
gnostic stratégique à partir duquel sont mis en évidence des dysfonctionnements
principalement organisationnels et managériaux. Simultanément, il est fréquent que
l’on formalise quelques outils d’analyse du fonctionnement tels que, par exemple,
l’analyse de l’état des compétences (cartographie des compétences) ou encore l’ana-
lyse des indicateurs de performance (travail sur des tableaux de bord de pilotage). La
production du diagnostic et des outils d’analyse du fonctionnement conduit, dans un
second temps, à entrer dans une phase de projet d’amélioration par laquelle des solu-
tions innovantes pour l’organisation sont recherchées. Cette démarche s’inscrit dans
une logique compréhensive et prescriptive qui caractérise à certains égards les scien-
ces de gestion dès lors que l’on se place dans une perspective praxéologique (Kaplan,
1998). Un tel processus de recherche permet de collecter sur le terrain d’observation
et d’expérimentation des informations contextualisées dès lors que chercheurs et pra-
ticiens se sont accordés sur un certain nombre de modalités relatives à l’intervention.
Les interactions et leur gestion entre chercheurs et praticiens constituent finalement
le moteur essentiel de la recherche-intervention.

LES AXES DE RECHERCHE, LA QUÊTE DE CONNAISSANCES


ET L’EXPOSÉ DES RÉSULTATS

En première analyse, il convient de s’interroger sur les apports de nos travaux à


partir de l’analyse de la convergence progressive de la recherche vers une question et
un objet : comment peut-on constituer durablement de nouvelles connaissances sur
le fonctionnement des organisations par l’implication d’un chercheur en gestion ?
Quels sont les fondements théoriques et les implications pratiques induits par une
démarche de recherche-intervention ? Cela conduit aussi à s’interroger sur l’action
collective des acteurs et sur la nature de leur savoir. Cela soulève aussi des interroga-
L’intervention du chercheur en management 143

tions majeures sur la nature de la relation entre savoir et intervention en sciences de


gestion. En d’autres termes, ces travaux de recherche visent à analyser les effets des
interactions produites par l’implication du chercheur en gestion qui cherche à mettre
en œuvre des actions de changement dans les organisations. Suivant cette logique
d’expérimentation, le chercheur impulse des actions innovantes du point de vue du
mode de management au sein des organisations dont il observera les effets même s’il
accepte aussi de travailler à partir de représentations d’acteurs porteuses de sens.
Finalement, le chercheur accepte l’idée d’un univers construit à partir des représenta-
tions des acteurs et s’intéresse à l’ensemble des savoirs disponibles dans la société
(Berger & Luckmann, 1967).
En seconde analyse, ces investigations nous ont, peu à peu, amené à chercher
à appréhender l’importance des compétences et des savoirs tacites au sein d’entrepri-
ses complexes et dynamiques fonctionnant à partir de structures adhocratiques et sur
des logiques de projet. Finalement, dans quelle mesure les innovations organisation-
nelles induisent-elles des transformations en gestion des ressources humaines
(GRH) ? Ces changements présentent de nouveaux enjeux pour la GRH dans ces orga-
nisations, notamment le modèle de la compétence et l’importance des savoirs. Ce
questionnement nous a ainsi conduit à analyser le cas d’une entreprise de production
de cartes électroniques. Pour traiter de la mesure des contributions de la recherche-
intervention à l’analyse d’innovations managériales, nous avons choisi d’articuler ce
chapitre autour de deux axes de réflexion. Dans une première partie, nous en décri-
rons les fondements : nos premières recherches dans le champ de l’intervention en
management ; les apports de l’intervention du chercheur à l’analyse et au développe-
ment des organisations. Notre deuxième partie sera consacrée à l’analyse du cas d’une
entreprise de production de cartes électroniques confrontée à la problématique de la
production d’innovations managériales.

1. L’intervention du chercheur en management :


implications théoriques, méthodologiques, pratiques

Nos premières recherches sont consacrées à l’analyse des relations chercheurs-


terrain. Elles débutent dès notre travail de thèse sur la recherche-intervention en
management, pour se poursuivre par l’étude des résultats produits dans les organisa-
tions par cette démarche.

1.1 L’ÉTUDE DES RELATIONS CHERCHEURS – TERRAIN


Dans notre travail de thèse, nous avons cherché à comprendre les impacts et
les effets produits par le processus de recherche-intervention en management dans
les organisations. Cette démarche est un processus de gestion complexe à travers
laquelle le chercheur est confronté simultanément à deux logiques qui peuvent paraî-
tre contradictoires. D’une part, il s’agit de produire des connaissances à partir d’inte-
ractions réalisées sur le terrain, et, d’autre part, le chercheur contribue activement au
développement organisationnel de l’entreprise qui fait l’objet de ses investigations. À
notre sens, cette complexité amène le chercheur à s’efforcer de mettre en discussion
144 Recherche-intervention et innovations managériales

les conditions de validité des connaissances produites à partir d’un travail fondé sur
l’expérimentation. La synthèse des travaux développée ici vise à rappeler le question-
nement et la quête de connaissances suivis. Dans quelle mesure et sous quelles condi-
tions méthodologiques peut-on produire des connaissances valides à partir d’une
démarche et d’un processus fortement interactifs ? Sur le plan épistémologique, com-
ment peut-on s’efforcer d’entrer dans une logique d’objectivation à partir d’informa-
tions inévitablement subjectives ? Pour l’essentiel, l’étude des relations et des
interactions chercheurs-acteurs a porté sur les éléments suivants.

1.1.1 Une logique de production de connaissances et la question


de l’objectivation des informations
Une telle approche s’inscrit dans la logique de la connaissance prônée par
Lévi-Strauss (1950, p. IV) qui montre que « dans une science ou l’observateur est de
même nature que son objet, l’observateur fait partie de l’observation ». Cette option
épistémologique revient à tenter d’apporter des éléments de réponse à la question de
recherche suivante : « Peut-on tirer des connaissances valides à partir de données
subjectives recueillies à chaud ? » Compte tenu de cette problématique, nos travaux
visaient à extraire des connaissances sur un terrain en les objectivant, c’est-à-dire, en
les rapportant aux situations de gestion dans lesquelles elles ont été produites. En
tant que chercheur en sciences de gestion, nous ne considérons pas les phénomènes
de transfert et de contre-transfert, c’est-à-dire les projections faites par les acteurs de
l’organisation sur les chercheurs-intervenants et réciproquement, comme des phéno-
mènes perturbateurs qu’il faut éliminer ou, pire, occulter. En effet, dès qu’il y a inte-
raction, il y a nécessairement des attentes, des préférences, des tabous, des non-
dits… dont l’analyse peut être riche d’enseignements au regard du fonctionnement
intime de l’organisation étudiée. Le chercheur confronte donc ses propres hypothèses
à celles des différents acteurs en vue générer des progrès de connaissances.

1.1.2 La question de la place et de la neutralité du chercheur


Dans le cadre des investigations réalisées au sein de diverses organisations,
nous avons à plusieurs reprises constaté que si notre volonté dans le processus
d’intervention avait été d’occuper une position de neutralité, cela aurait constitué
une aspiration utopique. Il semble, en effet, que cette position soit difficile à tenir
sur un terrain, dans la mesure où les acteurs ont un besoin de représentation et
d’identification mentale des chercheurs, et, par conséquent, les situent nécessaire-
ment à des places dans le système organisationnel. Cependant, nos travaux montrent
que ce système de places est contingent car les chercheurs peuvent tenter de les
construire à partir de leurs comportements. Ce phénomène constitue pour un cher-
cheur ce que Devereux (1980) appelle l’angoisse de l’observateur devant la richesse et
la diversité de ses observations.

1.1.3 L’implication du chercheur et la gestion de la « familiarité


distante » (Matheu, 1986)
La question des méthodes employées dans le cadre d’une intervention en
management a une importance considérable. Nos travaux visent à expliciter des élé-
L’intervention du chercheur en management 145

ments de méthodes de recherche-intervention expérimentés dans les organisations et


les fondements théoriques sur lesquels ils s’appuient. Ainsi, nos observations mon-
trent qu’il est possible d’analyser le déroulement des dispositifs de recherche d’infor-
mation afin de détecter des méthodes d’amélioration de leur conduite auprès des
acteurs des organisations. Par exemple, les entretiens avec les acteurs constituent un
détour dans l’intériorité de l’organisation car ils constituent l’occasion de réunir un
maximum d’informations concrètes sur leur vécu quotidien dans l’organisation. Sur le
plan épistémologique, il semble que ces informations peuvent prendre un caractère
valide si elles sont rapportées aux processus d’interactions dans lesquels elles ont été
produites. Sur le plan méthodologique, il apparaît possible, par des dispositifs de ges-
tion de la recherche-intervention, de piloter les effets informationnels des processus
d’interactions sur le terrain. Les techniques utilisées sont proches de celles préconi-
sées par Schein (1987), qui montre, dans ses travaux, qu’il existe des questions gui-
des qui ont la vertu de stimuler la capacité de l’acteur à dresser un diagnostic des
situations professionnelles dans lesquelles il évolue. En fait, ces techniques sont fon-
dées sur un questionnement « socratique » (Schein, 1987). Le chercheur doit en con-
séquence pratiquer l’art d’accoucher les esprits dans le sens où il aide ses
interlocuteurs à mieux cerner leurs problèmes et à imaginer leurs propres solutions.
Par ailleurs, les chercheurs en management disposent aussi d’un pouvoir implicite que
nous appelons le pouvoir interactif. En effet, nous pensons qu’ils possèdent la capa-
cité d’interagir avec les acteurs des organisations par les prestations qu’ils prodiguent
pour chercher à obtenir des informations pleinement signifiantes. Dans cette perspec-
tive, nous avons montré dans quelle mesure l’intensité des processus d’interactions
chercheurs-acteurs stimule le développement du potentiel humain des organisations.

1.2 DE LA RECHERCHE-INTERVENTION AU DÉVELOPPEMENT DU POTENTIEL


HUMAIN DES ORGANISATIONS

Les relations de travail qui s’instaurent entre les chercheurs et les acteurs
d’une organisation, dans le cadre d’une recherche-intervention en management, se
caractérisent par de fortes interactions qui produisent des transformations, sources de
développement du potentiel humain de l’organisation. Au fond, quels peuvent être les
résultats produits par une démarche de recherche-intervention en management ?
Pourquoi sont-ils relativement singuliers ? Sur le plan des implications managériales,
quelles sont les transformations fondamentales et donc structurantes produites par le
processus de recherche-intervention en management dans les organisations ? Ce tra-
vail de recherche vise à chercher à identifier des éléments de méthode de recherche-
intervention en management fondés sur de fortes interactions chercheurs-acteurs.
L’intensification des processus d’interactions entre les chercheurs et les acteurs active
le développement de deux actes de gestion : les actes introspectifs et conceptifs.

1.2.1 Les apports produits sur le terrain par un processus


de recherche-intervention
Si l’instrument privilégié de communication entre les chercheurs et les acteurs
reste le langage, le mimétisme constitue une forme de communication sans langage, à
coté du langage (Hall, 1959). L’analyse des processus d’interactions entre les cher-
146 Recherche-intervention et innovations managériales

cheurs et les acteurs montre le développement d’un mimétisme. Ce mimétisme cher-


cheurs-acteurs correspond à des reproductions conscientes ou inconscientes de
comportements par certains acteurs de l’organisation. Par ailleurs, le concept d’éner-
gie de transformation dans une recherche-intervention occupe une place importante
puisque les chercheurs transfèrent de l’énergie aux acteurs par la mise en œuvre des
techniques d’intervention, propres au processus de recherche. L’énergie humaine con-
duit donc au passage d’une idée à une réalisation effective. Cette énergie nouvelle
induite par le processus d’intervention conduit à une stimulation des pratiques qui
ont des impacts et des effets sur l’état des performances économique et sociale de
l’organisation. Dans cette perspective, nous proposons des méthodes et techniques
expérimentées d’activation de l’énergie des acteurs d’une organisation. Il semble, en
effet, que le non-conformisme des chercheurs aux pratiques usuelles en vigueur dans
l’organisation constitue un véritable vecteur d’énergie de transformation. Nous avons
ainsi identifié une fonction de démythification du chercheur à partir du processus de
recherche-intervention pour faire percevoir des possibles. En définitive, nos recher-
ches montrent le pouvoir interactif du chercheur en gestion. Ce pouvoir interactif per-
met d’accroître la densité des informations à extraire dans les organisations. Nos
résultats indiquent sous quelles conditions l’intensification des relations et des inte-
ractions chercheurs-acteurs peut constituer une source d’efficacité de la recherche-
intervention. Dans cette optique, nous proposons une stratégie de développement
humain utilisable par les praticiens de la gestion.

1.2.2 Le développement des capacités conceptives des acteurs


des organisations

À travers nos recherches, nous avons cherché à soutenir l’idée que l’objectif
d’une recherche-intervention en management est le développement chez les acteurs
d’actes conceptifs. Ces actes de gestion constituent des leviers d’actions considéra-
bles car ils reposent sur des connaissances éprouvées et mises en œuvre régulière-
ment par les acteurs. Cette logique de diffusion de connaissances dans les
organisations intéresse les acteurs, souvent à la recherche de nouveaux savoirs. On
peut donc définir les actes conceptifs comme des pratiques visant la détection d’inva-
riants de fonctionnement plus efficaces à partir de l’accumulation formalisée et struc-
turée des enseignements tirés des multiples expériences des acteurs. Cela peut se
manifester par des conceptualisations de principes d’actions efficaces et susceptibles
d’être mis en œuvre lorsqu’un événement donné se produit. Nos travaux indiquent que
le chercheur en gestion est en position d’agent de changement dans le sens où il a
pour principale mission d’aider les acteurs à prendre conscience d’une série de problè-
mes (introspection) et à imaginer des transformations durables (conceptualisation).
Il participe ainsi à l’évolution des possibles au sein de l’organisation. Concrètement,
les différentes expériences réalisées ont participé à une logique de développement
organisationnel notamment sur les axes suivants : l’enrichissement du travail humain
par des actions de formation, de nouvelles connaissances en gestion et une plus
grande polyvalence ; le développement du pilotage par la mise en place d’instruments
de gestion ; des dispositifs de communication visant la synchronisation des services
(logique de coopération) et la qualité du dialogue professionnel.
La production d’innovations managériales 147

2. La production d’innovations managériales : le cas


d’une entreprise de production de cartes électroniques

2.1 UNE ENTREPRISE EN PLEINE MUTATION ET EN QUÊTE DE COMPÉTITIVITÉ


2.1.1 Situation de l’entreprise
Le métier de base de l’entreprise Thélec est le montage-câblage de composants
électroniques sur un circuit imprimé. Dotée de moyens flexibles, cette entreprise con-
centre ses compétences et ses prestations sur l’industrialisation, les achats et les
approvisionnements de composants, le câblage de cartes, les tests automatiques ou
encore l’assemblage et l’intégration. Cette entreprise de production souhaite conti-
nuer à développer sa flexibilité organisationnelle et maîtrise un ensemble de techno-
logies permettant de réaliser des séries de lancement de cartes électroniques. Il s’agit
de petites ou de moyennes séries, c’est-à-dire du prototype aux séries de 5 à 200 pro-
duits par mois, toutes technologies confondues. L’activité de l’entreprise est donc de
produire et de maîtriser tous les paramètres de la production pour offrir à ses clients
le service qu’ils attendent. La compétitivité repose sur des prix concurrentiels mais
aussi sur un haut niveau de qualité et le respect des délais. En effet, la gestion de la
qualité est stratégique et s’est concrètement traduite par l’engagement d’une procé-
dure de certification qui a abouti en 1994 à l’obtention de la norme ISO 9002. Depuis
sa fondation, l’entreprise maintient une image de qualité symbolisée par son sigle :
une abeille qui marque le goût de l’effort industriel. Ce qui, il y a quelques années
pouvait paraître secondaire est aujourd’hui devenu une condition de survie pour ce
type d’entreprise amenée à travailler avec de grands donneurs d’ordres de plus en plus
exigeants. Le second mot d’ordre de la production est le délai. Devant la concurrence
accrue du marché de la sous-traitance électronique, l’entreprise s’est engagée dans
une perspective de délai minimum et a mis en place, dans cette optique, un système
d’horaires dynamiques permettant à chaque salarié de faire varier ses horaires afin de
garantir les délais de production. L’entreprise cherche à adapter son personnel aux
transformations de l’environnement professionnel notamment par un ensemble de for-
mations spécialisées dans le domaine de la technologie (nouveaux procédés, nouvel-
les machines).
La sous-traitance électronique connaît actuellement en France une mutation
importante. Entre 1980 et 1990, le nombre d’entreprises de sous-traitance électroni-
que est passé de 500 pour 25 000 salariés à 1 350 pour 56 000 salariés. Cette décen-
nie de redistribution des données industrielles entre donneurs d’ordres et sous-
traitants a vu le développement de cette profession. Entre 1990 et 1995, le nombre
d’entreprises spécialisées dans la sous-traitance électronique est passé à 1000 pour
un effectif de 45 000 salariés alors que le marché a enregistré une croissance de
3,3 milliards à 5 milliards d’euros. Le développement de ce marché se confirme
puisqu’en 1996, il est passé à 5,75 milliards d’euros ce qui correspond à une crois-
sance de 15 %. De plus, la croissance mondiale de ce marché est estimée à 22 % par
an pour les cinq prochaines années à venir. La sous-traitance électronique est en fait
une profession qui s’organise pour faire face aux besoins des grands donneurs
d’ordres. Cela devient aujourd’hui un métier crédible qui se présentera à terme comme
148 Recherche-intervention et innovations managériales

un point de passage obligé, chacun devant concentrer ses ressources sur son métier
de base. On peut donc dire que la profession s’organise autour de grands équipemen-
tiers en électronique. C’est un marché porteur, en pleine évolution mais fortement
atomisé et concurrencé. On dénote ainsi un nombre important de concurrents mais
seulement sur certains marchés. La part de marché de Thélec se situe environ à 1 %
pour un chiffre d’affaires de 10 millions d’euros. L’entreprise se classe parmi les 150
premiers sous-traitants français et son chiffre d’affaires, depuis sa création, ne cesse
de croître même si plus d’un millier d’entreprises se partagent le marché. La stratégie
de l’entreprise est de se positionner le plus largement possible sur le cycle industriel
et de développer des prestations à forte valeur ajoutée telles que l’industrialisation
ou la conception (activité représentant actuellement 10 à 20 % des activités) pour
faire face aux exigences de la demande.

L’entreprise se positionne sur le marché de l’électronique professionnelle et


traite avec une quarantaine de donneurs d’ordre. Il faut distinguer les clients du
groupe Fidel (Gec Alsthom, Cegelec, etc.) qui représentent 20 % environ des comman-
des et les clients hors groupe. Les clients disposent d’un fort pouvoir de négociation
puisque ce sont eux qui fixent les règles du jeu le plus souvent. L’entreprise doit
s’adapter aux exigences des clients et tente de les satisfaire au maximum. Sa stratégie
commerciale est de chercher à se situer le plus en amont possible dans le projet
industriel pour être force de propositions. Elle cherche à travailler avec des clients
spécialisés dans le secteur industriel et médical situés dans le quart Sud-Est de la
France et qui sont dans une logique d’exportation. La force de vente de l’entreprise
soutient particulièrement des produits bien connus par l’entreprise et pour lesquels
elle dispose d’un savoir-faire, ce qui lui permettra d’être plus performante en termes
de délais, flexibilité, qualité. Par ailleurs, l’entreprise veille à ce que chaque client ne
représente pas plus de 20 % de son chiffre d’affaires pour éviter les problèmes de
dépendance auxquels sont confrontées les entreprises de sous-traitance. Sa stratégie
commerciale est de conclure avec ses clients de véritables accords de partenariat
puisque l’objectif est de privilégier des relations s’inscrivant dans la durée. L’entre-
prise s’efforce de développer un marketing relationnel avec ses clients.

A. POSITIONNEMENT CONCURRENTIEL

Face à une vive concurrence, cette entreprise ne peut pas supporter durable-
ment une compétition par les coûts. Elle vise à développer un avantage concurrentiel
en termes de réactivité et de flexibilité organisationnelle fondées sur l’avantage
logistique. Précisément, il s’agit de créer un service de tout premier plan en termes de
réactivité, de qualité et de tenue des délais dans le but de relativiser les inconvé-
nients d’une main-d’œuvre à coût élevé par une qualité de service, une forte réacti-
vité et une technicité irréprochable. C’est en proposant aux clients un processus
permanent d’amélioration des coûts d’obtention, c’est-à-dire non seulement du prix
du produit, mais aussi de tout ce qui l’entoure (qualité, capacité d’évolution, qualité
du système d’information, livraison…) que Thélec cherche à relever le défi de la con-
currence mondiale. Cette politique est guidée par la volonté stratégique de générali-
ser les partenariats aussi bien avec les fournisseurs qu’avec les clients.
La production d’innovations managériales 149

B. LES INNOVATIONS ORGANISATIONNELLES


L’entreprise s’appuie sur une organisation la plus flexible possible de façon à
limiter les coûts de structure et pour favoriser la communication directe entre les
niveaux hiérarchiques. Celle-ci mise sur l’autonomie de son personnel, son sens des
responsabilités pour accroître sa réactivité. On peut donc dire que Thélec est une
structure entrepreneuriale puisque le pouvoir est détenu avant tout par son dirigeant
M. Le François qui a une vision stratégique de l’entreprise fondée sur le développe-
ment de son potentiel humain. Dans cette perspective, l’entreprise souhaite mettre en
place une nouvelle organisation de la production par modules permettant de regrou-
per des compétences afin de réaliser une mission élargie. Ces modules seraient de
trois types.
En premier lieu, on trouverait des modules de production qui gèrent des opéra-
tions, du devis jusqu’à la livraison de la marchandise. Ces modules seraient ainsi com-
posés d’un acheteur, d’un commercial, d’une personne du bureau et des méthodes
ainsi que des opérateurs de production.
En second lieu, des modules à ressources partagées pourraient être mis en
place. Ils se présenteraient comme des prestataires de services animés par une logi-
que clients/fournisseurs et seraient chargés de la gestion de certaines ressources de
l’entreprise (machines, gestion des stocks) pour des raisons économiques. Selon ce
projet d’organisation, chaque module serait placé sous la responsabilité d’un coor-
donnateur.
Enfin, des modules de services assureraient le soutien logistique et administra-
tif à l’ensemble de l’entreprise. Bien que les modules de production disposent d’une
autonomie pour intervenir sur les aléas du court terme, la coordination de l’ensemble,
en particulier sur le moyen et long terme deviendrait une dimension incontournable.
Cette coordination pourrait être confiée à un ensemble de modules de services ayant
chacun une mission transversale.
Au total, la finalité de cette nouvelle organisation plus transversale serait de
donner une plus grande autonomie aux collectifs de travail, de développer la coopéra-
tion horizontale et une plus grande polyvalence par une diffusion des compétences à
l’intérieur des modules.

2.1.2 Le management des ressources humaines de l’entreprise


La volonté de Thélec en termes de projet organisationnel et de plan stratégi-
que est de poursuivre sa politique de croissance à partir de la mise en œuvre de qua-
tre axes d’actions prioritaires. Précisément, les quatre actions stratégiques
poursuivies sont les suivantes.
■ La réorganisation de la production en modules et en groupes autonomes de
travail. Il s’agit d’un projet ambitieux visant une remise en cause des façons
de travailler au sein de l’atelier de production. Les compétences seront rassem-
blées dans des groupes autonomes de travail. Le comité d’entreprise est forte-
ment impliqué dans ce chantier.
■ Le regroupement de services. L’entreprise souhaite regrouper toutes les per-
sonnes des services dans un espace vitré, afin de favoriser le décloisonnement,
150 Recherche-intervention et innovations managériales

la communication active entre les services ainsi que la mutation des fonctions
comme cela est prévu.
■ Les horaires dynamiques. Ce système d’horaire flexible doit permettre aux sala-
riés de faire varier leurs horaires, voire même de s’absenter de l’entreprise, si
les délais sont respectés. Un logiciel a été implanté à cet effet.
■ La formation et l’autonomie des hommes. Le plan de formation est centré sur
le développement de l’autonomie et la responsabilité de l’ensemble du person-
nel. Pour cela, une priorité est donnée aux formations permettant à l’entre-
prise d’être autoapprenante et qualifiante et d’améliorer sa performance
globale : principes de management et de communication interpersonnelle,
méthodes de résolutions de problèmes, formation de formateurs. Au total, la
performance globale est aujourd’hui redéfinie dans cette entreprise comme la
capacité de faire face aux six défis précédemment cités (délais, coûts, flexibi-
lité, qualité, innovation, variété) à partir d’une vision des compétences humai-
nes fondée sur l’autonomie et la responsabilité de l’acteur.

2.2 LES IMPLICATIONS MANAGÉRIALES DES INNOVATIONS


ORGANISATIONNELLES

Dans le cadre de travaux de recherche précédents, notre contribution a été de


mettre en évidence la relation existante entre l’intervention d’un chercheur en gestion
dans une organisation et la production d’actes de management innovants dans la
structure. À partir du cas Thélec qui précède, il nous semble important de souligner
que l’intervention d’un chercheur en management peut favoriser le développement de
l’autonomie chez les acteurs à partir de deux actes de gestion fondamentaux :
l’introspection et la conception de méthodes. En effet, le changement de structure et
les nouveaux principes d’actions fondés sur plus d’autonomie et sur la recherche
d’innovations produits doit favoriser cette évolution. En outre, le positionnement de
cette entreprise dans son environnement va probablement évoluer dans les mois à
venir. L’entreprise Thélec ne peut pas durablement continuer à axer la compétitivité
sur les coûts ; elle recherche ainsi de nouvelles bases de compétitivité fondées sur
l’innovation, la logistique, les services… Dans le but de suggérer des pistes d’actions
inspirées de ce cas d’entreprise développé en première partie, nous expliciterons donc
dans un premier temps la contribution de l’introspection organisationnelle. Dans un
deuxième temps, nous montrerons dans quelle mesure les capacités conceptives des
acteurs autonomes peuvent contribuer au développement organisationnel de l’entre-
prise.

2.2.1 Une logique d’apprentissage organisationnel


De nombreuses publications montrent que le développement de nouvelles for-
mes d’organisation repose sur un effort important d’apprentissage des hommes. À tra-
vers l’analyse du cas Thélec, il semble que l’entreprise vise à promouvoir, chez les
acteurs, le développement d’actes de gestion introspectifs et conceptifs. Les actes
introspectifs sont des actions conduisant les acteurs à s’interroger sur les actes qu’ils
produisent et sur leurs effets sur la performance économique et sociale de l’entre-
prise. Dans le même ordre d’idées, plusieurs spécialistes de la gestion des petites et
La production d’innovations managériales 151

moyennes entreprises soulignent que les dirigeants ne dressent pas, le plus souvent,
le diagnostic des performances et des dysfonctionnements qui leur permettrait de
définir les améliorations possibles 5. Précisément, les actes de gestion auxquels on
fait référence correspondent en fait à des pratiques de management réitérées périodi-
quement lorsqu’un événement donné se produit. Cette approche des actes de gestion
introspectifs s’appuie sur l’idée selon laquelle un chercheur peut agir tel un facilita-
teur et un catalyseur pour rendre nombre d’acteurs de plus en plus capables d’affron-
ter et de résoudre eux-mêmes leurs problèmes. Les solutions apportées par les acteurs
aux problèmes auxquels ils sont confrontés doivent concourir d’une certaine manière
au développement de la performance de l’entreprise. En ce sens, les chercheurs, par la
nature même de leurs prestations immatérielles, développent les actes de gestion
introspectifs des cadres ou des dirigeants concernés. Les groupes de projet d’amélio-
ration favorisent le développement de l’introspection organisationnelle. Les instru-
ments de gestion (tels que par exemple le tableau de bord de pilotage ou l’analyse
des compétences) conduisent simultanément à une analyse approfondie de l’utilisa-
tion du temps de travail au sein de différents services, ainsi qu’à une étude rigoureuse
de la répartition de l’état des compétences. En définitive, le développement de
l’introspection contribue à l’autonomie de l’acteur puisque cela conduit à l’accroisse-
ment du niveau de visibilité et de lisibilité. Il convient à présent de s’intéresser aux
capacités conceptives des acteurs.

2.2.2 Les changements managériaux observés dans l’entreprise


La théorie du pouvoir proposée par Crozier et Friedberg montre que l’homme au
travail ne peut pas être simplement considéré comme une main, ce que supposait
implicitement le modèle taylorien, ni même comme une main et un cœur comme le
réclamaient les avocats du mouvement des relations humaines. Crozier et Friedberg
montrent, à partir de leur modèle d’analyse stratégique, que l’acteur dans le système
est avant tout une tête, c’est-à-dire une liberté, ou en termes plus concrets, un agent
capable de calcul et de manipulation qui s’adapte et invente en fonction de ses parte-
naires. Cette conception de l’acteur est proche des observations développées ici dans
la mesure où nous insistons sur l’idée que l’homme est capable de faire preuve de
créativité dès lors que celle-ci est activée par le mode de management de l’organisa-
tion. Un des objectifs fondamentaux d’une formation au management est le dévelop-
pement chez les acteurs d’actes conceptifs. Il s’agit d’actes intégrés à des pratiques
professionnelles pouvant constituer des leviers d’actions considérables puisque ce
sont des connaissances éprouvées et mises en œuvre régulièrement par les acteurs.
Pour ce faire, il est indispensable que les chercheurs, par la nature même de leur
démarche, apportent de nouvelles connaissances en management aux acteurs avec
lesquels ils sont en relation de travail. Cette logique de diffusion de connaissances
dans les organisations intéresse les acteurs, souvent à la recherche de nouveaux
savoirs. Le caractère pédagogique de la mission des chercheurs en gestion dans les
organisations est bien un élément essentiel à la démarche. Les actes conceptifs sont
des pratiques visant la détection d’invariants de fonctionnement plus efficaces à par-
tir de l’accumulation formalisée et structurée des enseignements tirés des multiples

5 Cf. M. Marchesnay, C. Fourcade (éd.), Gestion des PME/PMI, Paris, Nathan, 1997.
152 Recherche-intervention et innovations managériales

expériences des acteurs. Ces modélisations se manifestent par des conceptualisations


de principes d’action efficaces et susceptibles d’être mis en œuvre lorsqu’un événe-
ment donné se produit. Par exemple, un dirigeant doit pouvoir mieux expliciter des
représentations telles que la manière dont il perçoit son environnement, sa position
ou encore ses avantages distinctifs. Dans une telle démarche, le décideur prend cons-
cience des problèmes stratégiques et peut être en mesure de déboucher sur des axes
stratégiques majeurs. Par ailleurs, l’effort de connaissances accompli par un groupe
de travail peut améliorer sensiblement l’efficacité productive et commerciale d’une
usine. Ainsi, le savoir acquis par les différents acteurs permet d’envisager de nouvel-
les pratiques, ce qui a pour principal effet de rendre plus pertinentes les orientations
stratégiques retenues par le groupe de travail. Finalement, on peut dire que le cher-
cheur, dans le cadre d’une recherche-intervention, est en position d’agent de change-
ment, dans le sens où il a pour principale mission d’aider les acteurs à prendre
conscience d’une série de problèmes stratégiques (introspection) et à imaginer des
transformations durables (conceptualisation) conduisant à une amélioration de l’effi-
cacité économique et sociale. Au total, il participe à l’évolution des possibles au sein
de l’organisation faisant l’objet de ses investigations. Concrètement, les différentes
expériences réalisées ont participé à une logique de développement organisationnel,
notamment sur les axes suivants :
– l’enrichissement du travail humain et le développement du potentiel humain
par des actions de formation, de nouvelles connaissances en gestion et une
plus grande polyvalence ;
– le développement du pilotage par la mise en place de tableaux de bord et d’ins-
truments de gestion des compétences ;
– la mise en place de dispositifs de communication visant la synchronisation des
services (logique de coopération) et l’amélioration de la qualité du dialogue
professionnel.
Face à la conjoncture économique et sociale et aux difficultés croissantes des
organisations, l’idée de formaliser des éléments de théorie et de méthode en manage-
ment se développe. En effet, la fin des années 1990 se caractérise notamment par
l’essor d’une société informationnelle fondée sur une économie du savoir où les inves-
tissements immatériels deviennent fondamentaux pour nombre d’organisations. Cette
nouvelle légitimité liée à la dématérialisation de l’économie et du travail est singuliè-
rement stimulante pour le chercheur en sciences de gestion dont les apports concep-
tuels, méthodologiques et pratiques peuvent être significatifs pour les praticiens de
la gestion.

2.3 PERSPECTIVES DE DÉVELOPPEMENT STRATÉGIQUE


POUR L’ENTREPRISE THÉLEC

L’analyse du cas de l’entreprise Thélec montre que l’on peut identifier des élé-
ments à prendre en considération afin de réaliser une innovation organisationnelle
facilitée par le développement de l’autonomie dans l’entreprise. Néanmoins, le projet
stratégique et organisationnel de cette entreprise en croissance pose un certain nom-
bre de questions qu’un chercheur peut faire émerger dans l’entreprise pour contribuer
avec succès à la réalisation d’un tel projet. Quelles sont les difficultés à prévoir pour
La production d’innovations managériales 153

mettre en œuvre le projet ? Quelles sont les chances de réussite de celui-ci ? Com-
ment le processus de changement peut-il évoluer favorablement et sous quelles
conditions ?

2.3.1 Le projet stratégique et organisationnel de l’entreprise


En première analyse, on peut considérer que l’entreprise Thélec, compte tenu
de sa taille et de sa situation, a un projet d’entreprise ambitieux qui doit lui permet-
tre de faire face à son développement tout en contribuant à l’amélioration impérative
de son résultat net comptable global. Ce projet est donc bien stratégique puisqu’il
engage irrémédiablement l’entreprise à long terme. Le dirigeant a une véritable ambi-
tion pour son entreprise et cherche à réaliser le changement de façon structurante, à
partir de méthodes et d’instruments de gestion. Néanmoins, les chances de réussite
du projet sont étroitement liées à sa capacité de mobilisation de tous les acteurs de
l’entreprise. Le rôle du dirigeant et de son équipe est donc de créer les conditions de
réussite du projet organisationnel. Dans cette optique, il est important de prendre en
compte les opinions de tous les responsables de services par des entretiens approfon-
dis. Dans un second temps, ils peuvent mettre en place des dispositifs de travail sur
le projet fondés sur la concertation. À travers cette démarche fondée sur l’écoute
active et la concertation, la direction de l’entreprise contribue à une meilleure accep-
tation du projet, en instaurant plus de confiance et en lui enlevant notamment son
caractère un peu brutal. Cette conception de la conduite du projet implique de fournir
aux principaux acteurs concernés des méthodes et des outils de pilotage dont l’effica-
cité dépendra, néanmoins, de la façon dont le personnel se sera mobilisé autour du
projet. Au total, le rôle du dirigeant est bien celui d’un facilitateur mais également
d’un catalyseur où le développement de l’autonomie constituera un facteur clé de
succès du projet.

2.3.2 La formation au management


En seconde analyse, il s’agit de bien prendre en considération le caractère
interactif de la démarche de transformation de l’entreprise mise en œuvre. En ce sens,
les investissements immatériels favoriseront le processus de changement grâce à
l’introduction de nouvelles méthodes, d’outils et d’instruments de gestion. Cette
entreprise a notamment mis en place une formation au management de projet, des
entretiens approfondis, une grille d’analyse de la gestion du temps du dirigeant, des
cartographies des compétences des services ou encore des tableaux de bord de pilo-
tage destinés aux responsables des unités autonomes de travail. Ces outils coproduits
avec le dirigeant sont relativement structurants et permettent de construire une rela-
tion de travail professionnelle. Par ailleurs, l’amélioration de la coopération inter-ser-
vices et, plus généralement, la communication horizontale constituent l’un des
enjeux stratégiques du projet de changement. Dans le but de développer l’efficacité
du projet, le dirigeant peut chercher à impliquer dans la démarche tous les salariés
dans le cadre de groupes de projet au sein desquels le dirigeant aura une action
managériale. Ces groupes de travail présentent l’avantage d’associer activement
l’ensemble des acteurs et conduisent à confier à tout un chacun une ou plusieurs mis-
sions stimulantes. Par exemple, un ou deux salariés pourraient réfléchir à la mise en
place de règles et de procédures de fonctionnement ou encore à des indicateurs
154 Recherche-intervention et innovations managériales

visant à enrichir les tableaux de bord de pilotage de l’entreprise. La démarche de con-


sultation pourrait, in fine, permettre au dirigeant de déléguer de façon concertée cer-
taines activités internes afin de se consacrer davantage au développement
commercial.

2.3.3 Les solutions organisationnelles


En définitive, il est important d’insister sur quatre variables d’actions opéra-
tionnelles, interactives et volontaristes.
■ En ce qui concerne le dirigeant, ce changement organisationnel lui a permis de
prendre conscience de l’intérêt personnel qu’il peut trouver dans la mise en
œuvre effective d’un certain nombre d’actions de changement. À titre d’exem-
ple, une gestion du temps raisonnable et fondée sur davantage de délégation
concertée pourrait lui permettre de favoriser des actions stratégiques à long
terme.
■ Pour ce qui est de la stratégie, il convient d’envisager une différenciation plus
nette vis-à-vis des principaux concurrents en affichant davantage des éléments
distinctifs (logistique, innovation produit, qualité…) tout en cherchant à les
accentuer. Cette approche de la stratégie implique bien une logique de déve-
loppement du potentiel humain envisagée dans une perspective d’accroisse-
ment de la compétitivité de l’entreprise.
■ Quant à la gestion commerciale, il y a lieu d’envisager de mettre en œuvre une
politique de marketing plus ambitieuse pilotée par un commercial salarié de
l’entreprise et intéressé aux résultats. Cela pourrait aussi permettre à Thélec de
développer ses exportations.
■ Sur le plan de la gestion des ressources humaines et du management, la politi-
que actuelle va bientôt atteindre ses limites. À terme, la question du recrute-
ment d’un spécialiste de gestion des ressources humaines va se poser.
Néanmoins, il s’agira pour cet expert d’être capable de démontrer l’intérêt et la
légitimité de sa fonction dans l’entreprise en valorisant sa propre production
(de méthodes, d’outils…). Dans tous les cas, il s’agira de préparer rigoureuse-
ment la prise en charge de la fonction ressources humaines par un nouveau
salarié de l’entreprise. Concernant la gestion de l’emploi, l’entreprise s’oriente
vers une gestion qualitative axée sur l’acquisition et le développement de nou-
velles compétences.
En définitive, ce cas d’entreprise montre comment la mise en œuvre d’un déve-
loppement qualitatif de l’entreprise est possible, ce qui suppose davantage d’autono-
mie donnée aux acteurs ainsi que l’amélioration du professionnalisme en management
qui peut faciliter la restructuration de l’entreprise et la maîtrise de la croissance à
laquelle elle doit faire face.

3. Conclusion

Les contraintes internationales de compétitivité et de rentabilité financière


obligent les entreprises à rechercher toujours plus de productivité et de flexibilité.
Bibliographie 155

Cette quête de compétitivité ne peut être discutée sans tenir compte des profondes
mutations auxquelles sont soumises les organisations et leur mode de management.
La mondialisation des entreprises peut constituer une réelle opportunité pour déve-
lopper les compétences des hommes et leur niveau de qualification. C’est suivant une
telle perspective que se développent les systèmes de gestion des compétences et des
connaissances. En effet, le contexte international caractérisé par la montée de la
complexité et de l’incertitude rend indispensable la maîtrise de compétences clés tel-
les que des capacités de discernement des managers internationaux, d’organisation de
réseaux relationnels, de conduite de projets émergents, de mise en synergie d’activi-
tés différentes, d’interculturalité, etc. Les approches contemporaines du management
ainsi que le cas de l’entreprise Thélec visent à montrer les conditions de production
de la compétence dans le contexte d’une économie du savoir et d’une dématérialisa-
tion de l’entreprise. Le développement du travail collectif, de la gestion des équipes
et de nouvelles formes de coopération dans les entreprises résulte bien d’innovations
organisationnelles qui conduisent à une approche renouvelée de la gestion des hom-
mes.

Bibliographie
Amadieu J.-F. et Cadin L. (1996), Compétences et organisation qualifiante, Economica,
Paris.
Aoki M. (1986). « Horizontal versus Vertical Information Structure of the Firm », Ameri-
can Economic Review, vol. 76, n° 5, September, pp. 971-983.
Argyris C. (1983). « Action Science and Intervention », Journal of Behavioral Science,
vol. 19, pp. 115-140.
Berger P. et Luckmann T. (1986), La construction sociale de la réalité, Paris, Méridiens
Klincksieck.
Bournois F. et Roussillon S. (1998), Préparer les dirigeants de demain, Les éditions
d’Organisation, Paris.
Chaval V., Lesca H. et Martinet A.-C. (1997), Vers une ingénierie de la recherche en
sciences de gestion, Revue française de gestion, n° 116, octobre-novembre, pp. 41-
51.
Devereux G. (1980), De l’angoisse à la méthode dans les sciences du comportement,
Paris, Flammarion.
Drucker P.F. (1999), Knowledge-Worker Productivity : The Biggest Challenge, California
Management Review, vol. 41, n° 2, pp 79-98.
Garfinkel H. (1967), Studies in Ethnomethodology, Englewoods Cliffs, NJ, Prentice Hall.
Girin J. (1990), Analyse empirique des situations de gestion : éléments de théorie et de
méthode, in Épistémologies et sciences de gestion coordonné par A.-C. Martinet, Eco-
nomica, Paris, pp 141-181.
Hatchuel A. (1992), L’intervention des chercheurs en entreprise, Éducation permanente,
n° 113, pp. 73-88.
Huberman M.A. et Miles M.B. (1991), Analyse des données qualitatives. Recueil de nou-
velles méthodes, De Boeck Université, Première édition américaine 1984.
156 Recherche-intervention et innovations managériales

Hubert G. et Van de Ven A. (1990), Longitudinal Field Research Methods for Studying
Processes of Organizational Change, Organizational Science, vol. 1, n° 3, pp. 213-219.
Igalens J. et Roussel P. (1998), Méthodes de recherche en gestion des ressources humai-
nes, Economica, Paris, Coll. Recherche en Gestion.
Johnson H.T. (1982), : Relevance Regained. From Top-Down Control to Bottom-up
Empowerment, Free Press, New-York.
Kaplan R. S. (1998). « Innovation Action Research : Creating New Management Theory
and Practice », Journal of Management Accounting Research, vol. 10, pp. 89-117.
Koenig G. (1993), « Production de la connaissance et constitution des pratiques
organisationnelles », Revue de gestion des ressources humaines, n° 9, pp. 4-17.
Lewin K. (1947), Group Decision and Social Change, in Newcomb T. M. et Hartley E. L. :
Reading in Social Psychology, New York, Holt.
Lorino P. (1995), Comptes et récits de la performance. Essai sur le pilotage de l’entre-
prise, Les éditions d’Organisation, Paris.
Louart P. (1995), Succès de l’intervention en gestion des ressources humaines, Liaisons,
Paris.
March J.G. et Simon H.A. (1958), Les organisations, Paris, Dunod, 2e édition française
1991.
Martinet A.-C. (1992), La recherche en gestion en collaboration avec les entreprises,
Communication au colloque du 08 avril organisé par l’Institut de Recherche en ges-
tion. Actes publiés par le Groupe ESC Lyon, pp. 23-36.
Mathieu M. (1986), La familiarité distante, Gérer et Comprendre, Annales des Mines,
mars, pp 81-94.
Mevellec P. (1990), Outils de gestion. La pertinence retrouvée, Éd. Comptables Malesher-
bes, Paris.
Miller D. et Friesen P.H. (1984), Organizations. A Quantum View, Prentice Hall Inc.,
Englewood Cliffs, New Jersey.
Morgan G. (1990), Paradigm Diversity in Organizational Research, in Theory and Philoso-
phy in Organizational Research, Edited by Hassard J. et Pym D., Routledge, pp. 13-
29.
Nonaka I. (1994), A Dynamic Theory of OrganizationalKnowledge Creation, Organization
Science, vol. 5, n° 1, février, pp. 14-37.
Ouchi W. (1979), A Conceptual Framework for the Design of Organizational Control
Mechanisms, Management Science, vol. 25, n° 9, Sept., pp. 833-847.
Perrow Ch. (1967), A framework for Organizational Analysis, American Sociological
Review, n° 16, pp. 444-459.
Pettigrew A.M. (1990), Longitudinal Field Research on Change : Theory and Pratice, Orga-
nization Science, vol. 1, n° 3, pp. 267-292.
Plane J.-M. (2003), Management des organisations, Dunod, Paris.
Plane J.-M. (2001), Action Science, Intervention on Company Management and Develop-
ment, EGOS, July, Lyon.
Plane J.-M. (2000), Méthodes de recherche-intervention en management, L’Harmattan,
Paris, Coll. Économiques.
Porter M.E. (1986), L’avantage concurrentiel, InterÉditions, Paris.
Reix R. (1995), Savoir tacite et savoir formalisé dans l’entreprise, Revue française de
gestion, septembre-octobre, n° 105, pp. 17-28.
Bibliographie 157

Riboud A. (1987), Modernisation mode d’emploi, Rapport au premier ministre, Union


moderne d’édition, Collection 10/18, Paris.
Sanchez R. et Heene A. (éd.) (1997), Strategic Learning and Knowledge Management,
John Wiley et Sons, Chichester.
Sanchez R., Heene A. et Thomas H. (éd.) (1996), Dynamics of Competence-Based Compe-
tition. Theory and Practice in the New Strategic Management, Elsevier Science.
Savall H. (1986), Le contrôle de qualité des informations émises par les acteurs des orga-
nisations, Colloque Méthodologies fondamentales de la recherche en gestion, Actes
FNEGE-ISEOR, pp. 206-280.
Schein E.H. (1987), The Clinical Perspective in Fieldwork, Sage publications, Beverly
Hills.
Senge P. (1992), The First Discipline, Century business, London.
Tabatoni P. et Jarniou P. (1975) Les systèmes de gestion. Politiques et structures, Paris,
PUF.
Tarondeau J.C. (1998), Le management des savoirs, Paris, PUF, Coll. QSJ, n° 3407.
Teece D. J., Pisano G. et Shuen A. (1997), Dynamic Capabilities and Strategic Manage-
ment, Strategic Management Journal, vol. 18, 7, pp. 509-533.
Thietart R.A. et coll. (1999), Méthodes de recherche en management, Paris, Dunod.
Thompson J.D. (1967), Organizations in Action, Mc Graw-Hill, New-York.
Wacheux M. (1996), Méthodes qualitatives et recherche en gestion, Economica, Paris.
Weick K.E. (1989), Theory Construction as Disciplined Imagination, Academy of Manage-
ment Review, vol. 14, n° 4, pp. 516-531.
Weick K.E. (1979), The Social Psychology of Organizing, 2e ed, Reading M.A. Addison
Wesley.
Whitley R. (1984), The Intellectual and Social Organization of The Science, Clarendon
Press, Oxford.
Yanat Z. (1992), L’ethnométhodologie, démarche pour un audit social stratégique effi-
cace, Revue de gestion des ressources humaines, n° 3, pp. 23-32.
Zarifian P. (1994), Compétence et organisation qualifiante en milieu industriel, in Minet
F., Parlier M. et De Witte S., La compétence, mythe, construction ou réalité ? Éd. L’Har-
mattan, Paris.
Chapitre 6

La recherche en gestion
et les méthodes ethnosociologiques
Jean-François CHANLAT 1

Sommaire

1 Les méthodes ethnosociologiques appliquées


aux organisations et à la gestion 160

2 Deux méthodes ethnosociologiques 163

3 Les méthodes ethnosociologiques et le champ


de la recherche en gestion 168

4 Conclusion 172

1 Professeur, Laboratoire Crepa, Université Paris-Dauphine.


160 La recherche en gestion et les méthodes ethnosociologiques

La recherche en gestion connaît depuis maintenant plus de vingt ans un essor


considérable. Le projet de créer un champ scientifique à part entière dans ce domaine,
projet mis en avant à plusieurs reprises au cours du siècle dernier, notamment aux
États-Unis, est aujourd’hui une réalité sociale (Bouilloud et Lécuyer, 1995 ; Wren,
1994). Le nombre considérable de chercheurs, les nombreuses associations scientifi-
ques, les fréquents colloques et la multitude des publications dans le domaine des
sciences de la gestion et des organisations sont là pour en témoigner, tant dans le
monde en général que dans le monde francophone en particulier.
Si le champ de la recherche en gestion est particulièrement diversifié tant au
niveau de ses objets d’investigation que dans ses méthodes, d’aucuns s’en inquiétant
et d’autres s’en réjouissant, il reste que lorsqu’on examine attentivement la domi-
nante méthodologique, elle demeure largement l’apanage des méthodes quantitatives.
De nombreuses sous-disciplines de la gestion, en particulier la finance, le marketing,
la gestion des opérations en ont fait même, dans certains cas, la seule méthode scien-
tifique digne de ce nom. Le champ de la recherche en gestion des ressources humai-
nes en revanche semble, en France, accorder une place semblable aux méthodes
quantitatives et aux méthodes qualitatives (Schmidt, 2002).
Que les méthodes quantitatives aient leur raison d’être dans de nombreuses
recherches, personne ne peut, bien sûr, le contester. Bien des collègues vont
d’ailleurs montrer l’intérêt et l’utilité de telles méthodes dans cet ouvrage. Mais, à
l’instar d’autres chercheurs en gestion (Berry, 1987 ; Charrue-Dubosc, 1994 ;
Wacheux, 1996), il me semble que le champ de la recherche en gestion gagnerait par-
fois à puiser davantage à d’autres sources méthodologiques qualitatives moins utili-
sées. C’est la raison pour laquelle l’objet de mon propos dans ce chapitre sera de
présenter l’intérêt et l’utilité potentielle de deux méthodes issues de la tradition
ethnosociologique : la méthode des récits de vie et la méthode de l’observation parti-
cipante dans la compréhension de certaines pratiques de gestion ou d’univers organi-
sés.
Mon papier se divisera en quatre parties : dans un premier temps, je rappellerai
brièvement quelques éléments concernant la tradition ethnosociologique appliquée
aux organisations et à la gestion, dans un deuxième temps, je présenterai la méthode
des récits de vie, dans un troisième temps, la méthode de l’observation participante
et dans un quatrième temps, j’aborderai l’utilité, mais aussi les limites, de l’utilisation
de ces méthodes en gestion et en gestion des ressources humaines.

1. Les méthodes ethnosociologiques appliquées


aux organisations et à la gestion

L’ethnologie et la sociologie, en tant que disciplines constituées, apparaissent


au tournant du vingtième siècle. Alors que la première s’intéresse aux sociétés dites
primitives ou archaïques, la seconde se penche sur les sociétés industrielles en évolu-
tion. Séparées par leur objet, l’une étudiant les sociétés non occidentales, l’autre, les
sociétés occidentales, elles seront également souvent divisées par leur méthode. C’est
ainsi que les ethnologues développeront des méthodes essentiellement qualitatives
Les méthodes ethnosociologiques appliquées aux organisations et à la gestion 161

(observation participante, entretiens, récits de vie, …) et que les sociologues auront


davantage recours aux méthodes dites quantitatives. Ce qui ne signifie pas, bien sûr,
que certains sociologues n’utiliseront pas des méthodes ethnologiques et les ethnolo-
gues des méthodes quantitatives. Mais alors que le recours à l’observation de terrain
sera obligatoire dans la formation des ethnologues dans la foulée de la position prise
par Malinowski et Boas, les fondateurs de l’ethnologie scientifique, il demeurera facul-
tatif pour les sociologues.
Dans le domaine de la recherche sur les organisations, domaine qui se déve-
loppe à partir de la première moitié du XXe siècle, on fait appel tout naturellement aux
deux disciplines. On utilise donc les méthodes privilégiées par l’une et l’autre. Les
premières recherches d’inspiration ethnologique correspondent à l’émergence de
l’École de sociologie de l’Université de Chicago, laquelle est très largement inspirée
par des ethnologues, Hughes notamment. C’est à l’intérieur de ce cadre que de nom-
breuses recherches sont menées et que les travaux pionniers de Warner et Low s’ins-
crivent, tout comme dans une certaine mesure le mouvement des Relations humaines
dans l’industrie animé par Mayo, Roethlisberger et Dickson (Séguin et Chanlat, 1983 ;
Desmarez, 1987). Par la suite, c’est-à-dire après la Seconde Guerre mondiale, la ten-
dance ethnologique continue à s’affirmer à travers les travaux de Whyte et dans une
certaine mesure à travers les recherches de terrain, notamment les études des sociolo-
gues de la bureaucratie comme Gouldner, Selznick ou Merton, lesquels procèdent à
des monographies d’entreprises publiques ou encore à travers celles de sociologues du
travail comme Roy aux États-Unis ou Lupton en Angleterre.
Cette tendance ethnographique va connaître de nouveaux développements en
sciences sociales, au cours des années 1960 et 1970, notamment avec les recherches
de Garfinkel (1967), Sacks, Becker (1963) et Goffman (1961). À partir des
années 1980, l’approche ethnographique est redécouverte par les sociologues. Les
ethnologues sont quant à eux de plus en plus nombreux à étudier nos sociétés et cer-
tains univers organisés en raison de la disparition de leur traditionnel objet d’études :
« la société primitive ». Par ailleurs, l’engouement pour la culture et la symbolique
qui se fait jour à ce moment-là dans les études organisationnelles n’est pas non plus
étranger à ce regain d’intérêt. Depuis lors, nous assistons à une présence non négli-
geable de ce type de travaux et à sa reconnaissance plus ou moins institutionnalisée
selon les endroits (Boden, 1994 ; Van Maanen, 1988, 1998 ; Schwartzman, 1993 ;
Hirsch et Gellner, 2001 ; Czarniawska-Joerges, 1997).
Dans le monde francophone, l’étude des organisations est d’abord passé par
une étude du travail. C’est à Michel Crozier, d’une part, et à l’Arip, d’autre part, que
nous devons les premiers travaux sur la dynamique des organisations, au tournant des
années 1960. Pendant près de dix ans, le Centre de sociologie des organisations (CSO)
fondé par Michel Crozier et l’Arip (Association de recherche et d’intervention psycho-
sociologique), qui regroupe des personnalités comme Eugène Enriquez, Jean et Jac-
queline Palmade, Jean Dubost, André Lévy et Max Pagès, vont constituer les
principaux centres de recherches sur les organisations (Chanlat, 2000). À la fin des
années 1970 et au cours des années 1980, on voit émerger de nouveaux centres de
recherche, tant en France qu’à l’étranger et notamment au Québec. Ils vont produire
de nombreux travaux de terrain dont certains auront recours aux méthodes ethnogra-
phiques (Berry, 1987 ; Aktouf, 1985 ; Hatchuel, David et Laufer, 2001). Parallèle-
162 La recherche en gestion et les méthodes ethnosociologiques

ment, plusieurs sociologues et ethnologues vont également s’intéresser à


l’organisation et à la gestion (d’Iribarne, 1989,1998, 2004 ; Guigo, 1993 ; Feynerol,
1995 ; Desjeux, 1991 ; Bouchard, 1985 ; Dupuis, 1990 ; Latour et Woolgar, 1988). En
utilisant certaines de leurs méthodes, ils vont restituer des univers souvent mécon-
nus, voire ignorés ou faire découvrir d’autres facettes de la réalité organisationnelle
sous un nouveau jour.
Le monde de la gestion ne restera pas isolé de ce mouvement. Bien au con-
traire, la popularité des formations en management, le développement des institu-
tions d’enseignement supérieur en gestion et leur intérêt croissant pour la recherche
organisationnelle vont amener certaines personnes appartenant au monde de la ges-
tion à s’intéresser à ces travaux de type ethnographique et à leurs méthodes, tant en
France qu’au Québec (Chanlat et Dufour, 1985 ; Berry, 1987 ; Chanlat, 1990). Par la
même, elles vont donner une certaine légitimité à des recherches qui étaient jusque-
là considérées par d’aucuns comme exotiques ou étranges. Si ce sentiment n’a pas
toujours disparu chez certains spécialistes de la gestion, il reste que les méthodes
d’inspiration ethnosociologique intéressent, aujourd’hui, de plus en plus de cher-
cheurs en gestion et en organisation. Cette tendance est également observable dans
le monde anglo-saxon, notamment de tradition britannique (Bate, 1997 ; Gellner et
Hirsch, 2001). Aux États-Unis, il y a d’illustres représentants de ces approches, même
s’ils restent largement minoritaires par rapport aux chercheurs utilisant des méthodes
quantitatives (Van Maanen, 1998).
Le recours à des études de terrain et à l’observation est d’ailleurs quelque
chose qui apparaît plus légitime dans l’univers francophone. C’est aussi une des origi-
nalités sur lesquelles reposent les travaux de langue française. Car ces méthodes nous
permettent d’accéder à l’expérience vécue par les acteurs en situation, à réintroduire
l’histoire et à rendre intelligible des comportements qui le sont difficilement par les
méthodes quantitatives (Chanlat, 2000).
La gestion est en effet à la fois un ensemble de pratiques sociales et un uni-
vers culturel (Sainsaulieu, 1977 ; Francfort et al., 1995). Vouloir comprendre ces pra-
tiques, décoder le sens des actions des différents acteurs en présence, restituer des
trajectoires professionnelles ne peuvent se faire qu’en faisant appel à des méthodes
de type ethnosociologique. Comme nous allons le voir maintenant, ces méthodes per-
mettent d’accéder à des éléments enfouis, cachés ou occultés, de rendre intelligible le
sens des comportements, même les plus étranges, bizarres ou étonnants, de mieux
saisir l’expérience vécue, les itinéraires et donc, de rendre la réalité humaine dans
toute sa complexité sociale et son épaisseur existentielle. Elles participent à la résis-
tance à ce que Paul Ricœur a appelé la fascination de la fausse objectivité, c’est-à-dire
à la fascination d’une humanité « où il n’y aurait plus que des structures, des forces,
des institutions et non plus des hommes et des valeurs humaines » (1955, p. 30).
Deux méthodes ethnosociologiques 163

2. Deux méthodes ethnosociologiques

2.1 LA MÉTHODE DES RÉCITS DE VIE


« En sciences sociales, le récit de vie, écrit Bertaux, un des principaux repré-
sentants de cette méthodologie en France, résulte d’une forme particulière d’entre-
tien, l’entretien narratif, au cours duquel un chercheur (lequel peut être un étudiant)
demande à une personne ci-après dénommée « sujet » de lui raconter tout ou partie
de son expérience vécue. » (1997, p. 6.)
Comme il nous le rappelle dans son petit ouvrage portant sur cette méthode
(1997), l’expression : récit de vie émerge en France au milieu des années 1970. Il rem-
place le terme histoire de vie qui avait le désavantage selon les chercheurs « de ne
pas distinguer entre l’histoire vécue par une personne et le récit qu’elle pouvait en
faire » (p. 6). Le récit de vie est donc un type particulier d’entretien, un entretien
narratif au cours duquel une personne raconte à un chercheur une partie ou l’ensem-
ble de son expérience sociale. Son objectif n’est pas de comprendre de l’intérieur les
représentations ou les valeurs de la personne interrogée, mais d’étudier des fragments
de la réalité sociale d’une catégorie socioprofessionnelle (les mineurs de fond, les
artisans boulangers, les conducteurs de trains…) ou encore une situation sociale par-
ticulière, les toxicomanes, par exemple.
L’avantage du recours à la méthode des récits de vie permet de rendre les itiné-
raires intelligibles grâce à l’analyse diachronique, d’éclairer les logiques d’action qui
les sous-tendent, de procéder à des récits de pratiques en situation et de mieux com-
prendre les contextes sociaux dans lesquels ces pratiques s’inscrivent. Mais, dans la
perspective développée par Bertaux, on privilégie l’étude des rapports sociaux struc-
turels et non les valeurs, les croyances, les représentations des personnes interrogées
ou encore la résonance psychosociale (de Gaulejac, 1987 ; Legrand, 1993). On s’inté-
resse donc de près aux pratiques récurrentes. Comme il l’écrit, « l’effort de compré-
hension des pratiques peut certes conduire à s’intéresser au niveau sémantique des
croyances, représentations, valeurs et projets qui, se combinant aux situations objec-
tives, inspirent les logiques d’action des acteurs ; cependant, contrairement à
d’autres orientations théoriques qui s’en tiennent à ce « niveau » sans prendre en
compte les conditions matérielles et sociales dans lesquelles se trouvent placés les
acteurs, la perspective ethnosociologique entend le traverser pour saisir des rapports
et processus sociaux structurels, selon le principe que l’existence précède la
conscience ; ce qui n’empêche pas de concevoir que cette dernière puisse faire retour
sur l’existence par la médiation des actes » (1997, p. 8).
La méthode des récits de vie en s’intéressant à des mondes sociaux, à des tra-
jectoires ou à des situations sociales singulières, cherche à rendre compte des logi-
ques qui les sous-tendent. La société étant constituée de mondes sociaux divers, une
des manières d’appréhender ces univers est d’avoir recours aux récits de vie, lesquels
rendent compte de l’histoire et des singularités de ces expériences collectives. Car,
comme le rappelle Becker, « si toute chose se produit nécessairement en un lieu
donné, toute chose se produit également nécessairement en un temps donné, et ce
temps donné n’a rien d’anodin » (2003, p. 103).
164 La recherche en gestion et les méthodes ethnosociologiques

L’enquête ethnosociologique s’intéresse généralement à des réalités mécon-


nues ou largement ignorées. De ce fait, elle ne part pas d’hypothèses toutes faites
qu’elle chercherait à vérifier. Au contraire, elle essaie de comprendre un univers et de
le restituer au fil de l’enquête. Car le chercheur est le plus souvent ignorant du milieu
qu’il étudie. Il cherche à savoir comment cela fonctionne en interviewant des person-
nes qui deviennent des informateurs de ce qui se passe. Contrairement aux enquêtes
d’opinion, d’attitudes ou de représentations classiques, on ne s’intéresse donc pas à
ce que répond le sujet en tant que personne, mais aux contextes sociaux dans les-
quels il se trouve.
La méthode des récits de vie, en s’attachant à faire émerger des expériences
vécues en contexte peut être un instrument méthodologique approprié pour rendre
compte de récits de pratique, autrement dit, pour rendre compte de ce que Bertaux
appelle l’action en situation. La pensée sociologique qui s’intéresse à ce type d’action
ne peut que s’appuyer sur des données recueillies par la méthode des récits de vie.
S’appuyant sur le travail mené par le philosophe Paul Ricœur autour du rapport
qu’entretiennent ensemble l’action et le récit, Bertaux considère que l’étude de
l’action sociale passe par un récit, lequel peut s’articuler à d’autres types de recueils
de données (observation directe des pratiques, conversations informelles, recours à
des informateurs clés, statistiques, documents officiels, …) et rendre compte ainsi de
l’action en situation. Toutefois, le récit de vie apporte une dimension particulière qui
est la dimension diachronique. Il inscrit l’histoire dans ce que la personne raconte.
L’enquête de type ethnosociologique qui a recours aux récits de vie est sou-
vent vue comme subjective par certains. Contrairement aux enquêtes statistiques
dont l’objectivité ne fait aucun doute, les récits de vie apparaissent moins objectifs.
Or, comme nous le rappelle Bertaux, le recours à un questionnaire n’est pas non plus
sans défaut. Au contraire, à en croire une recherche de l’INSEE qui a comparé les
réponses à un questionnaire et les informations contenues dans les entretiens biogra-
phiques des mêmes personnes, il semblerait que les données des entretiens étaient à
la fois plus riches et plus fiables que celles des questionnaires (Battagliola, Bertaux-
Wiame, Ferrand et Imbert, 1991 ; 1993). Par ailleurs, le recours aux entretiens a per-
mis d’avoir accès à des relations qui étaient difficiles à mettre en évidence autrement.
La vie d’une personne est faite d’interactions entre différentes sphères qui ne sont
pas toujours facilement distinguables par des questions fermées. Le récit permet de
mettre en relief les éléments du parcours, les causes des bifurcations et les interféren-
ces entre sphères, notamment entre la vie professionnelle et la vie conjugale.
L’objectif de ce type de méthode est, comme le souligne Bertaux, de
« remonter du particulier au général grâce à la mise en rapport de cas particuliers, de
ce qu’ils contiennent de données factuelles replacées dans leur ordre diachronique,
d’indices descriptifs ou explicatifs proposés par les sujets, grâce à la découverte de
récurrence d’un parcours de vie à l’autre et à la mise en concepts et en hypothèses de
ces récurrences. Dans cette perspective, la fonction des données n’est pas de vérifier
des hypothèses élaborées auparavant, mais d’aider à la construction d’un corps
d’hypothèses » (1997, p. 21).
La construction de l’échantillon des personnes interviewées se fait progressi-
vement en tenant compte de la variété des positions et des points de vue. Car aucune
d’entre elles n’a la connaissance de ce qui se passe mais seulement un point de vue
Deux méthodes ethnosociologiques 165

singulier. C’est à partir de la mise en rapport critique de tous les points de vue par le
chercheur que l’on va arriver à bâtir un modèle. En outre, il est important de prendre
en compte que même lorsque les gens accomplissent la même fonction, ils ne la rem-
plissent pas toujours de la même manière. Cette différentialité provient des expérien-
ces sociales propres à chaque personne. Le récit de vie permet aussi de rendre compte
de cette diversité de manière de jouer son rôle en interrogeant des individus diffé-
rents. Cela peut, dans certains cas, aller jusqu’à rechercher le cas négatif qui poussera
le chercheur à revoir son modèle théorique.
Les hypothèses s’élaborent aussi progressivement. Contrairement à la démar-
che hypothéticodéductive, ce type de recherche développe ses hypothèses au cours
de la recherche de terrain. Les récits de vie fournissent des éléments qui vont, en
s’agrégeant, faire sens pour le chercheur et donneront donc lieu à une interprétation
plausible, comme le souligne là encore Bertaux. La confrontation des interprétations
et les comparaisons avec d’autres terrains ont valeur de vérification de la solidité de
l’interprétation trouvée. La saturation des données obtenues permet enfin de valider
les configurations et de répondre à la sempiternelle question sur la représentativité
de l’échantillon. Dans leur étude désormais classique sur la boulangerie artisanale
française, Bertaux et Bertaux-Wiame ont pu reconstituer cet univers professionnel en
interviewant par la méthode des récits de vie cent boulangers et cent boulangères. Ils
se sont arrêtés lorqu’ils ont constaté que des récits de vie supplémentaires n’appor-
taient plus rien de nouveau. Leur posture sociologique leur permettait de rendre
compte de cette singularité sociale bien française et d’expliquer sa pérennité dans le
temps (1980 ; 1982). L’objet du récit de vie n’était donc pas de restituer une histoire
personnelle, une autobiographie, celle d’un boulanger, mais bien à travers le récit
qu’en faisait chaque boulanger et chaque boulangère, la réalité socioprofessionnelle
dans son contexte, en l’occurrence, ici, la boulangerie française artisanale au cours
des années 1960, 1970. Grâce à cette recherche, on était en mesure de mieux com-
prendre pourquoi la France avait encore une boulangerie très majoritairement indé-
pendante et familiale, la boulangère étant un élément clé dans l’installation et le
succès commercial.

2.2 LA MÉTHODE DE L’OBSERVATION PARTICIPANTE


La méthode des récits de vie n’est bien sûr pas la seule méthode ethnosociolo-
gique. La première méthode et la méthode princeps, pourrions-nous dire, demeure
l’observation participante. Elle se confond avec la naissance de l’ethnologie comme
discipline scientifique. C’est à Boas et à son étude des Inuits de la Terre de Baffin au
Canada que nous devons son invention et la première utilisation de cette méthode qui
consiste à s’immerger de manière prolongée dans un groupe afin d’en étudier les cou-
tumes, les usages, les pratiques, autrement dit, l’organisation sociale et la culture. Un
peu plus tard, Malinowski, déjà nommé précédemment, reprendra cette méthode lors
de ses séjours dans les Îles du Pacifique chez les Mailus et chez les Trobriandais. Il en
fera la méthode ethnologique par excellence. Ce que la discipline dans son ensemble
a conservé depuis lors.
L’utilisation de cette méthode dans les études organisationnelles sera bien sûr
étroitement associée à l’intérêt d’ethnologues pour l’objet organisation et au recours
166 La recherche en gestion et les méthodes ethnosociologiques

par certains sociologues aux méthodes ethnologiques. Comme nous l’avons déjà men-
tionné précédemment, les travaux de Warner et Low, ceux de Mayo et de son équipe
et la recherche de William Foote Whyte, sont les premières tentatives de ce type entre
les deux grandes guerres mondiales. Par la suite, cette méthode va être, plus ou moins
utilisée selon les disciplines et les endroits. Mais il reste que depuis les années 1980,
l’ethnographie semble intéresser plus de monde et notamment, le monde de l’entre-
prise. Celui-ci s’intéresse à ce type d’approche pour mieux comprendre les comporte-
ments des usagers, des clients, des équipes de travail et de manière plus globale,
mieux décrypter la symbolique organisationnelle (Turner, 1990 ; Van Maanen, à paraî-
tre).
La recherche ethnographique repose principalement sur l’observation partici-
pante. Cette méthode, comme son nom l’indique, consiste à s’immerger dans un
milieu de façon prolongée et à recueillir par l’observation, les rencontres, les entre-
tiens, la participation aux activités, des données concernant la vie sociale du groupe
étudié. Par ailleurs, il y a plusieurs types d’observateurs : « l’observateur complet »,
« l’observateur en tant que participant », « le participant en tant qu’observateur » et
« le participant complet ». Ces types correspondent au degré d’implication du cher-
cheur dans la situation qu’il étudie. Comme on peut le voir, l’observation participante
pose la question du rapport du chercheur à l’objet de son étude, lequel est un collec-
tif d’humains. C’est la raison pour laquelle cette question de la relation au terrain a
fait l’objet de nombreuses publications qui ont essayé de préciser le degré d’apparte-
nance que le chercheur doit avoir à son terrain d’enquête (Adler et Adler, 1987).
L’observation peut tout d’abord se faire ouvertement ou clandestinement. La
première posture est bien sûr de loin la plus populaire, la seconde plus rare. Mais il y
a des études classiques qui ont permis de raconter la vie des travailleurs en cachant la
véritable identité de l’enquêteur. L’expérience de Gunter Wallraff, journaliste allemand
qui a vécu sous l’identité d’un Turc pendant deux ans (1986) ou celle, toute récente
de Barbara Eirenhreich, sociologue américaine, qui a passé deux ans aux États-Unis à
faire des boulots à des salaires très bas (2003), en sont deux illustrations exemplai-
res. Ces deux enquêtes ont permis de révéler au monde des réalités sociales à la fois
méconnues et importantes dans les deux sociétés concernées : la vie des travailleurs
immigrés turcs et l’existence des working poors américains. Dans le cas d’une observa-
tion non dissimulée, selon Adler et Adler, il y aurait trois types d’appartenance :
l’appartenance participante périphérique, l’observation participante active et l’obser-
vation participante complète.
L’appartenance participante périphérique est adoptée par des chercheurs qui
pensent qu’il est important d’avoir un degré d’implication dans le groupe qu’ils étu-
dient mais dont le degré d’implication demeure secondaire. Ils ne cherchent pas à
remplir un rôle clé par exemple. Cette posture renvoie à une prudence méthodologi-
que. C’est une manière de garder une distance suffisante pour maintenir une analyse.
On pourrait parler de familiarité distante. De nombreux chercheurs adoptent ainsi le
rôle d’écrivain, de celui qui va écrire un livre sur le groupe étudié (Whyte, 1994).
L’observation participante active est adoptée par des chercheurs qui jouent un
rôle formel précis au sein du groupe ou de l’organisation. C’est une posture plus diffi-
cile car le chercheur peut introduire par son action d’autres valeurs dans la situation
qu’il étudie.
Deux méthodes ethnosociologiques 167

L’observation participante complète vient de chercheurs qui sont déjà impli-


qués dans les groupes ou situations qu’ils étudient, par exemple des enseignants ou
des travailleurs sociaux. Elle peut venir aussi par conversion. Le chercheur devient le
phénomène qu’il étudie à l’instar de la célèbre expérience de Carlos Castaneda qui
change au contact de son sorcier yaqui (1985).

Cette méthode, comme on peut le constater aisément pose non seulement la


question de la dissimulation ou non de l’identité du chercheur mais aussi la question
de sa position. Est-il quelqu’un de l’extérieur ou vient-il de l’intérieur ? Si dans les
deux cas, il est à la fois chercheur et acteur, dans la position externe, il est un cher-
cheur en quête d’un rôle dans le groupe observé, par exemple rôle d’observateur par-
ticipant écrivant un livre sur le groupe étudié, dans la position interne, il est un
acteur institutionnel qui tente de devenir un chercheur. Dans les deux cas, se posera
la question du degré de distanciation à maintenir pour avoir le recul nécessaire. Car
un des aspects auquel tous les spécialistes qui ont recours à ce type de méthode sont
confrontés, c’est la question de l’indigénisation, le going native des Anglo-Saxons.
Comment en effet se prémunir contre la tentation toujours possible de devenir
comme ceux et celles que l’on étudie ? Si cette question ne se pose pas pour le cher-
cheur qui opte pour ce type d’expérience, comme Carlos Castaneda, par exemple, elle
se pose pour tous les autres cas de figure. À travers elle, c’est toute la question du
rapport « objectif » au terrain qui se pose. Certains chercheurs ont défendu l’intérêt
de ce type de méthode en rappelant que la recherche de type ethnographique ne se
fonde pas sur une démarche hypothétique-déductive classique mais bien, sur une
construction d’hypothèses en situation (Glaser et Strauss, 1967) et que, tout comme
la posture hypothétique-déductive, elle comprend des aspects qui la protègent d’une
perte de jugement (Whyte, 1994), ou des ficelles de métier pour parler comme Becker
(2002). Par ficelle de métier, Becker entend « une opération spécifique qui vous fait
découvrir comment surmonter telle difficulté commune, qui propose une procédure
permettant de résoudre de manière relativement simple un problème qui, sans elle,
pourrait sembler inextricable et persistant » (2002, p. 25).

Le rapport au terrain renvoie également à quelque chose de plus général, le


rapport à l’objet qui est aussi un sujet. Historiquement, certains chercheurs en scien-
ces sociales ont voulu que la recherche ait la même objectivité que les disciplines de
la science dure. Cet impératif est venu buter à chaque fois sur le fait que nous ne
pouvons pas étudier l’être humain tout à fait comme un atome ou une molécule. Étant
toujours objet et sujet de nos sciences, les chercheurs tout comme les personnes,
sujets de la recherche, il nous faut donc en prendre notre parti. Plutôt que d’objecti-
ver à outrance les personnes étudiées au risque d’en perdre de vue l’essentiel, c’est-à-
dire leur humanité, assumons notre singularité et intégrons pleinement la dimension
subjective à notre réflexion (Devereux, 1980). Cela nous permettra de constater que
nos sciences sont avant tout compréhensives puisqu’elles nous permettent d’interpré-
ter et de comprendre le sens que les gens donnent à leurs gestes, à leurs actions, à
leurs pensées et à leurs existences. C’est en cela qu’elles se différencient des sciences
naturelles (Weber, 1971). Elles permettent également d’agir sur le social. C’est la rai-
son pour laquelle les travaux ethnographiques ont souvent été inspirés par un désir
de réformes. Comme le rappelle fort justement Georges Lapassade, les recherches
menées par les sociologues de l’École de Chicago étaient poussées par des idées réfor-
168 La recherche en gestion et les méthodes ethnosociologiques

mistes (1991). Cet aspect n’est pas toujours bien mis en valeur. Or, certaines de ses
enquêtes d’observation participante, en s’apparentant souvent à de la recherche-
action (Whyte, 1985 ; Becker, 2002), montrent combien cette méthode peut-être
utile dans l’intervention sociale. Elle ne se contente pas uniquement d’observer pour
observer mais aussi souvent de bien décrire pour mieux intervenir.

3. Les méthodes ethnosociologiques et le champ


de la recherche en gestion

En quoi les méthodes présentées précédemment peuvent-elles être utiles, à la


fois pour le champ de la recherche en gestion en général et le champ de la recherche
en gestion des ressources humaines en particulier ? Telle est la question à laquelle on
va tenter maintenant de donner une réponse dans cette quatrième et dernière partie.
Les pratiques de gestion sont des pratiques sociales. Elles sont le résultat de
l’action de nombreuses personnes, laquelle se produit dans un univers organisé. Elles
sont aussi enracinées dans un espace et un temps particuliers. Elles visent l’efficacité
et l’efficience de l’organisation. Les pratiques de gestion des ressources humaines,
quant à elles, s’inscrivent dans l’ensemble des pratiques de gestion d’une organisation
(Brabet, 1993). Elles portent sur la gestion du personnel proprement dite, en cher-
chant à sélectionner, recruter, garder, former, rémunérer des individus qui feront pros-
pérer l’organisation. Très étroitement liées, ces pratiques de gestion sont aujourd’hui
la source d’une multitude de recherches dans le monde, les sciences de la gestion en
ayant fait leur objet. Si une bonne partie de la recherche en gestion fait appel aux
méthodes quantitatives, un nombre croissant d’études ont recours aux méthodes qua-
litatives, notamment à l’entretien centré ou semi-centré. Mais, il reste que lorsqu’on
examine les travaux de recherche, peu nombreux sont ceux qui utilisent la méthode
des récits de vie (Pailot, 1995 ; Sanseau, 2002), plus nombreux en revanche sont les
travaux organisationnels qui ont recours à la méthode de l’observation participante.
Or, ces deux méthodes seraient bien utiles dans certains cas. Car, pour bien compren-
dre une situation de gestion, il nous faut la saisir dans sa totalité. Toute réalité
humaine étudiée dans une organisation fait en effet système et les différents élé-
ments le constituant sont interreliés. Becker parle même de l’intercontingence du
social. Le recours aux méthodes qualitatives s’impose ainsi naturellement puisqu’elles
s’intéressent justement à faire le lien entre tous les éléments susceptibles de faire
sens dans la question étudiée (Wacheux, 1996). Avant d’aborder la méthode de
l’observation participante, voyons donc dans un premier temps dans quels cas la
méthode des récits de vie peut-être utilisée en gestion.
Pour ma part, une telle méthode est particulièrement appropriée lorsque l’on
cherchera à comprendre soit l’expérience professionnelle d’un groupe de personnes
dans sa dimension diachronique, soit à rendre plus intelligibles certaines situations
sociales. Si l’on veut rendre compte de certaines catégories professionnelles, de leurs
trajectoires et itinéraires, la méthode des récits de vie est un instrument tout à fait
adéquat. Car, elle permet par des entretiens narratifs d’accéder aux éléments clés du
cheminement, aux principaux obstacles rencontrés et à établir des profils qui intégre-
ront les aspects les plus déterminants (l’âge, le sexe, l’origine sociale, l’origine ethni-
Les méthodes ethnosociologiques et le champ de la recherche en gestion 169

que, le niveau d’instruction, le statut matrimonial, les caractéristiques physiques,


l’âge d’entrée sur le marché du travail, les expériences de travail, etc.) dans le par-
cours professionel. Par exemple, dans une recherche que nous sommes en train de
mener sur les salariés entre cinquante et soixante ans (Falcoz et Chanlat, 2004),
l’entretien narratif est un des outils méthodologiques pour accéder à la compréhen-
sion des cheminements professionnels de cette catégorie de salariés. À travers la
manière dont les individus racontent leur itinéraire, nous pouvons dessiner des profils
de carrière, lesquels ne sont pas sans lien avec les contextes sociohistoriques. En
effet, il est frappant de noter que dans certaines organisations de services, publiques
ou privées, les personnes aujourd’hui dans la cinquantaine ont toutes commencé très
jeunes, entre 15 et 17 ans, et sans diplôme universitaire. Cela ne les a pas empêchées
de faire carrière car les organisations avaient mis en place des mécanismes de forma-
tion et de promotion interne appropriés. À l’heure actuelle, les individus disposant
des mêmes caractéristiques n’ont plus beaucoup de chance d’être recrutés par ces
mêmes organisations.
De la même manière, les débats actuels sur l’âge de la retraite occultent dans
une large mesure le fait que les entreprises ont tendance à se débarrasser plus facile-
ment de leurs employés dans la cinquantaine qu’il y a trois décennies. Par ces deux
exemples, nous pouvons aisément vérifier le bien-fondé de cette méthode dans
l’éclairage des itinéraires et l’articulation de l’univers personnel à l’univers social
ambiant. Nous pouvons ainsi mettre en lumière les freins ou les accélérateurs de car-
rière, lesquels ne sont pas sans conséquences sur les individus, les organisations et
les sociétés. Si un chercheur s’intéresse de près ou de loin à une catégorie particulière
(une profession, un métier, les femmes cadres, les travailleurs d’un certain âge, les
salariés d’une certaine origine ethnique), la méthode des récits de vie peut donc être
d’un grand intérêt. Car elle peut permettre de restituer les trajectoires à la fois dans
leur profondeur sociale et leur représentativité. Un tel travail n’est pas sans intérêt
pour le management en général et la gestion des ressources humaines en particulier.
La méthode des récits de vie n’est pas seulement utilisable dans le cas dont
nous venons de parler. Elle est aussi intéressante pour étudier des situations particu-
lières. Dans l’univers des organisations et des entreprises, de telles situations exis-
tent. On n’a qu’à penser aux jeunes peu diplômés en recherche d’emploi, à la situation
des handicapés sur le marché du travail, aux salariées mères célibataires, à la situa-
tion professionnelle des jeunes de banlieue d’origine étrangère, aux cadres au chô-
mage, aux pratiques toxicomaniaques en milieu de travail. Toutes ces situations ne
constituent pas forcément un monde social en soi. Les personnes interrogées n’ont
pas toujours la même activité. Mais, au-delà de leurs différences, elles partagent une
situation commune, être mère célibataire, jeune faiblement diplômé, jeune d’origine
étrangère, handicapé, chômeur ou toxicomane. En utilisant la méthode des récits de
vie, on peut être en mesure de mieux saisir les mécanismes qui ont amené ces person-
nes à se retrouver dans la situation qui est la leur. Pour les politiques, les administra-
teurs et les responsables concernés, cela ne peut que mieux les éclairer sur ce qu’ils
doivent réaliser pour faire face à ces situations.
Si la méthode des récits de vie peut être fort utile dans les recherches en ges-
tion, en particulier pour certains objets d’étude comme ceux que nous venons de
mentionner, la méthode de l’observation participante peut, elle aussi, être d’une
170 La recherche en gestion et les méthodes ethnosociologiques

grande utilité pour le monde du management. Comme nous l’avons vu précédemment,


cette méthode consiste à s’immerger dans un univers social pour en comprendre la
dynamique, le fonctionnement, les représentations, les croyances, en d’autres mots,
l’organisation sociale et la culture. L’univers observé peut être une partie ou la tota-
lité d’une entreprise, d’un service public ou d’une association. C’est ainsi, par exem-
ple, que Whyte a observé les relations humaines dans un restaurant (1948), que Van
Maanen a restitué l’univers de Disneyland (sous presse), qu’Aktouf a décrit le travail
dans deux brasseries (1986), que Bouchard a fait découvrir l’univers symbolique des
camionneurs du Grand Nord québécois (1985), que d’Iribarne a mis en lumière les res-
sorts culturels de l’action managériale (1989) ou que, tout récemment, Damien Car-
tron décrivait la vie dans un McDo (2002) et Bruno Latour, la vie quotidienne du
Conseil d’État (2002). Tous ces travaux avaient pour but de rendre intelligibles les
cultures étudiées.
L’avantage d’une telle démarche, c’est de partir de l’idée que toute culture est
un univers social chargé de sens. Grâce à une fréquentation longue du milieu étudié
et une observation fine de ce qui se passe, il est possible de rendre compte de cet
univers. Pour les gestionnaires souvent aveugles aux aspects symboliques et autistes
aux univers sociaux tels qu’ils sont concrètement vécus, ces enquêtes peuvent être
l’occasion de réfléchir sérieusement sur la dynamique sociale induite par leurs déci-
sions et les pratiques qu’ils ont mises en place. Elles peuvent leur permettre de voir
comment les éléments symboliques et les éléments matériels sont liés, font sens ou
problème pour les acteurs dans les univers de travail observés (Sainsaulieu, 1977).
Elles peuvent aussi accéder aux usages sociaux de certaines techniques et permettre
de constater comment les nouveautés sont appropriées par les acteurs en situation
(Alter, 2000). Enfin, elles peuvent montrer combien la qualité de vie symbolique au
travail est une condition sine qua non de bien-être personnel et collectif.
L’univers de la gestion, univers qui a trop tendance à privilégier l’objectif, le
formel, le prescrit, le normatif, le cognitif, le quantitatif, le financier découvrira lors
de telles enquêtes que le subjectif, l’informel, le réel, l’affectif, le qualitatif, l’humain
sont constitutifs de l’ordre social et des pratiques de gestion. Vouloir les réduire au
nom de l’efficacité productive peut conduire aux conséquences inverses. Le monde des
organisations est en effet aussi et surtout un univers social, symbolique et culturel.
Mettre l’accent uniquement sur l’économico-financier et la technique, comme certains
esprits technocratiques peuvent le faire, ne peut que conduire à des difficultés socia-
les et économiques accrues. En utilisant l’enquête de terrain via la méthode de
l’observation participante, le chercheur restitue ce qui se passe en situation. Il ou
elle peut alors montrer pourquoi il y a parfois des blocages, des résistances, des
oppositions mais aussi des ouvertures, de la souplesse et de la bonne volonté. En
s’immergeant dans le collectif étudié, il fait ainsi découvrir à ceux qui sont loin de
l’action les ressorts, les contraintes et les processus qui sont en jeu dans le réel de
l’action quotidienne. Il révèle par là même le rôle et l’importance des processus lan-
gagiers, l’organisation étant aussi et beaucoup un espace textuel, un lieu de conver-
sations et un théâtre d’interactions (Girin, 1990 ; Boden, 1994).
Si l’immersion dans un univers de gestion, qu’il soit privé, public ou associatif,
peut être très utile pour rendre intelligible le vécu des acteurs, il n’est pas toujours
approprié d’utiliser une telle méthode. En effet, la méthode de l’observation partici-
Les méthodes ethnosociologiques et le champ de la recherche en gestion 171

pante, développée par l’ethnologie, ne doit être utilisée, à notre avis, que quand qua-
tre conditions sont réunies :
■ lorsqu’un chercheur et un terrain d’observation se rencontrent avec la volonté
de rendre compte d’un univers social méconnu, incompris voire oublié ;
■ lorsque le rapport au temps n’est pas un problème ;
■ lorsque le chercheur a les qualités humaines requises ;
■ lorsque le chercheur est prêt à composer avec la charge socioaffective propre à
ce type de démarche.
En effet, la méthode de l’observation participante nécessite l’ouverture d’un
terrain. Or, étant donné le caractère ethnographique de la démarche, il n’est pas tou-
jours facile d’en trouver. Nombreux sont les univers organisés qui restent encore fer-
més à ce genre d’approche. On ne se livre pas facilement au regard d’un étranger. Il
faut qu’il y ait une volonté d’ouverture et un désir d’être l’objet d’une telle enquête.
C’est la raison pour laquelle certains chercheurs, à l’instar de Barbara Eirenreich déjà
citée, avancent masqués et restent ainsi inconnus des personnes observées. La fausse
identité permet d’accéder au terrain d’enquête et de rendre compte de ce qui s’y
passe.
C’est également une méthode très coûteuse en temps, le chercheur devant
s’immerger pendant des mois, voire plus dans certains cas. Par exemple, Whyte a
passé deux ans à vivre dans un quartier difficile de Boston pour en rendre compte
(1948). Si le terrain doit être ouvert et prêt à accepter une observation longue, le
chercheur, quant à lui, doit être en mesure d’avoir le temps voulu. Tous les chercheurs
ne sont pas dans cette situation, et toutes les organisations ne se prêtent pas à une
enquête aussi longue.
C’est aussi une méthode qui exige un ensemble de compétences humaines :
savoir se faire accepter par un groupe, savoir poser les bonnes questions, saisir les
éléments implicites, éviter les jugements hâtifs, se comporter en apprenti, savoir
exprimer ses émotions (empathie, sympathie, chaleur des relations), posséder une
bonne capacité d’écoute, être authentique, posséder une certaine ouverture d’esprit,
apprendre à se taire, éviter de singer, avoir la bonne distance, que tous les chercheurs
ne possèdent pas, bien sûr, spontanément. Tout le monde n’est donc pas doté des
compétences requises pour ce type de recherche.
C’est enfin une méthode qui demande une réflexivité constante par rapport au
terrain et aux personnes observées. On doit en effet constamment gérer la relation,
sujet d’enquête –chercheur et contrôler le degré d’identification avec les observés.
Car, il faut que le chercheur maintienne la bonne distance et qu’il ait recours à des
vérifications régulières pour éviter que ce qu’il a pu noter soit le produit de ses pro-
jections. Il faut donc avoir le réflexe de valider continuellement les données
recueillies auprès non seulement des informateurs clés mais aussi d’autres informa-
teurs, voire d’autres collègues. Si tout cela s’apprend, il reste que tous les chercheurs
n’ont pas forcément cette aptitude de retour sur soi et sur la relation avec les sujets
de l’observation. Comme certains le rappellent avec raison, la qualité d’une ethnogra-
phie réside le plus souvent, pour ne pas dire avant tout, dans les qualités personnel-
les de l’ethnographe. Car, comme nous venons de le voir, s’il existe un grand nombre
de ficelles de métier pour parler comme Becker, ficelles auxquelles chacun peut se rat-
172 La recherche en gestion et les méthodes ethnosociologiques

tacher et s’il y a un ensemble de dispositifs méthodologiques à respecter, il n’en


demeure pas moins que la qualité de l’observation est, dans une large mesure, le pro-
duit de l’observateur. Il faut donc le reconnaître et le chercheur doit alors se poser la
question du type de méthode à privilégier, compte tenu de ce qu’il est et de ce qui lui
convient le mieux.

4. Conclusion

Dans ce chapitre, nous avons essayé de présenter deux méthodes qualitatives


issues de l’ethnosociologie. La première, la méthode des récits de vie, fort utilisée en
histoire, sociologie et anthropologie, a été jusqu’à présent peu ou pas du tout
employée en gestion. La seconde, la méthode de l’observation participante, l’est
beaucoup plus, notamment dans les études organisationnelles. Ces méthodes ont
montré leur utilité pratique et scientifique. Sous certaines conditions que nous avons
précisées ici, elles peuvent par conséquent être d’un grand intérêt pour les chercheurs
en gestion et, notamment les chercheurs en gestion des ressources humaines. En con-
séquence, nous espérons que ce chapitre aura permis de montrer comment à l’aube du
XXIe siècle, la méthode des récits de vie et la méthode de l’observation participante
peuvent faire partie de l’arsenal méthodologique du chercheur en gestion. Cela nous
apparaît d’autant plus important que la gestion est une pratique sociale concrète,
qu’une bonne partie de la recherche tourne autour de récits de pratique en situation
et que notre époque semble développer un intérêt croissant envers de telles métho-
des. Puisse ce chapitre avoir modestement contribué à l’intérêt pour de tels outils
méthodologiques qui nous rappellent par leur posture, justement, que nous avons
affaire en gestion à des personnes en chair et en os et à des organisations sociale-
ment enracinées. Dans un monde qui a parfois tendance à se réfugier dans l’abstrac-
tion, ce n’est pas inutile. Cela peut nous permettre de mieux comprendre l’action
sociale concrète tout en participant d’une certaine manière à l’amélioration du fonc-
tionnement de nos organisations et au développement de pratiques de gestion plus
soucieuses des personnes. N’est-ce pas cela aussi faire de la recherche : contribuer au
bien-être de l’espèce humaine ? L’interrogation scientifique rejoignant ainsi l’impéra-
tif éthique.
« Même s’ils ne sont pas là où vous les attendiez, vous trouverez toujours des cas à étu-
dier si vous gardez les yeux ouverts. » (Howard Becker.)
« Au lieu de jouer au bowling pour être en mesure d’observer autre chose, j’aurais dû
jouer au bowling afin d’observer les joueurs de bowling. J’étais entrain d’apprendre que
les activités quotidiennes de ces hommes constituaient les données de base de mon
étude. » (William Foote Whyte.)
« Quant à moi, je pourrai toujours affirmer que nul ne connaît véritablement les gens s’il
ne dévoile ce qui les fait marcher, s’engager, rouler, s’aliéner et puis mourir. » (Serge
Bouchard.)
Bibliographie 173

Bibliographie
Adler P., Adler P. et Rochford B. (1986), « The Politics of Participation in Field
research », Urban Life, 14, n° 4, pp. 363-376.
Aktouf O. (1986), « Une vision interne des rapports de travail : le cas de deux
brasseries », Le travail humain 49 (3), pp. 237-248.
Aktouf O. (1985), « La méthode de l’observation participante » in Chanlat A. et Dufour
M. (1985), La rupture entre l’entreprise et les hommes, Montréal Québec Amérique,
Paris, Les Éditions d’Organisation, pp. 243-285.
Alter N. (2000), L’innovation ordinaire, Paris, PUF.
Battagliola F., Bertaux-Wiame I., Ferrand M. et Imbert F. (1991), Dire sa vie : entre tra-
vail et famille. La construction sociale de trajectoires, Paris, Centre de sociologie
urbaine/IRESCO.
Battagliola F., Bertaux-Wiame I., Ferrand M. et Imbert F. (1993) « À propos des
biographies : regard croisés sur questionnaire et entretiens », Population, 2.
Bate S.P. (1997), « Whatever happened to organizational anthropologie ? A review of
the field of organizational ethnography and anthropological studies », Human Rela-
tions, 50 (9) 1147
Becker H.S. (1963), « Outsiders : Studies in the Sociology of Deviance », New York, Free
Press (trad. française : Outsiders : études de sociologie de la déviance, Paris, A.-M.
Métailié, 1985).
Becker H.S. (2002), Les ficelles du métier. Comment conduire sa recherche en sciences
sociales, Paris, La Découverte.
Berry M. (1987), « Vers une technologie invisible ? », Cahier du CRG, Paris.
Bertaux D. et Bertaux-Wiame I. (1980), Une enquête sur la boulangerie artisanale, Paris,
rapport au CORDES (Commissariat au Plan).
Bertaux D. (1997), Les récits de vie, Paris, Nathan Université.
Boden D. (1994), The Busines of Talk. Organization in Action, Cambridge, Polity Press.
Bouchard S. (1985), « Être truckeur (routier) » in Chanlat A. et Dufour M (1985), La
rupture entre l’entreprise et les hommes, Montréal Québec Amérique, Paris, Les Édi-
tions d’Organisation, pp. 331-359.
Bouilloud J.-P. et Lecuyer B.-P. (1994), L’invention de la gestion, Paris, L’Harmattan.
Brabet J. (dir.) (1993), Repenser la gestion des ressources humaines ?, Paris, Economica.
Cartron D. (2003), « Le sociologue pris en sandwich ! Retour sur une observation parti-
cipante au Mc Donald’s », Travail et emploi, n° 94.
Castaneda C. (1985), Les enseignements d’un sorcier yaqui, Paris, Gallimard.
Chanlat A. et Dufour M. (1985), La rupture entre l’entreprise et les hommes, Montréal
Québec Amérique, Paris, Les Éditions d’Organisation.
Chanlat J.-F. (dir.) (1990), L’individu dans l’organisation, les dimensions oubliées, Ste
Foy, Les Presses de l’Université Laval, Paris, Eska.
Chanlat J.-F. (1998), Sciences sociales et management. Plaidoyer pour une anthropologie
générale, Ste Foy, Les Presses de l’Université Laval, Paris, Eska.
Chanlat J.-F. (2000), « L’analyse des organisations : un regard sur la production de lan-
gue française contemporaine (1950-1990) », in Côté M. et Hafsi T., Le management
aujourd’hui. Une perspective nord-américaine, Ste Foy, Les Presses de l’Université
Laval, Paris, Economica pp. 129-151.
174 La recherche en gestion et les méthodes ethnosociologiques

Chapoulie J.-M. (1996), « E.C Hughes et la tradition de Chicago », présentation de


Hughes E.C, Le regard sociologique, Paris, Presses de l’EHESS.
Charrue-Dubosc F. (dir.) (1994), Des savoirs en action : contributions à la recherche en
gestion, Paris, L’Harmattan.
Czarniawska-Joerges B. (1997), Narrating the Organization : Dramas of Institutional
Identity, Chicago, University of Chicago Press.
Desjeux D. avec la collaboration de Sophie Taponier (1991), Le sens de l’autre. Straté-
gies, réseaux et cultures en situation interculturelle, Paris, L’Harmattan. 3e édition
(2000).
Desmarez P. (1986), La sociologie industrielle aux États-Unis, Paris, Armand Colin.
Devereux G. (1980), De l’angoisse à la méthode dans les sciences du comportement,
Paris, Flammarion.
Dupuis J.-P. (1990), « Anthropologie, culture et organisation. Vers un modèle
constructiviste », Chanlat J.-F. (dir.) (1990), L’individu dans l’organisation, les dimen-
sions oubliées, Ste Foy, Les Presses de l’Université Laval, Paris, Eska, pp. 533-552.
Falcoz C. et Chanlat J.-F. (2004), Employabilité et parcours professionnel des « plus de
50 ans » : quatre études de cas, ANACT (à paraître).
Feynerol N. (1995), Les apprentissages du changement dans l’entreprise ?, Paris, L’Har-
mattan.
Garfinkel H. (1967), Studies in Ethomethodology, Englewood Cliffs, Prentice-Hall.
de Gaulejac V. (1987), La névrose de classe, Paris, Hommes et Groupes.
Glazer B. et Strauss A. (1967), The Discovery of Grounded Theory, Milton Keynes, Open
University Press.
Goffman E. (1961) Asylums, Garden City, N.Y., Doubleday (trad.française : Asiles, Paris,
Minuit, 1975).
Guigo D. (1993), Ethnologie des hommes, des usines et des bureaux, Paris, L’Harmattan.
Hirsch E. et Fellner D. (2001), The Ethnography of Organizations Anthropological Pers-
pectives, Berg Press.
d’Iribarne P. (1989), La logique de l’honneur, Paris, Seuil.
d’Iribarne P. et al. (1998), Cultures et mondialisation, Paris, Seuil.
d’Iribarne,P. (2004), « Face à la complexité des cultures, le management interculturel
exige une approche ethnologique », Management International, Montréal, Vol. 8,
n° 3, pp. 11-20.
Lapassade G. (1991), Ethnosociologie, Paris, Klincksieck.
Latour B. et Woolgar S. (1988), La vie de laboratoire. La production des faits scientifi-
ques, Paris, La Découverte.
Latour B. (2002), La fabrique du droit. Une ethnographie du Conseil d’État, Paris, La
Découverte.
Legrand M. (1993), L’approche biographique : théorie, clinique, Paris, Desclée de
Brouwer.
Pailot P. (1995), L’articulation entre l’évolution de la firme et l’évolution du dirigeant
dans un contexte de changement mutationnel : de l’emprise au deuil. Approche quali-
tative basée sur la méthode biographique, Université de Lille (IAE).
Roy D. (1954), « Efficiency and the “fix” : Informal intergroup relations in a piecework
machine shop », American Journal of Sociology, 60, pp. 255-266.
Roy D. (à paraître), Un sociologue à l’usine dans l’Amérique des années quarante (textes
réunis par J-P Briand et J.-M. Chapoulie).
Bibliographie 175

Sainsaulieu R. (1977), L’identité au travail, Paris, Les Presses de la Fondation des scien-
ces politiques.
Sanseau P.-Y. (2001), « Aménagement du temps de travail et vécu des individus :
réflexion autour de perspectives d’analyse et d’une approche méthodologique », in
Swarte (de) T. (éd.), Psychanalyse, Management et Dépendances au sein des Organisa-
tions. Paris : L’Harmattan. pp. 140-170.
Schmidt G. (2002), Gestion des ressources humaines 1995-1997, Colloque de l’AGRH,
Nantes.
Séguin F. et Chanlat J.-F. (1983), L’analyse des organisations, Tome I : Les théories de
l’organisation, Montréal, Gaétan Morin éditeur.
Schwartzman H. (1993), Ethnography in Organizations, Londres, Sage.
Turner B. (1990), Organizational Symbolism, Londres, Sage.
Turner B. (à paraître), « La symbolique organisationnelle » in Chanlat J.-F. (éd.), L’ana-
lyse des organisations Perspectives contemporaines, Ste-Foy, Les Presses de l’Univer-
sité Laval, Paris,
Van Maanen J. (1988), Tales of the Field : On Writing Ethnography, Chicago, University
of Chicago Press.
Van Maanen J. (1998), Qualitative Studies of Organizations, Newbury Park, Sage.
Van Maanen J. (à paraître), « L’usine à sourire : travailler à Disneyland », Chanlat J.-F.
(éd.), L’analyse des organisations. Perspectives contemporaines, Ste-Foy, Les Presses
de l’Université Laval, Paris,
Wacheux F. (1996), Méthodologies qualitatives et recherche en gestion, Paris, Economica.
Weber M. (1971), Économie et société, Paris, Plon.
Whyte W. F. (1943), Street Corner Society, Chicago, University of Chicago Press.
Whyte W. F. (1948), Human Relations in the Restaurant Industry, New York McGraw Hill.
Whyte W. F. (1994), Participant Observer An autobiography, Ithaca, ILR Press
Wren D. (1994), The Evolution of management Thought, New York, John Wiley.
Wright S. (ed.) (1994), The Anthropology of Organizations, Londres, Routledge.
Chapitre 7

La méthodologie Q
et l’étude de la subjectivité 1

Claire GAUZENTE 2

Sommaire

1 Les objectifs d’étude 178

2 L’instrumentation de l’étude de la subjectivité 180

3 Une application : la perception


de la personnalité des collaborateurs 186

4 Conclusion 195

1 L’auteur tient particulièrement à remercier le Professeur Steven Brown pour sa relecture attentive
du chapitre, ses commentaires, ses indications bibliographiques et ses encouragements.
2 Maître de Conférences, Université d’Angers.
178 La méthodologie Q et l’étude de la subjectivité

Réaliser une étude statistique sur un cas unique paraît relever de la gageure
sinon de l’impossibilité. Pourtant la méthodologie Q, qui s’appuie sur l’analyse facto-
rielle, offre bien cette possibilité. Il convient toutefois de ne pas se méprendre sur ce
que l’on obtient en bout d’analyse. Dans l’optique Q, l’objectif est moins de produire
des résultats quantitatifs que de représenter une structure subjective. La notion de
statistique prend donc, ici, une signification limite.
Pour illustrer la perspective qui sous-tend l’analyse de type Q, nous reprenons
l’exemple symbolique et très visuel de Brown (1997). Il rappelle que l’analyse facto-
rielle classique porte sur des caractéristiques objectives. Ainsi, une étude sur le corps
humain fondée sur des données de type : mesures des membres, taille, etc. donnera
un résultat représenté sur la figure 7.1. Par contraste, une étude sur la perception du
corps par les individus, fondée donc sur des données subjectives, montrera une per-
ception de l’homme selon la figure 7.2.
Nous proposons, au travers de ce chapitre, d’apporter une vue introductive de
la méthodologie Q. Dans une première partie, nous discuterons de l’objectif d’étude
poursuivi dans le cadre d’une démarche de type Q, à savoir l’étude de la subjectivité.
Cet objectif s’appuie sur un cadre de référence développé par Stephenson et baptisé
la « théorie des concours » que nous décrirons rapidement. Dans une deuxième partie,
nous livrerons les éléments essentiels à la conception et la mise en œuvre d’une étude
de type Q. La dernière partie sera consacrée à une mise en pratique sur une étude de
cas. Il s’agira d’étudier la vision subjective d’un responsable de centre de profit con-
cernant la personnalité de ses cinq collaborateurs.

1. Les objectifs d’étude

1.1 L’ÉTUDE DE LA SUBJECTIVITÉ


En tant que psychologue, Stephenson s’intéresse à la subjectivité des indivi-
dus. Il se positionne sur des problématiques différentes de celles habituellement
adoptées dans lesquelles l’attention est centrée sur les différences interindividuelles
(par exemple : tests et mesures de l’intelligence). De telles recherches posent comme
hypothèse de départ que tous les individus possèdent certains traits avec une inten-
sité plus ou moins forte (personnalité, intelligence, etc.). Stephenson (1978), lui, est
plus intéressé par les différences intra-individuelles ; si bien que la méthodologie Q
s’applique particulièrement bien à l’étude de cas uniques.
Selon lui, la subjectivité peut être définie de deux manières différentes. La
première définition considère que la subjectivité est « la conscience de nos états
perçus » ; la seconde renvoie au fait de « voir les choses exclusivement par l’intermé-
diaire de son esprit ». Seule la seconde acception du terme est retenue par Stephen-
son. La première suppose en effet une forme de distanciation contrairement à la
seconde.
La notion d’autoréférence devient alors essentielle. Le caractère auto-référen-
tiel de la subjectivité nécessite une méthodologie particulière pour son étude. Il n’est
pas possible, comme en psychologie différentielle, de considérer que tous les indivi-
dus possèdent les mêmes traits et se situent simplement sur un continuum d’inten-
Les objectifs d’étude 179

Source : Brown (1972)

FIGURE 7.1 FIGURE 7.2

sité. Chacun possède sa propre structure subjective. La mise en évidence de cette


structure revient à faire émerger ce que Stephenson appelle des facteurs opérants
(Brown, 1997). La méthodologie Q respecte le caractère auto-référentiel de la subjec-
tivité tout en permettant de recueillir et mettre à jour sa structure.

1.2 LA THÉORIE DES CONCOURS OU CE QUE SIGNIFIE VRAIMENT


« IL PLEUT »

La théorie des « concours » (ou concourse theory) a été développée par Ste-
phenson (1980) initialement pour tenter de comprendre comment la communication
interindividuelle est possible. Selon lui, cette communication est possible grâce à
l’existence de concours, des savoirs partageables qui sont eux-mêmes ancrés dans la
subjectivité. Sur un plan étymologique, le « concours » provient du latin conscire :
scire (savoir) et con (avec). Le concours renvoie donc aux « savoirs partagés avec ».
Toutefois, tout en étant potentiellement partageable, ce savoir ne prend sens qu’en
termes d’autoréférence, c’est ce qui permet à n’importe qui d’entrer en conversation
avec d’autres personnes sur un sujet. Autrement dit, c’est en me situant par rapport à
tel ou tel sujet que je peux prendre part à la conversation. En résumant, la communi-
180 La méthodologie Q et l’étude de la subjectivité

cation est possible grâce à un savoir partagé à propos duquel j’ai ma propre vision
(nécessairement subjective), laquelle génère des significations.
La première publication sur cette théorie date de 1978. Elle fut suivie d’un
chapitre dans le Communication Yearbook (1980). Mais la publication la plus complète
a été diffusée ultérieurement, en 1986 ; il s’agit des documents utilisés par Stephen-
son dans ses cours.
Selon la théorie des concours, la signification d’une affirmation A est contin-
gente à son contexte d’énonciation et à la personne qui l’énonce. Mais, plus loin,
cette signification précise appartient à un ensemble plus vaste de significations
parallèles qui auraient également pu être mobilisées, ces significations parallèles
appartiennent à l’univers partagé décrit plus haut.
Si l’on reprend l’exemple de Stephenson (1978, 1986) : « Il pleut », cette affir-
mation peut refléter plusieurs significations / sentiments possibles : « tant mieux, je
n’aurai pas à arroser le jardin », ou bien « combien de temps est-ce que cela va
durer ? » ou encore « j’aime les parfums mouillés de pluie » etc. L’univers des signifi-
cations est infini. Un concours est donc un ensemble d’affirmations ou d’énoncés (sta-
tements) attachés à un thème, un événement, une image.
Le concours constitue la matière première permettant l’étude de la subjecti-
vité. Pour mener une telle étude, il faut extraire du concours un sous-ensemble
d’énoncés qui sera ensuite utilisé pour explorer la subjectivité d’une (ou plusieurs)
personne(s).
La constitution d’un concours peut être réalisée de bien des manières. L’inter-
view qualitative constitue naturellement la plus évidente, mais il est possible de pui-
ser dans toutes sortes de matériaux : poèmes, romans, journaux, photos, peintures,
couleurs, etc. Quels que soient les éléments retenus dans le concours, il convient de
souligner que le concours constitué ne pourra pas jamais être exhaustif puisqu’il est
infini. Néanmoins, lors de l’élaboration du sous-ensemble d’énoncés, il sera important
d’intégrer l’ensemble des différents points de vue possibles. Ainsi que le souligne
Brown (1980) si le point de vue C n’est pas intégré dans les énoncés, il ne pourra,
naturellement, pas ressortir des analyses.

2. L’instrumentation de l’étude de la subjectivité

2.1 LA MÉTHODE DE RECUEIL – LE Q-SORT


Le Q-sort est l’information de base dans l’approche Q. Il ne renvoie ni à une
variable ni à un individu mais à un jugement subjectif porté par un individu sur un
ensemble d’énoncés permettant de caractériser le vécu d’une situation, l’appréhension
d’une idée. L’évaluation des affirmations n’est pas réalisée dans l’absolu pour chacune
des affirmations mais relativement à toutes les autres affirmations.
Le Q-sort permet de retracer l’état subjectif de la personne en n’étant pas
dépendant des problèmes d’échelle de mesure qui cotent chaque affirmation indivi-
duellement sur une échelle pré-gradée. Il est strictement auto-référentiel puisque
l’individu classe les énoncés selon sa propre vision.
L’instrumentation de l’étude de la subjectivité 181

Les énoncés sont issus du concours identifié auparavant (le plus souvent au
travers d’une série d’entretiens). Le concours constitue ce que l’on appelle également
la population Q, de laquelle sera extrait un échantillon Q. En clair, la population Q
d’énoncés attachés à une situation (cf. « il pleut ») sera utilisée pour qu’y soit tiré un
sous-ensemble d’énoncés, l’échantillon Q.
La constitution de l’échantillon Q n’est pas soumise au hasard. Stephenson
(1953, 1967) recommande de constituer l’échantillon Q selon les règles du design
expérimental (plan d’expérience). En d’autres termes, si dans le concours apparaissent
deux aspects différents comprenant chacun trois modalités particulières d’expression,
un plan d’expérience de type 2 X 3 sera utilisé pour sélectionner un nombre égal
d’énoncés représentant chaque combinaison. Cette règle n’est pas une règle absolue
mais elle permet d’éviter que soit négligé un aspect important du problème.
Une fois constitué l’échantillon Q, il convient de constituer l’échantillon P, qui
est celui des personnes. Un échantillonnage de type raisonné 3 sera utilisé (voir par
exemple : Tashakkori et Teddlie, 1998). Les énoncés de l’échantillon Q seront soumis
au(x) répondant(s) qui aura(ont) pour tâche de les classer en fonction de ce qu’il(s)
pense(nt) ou aime(nt) (ex. de tout à fait vrai à pas du tout vrai). Pour faciliter la
tâche de classement du(es) répondant(s), chaque énoncé est inscrit sur une carte (un
morceau de papier). Il convient de noter qu’une personne peut fournir plusieurs q-
sorts. Par exemple : la personne classe des énoncés décrivant l’attention dont elle a
fait l’objet de la part du médecin, de l’infirmière A, de l’infirmière B lors de son séjour
hospitalier. Cela fait 3 q-sorts pour 1 personne. Néanmoins on peut également avoir
seulement un q-sort par personne.
Les cartes, reprenant les énoncés, doivent être classées selon une loi quasi
normale. C’est-à-dire qu’aux extrémités (tout à fait faux et tout à fait vrai) il y aura
très peu de cartes et qu’au centre (modérément vrai ou peu caractéristique) il y aura
de nombreuses cartes, ainsi que le montre la figure 7.3.

Tout à fait Tout à fait


faux vrai

Exemple de carte :

n°19 : « il pleut, je n'aurai


2 cartes 2 cartes pas à arroser le jardin. »

4 cartes 4 cartes

6 cartes

FIGURE 7.3 – Exemple de répartition forcée pour 18 cartes (i.e. : 18 énoncés)

3 L’échantillon raisonné fait partie des échantillons non probabilistes. Il correspond à la sélection
d’individus ou de groupes sur la base de questions ou d’objectifs de recherche spécifiques et sur la
base des informations disponibles sur les individus.
182 La méthodologie Q et l’étude de la subjectivité

ENCADRÉ 7.1
De l’usage de la distribution forcée

Selon Block (1956), les procédures de distribution forcée et non forcée comportent
chacune des avantages et des limites.
Ainsi, la procédure de classement forcé autorise des comparaisons directes entre q-
sorts (puisque les individus utilisent la même distribution pour leur réponse), d’un point
de vue calculatoire, les q-sorts forcés sont plus simples à traiter, enfin ils permettent une
bonne discrimination.
Toutefois, on peut discuter le fait que la distribution forcée contraint les choix et peut
donc faire apparaître des discriminations qui sont plus apparentes que réelles, cela
particulièrement si le répondant est obligé d’évaluer au-delà de ses capacités de dis-
crimination.
Malgré les inconvénients potentiels de la distribution forcée, Block met en évidence la
supériorité de cette procédure sur la procédure non forcée.

Cette distribution forcée a fait l’objet de nombreux débats (voir archives de la


liste Q-METHOD@LISTSERV.KENT.EDU). Selon certains, le non-respect de la distribu-
tion forcée ne pose pas de problème majeur d’estimation (Cottle et McKeown, 1980) ;
pour d’autres, elle est discutable. Block (1956) met ainsi en évidence que la distribu-
tion forcée est celle qui procure les données plus stables (dans le temps) et plus dis-
criminantes (Encadré 7.1).
Il convient toutefois de comprendre pour quelles raisons Stephenson a choisi
cette distribution. Il a été très intéressé par la loi des erreurs sur laquelle a travaillé
Gauss. C’est, finalement, parce que les erreurs se comportent d’une manière structu-
rée, c’est-à-dire selon une loi, que l’on parvient à estimer la vérité. Or, la subjectivité
est elle aussi affectée par d’innombrables influences, la loi des erreurs peut donc éga-
lement s’y appliquer. Stephenson a alors retenu cette distribution parce que le modèle
sous-jacent est séduisant. On peut remarquer ainsi que, de la même façon que les
attendus de l’analyse de type R comprennent une distribution normale des variables 4,
l’analyse de type Q présente cette caractéristique au niveau des Q-sorts.
L’encadré 7.2 reprend l’ensemble du vocabulaire lié à la méthodologie Q.

2.2 LA MÉTHODE D’ANALYSE – L’ANALYSE FACTORIELLE Q


L’analyse factorielle de type Q a été adoptée par Stephenson comme méthode
d’analyse des données subjectives en 1935. Stephenson fut l’assistant de Charles
Spearman, inventeur de l’analyse factorielle. Le principe de la Q-méthode qui consiste
métaphoriquement à corréler des personnes et non des tests 5 a été sévèrement con-
testé par d’autres chercheurs comme Mc Nemar, Burt, Cronbach, Turner, Thurstone,
Cattell (Zangwell, Kohlberg et Brenner, 1972).

4 L’analyse factorielle de type R porte sur les variables qu’elle vise à réduire. La matrice de corréla-
tion utilisée est une matrice de corrélation entre variables.
5 Cette métaphore constitue le titre du premier article de Stephenson sur le sujet.
L’instrumentation de l’étude de la subjectivité 183

ENCADRÉ 7.2
Q-vocabulaire

Q-sort : un Q-sort est le classement complet des énoncés selon une distribution nor-
male ou quasi normale. Exemple : le répondant A évalue l’attitude de l’infirmière à
son égard, puis celle du médecin ; cela donne lieu à deux Q-sorts.Nota : un individu
peut donc procurer un ou plusieurs Q-sorts, d’où l’idée d’étude de cas.
Carte : pour faciliter le recueil des Q-sorts, les énoncés sont chacun inscrits sur des
cartes (papier) différentes ; le répondant peut alors les classer. Un instrument de
recueil sur le web est disponible (WebQ).
Échantillon Q : Q-sample ou Q-set, il s’agit de l’ensemble des énoncés soumis au
classement.Exemple : pour évaluer l’attitude de l’infirmière et du médecin à son
égard, le répondant dispose de 40 énoncés. Donc l’échantillon Q = 40.
Échantillon P : P-sample, il s’agit des individus qui réalisent le(s) classement(s).
Exemple : si l’on reprend l’exemple précédent : l’échantillon P = 1.
Technique Q ou analyse factorielle Q : analyse factorielle de type Q (i.e. portant sur
les énoncés et non sur les individus). Il existe d’autres techniques de type Q que la
méthode Q — les analyses typologiques sont considérées par Miller (1978) acomme
appartenant à la famille des analyses Q —.
Méthodologie Q : il s’agit d’une démarche de recherche complète comprenant un
objectif de recherche particulier (l’étude de la subjectivité), une méthodologie de
recueil particulière (constitution des échantillons Q et P ; recueil des Q-sorts) et une
technique d’analyse statistique particulière (analyse factorielle Q).

a. Toutefois, un échange assez vif a eu lieu entre Brown et Miller dans Operant Subjectivity (1984 et
1985) suite à la publication de Miller et Friesen.

En dépit des critiques de certains, cette méthode et la méthodologie d’étude


forgée par Stephenson se sont développées au sein des sciences sociales et une com-
munauté de chercheurs s’est réunie autour de cette technique et de la philosophie
qu’elle sous-tend (voir le site www.qmethod.org, ainsi que la revue académique Ope-
rant Subjectivity). Des contributions dans les domaines de la psychologie (Pierrehum-
bert et al., 1995, 1996) des sciences politiques (Brown, 1986 ; Simon-Rosenthal,
1999), des soins hospitaliers, de la communication (Popovitch et Popovitch, 1994),
et, plus marginalement, du marketing (Brouwer, 1999 ; Ekinci et Riley, 2001), de la
gestion des ressources humaines (O’Reilly, Chatman et Caldwell, 1991) s’appuient sur
cette méthode.
Il est toutefois intéressant de comprendre pourquoi la méthode a été contro-
versée. Ainsi que l’explique Brown (1997), Burt, qui fut l’un des plus farouches oppo-
sants à cette méthode, considérait que l’approche Q en analyse factorielle n’était rien
moins que l’approche de type R inversée. Or, ce point de vue méconnaît l’importance
de la démarche méthodologique qui conduit à utiliser l’analyse factorielle Q. Ainsi,
lorsque l’usage qui a été fait de la méthode factorielle Q négligeait la méthodologie
en amont, les résultats se révélaient décevants ; c’est ce qui apparaît dans certaines
contributions en marketing (Stewart, 1981 ; Baumgartner, 1989).
184 La méthodologie Q et l’étude de la subjectivité

ENCADRÉ 7.3
Petit point sur l’appellation des analyses factorielles

Le système de notation o, p, q, r, s, t des analyses factorielles trouve son origine dans


la publication de Thomson (1935). Là où r (minuscule) correspond à la corrélation
entre traits (ou variables), il sélectionne le q (minuscule) pour désigner la corrélation
entre personnes. C’est Stephenson qui transforme le q en Q pour renvoyer à une
méthodologie plus générale, incluant une analyse factorielle q. De la même façon, il
désigne par R les méthodologies qui conduisent ensuite à utiliser une analyse facto-
rielle de type r.
Source : échange avec S. Brown, liste Q-Method, mars 2003

Stewart (1981) rappelle que six types d’analyses factorielles existent, chacune
portant sur des objets différents. Nous les reprenons dans le tableau 7.1.
Le tableau 7.1 montre comment s’est installée durablement l’idée selon
laquelle l’analyse de type Q correspond simplement à l’inversion de la matrice croisant
variables et individus. Si bien qu’en marketing, son utilisation a été principalement
liée à la segmentation, puisque les personnes et non les variables sont analysées,
l’analyste recherche des groupes homogènes d’individus.
Toutefois, cet usage suppose de négliger la méthodologie Q que nous avons
exposée précédemment. La démarche proposée par Stephenson ne fonctionne pas sur
des données objectives mais sur des données subjectives. En outre, les données sub-
jectives ne sont pas conçues comme étant indépendantes les unes des autres, puisque
chaque énoncé appartenant à l’échantillon Q est évalué par rapport aux autres et non
dans l’absolu.
Au total, ainsi que le souligne Brown, il n’y a pas une matrice de données que
l’on inverse mais bien deux matrices distinctes, l’une comprenant un croisement indi-
vidus-variables objectives et l’autre croisant individus-variables subjectives. Ce point

Techniques a Facteurs Indices d’association Données Type d’étude


constitués par : calculés entre : collectées sur :

R Variables Personnes Une occasion Coupe instantanée

Q Personnes Variables Une occasion Coupe instantanée

S Personnes Occasions Une variable Étude longitudinale

T Occasions Personnes Une variable Étude longitudinale

P Variables Occasions Une personne Étude longitudinale

O Occasions Variables Une personne Étude longitudinale

a. En réalité, les tenants de l’approche Q considèrent qu’il n’existe qu’une véritable alternative qui renvoie soit à une approche de type R (corrélation
de variables, quel que soit le nombre de collectes) soit à une approche de type Q (corrélation de « personnes » quel que soit le nombre de collectes).

Source : Stewart, 1981


TABLEAU 7.1 – Les types d’analyses factorielles
L’instrumentation de l’étude de la subjectivité 185

apparaît clairement dans l’ouvrage de Stephenson de 1953 et dans son article de


1935.

2.3 RÉCAPITULATIF DE LA DÉMARCHE ET DES OPTIONS POSSIBLES


Au total, la philosophie qui sous-tend l’utilisation de l’analyse factorielle Q est
bien différente de celle sous-tendue par les méthodes factorielles classiques de type
R. Il est essentiel de prendre la pleine mesure de ce que Brown (1997) affirme : « en
somme, la Q-technique ne mesure pas les variables en tant que telles mais des états
d’esprit ; et lorsque l’étude Q est une étude de cas, les différents facteurs sont consi-
dérés comme existant simultanément, dans un état de complémentarité. »
On comprend alors que, si la méthode est utilisée sans la méthodologie qu’elle
appelle et pour d’autres objectifs de recherche que ceux liés à l’étude de la subjecti-
vité, les résultats obtenus soient décevants et critiquables (Stewart, 1981 ; Baumgar-
tner, 1989). Nous résumons les étapes de la méthodologie Q dans le tableau 7.2.

Étapes Objectifs
#1 : génération d’énoncés concernant le sujet d’étude, au travers d’entretiens Constitution d’une population
d’énoncés ou population Q, encore
désignée par concours.
#2 : constitution d’un échantillon d’assertions par élimination des redondances et Constitution de l’échantillon Q,
reformulation éventuelle des énoncés échantillon d’énoncés
#2’ : utilisation éventuelle d’un plan expérimental pour sélectionner un nombre
d’énoncés caractéristiques de chaque case.
#3 : sélection raisonnée des individus participant à l’étude Constitution de l’échantillon P,
échantillon des personnes
#4 : détermination de la distribution attendue selon une loi quasi normale ; affectation Préparation du recueil
d’un n° d’ordre à chaque énoncé.
Chaque énoncé doit être retranscrit sur une carte-papier permettant le recueil
matériel de chaque classement (i.e. :q-sort).
N.B. : certains n’imposent pas de distribution particulière mais fixent simplement
le nombre de catégories à utiliser pour classer les cartes.
#5 : recueil des Q-sorts auprès des individus qui classent les énoncés-cartes selon la Recueil des Q-sorts
distribution requise.
N.B. : le logiciel libre Web-Q permet de recueillir les q-sorts sur Internet.
#6 : saisie et traitement des données Analyse factorielle
N.B. : plusieurs logiciels de traitement existent :
PQMethod : logiciel libre conçu par Peter Schmolck régulièrement mis à jour ;
Quanal : logiciel commercial en Fortran ;
PCQ for Windows : logiciel commercial (une version buggée est disponible
librement).
#7 (option) : entretien ex post en s’appuyant sur les résultats de l’analyse factorielle Validation
#8 (option) : nouvelle collecte de plusieurs Q-sorts auprès d’un seul individu pour Approfondissement, étude de cas
réaliser une étude de cas.

TABLEAU 7.2 – Étapes de la méthodologie Q


186 La méthodologie Q et l’étude de la subjectivité

Si l’on respecte cette méthodologie, des résultats intéressants et différents


ressortent de l’analyse. Nous en proposons une illustration dans le texte qui suit.

3. Une application : la perception de la personnalité


des collaborateurs

Ce cas d’illustration a un objectif essentiellement pédagogique et démonstra-


tif. Le contexte de l’étude est le suivant : il s’agit pour le responsable d’un centre de
profit de décrire la personnalité de ses proches collaborateurs, en l’occurrence cinq
cadres.
L’étude menée est donc bien ici l’étude de la subjectivité d’un responsable con-
cernant la personnalité de ses proches collaborateurs. Il s’agit d’une étude de cas,
puisqu’il n’y a qu’un seul répondant, mais ce répondant nous fournira cinq q-sorts,
c’est-à-dire : cinq jugements subjectifs de la personnalité de ses cadres.

3.1 CONSIDÉRATIONS PRÉALABLES


La notion de personnalité a fait, et fait encore, l’objet de nombreuses recher-
ches dans le domaine de la psychologie (Funder, 2001). Le domaine de la gestion
intègre cette notion dans plusieurs disciplines. Ainsi la personnalité du dirigeant
intéresse-t-elle la stratégie, celle du consommateur ou de la marque le marketing
(voir les travaux de Ferrandi, Fine-Falcy et Valette-Florence, 1999) et celle des mem-
bres de l’entreprise la GRH (au travers des problématiques de gestion de l’expatria-
tion, coaching, recrutement, évaluation).
Parmi les cadres classiques d’appréhension de la personnalité (Funder, 2001) 6,
la théorie des traits de personnalité est une des plus prégnantes. Cette théorie consi-
dère que la personnalité est structurée autour de traits stables au travers du temps et
des situations. En Marketing, elle est la plus utilisée (Dubois et Jolibert, 1998). Au
sein de cette théorie, le cadre des « Big Five » 7 conduit à décrire et à mesurer la per-
sonnalité autour de cinq traits que sont l’Ouverture, le caractère Consciencieux,
l’Extraversion, l’Amabilité et le caractère Neurasthénique (OCEAN). Costa et McCrae
(1992) ont particulièrement travaillé à la mesure de ces cinq traits. Toutefois, en
dépit des nombreuses tentatives de mettre en évidence cinq dimensions de façon
« objective », aucune échelle n’est universellement acceptée.
Une approche alternative consisterait à examiner comment l’individu repère et
structure les éléments susceptibles de traduire la personnalité, dans un contexte
donné. Cette approche permettrait de mettre en évidence comment un individu per-
çoit de façon subjective la personnalité des autres.

6 Funder (2001) dénombre quatre paradigmes classiques dans la recherche sur la personnalité : le
paradigme psychoanalytique, le paradigme des traits de personnalité, le paradigme béhavioriste et le
paradigme humaniste. À cela, s’ajoutent de nouveaux paradigmes issus des recherches en biologie et
en sciences cognitives.
7 Cette théorie s’est bâtie sur l’analyse factorielle de type R, ainsi que le rappelle Block dans les
archives de la liste Q.
Une application : la perception de la personnalité des collaborateurs 187

Idéalement, comme nous l’avons indiqué précédemment, il conviendrait de


réaliser une première étape d’entretiens afin d’identifier différents énoncés concer-
nant la personnalité et ses caractéristiques. Toutefois, comme notre but est de mettre
en évidence les résultats de la méthode, et considérant l’antériorité des recherches
sur la personnalité dans différentes disciplines, nous faisons l’hypothèse que les
outils disponibles englobent les cinq différents aspects de la personnalité de façon
satisfaisante.
L’outil de mesure de la personnalité construit par Borkenau et Ostendorf
(1998) est retenu. Cet instrument est constitué de 30 adjectifs qui représentent les
cinq traits de personnalité. Chaque trait est décrit par six adjectifs : trois positifs,
trois négatifs. Par rapport aux indications de Stephenson conduisant à retenir des
énoncés caractérisant chaque case d’un plan expérimental, on peut considérer que
l’outil retenu ici est en ligne avec ces indications (5 aspects, 2 modalités : favorable/
dévavorable).
La liste des 30 adjectifs est traduite, puis vérifiée par un professionnel de lan-
gue anglaise afin d’assurer une traduction de bonne qualité. Au besoin, plusieurs ter-
mes sont juxtaposés afin de préciser le sens des adjectifs (Encadré 7.4).
Au total, nous avons donc un échantillon Q de 30 adjectifs (Q=30) appliqués à
un échantillon P de 1 personne (P=1), laquelle produira 5 Q-sorts (puisque l’on inter-
roge le responsable à propos de ses 5 collaborateurs). Il s’agit donc d’une étude de
cas. Ce type d’étude est également désignée sous le terme d’analyse intensive (Baas
et Brown, 1973 ; Brown, 1974).

ENCADRÉ 7.4
Liste des adjectifs utilisés

1. Autoritaire 16. Plein(e) d’entrain


2. Bien informé(e), bien 17. Prévenant(e), plein(e) d’égards
documenté(e), expert(e) 18. Prudent(e)
3. Calme 19. Réservé(e)
4. De mauvais caractère 20. Résistant(e)
5. Dynamique 21. Sérieux(se), responsable
6. Égoïste 22. Serviable
7. Émotionnellement stable 23. Silencieux(se), taciturne
8. Facile à vivre 24. Sociable
9. Imprudent(e), irréfléchi(e) 25. Spirituel(le), plein(e) d’esprit
10. Instable 26. Tenace
11. Irritable 27. Timide
12. Peu averti(e), peu avisé(e) 28. Travailleur(se)
13. Nonchalant(e) 29. Vite démuni(e), vite perdu(e),
14. Obstiné(e) dépassé(e)
15. Peu imaginatif(ve) 30. Vulnérable
Source : Traduit de Borkenau et Ostendorf (1998)
188 La méthodologie Q et l’étude de la subjectivité

3.2 DISPOSITIF DE RECUEIL DES DONNÉES


La liste des adjectifs est classée par ordre alphabétique. Les cartes correspon-
dant aux adjectifs sont imprimées en autant d’exemplaires que de Q-sort à recueillir
(ici 5). Ce dispositif permet au répondant à la fois de pouvoir manipuler les cartes de
réponses et d’avoir la liste complète des adjectifs en permanence sous les yeux.
Sachant que nous disposons de 30 cartes à classer selon une loi quasi normale
(Figure 7.4), nous retenons une répartition en neuf catégories allant de « décrit par-
faitement bien la personne » (catégorie 4) à « décrit très mal la personne » (catégo-
rie — 4). Précisément, le répondant devra classer 6 cartes en position 0 (ne
s’applique pas à la personne), 5 en position — 1 et 1, 4 en position — 2 et 2, 2 en
— 3 et 3, et 1 carte à chaque extrémité — 4 et 4 (« décrit très mal » et « décrit par-
faitement bien »), correspondant à la présentation graphique suivante.
Un tableau de recueil a été conçu (cf. encadré 7.5). Ce tableau de recueil est
décliné pour chaque Q-sort, c’est-à-dire pour l’évaluation de chaque collaborateur par
le répondant. Il a donc été imprimé en cinq exemplaires. Afin de bien distinguer cha-
que Q-sort, chaque tableau de recueil reprend le nom du collaborateur évalué
(Encadré 7.5).

3.3 RÉSULTATS, INTERPRÉTATION ET VALIDITÉ


Les Q-sorts ont été saisis sous le logiciel libre PQMethod proposé par Peter
Schmolck (www.rz.unibw-muenchen.de/~p41bsmk/qmethod). Il s’agit d’un pro-
gramme DOS dont les algorithmes et les formules sont appuyés sur les écrits de Brown
(1980). De facture rustique, son utilisation est toutefois facilitée par un manuel de
l’utilisateur permettant de prendre en main le logiciel. Toutefois, la lecture de Brown
(1996) et des éléments du « tutoriel » de Brown (1993, accessible par le site officiel
www.qmethod.org) sera un complément utile.
L’interprétation des résultats d’une analyse factorielle de type Q est tout à fait
classique et accessible à un utilisateur d’ACP classique 8. Néanmoins, ce que ne pro-
cure pas une ACP classique dans les sorties standard, c’est la description des facteurs

–4 –3 –2 –1 0 1 2 3 4 Catégories

I I I I I I I I I
I I I I I I I
I I I I I
I I I I I
Catégories
I I I
I

FIGURE 7.4 – Répartition de 30 cartes en 9 catégories selon une loi quasi normale
Une application : la perception de la personnalité des collaborateurs 189

ENCADRÉ 7.5
Dispositif de recueil des Q-sort : Exemple pour le cadre « Séverine »

Consigne : Il vous est demandé de décrire la personnalité de vos collaborateurs en


utilisant la liste des adjectifs joints et en les classant en fonction de votre opinion.
Pour le cadre Séverine, classer les cartes de description de sa personnalité selon les
modalités suivantes (adjectif qui décrit de « parfaitement bien » à « vraiment mal »)

Ne
Vraiment Parfaitement
Très mal Mal Plutôt mal s’applique Plutôt bien Bien Très bien
mal bien
pas
Mettre Mettre Mettre Mettre Mettre Mettre Mettre Mettre Mettre
1 carte 2 cartes 4 cartes 5 cartes 6 cartes 5 cartes 4 cartes 2 cartes 1 carte

Nota : Il n’y a pas de bonne réponse, c’est ce que vous pensez qui est important.

en fonction des individus (ici, en fonction des adjectifs puisque la matrice est inver-
sée). Si cela n’est pas important dans l’approche R (en effet, les individus ne servent
pas à interpréter les facteurs), c’est essentiel dans l’approche Q puisque ce sont les
énoncés qui caractérisent les facteurs qui permettront de leur donner sens.
Sur la base de notre collecte, nous obtenons la matrice de corrélations sui-
vante (tableau 7.3), les différents q-sorts sont désignés par le nom de la personne
évaluée par le cadre (le q-sort 1 est le cadre Séverine évalué par son supérieur hiérar-
chique). Le listing complet des résultats est fourni en annexe et annoté.
Le tableau 7.3 permet d’observer de premiers regroupements, ainsi le cadre
Fabrice est celui dont la personnalité est perçue comme la plus proche du cadre
Séverine ; et celle de Vianney comme la plus éloignée de toutes. L’extraction des fac-
teurs livre les éléments suivants (Tableau 7.4).
Les résultats mettent en évidence que les deux premiers facteurs résument
74 % de la variance des données. Par la suite, seules ces deux dimensions seront rete-
nues 9.
Bien que le graphique (Figure 7.5) soit lisible compte tenu d’un faible nombre
de points (5), une rotation varimax est demandée, elle permet de visualiser le posi-
tionnement de chaque cadre dans l’espace subjectif du responsable hiérarchique (le
logiciel offre la possibilité de réaliser une rotation manuelle 10 sans rotation varimax
ou bien encore après la rotation varimax).

8 Nous avons ressaisi les données sous SPSS pour réaliser une analyse factorielle classique, elle
donne les mêmes résultats.
9 Les deux premières dimensions sont retenues dans la suite du texte. Néanmoins, ainsi que le
souligne Brown (1978), dans l’approche Q, le critère de sélection des facteurs Q est avant tout leur
signification et leur apport à la compréhension, le critère statistique étant très secondaire
(eigenvalues, % de variance expliquée).
10 La rotation manuelle est réalisée via le curseur sur la base de la représentation graphique des
facteurs concernés à l’écran.
190 La méthodologie Q et l’étude de la subjectivité

q-sorts 1 2 3 4 5

1 Séverine 100 55 32 –44 51


2 Fabrice 55 100 33 –54 52
3 Benjamin 32 33 100 –8 52
4 Vianney –44 –54 –8 100 –9
5 Christel 51 52 52 –9 100

Nous reproduisons ici la matrice de corrélations telle qu’elle est fournie par le logiciel PQ-Method dans lequel les corrélations sont expri-
mées selon la métrique [-100 ;+100].

TABLEAU 7.3 – Matrice de corrélations entre Q-sorts

F 1 2 3 4 5

Valeurs propres 2,6028 1,1184 0,5580 0,4424 0,2783


% de variance expliquée 52 22 11 9 6
Variance cumulée 52 74 85 94 100

TABLEAU 7.4 – Extraction des facteurs

Comme l’indique le tableau 7.5, le premier facteur est essentiellement défini


en négatif par l’individu 4 et en positif par les individus 1 et 2. Le second facteur est,
lui, marqué par les individus 5 et 3. Au total, le responsable hiérarchique perçoit trois
types de personnalités, la personnalité de type « 4 » opposée à la personnalité de
type « 1et2 », et la personnalité de type « 5et3 ».
Pour avancer dans l’interprétation des facteurs, il est nécessaire d’examiner les
assertions qui les caractérisent et qui les différencient. Dans ce but, le logiciel
requiert que soient désignés les q-sorts les plus caractéristiques de chaque facteur
(ici, on voit que les q-sorts 1, 2 et 4 sont caractéristiques du facteur 1 ; et que les q-
sorts 3 et 5 sont caractéristiques du facteur 2), cela permet au logiciel de recalculer
les facteurs sous la forme de q-sorts synthétiques. Ensuite, pour déterminer le carac-
tère plus ou moins caractéristique de chaque énoncé par rapport au facteur étudié, le
calcul suivant est opéré automatiquement par le logiciel. Le poids W é /f de l’énoncé é
a vis-à-vis du facteur f est :
n
Wé ⁄ f = ∑ ré, i × wi ⁄ f
i=1

avec :
ré,i = rang donné à l’énoncé é dans le Q-sort i
wi/f = poids du Q-sort i sur le facteur f
Ici : Σé = 30 ; –4 ≤ r ≤ 4 ; w = contribution factorielle (cf. tableau 7.5), et
1≤i≤5
Une application : la perception de la personnalité des collaborateurs 191

Press F1 for Help

2
1

3
2

Use cursors <Left/Right> to create - ESC to discard ranges

FIGURE 7.5 – Représentation graphique des axes factoriels après rotation varimax
et positionnement des Q-sorts

Dans le logiciel PQMETHOD, le résultat de ces calculs est ensuite converti selon
la métrique initiale des Q-sorts. Ainsi, comme les catégories utilisées vont de – 4 à 4,
les résultats sont présentés en utilisant les 9 catégories de la figure 7.4. Cela permet
de restituer les q-sorts synthétiques représentant les 2 facteurs. Les résultats sont les
suivants (Tableau 7.6).
Pour faciliter l’interprétation, nous avons suivi la procédure de Brown (1993)
qui consiste à représenter chaque facteur sous la forme de Q-sort synthétiques
(Figure 7.6). On reprend donc (manuellement) les éléments du tableau 7.6 que l’on

QSORT 1 2
1 Séverine 0,6709 0,4607
2 Fabrice 0,7577 0,4162
3 Benjamin 0,0409 0,8327
4 Vianney –0,9062 0,1238
5 Christel 0,2285 0,8530
% de variance expliquée 38 36
TABLEAU 7.5 – Contributions des Q-sorts sur les axes factoriels retenus
(après rotation varimax)
192 La méthodologie Q et l’étude de la subjectivité

Adjectifs F1 F2
Autoritaire 3 –1
Bien informé 2 –1
Calme –3 –2
Égoïste 0 –2
De mauvais caractère 4 –3
Dynamique 3 3
Émotionnellement stable –2 1
Facile à vivre –3 2
Imprudent 1 –1
Instable 1 –1
Irritable 2 –3
Peu averti –1 –2
Nonchalant –4 –4
Obstiné 0 0
Peu imaginatif –1 –1
Plein d’entrain 2 4
Prévenant 0 1
Prudent –1 0
Réservé –1 0
Résistant 1 2
Sérieux 0 2
Serviable 0 1
Silencieux –2 –1
Sociable 0 1
Spirituel 1 0
Tenace -2 2
Timide 2 1
Travailleur 1 3
Vite démuni –1 –2
Vulnérable –2 0

TABLEAU 7.6 – Position des énoncés sur les facteurs

ordonne comme un q-sort, ce travail est facilité par la conversion des scores en la
métrique initiale (ici : 9 catégories).

Cette base, plus visuelle que le tableau 7.6, permet de mieux appréhender la
signification des deux facteurs. Elle est complétée par l’examen des énoncés significa-
tifs pour chaque facteur. Le plus intéressant est le tableau des énoncés distinctifs
(Tableau 7.7) qui met en évidence sur quels énoncés les facteurs se différencient.

Sur la base de la figure 7.6 et du tableau 7.7, il ressort que les facteurs 1 et 2
se distinguent l’un de l’autre de façon significative sur 11 adjectifs. Quatre adjectifs
distinctifs le sont au seuil de p=0.01 : « de mauvais caractère, autoritaire, irritable,
facile à vivre ». Sept le sont au seuil de p=0.05 : « bien informé, plein d’entrain,
imprudent, égoïste, prévenant, émotionnellement stable, timide ». Ce premier constat
conduit à interpréter les 2 facteurs en termes d’opposition. Par exemple, le facteur 1
renvoie au mauvais caractère, à l’autorité contrairement au facteur 2 (les rangs sont
opposés : « de mauvais caractère » a le rang 4 sur F1 et le rang –3 sur F2). Mais cette
Une application : la perception de la personnalité des collaborateurs 193

Facteur 1
–4 –3 –2 –1 0 1 2 3 4
nonchalant calme émotion. stable peu averti égoïste imprudent bien informé autoritaire mauvais caractère
facile à vivre silencieux peu imaginatif obstiné instable irritable dynamique
timide prudent prévenant résistant plein d’entrain
vulnérable réservé sérieux spirituel tenace
vite démuni serviable travailleur
sociable
Facteur 2
–4 –3 –2 –1 0 1 2 3 4
nonchalant mauvais caractère calme autoritaire bien informé émotion. stable facile à vivre dynamique plein d’entrain
irritable égoïste imprudent obstiné prévenant résistant travailleur
peu averti instable prudent serviable sérieux
vite démuni peu imaginatif réservé sociable tenace
silencieux spirituel timide
vulnérable

Adjectifs spécifiques au facteur


Adjectifs distinctifs de façon significative entre les 2 facteurs (p <=.01 ou.05)

FIGURE 7.6 – Représentation des facteurs sous forme de Q-sort synthétique

interprétation est très insuffisante. Les éléments de la figure 7.6 intègrent également
les adjectifs spécifiques à chaque facteur. En figurant les deux facteurs sous la forme
de q-sorts synthétiques, on voit comment s’agence le sens porté par les deux facteurs.
Il n’est pas étonnant de trouver des adjectifs « spécifiques » communs aux deux fac-
teurs. Par exemple, l’adjectif « dynamique » apparaît « spécifique » à F1 et F2 car cet

Facteur 1 Facteur 2

N° Adjectifs Rang Score Rang Score Sign


4 de mauvais caractère 4 1.99 –3 –1.77 <.01
1 autoritaire 3 1.22 –1 –0.27 <.01
11 irritable 2 0.98 –3 –1.45 <.01
2 bien informé 2 0.93 0 0.00 <.05
16 plein d’entrain 2 0.82 4 1.77 <.05
9 imprudent 1 0.62 –1 –0.32 <.05
6 égoïste 0 0.18 –2 –0.86 <.05
17 prévenant 0 –0.27 1 0.59 <.05
7 émotionnellement stable –2 –0.73 1 0.32 <.05
27 timide –2 –0.93 1 0.04 <.05
8 facile à vivre –3 –1.26 2 1.45 <.01
TABLEAU 7.7 – Énoncés distinctifs pour chaque facteur
194 La méthodologie Q et l’étude de la subjectivité

adjectif est associé à chacun des facteurs de façon significative (voir annexe pour
détails) mais il ne les distingue pas (il n’est pas positionné de façon différente sur
chacun des facteurs). En revanche, cet adjectif apparaît dans des contextes diffé-
rents. Ainsi, pour F1, l’adjectif « dynamique » jouxte les adjectifs distinctifs suivants
« de mauvais caractère », « autoritaire » alors que pour F2, il côtoie d’autres adjectifs
distinctifs : « plein d’entrain », « facile à vivre ».
Ce point permet de souligner l’optique de complémentarité, sinon de dualité,
qu’il convient d’adopter dans le travail d’interprétation. En d’autres termes, un même
adjectif (ou plus généralement, un même énoncé) revêt des significations différentes,
ce qui est en droite ligne avec la théorie des concours. De sorte que, si l’on souhaite
interpréter plus globalement la figure 7.6, il est nécessaire d’approfondir la première
lecture. Ainsi, une première lecture conduit-elle à considérer que F1 oppose le
« mauvais caractère » (pour faire bref) au caractère « facile à vivre » et à la
nonchalance ; et que F2 oppose le « mauvais caractère » au caractère « plein
d’entrain et travailleur ». Une lecture plus approfondie permet de relever que le
« mauvais caractère » peut renvoyer à deux univers. Le premier est de type
relationnel : les personnes qui sont perçues comme étant de mauvais caractère sont
également celles qui sont perçues comme tenaces, capables d’autorité, de dyna-
misme. Le « mauvais caractère » est, en fait, du caractère. Le second univers renvoie
aux qualités de collaboration (au sens étymologique du terme) de la personne. Une
personne perçue comme de « mauvais caractère » est vue comme nonchalante et
incapable de s’investir dans le travail (entrain, travail, dynamisme sont les termes en
opposition).
En somme, le premier facteur regroupe les collaborateurs qui sont perçus
comme ayant du caractère, des capacités managériales 11 et relationnelles ou bien, au
contraire, qui en sont totalement dépourvus (opposition de Séverine et Fabrice à
Vianney). Le second facteur regroupe, lui, des personnes qui sont vues comme capa-
bles de s’investir dans leur travail (Benjamin et Christel).
Enfin, pour compléter l’étude, il est utile de procéder à une étape de validation
comme indiqué dans le tableau 7.2 (étape 7). Nous avons réalisé un court entretien
avec le responsable de centre de profit, cinq mois après le recueil des données. Quatre
questions ont été posées :
■ Dans un cadre professionnel, quelle est la dimension de la personnalité la plus
importante à vos yeux ?
■ Parmi vos cadres, quels sont ceux qui se ressemblent le plus en termes de
personnalité ?
■ Quels sont ceux qui vous semblent être les plus travailleurs ?
■ Quels sont ceux qui ont, selon vous, le plus de caractère, de leadership,
d’autorité ?

11 Les notions d’autorité et caractère sont ici interprétées comme le reflet des capacités managéria-
les compte tenu du contexte de l’étude (ici : le centre de profit étudié est un magasin de grande dis-
tribution spécialisé). Il est clair qu’une connaissance antérieure du terrain permet d’enrichir
l’interprétation. On voit donc ici l’importance d’une démarche d’étude complète (entretiens préala-
bles, constitution du concours, etc.).
Conclusion 195

À la première question, le responsable nous a indiqué : « La capacité à mana-


ger est, de loin, le plus important ».
Concernant la deuxième, libellée sans doute de façon trop générale, il nous a
été répondu que chaque personnalité était bien différente. C’est pour cela que deux
questions complémentaires ont été posées. Les cadres perçus comme les plus tra-
vailleurs sont nommés spontanément dans l’ordre suivant : Christel, Fabrice, Séverine.
Les cadres ayant le plus de caractère sont : Fabrice et Séverine. Le dernier cadre,
Vianney, n’a jamais été mentionné ; il a été encouragé à quitter l’entreprise car il
n’apportait pas satisfaction.
Les éléments de cet entretien convergent avec les résultats obtenus. Le pre-
mier facteur que nous avons interprété comme représentant les qualités relationnelles
et managériales renvoie bien aux personnes représentatives de cette dimension
(Fabrice et Séverine ; i.e. : les q-sorts 1et2) et le deuxième facteur, interprété comme
renvoyant au caractère travailleur concerne bien en priorité le cadre Christel (q-sort
5) perçue comme la plus travailleuse. Si l’interprétation du premier facteur est con-
forté par l’entretien ex post, on constate également que ce facteur qui émerge en pre-
mier de l’analyse constitue aussi la dimension la plus importante aux yeux du
responsable hiérarchique.

4. Conclusion

Nous souhaitons pour conclure évoquer certains aspects liés à la tâche du


répondant. En effet, les échantillons d’énoncés sont traditionnellement volumineux.
La tâche du répondant est donc lourde au point que l’on peut craindre sa démission
pure et simple de l’enquête. Ainsi, dans le cadre de leur étude sur l’Organizational Cul-
ture Profile (OCP), O’Reilly et al. (1991) n’utilisent pas moins de 110 items/énoncés.
Il était donc raisonnable de supposer que la tâche de classement puisse apparaître
ennuyeuse et répétitive au répondant.
Nous avons donc réalisé un entretien juste après la collecte des Q-sorts pour
obtenir les réactions à chaud du répondant de notre étude. Le mode de recueil a été
jugé simple et pas particulièrement fastidieux (faire 5 Q-sorts). Le cadre de recueil
(i.e. : cartes-papier + tableau) décliné pour chaque Q-sort à recueillir a été considéré
comme une aide précieuse au classement des réponses. Le nombre des catégories
(ici : 9) est perçu comme permettant suffisamment de nuances dans les réponses ;
néanmoins le répondant nous a précisé que, sur un sujet qu’il aurait moins bien maî-
trisé, il aurait éprouvé des difficultés à utiliser l’ensemble de la palette des catégo-
ries. Ceci est cohérent avec les objectifs poursuivis par une étude de la subjectivité :
un sujet moins familier suscite moins d’impressions subjectives qu’un sujet connu à
propos duquel l’individu s’est créé une vision propre. Enfin, le répondant a éprouvé
certaines difficultés à classer les dernières cartes.
Au total, l’analyse factorielle de type Q permet d’étudier de manière quantifiée,
plutôt que quantitative, les conceptions d’un individu vis-à-vis d’un thème, d’une
question, d’une expérience. À la différence d’une approche de type R qui nous aurait
conduite à interroger de nombreux individus sur les énoncés/items de personnalité
196 La méthodologie Q et l’étude de la subjectivité

(OCEAN) nous avons obtenu une représentation de la vision d’un supérieur hiérarchi-
que à propos de la personnalité de ses cadres. Dans une méthodologie de type R, nous
aurions interrogé chaque cadre (et non pas le responsable hiérarchique) sur leur per-
sonnalité et nous aurions dû obtenir 5 facteurs de personnalité à partir desquels il
aurait été possible de décrire chacun des participants à l’étude, cela nous aurait per-
mis de voir, par exemple, jusqu’à quel point Séverine se trouve Ouverte ou Conscien-
cieuse. Ici, nous pouvons voir que le responsable hiérarchique perçoit trois types de
personnalités : les cadres ayant du leadership et développant un bon relationnel,
ceux n’en ayant pas du tout et ceux qui sont travailleurs. Il s’agit bien de perspecti-
ves complètement différentes.
L’usage de l’analyse factorielle Q suppose néanmoins le respect d’une méthodo-
logie précise. Elle peut être utilisée sur un individu seul ou bien sur plusieurs ; dans
ce second cas, un ou plusieurs Q-sorts peuvent être collectés. Dans un cas comme
dans l’autre, la préparation minutieuse de l’échantillon d’énoncés (échantillon Q) et
des catégories de classement apparaît fondamentale.
À ces conditions, les résultats obtenus présentent une forte cohérence, ainsi
qu’en témoigne l’illustration présentée. Ils permettent d’appréhender un sujet sans
simplification excessive (nombre des assertions), dans sa complexité (interactions
entre les assertions) tout en respectant le contexte (individu et positionnement rela-
tif).

Bibliographie
Baumgartner G. (1989), Une nouvelle méthode d’analyse factorielle pour la typologie
des consommateurs. Recherche et Applications en Marketing, vol. 4, n° 3, pp. 3-23.
Baas L.R. et Brown S.R. (1973), Generating rules for intensive analysis : the study of
transformations. Psychiatry, vol. 36, pp. 172-183.
Block J. (1956), A comparison of the forced and unforced Q-sorting procedures. Educa-
tional and Psychological Measurement, vol. 16, pp. 481-493.
Borkenau P. et Ostendorf F. (1998), The big five as states : how useful is the five-factor
model to describe intra-individual variations over time ? Journal of Personality, vol.
32, pp. 202-221.
Brouwer M. (1999), Q is accounting for tastes. Journal of Advertising Research, vol. 39
n° 2, pp. 35-39.
Brown S.R. (1972), A fundamental incommensurability between objectivity and subjec-
tivity. In S.R. Brown et D.J. Brenner (Eds.), Science, Psychology, and Communication :
Essays Honoring William Stephenson. New York : Teachers College Press, pp. 57-94.
Brown S.R. (1974), Intensive analysis in political research. Political Methodology, vol.
1, n° 1, pp. 1-25.
Brown S.R. (1978), The importance of factors in Q methodoloqy : statistical and theore-
tical considerations. Operant Subjectivity, vol. 1, n° 4, pp. 117-124.
Brown S.R. (1980), Political Subjectivity — Applications of Q Methodology in Political
Science,Yale University Press.
Brown S.R. (1984), Misunderstandings, misattributions, and mis-Qs. Operant Subjecti-
vity, n° 8, pp. 28-30.
Bibliographie 197

Brown S.R. (1986), The subjective side of enterprise : organizational dimension and
decision structure. Fifth Policy Sciences Summer Inctitute and Association for Public
Policy Analysis and Mangement, University of Texas, October 30- November 1.
Brown S.R. (1993), A Q methodological tutorial. Operant Subjectivity, vol. 16, pp. 91-
138 [disponible sur www.qmethod.org].
Brown S.R. (1996), Q methodology and qualitative research. Qualitative Health
Research, vol. 6, n° 4 (November), pp. 561-567.
Brown S.R. (1997), The history and principles of Q methodology in psychology and the
social sciences. British Psychological Society symposium on « A Quest for a Science of
Subjectivity : The Lifework of William Stephenson », University of London, England
(QArchive).
Costa P.T. et McCrae R.R. (1992), Revised NEO Personality Inventory (NEO-PI-R) and NEO
Five Factor Inventory. Professional Manuel, Odessa, Floride, Psychological Assessment
Resources.
Cottle C.E. et McKeown B. (1980), The forced-free distinction in Q technique : a note
on unused categories in the Q sort continuum, Operant Subjectivity, vol. 3, n° 2,
pp. 58-63.
Dubois P.L. et Jolibert A. (1998), Le Marketing, Fondements et Pratique, Paris : Econo-
mica.
Ekinci Y. et Riley M. (2001), Validating quality dimensions. Annals of Tourism Research,
vol. 28, n° 1, pp. 202-223.
Ferrandi J.M., Fine-Falcy S. et Valette-Florence P. (1999), L’échelle de personnalité des
marques de Aaker appliquée au contexte français : un premier test. 15e Congrès Inter-
national de l’Association Française de Marketing, Strasbourg, pp. 1089-1112.
Funder D.C. (2001), Personality. Annual Review of Psychology (annual), [disponible sur
www.findarticles.com].
Miller D. (1978), The role of multivariate ‘Q-Techniques’ in the study of organization.
The Academy of Management Review, vol. 3, n° 3, pp. 515-531.
Miller D. (1985), Comment. Operant Subjectivity, n° 8, pp. 70-71.
Morf M.E., Miller C.M. et Syrotuik J.M. (1976), A comparison of cluster analysis and Q-
factor analysis. Journal of Clinical Psychology, vol. 32, 59-64.
O’Reilly C., Chatman J. et Caldwell D. (1991), People and organizational culture : a Q-
sort approach to assessing person-organization fit. Academy of Management Journal,
vol. 34, pp. 487-516.
Pierrehumbert B, Sieye A., Zaltman V. et Halfon O. (1995), Entre salon et laboratoire :
l’utilisation du Q-sort de Waters et Deane pour décrire la qualité de la relation d’atta-
chement parent-enfant. Enfance, n° 3, pp. 277-291.
Pierrehumbert B., Karmaniola A., Sieye A., Meister C., Miljkovitch R. et Halfon O.
(1996), Les modèles de relation : Développement d’un autoquestionnaire d’attache-
ment pour adultes. Psychiatrie de l’enfant, vol. 34, n° 1, pp. 161-206.
Popovitch K et Popovitch M. (1994), Use of Q methodology by public relations practi-
tioners for hospital strategic planning. Operant Subjectivity, vol. 17 (April/July),
pp. 40-54.
Reuchlin M. (1962), Les méthodes quantitatives en psychologie, PUF Psychologie
d’aujourd’hui, 2e édition (1975), pp. 254-302.
Simon-Rosenthal C. (1999), One experience is worth a thousand words : engaging
undergraduates in field research on gender. Political Science et Politics, March [dispo-
nible sur www.findarticles.com].
198 La méthodologie Q et l’étude de la subjectivité

Stephenson W. (1935), Correlating persons instead of tests. Character and Personality,


vol. 4, pp. 17-24.
Stephenson W. (1936), The foundations of psychometry : four factor systems. Psychome-
trika, vol. 1, pp. 195-209.
Stephenson W. (1953), The study of behavior : Q-technique and its methodology,
Chicago : University of Chicago Press.
Stephenson W. (1978), Concourse theory of communication. Communication, n° 3,
pp. 21-40.
Stephenson W. (1980), « Consciring : a general theory for subjective
communicability », Communication Yearbook, n° 4, pp. 7-36.
Stephenson W. (1986a), Protoconcursus : the concourse theory of communication (part
I), Operant Subjectivity, vol. 9, n° 2, pp. 37-58.
Stephenson W. (1986b), Protoconcursus : the concourse theory of communication (part
II), Operant Subjectivity, vol. 9, n° 3, pp. 73-96.
Stephenson W. (1989), Quantum theory of subjectivity. Integrative Psychiatry, n° 6,
pp. 180-187.
Stewart D.W. (1981), The application and misapplication of factor analysis in marketing
research. Journal of Marketing Research, vol. 18 (february), pp. 51-62.
Tashakkori A. et Teddlie C. (1998), Mixed Methodology, Combining Qualitative and Quan-
titative Approaches, Sage Publications.
Thomson G.H. (1935), On complete families of correlation coefficients, and their ten-
dency to zero tetrad-differences : including a statement of the sampling theory of
abilities. British Journal of Psychology (General Section), vol. 26, pp. 63-92.
Zangwell O.L., Lawrence Kohlberg, et Donald J. Brenner (1972), Introduction : William
Stephenson. In Steven R. Brown et Donald J. Brenner (Eds), Science, Psychology, and
Communication : Essays honoring William Stephenson, New York : Teachers College
Press [disponible sur www.qmethod.org].

Sites internet
www.qmethod.org
Q-METHOD@LISTSERV.KENT.EDU et les archives de cette liste de discussion très active.
Annexe 199

ANNEXE
LISTING PQMETHOD (VERSION 2.09)
Voici les sorties produites par le logiciel Pqmethod. Nous avons inséré dans le listing des
annotations en italiques signalées par une flèche (➡) afin de permettre au lecteur de sui-
vre le déroulement de l’analyse.
Correlation Matrix Between Sorts
SORTS 1 2 3 4 5
1 severine 100 55 32 -44 51
2 fabrice 55 100 33 -54 52
3 benjamin 32 33 100 -8 52
4 vianney -44 -54 -8 100 -9
5 christel 51 52 52 -9 100

➡ Matrice de corrélations des q-sorts


Unrotated Factor Matrix
Factors
SORTS 1 2 3 4 5
1 severine 0.8038 -0.1277 -0.3158 0.4713 0.1252
2 fabrice 0.8361 -0.2197 -0.0257 -0.4049 0.2968
3 benjamin 0.6029 0.5758 0.5299 0.1399 0.0675
4 vianney -0.5721 0.7137 -0.3045 -0.0310 0.2641
5 christel 0.7530 0.4615 -0.2900 -0.1891 -0.3167

➡ Matrice des contributions factorielles avant rotation


Eigenvalues 2.6028 1.1184 0.5580 0.4424 0.2783
% expl.Var. 52 22 11 9 6

➡ Valeurs propres et % de variance expliquée


VARIMAX Was Used
Factor Matrix with an X Indicating a Defining Sort
Loadings
QSORT 1 2
1 severine 0.6709X 0.4607
2 fabrice 0.7577X 0.4162
3 benjamin 0.0409 0.8327X
4 vianney -0.9062X 0.1238
5 christel 0.2285 0.8530X
% expl.Var. 38 36

➡ Matrice des contributions factorielles après rotation varimax. Les X marquent les
q-sorts qui seront associés à chaque facteur pour le calcul des q-sorts
synthétiques
Free Distribution Data Results
Q-SORTS MEAN ST.DEV.
1 0.000 1.948
2 0.000 1.948
3 0.000 1.948
4 0.000 1.948
5 0.000 1.948
200 La méthodologie Q et l’étude de la subjectivité

Rank Statement Totals with Each Factor


Factors
No. Statement No. 1 2
1 autoritaire 1 1.22 3 -0.27 19
2 bien informe 2 0.93 6 0.00 15
3 calme 3 -1.95 29 -1.18 27
4 de mauvais caractere 4 1.99 1 -1.77 29
5 dynamique 5 1.76 2 1.49 3
6 egoiste 6 0.18 15 -0.86 25
7 emotionnellement stable 7 -0.73 24 0.32 11
8 facile a vivre 8 -1.26 28 1.45 4
9 imprudent 9 0.62 9 -0.32 21
10 instable 10 0.51 10 -0.32 21
11 irritable 11 0.98 5 -1.45 28
12 peu averti 12 -0.64 21 -0.90 26
13 nonchalant 13 -2.02 30 -2.36 30
14 obstine 14 0.13 17 0.00 15
15 peu imaginatif 15 -0.68 22 -0.55 23
16 plein d entrain 16 0.82 7 1.77 1
17 prevenant 17 -0.27 18 0.59 10
18 prudent 18 -0.56 20 0.00 15
19 reserve 19 -0.51 19 -0.23 17
20 resistant 20 0.45 11 0.90 7
21 serieux 21 0.22 14 0.90 7
22 serviable 22 0.27 13 0.86 8
23 silencieux 23 -1.02 26 -0.27 19
24 sociable 24 0.15 16 0.78 9
25 spirituel 25 0.42 12 -0.08 16
26 tenace 26 1.04 4 0.90 7
27 timide 27 -0.93 25 0.04 12
28 travailleur 28 0.71 8 1.54 2
29 vite demuni 29 -0.70 23 -0.59 24
30 vulnerable 30 -1.11 27 -0.40 22

➡ Scores des énoncés sur les facteurs 1 et 2 (score et rang, rang allant de 1 à 30)
Correlations Between Factors
1 2
1 1.0000 0.2846
2 0.2846 1.0000
Normalized Factor Scores -- For Factor 1
No. Statement No. Z-SCORES
4 de mauvais caractere 4 1.992
5 dynamique 5 1.756
1 autoritaire 1 1.220
26 tenace 26 1.044
11 irritable 11 0.975
2 bien informe 2 0.926
16 plein d entrain 16 0.822
28 travailleur 28 0.709
9 imprudent 9 0.621
10 instable 10 0.508
Annexe 201

20 resistant 20 0.445
25 spirituel 25 0.418
22 serviable 22 0.272
21 serieux 21 0.223
6 egoiste 6 0.175
24 sociable 24 0.154
14 obstine 14 0.132
17 prevenant 17 -0.272
19 reserve 19 -0.508
18 prudent 18 -0.558
12 peu averti 12 -0.640
15 peu imaginatif 15 -0.682
29 vite demuni 29 -0.704
7 emotionnellement stable 7 -0.731
27 timide 27 -0.934
23 silencieux 23 -1.024
30 vulnerable 30 -1.107
8 facile a vivre 8 -1.261
3 calme 3 -1.951
13 nonchalant 13 -2.020

➡ Reprise des scores des énoncés sur le facteur 1 : en souligné, les énoncés
significatifs à p<=0.01 ; en italique souligné, les énoncés significatifs à <=0.05
(voir calculs plus loin).
Normalized Factor Scores -- For Factor 2
No. Statement No. Z-SCORES
16 plein d entrain 16 1.767
28 travailleur 28 1.535
5 dynamique 5 1.493
8 facile a vivre 8 1.451
20 resistant 20 0.904
21 serieux 21 0.904
26 tenace 26 0.904
22 serviable 22 0.862
24 sociable 24 0.778
17 prevenant 17 0.589
7 emotionnellement stable 7 0.315
27 timide 27 0.042
14 obstine 14 0.000
18 prudent 18 0.000
2 bien informe 2 0.000
25 spirituel 25 -0.084
19 reserve 19 -0.232
23 silencieux 23 -0.273
1 autoritaire 1 -0.273
9 imprudent 9 -0.315
10 instable 10 -0.315
30 vulnerable 30 -0.399
15 peu imaginatif 15 -0.547
29 vite demuni 29 -0.589
6 egoiste 6 -0.862
202 La méthodologie Q et l’étude de la subjectivité

12 peu averti 12 -0.904


3 calme 3 -1.178
11 irritable 11 -1.451
4 de mauvais caractere 4 -1.767
13 nonchalant 13 -2.355

➡ Reprise des scores des énoncés sur le facteur 2.


Descending Array of Differences Between Factors 1 and 2
No. Statement No. Type 1 Type 2 Difference
4 de mauvais caractere 4 1.992 -1.767 3.759
11 irritable 11 0.975 -1.451 2.427
1 autoritaire 1 1.220 -0.273 1.493
6 egoiste 6 0.175 -0.862 1.038
9 imprudent 9 0.621 -0.315 0.936
2 bien informe 2 0.926 0.000 0.926
10 instable 10 0.508 -0.315 0.824
25 spirituel 25 0.418 -0.084 0.502
13 nonchalant 13 -2.020 -2.355 0.336
12 peu averti 12 -0.640 -0.904 0.264
5 dynamique 5 1.756 1.493 0.262
26 tenace 26 1.044 0.904 0.140
14 obstine 14 0.132 0.000 0.132
29 vite demuni 29 -0.704 -0.589 -0.115
15 peu imaginatif 15 -0.682 -0.547 -0.135
19 reserve 19 -0.508 -0.232 -0.277
20 resistant 20 0.445 0.904 -0.459
18 prudent 18 -0.558 0.000 -0.558
22 serviable 22 0.272 0.862 -0.591
24 sociable 24 0.154 0.778 -0.625
21 serieux 21 0.223 0.904 -0.682
30 vulnerable 30 -1.107 -0.399 -0.708
23 silencieux 23 -1.024 -0.273 -0.751
3 calme 3 -1.951 -1.178 -0.773
28 travailleur 28 0.709 1.535 -0.826
17 prevenant 17 -0.272 0.589 -0.861
16 plein d entrain 16 0.822 1.767 -0.945
27 timide 27 -0.934 0.042 -0.976
7 emotionnellement stable 7 -0.731 0.315 -1.046
8 facile a vivre 8 -1.261 1.451 -2.712

➡ Calcul des différences de score de chaque énoncé entre les 2 facteurs (afin de
déterminer les énoncés distinctifs) calcul : sén/1-sén/2 (score de l’énoncé é sur
facteur 1) ; en souligné, les énoncés distinctifs avec p<=0.01 en italique souligné,
les énoncés distinctifs avec p<=0.05
Factor Q-Sort Values for Each Statement
Factor Arrays
No. Statement No. 1 2
1 autoritaire 1 3 -1
2 bien informe 2 2 0
3 calme 3 -3 -2
4 de mauvais caractere 4 4 -3
Annexe 203

5 dynamique 5 3 3
6 egoiste 6 0 -2
7 emotionnellement stable 7 -2 1
8 facile a vivre 8 -3 2
9 imprudent 9 1 -1
10 instable 10 1 -1
11 irritable 11 2 -3
12 peu averti 12 -1 -2
13 nonchalant 13 -4 -4
14 obstine 14 0 0
15 peu imaginatif 15 -1 -1
16 plein d entrain 16 2 4
17 prevenant 17 0 1
18 prudent 18 -1 0
19 reserve 19 -1 0
20 resistant 20 1 2
21 serieux 21 0 2
22 serviable 22 0 1
23 silencieux 23 -2 -1
24 sociable 24 0 1
25 spirituel 25 1 0
26 tenace 26 2 2
27 timide 27 -2 1
28 travailleur 28 1 3
29 vite demuni 29 -1 -2
30 vulnerable 30 -2 0

➡ Conversion des scores des énoncés en la métrique initiale (ici 9 catégories allant
de — 4 à 4). Ce sont les q-sort de synthèse représentant les facteurs.
Variance = 3.667 St. Dev. = 1.915
Factor Q-Sort Values for Statements sorted by Consensus vs Disagreement
(Variance across normalized Factor Scores)
Factor Arrays
No. Statement No. 1 2
29 vite demuni 29 -1 -2
14 obstine 14 0 0
15 peu imaginatif 15 -1 -1
26 tenace 26 2 2
5 dynamique 5 3 3
12 peu averti 12 -1 -2
19 reserve 19 -1 0
13 nonchalant 13 -4 -4
20 resistant 20 1 2
25 spirituel 25 1 0
18 prudent 18 -1 0
22 serviable 22 0 1
24 sociable 24 0 1
21 serieux 21 0 2
30 vulnerable 30 -2 0
23 silencieux 23 -2 -1
3 calme 3 -3 -2
204 La méthodologie Q et l’étude de la subjectivité

10 instable 10 1 -1
28 travailleur 28 1 3
17 prevenant 17 0 1
2 bien informe 2 2 0
9 imprudent 9 1 -1
16 plein d entrain 16 2 4
27 timide 27 -2 1
6 egoiste 6 0 -2
7 emotionnellement stable 7 -2 1
1 autoritaire 1 3 -1
11 irritable 11 2 -3
8 facile a vivre 8 -3 2
4 de mauvais caractere 4 4 -3

➡ Idem que sortie précédente en classant les énoncés du plus faible au plus fort
désaccord.
Factor Characteristics
Factors
1 2
No. of Defining Variables 3 2

➡ (i.e. : nb q-sorts utilisés pour définir le facteur)


Average Rel. Coef. 0.800 0.800

➡ Fiabilité des q-sorts (corrélation du sujet avec lui-même théoriquement entre t1


et t2 ; i.e. : entre 2 collectes). La valeur de 0.80 est une valeur moyenne utilisée
par défaut pour le calcul de la cohérence interne des facteurs (résultats ci-
dessous).
Composite Reliability 0.923 0.889

➡ Indice de fiabilité pour chaque facteur, il est calculé ainsi


0, 80p
CR f = --------------------------------------------
1 + ( p – 1 ) × 0, 80
avec f : facteur et p = nombre de q-sorts définissant le facteur, plus le nombre de q-
sorts est élevé, plus le facteur sera fiable.
S.E. of Factor Scores 0.277 0.333
Standard Errors for Differences in Normalized Factor Scores
(Diagonal Entries Are S.E. Within Factors)
Factors 1 2
1 0.392 0.434
2 0.434 0.471

➡ Grâce à ce tableau, on peut déduire les énoncés les plus caractéristiques de


chaque facteur et les énoncés les plus distinctifs entre facteurs.
Pour le facteur 1, en prenant un seuil de confiance de p ≤ 0.01, les énoncés caractéris-
tiques auront des scores ≥ à 2.58 × erreur standard du facteur 1, soit 1.01 ; pour un
seuil de p ≤ 0.05, les scores devront être ≥ 1.96 × 0.392, soit 0.768
Pour le facteur 2, mêmes calculs, soit : 1.215 et 0.923.
Annexe 205

On peut alors revenir sur les résultats précédents pour identifier les énoncés les plus
caractéristiques de chaque facteur. Cela contribue à l’interprétation mais les éléments
d’interprétation les plus importants sont à suivre.
Les erreurs standard hors diagonale permettent d’identifier les énoncés distinctifs
entre les 2 facteurs. La différence entre scores devra être au minimum de 2.58 × 0.434
soit 1.119 pour p ≤ 0.01 et de 1.96 × 0.434 soit 0.850 pour p ≤ 0.05
Distinguishing Statements for Factor 1
(P <.05 ; Asterisk (*) Indicates Significance at P <.01)
Both the Factor Q-Sort Value and the Normalized Score are Shown.
Factors
1 2
No. Statement No. RNK SCORE RNK SCORE
4 de mauvais caractere 4 4 1.99* -3 -1.77
1 autoritaire 1 3 1.22* -1 -0.27
11 irritable 11 2 0.98* -3 -1.45
2 bien informe 2 2 0.93 0 0.00
16 plein d entrain 16 2 0.82 4 1.77
9 imprudent 9 1 0.62 -1 -0.32
6 egoiste 6 0 0.18 -2 -0.86
17 prevenant 17 0 -0.27 1 0.59
7 emotionnellement stable 7 -2 -0.73 1 0.32
27 timide 27 -2 -0.93 1 0.04
8 facile a vivre 8 -3 -1.26* 2 1.45

➡ Application des calculs précédents


Consensus Statements -- Those That Do Not Distinguish Between ANY Pair of
Factors.
All Listed Statements are Non-Significant at P>.01, and Those Flagged With an
* are also Non-Significant at P>.05.
Factors
1 2
No. Statement No. RNK SCORE RNK SCORE
2 bien informe 2 2 0.93 0 0.00
3* calme 3 -3 -1.95 -2 -1.18
5* dynamique 5 3 1.76 3 1.49
6 egoiste 6 0 0.18 -2 -0.86
7 emotionnellement stable 7 -2 -0.73 1 0.32
9 imprudent 9 1 0.62 -1 -0.32
10* instable 10 1 0.51 -1 -0.32
12* peu averti 12 -1 -0.64 -2 -0.90
13* nonchalant 13 -4 -2.02 -4 -2.36
14* obstine 14 0 0.13 0 0.00
15* peu imaginatif 15 -1 -0.68 -1 -0.55
16 plein d entrain 16 2 0.82 4 1.77
17 prevenant 17 0 -0.27 1 0.59
18* prudent 18 -1 -0.56 0 0.00
19* reserve 19 -1 -0.51 0 -0.23
20* resistant 20 1 0.45 2 0.90
21* serieux 21 0 0.22 2 0.90
22* serviable 22 0 0.27 1 0.86
23* silencieux 23 -2 -1.02 -1 -0.27
206 La méthodologie Q et l’étude de la subjectivité

24* sociable 24 0 0.15 1 0.78


25* spirituel 25 1 0.42 0 -0.08
26* tenace 26 2 1.04 2 0.90
27 timide 27 -2 -0.93 1 0.04
28* travailleur 28 1 0.71 3 1.54
29* vite demuni 29 -1 -0.70 -2 -0.59
30* vulnerable 30 -2 -1.11 0 -0.40

➡ Liste des énoncés qui ne distinguent pas les 2 facteurs


QANALYZE was completed at 11 :15 :23
Chapitre 8

Méthodes de régression et traitement


des données financières et sociétales:
questionnements et applications
Charles-Henri D’ARCIMOLES 1 et Stéphane TRÉBUCQ 2

Sommaire

1 Ressources humaines et performance


de l’entreprise 208

2 Application au cas de la relation entre


performance financière et performance sociétale 212

3 Application au cas de la relation entre


performance financière et actionnariat salarié 232

4 Conclusion 241

1 Professeur à l’Université Paris 1 Panthéon Sorbonne.


2 Maître de Conférences à l’Université Bordeaux IV.
208 Méthodes de régression et traitement des données financières et sociétales

L’ambition de parvenir à dénouer un jour l’entrelas des réalités économiques et


sociales est ancienne. En sciences de gestion, les premiers travaux théoriques sont
liés à l’adaptation microéconomique des travaux originels sur le capital humain. Pion-
niers également furent les efforts sur la responsabilité sociale, au début des années
soixante-dix, ou encore, à la même période, les propositions formulées en comptabi-
lité des ressources humaines. Le rythme de production s’est accéléré au début des
années quatre vingt, accompagnant les thèses d’une gestion stratégique des ressour-
ces humaines. Les recommandations normatives devaient alors pouvoir s’appuyer sur
des faits et des éléments empiriques. L’enjeu est bien sûr de pouvoir étayer les hypo-
thèses d’une relation entre données sociales et financières et, qui plus est, d’établir
d’éventuels liens de causalité par lesquels la gestion sociale pourrait être un élément
important de la performance économique.
L’objectif des trois parties de ce chapitre est à la fois d’apporter quelques élé-
ments de synthèse, mais aussi des conseils, sur l’état et les prolongements possibles
de ces recherches. Ainsi des points théoriques, mais aussi des aspects statistiques et
économétriques sont-ils successivement abordés. Conformément à l’esprit général de
l’ouvrage, ces développements laissent aussi une large place à des applications con-
crètes, issues de travaux de recherche en cours de réalisation ou récemment achevés.

1. Ressources humaines et performance


de l’entreprise

La recherche des effets économiques de la gestion des ressources humaines


(GRH), et plus largement de la nature des relations entre la performance sociale et la
performance de l’entreprise bénéficie, depuis peu, d’un net regain d’intérêt. Les tra-
vaux développés sur la création de valeur, les fonds éthiques et la performance socié-
tale viennent ainsi enrichir ce courant longtemps consacré à la recherche des
meilleures pratiques. Malgré les progrès réalisés les connaissances sont encore fragi-
les, laissant ainsi une large place aux questionnements et autres controverses. L’objet
de cette première partie est de rendre compte des difficultés posées par les efforts de
validation empirique pour ce type de problématiques et de travaux de recherche.
Aussi attractive qu’elle soit, l’hypothèse selon laquelle la GRH pourrait contri-
buer à la performance économique n’est pas facile à vérifier. Les chercheurs doivent
affronter au moins trois problèmes méthodologiques : celui du protocole de recherche
et de l’échantillonnage, celui de la cohérence entre les variables dépendantes et
explicatives, celui de la définition et de la mesure des variables.

1.1 PROTOCOLE ET ÉCHANTILLONNAGE


La méthodologie la plus probante pour identifier les effets d’une pratique de
GRH, isolée ou combinée, serait de pouvoir extraire un site ou un groupe d’entreprises
auquel elle serait appliquée. Les performances de ce site pourraient ensuite être con-
frontées à celles d’un groupe de contrôle. Un tel protocole est irréalisable, du moins
en entreprise. À cette première difficulté s’ajoute celle du choix entre une recherche
sur grand échantillon ou une étude de cas, avec les limites respectives communément
Ressources humaines et performance de l’entreprise 209

admises. Il faut enfin opter, et c’est essentiel pour ce type de recherches, entre des
données en coupes transversales ou longitudinales. Ces dernières ont l’avantage de
clarifier la nature des processus étudiés et de permettre de progresser sur la question
de la causalité. Elles soulèvent toutefois deux problèmes spécifiques :
■ Elles élèvent tout d’abord le risque d’erreur de mesure, puisque les pratiques et
la performance sont appréciées sur une période de plusieurs années.
■ Elles se heurtent ensuite à la double question du temps de latence, entre la
mise en œuvre des pratiques et l’obtention éventuelle des résultats, mais aussi
entre la décision d’engager les pratiques et leur réalité effective. Ainsi l’entre-
prise peut être en pleine phase de crise lors de la période d’observation, et les
choses peuvent alors empirer avant de s’améliorer. Le calage entre les données
longitudinales et la dynamique des processus est un point essentiel, restant
très difficile à vérifier. Cette difficulté est plus nette encore si l’on considère
les possibles différences d’horizon entre l’entreprise et ses salariés. Ainsi, les
salariés n’ont-ils pas toujours envie de s’inscrire dans des contrats de long
terme, préférant obtenir tout de suite la rémunération (monétaire ou pas) qui
leur semble justifiée. De même peut-on facilement concevoir de fortes disso-
nances entre l’urgence de certains objectifs économiques et le délai d’obten-
tion des comportements individuels et collectifs visés par les pratiques RH.
Un dernier choix, source de multiples biais, demeure celui de l’échantillon. De
nombreux travaux consacrés aux liens GRH-performance sont fondés sur des données
collectées par enquête et souffrent d’un biais d’autosélection, les entreprises en difficul-
tés économiques ou sociales étant peu susceptibles de participer. Ce biais attribuable à
la performance est souvent plus net encore dans les études longitudinales, du fait du
taux de mortalité ou de disparition des entreprises, inévitable au sein d’un échantillon,
causé notamment par le départ ou encore les faillites et rachats de certaines entreprises.

1.2 HOMOGÉNÉITÉ DES DONNÉES


L’échantillon et ses unités posent des problèmes de cohérence et d’homogénéité.
■ L’homogénéité de l’échantillon se heurte d’abord à la question du secteur, mais
aussi de la taille, de la stratégie économique, de la qualité du management ou
de la structure du capital. Des erreurs de spécification peuvent être commises si
les modèles ne tiennent pas compte de variables susceptibles de covarier avec
la performance, ou de modifier la nature des pratiques de GRH. Ainsi peut-on
concevoir que les dirigeants d’entreprises bien gérées ou performantes sont
aussi les plus motivés et les plus capables en matière de gestion sociale. A con-
trario, les dirigeants d’entreprises en difficultés peuvent choisir d’engager une
politique sociale renouvelée pour accompagner leur redressement. Dans les
deux cas, l’extraction des effets propres de la GRH s’avère difficile. En pratique,
si l’influence de ces variables non contrôlées est relativement stable dans le
temps, elle peut être partiellement maîtrisée par l’étude des « effets fixes »
dans les études longitudinales. Dans le cas contraire, et faute de pouvoir cons-
tituer un échantillon homogène, la solution ne peut être que théorique et passe
par une meilleure identification des variables exogènes, et de leurs effets, pour
pouvoir ensuite les opérationaliser et les intégrer aux modèles testés.
210 Méthodes de régression et traitement des données financières et sociétales

■ Au sein même de chaque unité observée de l’échantillon, il faut veiller à la


cohérence des niveaux d’observation, afin de ne pas rapprocher des variables
économiques et sociales dissonnantes. On peut distinguer au moins trois
niveaux d’observation : l’entreprise (ou le groupe), la branche ou l’unité stra-
tégique (Business Unit), et le site de production ou établissement. Aussi faut-
il toujours s’assurer que la mesure de performance choisie est bien adaptée au
niveau observé. C’est par exemple le cas du cours boursier ou du Q de Tobin
pour le groupe ou l’entreprise, de la croissance ou de la profitabilité pour une
branche ou une unité stratégique, de la productivité ou de la qualité pour un
établissement. Mais, pour un niveau d’observation donné, les objectifs écono-
miques peuvent varier selon les individus de l’échantillon, certaines entrepri-
ses pouvant par exemple momentanément privilégier la croissance, et d’autres,
la rentabilité. La recherche des effets de la GRH, et le choix consécutif des
variables de performance, doivent tenir compte de ces buts poursuivis. Il se
peut en effet qu’une pratique, ou une combinaison de pratiques, soit favorable
à la rentabilité, mais pas à la croissance, et inversement. Pour éviter alors que,
par compensation, les pratiques testées apparaissent globalement sans effet,
on peut utiliser des mesures de performance multidimensionnelle ou recourir à
la performance perçue. Dans ce dernier cas, et au risque d’une plus grande sub-
jectivité, on peut s’assurer que l’efficacité des pratiques est bien appréciée à
l’aune des objectifs qui leur ont été fixés.

La mesure de performance étant choisie, il faut veiller à la cohérence entre les


données recueillies et la relation testée. Ainsi, par exemple, la performance nette de
l’entreprise, comptable ou boursière, est-elle souvent inadaptée lorsque les pratiques
observées ne sont que locales ou ne s’appliquent pas de façon uniforme et systémati-
que à l’ensemble du personnel. L’exemple simple d’Ichniowski et al. (1995) illustre ce
point. Supposant qu’un programme de formation puisse améliorer la productivité de
10 %, et dans l’hypothèse où il ne serait appliqué qu’à 20 % du personnel, avec par
ailleurs des erreurs de mesure qui pourraient absorber la moitié des résultats réels, le
gain de productivité observé ne serait que de 1 % 3.

1.3 DÉFINITION ET MESURE DES VARIABLES

En GRH, de nombreux concepts sont partiellement empreints de subjectivité. Il


est difficile par exemple de s’entendre, sans réserve, sur ce qu’est une gestion partici-
pative, ou une évaluation des compétences. La réalité elle-même fait l’objet de per-
ceptions parfois très opposées. Ainsi, la mise en œuvre concrète d’une pratique peut-
elle être très différemment évaluée selon les acteurs concernés, à savoir les diri-
geants, les salariés, ou les syndicats. Face à cette précison insuffisante, il n’est pas
étonnant que les pratiques testées puissent faire l’objet de définitions et de cons-
truits très différents, selon les études et leurs auteurs (Becker et Gerhart, 1996).

3 1 % = 10 % × 20 % × 50 % … Cet exemple simpliste montre bien l’évaporation rapide des résul-


tats finalement observables par les chercheurs. Notons par ailleurs que le calcul repose ici sur une
relation proportionnelle entre la contribution et le pourcentage des effectifs concernés ce qui, dans
la réalité, est évidemment plus complexe.
Ressources humaines et performance de l’entreprise 211

Le mode courant de collecte de données sociales aggrave encore ces problèmes


de perception. Il est fréquent en effet que le chercheur doive se contenter d’un entre-
tien ou d’un questionnaire unique par individu (salarié ou entreprise) testé. Il est
alors soumis aux distorsions de son interlocuteur qui peut, sciemment ou pas, exagé-
rer tel succès ou tel échec, ou ignorer le décalage entre les pratiques prévues et réali-
sées. Le chercheur risque alors d’évaluer la contribution d’une pratique, sur la base de
leur mise en œuvre seulement partielle. C’est la raison pour laquelle certains cher-
cheurs s’engagent dans des collectes certes plus coûteuses, en complétant les ques-
tionnaires par des entretiens supplémentaires, des visites sur site, ou des analyses de
documents.
Face au possible flou des pratiques sociales, le concept de performance peut
sembler plus établi, surtout dans son acception financière. Il serait toutefois réduc-
teur de limiter l’évaluation de la performance au seul cours boursier, ou aux ratios de
rentabilité. Importants et légitimes, ils ne sont qu’une synthèse, constatée ou antici-
pée, et ne permettent donc pas d’identifier pleinement le possible rôle intermédiaire
de la GRH. Les effets positifs d’une pratique peuvent être en effet plus que compensés
par les effets négatifs de décisions stratégiques ou commerciales, ou encore par une
qualité de produit insuffisante. L’inverse est également possible.
L’introduction d’une performance intermédiaire, dont on pourrait démontrer
qu’elle détermine la performance finale, constitue alors une piste intéressante. En
intermédiant ainsi la relation cherchée, on rapproche par ailleurs les pratiques RH des
zones de performance qui leur sont les plus proches comme par exemple la qualité, la
satisfaction client, l’innovation ou la réactivité. Ce ne sont là que des exemples très
généraux, la performance intermédiaire finalement choisie devant être la plus adaptée
possible au métier et au contexte de l’entreprise ou de l’unité observée.
Une autre voie possible, et encore peu utilisée, est celle des études d’événe-
ments, issues de la recherche financière. Fondées sur l’hypothèse d’efficience des mar-
chés, elle permettent d’estimer, sur la base des rendements dits anormaux 4, la part de
valeur créée ou perdue, suite à la communication d’informations nouvelles. Cette
méthodologie très éprouvée en finance n’est pas aisément utilisable pour la recherche
des liens entre GRH et performance. Les décisions sociales s’inscrivent en effet le plus
souvent dans des politiques graduelles et progressivement déclinées. Il est difficile
alors d’isoler la part d’événement des informations sociales testées. Ainsi par exem-
ple, une annonce de réduction des effectifs peut-elle s’inscrire dans un climat
d’inquiétude, ou au contraire surprendre, ou encore rassurer. Selon le contexte, les
réactions du marché boursier, et les éventuels rendements anormaux observés, seront
évidemment très différents.
Dans le cadre des deux parties suivantes, nous exposerons une série de recher-
ches empiriques consacrées aux relations pouvant exister entre certaines variables
financières et sociales. Deux champs d’application ont été retenus. Le premier est
centré sur les relations possibles entre la performance financière et la performance
sociétale (2). Le second est dédié à l’étude de l’influence de l’actionnariat salarié en
matière de performance et de risque (3). Ces deux domaines nous permettront d’expo-

4 Un rendement est dit « anormal » lorsqu’il est statistiquement différent de ce qu’il devrait être,
selon un modèle théorique d’évaluation de type Medaf.
212 Méthodes de régression et traitement des données financières et sociétales

ser une série de problématiques liées à la mise en œuvre des méthodes de régressions
et à l’interprétation des résultats obtenus.

2. Application au cas de la relation entre performance


financière et performance sociétale

Depuis 1999, de nouvelles agences de rating sociétales, spécifiquement cen-


trées sur les aspects sociaux et environnementaux, ont vu le jour en France. Ces orga-
nismes cherchent à apprécier la qualité du management des parties prenantes,
pratiqué plus particulièrement par les entreprises cotées, appartenant aux indices
boursiers tels que le CAC40 ou le SBF120. À titre d’illustration, la méthodologie rete-
nue par l’agence ARESE, devenue depuis 2002 Vigéo, conduit à évaluer un construit
multidimensionnel appelé « performance sociétale » 5. Celui-ci peut être appréhendé
à partir d’une série de notations attribuées dans les domaines de gestion suivants :
ressources humaines (critère RH), protection de l’environnement (critère ENV), rela-
tions avec les clients et fournisseurs (critère QUAL), gouvernance, qualité de l’infor-
mation financière, et respect du droit des actionnaires (critère ACT), mécénat et
actions en faveur de la société civile (critère SC).

Toutefois, si un tel phénomène peut paraître relativement récent en France, de


telles agences existent depuis la fin des années 1980 aux États-Unis, et ont permis un
réel essor des recherches académiques dans ce domaine. L’agence américaine de nota-
tion KLD (Kinder Lydenberg Domini), utilisant une méthodologie relativement proche de
celle retenue, en France, par l’agence ARESE, fait désormais référence en la matière 6.
Elle a mis également à la disposition des chercheurs en gestion une base de données,
intitulée SOCRATES, et couvrant près de 650 entreprises cotées. De ce fait, nous com-
mencerons par exposer les choix méthodologiques des recherches antérieures, prati-

5 Cette performance a fait l’objet de nombreuses propositions, notamment stimulées par les tra-
vaux de Caroll (1979). On y retrouve les deux acceptions possibles de la performance, qui est à la
fois action et résultat. Perçue comme action, la performance sociétale peut être définie comme l’arti-
culation et l’interaction de responsabilités sociales, de problèmes qui leur sont liés et de philoso-
phies qui en traitent (Caroll, 1979), ou encore comme une configuration organisationnelle de
principes, de processus, de politiques et de résultats observables liés aux relations sociales de
l’entreprise (Wood, 1991, cité par Gond, 2003). Compte tenu de l’opérationnalisation difficle de ces
approches, certains auteurs estiment que les résultats des politiques sont finalement le seul objet
mesurable (Wood, 1991), Cette perspective est d’autant plus séduisante qu’elle peut s’appuyer sur la
théorie des parties prenantes, et développer ainsi une conception segmentée de la performance, sta-
keholder par stakeholder. Ainsi déplacée de l’action vers le résultat, la performance sociale n’en
demeure pas moins un construit, du fait de l’agrégation nécessaire des résultats obtenus sur chaque
stakeholder. La nature combinatoire des résultats unidimensionnels, additive ou multiplicative, est
encore à découvrir.
6 Ces mesures disposent d’une validité « faciale » reconnue, appelée encore validité de contenu,
leur usage étant couramment accepté et faisant l’objet d’un large consensus au sein de la commu-
nauté scientifique concernée (« We believe that KLD data, in spite of their limited coverage of only
650 large companies, will continue to be used by researchers in the field for many years to come »,
Harrison et Freeman, 1999, p. 481).
Application au cas de la relation entre performances financière et sociétale 213

quées essentiellement aux États-Unis à partir de cette source de données secondaires,


avant d’envisager les solutions retenues pour traiter le cas des entreprises françaises.

2.1 RÉGRESSIONS EFFECTUÉES SUR LES ENTREPRISES AMÉRICAINES


Notre choix s’est porté sur deux recherches scientifiques, publiées successive-
ment en 1997 et 2000 dans le Strategic Management Journal, le second article remet-
tant en question la portée et l’interprétation des résultats du premier. Il s’agit là
d’une illustration particulièrement intéressante et frappante des risques liés à la mau-
vaise définition d’un modèle empirique, suite à l’omission d’une ou plusieurs variables
explicatives majeures. Ainsi, McWilliams et Siegel (2000) ont-ils été conduits à
sévèrement remettre en question les conclusions auxquelles semblaient aboutir Wad-
dock et Graves (1997), ces derniers penchant en faveur de l’existence d’un cercle ver-
tueux entre la performance financière et la performance sociétale. McWilliams et
Siegel ont réussi à apporter la preuve empirique selon laquelle l’ajout au modèle
testé, d’une variable explicative, telle que les frais engagés en matière de recherche
et développement, modifiait la nature de la relation observée entre la performance
sociétale et la performance financière, celle-ci passant de positive à neutre.

2.1.1 Mise en œuvre des modèles (Waddock et Graves 1997)


Nous reprenons ci-après, très fidèlement, les choix de présentation opérés par
les auteurs Waddock et Graves (1997) afin d’exposer les statistiques descriptives et
multivariées qu’ils ont effectuées au cours de leur recherche. Après une revue de la
littérature concernant à la fois le sens et le signe des relations (neutres, négatives ou
positives) pouvant exister entre la performance financière et la performance sociétale,
deux hypothèses sont finalement formulées. La première (H1) retient l’idée du « slack
organisationnel », selon laquelle, toutes choses égales par ailleurs, l’obtention d’une
meilleure performance financière se traduit par une redistribution de richesses en
faveur de l’accroissement de la performance sociétale. La seconde hypothèse (H2)
suppose, à l’inverse, que toutes choses égales par ailleurs, une performance sociétale
améliorée, résultant d’un bon management des parties prenantes, conduit à une
meilleure performance financière.
La méthodologie mise en œuvre est ensuite développée, en justifiant la sélec-
tion des différentes variables. Les caractéristiques de l’échantillon et des variables
observées sont synthétisées à l’aide de trois tableaux. Le tableau 8.1 présente la com-
position sectorielle des entreprises observées (Code SIC), avec une série de statistiques
descriptives correspondant aux effectifs observés (N), ainsi que la moyenne sectorielle
des performances sociétales (variable CSP), avec son minimum et maximum 7.

7 Dans un logiciel statistique tel que SPSS, cette analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Tabuler > Tableaux statistiques de base ; puis dans la fenêtre obtenue et
intitulée « Tableaux statistiques de base », on sélectionne la ou les variable(s) à étudier en
« Principales caractéristiques », et la variable de segmentation de l’échantillon (ici « secteur ») en
« Sous-groupes : Verticalement ». Avant de cliquer sur le bouton « OK », le choix des indicateurs
souhaités (Effectif, Moyenne, Minimum, Maximum) doit être effectué en cliquant sur le bouton
« Statistiques ».
214 Méthodes de régression et traitement des données financières et sociétales

Secteur Code N CSP Min. Max.

Mines, construction 100–1999 17 –0.22 –0.93 0.14

Alimentaire, textile, habillement 2000–2390 29 0.05 –0.57 0.90

Produits forestiers, papier, édition 2391–2780 35 –0.03 –0.77 0.78

Chimie, pharmacie 2781–2890 39 –0.15 –1.77 0.75

Raffinage, caoutchouc, plastique 2891–3199 24 –0.52 –0.68 0.51

Conteneurs, acier, industrie lourde 3200–3569 51 –0.14 –0.77 0.46

Ordinateurs, automobile, aéronautique 3570–3990 80 –0.11 –1.13 0.92

Transport 3991–4731 15 –0.09 –0.62 0.75

Téléphone, services aux collectivités 4732–4991 56 –0.00 –0.80 0.90

Distribution, ventes en gros et au détail 4992–5990 47 0.11 –0.32 0.75

Banque, services financiers 6150–6700 51 0.13 –1.08 0.75

Hôtellerie, loisirs 6800–8051 18 0.04 –0.47 1.06

Gestion hospitalière 8052–8744 7 –0.04 –0.30 0.31

Source : Waddock et Graves (1997, p. 309).

TABLEAU 8.1 – Répartition sectorielle de l’échantillon

La prise en considération d’un tel tableau s’avère indispensable, avant de pour-


suivre les traitements statistiques. En effet, il permet d’évaluer d’éventuels biais dans
la composition de l’échantillon, certains secteurs pouvant être sous ou sur-représen-
tés. De même, les autres statistiques concernant la performance sociétale permettent,
non seulement, d’envisager les écarts pouvant exister entre les différents secteurs et
au sein de chacun d’entre eux, mais aussi, d’opérer une éventuelle comparaison avec
d’autres recherches empiriques menées sur un sujet identique. Les moyennes sectoriel-
les sont comprises entre — 0,52 et 0,13, compte tenu du fait que les ratings portant
sur la qualité des relations entretenues avec les différentes parties prenantes sont
ordonnés selon une échelle allant de — 2 (faiblesse majeure) à + 2 (force majeure).
À partir d’une logique identique, le tableau 8.2, résume, sur un plan descriptif,
la distribution des principales variables étudiées et utilisées lors des régressions mul-
tiples. Là encore, ces informations permettent de mieux appréhender les caractéristi-
ques de l’échantillon observé 8.

8 Dans un logiciel statistique tel que SPSS, cette analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Statistiques descriptives > Caractéristiques ; puis dans la fenêtre obtenue
et intitulée « Caractéristiques », on sélectionne en « Variables » la ou les variable(s) à étudier. Avant
de cliquer sur le bouton « OK » lançant l’analyse, les statistiques souhaitées (Moyenne, Dispersion,
Distribution) doivent être sélectionnées en cliquant sur le bouton « Options ».
Application au cas de la relation entre performances financière et sociétale 215

Variable (1999) N Moyenne Écart type

Performance sociétale CSP 469 –0.034 0.356

Rentabilité sur actifs ROA 486 0.055 0.058

Rentabilité financière ROE 486 0.139 0.283

Rentabilité sur ventes ROS 486 0.059 0.073

Dette / Fonds propres D/A 486 0.203 0.174

Chiffre d’affaires Sales 486 6 416.37 M$ 11 133.74M$

Total actif Assets 486 11 444.75 M$ 23 598.73 M$

Nombre d’employés No. empl. 467 39.646 mil. 64.358 mil.

Source : Waddock et Graves (1997, p. 309).

TABLEAU 8.2 – Statistiques descriptives

La tableau 8.3 est, quant à lui, lié à la difficulté d’obtenir et de justifier le cal-
cul d’un indicateur unique, synthétisant les ratings relatifs à la gestion des parties
prenantes. Sur un plan opérationnel, le calcul de la moyenne arithmétique des huit
ratings de l’agence KLD pourrait résoudre la question (cette solution a d’ailleurs été
retenue par certains auteurs comme Hillman et Keim, 2001). Cependant, afin d’éviter
une telle équipondération, pouvant s’éloigner des préférences exprimées par les
experts, Waddock et Graves (1997) ont réalisé une enquête, menée auprès de trois
spécialistes dotés d’une longue expérience dans le domaine de l’investissement socia-
lement responsable. Conformément à la technique proposée par Von Winterfeldt et
Edwards (1986), ils aboutissent à une série de pondérations, dont la somme est bien
égale à 1. On notera que les relations avec les salariés, affectées d’un coefficient de
pondération de 0.168, figurent parmi les dimensions de la performance sociétale con-
sidérées comme primordiales.
Cette première approche, strictement descriptive, étant réalisée, Waddock et
Graves (1997) présentent les résultats de l’analyse des corrélations entre la variable
expliquée et les variables explicatives, ou de contrôle. L’indépendance statistique
entre ces dernières variables, indispensable pour la mise œuvre d’un modèle de
régression multiple, doit être testée impérativement. En effet, un niveau élevé de
multicolinéarité pourrait rendre instables, voire incohérentes, les estimations empiri-
ques des paramètres du modèle. Waddock et Graves (1997) retiennent, en l’occur-
rence, deux catégories de modèles empiriques, correspondant respectivement aux
deux hypothèses formulées précédemment.
Le premier type de modèle retient en variable expliquée ou dépendante, la
variable de performance sociétale (CSP) pour l’année 1990. Les variables supposées
explicatives correspondent à la performance financière (PF), mesurée sur un plan
comptable pour l’année 1989 soit par la rentabilité sur actifs (ROA), soit par la renta-
216 Méthodes de régression et traitement des données financières et sociétales

Pondération Attributs

0.168 Relations avec les salariés


0.154 Relations avec les consommateurs
0.148 Relations avec la communauté
0.142 Protection et prise en compte de l’environnement
0.136 Relations avec les minorités
0.089 Activités liées au nucléaire
0.086 Activités militaires
0.076 Commerce avec l’Afrique du Sud

Source : Waddock et Graves (1997, p. 310).

TABLEAU 8.3 – Pondération des différents attributs de la performance sociétale


par un panel d’experts

bilité financière (ROE), soit encore, par la rentabilité sur ventes (ROS). Les autres
variables, dites de contrôle, viennent compléter le modèle afin de tenir compte des
influences possibles du niveau de risque, mesuré par l’endettement (D/C), et de la
taille (Sales, Assets, No. empl.) pour l’année 1989.
Le premier modèle prend, par conséquent, la forme suivante :
CSP1990 = f (PF1989, D/C1989, Taille1989, Secteur) (1)
sachant que :
PF1989 peut être alternativement apprécié à partir des variables ROA, ROE ou ROS, de
même que la Taille1989 peut être estimée à partir les variables Sales (total des ventes),
Assets (total actif) ou encore No. Empl. (nombre d’employés).
Le tableau 8.4 permet de présenter les corrélations observées pour la première
catégorie des modèles testés. Les coefficients de corrélations entre variables indépen-
dantes, estimant respectivement la performance financière, l’endettement, et la taille,
ne laissent pas apparaître un niveau élevé de multicolinéarité, ces derniers étant net-
tement inférieurs en valeur absolue au seuil de 0,7. S’agissant des corrélations obser-
vées au sein des variables de performance financière ou de taille, ce seuil est en
revanche dépassé. Ces niveaux élevés de corrélations, de surcroît statistiquement
significatifs 9, paraissent satisfaisants. En termes de validité convergente, on en
déduira, au sujet des différentes mesures retenues, leur aptitude à apprécier convena-
blement les phénomènes de performance financière ou de taille.

9 Dans le cas de mesures continues, on utilise généralement les corrélations de Pearson. Si l’ana-
lyse inclut des variables ordinales, on peut alors recourir aux corrélations de Spearman. Toutefois, il
est important de rappeler que ces mesures d’association ne correspondent qu’à des relations linéai-
res. Dans un logiciel tel que SPSS, la procédure à suivre, afin d’obtenir un tableau de corrélations
croisées, est la suivante : Menu Analyse > Corrélations > Bivariées. Avant de lancer l’analyse avec le
bouton « OK », l’utilisateur pourra cocher la case « Repérer les corrélations significatives » et choisir
avec le bouton « Options » certaines statistiques descriptives des variables étudiées.
Application au cas de la relation entre performances financière et sociétale 217

CSP ROA ROE CFS D/C Sales Assets No. empl

CSP 1.00 0.13 ** 0.09 * 0.08 + –0.08+ –0.02 0.08+ 0.02

ROA 1.00 0.47 *** 0.71 *** –0.22*** –0.08+ –0.23*** –0.05

ROE 1.00 0.41 *** –0.09* 0.02 –0.05 0.03

CFS 1.00 –0.14** –0.06 –0.08+ –0.06

D/C 1.00 –0.01 –0.09* 0.04

Sales 1.00 0.70*** 0.81***

Assets 1.00 0.51***


+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.00

Source : Waddock et Graves (1997, p. 311).

TABLEAU 8.4 – Matrice des corrélations-données financières 1989


et performance sociétale 1990

Le tableau 8.5 permet de récapituler, selon une présentation similaire, l’ana-


lyse de corrélations correspondant à la deuxième catégorie de modèles établis comme
suit, et permettant de tester l’hypothèse 2.
PF1991 = f (CSP1990, D/C1990, Taille1990, Secteur) (2)
avec PF1991 mesurée pour l’année 1991 à partir des variables ROA, ROE ou ROS, et de
même Taille1990 estimée pour l’année 1990 à partir les variables Sales, Assets ou No.
Empl.
Compte tenu de l’objet de la recherche menée par Waddock et Graves (1997),
centrée sur les relations entre la performance sociétale et la performance financière,
les auteurs peuvent noter, à partir des tableaux 8.4 et 8.5, les corrélations positives
et significatives existant entre ces deux dimensions. Ces relations sont à nouveau
confirmées à partir des tableaux 8.6 et 8.7 exposant respectivement les différentes
régressions correspondant aux modèles de type 1 et 2. Le nombre de variables de per-
formance financière s’élevant à trois, tout comme celui des variables de taille, on
dénombre finalement neuf variantes empiriques pour chacun des modèles.
Conformément aux corrélations observées dans les tableaux 8.4 et 8.5, et ce
en dépit de « R2 ajustés » relativement bas, mais disposant néanmoins d’une statisti-
que F de Fisher-Snedecor significative au seuil de 0,1 %, l’analyse multivariée 10
menée à partir des modèles 1 et 2 tend à confirmer les hypothèses 1 et 2.

10 Il importe d’entreprendre une analyse multivariée à partir du moment où plusieurs variables


indépendantes peuvent influencer conjointement une même variable métrique dépendante. La tech-
nique de la régression multiple permet alors d’identifier les variables métriques exerçant réellement
cette influence, sous réserve d’une séries d’hypothèses statistiques concernant notamment la linéa-
rité des relations. Lorsque des risques de multicolinéarité se font jour, ou encore, lorsque le nombre
de variables explicatives devient trop important, on peut alors recourir aux techniques de régression
ascendante ou descendante conduisant à sélectionner les variables indépendantes liées de façon
significative à la variable dépendante.
218 Méthodes de régression et traitement des données financières et sociétales

CSP ROA ROE CFS D/C Sales Assets No. empl

CSP 1.00 0.18*** 0.09* 0.17*** –0.12** –0.01 –0.08+ 0.02

ROA 1.00 0.45*** 0.82*** –0.24*** –0.06 –0.15** –0.05

ROE 1.00 0.45*** –0.15** 0.02 0.01 0.01

CFS 1.00 –0.21*** –0.06 –0.01 –0.07

D/C 1.00 –0.00 –0.09+ 0.05

Sales 1.00 0.70*** 0.78***

Assets 1.00 0.53 ***


+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.00

Source : Waddock et Graves (1997, p. 311).

TABLEAU 8.5 – Corrélations entre indicateurs de profitabilité 1991,


de performance sociétale 1990, et de variables financières de contrôle 1989

Les résultats du tableau 8.6 confortent ainsi la supposition d’une influence


positive de la performance financière sur la performance sociétale. Comme on peut le
voir, les coefficients non standardisés des régressions 1 à 3, ainsi que 7 à 9 sont tous
positifs et significatifs, avec un risque d’erreur statistique au seuil de 0,1 %. Pour les
régressions 4 à 6, les coefficients sont également positifs et significatifs, au seuil de
10 %.
Quant aux résultats du tableau 8.7, ils permettent d’envisager l’existence
d’une relation inverse, à savoir l’influence de la performance sociétale sur la perfor-
mance financière. Dans ces conditions, les résultats obtenus ne permettent pas
d’exclure l’existence d’un cercle vertueux entre la performance financière et la perfor-
mance sociétale, celles-ci pouvant s’influencer mutuellement selon un schéma d’inte-
raction positive et simultanée.
Ces résultats ne sont pas sans incidences sur les possibles recommandations
managériales. Ils suggèrent qu’un management prenant en considération l’ensemble
des parties prenantes de l’entreprise (à savoir les salariés, les consommateurs, la com-
munauté locale, l’environnement, les minorités, et d’autres dimensions éthiques),
allant ainsi bien au-delà des simples contraintes légales 11, non seulement ne nuit pas
au niveau de la performance financière, mais peut même l’accroître significativement.
Conjointement, les auteurs n’écartent pas l’idée selon laquelle une mauvaise perfor-
mance financière pourrait résulter d’une mauvaise gestion environnementale, de
l’existence de mauvaises relations au travail, ou du développement de produits con-
troversés, défectueux ou encore pouvant atteindre un prix prohibitif. Si de tels résul-
tats étaient confirmés, la gestion des parties prenantes pourrait alors devenir une

11 Sur la diversité de l’engagement partenarial et les différents niveaux de responsabilité sociétale


qui lui sont liés, voir la synthèse de Gond (2001).
Application au cas de la relation entre performances financière et sociétale 219

préoccupation pleinement et légitimement intégrée aux processus de décisions stra-


tégiques.
La lecture du tableau 8.6 permet d’obtenir un résumé des informations essen-
tielles obtenues à partir des différentes régressions multiples réalisées. Celles-ci peu-
vent être rangées en deux catégories : tout d’abord les statistiques concernant la
qualité globale de la régression 12, ensuite les différents coefficients de l’équation de
régression affectés aux différentes variables, avec leur degré associé de signification
statistique. Ce dernier est établi à partir de tests marginaux pour chaque variable
concernée, tenant compte des valeurs de t de Student. Celles-ci permettent de rejeter
l’hypothèse nulle selon laquelle le coefficient associé à la variable est égal à zéro.
Plus la probabilité p est basse, plus le risque d’erreur est faible, et la variable concer-
née peut être considérée comme significativement liée à la variable dépendante, en
l’occurrence la performance sociétale.

2.1.2 Limites des résultats de Waddock et Graves (1997) et critiques


de McWilliams et Siegel (2000)
Cependant, comme nous l’avons annoncé, l’approche retenue par Waddock et
Graves (1997) a été remise en cause par McWilliams et Siegel (2000). Ces derniers ont
rappelé, à juste titre, la littérature abondante consacrée à l’étude de la performance
financière, et au nombre de ses déterminants, l’usage fréquent des frais de recherche
et développement. Or, assez logiquement, on peut en effet imaginer qu’une partie des
frais de R&D soit consacrée à l’amélioration des produits. De plus, une source impor-
tante de différenciation des produits réside également dans la capacité à investir
dans le but d’offrir des produits élaborés selon des méthodes socialement responsa-
bles, tout en s’appuyant, par exemple, sur un management respectueux des employés.
McWilliams et Siegel (2000) proposent ainsi de tester un modèle de type 2, en
incluant à la liste des variables explicatives l’intensité des frais de recherche et déve-
loppement, ainsi que l’importance des dépenses publicitaires engagées au sein du
secteur. Ce dernier indicateur permet en effet d’appréhender les stratégies de diffé-
renciation des produits au sein du secteur, ainsi que les « barrières à l’entrée » qui en
résultent et qui influent sur le niveau de profitabilité.
Reformulé comme suit, le modèle empirique intègre en variables indépendan-
tes l’intensité de R&D (RDINT) ainsi que l’intensité sectorielle des dépenses publici-
taires (INDADINT).
Soit PF = f (CSP, Risque, Taille, RDINT, INDADINT, Secteur) (2 ‘)
sachant que :
CSP est apprécié non plus en fonction de la méthode retenue par Waddock et Graves
(1997), mais de façon binaire en fonction de la sélection (codée 1) ou non (codée 0)

12 Le R2 représente le pourcentage de variance de la variable à expliquer restitué par le modèle, et


la statistique F tient compte de la taille de l’échantillon et du nombre de variables explicatives. Le R2
ajusté représente également le pourcentage de variance de la variable à expliquer restitué par le
modèle, mais ajusté à partir du nombre d’observations (n) et du nombre de variables explicatives (k),
tel que R2 ajusté = 1 – [(n–1)/(n–k–1)] × (1-R2).
220 Méthodes de régression et traitement des données financières et sociétales

Variable dépendante : Performance sociétale Régression 1 2 3

Variable indépendante : Rentabilité sur actifs 1.189 *** 1.206 *** 1.225 ***
Variables de contrôle
Dette / Fonds propres –0.079 –0.079 –0.079
Chiffre d’affaires –0.772E–6
Total actif –0.903E–7
Nombre d’employés –0.962E–4
R2 0.11 0.11 0.11
R2 ajusté 0.08 0.07 0.08
F 3.443 *** 3.426 *** 3.435 ***
4 5 6

Variable indépendante : Rentabilité financière 0.110 + 0.108 + 0.109 +

Variables de contrôle
Dette / Fonds propres –0.173 + –0.176 + –0.175 +
Chiffre d’affaires –0.136E–5
Total actif –0.453E–6
Nombre d’employés –0.721E–5
R2 0.09 0.09 0.09
R2 ajusté 0.06 0.06 0.06
F 2.884*** 2.844*** 2.822 ***
7 8 9

Variable indépendante : Rentabilité sur ventes 0.597 *** 0.602 *** 0.614 ***

Variables de contrôle
Dette / Fonds propres –0.152 –0.154 –0.154
Chiffre d’affaires –0.113E–5
Total actif –0.355E–6
Nombre d’employés 0.292E–4
R2 0.09 0.09 0.09
R2 ajusté 0.06 0.06 0.06
F 2.940 *** 2.911 *** 2.899 ***
+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.001

(Les coefficients reproduits dans le tableau sont non standardisés)


Source : Waddock et Graves (1997, p. 312).

TABLEAU 8.6 – Régression de la performance sociétale (CSP) de 1990


à partir de variables financières de 1989
Application au cas de la relation entre performances financière et sociétale 221

Variable dépendante : Rentabilité sur actifs Régression 1 2 3

Variable indépendante : Performance sociétale 0.024 ** 0.024 ** 0.024 **


Variables de contrôle
Dette / Fonds propres –0.120*** –0.121*** –0.117***
Chiffre d’affaires –0.502E–6*
Total actif –0.298E–6*
Nombre d’employés –0.953E–4*
R2 0.29 0.29 0.29
R2 ajusté 0.27 0.27 0.27
F 11.558 *** 11.593 *** 11.549 ***
Variable dépendante : Rentabilité financière 4 5 6

Variable indépendante : Performance sociétale 0.081 0.081 0.081

Variables de contrôle
Dette / Fonds propres –0.471 *** –0.471 ** –0.472 **
Chiffre d’affaires 0.136E–6
Total actif –0.194E–7
Nombre d’employés 0.500E–4
R2 0.07 0.07 0.07
R2 ajusté 0.04 0.04 0.04
F 2.200 *** 2.199 *** 2.201 ***
Variable dépendante : Rentabilité sur ventes 7 8 9

Variable indépendante : Performance sociétale 0.021 * 0.021 * 0.022 *

Variables de contrôle
Dette / Fonds propres –0.115 *** –0.116 *** –0.113 ***
Chiffre d’affaires –0.427E–6
Total actif –0.137E–6
Nombre d’employés –0.784E–4
R2 0.20 0.20 0.20
R2 ajusté 0.17 0.17 0.17
F 6.994 *** 6.853 *** 6.976 ***
+ ≤ 0.10 ; * p ≤ 0.05 ; ** p ≤ 0.01 ; *** p ≤ 0.001

Source : Waddock et Graves (1997, p. 313).

TABLEAU 8.7 – Régression de la performance financière ou profitabilité


de 1991, à partir de la performance sociétale et de variables
de contrôle de 1990
222 Méthodes de régression et traitement des données financières et sociétales

de l’entreprise au sein de l’indice socialement responsable DSI400 (Domini Social


Index), lui-même fonction des ratings de l’agence KLD.

McWilliams et Siegel rappellent que le modèle 2 tel que proposé par Waddock
et Graves (1997) risque d’être mal spécifié dès lors qu’une variable omise, telle que la
R&D, apparaît fortement corrélée à la fois à la variable dépendante, ici la performance
financière, et à l’une des variables indépendantes, en l’occurrence la performance
sociétale. Or, une telle conjecture est effectivement confirmée suite à l’analyse des
corrélations présentée en tableau 8.8, celle-ci portant sur un échantillon de 524
entreprises observées sur la période 1991-1996.

Comme prévu, les résultats des différentes variantes du modèle 2’ du


tableau 8.9 montrent que l’influence positive et statistiquement significative 13 de la
performance sociétale sur la performance financière disparaît dans les régressions 2 et
3, lorsque l’on recourt à la variable RDINT.

Toutefois, McWilliams et Siegel (2000) ne présentent pas de statistique F pour


les différentes régressions effectuées. Ils n’abordent pas non plus les éventuels pro-
blèmes de multicolinéarité pouvant se poser dans le cas d’une corrélation significative
entre deux variables explicatives, telles que CSP et RDINT. Les résultats n’apparaissent
pas également pleinement comparables à ceux obtenus par Waddock et Graves
(1997), car la variable binaire choisie par McWilliams et Siegel en matière de perfor-
mance sociétale capte une information restreinte. En effet, l’appartenance à l’indice
DSI400 codée 1 correspond à un panel plus large de performances sociétales, même si
celles-ci sont toutes relativement élevées. Enfin, on peut noter que les périodes
d’observation retenues pour les deux études sont différentes, Waddock et Graves
(1997) disposant d’observations sur la période 1989-1991 alors que McWilliams et
Siegel (2000) ont retenu la période 1991-1996.

Cependant, en dépit de ces informations manquantes ou de ces différences


méthodologiques, l’argumentation et les résultats présentés par McWilliams et Siegel
(2000) apparaissent suffisamment probants, selon une logique de falsification poppé-
rienne, pour infirmer l’hypothèse d’un cercle vertueux.

Ainsi, la relation entre deux variables, bien qu’elle puisse paraître en première
analyse statistiquement significative, pourrait en réalité provenir de l’omission
d’autres variables, dont l’influence et le pouvoir explicatif sont plus élevés 14. Il
importe, par conséquent, de toujours rester non seulement extrêmement attentif à la
définition d’un modèle, mais également très prudent quant à l’interprétation des
résultats empiriques.

13 A chaque variable indépendante introduite dans l’équation de régression correspond un « t de


Student », avec son niveau de signification. En l’absence de multicolinéarité, la relation entre la
variable indépendante et la variable dépendante du modèle sera jugée significative pour un t de Stu-
dent généralement supérieur à 2, et une signification correspondante au moins inférieure à 10 %.
14 Compte tenu des différences d’échantillons et de périodes d’observation, on ne peut cependant
affirmer avec certitude qu’une introduction de la variable de recherche et développement (R&D) au
modèle testé par Waddock et Graves (1997) aurait notablement transformé la nature des résultats
empiriques obtenus.
Application au cas de la relation entre performances financière et sociétale 223

Variable Définitions Moyenne Écart PERF CSP RDINT


type

PERF Performance financière – 0.011 1.043 1.000

CSP Performance sociétale 0.619 0.345 0.356** 1.000

RDINT Dépenses de R&D sur ventes 0.011 0.949 0.403** 0.449*** 1.00

* p ≤ 0.10 ; ** p ≤ 0.05 ; *** p ≤ 0.01


Source : McWilliams et Siegel (2000, p. 608).

TABLEAU 8.8 – Définition des variables clés, statistiques descriptives et corrélations


(N=524 entreprises)

Variable dépendante : Performance financière Régression 1 2 3

Coefficient pour la performance sociétale 0.141*** 0.104 - 0.062


(0.052) (0.106) (0.059)

Coefficient pour les dépenses de R&D sur ventes – 0.145*** 0.263***


(0.036) (0.050)

Variables sectorielles binaires prises en compte Non Non Oui

R2 ajusté 0.10 0.19 0.29

* p ≤ 0.10 ; ** p ≤ 0.05 ; *** p ≤ 0.01


Source : McWilliams et Siegel (2000, p. 608).

TABLEAU 8.9 – Régression correspondant à l’équation 2


(N=524 entreprises, écart type entre parenthèses)

2.2 RÉGRESSIONS EFFECTUÉES SUR LES ENTREPRISES FRANÇAISES


Ces précautions générales, inspirées de l’expérience anglo-saxonne, étant rap-
pelées, nous pouvons à présent exposer la mise en œuvre de recherches de même
nature, poursuivies dans un contexte français. Afin de faciliter les comparaisons entre
la France et les États-Unis, une première approche a consisté à répliquer purement et
simplement la méthodologie mise en œuvre par Waddock et Graves (1997), tout en
intégrant les critiques apportées par McWilliams et Siegel (2000). Cette étape étant
achevée, quelques-unes des variantes empiriques permettant d’affiner les modèles
testés seront alors commentées.
224 Méthodes de régression et traitement des données financières et sociétales

2.2.1 Mise en œuvre des modèles (d’Arcimoles et Trébucq 2002)


Seul le résultat final des régressions multiples sera ici reproduit. Ces analyses
multivariées permettent de tester l’influence conjointe de plusieurs variables pouvant
influer sur la performance financière 15. Les tableaux 8.10 et 8.11 présentent de ce
fait des régressions conformes aux modèles de type 2, et 2’ en ajoutant la variable de
recherche et développement. La variable CSP correspond à la simple moyenne arith-
métique des cinq ratings établis par l’agence ARESE pour une centaine d’entreprises
françaises cotées, appartenant à l’indice SBF120.
Ces premiers résultats obtenus à partir de sociétés françaises apparaissent plus
mitigés que ceux obtenus par Waddock et Graves (1997). Seules les régressions 4 à 6
retiennent une influence négative et significative de la performance sociétale sur la
performance financière. Cette influence, en revanche, devient non significative pour
les autres mesures de performance financière. Bien que le coefficient de corrélation de
Pearson, entre les variables de rentabilité financière et de rentabilité sur actifs, soit
significatif au seuil de 1 % et s’élève à 0,65, on n’en observe pas moins des résultats
divergents entre les régressions 1 à 3, et 4 à 6.
Le tableau 8.11 reproduit selon la même logique les régressions du tableau
précédent, en ajoutant aux déterminants de la performance financière la variable
R&D. Une telle modification se traduit toutefois par une réduction significative de la
taille de l’échantillon, les dépenses de R&D n’étant disponibles que pour 33 entrepri-
ses seulement.
Bien que les variables représentant la performance sociétale et les dépenses de
R&D sur ventes n’apparaissent pas significativement corrélées pour l’année 1999 16,
l’introduction de ce dernier déterminant aboutit aux mêmes observations empiriques
que celles obtenues par McWilliams et Siegel (2000) sur le marché américain 17. On
peut donc sérieusement mettre en doute, dans un contexte français, l’hypothèse d’une
influence positive de la performance sociétale sur la performance financière.
Ces différentes régressions, menées en France selon une logique de stricte
reproductibilité par rapport aux recherches américaines de Waddock et Graves (1997),
confèrent naturellement une valeur cumulative aux conclusions émises par McWilliams
et Siegel (2000). La taille restreinte de l’échantillon, limitée à 33 entreprises, ainsi
que les différences de traitement comptable des frais de R&D entre la France et les
États-Unis 18, atténuent cependant la portée et la comparabilité des observations

15 Dans un logiciel statistique tel que SPSS, une telle analyse s’obtient à partir de la procédure
suivante : Menu Analyse > Régression > Linéaire. La variable à expliquer est ensuite placée en
« Variable dépendante », et les variables indépendantes ou de contrôle sont placées en « Variables
explicatives ».
16 Dans le cas français, le coefficient de corrélation de Pearson entre les variables R&D et CSP, pour
l’année 1999, s’élève à — 0,252 avec une signification de 0,430.
17 L’ajout au modèle de variables sectorielles ne conduit nullement à modifier la portée des obser-
vations réalisées au tableau précédent, même si les statistiques F des modèles testés ne sont plus
significatives.
18 Certains frais de recherche et développement peuvent être activés au bilan en France, alors que
l’ensemble des frais de R&D doivent être passés en compte de résultat aux États-Unis.
Application au cas de la relation entre performances financière et sociétale 225

Variable dépendante : Rentabilité sur actifs Régression 1 2 3

Variable indépendante : Performance sociétale – 0.471 – 0.608 – 0.523

Variables de contrôle :
Dette / Fonds propres – 0.087 *** – 0.084 *** – 0.091 ***
Chiffre d’affaires – 4.73 E–5
Total actif – 7.48 E–6
Nombre d’employés – 1.75 E–6
R2 0.186 0.194 0.170
R2 ajusté 0.156 0.167 0.142
F 6.866 *** 7.200 *** 6.125 ***
Variable dépendante : Rentabilité financière 4 5 6

Variable indépendante : Performance sociétale – 7.124 * – 6.564 * –7.606 **

Variables de contrôle :
Dette / Fonds propres – 0.178 ** – 0.179 ** – 0.181 **
Chiffre d’affaires 2.161 E–4 *
Total actif 2.258 E–5
Nombre d’employés 3.63 E–5
R2 0.108 0.096 0.099
R2 ajusté 0.078 0.065 0.069
F 3.619 *** 3.173 *** 3.295 ***
Variable dépendante : Cash flow sur ventes 7 8 9

Variable indépendante : Performance sociétale 1.898 1.859 2.643

Variables de contrôle :
Dette / Fonds propres 0.050 0.038 0.065
Chiffre d’affaires – 6.49 E–5
Total actif 3.70 E–6
Nombre d’employés – 3.08 E–5 *
R2 0.017 0.012 0.044
R2 ajusté – 0.018 – 0.023 0.011
F 0.483 0.348 1.317 *

* p ≤ 0.10 ; ** p ≤ 0.05 ; *** p ≤ 0.01


Source : d’Arcimoles et Trébucq (2002, p. 18).

TABLEAU 8.10 – Régression de la performance financière ou profitabilité de 2000,


à partir de la performance sociétale et de variables de contrôle de 1999
226 Méthodes de régression et traitement des données financières et sociétales

Variable dépendante : Rentabilité sur actifs Régression 1 2 3

Variables indépendantes :

Performance sociétale 2.079 2.075 1.943


R&D sur ventes 0.373 ** 0.370 ** 0.358 **
Variables de contrôle :
Dette / Fonds propres - 0.149 ** - 0.152 * - 0.147 **
Chiffre d’affaires 5.70 E–5
Total actifs 4.45 E–5
Nombre d’employés 4.369 E–6
R2 0.367 0.374 0.357
Adj. R2 0.280 0.288 0.268
F 4.202 *** 4.333 *** 4.017 ***
Variable dépendante : Rentabilité financière 4 5 6

Variables indépendantes :

Performance sociétale 1.198 1.070 –0.367


R&D sur ventes 0.308 0.265 0.229
Variables de contrôle :
Dette / Fonds propres - 0.451 ** - 0.455 ** - 0.463 **
Chiffre d’affaires 3.99 E–4
Total actifs 2.49 E–4
Nombre d’employés 7.34 E–5
R2 0.168 0.169 0.155
Adj. R2 0.053 0.054 0.038
F 1.465 1.475 1.325
Variable dépendante : Cash Flow sur ventes 7 8 9
Variables indépendantes :

Performance sociétale 4.424 4.403 3.762


R&D sur ventes 0.587 ** 0.574 ** 0.554 **
Variables de contrôle :
Dette / Fonds propres - 0.192 ** - 0.197 ** –0.196 **
Chiffre d’affaires 1.63 E–4
Total actifs 1.16 E–4
Nombre d’employés 2.87 E–5
R2 0.373 0.389 0.357
Adj. R2 0.283 0.301 0.266
F 4.162 *** 4.448 *** 3.893 **

* p ≤ 0.10 ; ** p ≤ 0.05 ; *** p ≤ 0.01


Source : d’Arcimoles et Trébucq (2002, p. 19).

TABLEAU 8.11 – Régressions identiques au tableau 8.10, en ajoutant


au modèle la variable « R&D sur ventes »
Application au cas de la relation entre performances financière et sociétale 227

empiriques obtenues pour la France. Sur un plan économétrique, certaines améliora-


tions peuvent toutefois être apportées.

2.2.2 Améliorations apportées au modèle et limites des résultats


Plusieurs améliorations sur la forme et le fond peuvent être apportées au
niveau de la mise en œuvre des régressions, par rapport aux solutions retenues par
Waddock et Graves (1997) ou McWilliams et Siegel (2000).

On pourra, tout d’abord, par souci de simplification, opérer une analyse facto-
rielle portant respectivement sur les mesures censées représenter un même phéno-
mène 19. Si l’on obtient une seule valeur propre supérieure à 1, on ne retient alors
qu’un seul axe factoriel résumant l’essentiel de l’information, et expliquant un pour-
centage élevé de la variance totale. Tel a été le cas pour les analyses factorielles pra-
tiquées à partir des mesures de performance financière, ou des mesures de taille. Un
tel traitement de données présente l’avantage de réduire le nombre d’équations de
régression à tester, en utilisant les variables obtenues à partir des analyses factoriel-
les (extraction en composantes principales).

Il est ensuite envisageable de mieux traiter l’éventualité de la présence d’une


multicolinéarité au sein des variables indépendantes (variables explicatives et de
contrôle). En effet, les facteurs d’inflation de la variance (VIF) permettent d’en appré-
cier le niveau 20. Selon des auteurs comme Marquardt (1970), lorsque les indicateurs
VIF sont supérieurs à une valeur de 10, le niveau de multicolinéarité devient critique.
Cependant, en pratique, on peut craindre un niveau trop élevé dès que ces indicateurs
dépassent un seuil de 1,5 ou 3.

S’agissant de l’hypothèse de normalité des résidus, celle-ci peut également


être testée. Il s’agit tout d’abord d’enregistrer les résidus 21, puis de tester leur nor-
malité selon les statistiques de Kolmogorov-Smirnov ou de Shapiro-Wilk. Pour ce qui
concerne cette dernière, son calcul est disponible si l’échantillon ne dépasse pas 50
observations 22.

19 Dans un logiciel tel que SPSS, la procédure d’analyse factorielle est lancée en choisissant : Menu
Analyse > Factorisation > Analyse factorielle, puis en sélectionnant les variables concernées. L’utili-
sateur est ensuite appelé à opter pour une série de paramétrages en cliquant sur les boutons
« Extraction » afin de retenir les valeurs propres supérieures à 1, « Rotation » afin de choisir un
algorithme de rotation, « Facteur » afin de cocher la case « Enregistrer dans des variables » permet-
tant d’obtenir la(les) variable(s) correspondant à l’ (ou aux) axe(s) factoriel(s) constitué(s) dans le
fichier de données.
20 Dans le logiciel SPSS, l’utilisateur peut sélectionner les tests de colinéarité à partir du bouton
« Statistiques » appartenant à la fenêtre intitulée « Régression linéaire ».
21 Dans le logiciel SPSS, on cochera « Résidus non standardisés » après avoir appuyé sur le bouton
« Enregistrer » dans la fenêtre intitulée « Régression linéaire ».
22 Les résidus non standardisés étant enregistrés, SPSS retient une appellation automatique du
type « res_n », où « n » correspond au numéro des énièmes résidus enregistrés. La procédure à sui-
vre afin de tester la normalité de distribution de la variable « res_n » consiste alors à sélectionner
dans le Menu Analyse > Statistiques descriptives > Explorer. La variable « res_n » doit ensuite être
placée dans la zone « Variables dépendantes ». Il s’agit enfin de cliquer sur le bouton
« Diagrammes » et de cocher la case « Graphes de répartition gaussiens avec tests ».
228 Méthodes de régression et traitement des données financières et sociétales

Enfin, il est possible de recourir à une méthode de régression alternative et


complémentaire (Partial Least Square) 23 (pour une description complète de la
méthode PLS, voir Tenenhaus, 1998) afin, non seulement, de s’assurer de l’importance
et du signe de chaque coefficient affecté aux différentes variables indépendantes,
mais aussi, d’étendre l’analyse à certains cas d’entreprises ne disposant que de quel-
ques données manquantes, et qui sont de ce fait généralement exclus dans la
méthode classique de régression (Ordinary Least Square).

Conséquemment à ces différentes améliorations, les résultats du tableau 8.12


présentent, sous une forme plus concise, l’absence d’influence de la performance
sociétale sur la performance financière, telle qu’elle pouvait être observée précédem-
ment dans le tableau 8.10. Le modèle apparaît d’une qualité globalement satisfai-
sante tant en termes de R2 que de statistique F. En revanche, la variable de
performance sociétale, disposant d’un coefficient négatif de – 0,230 n’apparaît pas
significative sur un plan statistique. Les variables d’endettement et de secteur sont
en revanche significatives, avec des t de Student supérieurs à 2, une probabilité
d’erreur (voir colonne Sign.) inférieure à 1 %, et un signe négatif confirmé par la
technique de régression PLS.

La procédure d’analyse factorielle utilisée pour les variables de performance


financière et de taille peut également être étendue aux différents ratings permettant
d’appréhender le niveau de performance sociétale. Un calcul de moyenne peut, en
effet, masquer des réalités très différentes. L’analyse factorielle, avec rotation vari-
max (basée sur la maximisation des coefficients de corrélation des variables les plus
corrélées), permet de dégager deux axes factoriels avec une valeur propre supérieure
à 1. Après lecture du tableau de variance totale expliquée et de la matrice des compo-
santes après rotation, il ressort que le facteur 1 représente les variables RH, ENV et SC
avec 35 % de la variance totale expliquée, et le facteur 2 les variables ACT et QUAL
avec 21 % de la variance totale expliquée. On observe alors dans le tableau 8.13 non
plus une influence neutre sur le niveau de performance financière, mais négative au
titre du deuxième facteur, celle-ci étant confirmée dans le cadre de la régression PLS
(coefficient égal à – 0,161). Ce nouveau résultat permet sans conteste d’illustrer les
dangers que présente l’utilisation de variables trop agrégées, de nature multi-dimen-
sionnelle, et dont le calcul repose sur une moyenne.

Afin de déterminer avec plus de précision la dimension sociétale pouvant exer-


cer une influence négative sur la performance financière, les régressions ont été
renouvelées en sélectionnant cette fois les différents ratings de l’agence ARESE. Si
l’on se réfère au résultat du tableau 8.14, on observe qu’une gestion partenariale
donnant la faveur aux clients et aux fournisseurs (variable QUAL) pourrait s’exercer au
détriment de la performance financière.

23 La mise en œuvre de cette technique particulière de régression nécessite l’utilisation du logiciel


SIMCA-P.
Application au cas de la relation entre performances financière et sociétale 229

Régression linéaire multiple : Méthode classique (OLS) Méthode PLS

Variable dépendante : Performance Rel. signif. Coeff. t de Student Sign. VIF Coefficients
financière (signe)

Constante 1,398 3,112 0,003 0,000

Variable indépendante :

Performance sociétale – 0,230 – 1,090 0,279 1,076 – 0,072

(moyenne géométrique)

Variables de contrôle :

Dette / Fonds propres *** (–) – 0,023 – 4,405 0,000 1,192 – 0,011

Taille 0,069 0,574 0,568 1,148 – 0,114

Activité industrielle *** (–) – 0,526 – 2,668 0,009 1,120 – 0,189

Récapitulatif du modèle R2 ajusté = 0,215 ; F = 6,275 *** ; N=78 R2 = 0,063


Normalité des résidus rejetée selon le
test Kolmogorov-Smirnov p = 0,065

* p ≤ 0,10 ; ** p ≤ 0,05 ; *** p ≤ 0,01


Source : d’Arcimoles et Trébucq (2004), non publié.

TABLEAU 8.12 – Régressions avec la performance financière en variable expliquée (2000)


et la performance sociétale 1 (1999) en principale variable explicative

Cependant, comme l’illustre le tableau 8.15, lorsque l’on intègre au modèle


empirique la variable explicative de R&D, l’influence supposée négative de la dimen-
sion QUAL ne peut plus être observée de façon significative 24.

Pour les modèles de type 1, établis selon la formulation retenue par Waddock
et Graves (1997), on notera également, à partir du tableau 8.16, l’absence d’une
influence significative de la performance financière sur la performance sociétale agré-
gée.

En conséquence, ces résultats empiriques, obtenus sur la période 1998-2000,


ne permettent ni de supporter l’hypothèse 2 d’un bon management des parties pre-

24 Afin de rendre comparables les tableaux 14 et 15, il serait nécessaire de renouveler une analyse
multivariée conforme au tableau 14, mais en retenant l’échantillon sélectionné dans le tableau 15.
Dans SPSS, ceci est envisageable via l’éditeur de données, et le Menu Données > Sélectionner des
observations. Le critère pourrait alors correspondre à la condition logique d’existence de la variable
R&D, c’est-à-dire « si R&D sur ventes >0 ».
230 Méthodes de régression et traitement des données financières et sociétales

Régression linéaire multiple : Méthode classique (OLS) Méthode PLS


Variable dépendante : Performance Rel. signif. Coeff. t de Sign. VIF Coefficients
financière (signe) Student
Constante 0,941 3,929 *** 0,000 0,000
Variable indépendante :
CSP facteur 1 (RH, ENV, SC) 0,028 0,298 0,767 1,054 0,036
CSP facteur 2 (ACT, QUAL) * (–) – 0,155 – 1,747 * 0,085 1,026 – 0,161
Variables de contrôle :
Dette / Fonds propres *** (–) – 0,023 – 4,301 *** 0,000 1,199 – 0,011
Taille 0,052 0,434 0,665 1,158 – 0,121
Activité industrielle *** (–) – 0,531 – 2,727 *** 0,008 1,110 – 0,201
Récapitulatif du modèle R2 ajusté = 0,225 ; F = 5,476 *** ; N=78 R2 = 0,089
Normalité des résidus rejetée selon le
test de Kolmogorov–Smirnov p = 0,011

* p ≤ 0,10 ; ** p ≤ 0,05 ; *** p ≤ 0,01


Source : d’Arcimoles et Trébucq (2004), non publié.
TABLEAU 8.13 – Régressions de la performance financière (2000) à partir des deux
composantes représentant les critères de performance sociétale (1999)

Régression linéaire multiple : Méthode classique (OLS) Méthode PLS


Variable dépendante : Performance Rel. signif. Coeff. t de Sign. VIF Coefficients
financière (signe) Student
Constante 1,629 2,376 0,020 0,000
Variable indépendante :
Ressources humaines (RH) – 0,020 – 0,144 0,886 1,416 – 0,016
Environnement (ENV) 0,127 0,918 0,362 1,237 0,001
Clients–Fournisseurs (QUAL) * (–) – 0,225 – 1,749 * 0,085 1,179 – 0,116
Actionnaires (ACT) – 0,027 – 0,156 0,877 1,307 – 0,107
Société civile (SC) – 0,076 – 0,629 0,531 1,083 0,013
Variables de contrôle :
Dette / Fonds propres *** (–) – 0,023 – 4,314 *** 0,000 1,211 – 0,009
Taille 0,024 0,188 0,851 1,240 – 0,099
Activité industrielle ** (–) – 0,538 – 2,661 *** 0,010 1,173 – 0,165
Récapitulatif du modèle R2 ajusté = 0,212 ; F = 3,584 *** ; N=78 R2 = 0,083
Normalité des résidus acceptée selon le
test de Kolmogorov–Smirnov p = 0,200

p ≤ 0,10 ; ** p ≤ 0,05 ; *** p ≤ 0,01


Source : d’Arcimoles et Trébucq (2004), non publié.
TABLEAU 8.14 – Régressions avec la performance financière en variable expliquée (2000)
et en variable explicative les cinq critères de performance sociétale (1999)
Application au cas de la relation entre performances financière et sociétale 231

Régression linéaire multiple : Méthode classique (OLS) Méthode PLS


Variable expliquée : Performance financière Rel. signif. Coeff. t de Sign. VIF Coefficients
(signe) Student
Constante 2,277 1,318 0,200 0,0000
Variables explicatives :
Ressources humaines (RH) 0,080 0,280 0,782 1,3064 – 0,0108
Environnement (ENV) 0,106 0,361 0,721 1,3821 0,0006
Clients–Fournisseurs (QUAL) – 0,096 – 0,372 0,713 1,3072 – 0,0811
Actionnaires (ACT) – 0,079 – 0,228 0,822 1,5992 – 0,0747
Société civile (SC) 0,047 0,196 0,847 1,2641 0,0092
R&D sur ventes 0,006 0,154 0,879 1,7423 0,1705
Variables de contrôle
Dette / Fonds propres – (***) – 0,043 – 3,199 *** 0,004 1,7094 – 0,0065
Taille 0,380 1,300 0,206 1,7488 – 0,0694
Activité industrielle – (**) – 1,697 – 2,276 ** 0,032 2,1935 – 0,1150
Récapitulatif du modèle R2 ajusté = 0,178 ; F = 1,769 ; N=33 R2 = 0,110
Normalité des résidus :
test de Kolmogorov–Smirnov p = 0,145
test de Shapiro–Wilk p = 0,010

* p ≤ 0,10 ; ** p ≤ 0,05 ; *** p ≤ 0,01


Source : d’Arcimoles et Trébucq (2004), non publié.

TABLEAU 8.15 – Régressions avec la performance financière en variable expliquée (2000)


et en variable explicative les cinq critères de performance sociétale (1999)

nantes pouvant améliorer la performance financière (voir tableau 8.15), ni de confor-


ter l’hypothèse 1 retenant un « slack organisationnel » 25 (voir tableau 8.16) 26.
Comme nous avons pu le constater, les résultats obtenus à partir de régressions
multiples peuvent s’avérer dans certaines circonstances, extrêmement sensibles aux
choix effectués en matière de variables dépendantes et indépendantes. La diversité des
facteurs de performance économique et financière d’une part, et la complexité du cons-
truit même de performance sociétale d’autre part, ne sont pas étrangères à cette insta-

25 On entend ici par « slack organisationnel », la constitution de réserves financières, pouvant être
réallouées ultérieurement aux différents partenaires, afin d’accroître notamment leur degré de satis-
faction.
26 Toutefois, la mise en œuvre des modèles de type 1, avec pour variables expliquées les dimen-
sions de la performance sociétale obtenues suite à une analyse factorielle sur les ratings ARESE,
pourrait conduire à conforter partiellement l’hypothèse 1 dans les domaines de la gestion des rela-
tions avec les salariés, l’environnement et la société civile (facteur 1). En revanche, les entreprises
pourraient réduire leurs efforts en matière de gouvernance (ACT) et de mécénat (SC) (facteur 2) con-
sécutivement à l’obtention d’une meilleure performance financière.
232 Méthodes de régression et traitement des données financières et sociétales

Régression linéaire multiple : Méthode classique (OLS) Méthode PLS

Variable dépendante : Performance sociétale Rel. signif. Coeff. t de Student Sign. VIF Coefficients
(moyenne géométrique) (signe)

Constante 1,770 13,122 0,000 4,336


Variable indépendante :
Performance financière – 0,014 – 0,262 0,794 1,208 – 0,078
Variables de contrôle :
Dette / Fonds propres 0,002 0,696 0,489 1,174 – 0,011
Taille + (*) 0,117 1,755 * 0,083 1,099 0,051
Activité industrielle 0,133 1,237 0,220 1,143 0,120
Récapitulatif du modèle R2 ajusté = 0,035 ; F = 1,713 ; N=79 R2 = 0,030
Normalité des résidus acceptée selon le
test Kolmogorov-Smirnov p = 0,200

* p ≤ 0,10 ; ** p ≤ 0,05 ; *** p ≤ 0,01


Source : d’Arcimoles et Trébucq (2004), non publié.

TABLEAU 8.16 – Régressions de performance sociétale (1999)


à partir de la performance financière (1998) en principale variable explicative

bilité des résultats. En l’absence d’un cadre théorique encore suffisamment robuste, la
recherche des relations entre performance sociétale et performance financière doit donc
s’appuyer sur une analyse particulièrement rigoureuse des résultats pour éviter les
interprétations trop hâtives. Un double travail de modélisation et d’accumulation de
résultats empiriques, même partiels, est encore nécessaire. C’est un travail de longue
haleine, tant les relations cherchées sont complexes. Le cas de l’actionnariat salarié
constitue, de ce point de vue, un exemple intéressant, les résultats accumulés depuis
15 ans permettant progressivement d’avancer plusieurs conclusions.

3. Application au cas de la relation entre performance


financière et actionnariat salarié

L’actionnariat salarié, en tant que pratique incitative de gestion des ressources


humaines, représente un domaine étroitement lié, par son essence même, aux mesu-
res de performance financière. En effet, tout actionnaire-salarié espère une croissance
de la performance financière de son entreprise afin d’obtenir une meilleure valorisa-
tion des titres dont il est propriétaire. Même s’il existe une très grande variété
d’approches et de justifications managériales, nombreux sont les dirigeants d’entre-
prises qui souhaitent développer la motivation et la productivité de leur personnel, et
Cas de la relation entre performance financière et actionnariat salarié 233

assurer un meilleur alignement entre l’intérêt de leurs actionnaires et celui des sala-
riés. La concrétisation de tels effets mérite cependant une vérification empirique, car
les coûts de mise en place de tels dispositifs sont importants, et les retombées posi-
tives de tels investissements, étroitement liées aux réactions humaines, demeurent
hasardeuses 27.

3.1 RÉGRESSIONS EFFECTUÉES SUR LES ENTREPRISES FRANÇAISES


Dans le cadre des recherches françaises, effectuées à partir de données récen-
tes, plusieurs modèles et techniques de régression ont été utilisés. Nous en expose-
rons tout d’abord les principaux résultats, avant d’en souligner les limites
intrinsèques.

3.1.1 Mise en œuvre des modèles (d’Arcimoles et Trébucq 2003)


Dans le cadre de la présente recherche, la collecte des données relatives à
l’actionnariat salarié a concerné 791 sociétés françaises cotées. Après un croisement
opéré avec la base de données financières Worldscope, l’échantillon a été réduit à 701
sociétés françaises (échantillon 1). Compte tenu des informations disponibles, les
relations existant entre l’actionnariat salarié et les indicateurs financiers ont été étu-
diées, pour l’année 2000, en recourant à une série de régressions en coupe transver-
sale 28.

Le relevé des données financières a été réalisé afin de déterminer dans quelle
mesure l’actionnariat salarié (apprécié soit par la variable ASK pour le pourcentage de
capital détenu par les actionnaires salariés, soit par la variable ASB codée 1 ou 0 en
fonction de la présence ou de l’absence d’un actionnariat salarié) peut être considéré
comme l’une des variables susceptibles d’être associées au niveau de performance
(variable MKCE, voir tableau 8.17) et de risque d’une entreprise (variable RISKROE,
voir tableau 8.18, et RISKBETA, voir tableau 8.19). Les équations de régression ont
intégré un ensemble de caractéristiques économiques et financières afférentes aux
entreprises. Les principales correspondent à l’endettement (DEBT et LTDEBT), et à la
croissance des effectifs et du chiffre d’affaires (EGROWTH et SGROWTH), ainsi qu’en
matière de facteurs de contingence, à l’appartenance sectorielle (S01 à S11), à
l’ancienneté de la cotation en bourse (AGE), au montant d’actif par employé (APE), à

27 Aucune recherche, à notre connaissance, n’a pu repérer des effets négatifs de l’actionnariat sur
la performance de l’entreprise. Quant à ses possibles effets positifs, ils ne sont pas encore clairement
établis. L’influence du contexte d’application est déterminante. Ainsi, tous les travaux disponibles
montrent-ils que les entreprises obtiennent des résultats sensiblement meilleurs lorsque l’actionna-
riat des salariés s’intègre dans une politique active de participation. Mis en place isolément, il ne
semble pas avoir d’effets notoires.
28 L’expression de « coupe transversale » est utilisée lorsque les variables dépendantes et indépen-
dantes sont mesurées à une date identique. Dans ce cas, les résultats obtenus à partir d’une régres-
sion ne permettent pas toujours d’identifier des relations de causalité. Les variables statistiquement
significatives traduisent en fait la présence de corrélations venant conforter l’existence de relations
de causalité justifiées sur un plan théorique.
234 Méthodes de régression et traitement des données financières et sociétales

la taille mesurée par le logarithme 29 du nombre d’employés (SIZE), et au pourcentage


de capital détenu par l’actionnaire principal (ACT1).
En raison du nombre important de variables explicatives, et de la nécessité de
rendre les résultats plus lisibles, les méthodes ascendante et descendante 30 de sélec-
tion des variables significatives ont été utilisées. De plus, la régression PLS (Partial
Least Square), permettant de passer outre les problèmes de multicolinéarité et de
données manquantes a été également choisie afin d’obtenir une estimation complé-
mentaire du signe et de l’importance des coefficients affectés aux différentes varia-
bles sélectionnées.
Comme on peut l’observer dans le tableau 8.17, l’influence positive de la pré-
sence d’un actionnariat salarié sur le niveau de performance financière peut être mise
en doute si l’on se réfère à la technique PLS. L’usage exclusif d’une technique de
régression classique (Ordinary Least Square) pourrait, dans ce cas, induire en erreur.
Ainsi, en présence de R_ et de statistiques F satisfaisants, ainsi qu’en l’absence de
problèmes de multicolinéarité, le signe des coefficients d’une équation de régression
peut être appelé à varier en fonction de la taille de l’échantillon prise en considéra-
tion, sachant que celle-ci est elle-même liée aux techniques utilisées dans le traite-
ment des données manquantes.
S’agissant des techniques de sélection des variables significatives, on notera
dans le tableau 8.18, la situation particulière de la variable signalant la présence d’un
actionnariat salarié (ASB), retenue selon le tri descendant, mais exclue selon un tri
ascendant. Un usage limité à l’une ou l’autre technique ne saurait donc suffire pour
conclure à l’absence d’une relation entre une variable indépendante et une variable
dépendante.
En ce qui concerne les résultats du tableau 8.19, on peut remarquer la sélec-
tion de la variable ASK (pourcentage de capital détenu par les actionnaires salariés),
et sa relation positive avec bêta. Comme on peut le constater, les relations observées
entre l’actionnariat salarié et le risque peuvent fortement varier en fonction des
mesures sélectionnées (écart type des rentabilités financières ou bêta).
Il est également envisageable d’étudier les contextes organisationnels favora-
bles ou associés à l’implantation d’un actionnariat salarié. Pour ce faire, un modèle de
régression logistique 31 a été entrepris, en retenant la variable binaire ASB, non plus

29 Compte tenu de la très forte dispersion des mesures classiques de taille (total actif, total du
chiffre d’affaires, nombre d’employés), celles-ci sont usuellement transformées à partir d’une fonc-
tion logarithme, et ce afin d’obtenir une distribution plus acceptable, atténuant l’incidence statisti-
que des valeurs extrêmes.
30 La méthode ascendante consiste à introduire une à une les variables explicatives dont la corréla-
tion avec la variable expliquée est la plus forte. La procédure prend fin lorsqu’il n’existe plus de
variables satisfaisant au seuil de signification de 5 % de la statistique F. La méthode descendante
retient le bloc de toutes les variables explicatives puis les supprime l’une après l’autre en fonction du
critère de suppression, à savoir le seuil de signification de 10 % de la statistique F. Les différences
entre ces méthodes peuvent naturellement conduire à ne sélectionner certaines variables que dans le
cadre d’une démarche ascendante ou descendante.
31 Ce type de régression est obtenu dans SPSS à partir du Menu Analyse > Régression > Logistique
binaire.
Cas de la relation entre performance financière et actionnariat salarié 235

Signe Régression linéaire multiple Régression linéaire multiple Régression


de la (méthode ascendante) (méthode descendante) PLS
relation
Variables Coefficients t de Signification Coefficients t de Signification Coefficients
retenues : standardisés Student (p) standardisés Student (p)
(constante) 1.636 0.103 1.117 0.265 0.0635
RISKROE + 0.103 1.984 0.048 0.0321
RISKBETA + 0.294 5.387 0.000 0.258 4.567 0.000 0.0155
Secteur 09 + 0.203 3.865 0.000 0.194 3.687 0.000 0.0638
SIZE – – 0.140 –2.556 0.011 – 0.113 –2.074 0.039 – 0.0035
ACT1 (a) 0.116 2.190 0.029 0.116 2.208 0.028 – 0.0638
ASB (a) 0.214 3.850 0.000 0.215 3.910 0.000 – 0.0524
R2 = 0,204 ; R2 ajusté = 0,192 R2 = 0,207 ; R2 ajusté = 0,193 R2 = 0.011
Échantillon 1 (N = 341) Échantillon 1 (N = 348) Échantillon 1
F = 17.12 Signification = 0,000 F = 14.835 Signification = 0,000 (N = 596)
Colinéarité : VIF < 1,296 Colinéarité : VIF < 1,368
Variables RISKROE, DEBT, LTDEBT, SGROWTH, DEBT, LTDEBT, SGROWTH, EGROWTH, APE,
éliminées EGROWTH, APE, S01 à S08, S10, S11, S01 à S03, S05 à S08, S10, S11, AGE,
AGE, ASK ASK
Variables non ASK (VIF > 1,5 lorsque la variable ASK est
retenues retenue)

Les signes du coefficient selon la régression linéaire classique et la régression PLS sont opposés.
Source : d’Arcimoles et Trébucq (2003, pp. 17-19).

TABLEAU 8.17 – Régressions avec MKCE (Capitalisation boursière / Fonds propres)


comme variable dépendante

comme variable explicative, mais comme variable expliquée. Les résultats obtenus
(d’Arcimoles et Trébucq 2003) indiquent notamment que la taille (SIZE) et l’apparte-
nance à certains secteurs (S05, secteur automobile) appartiennent aux variables de
contingence les plus fortement associées à la présence d’un actionnariat salarié 32.

3.1.2 Limites des résultats


Bien que les résultats exposés dans les tableaux 8.17 à 8.19 puissent paraître
satisfaisants, ils n’en restent pas moins perfectibles.
Cela tient en premier lieu aux différentes façons d’appréhender la réalité d’un
phénomène humain et complexe tel que l’actionnariat salarié. Le pourcentage de

32 On notera en particulier l’importance des coefficients associés aux variables ‘Secteur 05’ et ‘Size’
avec une valeur respective de 1,9740 et 1,1087. On peut interpréter ces coefficients positifs et éle-
vés comme la nécessité pour les grandes entreprises d’assurer une plus forte cohésion et une
meilleure coordination des individus, notamment lorsqu’elles subissent, comme dans le secteur auto-
mobile, une très forte concurrence internationale. En revanche, les coefficients associés aux autres
variables, même si elles sont significatives, sont beaucoup plus proches de zéro, ce qui permet de
considérer leur influence comme plus mineure.
236 Méthodes de régression et traitement des données financières et sociétales

Signe Régression linéaire multiple Régression linéaire multiple Régression


de la (méthode ascendante) (méthode descendante) PLS
relation
Variables Coefficients T de Student Signification Coefficients T de Student Signification Coefficients
retenues : standardisés (p) standardisés (p)
(constante) 6.220 0.000 5.470 0.000 0.5921
ROE – – 0.127 –2.512 0.012 – 0.121 –2.408 0.017 – 0.1514
MKCE + 0.156 3.055 0.002 0.151 2.799 0.005 0.0360
EGROWTH + 0.203 3.981 0.000 0.184 3.572 0.000 0.1511
SIZE – – 0.186 –3.734 0.000 – 0.143 –2.595 0.010 – 0.1181
Secteur 09 + 0.088 1.677 0.094 0.1405
ASB – – 0.102 –1.834 0.068 – 0.0887
R2 = 0,122 ; R2 ajusté = 0,112 R2 = 0,138 ; R2 ajusté = 0,123 R2 = 0.120
Échantillon 1 (N=365) Échantillon 1 (N=365) Échantillon 1
F = 16,017 Signification = 0,000 F = 9,53 Signification = 0,000 (N = 498)
Colinéarité : VIF < 1,099 Colinéarité : VIF < 1,295
Variables DEBT, LTDEBT, SGROWTH, EGROWTH, APE, DEBT, LTDEBT, SGROWTH, APE, S01 à S08,
éliminées S01 à S11, AGE, ACT1, ASK S10, S11, AGE, ACT1, ASK
Variables non ROA, ROI (VIF > 1,5 lorsque les variables ROA, ROI (VIF > 1,5 lorsque les variables
retenues ROA et ROI sont retenues) ROA et ROI sont retenues)

Source : d’Arcimoles et Trébucq (2003, pp. 17-19).

TABLEAU 8.18 – Régressions avec RISKROE (écart type des rentabilités financières)
comme variable dépendante

capital détenu par les actionnaires salariés peut apparaître comme une mesure empi-
rique particulièrement réductrice. Elle ne permet pas d’appréhender pleinement le
pouvoir d’influence exercé par les actionnaires salariés, de même qu’elle ne renseigne
en rien sur les raisons de la mise en place d’un actionnariat salarié, son ancienneté
ou encore l’effectif concerné par un tel dispositif et les taux de participation établis
en fonction des tranches de revenus ou des niveaux hiérarchiques.
S’agissant de l’interprétation des résultats, il importe également d’éviter de
conclure trop hâtivement à des relations de causalité pouvant en réalité correspondre
à des biais de sélection. En effet, dans le cadre d’observations en coupes transversa-
les, il reste toujours envisageable que la variable expliquée puisse influer sur l’une
des variables indépendantes. On pourrait, par exemple, imaginer à partir du
tableau 8.19, que les entreprises disposant d’un risque perçu par les investisseurs
comme trop élevé puissent avoir délibérément recours à un plus fort pourcentage
d’actionnariat salarié dans leur capital. Ainsi, l’actionnariat salarié ne constituerait-il
plus la cause d’un risque supplémentaire, mais seulement la conséquence. Afin de par-
faire le traitement de tels aspects, il serait nécessaire de mettre en œuvre des modè-
les à équations simultanées (ex. Prevost et al., 2002) ou des modèles dynamiques
reposant sur des données longitudinales, ou encore, des recherches menées à partir
d’études de cas.
Cas de la relation entre performance financière et actionnariat salarié 237

Signe Régression linéaire multiple Régression linéaire multiple Régression


de la (méthode ascendante) (méthode descendante) PLS
relation
Variables Coefficients T de Student Signification Coefficients T de Student Signification Coefficients
retenues : standardisés (p) standardisés (p)
(constante) 5.683 0.000 5.683 0.000 0.6316
ROA – – 0.191 – 4.323 0.000 – 0.191 – 4.323 0.000 – 0.1869
MKCE + 0.215 4.764 0.000 0.215 4.764 0.000 0.0126
DEBT – – 0.102 – 2.467 0.014 – 0.102 – 2.467 0.014 – 0.0688
EGROWTH + 0.183 4.124 0.000 0.183 4.124 0.000 0.2044
Secteur 04 + 0.186 4.328 0.000 0.186 4.328 0.000 0.0580
Secteur 09 + 0.248 5.389 0.000 0.248 5.389 0.000 0.2189
ACT1 – – 0.154 – 3.630 0.000 – 0.154 – 3.630 0.000 – 0.1319
ASK + 0.105 2.494 0.013 0.105 2.494 0.013 0.1066
R2= 0,367 ; R2 ajusté = 0,354 R2 = 0,367 ; R2 ajusté = 0,354 R2 = 0,288
Échantillon 1 (N = 379) Échantillon 1 (N = 379) Échantillon 1
F = 27.29 Signification = 0,000 F = 27.29 Signification = 0,000 (N = 587)
Colinéarité : VIF < 1,254 Colinéarité : VIF < 1,254
Variables ROE, ROI, DEBT, LTDEBT, SGROWTH, ROE, ROI, DEBT, LTDEBT, SGROWTH,
éliminées EGROWTH, APE, S01 à S03, S05 à S08, S10, EGROWTH, APE, S01 à S03, S05 à S08, S10,
S11, AGE, SIZE, ACT1, ASB S11, AGE, SIZE, ACT1, ASB

Source : d’Arcimoles et Trébucq (2003, p. 17-19).

TABLEAU 8.19 – Régressions avec RISKBETA (bêta) comme variable dépendante

3.2 APPROFONDISSEMENTS POSSIBLES DES RÉGRESSIONS 33


D’autres résultats, obtenus par d’Arcimoles et Trébucq (2003) mais non repro-
duits dans ce texte, montrent l’existence d’une relation positive entre la présence
d’un actionnariat salarié et certaines variables de performance (rentabilité financière
ROE, et rentabilité sur capitaux investis ROI). On peut alors être étonné que d’autres
recherches, à l’instar de celle de Trébucq (2002), effectuées sur une période anté-
rieure (1995-1998) et à partir d’un échantillon correspondant aux entreprises du
SBF250 34, puissent conduire à des résultats différents, ne permettant pas d’observer
des relations équivalentes. L’objet des développements qui suivent consiste à explorer
et à présenter les sources de différences envisageables.
La période d’observation en tant que source de divergences des résultats étant
mise à part, d’autres causes en l’occurrence peuvent être avancées. Il peut s’agir, tout
d’abord, du choix même des variables expliquées à l’aide desquelles sont générale-
ment appréciées les performances économique et financière des entreprises (effet 1 :
différence des résultats empiriques liée à la variété des mesures de performance utili-

33 (Cf. Trébucq, 2003).


34 Indice créé par la Société de Bourse française (SBF) et composé des 250 valeurs boursières cen-
sées le mieux représenter les différents secteurs d’activité de l’économie française.
238 Méthodes de régression et traitement des données financières et sociétales

Nouveaux résultats Rappel des résultats antérieurs

Var. ROE ROA ROI MKCE MVA Q de Tobin TEVAB


expliquées Estimé
Var. (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2)
explicatives
ASB + +
(**) (**)
ASK + + +
(*) (*) (*)
EFB + + + + + + (***)
(***) (**) (**) (*) (***)
ACT1

ENDT – – – – – – – –
(***) (***) (***) (***) (***) (**) (***) (***)
CROISS + + + + + + + + + + +
(***) (**) (**) (**) (***) (***) (***) (***) (*) (**) (**)
TAILLE – – + +
(**) (*) (***) (*)
IND – – – –
**) (*) (***) (***)
SERV + + +
(***) (***) (***)
Résultats Cf. Tableau 3 Cf. Tableau 4 Cf. Tableau 5
détaillés : in S. Trébucq in S. Trébucq in S. Trébucq
(2002) (2002) (2002)

(1) : régression pas à pas ; (2) : régression descendante ; + ou – : Signe de la relation ; (***), (**) ou (*) :
Relation significative au seuil de 1 %, 5 % ou 10 %.
Source : Trébucq (2003, p. 9) et Trébucq (2002, pp. 107-135).

TABLEAU 8.20 – Synthèse des régressions portant sur la performance des entreprises
(Régressions appliquées à l’échantillon 2 composé
de 109 entreprises du SBF250, pour l’année 1998)

sées). On peut également considérer que la différence soit la conséquence de la spéci-


fication des modèles empiriques, et du choix même des variables explicatives (effet
2 : différence des résultats empiriques liée à la nature des variables explicatives utili-
sées). Une autre explication peut enfin être recherchée dans la composition des
échantillons étudiés, selon la répartition sectorielle et la taille des entreprises obser-
vées (effet 3 : différence des résultats empiriques liée à un biais d’échantillonnage).

3.2.1 Identification des facteurs pouvant influencer les résultats


empiriques
L’existence de l’effet 1 peut être testée en réalisant une nouvelle recherche,
similaire à celle de Trébucq (2002), en sélectionnant rétroactivement de nouvelles
variables expliquées de performance financière, utilisées par d’Arcimoles et Trébucq
Cas de la relation entre performance financière et actionnariat salarié 239

(2003). Les résultats exposés dans le tableau 8.20 confirment bien l’existence de dif-
férences sensibles en fonction de la nature des variables de performance expliquées.
En effet, le lien avec l’actionnariat salarié apparaît plus significativement pour les
mesures classiques de performance (relations significatives avec les variables ROE,
ROA, et MKCE), que pour les mesures de création de valeur (relation significative uni-
quement avec la variable TEVAB, correspondant au nombre d’années présentant une
EVA positive sur la période 1995-1998). Ces différences renvoient naturellement à
l’étude des écarts et proximités existant entre les différentes mesures de performance
financière.
Les résultats de la classification hiérarchique 35, présentée dans la
figure 8.1 36, permettent de distinguer trois groupes de variables expliquées.

C A S E 0 5 10 15 20 25
Variables Num
ROE 1
ROA 2
ROI 3
Q de Tobin 7
MKCE 4
TEVAB 6
MVA 5

FIGURE 8.1 – Classification hiérarchique. Dendrogramme élaboré à partir des distances


euclidiennes moyennes entre groupes.

Les trois mesures de performance comptable (ROE : rentabilité financière,


ROA : rentabilité sur actifs, ROI : rentabilité sur capitaux investis) forment un premier
groupe. Le Q de Tobin estimé et le ratio de Marris (MKCE) forment un deuxième
groupe, auquel se rattache la mesure correspondant au nombre d’années avec une EVA
positive pour la période de 1995 à 1998 (TEVAB). Le troisième groupe est formé uni-
quement par la MVA (‘Market Value Added’) 37, cette dernière mesure représentant une
variable fortement distante des précédentes. Toutefois, comme on peut le constater à
partir du tableau 8.20, les résultats empiriques peuvent varier au sein d’un même
groupe de variables. À titre d’exemple, on peut citer :
– pour le premier groupe, une relation positive et significative de la variable ASK
avec les variables ROE, ROA, mais non observée pour la variable ROI,

35 Ce traitement est obtenu dans SPSS via le Menu Analyse > Classification > Classification hiérar-
chique. Afin d’obtenir une classification des variables, on coche l’option « Agréger Variables ».
36 Le dendogramme représente une arborescence horizontale. La distance entre les variables est
graduée sur une échelle allant de 0 à 25 (0 indique une très forte proximité, alors que 25 correspond
à l’éloignement maximal). A titre d’exemple, la mesure MVA est rattachée par un trait vertical aux
autres branches au niveau de 25. Elle apparaît par conséquent avec une distance maximale par rap-
port aux autres mesures de performance. Inversement, les mesures MKCE, Q de Tobin et TEVAB appa-
raissent avec une forte proximité.
37 La relation entre la MVA et le Q de Tobin s’exprime de la façon suivante : MVA = VC (Q — 1), soit
encore : Q = (MVA/VC) + 1, sachant que MVA = VM — VC (VM représentant la valeur de marché des
capitaux investis, et VC leur valeur comptable).
240 Méthodes de régression et traitement des données financières et sociétales

– pour le second groupe, des relations positives et significatives entre les varia-
bles ASB et MKCE, ou encore ASK et TEVAB, mais aucune relation entre les
variables ASB ou ASK et le Q de Tobin.

3.2.2 Test complémentaire de l’effet de la variable taille


Dans le cadre des approfondissements permettant d’explorer les sources de dif-
férences entre les résultats empiriques obtenus, on peut proposer un exemple d’ana-
lyse concernant l’effet 3. En effet, la première étude porte sur les entreprises du
SBF250, alors que la seconde s’appuie sur un échantillon plus large représentant qua-
siment l’intégralité des sociétés cotées françaises. Dans un tel cas, une source fla-
grante de différence d’échantillonnage apparaît au niveau de la taille des entreprises
étudiées 38.
Or, si l’on se reporte au tableau 8.17, précédemment commenté, la variable de
taille exerce une influence négative sur la mesure de performance financière, alors
que la régression logistique portant sur la variable ASB a conduit à identifier une
association positive entre la taille et la présence d’actionnariat salarié (voir 3.1.1).
On peut donc supposer que les caractéristiques intrinsèques des entreprises disposant
d’un actionnariat salarié ne permettent pas d’observer l’effet qu’exerce celui-ci en
matière de performance. En l’occurrence, l’effet positif de l’actionnariat salarié pour-
rait être annulé par les pertes financières induites du fait de la plus grande taille des
entreprises optant pour un tel mécanisme. De plus, au fur et à mesure que l’entreprise
croît en taille, et en nombre de salariés, l’espérance des gains redistribués peut
décroître, annulant de facto l’effet incitatif des formules d’actionnariat réservées aux
salariés. On peut donc considérer que la quasi-absence de relations observées entre
actionnariat salarié et performance financière est liée à la plus forte fréquence de
grandes entreprises au sein du SBF250.
Un tel effet peut être isolé, sur un plan économétrique, en optant pour la
solution retenue par Blasi, Conte et Kruse (1996). Il s’agit de sélectionner tout
d’abord l’échantillon le plus large, composé de 701 entreprises. On peut alors séparer
l’échantillon en quartiles, en fonction de la variable de taille (mesurée par le loga-
rithme de l’effectif employé en 2000). Les régressions sont alors opérées au sein de
chaque quartile. Le tableau 8.21 reproduit uniquement les résultats des régressions
multiples pour les variables explicatives d’actionnariat salarié. Il est confirmé que les
effets positifs de l’actionnariat salarié 39 sont beaucoup plus ténus dans les entrepri-
ses de plus grande taille (quartiles 3 et 4) contrairement aux entreprises de plus
petite taille (quartiles 1 et 2). Comme on peut le constater, les variables de rentabi-
lité (ROE, ROA, ROI) n’apparaissent pas influencées dans les entreprises de grande
taille par la présence d’un actionnariat salarié (cases vides pour la variable ASB dans

38 Un simple test non paramétrique de moyenne concernant la variable de taille permet de confir-
mer la plus grande taille des entreprises appartenant à l’indice SBF250 comparativement aux autres
sociétés françaises cotées.
39 Dans le cadre du quartile 1 et de la variable expliquée MKCE, le coefficient négatif correspondant
à la variable ASK et le coefficient positif lié à la variable ASB laissent supposer que les effets positifs
associés à la présence d’un actionnariat salarié (ASB) sont annulés lorsque le pourcentage de capital
détenu par les salariés (ASK) dépasse un seuil proche de 14 %.
Conclusion 241

(Modèle 2) Année 2000 Variables expliquées de performance :


Échantillon 2 ROE ROA ROI MKCE
Variables explicatives : (1) (2) (1) (2) (1) (2) (1) (2)
ASK (quartile 1) 2,23b – 0,98a – 0,98a
ASB (quartile 1) 22,02b 10,16c 14,11a 14,11a
ASK (quartile 2)
ASB (quartile 2) 19,16a 19,16a 10,59b
ASK (quartile 3)
ASB (quartile 3) 2,63b
ASK (quartile 4)
ASB (quartile 4) 1,10c
Notes : (1) : régression pas à pas ; (2) : régression descendante ; Les coefficients des équations de régression associés aux variables d’actionnariat
salarié sont suivis d’une lettre indiquent leur degré de signification : a significatif au seuil de 1 % ; b significatif au seuil de 5 % ; c significatif au seuil de
10 %.
Source : Trébucq (2003, pp. 11).

TABLEAU 8.21 – Relation actionnariat salarié – performance en fonction


de la taille des entreprises

les quartiles 3 et 4). En revanche, avec des coefficients supérieurs à 10, la présence
d’un actionnariat salarié est une variable liée à un accroissement significatif des ren-
tabilités pour les quartiles 1 et 2. S’agissant de la variable MKCE, la variable ASB dis-
pose d’un coefficient statistiquement significatif de 14,11 pour le premier quartile,
mais seulement de 2,63 et 1,10 respectivement dans les quartiles 3 et 4. On peut
donc estimer que l’influence positive de la présence d’un actionnariat salarié sur la
performance financière s’atténue au fur et à mesure que la taille des entreprises aug-
mente.
Comme nous venons de le voir, dans l’idéal, un travail d’approfondissement
statistique, mené à partir de bases de données communes, pourrait conduire les cher-
cheurs à mieux comprendre les différences se faisant jour entre les études explorant
un même champ de recherche, et à explorer plus avant l’origine des écarts constatés.

4. Conclusion

Les travaux présentés dans ce chapitre montrent l’importance et la sophistica-


tion croissante des efforts engagés par les chercheurs afin d’identifier les relations
pouvant exister entre les données sociales et financières. Mais ils révèlent aussi les
difficultés auxquelles ils se heurtent, lorsqu’il s’agit de dégager des résultats assortis
de conclusions nettes et probantes. Les cas présentés de l’actionnariat salarié d’une
part, et de la performance sociétale d’autre part montrent cependant que l’affinement
progressif des modèles autorisent à tirer d’utiles enseignements. Ainsi, a-t-il été pos-
sible de progresser sensiblement sur une série de questions, notamment en matière de
242 Méthodes de régression et traitement des données financières et sociétales

neutralité de la relation entre performance sociétale et performance financière, de ris-


que des entreprises dotées d’un actionnariat salarié, ou encore de l’influence positive
de l’actionnariat salarié sur la performance financière, l’intensité de cette relation
s’atténuant au fur et à mesure que la taille de l’entreprise augmente.
Il n’en demeure pas moins que compte tenu de la complexité des relations
cherchées et de l’importance des variables de contingence, une mise à jour des rela-
tions entre données sociales et financières gagnerait à s’appuyer sur des recherches
qualitatives et des études de cas. Ce champ de la recherche en sciences de gestion
constitue probablement l’un des plus représentatifs de la complémentarité des appro-
ches et des méthodes.

Bibliographie
Arcimoles (d’) C.-H. (2002), La GRH : moteur du développement durable. In Le dévelop-
pement durable : des enjeux stratégiques pour l’entreprise, Paris, Éditions d’Organisa-
tion.
Arcimoles (d’) C.-H. et Trébucq S. (2002), The Corporate Social Performance Financial
Performance Link : Evidence from France. Conférence Internationale de l’AFFI, Stras-
bourg, 24-26 juin.
Arcimoles (d’) C.-H. et Trébucq S. (2003), Une approche du rôle de l’actionnariat salarié
dans la performance des entreprises françaises. Revue de Gestion des Ressources
Humaines, n° 48, avril-mai-juin, pp. 1-20.
Becker G. et Gerhart B. (1996), The Impact of Human Resource Management on Organi-
zational Performance : Progress and Prospects. Academy of Management Journal, vol.
39, pp. 779-801.
Blasi J., Conte M. et Kruse D. (1996), Employee Stock Ownership and Corporate Perfor-
mance Among Public Companies. Industrial and Labor Review, vol. 50, n° 1, October,
pp. 60-79.
Caroll A.B. (1979), A three dimensional conceptual model of corporate social perfor-
mance. Academy of Management Review, vol. 4, pp. 497-505.
Gond J.-P. (2001), L’éthique est-elle profitable ? Revue Française de Gestion, novembre-
décembre, pp. 77-85.
Gond J.-P. (2003), La mesure de la performance sociale de l’entreprise : une analyse cri-
tique et empirique des données ARESE, papier de recherche.
Harrison J.S. et Freeman R.E. (1999), Stakeholders, Social Responsibility, and
Performance : Empirical Evidence and Theoretical Perspectives. Academy of Manage-
ment Journal, vol. 42, n° 5, pp. 479-485.
Hillman A.J. et Keim G.D. (2001), Shareholder Value, Stakeholder Management, and
Social Issues : What’s the Bottom Line ? Strategic Management Journal, vol. 22,
pp. 125-139.
Ichniowski C., Shaw K. et Prennushi G. (1995), The Impact of Human Resource Manage-
ment Practices on Productivity. WP n° 5333, Cambridge, National Bureau of Economic
Research.
Marquardt D.W. (1970), Generalized Inverses, Ridge Regression and Biased Linear Esti-
mation. Technometrics, vol. 12, pp. 591-612.
Bibliographie 243

McWilliams A. et Siegel D. (2000), Corporate Social Responsability and Financial


Performance : Correlation or Misspecification ? Strategic Management Journal, vol.
21, pp. 603-609.
Prevost A.K., Rao R.P. et Hossain M. (2002), Determinants of board composition in New
Zealand : a simultaneous equations approach. Journal of Empirical Finance, vol. 9,
pp. 373-397.
Tenenhaus M. (1998), Régression PLS Théorie et Pratique, Paris, Éditions Technip.
Trébucq S. (2002), L’actionnariat salarié dans les entreprises familiales du SBF250 : un
outil de création de valeur ? Revue Finance Contrôle Stratégie, vol. 5, n° 4, décembre,
pp. 107-135.
Trébucq S. (2003), Incidence de l’actionnariat salarié sur la performance des entreprises
françaises : un approfondissement des résultats empiriques récents. Document de
recherche. Université Montesquieu Bordeaux IV.
Waddock S.A. et Graves S.B. (1997), The Corporate Social Performance — Financial Per-
formance Link. Strategic Management Journal, vol. 18, n° 4, juin, pp. 303-319.
Wood D.J. (1991), Corporate social performance revisited. Academy of Management
Review, vol. 16, pp. 691-718.
Chapitre 9

Méthodes de développement
d’échelles pour
questionnaires d’enquête
Patrice ROUSSEL 1

Sommaire

1 Le paradigme de Churchill : une méthode classique


de développement d’échelles de questionnaire 247

2 Application de la démarche de développement


d’échelle pour questionnaire 262

3 Conclusion 273

1 L’auteur remercie Saïd Jmel et Stéphane Vautier pour leurs nombreux commentaires et conseils
contribuant à la réalisation de ce chapitre.
246 Méthodes de développement d’échelles pour questionnaires d’enquête

Les sciences de gestion couvrent des domaines de recherche très variés. Néan-
moins, un point commun aux questions de recherche traitées en gestion des ressour-
ces humaines, marketing, management stratégique, finance, contrôle de gestion, etc.,
est d’étudier régulièrement des phénomènes non directement observables. Des con-
cepts tels que la motivation, la satisfaction, l’implication, etc., désignent des phéno-
mènes hypothétiques, supposés influencer l’activité sociale des individus : des
salariés à l’égard de leur organisation, des consommateurs à l’égard de produits ou de
marques, d’actionnaires à l’égard de dirigeants. Ces concepts sont développés dans le
cadre de théories et décrits dans des modèles d’analyse. Cette caractéristique des
phénomènes étudiés non observables dans les sciences de gestion, est également un
point commun aux autres domaines de recherche des sciences sociales, des sciences
humaines ou encore des sciences de la vie.

La mesure de phénomènes non directement observables peut poser à l’évidence


de nombreuses questions méthodologiques. Comment « mesurer un concept » ? Avec
quelle précision ? Est-on certain de ne pas mesurer autre chose ? Pour répondre à ces
questions, des méthodologues comme Likert, Thurstone, Guttman ont dans les
années 1930 développé des techniques de mesure de concepts attitudinaux et plus
largement ont contribué à l’essor de la psychométrie. Leurs travaux ont profondément
influencé la méthodologie de la recherche en améliorant les techniques de développe-
ment d’échelles de questionnaires. Destinées à recueillir des données non directement
observables, elles permettent d’interroger les personnes directement concernées par
le domaine étudié. Un chercheur important des années 1940, 1950 est actuellement
redécouvert. Il s’agit de Paul Lazarsfeld qui a réalisé plusieurs travaux au cours de
cette période sur la notion de variable latente. Psychologue social et mathématicien
américain d’origine autrichienne, Paul Lazarsfeld introduit le concept méthodologique
de structures latentes pour décrire ou modéliser des concepts. Cet apport est fonda-
mental puisque dans les sciences humaines et sociales, les concepts sont difficiles à
observer et nécessitent de poser des hypothèses quant à la définition de leurs carac-
téristiques. Partant d’une définition théorique, il est possible de caractériser le phé-
nomène étudié. Par exemple, le concept d’attitude défini par Ajzen et Fishbein (1977)
distingue trois caractéristiques difficilement observables : les dimensions cognitives,
affectives et normatives. Dès lors, la notion de variable latente est-elle utilisée pour
désigner la variable conceptuelle que l’on cherche à mesurer. Elle correspond à un
construit pour lequel on ne dispose pas de mesures directes. Cette difficulté de la
mesure nécessite de recourir à des variables manifestes appelées aussi variables
observables ou encore indicateurs. Ces indicateurs sont présumés fortement reliés à la
variable latente et permettent alors de mesurer et d’analyser les différentes facettes
du concept étudié (Lazarsfeld, 1950). Ces indicateurs peuvent être, dans l’exemple du
concept de motivation, le degré d’effort consenti pour telle ou telle réalisation (tra-
vail, achat), sa variabilité dans le temps, ses liens perçus avec les performances réali-
sées et des résultats obtenus (récompenses, reconnaissance, etc.). Les indicateurs des
variables latentes sont supposés être les manifestations les plus concrètes du con-
cept. Ce sont eux que les chercheurs tentent de mesurer en construisant des instru-
ments de type échelle d’attitudes.

Ainsi, le chapitre va-t-il être consacré aux méthodes de développement d’ins-


truments de mesure de variables latentes. Il va dans un premier temps rappeler les
Le paradigme de Churchill 247

approches classiques. Elles vont être discutées afin d’en analyser les qualités et limi-
tes. Ce travail critique permettra de proposer de nouvelles approches mieux adaptées
aux conditions de recherche contemporaines. La seconde partie de ce chapitre propo-
sera un exemple mettant en application les nouvelles approches ayant notamment
recours aux méthodes d’équations structurelles.

1. Le paradigme de Churchill : une méthode classique


de développement d’échelles de questionnaire

Churchill présente en 1979 une démarche méthodologique conçue pour déve-


lopper des questionnaires constitués d’échelles multiples d’attitudes. Ses recherches
se situent en marketing mais s’appuient sur les travaux de psychométrie. Nous en pré-
sentons les enjeux et les fondements dans un premier temps. Puis, la méthode sera
exposée avec une mise à jour des techniques utilisées.

1.1 ENJEUX ET FONDEMENTS


Churchill (1979) propose une méthode qu’il qualifie de paradigme méthodolo-
gique pour développer des échelles d’attitudes pour questionnaire d’enquête. L’enjeu
de la méthode est, d’une part, d’anticiper et de réduire les biais que pourraient
engendrer un effet d’instrumentation 2 (effets de halo, de désidérabilité sociale, de
contamination, de polarisation des réponses), d’autre part, de vérifier la validité
interne d’une recherche. Cette qualité est satisfaite lorsque l’on a l’assurance que les
variations des variables explicatives sont les seules à provoquer les variations de
variables à expliquer. Ce test se concentre sur l’évaluation de la fiabilité de cohérence
interne de l’instrument de mesure (quel que soit le contexte, le répondant donnera
des réponses similaires aux items représentant une même variable conceptuelle), sur
celle de la validité convergente (les items représentant les différentes facettes d’une
variable conceptuelle sont corrélées), sur celle de la validité discriminante (les items
représentant une variable conceptuelle permettent d’en donner une mesure claire-
ment distincte de celles d’autres variables conceptuelles).
La démarche méthodologique de Churchill trouve ses fondements dans les tra-
vaux de psychométrie traitant de la théorie de la mesure (Ghiselli, 1964 3 ; Nunnally,
1967) qui étudie le modèle de la vraie valeur (Evrard et al., 1993, pp. 277-278) :
M = V + Es + Ea
Mesure obtenue = Vraie Valeur + Erreur systématique + Erreur aléatoire
Un instrument de mesure doit tendre vers une mesure parfaite du phénomène
étudié, ce que l’on appelle la vraie valeur. Aussi, la méthodologie développée par
Churchill vise-t-elle à réduire deux types d’erreur de mesure qui sont susceptibles de
susciter les biais d’effets d’instrumentation et l’absence de validité. Elle prend appui
sur le modèle de la vraie valeur pour distinguer l’erreur systématique de l’erreur aléa-

2 Cf. Igalens J. et Roussel P. (1998).


3 E.E. Ghiselli (1964), Theory of psychological measurement, NY, McGraw-Hill.
248 Méthodes de développement d’échelles pour questionnaires d’enquête

toire. La première phase de la méthodologie est qualifiée d’exploratoire. Elle est des-
tinée à la réduction de l’erreur aléatoire. Celle-ci provient de l’exposition de
l’instrument de mesure à des « aléas tels que les circonstances, l’humeur des personnes
interrogées… » (Evrard et al., 1993, p. 278). Son objectif est de limiter les réponses
perturbées par des effets notamment de polarisation, de halo, de contamination, etc.
La seconde phase de la méthodologie est qualifiée de phase de validation. Elle est
destinée à la réduction de l’erreur aléatoire, renforçant le travail effectué lors de la
phase exploratoire, et à celle de l’erreur systématique, c’est-à-dire aux biais générés
par la conception même de l’instrument. L’erreur systématique provient généralement
d’une définition non pertinente ou insuffisante des variables conceptuelles et d’une
mauvaise représentation par les items de l’échelle. Dans la figure 9.1 qui représente le
paradigme de Churchill, la phase exploratoire correspond aux quatre premières étapes
de la démarche alors que la phase de validation regroupe les quatre suivantes.

Allant plus loin dans l’analyse du modèle de la vraie valeur, Roehrich (1993) se
réfère à la théorie de l’erreur de mesure de Campbell et O’Connell (1967) 4. Celle-ci
suggère qu’une échelle de mesure qui satisferait aux conditions de validités conver-
gente et discriminante, devrait être moins exposée aux risques d’erreurs systématique
et aléatoire. Elle traite également des problèmes de biais générés par l’instrument de
mesure et des erreurs de représentation des variables conceptuelles qui s’en suivent.
En effet, malgré les faiblesses d’une échelle de mesure, des résultats sont parfois
interprétés, allant dans le sens soit de la vérification, soit de la falsification des hypo-
thèses de la recherche. Or dans ce cas, les résultats trouvés ne sont pas valides et
sont le fruit d’une interaction appelée « construit-méthode ». Kalleberg et Kluegel
(1975) 5 ont montré que l’analyse des corrélations entre les construits n’était pas suf-
fisante pour estimer les qualités de validité interne d’une échelle de mesure (validités
convergente et discriminante). Notamment, ils observent que l’analyse des corréla-
tions ne permet pas de savoir si les résultats obtenus par questionnaire sont influen-
cés par la méthode utilisée (instrument, méthode d’enquête, etc.). En revanche, ils
montrent que les méthodes d’analyse factorielle permettent de mieux isoler les sour-
ces de variance des résultats. Elle permet également d’examiner si les différentes
échelles d’un questionnaire ont la capacité de discriminer plusieurs construits, c’est-
à-dire de les identifier clairement. Ces travaux suggèrent ainsi de généraliser les tech-
niques d’analyse factorielle dans les processus de tests d’échelles pour questionnaires
d’enquêtes.

1.2 MISE EN ŒUVRE ET ACTUALISATION DU PARADIGME DE CHURCHILL

La démarche méthodologique de Churchill distingue deux grandes phases, en


l’occurrence la phase exploratoire et celle de validation. Elles vont permettre de struc-
turer la présentation des huit étapes de la démarche méthodologique. Ce cadre n’est
pas rigide, il est suffisamment souple pour accepter des aménagements et l’introduc-
tion de nouvelles avancées tant en matière méthodologique que de techniques d’ana-
lyse de données. L’actualisation du paradigme de Churchill (1979) s’appuie sur deux

4 in Roehrich (1993).
5 in Roehrich (1993).
Le paradigme de Churchill 249

Coefficients ou techniques recommandées

1. Spécifier le domaine du construit Revue de littérature

Revue de littérature
2. Générer un échantillon d'items
Expérience - enquête
Exemples types
Incidents critiques
3. Collecte de données Entretiens de groupes

Coefficient alpha
4. Purifier l'instrument de mesure
Analyse factorielle

5. Collecte de données

Coefficient alpha
6. Estimer la fiabilité
Fiabilité des deux moitiés

Matrice MultiTraits-MultiMéthodes
7. Estimer la validité
Critère de validité

Moyenne et autres statistiques


8. Développer des normes
résumant la distribution des scores

Source : G.A. Churchill, 1979, p. 64

FIGURE 9.1 – Démarche méthodologique pour développer des échelles de mesure

états de l’art traitant des techniques d’enquête et du traitement des données collec-
tées par questionnaire (Hinkin, 1998 ; Igalens et Roussel, 1998).

Les huit étapes de la démarche méthodologique ne sont pas parfaitement


séquentielles. Elles doivent être abordées comme des séquences itératives (Parasura-
man et al., 1990). En effet, la démarche prévoit des aller et retour entre différentes
phases, permettant des réajustements dans les choix théoriques et méthodologiques
qui sont faits. L’enjeu est de mieux progresser au cours des étapes suivantes. Il est
également possible d’utiliser des techniques et des outils méthodologiques initiale-
ment prévus dans une étape, dans une autre, afin de gagner en efficacité dans le
développement de l’échelle de mesure. Enfin, cette démarche méthodologique a la
capacité d’aider le chercheur ou l’expert dans la conduite de sa recherche ou de son
étude. Elle définit les phases qu’il devra suivre pour mettre en place son dispositif
expérimental.

1.2.1 Les quatre étapes de la phase exploratoire


La phase exploratoire regroupe les étapes de découverte du domaine étudié,
de construction d’une échelle de mesure et de tests de validités de contenu et de
construit.
250 Méthodes de développement d’échelles pour questionnaires d’enquête

A. SPÉCIFIER LE DOMAINE DU CONSTRUIT


La première étape du Paradigme de Churchill est consacrée à la définition du
construit. Méthodologiquement on peut s’appuyer sur les recommandations de Wal-
lace (1983) et utiliser une ou plusieurs des trois approches possibles qu’il a identi-
fiées. En premier lieu, la réalisation d’un design exploratoire consiste à effectuer une
revue de littérature exhaustive et actualisée afin de se familiariser avec le concept et
d’en maîtriser les définitions et les caractéristiques. En second lieu, la réalisation
d’études de cas permet de confronter les connaissances théoriques aux observations
du terrain. Les méthodes d’entretien peuvent être largement mobilisées pour appré-
cier la pertinence des modèles théoriques et leurs insuffisances (capacité des con-
cepts à appréhender les phénomènes étudiés, définitions adaptées). En vue de
l’élaboration d’un questionnaire, cette phase permet également de mieux cerner le
type de langage qui est employé sur le terrain par les participants potentiels à une
enquête. La rédaction des items en sera ainsi facilitée. Enfin, la conception d’un
design taxinomique a pour but de classer les courants théoriques qui ont étudié le
phénomène analysé. Ce travail permet de comparer les apports et les limites de cha-
cun d’eux et leur pertinence au regard du thème étudié. Puis, on s’inscrit dans l’un
d’eux en justifiant ce choix pour élaborer un modèle théorique approprié à la défini-
tion du concept, ou encore, on peut associer plusieurs d’entre eux afin d’élaborer un
modèle intégré. Ces différentes techniques conduiront à proposer une définition pré-
cise, rigoureuse et pertinente du concept, en mettant en exergue ses différentes
caractéristiques ou facettes.

B. GÉNÉRER UN ÉCHANTILLON D’ITEMS


Cette deuxième étape est consacrée à l’élaboration de l’échelle de mesure du
concept et au test de validité de contenu. Le principe consiste à générer le plus grand
nombre possible d’énoncés aptes à saisir les différentes caractéristiques du concept.
Deux approches peuvent être envisagées : déductive ou inductive. Le choix dépend du
résultat obtenu lors de la précédente étape.

Approche déductive
Lorsque les travaux théoriques procurent assez de connaissances sur le phéno-
mène étudié et posent des bases théoriques intellectuellement cohérentes et empiri-
quement pertinentes (en fonction des entretiens et études de cas réalisés
précédemment, ou des travaux publiés dans les revues scientifiques), l’approche
déductive est souhaitable. Dans ce cas, la définition du concept et de ses caractéristi-
ques va guider la création des items. La phase de génération des items doit égale-
ment s’appuyer sur une revue de littérature exhaustive des échelles créées pour
mesurer le concept étudié. Le but est d’identifier toutes les échelles qui ont été cons-
truites et testées par d’autres chercheurs, puis de procéder à une analyse comparative
afin de s’en inspirer ou de s’en écarter dans la rédaction des énoncés.

Approche inductive
Inversement, lorsque les fondements théoriques sont insuffisants et ne procu-
rent ni une bonne compréhension du phénomène étudié, ni une définition précise des
facettes du concept, l’approche inductive est souhaitable. Dans ce cas, il est néces-
Le paradigme de Churchill 251

saire d’interroger des répondants appartenant à la population concernée par le phé-


nomène étudié (salariés, représentants syndicaux, responsables et consultants en
ressources humaines pour un thème en GRH). Les techniques d’enquête qualitatives
sont utilisées afin de demander aux répondants de décrire leurs sentiments à l’égard
du domaine étudié (l’organisation du travail, les comportements organisationnels).
Les entretiens sont retranscrits verbatim et traités par analyse de contenu basée sur
les mots clés ou les thèmes principaux (cf. partie sur les méthodes qualitatives). Par-
fois, la technique du Q-Sort est utilisée (cf. chapitre 7). Quelle que soit la technique
de collecte et de traitement des données choisie, les réponses sont regroupées en
catégories et des items sont générés pour en donner une représentation.

Rédaction des items


Quelques recommandations classiques sont reprises. La rédaction des énoncés
doit être simple et aussi courte que possible. Le langage adopté doit être familier aux
répondants de l’échantillon cible. Il faut générer un maximum d’items cohérents avec
les différentes facettes du concept étudié. Il faut écarter ceux qui mesurent autre
chose que des attitudes, des intentions ou des comportements, comme des opinions
ou des affects généraux. Chaque énoncé doit traiter d’un seul problème. Il faut donc
écarter les items ayant une double idée, et éviter l’usage de « et », « ou », « de
plus », etc. Il est prudent d’éviter les items traitant d’idées « vedettes » pouvant
entraîner des biais de désidérabilité sociale et peu de variance dans les réponses. Les
items représentant une même facette du concept doivent être rédigés différemment
afin d’éviter les réponses similaires et l’absence de variance ou encore l’augmentation
artificielle des indices de fiabilité de cohérence interne. Par ailleurs l’introduction de
quelques items inversés ou négatifs, dispersés aléatoirement dans le questionnaire
peut être faite de façon parcimonieuse, en prenant soin d’éviter les problèmes d’inter-
prétation des énoncés.

Les formats des modalités de réponse


Il s’agit de définir le type de modalités de réponse et le nombre d’échelons de
l’échelle (ou degrés), c’est-à-dire le nombre de possibilités de réponses données aux
répondants. Deux types de modalités de réponses sont le plus souvent utilisés. Le pre-
mier est l’échelle de Likert qui propose généralement 5 ou 7 modalités de réponse sur
un continuum allant de « Tout à fait en désaccord » à « Tout à fait d’accord ». Le
second est l’échelle d’intervalle à support sémantique qui propose de 4 à 9 échelons.
Les supports sémantiques utilisés sur ces continuums sont très variés et sont choisis
au cas par cas (échelle ad hoc). À titre d’exemple, on rencontre des échelles à modali-
tés de réponse du type « Jamais » à « Toujours », ou « Extrêmement mauvais » à
« Excellent », « Beaucoup diminué » à « Beaucoup augmenté », etc. Le choix de ces
modalités de réponse exige généralement de rédiger les items sous forme affirmative,
et non, interrogative. Cette technique permet au répondant de se situer par rapport à
une affirmation au lieu d’être interrogé frontalement par rapport à ses choix person-
nels. Ainsi, le choix du format de modalités de réponse va-t-il influencer la rédaction
des items.
De nombreux débats ont eut lieu sur le nombre optimal d’échelons (degrés)
qu’il fallait adopter pour une échelle ; 5, 7 ou 9 étant les plus souvent discutés.
252 Méthodes de développement d’échelles pour questionnaires d’enquête

L’échelle de Likert 6 optait initialement pour 5 échelons avec un point neutre sur le
continuum intitulé « ni d’accord, ni pas d’accord ». Il est devenu ultérieurement
« indécis » ou « ni d’accord, ni en désaccord ». La question du nombre d’échelons est
d’importance car plus le nombre augmente, plus la variance des réponses peut être
importante et par conséquent, plus l’échelle peut se rapprocher des qualités des
échelles d’intervalle, c’est-à-dire, des échelles permettant de représenter des variables
métriques 7. En contrepartie, l’augmentation du nombre d’échelons conduit à solliciter
davantage les capacités cognitives, d’endurance et de concentration des répondants.
Les biais d’effets de halo, de mortalité expérimentale ou l’importance des non-répon-
ses peuvent être accentués. Il n’existe donc pas de solutions idéales. Une approche
pragmatique consisterait à recommander des échelles en 5 points lorsque les ques-
tionnaires sont longs (plus de 60 items à titre indicatif), et en 7 ou 9 points dans le
cas inverse.

Le nombre d’items dans l’échelle


Une préoccupation du concepteur de l’échelle est à cet instant de connaître le
nombre optimal d’items à retenir. Il existe des recommandations empiriques qui peu-
vent l’aider :
■ La longueur totale d’un questionnaire : l’échelle construite pour mesurer un
concept va être probablement introduite dans un questionnaire plus vaste où
plusieurs variables vont être étudiées simultanément. Au-delà de 100 items,
un questionnaire devient lourd à administrer et s’expose davantage aux risques
de biais (effets de halo, de contamination, de polarisation des réponses, don-
nées manquantes). Dans ce cas, une échelle composée de 60 ou de 80 énoncés
destinée à mesurer un seul concept risquerait d’être beaucoup trop longue et
détériorerait la mesure des autres variables.
■ Le nombre de dimensions du concept : si la définition du concept conduit à en
identifier plusieurs, l’échelle devra comporter autant de sous échelles que de
dimensions ; celles-ci devant correspondre aux caractéristiques principales
déterminées de façon théorique ou empirique.
■ Le nombre d’items par dimension du concept : à chaque dimension du concept
doit correspondre une sous échelle et à chacune d’elle un certain nombre
d’items. Ce nombre dépendra de deux facteurs. Premièrement, la complexité de
chaque dimension du concept impliquera de multiplier les énoncés pour bien
la représenter. Deuxièmement, des techniques d’analyse de données telles que
la fiabilité de cohérence interne avec l’alpha de Cronbach s’avèrent plus effica-
ces lorsque le nombre d’énoncés s’accroît. La stratégie consiste alors à générer
environ 6 à 8 items par dimension du concept à ce stade de la phase explora-
toire. Nous verrons que pendant les autres étapes, des items vont être proba-

6 Likert, R. (1932). A technique for the measurement of attitudes. Archives of Pyschology,


vol. 140, p. 1-55.
7 Les échelles de type Likert et supports sémantiques sont de type ordinal. Elles mesurent par con-
séquent des variables non métriques. Néanmoins, il est accepté dans l’analyse de données en scien-
ces sociales de les traiter comme des échelles d’intervalle et des variables métriques. Par ailleurs, les
méthodes adaptées au traitement de données ordinales exigent de très grands échantillons rarement
réunis dans les recherches du domaine (cf. méthode WLS dans Lisrel, Roussel et al., 2002).
Le paradigme de Churchill 253

blement éliminés avec les tests de Cronbach, mais également avec l’analyse
factorielle. Il est recommandé empiriquement de retenir in fine quatre à cinq
énoncés minimum dans chaque sous échelle. Techniquement et mathématique-
ment, des sous échelles à un, deux ou trois items sont défendables, mais au
risque d’avoir de faibles niveaux de cohérence interne et une mauvaise struc-
ture factorielle. Néanmoins, si l’utilisateur de l’échelle envisage d’effectuer des
traitements statistiques avec des méthodes d’équations structurelles et une
technique d’agrégation d’items (Parceling, cf. chapitre suivant), il sera alors
souhaitable de sélectionner in fine 6 items par facette du concept. Cela facili-
tera la construction des indicateurs dont les qualités métriques devraient être
satisfaisantes. Par conséquent, dans cette perspective, il est souhaitable de
générer 10 à 12 items dans la phase exploratoire. Certains de ces items seront
éliminés au cours du test de validité de contenu, puis de validité de construit.

Évaluation de la validité de contenu

Ce test consiste à éliminer les items conceptuellement incohérents avec les


définitions retenues des construits. Il nécessite de recourir au jugement des auteurs
et des évaluateurs de l’échelle en cours de construction. Un premier tri peut être
opéré à l’issue d’échanges avec des pairs, tels que des collègues travaillant sur le
domaine étudié ou rompu à l’exercice de la rédaction d’énoncés de questionnaires.
Puis, il est nécessaire de faire appel à différentes techniques d’entretien pour tester
le niveau de compréhension des questions : entretiens de groupes, entretiens indivi-
duels directifs ou semi-directifs, etc. Il est alors vérifié le degré de compréhension
des items, de représentativité du phénomène étudié, de cohérence avec les défini-
tions retenues du concept. Le travail le plus complexe est alors de résoudre
l’équation :pertinence de l’item pour représenter le concept, et, facilité de compré-
hension par les participants potentiels à l’enquête. En dépendront alors le taux de
retour des questionnaires et la réduction des biais (effets de halo, de contamination,
etc.).

Au cours de cette phase, un premier travail de condensation de l’échelle


débute. Le test de validité de contenu conduit à éliminer les items les moins bien
rédigés, les moins représentatifs de la définition du concept, les plus ambiguës, et les
plus redondants. Le but recherché est d’optimiser le taux de réponse tout en conser-
vant une excellente mesure du construit.

Au cours de cette phase, au moins deux pré-enquêtes doivent être conduites


par techniques d’entretien. La première est réalisée auprès des pairs et des experts, la
seconde auprès d’un échantillon test de la population qui est l’objet de l’étude. Dans
les deux cas, il est généralement conseillé de réunir des échantillons de 10 à
30 personnes. Le questionnaire est soumis en face à face afin d’observer le comporte-
ment du répondant à chaque question. Toute gêne observée doit pousser l’enquêteur
à interroger le participant sur l’item concerné. Il est possible d’arrêter la série
d’entretiens avant même de réunir 10 personnes lorsque l’on observe un effet de satu-
ration. Il se produit lorsque toutes les critiques émises par les participants reviennent
régulièrement au fur et à mesure des entretiens. Si le chercheur a la conviction de ne
plus progresser dans l’amélioration de son échelle, il peut passer à l’étape suivante.
254 Méthodes de développement d’échelles pour questionnaires d’enquête

C. LA COLLECTE DE DONNÉES
La collecte de données pose des questions ayant trait aux choix de la techni-
que d’enquête, de la taille de l’échantillon pour tester le questionnaire, et du terrain
d’enquête.

Le mode d’administration du questionnaire


Cinq méthodes sont distinguées pour réaliser l’administration d’un question-
naire, en l’occurrence l’enquête : en face à face, auto-administrée en contact direct,
par voie postale, par téléphone, ou par internet.
■ L’enquête en face à face peut être très efficace au regard du critère du taux de
réponse. En revanche, pour réunir un large échantillon, il est nécessaire soit
d’étaler dans le temps la réalisation des entretiens, au risque de subir des biais
d’effet d’histoire (modification du contexte de la population étudiée), soit de
travailler avec un groupe d’enquêteurs. Cette seconde solution exige de former
une équipe d’enquêteurs à des techniques de passation du questionnaire iden-
tiques et au même niveau de rigueur afin de créer des conditions d’administra-
tion du questionnaire les plus homogènes possibles.
■ Le questionnaire auto-administré en contact direct permet de limiter l’équipe
d’enquêteurs et son influence sur la passation des échelles. L’organisation
logistique en est facilitée et son coût réduit. Dans ce cas, le formulaire
d’enquête est remis directement aux participants. Une explication est donnée
oralement sur les objectifs de l’enquête, son intérêt et sur la méthode de rem-
plissage du formulaire. Les participants remplissent le questionnaire de façon
autonome. Cette solution permet à l’enquêteur de rencontrer des groupes de
participants et de leur proposer un rendez-vous pour recueillir les formulaires
remplis, ainsi que leur impression d’ensemble. En GRH, ce mode d’administra-
tion est utile pour rencontrer des salariés en formation continue, ou lors de
réunions de groupes de projet.
■ L’enquête par voie postale est une méthode couramment pratiquée dans les
sciences de gestion où l’on dispose de fichiers d’entreprises, de dirigeants, de
salariés ou de consommateurs. Elle exige une infrastructure logistique
importante : adresse d’expédition incitatrice et transparente, moyens matériels
et humains pour gérer une enquête postale, moyens financiers pour supporter
les frais d’envois, de relances (par téléphone ou par courrier) et d’expédition
du rapport d’enquête aux participants demandeurs. Enfin, il faut acquérir un
fichier d’adresses actualisé, « propre » et en adéquation avec la population
étudiée.
■ Les enquêtes par téléphone ne sont pas extrêmement répandues en gestion
des ressources humaines, mais sont beaucoup plus fréquentes en marketing.
Des études sur la satisfaction à l’égard de la rémunération (Berkowitz et al.,
1987) et sur l’impact de la culture organisationnelle sur l’implication (Dubost
et al., 2000) sont quelques exemples récents. Néanmoins, la difficulté d’obte-
nir des réponses fiables, de passer des échelles d’attitudes à cinq ou sept
modalités de réponse et son coût financier sont des freins à l’usage de cette
technique d’enquête.
Le paradigme de Churchill 255

■ Enfin, les enquêtes par internet se développent actuellement. L’une des pre-
mières expériences françaises en GRH a été conduite par Cerdin (1996) qui
étudiait les salariés expatriés. Malgré l’aspect séduisant du support et son
potentiel immense pour contacter des participants, il faut être conscient des
difficultés logistiques et humaines inhérentes. Elles sont multiples : qualité du
fichier d’adresses courriel, identification du site internet organisateur par les
internautes, motivation des internautes, sélection des participants, représen-
tativité de cet échantillon et adéquation avec le sujet d’étude, coût d’acquisi-
tion d’un logiciel de saisie automatique des réponses, etc.

La taille d’échantillon
La question de la taille d’échantillon fait partie intégrante de la réflexion sur
le choix d’une technique d’enquête. Les techniques statistiques d’échantillonnage
sont connues et souvent présentées dans les ouvrages de méthodes de recherche (ex.
Evrard et al., 1993). Cependant l’observation des recherches empiriques montre un
décalage entre les recommandations et la pratique. L’application des techniques les
plus rigoureuses (sondages aléatoires, méthode des quotas) est finalement assez rare
dans certains domaines des sciences de gestion. Le plus souvent, les recherches
s’appuient sur des échantillons de convenance où le chercheur contacte toutes les
personnes qui lui sont accessibles dans la mesure où elles correspondent à la défini-
tion précise de la population étudiée et permettent de créer un échantillon homogène
au regard de critères clés (ex. salariés du public versus du privé, de PME versus de
grandes entreprises, de secteurs d’activité comparables, etc.). Les recherches publiées
dans les revues scientifiques n’échappent pas à cette observation. Même lorsque les
échantillons sont très importants, de 1000 ou 3000 personnes, voire davantage, la
représentativité n’est par garantie. Un « pari » est finalement pris sur la qualité de
l’échantillon et des données collectées. Néanmoins une décision doit être prise pour
réaliser l’enquête.
Elle dépend bien souvent du choix des techniques d’analyse des données choi-
sies pour effectuer les tests des échelles. Dans le paradigme de Churchill, c’est l’ana-
lyse factorielle (AF) qui jouit de cette influence. Les pratiques observées par Igalens
et Roussel (1998) montrent qu’il existe des marges de manœuvre selon la rigueur que
l’enquêteur s’impose. La taille de l’échantillon doit réunir de 5 à 10 fois plus d’indivi-
dus qu’il n’y a d’items soumis à une même analyse factorielle. Pour être précis, il faut
considérer l’échelle du questionnaire qui est composée du plus grand nombre d’items.
Par exemple, si un questionnaire de 100 items réunit des échelles de motivation,
d’implication et de perception de la culture d’entreprise, il n’y a probablement pas de
raisons théoriques de les traiter toutes simultanément. Si l’échelle la plus importante
est celle de la culture d’entreprise avec 54 items par exemple, la taille de l’échantillon
variera entre : 5 x 54 et 10 x 54, soit entre 270 et 540 individus. Pedhazur et Pedha-
zur Schmelkin (1991) signalent des recherches empiriques qui se sont contentées
d’échantillons de 150 personnes pour des analyses factorielles sur 40 items. Il est
nécessaire de prendre du recul par rapport à ces préconisations normatives. En effet,
un échantillon de 150 individus est exceptionnel lorsqu’il s’agit d’enquêter sur les
présidents directeurs généraux des 500 premières entreprises françaises. Il sera pro-
bablement bon si le test porte sur une population homogène : les agents de maîtrise
256 Méthodes de développement d’échelles pour questionnaires d’enquête

des grandes entreprises du secteur automobile. Il sera probablement critiqué pour une
population hétérogène de non cadres des secteurs de l’industrie.
Enfin, l’usage de plus en plus répandu de l’analyse factorielle confirmatoire
(AFC) 8 conduit à réunir des échantillons d’au moins 200 individus. Cette norme
devrait être adoptée si l’utilisation de cette méthode d’équations structurelles est
envisagée dans la phase de validation. Néanmoins, pour traiter des échantillons d’une
population de faible importance, par exemple les responsables de ressources humai-
nes des banques généralistes françaises, cette norme pourrait devenir une contrainte.
Il existe alors des techniques du type test de Bootstrap (cf. chapitre de F. Durrieu et
P. Valette-Florence) qui permettent de traiter de petits échantillons d’environ 80 indi-
vidus. Ce cas de figure doit néanmoins répondre à une situation particulière : la faible
importance de la population étudiée.

D. PURIFIER L’INSTRUMENT DE MESURE


La phase exploratoire de développement d’une échelle se termine, dans le
paradigme de Churchill, par la purification de l’instrument de mesure (Figure 9.2). Elle
est réalisée selon une démarche par itérations qui vise à condenser les échelles du
questionnaire par élimination des items qui en réduisent les qualités métriques. La
procédure dite d’épuration a alors pour finalité de réduire l’erreur aléatoire de la
mesure des variables conceptuelles étudiées.
La première itération consiste à soumettre une échelle de questionnaire suc-
cessivement aux tests de fiabilité de cohérence interne et de validité de construit. Le
premier est effectué à l’aide du coefficient alpha de Cronbach, le second avec l’ana-
lyse factorielle, souvent de type « analyse en composantes principales » (ACP). Selon
les résultats obtenus, des items peuvent être éliminés. Il s’ensuit alors une seconde
itération sur l’échelle modifiée après le retrait d’items. Les mêmes traitements statis-
tiques sont effectués au cours d’une deuxième itération voire d’une troisième et par-
fois davantage. L’objectif vise à établir les qualités métriques des échelles en termes
de fiabilité de cohérence interne et de validité de construit. Seuls sont conservés les
items contribuant à un niveau satisfaisant de fiabilité de cohérence interne de
l’échelle (alpha supérieur à 0,70) et de validité de construit (échelle satisfaisant aux
tests de validité convergente et discriminante) 9.

Analyse critique de la démarche de Churchill


La démarche de Churchill présente plusieurs aspects qui ont été remis en cause
ultérieurement, au point qu’aujourd’hui on peut rencontrer plusieurs approches alter-
natives.
En premier lieu, la démarche initiale de Churchill suppose que l’on ait une très
bonne maîtrise de la théorie qui sous-tend l’échelle développée. Le concept est bien
analysé et défini. Ses caractéristiques semblent parfaitement connues d’un point de
vue théorique. Il s’agit alors de vérifier si elles sont correctement capturées par

8 Par opposition, les analyses factorielles (en axes principaux, en composantes principales, par
maximum de vraisemblance) utilisées dans les phases initiales d’une recherche sont appelées Analy-
ses Factorielles Exploratoires (AFE).
9 Pour des exemples d’application, voir Parasuraman et al. (1990) et Roussel (1996).
Le paradigme de Churchill 257

Itérations successives jusqu’à


la réalisation de tests de fiabilité et
de validité de construit satisfaisants

1re étape : test de fiabilité de cohérence élimination d’items en cas de faible


interne de Cronbach niveau du coefficient alpha de Cronbach

2e étape : analyse de la structure factorielle élimination d’items en cas de structure


par analyse factorielle exploratoire factorielle et de validité de construit
médiocres

FIGURE 9.2 – Les itérations dans l’approche initiale de Churchill

l’échelle développée. Dans ce cas, la démarche est purement hypothéticodéductive. Le


concepteur de l’échelle souhaite vérifier la qualité de fiabilité de cohérence interne de
l’instrument et ses hypothèses quant à la structure factorielle du construit. L’analyse
factorielle est donc mise en œuvre dans un second temps, après le test de fiabilité de
Cronbach. Elle est destinée à vérifier que les dimensions du concept sont clairement
identifiées par des facteurs communs bien distincts répondant aux critères de validi-
tés convergente et discriminante. Or, de nombreuses recherches sont confrontées à
l’incertitude quant aux fondements théoriques d’un modèle d’analyse et aux caracté-
ristiques d’un concept à mesurer. D’autres ne parviennent pas à identifier les structu-
res factorielles de concepts observées par les auteurs de recherches antérieures sur le
même domaine, mais souvent testées sur des échantillons très différents. L’analyse
factorielle exploratoire est finalement devenue progressivement la technique mobili-
sée dans les premières phases du traitement des données. Le test de Cronbach inter-
vient alors dans un second temps. Cette inversion apparaît souvent nécessaire et
s’accommode fort bien de la démarche de Churchill.
En second lieu, la critique porte sur la démarche qui est utilisée pour établir
des scores individuels sur une échelle d’un concept. La vérification de l’homogénéité
de l’échelle par des tests de fiabilité de cohérence interne et de la validité de cons-
truit, donne la possibilité d’établir des scores individuels. Ils se calculent en faisant
la somme totale ou la moyenne des réponses d’une personne aux items de l’échelle. Le
calcul d’un score dépend par conséquent de la technique d’agrégation d’items qui est
choisie. Ce score est calculé au niveau soit de l’échelle globale, soit de chaque dimen-
sion du concept. L’objectif consiste dans ce cas à créer une information de nature sta-
tistique pour effectuer des tests mettant en relation ce concept avec d’autres. À titre
d’exemple, si l’on teste une échelle d’implication de Allen et Meyer (1991) avec ses
trois dimensions conceptuelles (implications normative, continue-calculée, affective),
il devient possible, pour chaque individu d’un échantillon, de calculer son score sur
chacune des sous échelles. Dans une analyse de plus grande ampleur, ces scores per-
mettent de confronter, à l’aide d’analyses de régression, le concept d’implication et
258 Méthodes de développement d’échelles pour questionnaires d’enquête

ses différentes facettes, à d’autres concepts tels que la satisfaction au travail, la


motivation au travail, le contrat psychologique, le stress professionnel, etc.
Une autre critique porte sur l’utilisation courante de l’analyse en composantes
principales (ACP) par les utilisateurs de ce type de démarche méthodologique, en lieu
et place de l’analyse factorielle (en facteurs communs et uniques). L’ACP est utilisée
comme une approximation de l’analyse factorielle. Cependant, les résultats de cette
analyse permettent d’extraire uniquement des groupes de variables et non des fac-
teurs latents, en raison de plusieurs limites inhérentes à cette technique (Falissard,
1999). En effet, les variables traitées (items d’un questionnaire) sont considérées
comme des variables manifestes. Elles sont considérées comme directement et entiè-
rement observables car l’ACP ne calcule pas d’estimation d’erreurs de mesure. En con-
séquence, cette technique, d’une part, sur-évalue les saturations (contributions
factorielles) et les communautés (variance expliquée des variables par les facteurs
communs), d’autre part, sous-évalue les corrélations entre les facteurs (Fabrigar et
al., 1999). Ce dernier point est d’importance car lorsqu’une rotation orthogonale est
effectuée avec l’ACP, la rotation varimax étant la plus courante, les composantes prin-
cipales ne sont généralement pas indépendantes (Falissard, 1999 ; Joliffe, 2002). De
nombreuses études récentes dans les domaines de la statistique et de l’analyse des
données encouragent à utiliser exclusivement l’analyse factorielle lorsque l’objectif
est de construire un modèle linéaire avec variables latentes (ex. Preacher et MacCal-
lum, 2003 ; Falissard, 2001 ; Nunnally et Bernstein, 1994 ; Tabacnick et Fidell, 1996 ;
Kop et Tournois, 1996). L’analyse factorielle dite en axes principaux ou en facteurs
principaux est particulièrement recommandée (MacCallum et al., 1999). C’est une
technique itérative qui permet d’identifier le nombre de facteurs communs, puis les
saturations des items sur chaque facteur. Techniquement, elle tient compte de l’esti-
mation des erreurs de mesure, en ne considérant que la communauté 10. Elle ne
s’expose pas aux limites de l’ACP, et par conséquent ne sur-évalue pas les saturations
et les communautés, ne sous-évalue pas les corrélations entre les facteurs, et ces der-
niers sont toujours indépendants après une rotation orthogonale.
Pour exécuter une analyse factorielle en axes principaux avec un logiciel d’ana-
lyse de données, il suffit de remplacer la procédure par défaut qui est celle de l’ACP
(comme dans le logiciel SPSS), par celle de l’analyse factorielle en axes principaux.
Une autre critique qui est portée à l’endroit de la démarche de Churchill est
liée à la précédente. Si l’analyse factorielle confirmatoire est envisagée au cours de
l’étude, l’objectif de calcul des scores individuels sur chaque sous échelle n’est plus
adapté (ou à de rares exceptions près). Les modèles d’équations structurelles auxquels
il est ici fait référence recourent parfois à la construction de plusieurs agrégats pour
chaque facette du construit (Figure 9.3). Ces agrégats sont utilisés comme indica-
teurs de la variable latente. Ils sont calculés comme dans le cas précédent : pour cha-
que individu de l’échantillon, soit par la somme des scores aux items, soit par leur
moyenne. Les travaux récents (cf. le chapitre suivant) conduisent à recommander de

10 En analyse factorielle, la variance d’un item (ou d’une variable) se décompose de deux parties :
la communauté qui représente la variance expliquée de chaque item par les facteurs communs, et
l’unicité qui prend en charge la spécificité de l’item et sa variance d’erreur. L’ACP quant à elle, consi-
dère la variance totale sans faire cette distinction.
Le paradigme de Churchill 259

δ1 X1

δ2 X2 Implication
affective

δ3 X3

δ4 X4

δ5 X5 Implication
calculée

δ6 X6

δ7 X7

δ8 X8 Implication
normative

δ9 X9

N.B. la variable delta correspond à l’estimation de l’erreur de mesure qui est effectuée dans toute analyse factorielle confirmatoire.

FIGURE 9.3 – Objectif de l’agrégation d’items – La construction d’indicateurs


de variables latentes
construire au minimum 3 indicateurs pour chaque variable latente, chaque indicateur
devant être le score moyen ou la somme totale d’au minimum 2 items. Par consé-
quent, chaque facteur devrait être composé d’un minimum de 6 items. L’illustration
suivante (Figure 9.3) permet de visualiser l’enjeu de la méthode. Cette technique est
connue sous le nom de parceling (construction d’indicateurs agrégats d’items). Dans
ce schéma, l’exemple du modèle de mesure de l’implication au sens d’Allen et Meyer
est repris. Chacune des trois dimensions ou facettes du concept est spécifiée comme
variable latente (figurée par une forme ovale). Elle représente un facteur commun de
plusieurs variables observables Xi. Ces variables observables 11 (représentées par des
rectangles ou carrés) correspondent à des agrégats de scores d’items issus de l’échelle
d’implication à 18 énoncés. La technique d’agrégation supposée optimale exige de
spécifier trois indicateurs Xi par variable latente. Cela suppose qu’en amont, l’analyse
factorielle exploratoire (en axes principaux) retienne suffisamment d’items pour cons-
truire des indicateurs. Il est souhaitable de sélectionner au moins 6 items par facette
du construit afin de composer trois agrégats de 2 items. Ainsi est-il possible de cons-
tituer un modèle de mesure à 3 indicateurs par variable latente.
Un autre cas de figure consisterait à tester l’échelle uniquement dans un but
d’éprouver la théorie qui sous-tend le concept, en procédant à des tests de validité de
construit. La technique d’agrégation des items en indicateurs n’est pas nécessaire
dans ce cas. La figure 9.3 devrait reporter autant d’indicateurs qu’il n’y a d’items dans
l’échelle, soit 18 dans l’exemple utilisé sur l’implication.

11 Appelées également indicateurs ou variables manifestes.


260 Méthodes de développement d’échelles pour questionnaires d’enquête

Actualisation de la démarche de Churchill


À partir des analyses précédentes, nous proposons un schéma qui permet de
prendre des décisions en matière de démarche d’épuration d’une échelle selon les
principaux cas de figure rencontrés dans une recherche ou dans une enquête par ques-
tionnaire (Figure 9.4). Pour choisir une démarche méthodologique, il est suggéré de
réfléchir au préalable au niveau de connaissance de la structure factorielle de
l’échelle du concept étudié. En fonction de cette analyse, la figure 9.4 montre les dif-
férentes approches offertes au concepteur d’une échelle d’attitude.

1.2.2 La phase de validation


Les quatre dernières étapes du paradigme de Churchill forment la phase de
validation appelée parfois phase confirmatoire de la recherche. Au préalable, le con-
cepteur d’un questionnaire analyse l’ensemble des résultats de la phase exploratoire
pour procéder à l’élimination de certains items, à la modification de certains autres,
voire à l’adjonction de nouveaux énoncés. En phase confirmatoire, la version modifiée
du questionnaire est soumise de nouveau aux tests de fiabilité et de validité. Ici le
paradigme de Churchill connaît de nouveau des transformations. En effet, la techni-
que d’analyse factorielle confirmatoire citée précédemment (Figure 9.4) est utilisée
au cours de cette phase.
Alors que l’objectif de la phase exploratoire était de réduire l’exposition de
l’échelle au risque d’erreur aléatoire, il est poursuivi en phase de validation. Il est
complété par celui de la réduction du risque d’erreur systématique. Ce risque dépend
de la qualité de la conception des échelles et peut être évalué et réduit en reprodui-
sant les tests de fiabilité et de validité sur de nouveaux échantillons.

A. LA COLLECTE DE DONNÉES
Les conditions de collecte de données demeurent identiques à celles de la troi-
sième étape de la phase exploratoire. Cependant, il est possible de changer de mode
de recueil des données entre les phases exploratoire et de validation à condition que
l’on ait observé précédemment des problèmes de biais importants ou d’inefficacité de
la méthode.
De plus, si le test de fiabilité retenu est celui de l’alpha de Cronbach, il est
souhaitable de réunir un nouvel échantillon. Les résultats obtenus permettront
d’apprécier la stabilité de la fiabilité. Mais également, la stabilité de la structure fac-
torielle pourra être évaluée en la testant de nouveau par analyse factorielle explora-
toire.

B. ESTIMER LA FIABILITÉ ET LA VALIDITÉ


En se référant à la figure 9.4, plusieurs situations peuvent se produire. Cela
nécessite de procéder en premier lieu soit au test de fiabilité (alpha de Cronbach),
soit au test de validité (analyse factorielle en axes principaux ou en composantes
principales). La procédure se fait par itération et vise à épurer les items qui entrave-
raient les qualités de cohérence interne et de validité de construit. Le même type
d’analyse qu’en phase exploratoire est reproduit.
Le paradigme de Churchill 261

Niveau de connaissance de la structure factorielle


de l’échelle du concept étudié

élevé faible

Démarche de Churchill Objectif de calcul de scores Objectif de calcul de scores


individuels sur chaque dimension individuels pour chaque
de l’échelle pour effectuer des indicateur en vue
traitements d’analyse de données d’effectuer des traitements
Test de fiabilité de type première génération d’analyse de données de
de cohérence interne (régression) seconde génération
(modèles d’équations
structurelles)
Analyse factorielle Analyse factorielle exploratoire
exploratoire (ACP ou autre technique)
Analyse factorielle
exploratoire en axes
Itérations successives principaux
de ces deux analyses Test de fiabilité de cohérence
pour épurer l’échelle interne
Test de fiabilité
de cohérence interne

FIGURE 9.4 – Les étapes de la phase exploratoire d’épuration d’une échelle

D’autres analyses peuvent intervenir en phase de validation. La démarche


méthodologique de Churchill préconise l’utilisation de la matrice MultiTraits-MultiMé-
thodes (MTMM) de Campbell et Fiske (1959). Elle nécessite d’utiliser deux instruments
de mesure différents du concept étudié pour effectuer les tests de validité conver-
gente et discriminante. Cette technique exige par conséquent d’alourdir le question-
naire. Aussi, les techniques d’analyse factorielle, plus flexibles, demeurent-elles les
plus utilisées, quoique non interchangeables. De plus, l’émergence des analyses facto-
rielles confirmatoires renouvelle la démarche de Churchill et peuvent être intégrées au
cours de cette étape.

C. DÉVELOPPER DES NORMES

La dernière étape du paradigme de Churchill vise à établir les principales nor-


mes statistiques des échelles. Elle ne peut intervenir tant que la fiabilité et la validité
du questionnaire ne sont pas vérifiées. Lorsque ces conditions sont réunies, il devient
possible d’agréger les items constituant chaque échelle pour établir des scores par
individu et par variable conceptuelle. Les normes calculées sont généralement la
moyenne et l’écart type. D’autres statistiques descriptives sont plus rarement utilisées
(médiane, mode, etc.). Selon le type d’échantillon et l’utilité des normes, le calcul des
scores peut être effectué par catégorie de salariés (sexe, ancienneté, catégories
socioprofessionnelles) ou d’entreprises (taille, effectif, branche d’activité, structure,
…).
262 Méthodes de développement d’échelles pour questionnaires d’enquête

2. Application de la démarche de développement


d’échelle pour questionnaire

L’application de la démarche de Churchill actualisée porte sur le Minnesota


Satisfaction Questionnaire (MSQ) de Weiss et al. (1967 et 1977).

2.1 LES PHASES DE SPÉCIFICATION DU DOMAINE DU CONSTRUIT


ET DE GÉNÉRATION DES ITEMS

Les fondements théoriques et l’adaptation française de cette échelle de satis-


faction au travail ont été présentés dans des travaux en gestion des ressources
humaines (Roussel, 1996). La phase de spécification du domaine du construit et de
génération d’un échantillon d’items se limite dans ce cas à la transposition et à
l’adaptation de travaux nord-américains dans un contexte français. L’échelle de satis-
faction au travail regroupe 20 items sur un format de type support sémantique à cinq
échelons (Encadré 9.1).

2.2 LA COLLECTE DE DONNÉES


La phase de collecte de données recourt à deux modes d’administration du
questionnaire. L’une est réalisée par envoi postal, à l’aide de différents fichiers de
salariés anciens diplômés de plusieurs centres universitaires. L’autre est effectuée par
administration directe aux répondants potentiels, dans le cadre de formations du soir
pour salariés de tout niveau (du brevet professionnel aux études supérieures). Un
échantillon de convenance de 579 salariés est constitué en fonction des retours de
questionnaires. Il est composé de salariés représentant l’ensemble des catégories
socioprofessionnelles, une large part des principaux secteurs d’activités économiques,
ainsi que l’éventail des tailles d’entreprises. L’absence de représentativité statistique
de l’échantillon ne permet pas toutefois au test de l’échelle de satisfaire à la qualité
de validité externe. Nous verrons que les méthodes de seconde génération (analyse
factorielle confirmatoire) apportent des réponses partielles aux questions de validité
externe.

2.3 PURIFIER L’INSTRUMENT DE MESURE


Pour simplifier la présentation, seules sont exposées les étapes de la phase de
validation de la démarche de Churchill. En effet, techniquement, les mêmes opéra-
tions sont réalisées en phase exploratoire. L’actualisation de la méthode conduira
ensuite à introduire une utilisation de l’analyse factorielle confirmatoire.

2.3.1 Analyse de la structure factorielle


L’absence de certitudes par rapport à la structure factorielle de l’échelle dans
un contexte français conduit à opérer dans un premier temps par analyse factorielle
exploratoire (AFE). L’un des objectifs subséquents sera d’établir un modèle de mesure
permettant d’analyser statistiquement la satisfaction au travail et de mettre en rela-
Application de la démarche de développement d’échelle pour questionnaire 263

ENCADRÉ 9.1
Échelle de satisfaction au travail – Minnesota Satisfaction Questionnaire

très insatisfait
Dans votre emploi actuel, êtes-vous satisfait ?

très satisfait
ni insatisfait
ni satisfait
insatisfait

satisfait
1. de vos possibilités d’avancement
2. des conditions de travail
3. des possibilités de faire des choses différentes de temps en temps
4. de votre importance aux yeux des autres
5. de la manière dont votre supérieur dirige ses employés (rapports humains)
6. de la compétence de votre supérieur dans les prises de décision (compétences
techniques)
7. des possibilités de faire des choses qui ne sont pas contraires à votre conscience
8. de la stabilité de votre emploi
9. des possibilités d’aider les gens dans l’entreprise
10. des possibilités de dire aux gens ce qu’il faut faire
11. des possibilités de faire des choses qui utilisent vos capacités
12. de la manière dont les règles et les procédures internes de l’entreprise sont mises
en application
13. de votre salaire par rapport à l’importance du travail que vous faites
14. des possibilités de prendre des décisions de votre propre initiative
15. des possibilités de rester occupé tout le temps au cours de la journée de travail
16. des possibilités d’essayer vos propres méthodes pour réaliser le travail
17. des possibilités de travailler seul dans votre emploi
18. de la manière dont vos collègues s’entendent entre eux
19. des compliments que vous recevez pour la réalisation d’un bon travail
20. du sentiment d’accomplissement que vous retirez de votre travail
Source : Copyright 1993, Vocational Psychology Research, University of Minnesota.
Reproduced by Permission. In Roussel, P. (1996), Rémunération,
Motivation et Satisfaction au Travail. Paris : Economica, pp. 170-171.

tion ce concept avec d’autres, tels que la motivation ou l’implication. Ainsi est-il sou-
haitable de choisir comme technique d’AFE, celle en axes principaux.
En phase exploratoire, la mise en œuvre de l’AFE vise deux objectifs : (1) tes-
ter la multidimensionnalité du concept de satisfaction au travail, (2) épurer le ques-
tionnaire des items qui détériorent la qualité de la structure factorielle.
264 Méthodes de développement d’échelles pour questionnaires d’enquête

L’AFE en axes principaux, dans un premier temps, ne permet pas d’identifier


une structure factorielle claire. Le tableau 9.1 des communalités (ou communautés)
fait apparaître une mauvaise représentation des items. La communalité mesure la part
de variance de chaque variable (item) restituée par les facteurs retenus. Des seuils
empiriques sont fixés en deçà desquels des items sont considérés comme ayant une
représentation médiocre (Philippeau, 1986). Ils doivent être, de préférence, éliminés.
Une variance des items expliquée par les axes principaux supérieure à 0.80 indique
que les énoncés sont très bien représentés. Ils le sont bien quand la variance est com-
prise entre 0,65 et 0,80. Ils le sont moyennement quand elle est située entre 0,40 et
0,65. Enfin, ils le sont médiocrement en deçà de 0,40 et devraient être éliminés. Le
conditionnel est utilisé car nous verrons que d’autres arguments, prioritaires, peuvent
conduire à maintenir certains de ces items, par exemple, la nécessité d’en conserver
suffisamment pour représenter une facette d’une variable (six items pour le Parce-
ling), ou encore, de ne pas nuire à la validité de contenu de l’échelle.

Le tableau 9.1 indique également le nombre de facteurs principaux restitués


par l’AFE. Les deux premiers axes sont sélectionnés en appliquant la règle des valeurs
propres supérieures ou égales à 1. Les valeurs propres représentent la part de variance
totale restituée par les facteurs communs. Cette règle empirique est parfois discutée
par les statisticiens qui estiment qu’un niveau de valeurs propres supérieur à 0,70 ou
0,80 pourrait convenir (Everitt et Dunn, 1991 ; Philippeau, 1986). Toutefois, le seuil
de 1,00 fixé par défaut dans les logiciels d’analyse de données correspond à une
approche pragmatique, qui évite de sélectionner des facteurs de qualité souvent
médiocre. L’AFE en axes principaux va être poursuivie sur l’espace factoriel à deux

Items Communalité Facteur Valeur Pourcentage Pourcentage de


propre de variance variance cumulé

ITEM 1 0,677 1 6,646 33,229 33,229

ITEM2 0,371 2 1,183 5,914 39,143

ITEM 3 0,448 3 0,698 3,491 42,634

ITEM 4 0,416 4 0,511 2,554 45,188

ITEM 5 0,674

ITEM 6 0,554

ITEM 7 0,349

ITEM 8 0,165

ITEM 9 0,513

extrait … extrait …

ITEM 20 0,536

TABLEAU 9.1 – Communalités, valeurs propres et pourcentages de variance expliquée


par les facteurs principaux
Application de la démarche de développement d’échelle pour questionnaire 265

Items FACTEUR 1 FACTEUR 2


ITEM11 0,759
ITEM14 0,744
ITEM16 0,683
ITEM20 0,656 0,331
ITEM3 0,607
ITEM10 0,535
ITEM4 0,531 0,369
ITEM15 0,512
ITEM 17 0,498
ITEM1 0,464 0,431
ITEM9 0,359
ITEM5 0,782
ITEM6 0,722
ITEM12 0,593
ITEM19 0,389 0,514
ITEM2 0,318 0,504
ITEM18 0,406
ITEM13 0,383
ITEM7 0,340 0,369
ITEM8 0,350
TABLEAU 9.2 – Contributions factorielles des items du MSQ
après une rotation varimax (Analyse factorielle en axes principaux)

dimensions identifié au cours de cette première itération. Or, les deux facteurs rete-
nus n’expliquent que 39 % de variance totale. Ce résultat confirme l’analyse initiale
d’une structure factorielle insatisfaisante. De nouvelles itérations doivent être condui-
tes en introduisant une rotation orthogonale de type varimax dans la procédure de
l’AFE. Son objectif est de produire une rotation dans cet espace factoriel à deux
dimensions. Cette technique rend plus aisée l’épuration des items qui nuisent à la
qualité de l’échelle, ainsi que l’interprétation des axes factoriels.

Le tableau 9.2 présente les contributions factorielles de chaque item sur les
deux axes principaux soumis à une seconde itération. Celle-ci permet d’identifier les
items qui sont mal représentés par les facteurs principaux et qui doivent être épurés
de l’échelle du MSQ.

Dans le tableau 9.2, toutes les contributions factorielles inférieures à 0,30 ne


sont pas reproduites afin de gagner en lisibilité. Pour procéder à l’interprétation des
résultats, dont l’objectif est d’épurer le questionnaire, deux critères empiriques sont
souvent utilisés :
■ élimination des items ayant des contributions supérieures à 0,30 sur plusieurs
facteurs, ou aucune contribution au moins égale à 0,30 sur l’un des facteurs
principaux retenus ;
266 Méthodes de développement d’échelles pour questionnaires d’enquête

■ élimination des items n’ayant aucune contribution supérieure ou égale à 0,50


sur l’un des axes principaux identifiés.
Everitt et Dunn (1991, p. 54) soulignent le caractère arbitraire, subjectif de la
procédure d’épuration d’une échelle par analyse factorielle. La seconde approche, plus
sélective, est choisie afin de générer une structure factorielle la plus claire possible.
Cette optique s’entend particulièrement lorsqu’une analyse factorielle confirmatoire
est envisagée à la suite. En fonction de ce premier critère d’épuration, sont éliminés
les items : 1, 7, 8, 9, 13 et 18.
Une troisième itération est réalisée par AFE en axes principaux et rotation
varimax sur les items restant. La procédure d’itération est arrêtée lorsqu’une structure
factorielle claire apparaît : c’est-à-dire que plus aucun item n’est à éliminer. Dans le
cas présent, elle prend fin à la quatrième itération (Tableaux 9.3 et 9.4).
Le tableau 9.3 indique que 2 facteurs principaux restituent 47 % de la
variance totale, et que les communalités sont médiocres pour les items : 10, 12, 15 et
17. La structure factorielle, quant à elle, est claire (Tableau 9.4). Ces résultats suggè-
rent que la validité de contenu de l’échelle est imparfaite. Une part importante de
l’information a disparu au cours de la procédure. Par exemple, les items sur l’avance-
ment, les conditions de travail et le salaire ont été éliminés. Ceci conduit à supposer
que la rédaction de certains items devrait être reconsidérée, ou la méthodologie
d’enquête améliorée.
Le tableau 9.4 indique que les items ont des contributions factorielles claires
sur chaque facteur commun. Elles sont supérieures à 0,50. Cette structure factorielle
suggère que la validité de construit est satisfaisante au regard du critère de validité

Items Communalité Facteur Valeur Pourcentage Pourcentage de


propre de variance variance cumulé
ITEM 3 0,433 1 5,109 39,297 39,297
ITEM 4 0,422 2 1,016 7,816 47,113
ITEM 5 0,803
ITEM 6 0,527
ITEM 10 0,291
ITEM 11 0,599
ITEM 12 0,323
ITEM 14 0,665
ITEM 15 0,295
ITEM 16 0,539
ITEM 17 0,280
ITEM 19 0,406
ITEM 20 0,542
TABLEAU 9.3 – Communalités, valeurs propres et pourcentages de variance expliquée
par les facteurs principaux (4e itération)
Application de la démarche de développement d’échelle pour questionnaire 267

Items FACTEUR 1 FACTEUR 2


ITEM14 0,763
ITEM11 0,745
ITEM16 0,701
ITEM20 0,665 0,315
ITEM3 0,581 0,310
ITEM15 0,531
ITEM4 0,524 0,384
ITEM17 0,516
ITEM10 0,509
ITEM5 0,876
ITEM6 0,710
ITEM12 0,517
ITEM19 0,395 0,500
TABLEAU 9.4 – Contributions factorielles des items du MSQ
après une rotation varimax (Analyse factorielle en axes principaux — 4e itération)

convergente. Chaque item associé à un facteur a une contribution forte ou assez forte
à ce seul axe factoriel. En termes de validité discriminante, on observe un peu de che-
vauchement entre les facteurs avec six items qui ont une contribution modérée sur
une seconde composante. Une analyse complémentaire de la validité discriminante
peut être réalisée avec la matrice de corrélations. Celle-ci n’étant pas présentée, nous
indiquerons qu’elle confirme des chevauchements entre les deux axes pour plusieurs
items qui présentent de une à trois corrélations supérieures avec des items apparte-
nant à l’autre axe factoriel. Cette observation suggère l’existence d’un facteur de
second ordre de satisfaction globale au travail.
L’interprétation des facteurs est basée sur une revue de littérature et sur le
cadre théorique des travaux de Weiss et al. (1967).
■ Le premier facteur se compose des items 3, 4, 10, 11, 14, 15, 16, 17, 20. Il
représente la dimension de satisfaction intrinsèque. Théoriquement, elle est
supposée liée aux sentiments suscités par la réalisation du travail (ex. possibi-
lité de faire des choses variées) et la réalisation de soi dans le travail (ex. sen-
timent d’accomplissement).
■ Le deuxième facteur se compose des items 5, 6, 12 et 19. Il représente la
dimension de satisfaction extrinsèque qui est supposée être suscitée par des
éléments externes contrôlés par l’environnement de travail (ex. manière dont
les règles et les procédures internes de l’entreprise sont mises en application)
et les supérieurs (ex. compétence du supérieur dans les prises de décision).

2.3.2 Analyse de la fiabilité de cohérence interne


Cette analyse est effectuée pour chaque facette de la satisfaction au travail.
Couplée à l’analyse factorielle, elles permettent de tester l’homogénéité des sous
268 Méthodes de développement d’échelles pour questionnaires d’enquête

échelles, c’est-à-dire, la capacité d’un ensemble d’items à ne représenter qu’une seule


et même facette du construit.

A. ÉCHELLE DE SATISFACTION INTRINSÈQUE


Les statistiques par item (Tableau 9.5) indiquent notamment la corrélation
entre l’item et le score de l’échelle (somme des réponses aux items), ainsi que le
niveau du coefficient alpha si un item est retiré. Les indices sont en permanence éle-
vés. Le seuil qui est étudié est celui du coefficient de Cronbach. Celui qui est généra-
lement retenu est de 0,70 dans les phases exploratoires d’une recherche (Nunnally,
1978).
Les statistiques de l’échelle (Tableau 9.6) sont dans la suite logique du tableau
précédent et confirment le niveau élevé de fiabilité de cohérence interne de l’échelle.

B. ÉCHELLE DE SATISFACTION EXTRINSÈQUE


Les statistiques par item (Tableau 9.7) montrent que le niveau de corrélation
entre l’item et le score de l’échelle est relativement élevé. Pour interpréter les indices
alpha, il faut en premier lieu se reporter au tableau 9.8. Il permet d’examiner le
niveau du coefficient alpha de Cronbach pour l’ensemble de l’échelle. Celui-ci est pro-
che de 0,78 et correspond à un niveau satisfaisant de fiabilité de cohérence interne.
Aucun item n’est à retirer de l’échelle.
Remarque : dans l’hypothèse où ce coefficient eut été inférieur à 0,70, la lec-
ture du tableau 9.7 aurait servi à identifier l’item de l’échelle qui dégraderait le plus
le niveau de ce coefficient. Dans un tel cas de figure, c’est l’item 19 qu’il aurait fallu

Items Moyenne Écart type Fréquence Corrélation Coefficient


entre l’item et alpha si l’item
le score de est éliminé
l’échelle

ITEM3 3,6350 1,0636 526 0,6128 0,8626

ITEM4 3,3080 0,8795 526 0,5814 0,8652

ITEM10 3,4278 0,8693 526 0,5109 0,8706

ITEM11 3,3992 1,1231 526 0,7223 0,8518

ITEM14 3,4677 1,1305 526 0,7534 0,8485

ITEM15 3,9030 0,8751 526 0,4978 0,8716

ITEM16 3,7053 0,9927 526 0,6806 0,8562

ITEM17 3,7605 0,8550 526 0,4861 0,8725

ITEM20 3,4772 1,0486 526 0,6791 0,8562

TABLEAU 9.5 – Statistiques par item


Application de la démarche de développement d’échelle pour questionnaire 269

Nombre Fréquences pour Score Écart type Corrélation moyenne Coefficient alpha
d’items le calcul du coefficient alpha moyen des scores entre items de Cronbach

9 526 32,0837 6,2932 0,4323 0,8756

TABLEAU 9.6 – Statistiques de l’échelle et coefficient de fiabilité alpha de Cronbach

retirer, car cela aurait permis de relever le plus le niveau du coefficient alpha de
l’ensemble de l’échelle (niveau alpha sans l’item : 0,7661).
Le tableau 9.8 confirme le niveau élevé du coefficient de fiabilité de cohérence
interne de l’échelle.

C. LIMITES DE L’INTERPRÉTATION DU COEFFICIENT DE CRONBACH


Pour vérifier la qualité des coefficients alpha de Cronbach, il est souhaitable
d’observer le niveau de la corrélation moyenne entre items (Tableaux 9.6 et 9.8). Il
n’existe pas de seuil d’interprétation, mais nous suggérons sur la base d’observations
empiriques qu’en deçà de 0,40 l’interprétation du coefficient alpha soit approfondie.
En effet, les travaux de Cortina (1993) tendent à montrer que certaines études peu-
vent présenter d’excellents indices alpha, mais « artificiellement gonflés » par le
nombre important d’énoncés et/ou la redondance sémantique des items. Plus le nom-
bre d’items est important, et/ou, plus les items d’une échelle sont rédigés de façon
similaire, plus le coefficient alpha devrait être élevé. Si les niveaux de corrélations
moyennes inter items sont médiocres (par exemple, inférieurs à 0,30 ou 0,40), et le
coefficient alpha satisfaisant (supérieur à 0,70), on peut suspecter une inflation arti-

Items Moyenne Écart type Fréquence Corrélation Coefficient


entre l’item et alpha si l’item
le score de est éliminé
l’échelle

ITEM5 2,8327 1,2421 544 0,7187 0,6486

ITEM6 3,1103 1,2057 544 0,6248 0,7047

ITEM12 2,7040 0,9628 544 0,5102 0,7626

ITEM19 3,0184 1,0528 544 0,5013 0,7661

N.B. : les fréquences sont calculées sur le nombre de répondants ayant répondu à tous les items de l’échelle

TABLEAU 9.7 – Statistiques par item

Nombre Fréquences pour le calcul du Score Écart type Corrélation moyenne Coefficient alpha
d’items coefficient alpha moyen des scores entre items de Cronbach

4 544 11,6654 3,4808 0,4653 0,7796

TABLEAU 9.8 – Statistiques de l’échelle et coefficient de fiabilité alpha de Cronbach


270 Méthodes de développement d’échelles pour questionnaires d’enquête

ficielle de ce dernier et critiquer les résultats obtenus, et inversement dans le cas


d’échelles à deux ou trois items (cas néanmoins non conseillé).

2.3.3 Analyse factorielle confirmatoire


Ce type d’analyse factorielle tend à se généraliser dans les publications scien-
tifiques et concourt à la réalisation des tests de validation d’échelles. L’analyse facto-
rielle confirmatoire (AFC) permet de tester la validité d’une structure factorielle
définie a priori. Cette structure est conçue à partir d’un modèle théorique qui propose
une définition précise des caractéristiques d’une variable conceptuelle. À l’inverse,
l’analyse factorielle exploratoire (AFE) vue précédemment permet d’explorer des don-
nées afin d’identifier a posteriori une structure factorielle d’un concept.
Dans le cas présent, plusieurs modèles théoriques ayant de fortes proximités
conceptuelles, pourraient être soutenus par l’utilisation de l’échelle de satisfaction
MSQ. Or, l’un des usages principaux de l’AFC est de procéder à des comparaisons de
plusieurs modèles théoriques afin d’identifier celui qui s’ajuste le mieux aux données
empiriques obtenues au cours d’une enquête. C’est la démarche que nous allons pré-
senter.
D’autres usages sont possibles. Certains chercheurs limitent l’emploi de l’AFC
au test d’ajustement d’un seul modèle théorique aux données empiriques collectées.
Une autre des applications de l’AFC est de concevoir le modèle de mesure d’une varia-
ble conceptuelle (ou variable latente) afin de l’intégrer dans un modèle théorique de
plus grande ampleur où seraient inter reliées plusieurs variables conceptuelles. Une
des procédures possibles est dénommée Parceling (cf. chapitre suivant). Elle consiste
à construire des indicateurs (trois étant optimal) à partir de regroupement d’items
formant un vecteur approprié (deux au minimum par indicateur). Cette démarche est
fort utile pour rendre possible techniquement le test d’un modèle d’équations structu-
relles complexe.
Enfin, une dernière application importante de l’AFC consiste à procéder à des
tests de validité de construit permettant d’éprouver la validité convergente et discri-
minante d’une échelle, plutôt que par d’autres méthodes, telles l’AFE et la matrice
MTMM discutées plus haut.
L’application proposée vise à comparer plusieurs modèles alternatifs, en
l’occurrence, celui élaboré par les concepteurs de l’échelle du MSQ, puis celui identifié
sur la base d’une démarche classique de type Churchill appliquée à deux échantillons
de salariés français, enfin, celui établi dans la présente étude. Les modèles qui vont
être comparés sont donc les suivants :
■ Le premier modèle à tester correspond à la structure factorielle du MSQ définie
par les auteurs de l’instrument (Weiss et al., 1967). Ce modèle théorique dis-
tingue deux dimensions du concept de satisfaction au travail :
– premier facteur : satisfaction intrinsèque (items 3, 4, 7, 8, 9, 10, 11, 14, 15,
16, 17, 20) ;
– deuxième facteur : satisfaction extrinsèque (items 1, 5, 6, 12, 13, 19) ;
Application de la démarche de développement d’échelle pour questionnaire 271

– les items de conditions de travail (item 2) et d’entente entre collègues (item


18) ne sont représentés par aucun des axes principaux (ils sont utilisés pour
établir un score de satisfaction générale).
■ Le deuxième modèle représente la structure factorielle confirmée selon une
démarche de type Churchill. Elle fut appliquée à deux échantillons de salariés
français (Roussel, 1996) avec itérations successives utilisant les analyses de
l’alpha de Cronbach et l’AFE en composantes principales, puis l’AFC sur l’ensem-
ble des deux échantillons avec indices d’ajustement utilisés selon des critères
« souples » :
– premier facteur : satisfaction intrinsèque (items 3, 4, 11, 14, 15, 16, 17,
20) ;
– deuxième facteur : satisfaction extrinsèque (items 2, 5, 6, 7, 8, 12, 18, 19) ;
– troisième facteur : reconnaissance (items 1 et 13) ;
– quatrième facteur : besoins de rapports sociaux (items 9 et 10).
■ Le troisième modèle correspond à la structure factorielle générée par l’AFE en
axes principaux réalisée pour la présente étude (démarche de Churchill
actualisée) :
– premier facteur : satisfaction intrinsèque (items 3, 4, 10, 11, 14, 15, 16, 17,
20) ;
– deuxième facteur : satisfaction extrinsèque (items 5, 6, 12, 19).
La comparaison de modèles théoriques repose sur le principe de résolution des
tests d’ajustement. Ces tests procèdent par la confrontation de deux types de
matrices : les matrices de covariances (ou de corrélations) des variables observées S
(les items des échelles), et les matrices de covariances (ou de corrélations) estimées
Σ. La procédure d’estimation adoptée est le plus souvent celle du maximum de vrai-
semblance. Plus les covariances ou les corrélations des deux matrices sont proches les
unes des autres, plus le modèle théorique s’ajuste bien aux données empiriques. En
simplifiant le processus, il s’agit de comparer les données collectées sur un échan-
tillon (les participants à l’enquête) à ces mêmes données estimées pour une popula-
tion plus importante. La comparaison porte sur des structures de covariances
désignées par un modèle hypothétique (ex. une structure factorielle du concept).
Le tableau 9.9 présente les résultats de l’analyse factorielle confirmatoire. Il
indique que globalement le modèle trois se caractérise par un meilleur ajustement
aux données empiriques. Ce modèle théorique permet le mieux de reproduire un
modèle théorique adapté aux données collectées. Par ces tests, les différents modèles
de structures factorielles du questionnaire sont comparés entre eux afin d’identifier

Modèles χ2 Dl χ2/dl GFI AGFI SRMR RMSEA NFI NNFI CFI AIC CAIC

Modèle un 572,79 134 4,27 0,88 0,85 0,06 0,08 0,84 0,85 0,87 304,79 –394,77

Modèle deux 510,59 164 3,11 0,90 0,88 0,05 0,06 0,87 0,89 0,90 182,59 –673,58

Modèle trois 247,45 64 3,87 0,93 0,90 0,06 0,07 0,91 0,92 0,93 119,45 –216,79

TABLEAU 9.9 – Comparaison des modèles d’analyses factorielles confirmatoires


272 Méthodes de développement d’échelles pour questionnaires d’enquête

celui qui s’ajuste le mieux aux données empiriques. La décision repose sur l’interpré-
tation de plusieurs indices d’ajustement. Ces indices sont forts nombreux et tous
sujets à des problèmes de taille d’échantillon (Marsh et al., 1988 ; Roussel et al.,
2002 ; Valette-Florence, 1993). La multiplication des travaux de statisticiens dans le
domaine conduit à offrir une batterie d’indices aux propriétés différentes. Nous pré-
sentons les plus courants d’entre eux. Ils appartiennent à trois familles d’indices. En
pratique, plusieurs indices appartenant à ces trois familles sont analysés afin de pren-
dre une décision basée sur un choix multicritères.

A. LES INDICES DE MESURE ABSOLUS


Un indice d’ajustement absolu permet d’évaluer dans quelle mesure le modèle
théorique posé a priori reproduit correctement les données collectées.
■ Chi-Deux : il sert à tester l’hypothèse nulle selon laquelle le modèle théorique
s’ajuste bien aux données collectées. La proposition de cette hypothèse est
que les éléments de la matrice de covariances ou de corrélations reproduite par
estimation (Σ) sont significativement non différents de ceux de la matrice de
covariances ou de corrélations observée (S). Mais cet indice est très sensible à
la taille des échantillons. Il n’est généralement pas commenté, il sert essen-
tiellement à l’élaboration des autres indices d’ajustement.
■ GFI et AGFI : les indices de bon ajustement mesurent la part relative de la
variance-covariance expliquée par le modèle testé (GFI : Goodness of Fit
Index), ajustée par le nombre de variables par rapport au nombre de degrés de
liberté (AGFI : Adjusted Goodness of Fit Index). Analogues au r2 et au r2 ajusté
de la régression multiple, ils varient entre 0 et 1. Ils sont peu sensibles à la
taille de l’échantillon. En revanche, ils le sont à la complexité du modèle. Un
modèle est bien ajusté aux données lorsque ces indices dépassent 0,90.
■ SRMR : le Standardized Root Mean square Residual représente l’appréciation
moyenne des résidus, les résidus étant la différence entre les covariances (ou
corrélations) estimées, et celles observées. Son interprétation est équivalente
à celle du RMR (même indice, non standardisé, utilisé si la matrice de données
de départ est celle des corrélations). Il varie entre 0 et |1| et doit se rappro-
cher de 0, en restant inférieur à |0,05| car un bon ajustement nécessite de fai-
bles résidus.
■ RMSEA : le Root Mean Square Error of Approximation représente la différence
moyenne d’ajustement, par degré de liberté, attendue dans la population
totale et non dans l’échantillon. Il est indépendant de la taille de l’échantillon
et de la complexité du modèle et dispose d’un intervalle de confiance associé
(90 %). Il doit être inférieur à 0,08 et si possible à 0,05.

B. LES INDICES DE MESURE « INCRÉMENTAUX »


(OU INDICES RELATIFS DE COMPARAISON)
Les indices de mesure « incrémentaux » évaluent l’amélioration de l’ajuste-
ment d’un modèle en le comparant à un modèle plus restrictif, dit « modèle de base »
(Bentler et Bonett, 1980 ; Bentler, 1990). Le modèle de base le plus couramment uti-
lisé est le « modèle nul » ou « modèle indépendant ». Il s’agit d’un modèle pour
Conclusion 273

lequel toutes les variables observées seraient non corrélées, c’est-à-dire qu’aucune
relation structurelle entre les variables ne serait supposée a priori. Ces indices varient
entre 0 et 1 et doivent dépasser 0,90 pour conclure au bon ajustement d’un modèle
théorique aux données.
■ NFI : le Normed Fit Index représente la proportion de la covariance totale entre
les variables, expliquée par le modèle testé, lorsque le modèle nul est pris
comme référence. Sa valeur est sous-estimée lorsque l’échantillon est de taille
réduite.
■ NNFI : le Non Normed Fit Index compare le manque d’ajustement du modèle à
tester à celui du modèle de base. Sa valeur permet d’estimer l’amélioration
relative, par degré de liberté, du modèle testé par rapport au modèle de base.
Cet indice n’est pas recommandé pour les petits échantillons (N < 150 obser-
vations).
■ CFI : le Comparative Fit Index est l’indice relatif de comparaison qui est le
moins sensible aux tailles d’échantillon. Il mesure la diminution relative du
manque d’ajustement entre le modèle testé et le modèle de base.

C. LES INDICES DE MESURE DE PARCIMONIE


Ils permettent de déterminer, parmi plusieurs modèles plausibles équivalents,
celui qui présente la meilleure parcimonie et qui devrait, par conséquent, être préféré
aux autres. Ces indices, issus de la théorie de l’information, visent à pénaliser les
modèles complexes.
■ AIC (Akaike Information Criterion) et CAIC (Consistent Akaike’s Information
Criterion) : ils sont assez peu sensibles à la taille de l’échantillon. Leur niveau
doit être le plus faible possible comparativement à d’autres modèles concur-
rents.
■ χ2/dl : le chi-deux normé sur le degré de liberté (dl = 1/2 (p + q) (p + q + 1)
– t ; où p + q = nombre de variables observées, t = nombre de paramètres esti-
més) est un indice qui permet de déceler les modèles « surajustés » et « sous-
ajustés ». Il peut être utilisé pour mesurer le degré de parcimonie « absolu »
d’un modèle. Il permet également de distinguer, parmi plusieurs modèles alter-
natifs, lequel est le plus parcimonieux. Son niveau doit être compris entre 1, 2
ou 3, voire 5.
En se reportant au tableau 9.9, nous pouvons constater que le modèle trois
répond le mieux à l’ensemble des critères de bon ajustement.

3. Conclusion

L’élaboration des échelles d’attitudes pour questionnaires d’enquête est une


entreprise longue et complexe. Si la démarche proposée par Churchill à la fin des
années 1970 demeure une référence pour organiser et diriger le travail de construc-
tion de questionnaire, nous avons pu observer l’émergence de nouvelles méthodes et
techniques. Si elles remettent en cause l’organisation classique de la phase de valida-
tion d’échelles de mesure, en revanche, la phase exploratoire ne connaît pas de gran-
274 Méthodes de développement d’échelles pour questionnaires d’enquête

des mutations. L’apport des méthodes d’équations structurelles est principalement à


l’origine des transformations récentes du travail de validation d’échelles de mesure.
L’objectif de ces changements vise à mettre à la disposition des chercheurs et des uti-
lisateurs de questionnaires d’enquête des instruments de meilleure qualité.
La présentation qui vient d’être faite n’est pas exhaustive. Elle se prolonge
dans le chapitre suivant par un usage quelque peu différent de l’analyse factorielle,
basé sur des hypothèses théoriques concernant les concepts à mesurer, et la modéli-
sation explicite de la structure des données en fonction de ces concepts.

Bibliographie
Ajzen I. et Fishbein M. (1977), Attitude-behavior relations : a theoretical analysis and
review of empirical research. Psychological Bulletin, vol. 84, pp. 888-918.
Alderfer C.P. (1969), An empirical test of a new theory of human needs. Organizational
Behavior and Human Performance, vol. 4, n° 2, pp. 142-175.
Allen N.J. et Meyer J.-P. (1991), A three component conceptualization of organizatio-
nal commitment. Human Resource Management Review, vol. 1, n° 1, pp. 61-89.
Bentler P.M. (1990), Comparative fit indexes in structural models. Psychological Bulle-
tin, vol. 107, pp. 238-246.
Bentler P.M. et Bonett D.G. (1980), Significance tests and goodness of fit in the analy-
sis of covariance structures. Psychological Bulletin, vol. 88, pp. 588-606.
Berkowitz L., Cochran S., Fraser C. et Treasure F.P. (1987), Pay, Equity, Job Gratifica-
tions, and Comparisons in Pay Satisfaction. Journal of Applied Psychology, vol. 72,
n° 4, pp. 544-551.
Campbell D.T. et Fiske D.W. (1959), Convergent and discriminant validation by the Mul-
titrait-Multimethod Matrix. Psychological Bulletin, vol. 56, pp. 81-103.
Cerdin J.-L. (1996), Mobilité internationale des cadres, adaptation et decision d’expatria-
tion. Thèse de doctorat en sciences de gestion, Université Toulouse 1.
Churchill G.A. (1979), A paradigm for developing better measures of marketing cons-
tructs. Journal of Marketing Research, vol. 16, pp. 64-73.
Cortina J.M. (1993), What is coefficient alpha ? An examination of theory and applica-
tions. Journal of Applied Psychology, vol. 78, n° 1, pp. 98-104.
Cronbach L.J. (1951), Coefficient alpha and the internal structure of tests. Psychome-
trika, vol. 16, pp. 297-334.
Dubost N., Gauzente C., Guilloux V., Roussel P. et Kalika M. (2000), Franchise et culture
managériale : étude des facteurs humains et organisationnels, versus franchiseur, con-
ditionnant la pratique de la franchise — typologie de franchiseurs, rapport pour la
Fédération Française de la Franchise, octobre 2000, Crepa — Université Paris IX Dau-
phine et Lirhe — Université Toulouse 1.
Everitt B.S. et Dunn G. (1991), Applied multivariate data analysis. Londres : Edward
Arnold.
Evrard Y., Pras B., Roux E., Choffray J.-M. et Dussaix A.M. (1993), Market, études et
recherches en marketing, fondements, méthodes. Paris : Nathan.
Bibliographie 275

Fabrigar L. R., Wegener D. T., MacCallum R. C. et Strahan E. J. (1999), Evaluating the


use of exploratory factor analysis in psychological research. Psychological Methods,
n° 4, pp. 272–299.
Falissard B. (1999), Comprendre et utiliser les statistiques dans les sciences de la vie.
Collection Évaluation et statistique. Masson, 2e édition.
Falissard B. (2001), Mesurer la subjectivité en santé. Perspective méthodologique et sta-
tistique. Collection Évaluation et statistique. Masson.
Hinkin T.R. (1998), A brief tutorial on the development of measures for use in survey
questionnaires. Organizational Research Methods, vol. 1, n° 1, pp. 104-121.
Hu L.T. et Bentler P.M. (1995), « Evaluating model fit » in Hoyle R.H. (Eds), Structural
equation modeling : concepts, issues, and applications. Thousand Oaks, CA : Sage,
pp. 76-99.
Hu L.T. et Bentler P.M. (1999), Cutoff criteria for fit indices in covariance structure
analysis : conventional criteria versus new alternatives. Structural Equation Modeling,
vol. 6, pp. 1-55.
Igalens J. et Roussel P. (1998), Méthodes de recherche en gestion des ressources humai-
nes. Paris : Economica, collection Recherche en gestion.
Jolliffe I.T. (2002), Principal component analysis. Springer Series in Statistics
(2e édition).
Kop J.-L. et Tournoi J. (1996), Échelonnement multidimensionnel, analyse en compo-
santes principales et analyses en facteurs communs : une étude de leur convergence
sur données Monte Carlo, Les Cahiers de Recherche de l’ADEPS, n° 19, Nancy.
Lazarsfeld P.F. (1950), The logical and mathematical foundations of latent structure
analysis. In Stouffer S. (Eds), Studies in social psychology in World War II, measure-
ment and prediction, vol. 4.
MacCallum R. (1998), Commentary on quantitative methods in I/O research. The Indus-
trial-Organisational Psychologist, vol. 35, pp. 18-30.
MacCallum R.C., Widaman K.F., Zhang S. et Hong S. (1999), Sample size in factor analy-
sis. Psychological Methods, n° 4, pp. 84-99.
Marsh H.W., Balla J.R. et McDonald R.P. (1988), Goodness-of-fit indexes in confirmatory
factor analysis : the effect of sample size. Psychological Bulletin, vol. 103, n° 3,
pp. 391-410.
Nunnally J.C. (1978), Psychometric theory. New York : McGraw-Hill (1re éd., 1967).
Nunnally J.C. et Bernstein I. (1994), Psychometric Theory. New York : McGraw Hill
(3e édition).
Parasuraman A., Zeithaml V.A. et Berry L.L. (1990), SERVQUAL : une échelle multi-items
de mesure des perceptions de la qualité de service par les consommateurs. Recherche
et Applications en Marketing, vol. 6, n° 2, pp. 19-42.
Pedhazur E.J. et Pedhazur Schmelkin L. (1991), Measurement, design, and analysis, an
integrated approach. Hillsdale, N.J. : Lawrence Erlbaum.
Philippeau G. (1986), Comment interpréter les résultats d’une analyse en composantes
principales, Paris : ITCF.
Preacher K. J. et MacCallum R.C. (2003), Repairing Tom Swift’s electric factor analysis
machine. Understanding Statistics, vol. 2, n° 1, pp. 13-32.
Roehrich G. (1993), Validité convergente et validité discriminante : l’apport des modèles
d’équations structurelles, ESA Grenoble, Cahier de recherche : CERAG 93-23.
Roussel P. (1996), Rémunération, motivation et satisfaction au travail. Paris : Econo-
mica, collection Recherche en gestion.
276 Méthodes de développement d’échelles pour questionnaires d’enquête

Roussel P., Durrieu F., Campoy E. et El Akremi A. (2002), Méthodes d’équations


structurelles : recherche et applications en gestion. Paris : Economica, collection
Recherche en gestion.
Tabachnick B.G. et Fidell L.S. (1996), Using multivariate statistics. New York : HarperCol-
lins.
Valette-Florence P. (1993), Dix années de modèles d’équations structurelles : un état de
l’art, ESA Grenoble, Cahier de recherche : CERAG 93-11.
Wallace M.J. (1983), Methodology, Research Practice, and Progress in Personnel and
Industrial Relations. Academy of Management Review, vol. 8, n° 1, pp. 6-13.
Weiss D.J., Dawis R.V., England G.W. et Lofquist L.H. (1977), Manual for the Minnesota
Satisfaction Questionnaire, Université du Minnesota (1967 et 1977), Minnesota stu-
dies in vocational rehabilitation, n° 22.
Chapitre 10

Modéliser les différences


individuelles
avec l’analyse factorielle
Stéphane VAUTIER 1, Patrice ROUSSEL et Saïd JMEL 2

Sommaire

1 Construire des variables composites : analyse


factorielle exploratoire et cohérence interne 279

2 Application avec le « Minnesota Satisfaction »


Questionnaire 282

3 Analyse factorielle confirmatoire


et fidélité composite 285

4 Discussion et conclusion 291

1 Maître de Conférences, Université de Toulouse Le Mirail.


2 Ingénieur statisticien, Université de Toulouse le Mirail.
278 Modéliser les différences individuelles avec l’analyse factorielle

Certains attributs hypothétiques des personnes constituent une catégorie


d’objets d’étude commune aux différents domaines des sciences de gestion. La satis-
faction, l’implication, etc., désignent des attributs (ou encore concepts, construits)
définis comme caractéristiques individuelles hypothétiques. Ces attributs sont élabo-
rés dans le cadre de théories psychosociales et formalisés à l’aide de modèles statisti-
ques le plus souvent linéaires. La modélisation statistique des différences
individuelles relatives à des attributs hypothétiques intéresse également d’autres
domaines de recherche des sciences sociales ou humaines comme la psychologie et
l’économie.
La mesure des différences individuelles relatives à des attributs hypothétiques
soulève des questions théoriques difficiles. Que signifie précisément mesurer un
concept comme la satisfaction au travail ? Comment justifier des grandeurs sans ori-
gine ni unité de mesure ? Est-on certain de mesurer quelque chose ? Ce chapitre n’a
pas la prétention d’apporter de réponse à ces questions fondamentales (Borsboom,
Mellenbergh, & van Heerden, 2003 ; Coombs, Dawes, & Tversky, 1970 ; Essex & Smy-
the, 1999 ; Michell, 2000), mais tente d’éclairer le processus de construction des
variables destinées à quantifier ces attributs hypothétiques. Cette construction s’ins-
crit dans une perspective foncièrement utilitariste : les mesures expriment non pas
des grandeurs dont l’existence préalable serait incontestable, mais des grandeurs
hypothétiques. La justification ultime de tels objets réside dans le fait que leurs pro-
priétés quantitatives peuvent être étudiées avec des méthodes objectives. De plus,
dans une perspective multivariée, leurs propriétés de covariation permettent d’esti-
mer leur fidélité (précision globale) ; leur sensibilité à certains facteurs qualitatifs ou
quantitatifs permet d’étayer une démarche basée sur la mise à l’épreuve d’hypothèses
propres aux domaines de recherche, comme la possibilité que la satisfaction au travail
soit linéairement liée au style de management, ou encore à la rémunération.
De telles analyses s’appuient sur des mesures, c’est-à-dire des variables prove-
nant d’un travail de modélisation de données (Dickes, Tournois, Flieller, & Kop, 1994),
données qui sont le plus souvent collectées à l’aide de questionnaires. Une mesure
désignera par la suite une variable composite manifeste, c’est-à-dire une variable for-
mée à partir d’indicateurs (items ou questions) dont on peut observer les valeurs.
L’idée de base qui guide l’élaboration d’une variable (ou mesure) composite est la
multiplicité des indicateurs d’un attribut hypothétique. Ce dernier joue le rôle d’une
cause commune par définition non directement observable et a le statut de variable
latente (dont on ne peut observer les valeurs). C’est la structure de covariation des
indicateurs qui permet de justifier l’hypothèse d’un attribut mesurable : si l’on
observe une organisation dans les différences individuelles relatives à un faisceau
d’indicateurs, peut-être existe-t-il une grandeur sous-jacente dont les différences
observées seraient une forme d’expression (pour une approche différente, voir Bollen
& Lennox, 1991 ; Edwards & Bagozzi, 2000). On peut aussi s’intéresser à une configu-
ration d’attributs, c’est-à-dire à plusieurs attributs dont on formalise les covariations
avec une structure hiérarchique (Bacher, 2002). La sélection des indicateurs pour une
mesure obéit à une logique de cahier des charges, qui spécifie les propriétés statisti-
ques essentielles que l’on cherche à obtenir pour le système de variables considéré.
Ce chapitre présente de manière illustrée certains aspects de l’élaboration de
mesures via la sélection des indicateurs supposés refléter la présence d’un ou plu-
Construire des variables composites 279

sieurs attributs. La sélection des indicateurs s’appuie sur une approximation de la


structure des données à l’aide d’une analyse factorielle exploratoire. L’analyse facto-
rielle confirmatoire peut être utilisée pour modéliser explicitement les données avec
des équations structurelles, écarter certaines hypothèses structurelles et estimer leur
fidélité composite.

1. Construire des variables composites : analyse


factorielle exploratoire et cohérence interne

Roussel (chapitre 9, Figure 9.1) présente le cycle de développement d’un ques-


tionnaire selon Churchill (1979), démarche qui s’inscrit dans la tradition de la défini-
tion de variables composites. Les étapes 1 à 4 constituent la phase de sélection des
indicateurs du questionnaire (en l’occurrence des items). L’objectif est de choisir
quelques indicateurs parmi plusieurs indicateurs ou items candidats. La sélection
s’effectue en fonction de l’hypothèse qu’un faisceau d’indicateurs reflèterait l’exis-
tence de l’attribut visé. Une analyse factorielle exploratoire permet de définir un
espace de dimension minimale dans lequel la structure corrélationnelle des indica-
teurs candidats peut être visualisée, afin que la direction des attributs hypothétiques
puisse être décelée. Le coefficient alpha de Cronbach (1951) permet d’estimer la
cohérence interne (internal consistency) des variables composites retenues, ce qui
est une manière de quantifier la précision minimum de la mesure ainsi formée. Les
étapes 5 à 7 sont destinées à répliquer et étendre l’étude des propriétés des indica-
teurs sélectionnés et ne seront pas abordées ici.

1.1 LA NOTION DE VARIABLE COMPOSITE


Une variable composite est une combinaison linéaire de plusieurs indicateurs,
le plus souvent non pondérée. Par exemple, on définit un score de satisfaction X à
partir de 7 indicateurs numérotés de 1 à 7 tel que
X = X1 + X2 + … + X7 (1)
La plupart des questionnaires basés sur des réponses à des questions sont
construits pour fournir des scores composites de ce type. Par exemple, la somme des
scores attribués aux réponses de chaque individu aux items représentant une facette
particulière de la satisfaction au travail est une mesure composite. On pourrait aussi
définir la variable composite comme la moyenne de ces scores.
Analyser la structure factorielle et la cohérence interne des indicateurs revient
à analyser leur structure corrélationnelle. D’un point de vue pratique, l’addition de
plusieurs indicateurs est intéressante à condition que les indicateurs soient censés
refléter les différences individuelles relatives au même attribut (Kline, 2000, p. 161 ;
Nunnally & Bernstein, 1994, pp. 227-228).

1.2 LA COHÉRENCE INTERNE


La cohérence interne est une statistique basée sur les variances et les cova-
riances des indicateurs. Pour l’exemple considéré avec l’équation 1, le coefficient
alpha est
280 Modéliser les différences individuelles avec l’analyse factorielle

7 var ( X 1 ) + … + var ( X 7 )
α = -- 1 – -----------------------------------------------------
- , (2)
6 var ( X )
où var(Xi) indique la variance de chaque item Xi élément de la variable composite, et
var(X) correspond à la variance du score total des items. L’échelle comprend k = 7
items, ce qui donne le rapport k/k–1 devant la parenthèse. (Si la mesure composite
était basée sur la moyenne des scores, les variances élémentaires devraient être celles
des items divisés par le nombre total d’items k). La limite supérieure du coefficient
alpha est 1. Alpha est d’autant plus élevé que le nombre d’indicateurs est élevé d’une
part, et que les indicateurs sont corrélés d’autre part. Ce coefficient a fait l’objet de
nombreux examens critiques et on pourra par exemple consulter Cortina (1993),
Raykov (2001) et Schmitt (1996). Comme alpha repose sur des variances et des cova-
riances, la précision de son estimation dépend de celle des variances et des covarian-
ces, qui dépend elle-même de la qualité (taille et représentativité) de l’échantillon de
données. Fan et Thompson (2001) ont insisté sur l’intérêt de compléter l’estimation
de la cohérence interne par celle d’un intervalle de confiance associé. Pour ce faire,
on peut utiliser une approche analytique basée sur l’estimation robuste de la loi de
distribution d’alpha (Yuan & Bentler, 2002), ou bien une approche empirique basée
sur la construction de la distribution de la statistique étudiée par bootstrap (pour une
introduction, voir Mooney & Duval, 1993). C’est cette seconde approche qui sera illus-
trée ici et détaillée dans la seconde section.
La cohérence interne (on parle aussi de fiabilité de cohérence interne,
cf. chapitre précédent) d’un ensemble d’indicateurs ne correspond pas nécessairement
à la fidélité du score composite. La fidélité (reliability) d’une mesure, définie comme
rapport de la variance vraie sur la variance observée de la variable mesurée, est une
notion issue de la théorie du score vrai (Lord & Novick, 1968 ; Steyer, 2001). Le coef-
ficient alpha correspond au rapport de la variance vraie du composite sur la variance
du composite à condition seulement que les indicateurs possèdent la propriété de
tau-équivalence essentielle. Deux variables Xi et Xj sont essentiellement tau-équiva-
lentes si leurs scores vrais respectifs sont des variables égales à une constante addi-
tive près. En termes plus formels, pour toute paire d’indicateurs Xi et Xj, il existe les
variables Ti, Tj (variables des scores vrai) et Ei, Ej (variables des erreurs de mesure)
telles que :
 Xi = Ti + Ei

 Xj = Tj + Ej

 E ( Xi ) = E ( Ti )

 E ( Xj ) = E ( Xj )
 , (3)
 var ( X i ) = var ( T i ) + var ( E i )

 var ( X j ) = var ( T j ) + var ( E j )

 Ti = Tj + ci

 cov ( E i ,E j ) = 0

où E(Xi) et E(Ti) désignent l’espérance mathématique (en pratique, la moyenne) de Xi


et Ti, ci est une constante additive, et cov(Ei, Ej) désigne la covariance des erreurs.
Les 6 premières conditions de l’équation 3 correspondent aux notions de score vrai et
Construire des variables composites 281

d’erreur. Elles entraînent que l’espérance de l’erreur est nulle et que l’erreur est indé-
pendante du score vrai. La condition 7 spécifie que les indicateurs mesurent le même
attribut à une constante additive près. Cette définition implique que la covariance
des 2 indicateurs essentiellement tau-équivalents est une constante et mesure la
variance vraie de chacun des indicateurs.

L’approche résumée par Churchill (1979) n’est pas basée sur la vérification de
la tau-équivalence essentielle (TEE). En pratique, très peu de jeux de données possè-
dent cette propriété. La philosophie de la démarche consiste plutôt à s’approcher de
la TEE, en basant la sélection des indicateurs sur des analyses descriptives. Dans
l’hypothèse où les données peuvent être exprimées en termes de score vrai et sans
corrélation d’erreurs, le coefficient alpha peut être considéré comme une limite infé-
rieure de la fidélité (Green & Hershberger, 2000).

1.3 L’ANALYSE FACTORIELLE EXPLORATOIRE

L’analyse factorielle exploratoire comprend deux types d’approche. L’analyse en


composantes principales (ACP) est une technique de condensation des données qui
permet de déterminer les combinaisons linéaires pondérées résumant le mieux la
variance totale d’un échantillon (c’est-à-dire la variance de l’ensemble des réponses
aux items). Elle ne s’adapte pas étroitement à l’analyse de la structure corrélation-
nelle des indicateurs, puisque par hypothèse de l’existence de l’erreur de mesure, les
corrélations des indicateurs sont supposées imparfaites (Dickes, 1996 ; Fabrigar, Mac-
Callum, Weneger, & Strahan, 1999 ; Floyd & Widaman, 1995 ; Russell, 2002).

Les analyses factorielles en facteurs principaux constituent le second type


d’approche. Elles reposent sur un modèle général adapté à la construction de compo-
sites, car la variance des items n’est pas décomposée de manière à ce que les facteurs
en expliquent la totalité, mais seulement la communauté (communality), c’est-à-dire
la part de variance des items qui peut être exprimée par des facteurs communs ; en
d’autres termes, on admet dans cette approche que les items possèdent une variance
spécifique. Du point de vue théorique, la variance spécifique du modèle factoriel peut
être considérée comme la variance d’erreur du modèle du score vrai. Sans entrer dans
des détails techniques, plusieurs types d’analyse en facteurs principaux basées sur
différents algorithmes ont été développées (Mulaik, 1972). Un algorithme couram-
ment utilisé est celui qui repose sur l’estimation de la communauté des indicateurs à
l’aide du carré de la corrélation multiple de tout indicateur avec tous les autres et
c’est celui que nous utiliserons.

L’analyse factorielle en facteurs principaux est une régression des indicateurs


sur des variables latentes communes. Lorsqu’on admet que la variance vraie repose sur
plusieurs facteurs (ou variables latentes), on utilise des rotations pour rechercher les
facteurs tels que les indicateurs qui saturent fortement un facteur saturent faiblement
les autres facteurs, ce qui rend l’espace de représentation plus lisible.
282 Modéliser les différences individuelles avec l’analyse factorielle

2. Application avec le
« Minnesota Satisfaction » Questionnaire

Le « Minnesota Satisfaction » Questionnaire (MSQ, Weiss, Dawis, England et


Lofquist, 1977) a été présenté dans le chapitre précédent. Il est destiné à mesurer
deux attributs hypothétiques, à savoir la satisfaction au travail intrinsèque et la
satisfaction au travail extrinsèque. Les interviewés produisent 20 jugements de satis-
faction sur une échelle de réponse en 5 degrés (Encadré 9.1 du chapitre 9). Les don-
nées traitées ici ont été présentées dans le chapitre 9. Après retrait des observations
manquantes, l’échantillon exploitable comprend 503 observations.

2.1 ANALYSES FACTORIELLES EXPLORATOIRES


La procédure de sélection des indicateurs présentée ici repose sur l’analyse en
facteurs orthogonaux avec rotation (varimax brut). L’objectif de l’analyse est de dis-
criminer les indicateurs autant que faire se peut, de manière à repérer la direction des
deux attributs recherchés.
Les analyses ont été effectuées avec SPSS (SPSS Inc., 2001) et Statistica
(StatSoft., 2001) pour mettre en évidence d’eventuelles différences de résultats d’un
logiciel à l’autre. L’analyse en facteurs principaux orthogonaux sans rotation des 20
indicateurs (items) suggère un facteur commun prédominant, comme l’illustrent les
tracés des valeurs propres présentés dans la figure 10.1. SPSS fournit les valeurs pro-
pres correspondant à une ACP ainsi que leur représentation graphique, même lorsque
l’utilisateur a demandé une analyse en facteurs principaux. Il convient de baser l’ana-
lyse sur les colonnes intitulées « Extraction Somme des carrés des facteurs retenus »
du tableau de la variance totale expliquée. Après le premier facteur, combien de
facteurs supplémentaires faudrait-il retenir ? Si l’on adopte le critère des valeurs pro-
pres supérieures à 1, un facteur supplémentaire suffit, conformément à la conception
psychosociale de la satisfaction au travail. Le plan ainsi défini rend compte de 39 %
de la variance totale, ce qui suggère que les items ont une variance spécifique (ou
d’erreur) importante.
Une analyse en 2 facteurs orthogonaux avec rotation (varimax brut) fournit les
saturations dont la projection est représentée dans la figure 10.2 (fournie sur simple
demande par Statistica, les échelles des axes pouvant être ajustées par l’utilisateur) 3.
Les coordonnées de chaque indicateur sur les 2 axes sont les saturations des facteurs
correspondants. Si la tau-équivalence essentielle était satisfaite, les points représen-
tant les indicateurs seraient confondus (aux fluctuations d’échantillonnage près) et il
serait impossible de dégager un second facteur. En s’inspirant de la démarche de
Little, Lindenberger et Nesselroade (1999), dans l’espace géométrique ainsi défini (le
plan des 2 facteurs), la direction de chaque attribut est estimée par la droite qui relie
l’origine du plan et le centre de gravité des indicateurs sélectionnés. C’est par consé-

3 L’analyse effectuée à l’aide de Statistica spécifie que les communautés sont estimées à partir des
carrés des corrélations multiples. De légères différences peuvent survenir du fait que les valeurs par
défaut du critère d’arrêt des itérations ne sont pas les mêmes d’un logiciel à l’autre.
Application avec le « Minnesota Satisfaction » Questionnaire 283

5
Valeur propre

3
Analyse en facteurs principaux
Analyse en composantes principales
2

–1
0 2 4 6 8 10 12 14 16 18 20

Facteurs ou composantes

FIGURE 10.1 – Graphique des valeurs propres d’après une analyse


en facteurs principaux ou en composantes principales

quent la sélection des indicateurs qui définit d’une part la direction caractéristique de
l’attribut dans l’espace et d’autre part la qualité globale de la mesure.
Vérifions que les indicateurs qui pourraient être retenus ont un intérêt séman-
tique. Les jugements de satisfaction relatifs aux items I5, I6, I8, I12, I13 et I18 ont
pour point commun le fait qu’ils portent sur des aspects du travail essentiellement
sous le contrôle de l’organisation (supérieurs, collègues, structure). Les jugements
relatifs à ces items peuvent refléter la satisfaction extrinsèque. Les jugements relatifs
aux indicateurs I3, I10, I11, I14, I16 et I20 portent tous sur des aspects du travail
dépendant en grande partie de la personne et de sa capacité à les contrôler. Dans ces
conditions, il semble raisonnable d’examiner cette sélection d’indicateurs de manière
plus approfondie.
Le centre de gravité de chaque ensemble d’indicateurs est indiqué approxima-
tivement par l’extrémité des vecteurs tracés sur la figure 10.2. Ces vecteurs représen-
tent la moyenne vectorielle approximative des vecteurs correspondant à chacun des
indicateurs (items). Ce vecteur moyen exprime la variance vraie du composite formé
par la moyenne des indicateurs, en négligeant les dimensions définies par les facteurs
qui n’ont pas été retenus pour l’analyse. Idéalement, la longueur du vecteur moyen
devrait tendre vers 1 (aucune erreur de mesure).
On peut constater que le vecteur moyen correspondant à la satisfaction extrin-
sèque est assez court, ce qui signifie que la mesure ne sera vraisemblablement pas
très précise. La sélection éventuelle d’indicateurs voisins comme I2 ou I19 n’est pas
284 Modéliser les différences individuelles avec l’analyse factorielle

1.0

0.8
I5
I6

0.6 I12
Facteur 2

I2 I19

I18 I1
0.4 I13
I7 I4
I20
I8 I14
I3
0.2 I9 I10 I11
I15 I16
I17
0.0
0.0 0.2 0.4 0.6 0.8 1.0
Facteur 1

FIGURE 10.2 – Projection des saturations des indicateurs sur le plan formé
par les deux facteurs orthogonaux

opportune, car d’une part le vecteur moyen serait angulairement plus proche du vec-
teur de satisfaction intrinsèque, et d’autre part ces items n’apportent pas beaucoup
de variance vraie. Ces considérations suggèrent en revanche l’opportunité de recher-
cher ultérieurement des indicateurs de satisfaction extrinsèque plus performants, qui
pourraient être substitués aux indicateurs I8, I13 et I18. Concernant les items de
satisfaction intrinsèque, la situation est plus favorable puisque le vecteur moyen pré-
sente une plus grande longueur. La sélection éventuelle des indicateurs I9, I17 et I15
ne semble pas pertinente, car ils ne permettent pas de préciser la direction de l’attri-
but et, d’autre part, ils n’apportent pas beaucoup de variance vraie. Les indicateurs
utiles sont ceux dont les vecteurs sont les plus longs et qui contribuent à définir la
direction de l’attribut mesuré.
Cette analyse débouche sur deux observations supplémentaires. Premièrement,
les directions de chaque attribut ne sont pas orthogonales, ce qui suggère qu’ils sont
(positivement) corrélés (le cosinus de l’angle de deux vecteurs est considéré dans
l’espace comme leur corrélation). Deuxièmement, les items non retenus peuvent être
interprétés comme des indicateurs moins spécifiques de chaque attribut. Il est utile
de les rejeter si l’on souhaite maximiser la spécificité des deux mesures (ou leur vali-
dité discriminante).
Analyse factorielle confirmatoire et fidélité composite 285

2.2 COHÉRENCE INTERNE ET CORRÉLATION MOYENNE


Aussi bien SPSS que STATISTICA permettent de calculer le coefficient alpha, sa
version standardisée et la corrélation moyenne des indicateurs. De manière générale,
cette dernière statistique est utile du point de vue comparatif quand le nombre
d’indicateurs n’est pas fixe (alpha dépend du nombre d’indicateurs ou d’items). Le
composite de satisfaction extrinsèque a un alpha de 0,73 avec un intervalle de con-
fiance à 90 % d’environ (0,71 ; 0,76) et une corrélation moyenne de 0,32 (M =
18,21 ; ET = 4,34 ; distribution approximativement normale) 4. Le composite de satis-
faction intrinsèque a un alpha de 0,86 avec un intervalle de confiance à 90 % d’envi-
ron (0,84 ; 0,87) et une corrélation moyenne de 0,50 (M = 21,09 ; ET = 4,77 ;
distribution approximativement normale). La différence entre les deux estimations
reflète logiquement la différence entre les longueurs des deux vecteurs moyens repré-
sentés à la figure 10.2.
L’ensemble de la démarche qui a conduit à la sélection des douze indicateurs
pour mesurer les deux types de satisfaction au travail repose sur une approximation
de la structure des données à l’aide de l’analyse en facteurs principaux. La seconde
section complète la démarche en précisant la structure des données.

3. Analyse factorielle confirmatoire


et fidélité composite

Les analyses précédentes ont suggéré que les deux attributs de satisfaction ne
sont pas indépendants. D’un point de vue psychologique, il est raisonnable de suppo-
ser que les deux types de satisfaction sont positivement corrélés. Cette corrélation
pourrait résulter d’un attribut de satisfaction plus général. L’idée d’un attribut général
est fortement suggérée par les graphiques des valeurs propres. Dans quelle mesure cet
attribut plus général peut-il rendre compte des variances relatives aux deux
attributs mesurés ? En d’autres termes, quelle est la part de variance spécifique à cha-
que attribut ? Est-on certain qu’un seul attribut n’est pas suffisant pour rendre
compte des données ? Pour répondre à ces questions, on peut spécifier différents
modèles et les comparer à l’aide d’une analyse factorielle confirmatoire (AFC). En par-
ticulier, l’AFC hiérarchique (ou encore de second ordre) consiste à modéliser les don-
nées à l’aide de variables latentes hiérarchisées. Une variable latente de premier
ordre, qui détermine les items, peut être elle-même déterminée par une variable
latente de second ordre.

3.1 CONSTRUCTION D’UNE MATRICE DE COVARIANCE DE PETITE TAILLE


Les données de base d’une AFC sont dans la matrice de covariances des indica-
teurs. Lorsque les échelles de réponse sont ordinales comme c’est le cas ici, la matrice
de covariances directement obtenue à partir des scores discrets peut conduire à des

4 M = moyenne, ET = écart type ; la normalité est évaluée selon les coefficients d’asymétrie et
d’aplatissement.
286 Modéliser les différences individuelles avec l’analyse factorielle

distorsions dans l’estimation des paramètres, des erreurs types et du chi 2 (Jöreskog
& Sörbom, 1999, p. 239). Une solution appropriée aux échantillons de taille moyenne
pour lesquels il est difficile d’estimer les corrélations polychoriques 5 (Jöreskog,
1990) est d’utiliser des sommes ou des moyennes d’indicateurs. Cette pratique est
repérée dans la littérature sous l’expression de parceling (Bagozzi & Edwards, 1998 ;
Bandalos, 2002 ; Little, Cunningham, Shahar, & Widaman, 2002).

Outre le fait de disposer de scores que l’on peut plus confortablement considé-
rer comme des mesures d’intervalles, le parceling réduit la dimension de la matrice de
covariances et par conséquent les degrés de liberté du modèle statistique. Les degrés
de liberté s’obtiennent en soustrayant le nombre de paramètres à estimer du nombre
de données de la matrice de covariances (Bentler & Bonett, 1980 ; Russell, 2002).
Comme les modèles comprennent souvent plusieurs modèles de mesure, cette techni-
que permet d’éviter que le nombre de degrés de liberté ne devienne si important qu’il
empêche de mener à bien les estimations. Dans le cadre d’une étude centrée sur la
mesure d’attributs hypothétiques, il peut être opportun que les chercheurs présentent
les caractéristiques d’un modèle de mesure compact pour faciliter son utilisation dans
des recherches plus larges.

Selon Little et al. (2002), 3 indicateurs constituent une solution suffisante


pour une variable latente, ce qui correspond à un modèle exactement identifié : la
matrice de covariances comprend 6 données et le modèle de mesure comprend 6 para-
mètres à estimer. Le fait d’avoir sélectionné 6 indicateurs par attribut (ou par compo-
site) dans les analyses précédentes est compatible avec le parceling. Pour cette
raison, un minimum de 6 indicateurs (ou items) par attribut peut être préconisé. Cha-
que indicateur agrégé a été défini comme la moyenne de 2 items. Les items ont été
regroupés d’après une inspection visuelle de la figure 2 pour homogénéiser autant
que faire se peut la variance relative à l’attribut (variance vraie), de la façon
suivante :

SE1 = 1/2 (I5 + I8), SE2 = 1/2 (I6 + I18), SE3 = 1/2 (I12 + I13) ;

SI1 = 1/2 (I10 + I14), SI2 = 1/2 (I11 + I20), SI3 = 1/2 (I3 + I16) ;

(SE = satisfaction extrinsèque, SI = satisfaction intrinsèque).

Cette approche ne doit pas se faire sur la base de considérations de contenu


mais selon un principe de cohérence des relations linéaires entre la variable latente et
les indicateurs. N’oublions pas que chaque indicateur agrégé est utilisé comme une
mesure redondante du même attribut. Enfin, il peut être utile de préciser que les com-
posites résultant de la somme des indicateurs agrégés sont parfaitement corrélés aux
composites résultant de la somme des indicateurs non agrégés.

5 Les corrélations polychoriques correspondent à une technique d’estimation conçue pour des
variables ordinales (comme c’est le cas avec des échelles de Likert). Le principe revient à estimer des
seuils de manière à ce que la multinormalité soit vraie. La table de contingence formée à partir de
tous les items pour tous les seuils nécessite un très grand nombre d’observations pour que toutes les
cellules de la table soient correctement représentées.
Analyse factorielle confirmatoire et fidélité composite 287

3.2 MODÈLES EMBOÎTÉS 6 ET MODÈLE HIÉRARCHIQUE


L’approche confirmatoire a été mise en œuvre selon la stratégie suivante. Le
modèle à 2 facteurs non corrélés est testé contre le modèle qui admet leur corrélation
(r > 0). Le test de Lagrange (Bentler, 1995) permet de vérifier la nécessité de relâcher
la contrainte de non-corrélation, c’est-à-dire la nécessité d’admettre une corrélation
non nulle entre les 2 facteurs pour améliorer l’ajustement du modèle. Si comme prévu
le test est positif, on pourra considérer que les attributs mesurés sont corrélés. Pour
compléter le raisonnement, il est aussi nécessaire d’éliminer la possibilité que les
deux attributs n’en forment qu’un, en testant le modèle à facteurs parfaitement corré-
lés (r = 1) contre le modèle à facteurs corrélés. Dans ce type de comparaison, le
modèle le plus restrictif est emboîté dans le modèle le moins restrictif.
Une conséquence importante de la corrélation des 2 attributs est qu’il n’est
plus possible de les considérer comme unidimensionnels. Pour rendre compte de
l’effet de corrélation, un facteur de satisfaction général (ou de second ordre) peut
être formalisé avec un modèle hiérarchique statistiquement équivalent au modèle à
facteurs corrélés. La fidélité de chaque composite pourra être estimée afin d’évaluer
la contribution des sources spécifiques et générique de la variance vraie. Cette appro-
che est inspirée des travaux de Steyer et collaborateurs (Steyer, Ferring, & Schmitt,
1992 ; Steyer & Schmitt, 1990 ; Vautier & Jmel, 2003) et sera détaillée plus bas.
Comme les données brutes ne peuvent pas être considérées comme parfaite-
ment multinormales (Mardia normalisé = 3,16) 7, les modèles ont été estimés à partir
des matrices de covariances par la méthode dite robuste, disponible dans EQS
(Bentler, 1998), qui fournit un χ2 et des erreurs types corrigés (les autres estimations
sont obtenues par la méthode du maximum de vraisemblance). Concernant le modèle
à facteurs non corrélés, le test de Lagrange indique que l’abandon de la contrainte de
non-corrélation des facteurs permet un gain d’ajustement extrêmement important,
soit 124 points de χ2 en moins (p < 0,001), la taille de la corrélation des facteurs
s’élevant à 0,61. En ce qui concerne le modèle à facteurs parfaitement corrélés, le
test de Lagrange indique que l’abandon de la contrainte de corrélation parfaite per-
met un gain d’ajustement encore plus important de 247 points de χ2 en moins
(p < 0,001). Par conséquent, on peut retenir que les 2 attributs sont imparfaitement
corrélés. Pour davantage de détails concernant la comparaison de modèles emboîtés,
on pourra consulter Bollen (1989, pp. 289-296).
Le modèle hiérarchique est présenté dans la figure 10.3. Le chi 2 global de
Satorra-Bentler (chi 2 corrigé pour la non-multinormalité) indique un ajustement
excellent, χ2SB(8, n = 503) = 6,29, p = 0,62 (il y a 62 % de chances que les différen-
ces entre les matrices de covariances observée et reproduite soient dues à des fluctua-
tions d’échantillonnage et l’hypothèse nulle d’un ajustement parfait ne peut être
rejetée 8). Dans ces conditions, le rapport des indices usuels qui tiennent compte de
l’existence d’une certaine non-centralité n’est pas nécessaire. La notion de

6 nested models.
7 Cette précaution peut sembler excessive dans ce contexte, mais trop de rigueur ne peut pas
nuire ici. Selon Kline (1998, p. 83), « Les versions normalisées des coefficients de Mardia sont inter-
prétées comme des scores z, mais ces statistiques peuvent être significatives dans de grands échan-
tillons même avec de petits défauts de multinormalité. »
288 Modéliser les différences individuelles avec l’analyse factorielle

non-centralité signifie qu’on ne peut pas s’attendre à ce qu’un modèle linéaire soit
vrai. Lorsque la taille de l’échantillon est importante, de faibles différences entre les
deux matrices sont facilement significatives et dans ce cas, interpréter le chi 2 revient
à rejeter l’hypothèse d’un ajustement parfait. Plus réaliste est l’hypothèse d’un ajus-
tement presque parfait, mais dans ce cas, d’autres indices sont nécessaires. Cet argu-
ment est développé par MacCallum, Browne et Sugawara (1996, p. 132). Lorsque
comme c’est le cas ici l’hypothèse d’un ajustement parfait ne peut être rejetée, l’inter-
prétation des indices prévus pour un ajustement presque parfait est superflue. Pour
information cependant, le lecteur pourra être intéressé par les résultats suivants : CFI
robuste = 1, SRMR = 0,013, RMSEA = 0 (intervalle à 90 % = [0 ; 0,05]). Pour l’inter-
prétation de ces indices d’un point de vue normatif et dans le cas où le chi 2 est
significatif, on pourra consulter Yu et Bentler (1999).
Le très bon ajustement du modèle ne doit pas être interprété comme un grand
succès scientifique. Tout d’abord, le modèle a peu de degrés de libertés, c’est-à-dire
qu’on ne peut pas facilement le tester (Mulaik, 2001). Cet aspect des choses est déli-
béré, mais il convient d’en être conscient. On peut reformuler cette caractéristique du
modèle sous l’angle de la puissance statistique, qui désigne la probabilité de mettre
un effet en évidence (Cohen, 1988). L’effet qui nous intéresse est l’écart global entre
les matrices observée et reproduite. La puissance statistique dont on dispose pour
rejeter l’hypothèse nulle que le modèle s’ajuste étroitement aux données est faible.
En définissant l’hypothèse nulle comme le fait que le modèle ait un ajustement étroit,
c’est-à-dire RMSEA ≤ 0,05, la probabilité de détecter un ajustement médiocre, c’est-à-
dire RMSEA > 0,08 est 0,54, en spécifiant l’erreur de type 1, appelée alpha (ne pas
confondre avec le coefficient alpha de Cronbach), à 0,05. Ces estimations sont effec-
tuées avec le module d’analyse de puissance de STATISTICA. Pour davantage de
détails, on pourra consulter MacCallum et al. (1996).
Ensuite, ne perdons pas de vue que le modèle provient d’un choix d’indicateurs
essentiellement basé sur la recherche d’une adéquation avec le jeu de données sur
lequel est estimé le modèle. On capitalise sur la chance, c’est-à-dire sur le fait que le
modèle est très spécifique à cet échantillon et pas forcément représentatif de la
population des salariés français en général (MacCallum, Roznowski, & Necowitz,
1992).
N’oublions pas les objectifs de l’approche confirmatoire à l’issue des analyses
exploratoires : (a) confirmer la nécessité de corréler les 2 attributs, (b) estimer la
spécificité de ces attributs dans le cadre d’un modèle hiérarchique qui formalise
l’hypothèse d’un attribut de satisfaction plus général. Peut-être est-il utile avant
d’exploiter les estimations du modèle de les commenter. Les estimations des paramè-
tres du modèle hiérarchique indiquées sur la figure 10.3 sont complétées par les
erreurs types robustes, indiquées entre parenthèses. Les erreurs types peuvent être
interprétées comme des scores z et permettent ainsi d’estimer des intervalles de con-

8 Dans le cadre des analyses courantes comme la comparaison de 2 moyennes, la statistique du


test (en l’occurrence le t de Student) s’interprète de la même manière : le p indique la probabilité
pour que l’effet reflété par t soit dû aux fluctuations d’échantillonnage. Mais on cherche à rejeter
l’hypothèse nulle en minimisant l’erreur de type 1 en fixant un seuil alpha tel que p <.05 ou p <.01
par exemple.
Analyse factorielle confirmatoire et fidélité composite 289

0,18 (0,04)

ζSE
0,33 (0,03) SE1
1

0,34 (0,04) SE2 SE


1,05 (0,07)

0,39 (0,03) SE3 0,75 (0,06)


G 0,29 (0,03)
0,23 (0,03) SI1
1

0,29 (0,03) SI2 SI


1,14 (0,06)

0,28 (0,02) SI3 0,99 (0,05)


ζSI

0,20 (0,04)

FIGURE 10.3 – Modèle hiérarchique des attributs de satisfaction extrinsèque (SE)


et intrinsèque (SI) en fonction d’un attribut de satisfaction générale (G)

fiance. Les paramètres sans erreur type correspondent à des paramètres fixés. Les per-
turbations notées avec la lettre grecque zeta représentent les variables spécifiques. Le
facteur G représente une variable commune. Les valeurs numériques relatives à G et
aux perturbations indiquent leurs variances. Les erreurs de mesure ne sont pas repré-
sentées pour simplifier le schéma mais les valeurs numériques indiquent les variances
d’erreur. Le modèle hiérarchique est statistiquement équivalent au modèle à facteurs
corrélés.

3.3 FIDÉLITÉ ET SPÉCIFICITÉ DES COMPOSITES


Les composites définis par la somme des indicateurs agrégés sont linéairement
dépendants des composites correspondants définis dans la première section à partir
de l’analyse en facteurs principaux. Leur fidélité peut être estimée plus proprement
qu’avec le coefficient alpha de Cronbach en s’appuyant sur les estimations du modèle,
dans la mesure où celui-ci offre une description plausible de la structure des données.
Le modèle hiérarchique exprime formellement la bidimensionnalité des deux types de
satisfaction. Utilisons les estimations du modèle hiérarchique pour illustrer cette pro-
priété importante des scores de satisfaction extrinsèque. En notant SE123 la somme
des variables agrégées, on a :
SE123 = (1 + 1,05 + 0,75)SE + ESE1 + ESE2 + ESE3 = 2,8SE + ESE , (4)

où les termes E et SE expriment respectivement l’erreur de mesure et la variable des


scores vrais. Or SE est en fait l’addition de 2 variables vraies indépendantes, à savoir
290 Modéliser les différences individuelles avec l’analyse factorielle

l’attribut de satisfaction général et la part spécifique à SE (qu’on appelle perturbation


dans la terminologie des modèles d’équations structurelles). On a alors :
SE123 = 2,8(G + ζSE) + ESE = 2,8G +2,8ζSE + ESE . (5)
Pour être correctement interprétés, les coefficients de l’équation 5 doivent être
rapportés à la variance des variables latentes. L’étude de la fidélité composite permet
une interprétation adéquate de la contribution des 2 variables vraies dans l’expression
des différences individuelles relatives à la satisfaction extrinsèque.
La fidélité composite des scores de satisfaction extrinsèque mesurés selon
SE123 est par définition :
 3 2
 ∑ λ i [ var(G) + var 〈 ζ SE〉 ]
 1 
- ,
ω ( SE123 ) = ----------------------------------------------------------------------------------------------------- (6)
3 2 3
 
 ∑ λ i [ var(G) + var 〈 ζ SE〉 ] + ∑ var ( E SEi )
 1  1

où λ et ESEi désignent respectivement un coefficient de saturation (ou contribution


factorielle) et une variable d’erreur. La lettre oméga pour dénommer la fidélité dans le
cadre du modèle factoriel est suggérée par McDonald (1999). La part spécifique de la
fidélité dépend de la variance de la perturbation :
 3 2
 ∑ λ i var ( ζ SE )
 1 
spe(SE123) = ------------------------------------------------------------------------ . (7)
 3 2 3
 ∑ λ i var(SE) + ∑ var ( ESEi )
 1  1

La partie générique de la fidélité est donc :


gen(SE123) = rel(SE123) – spe(SE123). (8)
Les composantes de la fidélité du composite de satisfaction intrinsèque sont
obtenues de la même manière.
Les estimations de fidélité avec leur intervalle de confiance à 90 % pour le
composite de satisfaction intrinsèque sont ω = 0,78 (0,75 ; 0,80), spe = 0,30 (0,21 ;
0,38) et gen = 0,48 (0,41, 0,56). Les estimations de fidélité pour le composite de
satisfaction extrinsèque sont ω = 0,86 (0,84, 0,88), spe = 0,35 (0,28 ; 0,43) et gen =
0,51 (0,44 ; 0,57). Dans tous les cas, les différences individuelles relatives à la satis-
faction générale (G) représentent plus de la moitié de la variance vraie (respective-
ment, 0,48/0,78 et 0,51/0,86). Ce rapport souligne l’importance quantitative de cet
attribut qui n’est pas explicité dans l’approche théorique du MSQ.

3.4 BOOTSTRAPPER LES COEFFICIENTS DE FIDÉLITÉ ET ALPHA


L’application du bootstrap dans le cadre des modèles factoriels a été suggérée
par plusieurs auteurs pour estimer les intervalles de confiance des indices de fidélité
(Hancock & Mueller, 2001 ; Raykov & Shrout, 2002). Le coefficient alpha a également
été abordé sous cet angle par Miles, Shevlin et McGhee (1999). L’intervalle de con-
Discussion et conclusion 291

fiance d’une statistique permet d’évaluer la précision avec laquelle cette statistique
est estimée. Par exemple, un alpha de 0,75 dont l’intervalle de confiance à 90 %
serait (0,50 ; 0,95) n’a pas la même signification en termes de précision d’estimation
que si alpha est compris dans (0,70 ; 0,80). Le bootstrap consiste à échantillonner
aléatoirement n observations avec remise en puisant dans l’échantillon disponible.
Celui-ci est considéré comme une représentation plausible de la distribution de la
population. Lorsqu’un nouvel échantillon est ainsi constitué, les paramètres du
modèle sont estimés et enregistrés. Cette procédure est répétée 1000 fois (c’est-à-
dire un grand nombre de fois). Ensuite, le coefficient étudié est calculé pour chaque
échantillon. Les percentiles 5 et 95 de la distribution résultante fournissent les limi-
tes d’un intervalle approximatif à 90 % pour le paramètre de population correspon-
dant à ce coefficient. Pour des raisons de commodité, ces analyses ont été effectuées
avec le module SEPATH de STATISTICA. En ce qui concerne alpha, le modèle boots-
trappé est la matrice de covariances formée par les indicateurs (non agrégés). La
variance estimée du composite est la somme de tous les paramètres estimés. Les
résultats suggèrent une précision d’estimation acceptable et une correction de la
sous-estimation de la fidélité du composite SE tout à fait importante (α = 0,73
[0,71 ; 0,76], ω = 0,78 [0,75 ; 0,80]).

4. Discussion et conclusion

4.1 LA DÉMARCHE GLOBALE POUR CONSTRUIRE DES VARIABLES COMPOSITES


Ce chapitre avait pour objectif d’illustrer comment on peut construire des
variables composites pour mesurer des attributs hypothétiques à partir d’indicateurs
tels que des réponses à des questionnaires. Lorsqu’on dispose d’un ensemble d’indica-
teurs candidats et d’une hypothèse sur l’organisation des attributs que l’on souhaite
mesurer, une analyse en facteurs principaux permet de projeter les indicateurs sur un
plan factoriel, pour faciliter la visualisation des directions des attributs (voir aussi
Vautier, Callahan, Moncany, & Sztulman, 2004 ; Vautier, Gaudron, & Jmel, sous
presse). Ainsi par exemple, les notions de satisfaction professionnelle extrinsèque
versus intrinsèque sont compatibles avec le choix d’indicateurs suggéré sur la
figure 10.2, qui suggère en retour la corrélation positive des 2 attributs et une impré-
cision relative de la mesure de satisfaction extrinsèque. Une particularité de l’appro-
che est que les facteurs mathématiques qui servent à définir les axes du plan de
projection ne sont pas nécessairement identifiés comme les attributs que l’on sou-
haite mesurer. C’est pourquoi il n’y a pas de contradiction entre le fait d’utiliser des
facteurs principaux orthogonaux pour représenter les indicateurs et le fait de suppo-
ser que les attributs sont organisés selon un modèle hiérarchique.
Deux types de complication peuvent limiter la productivité de l’approche. Tout
d’abord, le plan défini par les deux facteurs principaux doit rendre compte de la
variance vraie. Si un troisième facteur principal était nécessaire, la sélection des indi-
cateurs devrait tenir compte des trois plans de projection possibles, ce qui complexi-
fie le problème. Ensuite, la solution factorielle est en pratique suspecte car elle
provient d’un échantillon. Un échantillon formé de 500 observations environ pour une
vingtaine d’indicateurs semble correct pour estimer la structure corrélationnelle des
292 Modéliser les différences individuelles avec l’analyse factorielle

indicateurs (environ 25 observations par indicateur). Cependant, l’expérience pratique


de l’analyse des réponses à des questionnaires suggère qu’il existe une certaine insta-
bilité dans ces structures. C’est d’ailleurs ce qui justifie en partie la nécessité de ne
pas maintenir les analyses structurelles au niveau « moléculaire » des indicateurs,
mais d’opter pour des niveaux de modélisation où une plus grande stabilité peut être
espérée. L’agrégation d’indicateurs permet de passer à des analyses plus « molaires ».
L’estimation de la cohérence interne des composites formés par la somme non
pondérée des indicateurs sélectionnés pour mesurer un attribut permet de préciser les
indications graphiques associées aux longueurs des vecteurs moyens, mais on peut
constater que la modélisation des données permet de remplacer ces estimations par
des estimations (oméga et dérivés) compatibles avec le fait que la tau-équivalence
essentielle n’est pas satisfaite.
L’approche confirmatoire a permis de rejeter l’indépendance et de confirmer la
dualité des attributs mesurés par des indicateurs agrégés. Le modèle hiérarchique
souligne la bidimensionnalité de chaque attribut (partie spécifique et partie généri-
que) et la tridimensionnalité des données collectées avec le MSQ, à savoir la possibi-
lité de définir une troisième variable latente pour rendre compte de la corrélation des
facteurs SE et SI. Ce résultat a une conséquence importante pour l’interprétation des
scores composites. Par exemple, l’attribut de satisfaction extrinsèque est un
« mélange » de 2 attributs, à savoir un attribut spécifique, qui exprime la variabilité
propre à la satisfaction extrinsèque, et un attribut général qui exprime la variabilité
commune à la satisfaction extrinsèque et à la satisfaction intrinsèque. Par consé-
quent, un score moyen de satisfaction extrinsèque sera compatible avec (a) un
niveau élevé de satisfaction générale (G) et un niveau bas de satisfaction extrinsèque
spécifique (ζSE), (b) un niveau bas de satisfaction générale et un niveau élevé de ζSE,
(c) un niveau moyen des deux attributs. Le même raisonnement s’applique pour la
mesure de la satisfaction intrinsèque. Le score d’un attribut multidimensionnel est
ambigu dans les zones moyennes de l’échelle de mesure.
Les estimations de fidélité basées sur le modèle factoriel hiérarchique permet-
tent tout d’abord de compenser légèrement la sous-estimation liée à alpha : les inter-
valles de confiance à 90 % relatifs aux coefficients alpha et à oméga (selon la
terminologie de McDonald, 1999) ne se chevauchent presque pas dans le cas de la
satisfaction extrinsèque. De plus, nous avons montré comment évaluer l’importance
relative de l’attribut de satisfaction générale dans la mesure des 2 attributs SE et SI.
Ce résultat suggère de mieux connaître ce facteur de satisfaction générale. En déga-
geant les perturbations ζSE et ζSI de chaque variable latente SE et SI, l’approche hié-
rarchique permet de retirer statistiquement l’effet de la satisfaction générale et
d’étudier les covariations spécifiques avec d’autres variables.

4.2 POUR ALLER PLUS LOIN


Une fois que les indicateurs pour la mesure des différences individuelles relati-
ves à la satisfaction extrinsèque et intrinsèque sont sélectionnés, le plus difficile
reste à faire. Nous disposons d’un modèle de mesure statistique basé sur un échan-
tillon qui définit un système linéaire de 3 attributs hypothétiques et 12 items. La
définition du modèle hiérarchique repose sur l’hypothèse de l’existence de 3 et non 2
Discussion et conclusion 293

attributs théoriques pour rendre compte de la structure des données. Une manière
d’en tester le bien-fondé serait de répliquer la figure 10.2 à partir d’un nouvel échan-
tillon de données issues de la même population. Si cela s’avérait impossible, il fau-
drait en conclure que les attributs modélisés sont en quelque sorte évanescents. Les
propriétés des indicateurs sont essentiellement relatives aux données. Il serait erroné
de considérer que des indicateurs « marchent » parce que se sont de bons indicateurs.
En fait, ils « marchent » relativement à un échantillon de personnes interrogées, avec
une reproductibilité qui reste toujours à démontrer (Wilkinson & APA Task Force on
Statistical Inference, 1999). L’idée même de validation d’échelle est potentiellement
abusive.
Tester le modèle hiérarchique sur un nouvel échantillon présente une difficulté
pratique, pour des raisons de puissance statistique. Le modèle a été élaboré dans
l’objectif de ne pas poser de problèmes d’ajustement, ce qui signifie qu’il est difficile
à tester. En adoptant les mêmes prémisses que celles à partir desquelles nous avons
évalué la puissance statistique du test de l’hypothèse d’un manque d’ajustement,
nous devrions théoriquement disposer de quelques 953 observations pour avoir 80 %
de chances de détecter un ajustement médiocre (RMSEA > 0,08).
La fonction du modèle hiérarchique est essentiellement de formaliser les diffé-
rences individuelles qui représentent un intérêt pour le chercheur à l’aide de variables
latentes suffisamment porteuses d’information, ce qui est un objectif atteint : les
fidélités obtenues ne sont pas particulièrement alarmantes au regard de ce qui est
habituellement publié. L’étude de la validité des mesures est sans doute celle qui pré-
sente la plus grande importance scientifique.
Le paradigme de Churchill (1979) évoque l’approche multitraits-multimétho-
des. L’analyse multitraits-multiméthodes des données (Campbell & Fiske, 1959) con-
siste à vérifier que des composites relatifs à un même attribut mais mesurés à l’aide
de méthodes différentes (par exemple des auto-évaluations et des hétéro-évalua-
tions) sont fortement corrélés, tandis que des composites relatifs à des attributs dif-
férents mesurés avec des méthodes semblables sont faiblement corrélés. Cette
approche basée sur les variables manifestes est limitée si l’on admet que les attributs
qu’elles mesurent sont multidimensionnels. Récemment, Eid, Lischetzke, Nussbeck et
Trierweiler (2003) ont montré comment importer cette approche dans le cadre de la
modélisation par équations structurelles, de manière à examiner directement les
variables latentes.
Selon que l’on considère les attributs comme des variables dépendantes ou
indépendantes, on aura aussi à répondre aux questions générales suivantes. Comment
les niveaux caractéristiques des personnes relativement aux attributs considérés :
– se modifient-ils dans le temps et en fonction de quelles influences ? (Les attri-
buts sont ici considérés comme des variables dépendantes)
– déterminent-ils d’autres variables ? (Les attributs sont ici considérés comme
des variables indépendantes)
294 Modéliser les différences individuelles avec l’analyse factorielle

Bibliographie
Bacher, F. (2002). Les modèles d’analyse factorielle hiérarchiques. Bulletin de Psycholo-
gie, 55, 573-581.
Bagozzi, R. P., & Edwards, J. R. (1998). A general approach for representing constructs
in organizational research. Organizational Research Methods, 1, 47-87.
Bandalos, D. L. (2002). The effects of item parceling on goodness-of-fit and parameter
estimate bias in structural equation modeling. Structural Equation Modeling, 9, 78-
102.
Bentler, P. M. (1995). EQS Structural equations program manual. Encino, CA : Multiva-
riate Software.
Bentler, P. M. (1998). EQS for Windows (Version 5.7b) [Computer software]. Encino, CA :
Multivariate Software, Inc.
Bentler, P. M., & Bonett, D. G. (1980). Significance tests and goodness of fit in the ana-
lysis of covariance structures. Psychological Bulletin, 88, 588-606.
Bollen, K. A. (1989). Structural equations with latent variables. New York : Wiley.
Bollen, K. A., & Lennox, R. (1991). Conventional wisdom on measurement : A structural
equation perspective. Psychological Bulletin, 110, 305-314.
Borsboom, D., Mellenbergh, G. J., & van Heerden, J. (2003). The theoretical status of
latent variables. Psychological Review, 110, 203-219.
Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by multi-
trait-multimethod matrix. Psychological Bulletin, 56, 81-105.
Churchill, G. A. (1979). A paradigm for developing better measures of marketing cons-
tructs. Journal of Marketing Research, 16, 64-73.
Cohen, J. (1988). Statistical power analysis for the behavioral sciences. (2nd ed.) Hills-
dale, NJ : Lawrence Erlbaum.
Coombs, C. H., Dawes, R. M., & Tversky, A. (1970). Mathematical psychology : An ele-
mentary introduction. Englewood Cliffs, NJ : Prentice-Hall, Inc.
Cortina, J. M. (1993). What is coefficient alpha ? An examination of theory and applica-
tions. Journal of Applied Psychology, 78, 98-104.
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychome-
trika, 16, 297-334.
Dickes, P. (1996). L’analyse factorielle linéaire et ses deux logiques d’application. Psy-
chologie Française, 41, 9-22.
Dickes, P., Tournois, J., Flieller, A., & Kop, J.-L. (1994). La psychométrie. Paris : Presses
Universitaires de France.
Edwards, J. R., & Bagozzi, R. P. (2000). On the nature and direction of relashionships
between constructs and measures. Psychological Methods, 5, 155-174.
Eid, M., Lischetzke, T., Nussbeck, F. W., & Trierweiler, L. (2003). Separating trait effects
from trait-specific method effects in multitrait-multimethod models : A multiple-
indicator CT-C(M−1) model. Psychological Methods, 8, 38-60.
Essex, C., & Smythe, W. E. (1999). Between numbers and notions. Theory & Psychology,
9, 739-767.
Fabrigar, L. R., MacCallum, R. C., Weneger, D. T., & Strahan, E. J. (1999). Evaluating the
use of exploratory factor analysis in psychological research. Psychological Methods, 4,
272-299.
Bibliographie 295

Fan, X. T., & Thompson, B. (2001). Confidence intervals about score reliability coeffi-
cients, please : An EPM guidelines editorial. Educational and Psychological Measure-
ment, 61, 517-531.
Floyd, F. J., & Widaman, K. F. (1995). Factor analysis in the development and refine-
ment of clinical assessment instruments. Psychological Assessment, 7, 286-299.
Green, S. B., & Hershberger, S. L. (2000). Correlated errors in true score models and
their effect on coefficient alpha. Structural Equation Modeling, 7, 251-270.
Hancock, G. R., & Mueller, R. O. (2001). Rethinking construct reliability within latent
variable systems. In R. Cudeck, S. Du Toit, & D. Sörbom (Eds.), Structural equation
modeling : Present and future (pp. 195-216). Chicago : Scientific Software Internatio-
nal.
Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure
analysis : Conventional criteria versus new alternatives. Structural Equation Modeling,
6, 1-55.
Jöreskog, K. G. (1990). New developments in Lisrel : analysis of ordinal variables using
polychoric correlations and weighted least squares. Quality and Quantity, 24, 387-
404.
Jöreskog, K. G., & Sörbom, D. (1999). LISREL 8.30 [Computer software]. Chicago :
Scientific Sofware International, Inc.
Kline, P. (1998). Principles and practice of structural equation modeling. New York : Guil-
ford Press.
Kline, P. (2000). Handbook of psychological testing. (2nd ed.) London : Routledge.
Little, T. D., Cunningham, W. A., Shahar, G., & Widaman, K. F. (2002). To parcel or not
to parcel : Exploring the question, weighing the merits. Structural Equation Modeling,
9, 151-173.
Little, T. D., Lindenberger, U., & Nesselroade, J. R. (1999). On selecting indicators for
multivariate measurement and modeling with latent variables : When « good » indi-
cators are bad and « bad » indicators are good. Psychological Methods, 4, 192-211.
Lord, F. M., & Novick, M. R. (1968). Statistical theories of mental test scores. Reading,
MA. : Addison-Wesley.
MacCallum, R. C., Browne, M. W., & Sugawara, H. M. (1996). Power analysis and deter-
mination of sample size for covariance structure analysis. Psychological Methods, 1,
130-149.
MacCallum, R. C., Roznowski, M., & Necowitz, L. B. (1992). Model modifications in
covariance structure analysis : The problem of capitalization on chance. Psychological
Bulletin, 111, 490-504.
McDonald, R. P. (1999). Test theory : A unified treatment. Mahwah, NJ : Erlbaum.
Michell, J. (2000). Normal science, pathological science and psychometrics. Theory &
Psychology, 10, 639-667.
Miles, J. N. V., Shevlin, M., & McGhee, P. C. (1999). Gender differences in the reliability
of the EPQ ? A bootstrapping approach. British Journal of Psychology, 90, 145-154.
Mooney, C. Z., & Duval, R. D. (1993). Bootstrapping : A non-parametric approach to sta-
tistical inference. Newbury Park, CA : Sage.
Mulaik, S. A. (1972). The foundations of factor analysis. New York : McGraw Hill.
Mulaik, S. A. (2001). Objectivity and other metaphors of structural equation modeling.
In R. Cudeck, S. Du Toit, & D. Sörbom (Eds.), Structural equation modeling : Present
and future (pp. 59-78). Chicago : Scientific Software International.
Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric theory. (3d ed.) New York :
McGraw Hill.
296 Modéliser les différences individuelles avec l’analyse factorielle

Raykov, T. (2001). Bias of coefficient α for fixed congeneric measures with correlated
errors. Applied Psychological Measurement, 25, 69-76.
Raykov, T., & Shrout, P. E. (2002). Reliability of scales with general structure : Point
and interval estimation using a structural equation modeling approach. Structural
Equation Modeling, 9, 195-212.
Russell, D. W. (2002). In search of underlying dimensions : The use (and abuse) of fac-
tor analysis in Personality and Social Psychology Bulletin. Personality and Social Psy-
chology Bulletin, 28, 1629-1646.
Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8,
350-353.
StatSoft. (2001). STATISTICA for Windows [Computer software]. Tulsa, OK : Author.
Steyer, R. (2001). Classical (psychometric) test theory. In T. Cook & C. Ragin (Eds.),
International encyclopedia of the social and behavioral sciences. Logic of inquiry and
research design (pp. 1955-1962). Oxford : Pergamon.
Steyer, R., Ferring, D., & Schmitt, M. J. (1992). States and traits in psychological asses-
sment. European Journal of Psychological Assessment, 8, 79-98.
Steyer, R., & Schmitt, M. J. (1990). The effects of aggregation across and within occa-
sions on consistency, specificity, and reliability. Methodika, 4, 58-94.
Vautier, S., Callahan, S., Moncany, D., & Sztulman, H. (2004). A bi-stable view of single
constructs measured using balanced questionnaires : Application to trait anxiety.
Structural Equation Modeling, 11, 261-271.
Vautier, S., Gaudron, J. P., & Jmel, S. (sous presse). Modèles factoriels linéaires pour
l’analyse de la fidélité des variables composites. Revue d’Épidémiologie et de Santé
publique.
Vautier, S., & Jmel, S. (2003). Transient error or specificity ? An alternative to the stag-
gered equivalent split-half procedure. Psychological Methods, 8, 225-238.
Wilkinson, L., & APA Task Force on Statistical Inference (1999). Statistical methods in
psychology journals. American Psychologist, 54, 594-604. Retrieved September 17,
2002, from http://www.apa.org/journals/amp/amp548594.html
Yuan, K. H., & Bentler, P. M. (2002). On robustness of the normal-theory based asymp-
totic distributions of three reliability coefficients estimates. Psychometrika, 67, 251-
259.
Chapitre 11

Analyse des effets linéaires par


modèles d’équations structurelles
Patrice ROUSSEL, François DURRIEU 1, Eric CAMPOY 2
et Assâad EL AKREMI 3

Sommaire
1 Démarche méthodologique pour les modèles
d’équations structurelles 299

2 Résolution d’un modèle d’équations structurelles 312

3 Conclusion 322

1 Professeur Bordeaux École de Management.


2 Maître de Conférences Université Paris 1 Panthéon-Sorbonne.
3 Maître de Conférences Université Toulouse 1.
298 Analyse des effets linéaires par modèles d’équations structurelles

Les modèles d’équations structurelles ont pour but de traiter statistiquement


des relations de causalité hypothétiques multiples. Ils permettent d’analyser simulta-
nément les effets linéaires qui sont supposés relier plusieurs variables latentes indé-
pendantes et dépendantes. L’analyse d’effets conjoints sur plusieurs variables
dépendantes constitue probablement l’un des plus grands apports de ces méthodes
d’analyses de données. Leur usage s’est élargi aux tests de validité de construits, de
fiabilité et de validité interne d’instruments tels que les échelles d’attitudes, plus
récemment, aux tests de relations linéaires longitudinales, de typologie, d’effets non
linéaires, etc. Plusieurs chapitres de l’ouvrage en présentent les applications.
Les modèles d’équations structurelles ont été développés par Karl Jöreskog
(1973), Ward Keesling (1972) et David Wiley (1973). Le précurseur en est Jöreskog
qui commence par étudier les analyses factorielles au milieu des années 1960. Puis, il
crée le modèle Lisrel en 1970 (LInear Structural RELations) dans le but de traiter sta-
tistiquement des variables latentes dont l’usage se répand alors considérablement. Ce
modèle mathématique est conçu initialement pour répondre à des besoins communs
de la psychologie et de l’économétrie.
Les modèles d’équations structurelles sont élaborés pour tester les effets
linéaires entre un ensemble de variables non directement observables : les variables
latentes. Ces dernières sont estimées grâce à des variables manifestes ou
observables : les indicateurs. Dans les domaines de gestion et des sciences sociales
en général, ces indicateurs correspondent souvent à des mesures obtenues par ques-
tionnaires d’enquête, précisément par les items d’échelles d’attitudes. Au milieu des
années 1970, Jöreskog crée avec Dag Sörbom le logiciel Lisrel qui permettra de vulga-
riser ces méthodes d’analyse de données. Les travaux de Bagozzi (1980) en marketing
ont contribué de façon déterminante à l’essor de ces méthodes dans les disciplines de
gestion. Ceux de Valette-Florence, également en marketing, les introduisent dans le
milieu francophone (1988). Depuis la fin des années 1970, les logiciels deviennent
plus conviviaux et progressivement plus accessibles à tout utilisateur. Lisrel en est à
sa huitième version (Jöreskog et Sörbom, 1996 ; version 8.5 en 2001). Il est rejoint
par d’autres logiciels parfois plus simples d’utilisation (Amos, EQS et Sepath) ou per-
mettant d’effectuer des analyses spécifiques comme la typologie (Pls/Lvpls, Calis/
Proc Calis, Liscomp, Mplus, Mx, Ramona, etc.).
L’usage des modèles d’équations structurelles s’accentue au début des
années 1980 en GRH, en psychologie des organisations et en marketing. D’autres
domaines disciplinaires s’y intéressent dans les années 1990, la finance, les relations
professionnelles, les systèmes d’information, la stratégie, etc. Cet essor est dû à plu-
sieurs facteurs. En premier lieu, les mathématiciens et les statisticiens estiment qu’il
est préférable d’utiliser des modèles d’équations structurelles plutôt qu’une régression
lorsque plusieurs variables latentes à expliquer sont examinées simultanément (Ped-
hazur et Pedhazur Schmelkin, 1991 ; Hair, Anderson, Tatham et Black, 1998). Deuxiè-
mement, ces modèles permettent d’étudier les effets linéaires réciproques entre des
variables à expliquer, mais aussi avec des variables intermédiaires. Troisièmement, ils
relient le modèle de relations linéaires entre variables indépendantes et dépendantes
à un modèle de mesure de ces variables latentes. Ce dernier intègre statistiquement
les erreurs de mesure afin de générer des estimations de l’ensemble des variables
latentes les plus précises possibles. Quatrièmement, ils permettent de réaliser des
Démarche méthodologique pour les modèles d’équations structurelles 299

tests de validité de construit et de fiabilité sur des échelles de mesure de variables


conceptuelles. Ce dernier aspect semble être le moteur le plus important à ce jour de
l’expansion des modèles d’équations structurelles. Ils donnent la possibilité aux utili-
sateurs de ces logiciels d’effectuer des tests plus précis et plus complets des échelles
de questionnaire.
Il convient maintenant d’examiner la méthodologie propre au test d’un modèle
d’équations structurelles puis d’en montrer l’application sur une recherche en gestion
des ressources humaines.

1. Démarche méthodologique pour les modèles


d’équations structurelles

Les modèles d’équations structurelles sont conçus depuis leur origine comme
des méthodes confirmatoires. Ils doivent être utilisés dans la phase finale d’une
recherche pour confirmer la validité interne des construits et tester des hypothèses
d’un modèle d’analyse ou d’un modèle théorique. Par conséquent, l’utilisateur de ce
type de méthode doit au préalable concevoir un cadre théorique et formuler des hypo-
thèses. La méthode s’applique par conséquent aux démarches de recherche déducti-
ves. Toutefois, ce cadre peut être très flexible selon les résultats des premiers tests
statistiques qui peuvent conduire à modifier des hypothèses du modèle de mesure et/
ou du modèle de relations linéaires.
La démarche de mise en œuvre est donc heuristique. Elle distingue cinq phases
principales représentées dans la figure 11.1 : (1) construction d’un modèle théorique,

Élaboration d’un modèle


théorique

Spécification du modèle

Estimation du modèle
Modification et
respécification
éventuelles du
modèle théorique
Identification du modèle

Interprétation
des résultats

Source : Roussel et al., 2002, p. 24.

FIGURE 11.1 – Démarche méthodologique de développement et de test


d’un modèle d’équations structurelles
300 Analyse des effets linéaires par modèles d’équations structurelles

(2) spécification du modèle, (3) estimation du modèle, (4) identification du modèle,


(5) interprétation des résultats, éventuellement modification du modèle et respécifi-
cation.

1.1 ÉTAPE 1 – ÉLABORATION D’UN MODÈLE THÉORIQUE


Un modèle d’équations structurelles repose sur l’articulation de deux types de
modèle : le modèle de mesure et le modèle de relations linéaires. On l’appellera
modèle global ou modèle théorique (Figure 11.2).
Le modèle de mesure représente les relations linéaires supposées entre les
variables latentes ou facteurs (F) et leurs indicateurs ou variables manifestes (V). Ce
modèle résulte de l’analyse factorielle confirmatoire (AFC) qui a été présentée dans le
chapitre sur le test des échelles de questionnaires d’enquêtes. Dans le modèle de
mesure, on observe que chaque variable latente est reliée aux indicateurs par un lien
qui est en réalité la contribution factorielle estimée par l’AFC. Chacun de ces liens a
fait l’objet d’une étude théorique lors de l’élaboration de l’échelle du questionnaire
servant à obtenir une mesure du concept. On peut observer que le processus d’estima-
tion intègre une erreur de mesure pour chaque indicateur (E).
Quant au modèle structurel, il représente l’ensemble des relations linéaires
supposées entre les variables latentes (F). Il représente le système d’hypothèses éla-
boré pour tenter d’expliquer par la théorie un phénomène social. Chaque relation est
étayée par une hypothèse discutée sur le plan théorique voire empirique. Signalons
que la lettre D désigne l’erreur de mesure estimée d’une variable latente à expliquer.
La figure 11.2 correspond à une présentation de modèle d’équations structurel-
les conçue pour le logiciel EQS (Bentler, 1995). L’appellation des variables change si
l’on passe à un autre logiciel comme Lisrel qui adopte l’alphabet grec. Cependant, cer-
taines normes graphiques sont communes à tous les logiciels. Elles sont essentielles
pour lire les résultats dans les publications scientifiques et les rapports d’études. Il
s’agit du rectangle utilisé pour représenter les indicateurs et du rond ou de la forme
ovale pour représenter les variables latentes.

1.2 ÉTAPE 2 – LA SPÉCIFICATION DU MODÈLE THÉORIQUE


La spécification d’un modèle théorique peut être comprise en se reportant de
nouveau à la figure 11.2. L’étape 1 visait à étudier sur le plan théorique et empirique
les relations linéaires entre des variables latentes ainsi que leurs mesures. Elle aboutit
à formuler des hypothèses sur les relations linéaires entre variables latentes explicati-
ves et expliquées (modèle structurel) et à concevoir un système de mesure basé sur
des relations linéaires hypothétiques entre des variables latentes et des variables
manifestes (modèle de mesure). L’étape 2 est la suite logique en désignant de façon
formelle tous les liens du modèle global qui doivent être étudiés. Concernant le
modèle de mesure des variables latentes, les liens avec les indicateurs sont définis.
Puis pour le modèle structurel, les relations linéaires entre les variables latentes sont
déterminées. La direction et la nature (unidirectionnelle, réciproque) des relations
sont décidées. Au total, la spécification d’un modèle consiste à déterminer les diffé-
rents paramètres qui devront être estimés : coefficients de régression, de corréla-
Démarche méthodologique pour les modèles d’équations structurelles 301

E1 V1

E2 V2 F1

D3
E3 V3
V7 E7

F3 V8 E8

E4 V4
V9 E9

E5 V5 F2

E6 V6
D2 Modèle structurel

Modèle de mesure

Modèle global

Source : Roussel et al., 2002, p. 53.

FIGURE 11.2 – Modèles global, de mesure, structurel

tions, de covariances, contributions factorielles, erreurs de mesure. En pratique, la


spécification du modèle théorique s’opère en deux étapes. La première est graphique.
Elle consiste à représenter le schéma des relations linéaires et de mesure du modèle
global (« Path diagram »). La seconde correspond à la saisie d’informations dans le
logiciel.

Le processus de spécification peut être complexe. Le concepteur du modèle


global doit déterminer les paramètres fixes, libres et contraints pour procéder à son
estimation. Les paramètres fixes ou fixés désignent les liens potentiels qui ne seront
pas estimés en accord avec le modèle théorique conçu dans l’étape 1. Par exemple F2
n’a pas d’influence supposée sur F1, ou encore, V3 n’est pas un indicateur de F2. Ces
paramètres sont fixés à zéro pour ne pas entrer dans les procédures de calcul. Cela
n’impose aucune manipulation dans le logiciel, car par défaut tous les paramètres
sont fixés à zéro. Il suffit de « libérer » ceux dont on souhaite l’estimation. Parfois, il
est nécessaire de fixer des liens à des valeurs autres que zéro. À titre d’exemple, pour
une variable latente reliée à un seul indicateur (cas à minimiser) il peut être néces-
saire de fixer son paramètre d’erreur de mesure (ex. 0,05). Les paramètres libres ou
libérés sont ceux représentés formellement dans le graphique par des lignes se termi-
nant par une flèche (Figure 11.2). Ils sont saisis dans la programmation du logiciel.
Ils désignent ceux dont on souhaite estimer la valeur conformément au modèle théo-
rique de l’étape 1. Enfin les paramètres contraints désignent les paramètres libres
302 Analyse des effets linéaires par modèles d’équations structurelles

auxquels le modèle théorique impose une contrainte soit d’égalité entre deux varia-
bles, soit de supériorité ou d’infériorité de la valeur d’une variable par rapport à celle
d’une autre. Les paramètres contraints sont parfois utilisés dans des analyses de type
AFC de second-ordre, longitudinal, multi-groupes, etc. (Roussel et al., 2002).

1.3 ÉTAPE 3 – L’ESTIMATION DU MODÈLE THÉORIQUE


À ce stade du traitement d’un modèle d’équations structurelles, deux problè-
mes doivent être résolus. En premier lieu, il faut choisir le type de la matrice de don-
nées de départ : matrice de corrélations ou matrice de variances/covariances. En
second lieu, il faut choisir les procédures d’estimation du modèle qui sont nécessaires
pour estimer l’ensemble des paramètres.

1.3.1 Le choix de la matrice de données de départ


Le traitement des méthodes d’équations structurelles ne repose pas sur
l’exploitation d’une matrice de données brutes (les réponses codées aux items du
questionnaire). Il exige l’utilisation soit la matrice de variances / covariances, soit
celle des corrélations. Dès leur origine, ces modèles ont été conçus pour analyser des
structures de covariances entre variables. Hair et al. (1998) proposent des critères
pour effectuer le choix de la matrice appropriée :
■ Une matrice de variances-covariances convient pour comparer les données
entre différentes populations, échantillons ou modèles. L’interprétation des
résultats peut être difficile lorsque les unités de mesure des variables diffèrent
beaucoup. Cependant, tous les logiciels donnent aujourd’hui des résultats
standardisés qui permettent de contourner cette difficulté.
■ Une matrice de corrélations est appropriée pour comparer les coefficients d’un
même et seul modèle. La matrice de corrélations est considérée comme une
matrice de variances-covariances « standardisées » où l’on divise les varian-
ces-covariances par le produit des écarts types. Les coefficients obtenus
varient donc entre -1 et +1 et sont indépendants de l’unité de mesure. Si la
standardisation facilite l’analyse d’un même modèle, la généralisation des
résultats obtenus doit être faite avec prudence.

La position actuelle des statisticiens semble converger pour accepter l’exploi-


tation de matrices aussi bien de corrélations que de covariances dans le cas d’analy-
ses factorielles confirmatoires (AFC). En revanche, l’utilisation des matrices de
variances — covariances est recommandée voire exigée pour le traitement de modèles
structurels, des analyses et AFC multi-groupes, des analyses et AFC longitudinales, et
des analyses d’effets non linéaires d’interaction.

1.3.2 Méthode d’estimation


Pour aborder cette question fondamentale dans la résolution d’un modèle, il
faut traiter successivement du problème de l’ajustement du modèle aux données, du
choix de la méthode d’estimation, enfin des conditions de taille d’échantillon.
Démarche méthodologique pour les modèles d’équations structurelles 303

A. L’AJUSTEMENT DU MODÈLE THÉORIQUE AUX DONNÉES


Le test d’un modèle d’équations structurelles consiste à mettre l’épreuve des
données l’hypothèse nulle suivante :
H0 : Les données estimées à partir du modèle théorique s’ajustent bien aux
données empiriques.
Le rejet de l’hypothèse nulle revient à ne pas valider le modèle théorique et
inversement en cas d’acceptation de l’hypothèse. Le processus de résolution repose
sur la confrontation de deux matrices : la matrice « S » des covariances ou des corré-
lations des variables observées, et la matrice « Σ » des covariances ou des corréla-
tions des variables estimées du modèle théorique.
– S = matrice des covariances ou des corrélations entre les variables calculées à
partir des données empiriques de la matrice des données brutes ;
– Σ = matrice des covariances ou des corrélations estimées. L’estimation est
effectuée le plus souvent par une méthode du maximum de vraisemblance. Elle
consiste à maximiser la vraisemblance des covariances ou des corrélations de
l’échantillon observé pour une population qui serait plus étendue.

Si les données de ces deux matrices convergent, l’ajustement du modèle théo-


rique aux données est considéré comme bon (good fit). Dans ce cas, les éléments de
la matrice des résidus se rapprochent de zéro. L’hypothèse nulle peut être acceptée
ainsi que le modèle théorique.

B. LE CHOIX DE LA MÉTHODE D’ESTIMATION DES DONNÉES


L’estimation des paramètres par le maximum de vraisemblance (maximum likeli-
hood ou ML) est la méthode proposée par défaut dans les logiciels. Elle repose sur
plusieurs hypothèses contraignantes : la multinormalité des variables 4 et le recours à
un échantillon de taille moyenne (autour de 200 individus). Cependant, les données
collectées dans le domaine de la gestion ont parfois, voire assez souvent, une distri-
bution qui ne suit pas une loi normale. L’estimation par les moindres carrés générali-
sés (Generalized Least Squares ou GLS) est une méthode alternative pour surmonter
ces différentes contraintes. D’autres méthodes d’estimation ont été développées pour
répondre à des cas de figure différents :
■ Si la distribution s’avère impossible à déterminer, c’est-à-dire arbitraire ou
asymptotique, on peut avoir recours aux méthodes d’estimation ALS, AGLS et
ARLS 5, regroupées sous le terme générique d’Asymptotic Distribution Free ou
ADF et WLS (Browne et Shapiro, 1988 ; Satorra, 1989).

4 La multinormalité est testée à l’aide des coefficients de symétrie (skewness) et de concentration


(Kurtosis). Le premier ne doit pas dépasser /3/, le second peut-être accepté jusqu’à /8/. Ils permet-
tent de vérifier que chaque variable suit une distribution proche d’une loi normale. Il est souhaitable
également d’utiliser le coefficient de Mardia qui peut être considéré comme un coefficient de concen-
tration multivariée (toutes les variables sont prises en compte simultanément). Celui-ci doit être
inférieur ou égal à /3/.
5 Respectivement « Arbitrary Least Squares », « Arbitrary Generalized Least Squares » et « Arbitrary
Reweighted Least Squares ».
304 Analyse des effets linéaires par modèles d’équations structurelles

■ Si la distribution des variables est de forme elliptique, on peut avoir recours


aux méthodes ELS, EGLS, ERLS 6 dans le logiciel EQS (Bentler, 1983 ; Browne,
1982).

Bien que ces méthodes permettent de s’affranchir de l’hypothèse de multinor-


malité des variables, elles nécessitent de recourir à des échantillons de taille impor-
tante, généralement de plus de 1 000 observations. De plus, les résultats obtenus
avec ces méthodes sont mitigés, notamment lorsque les modèles théoriques sont
complexes (nombreuses variables latentes et relations linéaires) ; Il a été observé que
l’estimation par le maximum de vraisemblance fournit de bien meilleurs résultats,
même quand l’hypothèse de multinormalité des variables est violée et que l’on a
affaire à des échantillons de grande taille (Chou et Bentler, 1995 ; Olsson et al.,
2000). Cependant, il faut noter qu’au-delà d’environ 400 observations, l’estimation
par le maximum de vraisemblance a tendance à minorer artificiellement les indices
d’ajustement. C’est pourquoi, Satorra et Bentler (Satorra et Bentler, 1988 ; Satorra et
Bentl ; Satorra) ont développé pour le logiciel EQS une correction du chi-deux qui
permet de recalculer les indices d’ajustement « incrémentaux » (cf. chapitre sur le
développement d’échelles de mesure). Ces méthodes d’estimation ayant été dévelop-
pées récemment, les utilisateurs manquent de recul pour en apprécier toutes les
capacités, mais également les limites. Les chercheurs en gestion et en sciences socia-
les devront rester attentifs aux dernières évolutions afin de les intégrer progressive-
ment. Globalement à ce jour, il ressort des analyses des travaux en statistique que la
méthode du maximum de vraisemblance demeure la plus sûre.

1.3.3 La taille d’échantillon


Hair et al. (1998) identifient quatre facteurs qui influencent la taille de
l’échantillon nécessaire pour traiter un modèle d’équations structurelles : (1) le
niveau de spécification du modèle, (2) la taille du modèle testé, (3) la normalité des
données, (4) la procédure d’estimation du modèle théorique.

Le niveau de spécification du modèle renvoie au nombre et à la complexité des


paramètres à estimer. Plus le nombre de variables latentes et d’indicateurs est grand
dans un modèle théorique, mais surtout, plus le nombre et la complexité des liens à
estimer sont importants (effets réciproques, effets modérateurs, liens fixes, libres et
contraints), plus la taille de l’échantillon doit être grande.

La taille du modèle testé renvoie également au nombre de variables latentes et


d’indicateurs qui le composent. Il est généralement demandé que la taille minimale
d’un échantillon soit supérieure au nombre de covariances et de corrélations de la
matrice des données de départ, c’est-à-dire au nombre de paramètres à estimer.

Concernant la normalité des données traitées, les hypothèses de normalité


multivariée suggèrent l’application d’une règle empirique de quinze individus par
paramètre à estimer.

6 Respectivement « Elliptical Least Squares », « Elliptical Generalized Least Squares » et « Elliptical


Reweighted Least Squares ».
Démarche méthodologique pour les modèles d’équations structurelles 305

Enfin, le choix d’une procédure d’estimation détermine la taille d’un échan-


tillon. Concernant la plus courante, celle du maximum de vraisemblance, un échan-
tillon de cinquante individus peut être traité. Mais cette taille d’échantillon est
généralement trop petite au regard du nombre de paramètres à tester. Des tailles
minimales de cent à cent cinquante individus sont recommandées de façon empirique.
Nous avons vu que cette méthode était sensible à la taille de l’échantillon. Il apparaît
qu’au delà de quatre à cinq cent individus les mesures d’indices de bon ajustement se
détériorent. Une taille idéale serait de deux à trois cent. Ainsi, Hair et al. (1998)
recommandent-ils d’analyser systématiquement un modèle en choisissant aléatoire-
ment 200 ou 300 répondants dans l’échantillon de l’enquête. Dans un second temps,
il peut être réalisé des tests sur des effectifs plus larges si des problèmes de spécifica-
tion et de taille des modèles théoriques apparaissent. Enfin, pour les méthodes d’esti-
mation ADF et WLS, des tailles très importantes, supérieures à 1 000 sont exigées.

1.4 ÉTAPE 4 – L’IDENTIFICATION DU MODÈLE THÉORIQUE


L’identification d’un modèle théorique signifie qu’il est possible de trouver une
solution unique. Cela implique qu’il est possible d’établir une estimation unique de
chacun des paramètres (coefficients de corrélation, de covariance, de régression, con-
tributions factorielles). La difficulté d’identifier un modèle s’accroît avec son niveau
de complexité, en raison de l’apparition de solutions alternatives défendables tant du
point de vue métrique que théorique (Hair et al., 1998). Dans ce cas, le logiciel uti-
lisé ne parvient pas à générer des estimations uniques des paramètres et rejette le
modèle testé.
Plusieurs conditions doivent être réunies pour parvenir à l’identification d’un
modèle. La première est qu’il y ait au moins autant d’observations dans la base de
données que de paramètres à estimer. La deuxième est l’absence de multicolinéarité
entre les indicateurs. La troisième renvoie aux problèmes des degrés de liberté.
Les degrés de liberté représentent l’écart entre le nombre de corrélations ou de
covariances potentielles et estimées. Ils peuvent se définir comme les coefficients
non estimés d’un modèle. Ils se calculent par la différence entre les coefficients de la
matrice de départ (S) et ceux de la matrice estimée (Σ).
df = ddl = 1/2 [(p + q) (p + q + 1)] – t
où : ddl = degrés de liberté (df = « degrees of freedom »)
p = nombre d’indicateurs des variables latentes à expliquer
q = nombre d’indicateurs des variables latentes explicatives
t = nombre de coefficients estimés dans le modèle théorique.
L’influence des degrés de liberté sur l’identification d’un modèle est de deux
sortes (Hair et al., 1998). Premièrement, il est nécessaire que le nombre de degrés de
liberté du modèle soit supérieur ou égal à zéro. Quand le degré de liberté est égal à
zéro, le modèle est dit « exactement identifié ». Dans ce cas, l’ajustement du modèle
théorique aux données devrait être parfait. Mais, il ne présente probablement aucun
intérêt théorique. Dans l’étape amont, cela implique qu’aucune spécification n’a été
entreprise. Lorsque le degré de liberté est supérieur à zéro, le modèle est dit « sur-
identifié ». Il détient davantage d’informations dans la matrice de données de départ
306 Analyse des effets linéaires par modèles d’équations structurelles

(S) que dans la matrice des coefficients à estimer (Σ). C’est la situation souhaitable.
Dans le cas inverse, le modèle est dit « sous-identifié ». Le nombre de paramètres à
estimer est alors supérieur au nombre de paramètres disponibles. Le logiciel utilisé
rejette alors la procédure en indiquant que le modèle est underidentified ou que « le
degré de liberté est négatif ».

Pour éviter les problèmes de sous-identification, il est souhaitable de les anti-


ciper au moment de l’élaboration du modèle théorique. Le premier problème relève de
la mesure des variables latentes. Un nombre minimal de trois indicateurs par variable
latente permet d’obtenir plus sûrement des estimations uniques (Hair et al., 1998).
De plus, il est souhaitable pour la mesure de chaque variable latente, soit de fixer le
premier paramètre à 1 (la contribution factorielle de son premier indicateur = 1), soit
de fixer sa variance à un. Avec la première solution on établit un indicateur de réfé-
rence qui servira de valeur étalon pour la métrique des variables latentes. Avec la
seconde, on standardise la variable latente. En fixant ces paramètres, le risque de
sous-identification du modèle sera réduit. Le deuxième problème est lié à l’estimation
de relations réciproques (dites non récursives) qui peuvent être sources de problème
d’identification. Ce risque peut être neutralisé par l’adoption d’une démarche d’esti-
mation pas à pas préconisée par Jöreskog et Sörbom pour le logiciel Lisrel. Elle con-
siste à tester des modèles alternatifs en se limitant aux relations unidirectionnelles
dans un premier temps, puis en introduisant des effets réciproques dans un second
temps (Roussel, 1996). Une autre approche consiste à tester un modèle de départ qui
d’emblée est le plus parcimonieux possible (Schumacker et Lomax, 1996). Elle est
souhaitable lorsque le modèle théorique est complexe. Il s’agit alors de tester succes-
sivement plusieurs modèles en intégrant progressivement les relations. Une dernière
approche est proposée par Hayduk (1987) qui conseille d’élaborer un modèle théori-
que ne retenant qu’un nombre minimum de coefficients justifiables conceptuellement.
En cas de problème d’identification, une procédure ultime est mise en œuvre : (1)
fixer des variances d’erreurs de mesure des variables latentes, (2) fixer des coefficients
de régression mesurant des effets connus avec certitude, (3) éliminer les variables
perturbatrices.

1.5 ÉTAPE 5 – INTERPRÉTATION DES RÉSULTATS

L’interprétation des résultats intervient à l’issue de l’estimation du modèle


théorique et de son identification. Elle a pour préalable l’évaluation de la qualité de
l’ajustement du modèle aux données. Un bon ajustement est une condition nécessaire
pour procéder à l’interprétation des résultats.

1.5.1 La qualité de l’ajustement du modèle aux données

L’évaluation d’un modèle consiste à apprécier la qualité de l’ajustement du


modèle théorique aux données empiriques. Cette expression renvoie à une analyse qui
se fait en plusieurs séquences au cours desquelles l’ajustement est évalué successive-
ment pour : le modèle global, le modèle de mesure, puis le modèle structurel.
Démarche méthodologique pour les modèles d’équations structurelles 307

A. L’AJUSTEMENT DU MODÈLE GLOBAL


L’ajustement du modèle global doit être testé à l’aide de plusieurs indices aux
caractéristiques différentes. Chacun d’eux présente ses propres faiblesses, aussi est-il
souhaitable de les combiner afin de procéder à une analyse plus objective de l’ajuste-
ment. Les indices développés par les statisticiens se classent en trois familles :
■ Les indices absolus mesurent l’ajustement du modèle global.
■ Les indices « incrémentaux » permettent de comparer plusieurs modèles. Le
modèle qui est testé peut être comparé à un modèle nul (sans structure facto-
rielle) et/ou à des modèles alternatifs (autres modèles théoriques ou empiri-
ques). On appelle également ces indices, les indices d’ajustement relatif.
■ Les indices de parcimonie permettent d’évaluer l’ajustement pour chaque para-
mètre estimé. Ils reposent sur un principe de maximisation de « la quantité »
d’ajustement par paramètre estimé. Ils évitent de « surestimer » un modèle
avec des paramètres qui n’apporteraient qu’un gain marginal à l’ajustement.
Le tableau 11.1 récapitule les principaux indices d’ajustement utilisés dans les
études statistiques donnant lieu à publication scientifique. Leur explication est
détaillée dans l’ouvrage de Roussel, Durrieu, Campoy et El Akremi (2002). Ici, seuls
sont indiqués les valeurs clés, c’est-à-dire les normes d’interprétation des indices les
plus utiles aux lecteurs et utilisateurs de ce type d’études statistiques.

Indices Valeur clé

Indices absolus

• χ2 et Scaled χ2 Aucune (p associée)


• GFI, AGFI, Gamma 1 et Gamma 2 > 0,9
• PNI PNI le plus faible possible
• PNNI PNNI > 0,95
• Hoelter’s critical N > 200
• RMR et SRMR La plus proche de 0. Valeur fixée par le chercheur
• RMSEA < 0,08 et si possible < 0,05

Indices incrémentaux

• NFI et BL86 > 0,9


• TLI (NNFI) et IFI (BL89) > 0,9
• CFI et BFI (RNI) > 0,9

Indices de parcimonie

• χ2 normé a La plus faible entre 1 et 2 ou 3, voire 5


• AIC, CAIC, CAK et ECVI La plus faible possible (comparaison)
• PNFI et PGFI La plus forte possible (comparaison)

a. χ2/dl également considéré comme un indice absolu

Source : Roussel et al., 2002, p. 74.

TABLEAU 11.1 – Valeurs clés communément admises des principaux indices


d’ajustement du modèle global
308 Analyse des effets linéaires par modèles d’équations structurelles

B. L’AJUSTEMENT DU MODÈLE DE MESURE


Parallèlement à l’ajustement du modèle global, on doit s’intéresser à l’estima-
tion du modèle de mesure qui articule trois types d’analyse :
– la fiabilité de chaque construit (variable latente) ;
– sa validité ;
– le degré d’ajustement du modèle de mesure.
Ces trois étapes représentent exactement le processus mis en œuvre pour
l’analyse factorielle confirmatoire présentée dans le chapitre précédent.

La fiabilité des construits


La fiabilité de cohérence interne peut être évaluée par le coefficient alpha de
Cronbach. Cependant, le coefficient rhô de cohérence interne développé par Jöreskog
(Jöreskog, 1971) semble plus adapté aux méthodes d’équations structurelles puisqu’il
intègre de manière explicite les termes de l’erreur et les contributions factorielles.
 n 2
 ∑ λ i
i = 1 
ρ (A) = -------------------------------------------------------
-
 n 2 n
 ∑ λ i + ∑ var ( ε i )
i = 1  i=1

avec : A : construit à tester (variable latente),


λi : coefficient standardisé de la mesure i (item) sur A (contribution
factorielle),
n : nombre de variables observées i pour le construit A (nombre
d’indicateurs),
εi : erreur de mesure de i,
ρ(A) appelé aussi ρ(ξ) : coefficient de fiabilité de cohérence interne
(rhô de A ou rhô de Ksi).
Néanmoins, ce coefficient est relativement peu utilisé et l’on connaît mal,
contrairement à l’alpha de Cronbach, son comportement en fonction du nombre
d’items et de la taille de l’échantillon. De plus, il n’existe pas de règles précises
d’interprétation de ce coefficient. Les mêmes critères que pour l’alpha de
Cronbach sont appliqués en considérant que la fiabilité de cohérence interne du cons-
truit est bonne si la valeur du rhô est supérieure à 0,7 ou 0,8 selon les auteurs (For-
nell et Larker, 1981).

La validité des construits


Deux critères sont à considérer pour apprécier la validité de construit : la vali-
dité convergente et la validité discriminante. La validité convergente correspond à la
capacité d’une mesure à fournir des résultats proches de ce qu’il serait obtenu avec
d’autres mesures d’un même construit. En l’absence d’instruments différents, l’appré-
ciation de la convergence des items d’une même échelle se fait au regard de leur
capacité à mesurer précisément et uniquement une même variable (contributions fac-
torielles élevées et essentiellement sur un seul facteur). Quant à la validité discrimi-
Démarche méthodologique pour les modèles d’équations structurelles 309

nante, elle représente la capacité d’une mesure à générer des résultats différents des
mesures d’autres traits ou construits (Roehrich, 1993). Pour effectuer ces deux tests,
Fornell et Larker (1981) ont proposé une approche séquentielle qui a été complétée
par Bagozzi et Yi (1989).
■ Un construit montre une validité convergente satisfaisante, si et seulement si
le test t associé à chacune des contributions factorielles est significatif (supé-
rieur à 1,96 pour p=0,05). Est associé à ce critère celui de la variance moyenne
extraite, ou rhô de validité convergente. Il doit être supérieur à 0,5 (Fornell et
Larker, 1981) car il indique que chaque indicateur lié à une variable latente
partage plus de variance avec elle qu’avec d’autres construits :
n

∑ ( λi2 )
ρ vc i=1
= -----------------------------------------------------
-
(A) n n

∑ ( λ i2 ) + ∑ var ( εi )
i=1 i=1

■ Un construit présente une validité discriminante satisfaisante, lorsque le


modèle qui est testé, en laissant libres les corrélations entre les différentes
variables latentes, s’avère meilleur qu’un modèle où l’on fixerait à 1 les corréla-
tions entre ces variables. En pratique cela signifie que la différence de chi-
deux entre deux modèles doit être significative au regard de la différence de
degrés de liberté observée.

L’ajustement du modèle de mesure


Le test suit la même démarche que pour l’évaluation de l’ajustement du modèle
global. Le plus souvent il confronte le modèle de mesure des variables latentes, à
celui suggéré par d’autres modèles théoriques ou d’autres travaux empiriques. Dès
lors, les indices incrémentaux sont particulièrement utilisés pour confronter les
modèles concurrents et signaler celui qui présente le meilleur ajustement relatif. Une
application est proposée dans le cadre de l’analyse factorielle confirmatoire du chapi-
tre sur le développement des échelles de mesure.

C. L’AJUSTEMENT DU MODÈLE STRUCTUREL


Dans une dernière étape, l’ajustement du modèle structurel est évalué. Cela
nécessite de vérifier que les relations linéaires entre les variables latentes désignées
par les coefficients structurels (appelés aussi coefficients de régression) sont statisti-
quement significatives (différentes de zéro). Les logiciels proposent un test t de Stu-
dent. Le même évoqué précédemment pour apprécier la validité convergente. Le seuil
de signification (probabilité d’erreur) que choisira le chercheur dépendra de la taille
de l’échantillon. Lorsque celle-ci est faible (inférieure à 200 observations), il est
recommandé d’être prudent en choisissant un seuil de 2,5 % (voire 1 % si l’on dispose
d’une centaine d’observations seulement). Au-delà de 200 observations, un seuil de
signification de 5 % est suffisant. Dans ce cas, qui est généralement le plus fréquent,
la valeur de t doit être supérieure à 1,96.
En complément à cette analyse, on peut examiner les coefficients de régres-
sion ou structurels standardisés. Ils varient entre – 1 et +1 et leurs variances sont
310 Analyse des effets linéaires par modèles d’équations structurelles

toutes égales. Ils sont similaires aux coefficients bêta de la régression. Ainsi, plus la
valeur absolue d’un coefficient est-elle proche de 1, plus la relation linéaire est forte,
et inversement.
Enfin, en poursuivant la comparaison avec la régression, il est recommandé
d’analyser pour chacune des variables latentes dépendantes le pourcentage de
variance expliquée. Similaire au coefficient R2 de la régression, il s’obtient en sous-
trayant à 1 le carré du coefficient standardisé de la perturbation associée à la variable
latente (Bentler, 1989). La plupart des logiciels produisent automatiquement cet
indice 7. Plus le résultat est élevé, plus on peut considérer que la variable endogène
(dépendante) est bien expliquée par les autres variables qui lui sont associées.

1.5.2 L’interprétation des résultats — et les modifications


éventuelles du modèle
Arrivé aux termes des étapes de la démarche, le modèle théorique est consi-
déré comme acceptable. Il peut être enfin examiné pour l’interprétation des résultas.
Celle-ci repose sur la confrontation des résultats aux hypothèses qui sous-tendent le
modèle théorique. L’art d’interpréter les résultats consiste à répondre à trois types de
questions (Hair et al., 1998) :
– Les relations théoriques sont-elles confirmées et statistiquement
significatives ?
– Des modèles théoriques concurrents apportent-ils un éclairage supplémentaire
en soutenant des hypothèses alternatives ?
– Les relations significatives vont-elles dans le sens supposé par la théorie ?
Pour aider à répondre à ces trois questions, il est nécessaire d’aborder deux
problèmes techniques qui se posent en fin d’analyse : le choix d’une solution standar-
disée, et la respécification éventuelle du modèle.

A. SOLUTIONS STANDARDISÉES OU NON STANDARDISÉES ?


Les paramètres qui sont analysés (contributions factorielles et coefficients
structurels/de régression notamment) peuvent être standardisés. Dans ce cas, tous les
paramètres ont les mêmes valeurs maximales — 1 et 1. Le choix d’une solution stan-
dardisée facilite la lecture des résultats, rendant l’interprétation des coefficients
structurels Bêta et Gamma similaire à celle des coefficients de régression. Des coeffi-
cients proches de 0 indiquent que les effets linéaires sont faibles, et inversement en
se rapprochant de 1. Une solution standardisée est très pratique pour comparer la
grandeur des effets qui sont mesurés entre les variables d’un même modèle. En revan-
che, l’analyse des résultats est limitée à l’échantillon étudié, excluant une comparai-
son des coefficients entre plusieurs échantillons. Inversement, avec une solution non
standardisée, la comparaison des coefficients un à un entre échantillons est possible,
alors que la comparaison relative de leur grandeur au sein d’un même échantillon est
plus délicate. Ainsi, l’utilisateur choisira-t-il la solution idoine par rapport au
domaine étudié.

7 Appelé Squared Multiple Correlations for Structural Equations dans le logiciel Lisrel.
Démarche méthodologique pour les modèles d’équations structurelles 311

B. LA RESPÉCIFICATION ÉVENTUELLE DU MODÈLE THÉORIQUE

La respécification du modèle théorique intervient lorsque l’on souhaite amélio-


rer son ajustement aux données empiriques ou son adéquation aux hypothèses qui le
sous-tendent. Cette procédure n’est pas une nécessité, elle doit répondre à un besoin
et doit être conduite avec prudence. Elle consiste à ajouter ou à retirer des paramè-
tres estimés du modèle qui vient d’être testé. Toute décision de cette nature doit être
fondée sur un argument théorique. Si cette opération est décidée, Hair et al. (1998)
conseillent de tester le modèle respécifié sur un autre jeu de données brutes (nouvel
échantillon, ou sous-échantillon non encore exploité).

Le processus de respécification du modèle peut conduire à proposer des modè-


les théoriques nichés ou emboîtés (Nested). Ce sont des modèles fondés sur des bases
théoriques similaires, mais qui proposent d’autres hypothèses. Ils ont un niveau de
parcimonie équivalent et sont comparés pour discuter des différents aspects d’une
théorie.

Par ailleurs, les logiciels proposent des indicateurs facilitant l’identification


des variables concernées par la respécification. Le premier indicateur est celui des
résidus standardisés ou normalisés de la matrice des covariances ou des corrélations.
Ces résidus sont calculés par différences entre les covariances ou les corrélations
observées et celles estimées. L’analyse des résidus standardisés doit porter sur ceux
qui dépassent le niveau de +/- 2,58 car ils sont considérés comme étant significatifs
au niveau de probabilité d’erreur alpha de 0,05. Des résidus importants et significatifs
suggèrent une erreur possible de prédiction du modèle. Il faut alors étudier l’intérêt
théorique d’ajouter dans le modèle l’estimation de la corrélation ou de la covariance
entre les deux variables signalées par le résidu. Pour aider à prendre une décision de
respécification, il est possible d’examiner un deuxième type d’indicateur : l’indice de
modification. Dans Lisrel, il représente la réduction du chi-deux qui se produirait si
l’on estimait un ou plusieurs paramètres supplémentaires (corrélation ou covariance).
Ces indices sont calculés pour chaque couple de variables manifestes d’un modèle
dont le paramètre est fixé (non estimé) ou contraint (valeur affectée). Quand un
indice de modification est supérieur à 3,84 (un seuil de 7,882 est préférable), il
signale une réduction significative du chi-deux si l’on ajoute la relation concernée
dans le modèle. Cependant, l’estimation du paramètre supplémentaire sera condition-
née par une justification théorique cohérente avec le modèle. Enfin, un dernier indi-
cateur est disponible dans Lisrel : le changement attendu de paramètre (Expected
Change Parameter — ECP). Il indique quelle serait la valeur d’un paramètre fixé (non
estimé dans le modèle initial) s’il était libre, c’est-à-dire estimé. La décision d’inté-
grer le paramètre dans le modèle devra être également justifiée sur le plan théorique.
Ces indicateurs ou leurs variantes existent dans tous les logiciels. Dans EQS, il s’agit
des tests de Lagrange et de Wald. Cependant, il est conseillé de les utiliser avec une
très grande précaution, en ne retenant que les paramètres apportant une explication
conceptuelle claire et cohérente au phénomène étudié.

Si un travail de respécification du modèle théorique d’origine est effectué, il


est nécessaire de reprendre les analyses au niveau de l’étape 4 de l’estimation.
312 Analyse des effets linéaires par modèles d’équations structurelles

2. Résolution d’un modèle d’équations structurelles

Le cas illustratif s’applique au domaine du management des rémunérations. Il


s’appuie sur la méthode pas-à-pas développée par Jöreskog et Sörbom (Jöreskog et
Sörbom, 1996) pour le logiciel Lisrel. Cette méthode est conçue pour tester un
modèle de relations linéaires qui intègre des liens réciproques. La complexité de ce
type de modèle entraîne fréquemment des problèmes d’identification. Or, ce type de
modèle théorique répond à des besoins fréquents tant dans les sciences de gestion
que dans les sciences sociales. La méthode de Jöreskog et Sörbom est appropriée pour
résoudre ce cas de figure. Elle repose sur un principe très simple, celui de l’élimina-
tion progressive (pas à pas) des relations non significatives qui apportent le moins
d’explication au phénomène analysé. L’objectif est alors de parvenir à valider un
modèle parcimonieux. Cette méthode se compose de six étapes :
1. vérifier la signification des corrélations entre les variables latentes à
expliquer ;
2. tester l’hypothèse 1 : les variables à expliquer ont toutes les variables explica-
tives comme causes communes ;
3. tester l’hypothèse 2 : une première variable à expliquer influence l’autre varia-
ble expliquée ;
4. tester l’hypothèse 3 : la seconde variable à expliquer influence l’autre variable
expliquée ;
5. tester l’hypothèse 4 : les deux variables à expliquer s’influencent
réciproquement ;
6. retenir comme modèle celui qui a le meilleur ajustement aux données à l’issue
du test des quatre hypothèses.

2.1 LA CORRÉLATION ENTRE LES VARIABLES LATENTES EXPLIQUÉES


La première étape consiste à vérifier si les corrélations des indicateurs des
variables latentes dépendantes sont significatives. Si elles le sont, la pertinence du
modèle théorique trouve un premier support empirique. Les quatre hypothèses des
étapes suivantes de la démarche peuvent être testées. Dans le cas inverse, le modèle
théorique doit être soit re-spécifié, soit abandonné pour conclure à l’indépendance
des deux variables à expliquer.
Dans le cas pratique qui est traité, le modèle théorique (Figure 11.3) désigne
les relations à tester entre d’une part, les variables indépendantes de motivation par
la rémunération et de satisfaction à l’égard de la rémunération, d’autre part, les varia-
bles dépendantes de motivation et de satisfaction au travail. D’après le tableau des
corrélations non présenté ici, celles observées entre les indicateurs des variables à
expliquer sont significatives au niveau de probabilité d’erreur de 0,001. Celles obser-
vées entre l’indicateur de la motivation au travail Y5 et les indicateurs de la satisfac-
tion au travail sont également positives et significatives respectivement avec Y1
(0,497), Y2 (0,433), Y3 (0,467) et Y4 (0,226). Les deux variables latentes dépendan-
tes étant liées statistiquement, ce résultat permet de tester les hypothèses 1 à 4. Au
Résolution d’un modèle d’équations structurelles 313

x1 Y1
Équité λ11 MSQ
δ1 interne Satisfaction
intrinsèque ε1
ξ1 ζ1
Équité Satisfaction
x2 externe - λ21 à l'égard de la Y2
λ11 MSQ
δ2 Rémunération rémunération γ11 Satisfaction
fixe directe ε2
η1 intrinsèque
λ31 λ21
x3 Rémunération γ21
Satisfaction Y3
δ3 flexible λ41 φ21 MSQ
au travail λ31 Reconnaissance ε3
x4 φ31
Augmentations ξ2
δ4 φ41 Y4
Satisfaction γ12 λ41 MSQ
x5 Avantages λ52 à l'égard des γ14 Autorité - Utilité
δ5 divers avantages sociale ε4
divers γ13
x6 γ22
Attente λ63 φ42 φ32 β21 β12
δ6 Perf.-Rému. ξ3
Motivation
x7 Valence λ73 par la
δ7 Rémunération Rémunération η2
λ83 directe
x8 γ23 Motivation
Attente Y5
φ43 au travail Effort
δ8 Effort - Perf. ξ4 λ52 ε5
λ84 Motivation
x9 Attente par les
δ9 Perf.-Avant. λ94 Avantages γ24
divers ζ2
λ104
x10 Valence
δ10 Avantages

Source : Roussel, 1996, p. 260.

FIGURE 11.3 – Modèle général des relations linéaires

préalable, quelques conditions de mise en œuvre du logiciel Lisrel sont présentées


(Encadré 11.1).

2.2 TEST DE L’HYPOTHÈSE 1


HYPOTHÈSE 1 : « les variables expliquées η ont toutes les variables explicatives
ξ comme causes communes ».
Le test de cette hypothèse nécessite de mettre en relation chaque variable à
expliquer avec toutes les variables explicatives, et ce, en excluant toute relation entre
les variables dépendantes. L’hypothèse revient à considérer la corrélation partielle
entre η1 et η2 comme nulle si ξ1, ξ2, ξ3 et ξ4 étaient éliminées des équations structu-
relles. Si la corrélation partielle entre η1 et η2 est de zéro et que les variables dépen-
dantes sont reliées aux variables indépendantes, l’hypothèse 1 est vérifiée. Alors les
variables à expliquer η1 et η2 auront indépendamment les mêmes causes. Inverse-
ment, si l’hypothèse 1 est invalidée, il devient possible de tester les hypothèses sub-
séquentes.
314 Analyse des effets linéaires par modèles d’équations structurelles

ENCADRÉ 11.1
Mode d’utilisation du logiciel Lisrel 8.5

• Au préalable, il faut ordonner les items de la matrice des données brutes selon leur
ordre d’apparition dans le modèle théorique défini a priori (Figure 11.3). Le clas-
sement des items est effectué dans la matrice initiale du logiciel de saisie des don-
nées (SPSS, Excel ou SAS). Les items sont ordonnés colonne après colonne, en
commençant par ceux des indicateurs des variables à expliquer, suivis de ceux des
indicateurs des variables explicatives. La lecture doit donc se faire de droite à gau-
che, et de haut en bas en se rapportant au schéma de modèle théorique.
• Puis, il faut importer la matrice des données ordonnées sous Prelis. Il s’agit du
module de Lisrel qui convertit automatiquement le fichier en format
adapté. Démarche à effectuer : ouvrir Lisrel 8.50, aller dans le menu « File » et
sélectionner « Import External Data in Other Formats ». Puis, sélectionner le fichier
de données (« Motivation.sav », qui est le fichier SPSS de données brutes ordon-
nées). L’ouverture de ce fichier permet de l’enregistrer automatiquement sous Prelis
avec l’extension (*.psf : « Motivation.psf »).
• Une fois la matrice des données « Motivation.psf » ouverte et enregistrée sous Pre-
lis, il faut générer la matrice des covariances qui va être utilisée pour traiter le
modèle d’équations structurelles. Aller dans le menu « Satistics », sélectionner
« Output Options ».
• Dans « Output Options », il faut sélectionner le type de matrice à générer et le sau-
vegarder comme données pour Lisrel sous un nom spécifique, en cochant « Save
to File » et « LISREL system data ». Pour un modèle d’équations structurelles, la
matrice des covariances est utilisée. Elle est sauvegardée sous le nom
« Motiva.cov » (choisir un nom de fichier de 8 caractères au plus).
• Le module Prelis permet alors d’explorer les données et de générer la matrice des
covariances. Les résultats de Prelis (« Output ») comportent la syntaxe des comman-
des sélectionnées dans les menus, les valeurs manquantes par variable observée,
la taille de l’échantillon final après élimination des données manquantes, les sché-
mas des distributions univariées des variables ordinales, etc., enfin, la matrice des
covariances. Dès lors il est souhaitable d’utiliser le module Simplis de Lisrel, recom-
mandé pour sa simplicité et sa fiabilité. Il va permettre de procéder aux tests des
hypothèses.

■ Syntaxe de la programmation dans Simplis de Lisrel 8.5


(1) Model Hypothese1
(2) Observed Variables : sintrins sextrins sreconna autorite effort eqinter
eqexter remflex augment avantage atperfre valrem atefperf atperfav valavant
(3) Covariance Matrix from File C :\DONNEESLISREL\motiv.cov
(4) Sample Size=579
(5) Latent Variables : SATISTRA MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
(6) Relationships :
(7) sintrins sextrins sreconna autorite=SATISTRA
effort=MOTIVTRA
eqinter eqexter remflex augment=SATISREM
avantage=SATISAVA
atperfre valrem atefperf=MOTIREM
atefperf atperfav valavant=MOTIAVAN
(8) SATISTRA=SATISREM SATISAVA MOTIREM MOTIAVAN
Résolution d’un modèle d’équations structurelles 315

MOTIVTRA=SATISREM SATISAVA MOTIREM MOTIAVAN


(9) Set the Error Variance of effort Equal to 0,202
Set the Error Variance of avantage Equal to 0,094
(10) Options : AD=OFF IT=300
(11) Lisrel Output : RS SS SC SE TV EF PC EF MI FS
(12) Path Diagram
(13) End of Problem

La numérotation permet de définir chaque élément de la syntaxe :

■ Commentaire de la syntaxe
(1) titre explicite du modèle testé ;
(2) déclaration des variables manifestes (indicateurs) que Prelis devra aller lire dans la
matrice des données brutes (fichier Spss par exemple). Chaque nom de variable ne doit pas
dépasser 8 caractères et doit évoquer une des variables latentes du modèle d’un point de
vue sémantique. Les variables manifestes sont classées selon l’ordre d’apparition indiqué ci-
avant : de haut en bas et de droite à gauche dans la figure 11.3. Pour identifier le modèle,
les indicateurs sont ici des agrégats. Il s’agit des scores moyens d’échelles multi-items cal-
culés dans Spss à partir de la matrice de données brutes. L’ensemble du questionnaire fai-
sant plus de 60 items, il est nécessaire de les agréger pour former les indicateurs de chaque
variable latente. Les indicateurs associés à une variable latente correspondent à la structure
factorielle du construit. Notons que de nombreuses études retiennent également la techni-
que de la somme des scores d’items pour construire les agrégats (cf. la technique du Parce-
ling dans le chapitre 10) ;
(3) demander à Prelis de calculer la matrice des covariances ;
(4) indiquer la taille de l’échantillon : nombre d’individus ou d’observations dans la matrice
de données brutes Spss que Prelis va traiter ;
(5) déclaration des variables latentes que Simplis va ensuite traiter. Ces variables sont éga-
lement classées selon l’ordre d’apparition bien précis déjà décrit ;
(6) déclaration des relations (paramètres) que Simplis va traiter (calcul et estimation) ;
(7) les premières relations concernent le modèle de mesure. Chaque indicateur est relié à
une variable latente. Notons que l’indicateur « Attentes effort — performance » (atefperf)
est relié à deux variables latentes : « motivation par la rémunération directe » (MOTIREM)
et « motivation par les avantages divers » (MOTIAVAN). Cette possibilité repose sur un
choix conceptuel précis et justifié ;
(8) ces relations décrivent le modèle structurel. Chaque variable latente à expliquer est
reliée à l’ensemble des variables latentes explicatives afin de tester l’hypothèse 1 ;
(9) fixation des erreurs de mesure de deux indicateurs uniques « effort » et « avantage »
pour deux variables latentes « motivation » (MOTIVTRA) et « satisfaction à l’égard des
avantages divers » (SATISAVA). Par défaut, Lisrel fixe la variance d’erreur à 0 et la contribu-
tion factorielle à 1 lorsqu’une variable latente n’a qu’un seul indicateur. Pour éviter cette
hypothèse de « mesure parfaite » de la variable latente, il est souhaitable de fixer une
valeur à la variance de l’erreur de mesure. Variance d’erreur de l’indicateur = (1 — coeffi-
cient de fiabilité alpha de l’indicateur) x variance de l’indicateur. Ce calcul est possible lors-
que l’indicateur est une variable agrégée (un score d’une échelle à plusieurs items). Ces
données sont calculées dans Spss, sachant que le coefficient alpha de Cronbach est consi-
déré comme une approximation de la vraie valeur de l’indicateur. Son résidu affecté de sa
variance est alors une approximation de la variance de l’erreur de mesure de l’indicateur.
Exemple pour l’indicateur Effort = (1-0,795) x 1.01 = 0,207 ;
316 Analyse des effets linéaires par modèles d’équations structurelles

(10) options demandées à Lisrel : nombre d’itérations (IT=300 ; à défaut IT=5 x nombre de
paramètres) et commande AD=OFF introduite lorsque certaines variables latentes ont moins
de 3 indicateurs entraînant un risque de matrices non définies positives 8 ;
(11) les résultats Lisrel (Output) demandés sont : les résidus standardisés (RS), les estima-
tions standardisées (SS), et complètement standardisées des paramètres (SC), les erreurs
standardisées (SE), les t du test de Student ou « T values » (TV), effet total et effet indirect
(EF), les paramètres estimés (PC), les indices de modification (MI), les scores factoriels
(FS) ;
(12) la représentation graphique du modèle est demandée ;
(13) la fin de la syntaxe est signalée.
Remarque : il faut adopter minutieusement la syntaxe afin d’éviter des problèmes dans l’utilisation du logiciel. Il
faut notamment : laisser les espaces uniquement aux endroits où ils apparaissent dans ces lignes du
programme, utiliser les mêmes signes (: =.,) et ne pas dépasser 80 caractères par ligne.
En fin de programme Simplis, il suffit de rester dans le même écran et de cli-
quer sur l’icône bleue « L » pour exécuter « Run Lisrel ». Les résultats s’affichent, per-
mettant de commencer leur analyse. Il est possible de réécrire dans un logiciel de
traitement de texte les équations indiquant les résultats de l’analyse. Les deux équa-
tions de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se présentent comme suit :
η1 = 0,536ξ1 + 0,041ξ2 + 0,294ξ3 — 0,112ξ4 + ζ1 R2 = 0,878
η2 = 0,177ξ1 + 0,269ξ2 + 2,854ξ3 — 2,215ξ4 + ζ2 R2 = 0,410
Les valeurs t du test de signification des paramètres de GAMMA (coefficient
stucturel ou de régression entre une variable dépendante et une variables indépen-
dante) sont :
SATISREM SATISAVA MOTIREM MOTIAVAN
ξ1 ξ2 ξ3 ξ4
SATISTRA η1 5,945 0,726 1,140 -0,502
MOTIVTRA η2 0,850 2,066 2,325 -2,177
Dans la première équation, les effets (paramètres gamma) de ξ2, ξ3 et ξ4 ne
sont pas significatifs sur η1, dans la seconde, l’effet de ξ1 sur η2 ne l’est pas non plus
(t<1,96). Il est nécessaire d’examiner le comportement de ces variables lors du traite-
ment des trois autres hypothèses pour préciser les relations linéaires. À ce stade de
l’étude, il peut être conclu que les quatre variables explicatives ne sont pas des cau-
ses communes des deux variables expliquées. Ce qui va à l’encontre de la première
hypothèse. Enfin, la covariation partielle entre les deux variables expliquées est esti-
mée à partir de la matrice de variances et covariances PSI :
Matrice de Valeurs t du test de signification
variances-covariances PSI des paramètres de PSI
SATISTRA MOTIVTRA SATISTRA MOTIVTRA
η1 η2 η1 η2
SATISTRA η1 0,025 SATISTRA η1 1,500
MOTIVTRA η2 0,048 0,474 MOTIVTRA η2 3,203 6,160
La corrélation partielle entre η1 et η2 est estimée par : ψ21 / (ψ11 ψ22)1/2 =
0,441

8 Aucune solution ne peut être générée par le logiciel car le déterminant de la matrice de cova-
riances est soit nul, soit négatif. Le logiciel indique un message d’erreur : « Warning : Matrix to be
analyzed is not positive definite ».
Résolution d’un modèle d’équations structurelles 317

La covariance partielle entre η1 et η2 estimée à 0,048 est significative


(t=3,203). Ce résultat indique que l’hypothèse 1 est rejetée. Les variables explicatives
ne sont pas toutes des causes communes aux variables à expliquer. Ainsi, devient-il
possible de tester les hypothèses subséquentes.

2.3 TEST DE L’HYPOTHÈSE 2


L’hypothèse 2 soutient que la variable expliquée motivation au travail η2
influence la seconde variable expliquée satisfaction au travail η1.
■ Syntaxe du programme dans Simplis de Lisrel 8.5
Model Hypothese 2
Observed Variables : sintrins sextrins sreconna autorite effort eqinter eqex-
ter
remflex augment avantage atperfre valrem atefperf atperfav valavant
Covariance Matrix from File C :\DONNEESLISREL\motiv.cov
Sample Size=579
Latent Variables : SATISTRA MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
Relationships :
sintrins sextrins sreconna autorite=SATISTRA
effort=MOTIVTRA
eqinter eqexter remflex augment=SATISREM
avantage=SATISAVA
atperfre valrem atefperf=MOTIREM
atefperf atperfav valavant=MOTIAVAN
(1) SATISTRA=MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
MOTIVTRA=SATISREM SATISAVA MOTIREM MOTIAVAN
Set the Error Variance of effort Equal to 0,202
Set the Error Variance of avantage Equal to 0,094
Options : AD=OFF IT=300
Lisrel Output : RS SS SC SE TV EF PC EF MI FS
Path Diagram
End of Problem

■ Commentaire de la syntaxe
(1) par rapport au programme précédent, seule cette ligne est modifiée avec l’introduction
de l’effet de la variable à expliquer « motivation au travail » (MOTIVTRA) sur l’autre variable
à expliquer « satisfaction au travail » (SATISTRA). Elle permet de tester l’hypothèse 2.
Le résultat des équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se pré-
sente comme suit :
η1 = 0,101η2 + 0,519ξ1 + 0,013ξ2 + 0,006ξ3 + 0,112ξ4 + ζ1 R2 = 0,902
η2 = 0,177ξ1 + 0,269ξ2 + 2,854ξ3 — 2,215ξ4 + ζ2 R2 = 0,410
Les valeurs t du test de signification des paramètres de GAMMA et BETA (coef-
ficient structurel ou de régression entre deux variables dépendantes) sont :
SATISREM SATISAVA MOTIREM MOTIAVAN MOTIVTRA
ξ1 ξ2 ξ3 ξ4 η2
SATISTRA η1 5,939 0,244 0,021 0,482 3,610
MOTIVTRA η2 0,850 2,066 2,325 -2,177 ---
Dans ce modèle, la motivation au travail η2 a un effet positif et significatif sur
la satisfaction au travail η1 (β = 0,101 ; t = 3,610). La satisfaction au travail est éga-
lement associée à la satisfaction à l’égard de la rémunération directe ξ1 de manière
318 Analyse des effets linéaires par modèles d’équations structurelles

positive et significative (γ = 0,519 ; t = 5,939). Aucune autre variable explicative


n’est reliée significativement à η1. Concernant la motivation au travail, la satisfaction
à l’égard des avantages divers ξ2 et la motivation par la rémunération directe ξ3 sont
associés positivement et significativement à la motivation au travail alors que la
motivation par les avantages divers l’est négativement ξ4.

2.4 TEST DE L’HYPOTHÈSE 3


Selon l’hypothèse 3, la variable expliquée de satisfaction au travail η1
influence l’autre variable expliquée de motivation au travail η2.
■ Syntaxe du programme dans Simplis de Lisrel 8.5
Model Hypothese 3
Observed Variables : sintrins sextrins sreconna autorite effort eqinter eqex-
ter
remflex augment avantage atperfre valrem atefperf atperfav valavant
Covariance Matrix from File C :\DONNEESLISREL\motiv.cov
Sample Size=579
Latent Variables : SATISTRA MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
Relationships :
sintrins sextrins sreconna autorite=SATISTRA
effort=MOTIVTRA
eqinter eqexter remflex augment=SATISREM
avantage=SATISAVA
atperfre valrem atefperf=MOTIREM
atefperf atperfav valavant=MOTIAVAN
SATISTRA=SATISREM SATISAVA MOTIREM MOTIAVAN
(1) MOTIVTRA=SATISTRA SATISREM SATISAVA MOTIREM MOTIAVAN
Set the Error Variance of effort Equal to 0,202
Set the Error Variance of avantage Equal to 0,094
Options : AD=OFF IT=300
Lisrel Output : RS SS SC SE TV EF PC EF MI FS
Path Diagram
End of Problem

■ Commentaire de la syntaxe
(1) par rapport au programme précédent, seule cette ligne est modifiée avec l’introduction
de l’effet de la variable à expliquer « satisfaction au travail » (SATISTRA) sur l’autre variable
à expliquer « motivation au travail » (MOTIVTRA).
Le résultat des deux équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se
présente comme suit :
η1 = 0,536ξ1 + 0,041ξ2 + 0,294ξ3 — 0,112ξ4 + ζ1 R2 = 0,878
η2 = 1,941η1 — 0,864ξ1 + 0,190ξ2 + 2,283ξ3 — 1,997ξ4 + ζ2 R2 = 0,525
Les valeurs t du test de signification des paramètres de GAMMA et BETA sont :
SATISREM SATISAVA MOTIREM MOTIAVAN SATISTRA
ξ1 ξ2 ξ3 ξ4 η1
SATISTRA η1 5,945 0,726 1,140 -0,502 ---
MOTIVTRA η2 -1,128 1,292 1,970 -2,109 1,542
Dans ce modèle, la satisfaction à l’égard de la rémunération directe a un effet
positif sur la satisfaction au travail et la motivation par les avantages divers est
négativement liée à la motivation au travail. Toutes les autres variables exercent un
Résolution d’un modèle d’équations structurelles 319

effet non significatif sur les variables latentes expliquées. En particulier, la satisfac-
tion au travail n’a statistiquement pas de lien avec la motivation au travail.

2.5 TEST DE L’HYPOTHÈSE 4


La dernière hypothèse à tester suppose que les deux variables expliquées
s’influencent réciproquement. Les deux variables dépendantes η1 (satisfaction au tra-
vail) et η2 (motivation au travail) seraient donc liées par une relation non récursive.
Pour effectuer ce test et pour des raisons d’identification du modèle, il faut exclure de
chacune des équations structurelles, une des quatre variables latentes explicatives ξ1,
ξ2, ξ3 ou ξ4. La variable à retirer est celle qui a eu l’effet le moins significatif dans les
deux analyses précédentes (hypothèses 2 et 3). Ainsi, faut-il retirer ξ3 de l’équation
de η1 et ξ1 de η2.
■ Syntaxe du programme dans Simplis de Lisrel 8.5
Model Hypothese 4
Observed Variables : sintrins sextrins sreconna autorite effort eqinter eqex-
ter
remflex augment avantage atperfre valrem atefperf atperfav valavant
Covariance Matrix from File C :\DONNEESLISREL\motiv.cov
Sample Size=579
Latent Variables : SATISTRA MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
Relationships :
sintrins sextrins sreconna autorite=SATISTRA
effort=MOTIVTRA
eqinter eqexter remflex augment=SATISREM
avantage=SATISAVA
atperfre valrem atefperf=MOTIREM
atefperf atperfav valavant=MOTIAVAN
(1) SATISTRA=MOTIVTRA SATISREM SATISAVA MOTIREM
(2) MOTIVTRA=SATISTRA SATISREM MOTIREM MOTIAVAN
Set the Error Variance of effort Equal to 0,202
Set the Error Variance of avantage Equal to 0,094
Options : AD=OFF IT=300
Lisrel Output : RS SS SC SE TV EF PC EF MI FS
Path Diagram
End of Problem

■ Commentaire de la syntaxe
(1) et (2) : ces lignes introduisent l’effet réciproque entre la variable à expliquer
« satisfaction au travail » (SATISTRA) et la variable à expliquer « motivation au travail »
(MOTIVTRA).
Les deux équations de régression de η1 et η2 sur ξ1, ξ2, ξ3 et ξ4 se présentent
comme suit :
η1 = 0,090η2 + 0,529ξ1 + 0,012ξ2 + 0,119ξ4 + ζ1 R2 = 0,904
η2 = 0,309η1 + 0,263ξ2 + 2,805ξ3 — 2,225ξ4 + ζ2 R2 = 0,446
Les valeurs t du test de signification des paramètres de GAMMA et BETA sont :
SATISREM SATISAVA MOTIREM MOTIAVAN SATISTRA MOTIVTRA
ξ1 ξ2 ξ3 ξ4 η1 η2
SATISTRA η1 7,506 0,261 ----- 2,427 ----- 3,178
MOTIVTRA η2 ---- 1,944 2,236 -2,211 0,864 -----
320 Analyse des effets linéaires par modèles d’équations structurelles

Dans ce modèle, la satisfaction à l’égard de la rémunération directe et la moti-


vation par les avantages divers ont un effet positif sur la satisfaction au travail.
D’autre part, la motivation par les avantages divers est négativement liée à la motiva-
tion au travail alors que la motivation par la rémunération directe l’est positivement.
Enfin, la satisfaction au travail et la motivation au travail n’exercent pas d’effet
linéaire réciproque. L’hypothèse de relation « causale » non récursive n’est pas véri-
fiée. En revanche, l’hypothèse de relation linéaire asymétrique comme suggérée par
l’hypothèse 2 est confirmée. La motivation au travail influencerait positivement la
satisfaction au travail.

2.6 LE MODÈLE FINAL


La dernière étape consiste à identifier le modèle qui à l’issue du test des qua-
tre hypothèses précédentes a le meilleur ajustement aux données. Puis, ce modèle
sera retesté et éventuellement respécifié pour améliorer la parcimonie et son pouvoir
explicatif.

2.6.1 Ajustement et pouvoir explicatif des modèles


L’ajustement des modèles aux données repose sur la comparaison des indices
proposés par Lisrel : Chi-Deux/dl, GFI, AGFI, RMR, RMSEA, ECVI, AIC, PGFI. La somme
des deux coefficients de détermination (ΣR2) est également utilisée comme indica-
teur. Tout comme dans l’analyse de régression multiple, le R2 s’interprète comme le
pourcentage de variance de la variable à expliquer restitué par le modèle. Plus la
somme des R2 est élevée, plus la variance des variables expliquées restituée par le
modèle est élevée.
En fonction du critère de l’ajustement (Tableau 11.2), l’indicateur χ2/dl n’est
pas assez bon (« bad fit ») par rapport aux normes les plus rigoureuses, alors que le
GFI, l’AGFI, le RMR et le RMSEA sont bons (« good fit »). Ainsi, l’ajustement de ces
modèles aux données est globalement bon par rapport à ces quatre critères. Celui cor-
respondant à la quatrième hypothèse est légèrement meilleur en fonction du critère
du χ2/dl qui se rapproche de la norme la plus souple de 5. Par rapport aux indices de
parcimonie, l’AIC et le PGFI doivent être comparés entre modèles, le premier devant
être le plus faible possible, le second, le plus élevé possible. Ils viennent confirmer le
meilleur ajustement relatif du quatrième modèle.

2.6.2 Parcimonie et pouvoir explicatif du modèle final


Le modèle correspondant à l’hypothèse 4 est légèrement meilleur que les trois
autres en fonction du critère du bon ajustement aux données (Tableau 11.2). D’un
point de vue théorique, il est très intéressant puisqu’il vient conforter le résultat
trouvé au cours du traitement de l’hypothèse 2, en l’occurrence, la motivation au tra-
vail aurait un effet positif et significatif sur la satisfaction au travail. C’est la seule
relation linéaire mise en évidence entre les deux variables dépendantes. Pour élaborer
le modèle final, il est nécessaire de concilier l’amélioration de la parcimonie du
modèle correspondant à l’hypothèse 4 et son pouvoir explicatif. Rendre le modèle par-
cimonieux consiste à retenir le plus petit nombre de variables explicatives à niveaux
Résolution d’un modèle d’équations structurelles 321

Modèles χ2 DI χ2/dl GFI AGFI RMR RMSEA ECVI AIC PGFI ΣR2

Hypothèse 1 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,288
Hypothèse 2 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,312
Hypothèse 3 387,14 63 6,14 0,92 0,85 0,05 0,079 0,739 426,86 0,550 1,403
Hypothèse 4 387,16 64 6,05 0,92 0,85 0,05 0,078 0,726 419,42 0,551 1,350

TABLEAU 11.2 – Ajustement et pouvoir explicatif des modèles

de pouvoir explicatif comparables à ceux des quatre autres hypothèses


(Tableau 11.2). Concernant η1 les résultats du test de l’hypothèse 4 indiquent que ξ2
doit être retiré de cette équation structurelle. Pour η2 il est nécessaire de ne pas rete-
nir η1 et ξ2. Les coefficients de régression non significatifs sont ainsi éliminés avec
pour conséquence le retrait de la variable ξ2 des équations structurelles (satisfaction
à l’égard des avantages divers).

2.6.3 Re-spécification et re-estimation du modèle final (ancien


modèle 4)
■ Syntaxe du programme Simplis dans Lisrel 8.5
Mode Final Hypothese 4 re-spécifiée
Observed Variables : sintrins sextrins sreconna autorite effort eqinter eqex-
ter
remflex augment avantage atperfre valrem atefperf atperfav valavant
Covariance Matrix from File C :\DONNEESLISREL\motiv.cov
Sample Size=579
Latent Variables : SATISTRA MOTIVTRA SATISREM SATISAVA MOTIREM MOTIAVAN
Relationships :
sintrins sextrins sreconna autorite=SATISTRA
effort=MOTIVTRA
eqinter eqexter remflex augment=SATISREM
avantage=SATISAVA
atperfre valrem atefperf=MOTIREM
atefperf atperfav valavant=MOTIAVAN
(1) SATISTRA=MOTIVTRA SATISREM MOTIAVAN
(2) MOTIVTRA= MOTIREM MOTIAVAN
Set the Error Variance of effort Equal to 0,202
Set the Error Variance of avantage Equal to 0,094
(3) Set the Error Covariance between sintrins and sextrins Free
Set the Error Covariance between sintrins and autorite Free
Set the Error Covariance between sextrins and sreconna Free
Set the Error Covariance between eqinter and eqexter Free
Set the Error Covariance between eqexter and remflex Free
Set the Error Covariance between avantage and remflex Free
Set the Error Covariance between avantage and augment Free
Set the Error Covariance between atperfav and atperfre Free
Options : AD=OFF IT=300
Lisrel Output : RS SS SC SE TV EF PC EF MI FS
Path Diagram
End of Problem
322 Analyse des effets linéaires par modèles d’équations structurelles

■ Commentaire de la syntaxe
(1) et (2) les relations linéaires (modèle structurel) qui sont testées retiennent les effets
significatifs observés dans le modèle 4, considéré comme ayant le meilleur ajustement.
(3) cette ligne de programme et les suivantes signalent les corrélations entre indicateurs.
Dans les modèles d’équations structurelles, les corrélations entre indicateurs sont estimées
en reliant leurs erreurs de mesure. Par défaut, ces relations sont fixées à 0, elles ne sont
donc pas estimées. Lorsque l’on établit un lien, la relation est « libérée » (« free ») pour
pouvoir l’estimer. Ce choix vient des itérations précédentes du test du modèle final. Les
résultats intermédiaires font apparaître des Indices de Modification importants et significa-
tifs (>7,88) pour plusieurs relations entre indicateurs. Seules les corrélations (covariances)
qui sont établies dans cette syntaxe ont trouvé une justification théorique et cohérente
avec le modèle. Elles sont donc estimées pour améliorer l’ajustement du modèle théorique
aux données empiriques.
Les deux équations de régression de η1 et η2 sur ξ1, ξ3 et ξ4 se présentent
comme suit :
η1 = 0,095η2 + 0,543ξ1 + 0,128ξ4 + ζ1 R2 = 0,916
η2 = 6,786ξ3 — 4,892ξ4 + ζ2 R2 = 0,582

Les valeurs t du test de signification des paramètres de GAMMA et BETA sont :


SATISREM SATISAVA MOTIREM MOTIAVAN SATISTRA MOTIVTRA
ξ1 ξ2 ξ3 ξ4 η1 η2
SATISTRA η1 9,901 ----- ----- 2,934 ----- 4,033
MOTIVTRA η2 ---- ----- 3,349 -3,383 ----- -----

Qualité de l’ajustement : χ2/dl = 398,72 / 67 = 5,95 ; GFI = 0,92 ; AGFI =


0,85 ; RMR = 0,05 ; RMSEA = 0,065 ; AIC = 413,42 ;
CAIC = 678,05 ; PGFI = 0,602
Importance du pouvoir explicatif : ΣR2 = 0,916 + 0,582 = 1,498
Le modèle final a une qualité d’ajustement légèrement améliorée par rapport
aux modèles précédents pour l’ensemble des indices. Il respecte les normes les plus
rigoureuses pour le GFI, l’AGFI, le RMR et le RMSEA. Concernant le pouvoir explicatif
de ce modèle (ΣR2), il progresse par rapport à tous les résultats précédents
(Tableau 11.2). Le pourcentage de variance de la variable à expliquer, satisfaction au
travail, restitué par le modèle est très élevé (0,916) alors qu’il reste encore éloigné de
1 pour la variable à expliquer motivation au travail (0,582). Pour conclure, tous ces
paramètres doivent être reportés dans le figure 11.3 et les relations non validées doi-
vent en être retirées.

3. Conclusion

Les modèles d’équations structurelles prennent une place de plus en plus


importante dans les études statistiques en sciences sociales et en sciences de ges-
tion. La démarche méthodologique est clairement formalisée et les logiciels devien-
nent de plus en plus conviviaux. Les deux parties de ce chapitre tentent de montrer
cette double tendance.
Bibliographie 323

Ces modèles statistiques permettent d’aborder des questions de recherche de


plus en plus complexes et de se rapprocher ainsi des conditions réelles rencontrées
dans les organisations ou dans toute autre structure sociale. Ce onzième chapitre
complète les chapitres 9 et 10 ; ils offrent une vue d’ensemble des démarches deve-
nues « classiques » de traitement des données dans les études et les recherches
scientifiques contemporaines.
Les trois chapitres qui vont suivre, poursuivent la présentation de l’utilisation
des méthodes d’équations structurelles. Ils sont destinés à présenter les méthodes
statistiques qui se développent considérablement depuis une dizaine d’années. Elles
renouvellent les méthodes « anciennes » de traitement de données longitudinales,
d’effets non linéaires dits modérateurs et médiateurs et d’analyses typologiques.

Bibliographie
Bagozzi R.P. (1980), Causal models in marketing. New York : Wiley and Sons.
Bagozzi R.P. et Yi Y. (1989), « On the use of structural equation models in experimental
design ». Journal of Marketing Research, vol. 26, pp. 271-284.
Bentler P.M. (1989), EQS structural equations program manual. Los Angeles, CA : BMDP
Statistical Software.
Bentler P.M. (1995), EQS structural equations program manual. Encino, CA : Multivariate
Software.
Chou C.P. et Bentler P.M. (1995), « Estimates and tests in structural equation
modeling ». In Hoyle, R.H. (Eds), Structural equation modeling : concepts, issues, and
applications, Thousand Oaks, CA : Sage, pp. 37-55.
Fornell C. et Larker D.F. (1981), « Evaluating structural equations models with unobser-
vable variables and measurement error ». Journal of Marketing Research, vol. 18,
pp. 39-50.
Hair J.F., Anderson R.E., Tatham R.L. et Black W.C. (1998), Multivariate data analysis
with readings, 5e édition, Upper Saddle River, NJ : Prentice-Hall.
Hayduk L.A. (1987), Structural equation modeling with LISREL : essentials and applica-
tions. Baltimore : The John Hopkins University Press.
Jöreskog K.G. (1971), « Statistical analysis of sets of congeneric tests ». Psychometrika,
vol. 36, pp. 109-133.
Jöreskog K.G. (1973), « A general method for estimating a linear structural equation
system ». In Goldberger A.S. et Duncan O.D. (Eds), Structural equation models in the
social sciences, New York : Seminar Press/Harcourt Brace.
Jöreskog K.G. et Sörbom D. (1996), LISREL 8 : user’s reference guide. Chicago, IL :
Scientific Software International, Inc.
Keesling J.W. (1972), Maximum likelihood approaches to causal analysis. Thèse non
publiée, University of Chicago, Chicago, IL.
Olsson U.H., Foss T., Troye S.V. et Howell R.D. (2000), « The performance of ML, GLS,
and WLS estimation in structural equation modeling under conditions of misspecifica-
tion and nonnormality ». Structural Equation Modeling, vol. 7, pp. 557-595.
Pedhazur E.J. et Pedhazur Schmelkin L. (1991), Measurement, design, and analysis : an
integrated approach. Hillsdale, NJ : Lawrence Erlbaum Associates.
324 Analyse des effets linéaires par modèles d’équations structurelles

Roehrich G. (1993), Validité convergente et validité discriminante : l’apport des modèles


d’équations structurelles. ESA Grenoble, Cahier de recherche : CERAG 93-23.
Roussel P. (1996), Rémunération, motivation et satisfaction au travail. Paris : Econo-
mica.
Roussel P., Durrieu F., Campoy E. et El Akremi A. (2002), Méthodes d’équations
structurelles : recherches et application en gestion. Paris : Economica.
Satorra A. et Bentler P.M. (1988), « Scaling corrections for chi-square statistics in cova-
riance structure analysis ». Proceedings of the Business and Economics sections,
Alexandria, VA : American Statistical Association, pp. 308-313.
Schumacker R.E. et Lomax R.G. (1996), A beginner’s guide to structural equation mode-
ling. Hillsdale, NJ : Lawrence Erlbaum Associates.
Valette-Florence P. (1988), « Spécificités et apports des méthodes d’analyse multivariée
de la deuxième génération ». Recherche et Applications en Marketing, vol. 4, pp. 23-
56.
Wiley D.E. (1973), « The identification problem for structural equation models in
unmeasured variables ». In Goldberger, A.S. et Duncan, O.D. (Eds), Structural equa-
tion models in the social sciences, New York : Seminar Press/Harcourt Brace.
Chapitre 12

Analyse des variables modératrices


et médiatrices par les méthodes
d’équations structurelles
Assaâd EL AKREMI 1

Sommaire
1 Définition des variables modératrices
et médiatrices 326

2 Typologie des variables médiatrices


et modératrices 328

3 Démarches d’analyse des variables médiatrices 330

4 Démarches d’analyse des variables modératrices 334

5 Conclusion 342

1 Maître de Conférences Université Toulouse 1.


326 Analyse des variables modératrices et médiatrices

Les chercheurs en Sciences de Gestion ne se limitent plus à l’étude des effets


directs et linéaires des variables explicatives sur les variables expliquées. Ils exami-
nent de plus en plus le rôle des variables médiatrices ou modératrices pour mieux
comprendre la décomposition des mécanismes d’influence entre les variables étu-
diées. L’existence de variables intermédiaires signifie que la relation entre la variable
explicative et celle expliquée dépend, quant à son existence, sa forme ou sa force,
d’une troisième variable (Baron et Kenny, 1986 ; James et Brett, 1984). Les méthodes
classiques d’analyse de ces variables présentent diverses limites statistiques telles
que des erreurs du type I 2 élevées et un faible pouvoir statistique 3. Ces limites sta-
tistiques sont principalement dues à la non-normalité des distributions des variables
étudiées, à la non-prise en compte des erreurs de mesure, à l’existence de liens non
linéaires pour les effets modérateurs et à la multicolinéarité entre les variables (Agui-
nis, 1995). Selon nombre d’auteurs (Cortina et al., 2001 ; Jaccard et Wan, 1995), les
méthodes d’équations structurelles améliorent l’analyse des variables médiatrices et
modératrices en détournant les problèmes liés aux erreurs de mesure, à la multicoli-
néarité et aux liens non linéaires. En intégrant les erreurs de mesure dans l’estimation
du modèle étudié, les méthodes d’équations structurelles permettent aussi d’obtenir
des coefficients moins biaisés.
Ce chapitre a plusieurs objectifs. Le premier consiste à clarifier les notions de
variables médiatrices et modératrices, à mettre l’accent sur leurs différences et à
exposer leurs divers types. À cet égard, les définitions et les typologies proposées par
Baron et Kenny (1986) et par Sharma et al. (1981) seront présentées. Le deuxième
objectif est de rappeler les principales démarches méthodologiques utilisées pour
l’analyse des variables médiatrices (effets linéaires) et des variables modératrices
(effets non linéaires). Il s’agit surtout d’exposer de manière détaillée deux méthodes
d’analyse : (1) la démarche d’analyse des variables médiatrices proposée par Baron et
Kenny (1986) et mise à jour par Kenny et al. (1998) ; (2) la démarche d’analyse des
variables modératrices et des effets d’interaction proposée par Ping (1995 ; 1998).
Les démarches proposées semblent être très adaptées aux recherches gestion et en
GRH étant donné leur relative simplicité, leur rigueur et leur performance équivalen-
tes à celles des autres démarches existantes. Le troisième objectif est de proposer, de
manière schématique et simplifiée, une application des deux démarches retenues à
une étude en gestion des ressources humaines.

1. Définition des variables modératrices et médiatrices

Une variable modératrice est une variable qui agit essentiellement sur la rela-
tion entre deux autres variables. Elle modifie systématiquement la grandeur, l’inten-

2 Il s’agit, pour simplifier, du risque de conclure à l’existence d’un effet médiateur ou modérateur
qui est en réalité fallacieux et faux (erreur de première espèce). Le risque nominal accepté est géné-
ralement de 5 %.
3 Une méthode qui a un faible pouvoir statistique (ou puissance) échoue fréquemment à détecter
des effets médiateurs et modérateurs qui existent réellement dans la population étudiée. Une excel-
lente analyse du pouvoir statistique est présentée par J. Cohen, (1988). Statistical power analysis for
the behavioral sciences, Hillsdale, NJ : L. Erlbaum.
Définition des variables modératrices et médiatrices 327

sité, le sens et/ou la forme de l’effet de la variable indépendante sur la variable


dépendante (Sharma et al., 1981). Autrement dit, le lien observé entre les deux varia-
bles peut devenir plus fort ou plus faible ;ou même changer en négatif alors qu’il
était positif sans l’intervention de la variable modératrice. Selon Baron et Kenny
(1986, p. 1174), une variable modératrice est « une variable qualitative (ex. sexe,
race, classe sociale) ou quantitative (ex. niveau de récompense) qui influe sur la
direction et/ou la force de la relation entre la variable indépendante et la variable
dépendante (…). Un effet modérateur élémentaire peut être représenté par une inte-
raction entre une variable indépendante principale et un facteur qui spécifie les con-
ditions appropriées de son impact sur la variable dépendante (…) ». Une variable
modératrice est donc une variable de spécification qui détermine les conditions sous
lesquelles l’effet d’une autre variable indépendante opère. Généralement, la variable
modératrice interagit avec la variable indépendante pour influencer la variable
dépendante ; par exemple l’interaction entre la compétence et la motivation déter-
mine le niveau de performance. En termes statistiques, l’interaction correspond à un
effet non linéaire étant donné que l’influence combinée des variables indépendante
et modératrice sur la variable dépendante est soit plus grande soit plus faible que la
somme de leur influence séparée. Il n’y a ni additivité, ni stabilité des effets des
variables en interaction (Bollen, 1989) 4.
Si la variable modératrice spécifie quand et sous quelles conditions une relation
entre deux variables a-t-elle lieu, une variable médiatrice spécifie comment et selon
quel mécanisme une variable indépendante influence-t-elle une variable dépendante.
Un effet médiateur élémentaire représente une séquence « causale » hypothétique
dans laquelle une première variable indépendante influe sur une seconde variable
intermédiaire qui influe à son tour sur une variable dépendante. La variable média-
trice permet-elle ainsi d’expliquer comment s’opère la relation entre la variable indé-
pendante et la variable dépendante, en décomposant cette relation en effet direct et
en effet indirect médiatisé (MacKinnon et al., 2002). Il s’agit d’une variable de pro-
cessus qui transmet, complètement ou partiellement, l’impact d’une variable indépen-
dante initiale sur une variable dépendante. À titre d’exemple, Moorman et al. (1998)
ont montré que les sentiments de justice influent positivement sur le soutien organi-
sationnel perçu qui agit à son tour sur les comportements de citoyenneté organisa-
tionnelle. Selon Baron et Kenny (1986, pp. 1173-1176), « une variable agit en tant
que médiatrice dans la mesure où elle rend compte de la relation entre une variable
indépendante et une variable dépendante (…). Tandis que les variables modératrices
spécifient quand certains effets interviennent, les variables médiatrices déterminent
comment et pourquoi ces effets se produisent » (Figure 12.1).
Quelle que soit la méthode d’analyse adoptée, la décision de considérer une
variable comme étant médiatrice ou modératrice doit être essentiellement basée sur
la pertinence des arguments conceptuels et la rigueur des cadres théoriques.
Le rôle médiateur d’une variable XM (modèle 1) génère une décomposition de
l’effet total (c) de la variable indépendante XP sur la variable Y en un effet direct (c’)
et un effet indirect (ab). Étant donné que la variable médiatrice ne peut vraisembla-

4 L’effet d’interaction (X*Z) est parfois accompagné d’un effet quadratique (Z2), ce qui donne à la
relation son caractère curvilinéaire.
328 Analyse des variables modératrices et médiatrices

Modèle 1 : Effet médiateur de

XP Y
c

XM
a b

XP Y
c’

Modèle 2 : Effet modérateur

XP Y
+

FIGURE 12.1 – Les effets des variables médiatrices et modératrices

blement pas inverser le sens de la relation entre XP et Y, (c) et (c’) devraient toujours
être de même signe ; ou (c’) devrait être nul si la médiation est intégrale. En influant
sur la direction ou la forme de la relation entre XP et Y, le rôle modérateur de la varia-
ble Z correspond à un effet d’interaction représenté généralement par le produit
(XP × Z) qui devrait avoir un effet significatif sur Y (Saunders, 1956 ; Zedeck, 1971).
Le terme (XP × Z) désigne l’effet non linéaire des variables indépendantes sur la
variable dépendante.
À ce niveau, il importe d’indiquer qu’il existe plusieurs types de variables
médiatrices et de variables modératrices. La précision des différences entre ces types
permet une meilleure compréhension conceptuelle et analytique des effets de varia-
bles intermédiaires. Ces différences sont d’autant plus importantes qu’elles requièrent
des démarches d’analyse statistiques distinctes. Les variables médiatrices peuvent
intervenir de manière intégrale ou partielle pour transmettre l’impact d’une variable
indépendante sur une variable dépendante. Les variables modératrices peuvent diffé-
rer d’une part selon l’importance de leur interaction avec la variable indépendante, et
d’autre part selon la nature de leur lien avec la variable dépendante. Deux typologies
sont retenues dans cette recherche : la typologie des variables médiatrices selon
Baron et Kenny (1986) et la typologie des variables modératrices de Sharma et al.
(1981).

2. Typologie des variables médiatrices et modératrices

Baron et Kenny (1986) distinguent deux types de médiation : la médiation par-


faite et la médiation partielle. D’une manière générale et selon la figure 12.1, l’effet
Typologie des variables médiatrices et modératrices 329

médiateur existe lorsque à la fois les variations du niveau de la variable dépendante


influent significativement sur les variations de la variable médiatrice (a), et les varia-
tions du niveau de celle-ci influent significativement sur la variable dépendante (b).
Une variable médiatrice parfaite ou pure est une variable qui transmet intégralement
l’impact de la variable indépendante sur la variable dépendante. Dans ce cas, l’effet
direct (c’) s’annule complètement avec l’introduction de la variable médiatrice XM
dans le modèle. Statistiquement, il y a médiation parfaite lorsque le lien entre XP et Y,
précédemment significatif, ne l’est plus en contrôlant les effets (a) et (b). Selon Mac-
Kinnon et al. (1995), l’effet médiateur indirect est obtenu en calculant le produit (a *
b) :
c – c’ = a × b
Médiation parfaite : c’ = 0 et c = ab
Une médiation parfaite signifie l’existence d’une seule variable intermédiaire
dominante. Or, en GRH ou en gestion, il y a souvent plusieurs variables qui intervien-
nent en même temps pour expliquer comment et pourquoi une variable explique une
autre. La médiation partielle est donc plus fréquente. Dans ce cas, l’introduction d’une
variable médiatrice XM dans le modèle réduit le lien (c) entre XP et Y, sans pour autant
l’annuler complètement. Si la médiation est partielle, l’effet (c’) doit être inférieur à
l’effet initial (c) obtenu en l’absence de la variable médiatrice :
c – c’ = a × b > 0
Médiation partielle : c’ ≠ 0 et c > c’
Sharma et al. (1981) ont présenté un cadre conceptuel et méthodologique qui
permet de distinguer les différents types de variables modératrices. La typologie pro-
posée permet de dépasser la distinction basée sur la nature dichotomique ou conti-
nue de la variable modératrice (Arnold, 1982). Elle est basée sur deux critères : (1)
l’existence ou non d’une relation entre la variable modératrice Z et la variable
dépendante Y ; (2) l’existence ou non d’une interaction entre la variable indépen-
dante principale XP et la variable modératrice Z. La typologie permet-elle ainsi de dis-
tinguer quatre types de variables dont trois sont modératrices (Tableau 12.1).
La variable d’homogénéisation est une variable « modératrice » qui influe sur
l’intensité de la relation entre XP et Y. Elle n’est pas significativement reliée à aucune
de ces variables et, elle n’interagit pas avec XP. Elle permet de subdiviser l’échantillon

Présence d’une relation Absence d’une relation


entre Z et Y ou/et XP entre Z et Y et XP

Absence d’interaction avec XP Variable indépendante classique Variable d’homogénéisation


Y = a + b1 XP + b2Z + e Y = a + b1 XP + Z × e

Présence d’interaction avec XP Variable quasi modératrice Variable modératrice pure


Y = a + b1 XP + b2Z + b3XP × Z + e Y = a + b1 XP + b3XP × Z + e

Source : Adapté de Sharma et al. 1981, p. 292.

TABLEAU 12.1 – Typologie des variables modératrices


330 Analyse des variables modératrices et médiatrices

total en sous-groupes homogènes selon la variance de l’erreur ; la validité prédictive


représentée par R2 est alors différente selon le sous-groupe. Une variable quasi modé-
ratrice est une variable qui à la fois influe sur la variable dépendante Y (b2 non nul et
significatif) 5 et interagit avec la variable indépendante principale XP (b3 significatif).
Une variable modératrice pure ne doit avoir aucun lien direct avec la variable dépen-
dante Y. Elle interagit seulement avec la variable indépendante principale XP. Les
variables quasi modératrices et modératrices pures modifient surtout la forme de la
relation entre les variables XP et Y.

3. Démarches d’analyse des variables médiatrices

Nombre de démarches méthodologiques ont été développées pour la détection


et l’estimation des effets médiateurs et modérateurs (El Akremi et Roussel, 2003). Ces
démarches sont souvent complexes. Les méthodes d’équations structurelles ont favo-
risé le perfectionnement des procédures éprouvées et l’émergence de nouvelles procé-
dures d’analyse (Cortina et al., 2001 ; Li et al., 1998 ; Shrout et Bolger, 2002 ;
Schumacker et Marcoulides, 1998). Deux démarches sont fortement recommandées
étant donné leur simplicité et leur robustesse, en comparaison avec les autres métho-
des d’analyse : il s’agit de la démarche de Baron et Kenny (1986) pour les effets
médiateurs et de la démarche de Ping (1995) pour les effets modérateurs.

3.1 LA DÉMARCHE D’ANALYSE DE BARON ET KENNY


POUR LES EFFETS MÉDIATEURS

Le modèle proposé par Baron et Kenny (1986) a l’avantage d’exposer une


démarche simple, claire et rigoureuse. Baron et Kenny (1986) et Kenny et al. (1998)
présentent une série de quatre tests successifs et nécessaires pour tester l’effet
médiateur d’une variable XM dans le processus d’impact de la variable indépendante XP
sur la variable dépendante Y (Figure 12.2) :
■ Étape 1. Montrer que le lien entre la variable indépendante XP et la variable
dépendante Y est significatif afin de s’assurer de l’existence d’un impact à
médiatiser. Dans la régression de Y sur XP, le coefficient (c) doit donc être
significatif (Test de Student ≥ 1,96 ; p = 0,05).
■ Étape 2. Montrer que la variable indépendante XP a un impact significatif sur
la variable médiatrice XM considérée alors comme une variable à expliquer dans
une analyse de régression de XM sur XP. Le coefficient (a) doit être significatif.
■ Étape 3. Montrer que le lien entre la variable médiatrice XM et la variable
dépendante Y est significatif. Il s’agit de faire une régression de Y sur à la fois
XM et XP. En contrôlant XP, le coefficient (b) entre XM et Y doit rester significa-
tif.

5 Les théories psychométriques ne considèrent pas ce type de variable comme modératrice à partir
du moment où elles ont un lien significatif avec la variable dépendante. Il n’existe pour ces théories
que des variables modératrices pures.
Démarches d’analyse des variables médiatrices 331

Étape 1 : Régression de Y sur XP


(c) significatif
X Y

Étape 2 : Régression de XM sur


(a) significatif
X XM

Étape 3 : Régression de Y sur XM et


(a) (b)
X XM Y

(c’)

Étape 4 : Vérifier c’ = 0 ou c’ < c ; vérifier a × b × c > 0 ; calculer a × b/c ;


réaliser le test de Sobel

FIGURE 12.2 – Modèle de Baron et Kenny pour l’analyse des variables médiatrices

■ Étape 4. Pour établir l’existence d’une médiation complète par XM, le coeffi-
cient (c’) liant XP et Y devient nul, en contrôlant XM. Il s’agit de vérifier que
c’=0 en présence de XM, sinon la médiation est partielle.
Selon Kenny et al. (1998), les quatre étapes doivent être successivement assu-
rées afin de montrer l’existence d’un rôle médiateur intégral d’une variable. Si seule-
ment les trois premières étapes sont vérifiées, le rôle médiateur n’est que partiel. Les
étapes 2 et 3 sont donc essentielles pour s’assurer de l’existence du rôle médiateur.
Elles doivent être complétées par une estimation du pourcentage de l’effet de média-
tion et par des tests d’inférence et de signification statistique de cet effet. Selon
Ambler (1998), le pourcentage de l’effet médiateur par rapport à l’effet total est
obtenu par le ratio ci-dessous, égal à 100 % si la médiation est totale (c’=0) :
100 × ab / (ab + c’)
Afin de s’assurer de la significativité de l’effet médiateur et de vérifier que les
coefficients (a) et (b) sont statistiquement différents de zéro, Kenny et al. (1998)
recommandent l’utilisation du test de Sobel (1996) permettant de calculer l’erreur
standardisée (sab) de l’effet indirect (ab). L’erreur sab est obtenue à partir des erreurs
standardisées des coefficients (a) et (b), notées sa et sb. Le test de Sobel est simple 6
à réaliser et permet de s’assurer de la significativité du rôle médiateur. Il s’interprète
selon une distribution de loi normale.
Pour améliorer la puissance de la démarche de Baron et Kenny, nombre
d’auteurs recommandent une plus grande rigueur dans la fiabilité des mesures utili-

6 Le test de signification de l’effet indirect est de plus en plus intégré dans les logiciels d’équa-
tions structurelles. Il se calcule aussi très facilement sur le site suivant http://quantrm2.psy.ohio-
state.edu/kris/sobel/sobel.htm.
s ab = ab ⁄ s a2 s b2 + b 2 s a2 + a 2 s b
332 Analyse des variables modératrices et médiatrices

sées, le recours à des échantillons larges et l’utilisation systématique des méthodes


d’équations structurelles pour les variables latentes (Kenny et al., 2002 ; Shrout et
Bolger, 2002).

3.2 ILLUSTRATION DE LA DÉMARCHE D’ANALYSE DE BARON ET KENNY


POUR LES EFFETS MÉDIATEURS

L’exemple présenté permet une application de la démarche de Baron et Kenny


(1986) à l’analyse du rôle médiateur du soutien organisationnel perçu dans la relation
entre la justice et les comportements de citoyenneté organisationnelle. En se basant
sur le cadre théorique d’Organ (1990), nombre d’auteurs ont montré que les percep-
tions de justice organisationnelle par les salariés favorisent le développement de
leurs comportements de citoyenneté organisationnelle. Engagés dans une dynamique
d’échange social avec l’organisation, les salariés accroissent leurs comportements
citoyens sur la base de leurs perceptions de justice distributive et procédurale. Selon
Moorman et al. (1998), la justice organisationnelle influence la perception générale
par les salariés de la manière dont l’organisation valorise leurs contributions et se
soucie de leur bien-être. Les salariés développent alors des comportements organisa-
tionnels positifs, tels que les comportements d’altruisme et de civisme, en réponse au
soutien de l’organisation. L’hypothèse suivante peut donc être formulée :
HYPOTHÈSE 1 : Le soutien organisationnel perçu a un rôle médiateur entre les
perceptions de justice et les comportements de citoyenneté organisationnelle
Afin de tester le modèle de la figure 12.3, un questionnaire a été administré
auprès d’un échantillon de 422 salariés. Les variables de justice distributive et procé-
durale ont été respectivement mesurées par cinq et six items proposés par Niehoff et
Moorman (1993). Le soutien organisationnel perçu a été mesuré par neuf items pro-
posés par Eisenberger et al. (1990). Les deux types de comportements de citoyenneté
organisationnelle (altruisme et civisme) ont été mesurés chacun par quatre items
(Niehoff et Moorman, 1993). Les échelles utilisées sont des échelles de Likert à cinq
points. Avant de procéder au test de l’effet médiateur du soutien organisationnel
perçu par Lisrel 8.5, une série d’analyses a été réalisée pour s’assurer de la fiabilité et
de la validité des construits. Ces différentes analyses ont permis d’éliminer certains
items faiblement reliés à leur construit de base. Suite à une analyse factorielle et une

Justice
Altruisme
distributive

Soutien
organisationnel
perçu

Justice
Civisme - loyauté
procédurale

FIGURE 12.3 – Rôle médiateur du soutien organisationnel perçu


Démarches d’analyse des variables médiatrices 333

analyse de la fiabilité, la justice distributive, mesurée par trois items, a un alpha de


Cronbach de 0,71. La justice procédurale, mesurée par quatre items, a un alpha de
0,89. Cinq items sont retenus pour le soutien organisationnel perçu avec un alpha de
0,90. Les deux types de comportements de citoyenneté, mesurés chacun par trois
items, ont respectivement un alpha de Cronbach de 0,74 pour l’altruisme et de 0,72
pour le civisme. La fiabilité de tous les construits est donc satisfaisante. Une analyse
factorielle confirmatoire a permis en outre de s’assurer de la validité convergente et
discriminante de ces construits (Roussel et al., 2002).
Pour l’application des quatre étapes du modèle de Baron et Kenny (1986), une
série de régressions est réalisée sous Simplis de Lisrel 8.5.
1. Tester la relation entre, d’une part, les variables indépendantes de justice dis-
tributive et procédurale, et, d’autre part, les variables dépendantes de compor-
tements d’altruisme et de civisme. La formulation de l’analyse sous Simplis est
présentée en annexe (étape1). Les résultats de cette première analyse mon-
trent que la justice distributive influence positivement le civisme (gamma =
0,20 ; T de Student = 2,50). La justice procédurale influence positivement
l’altruisme (gamma = 0,15 ; T de Student = 2,04). L’impact de la justice distri-
butive sur l’altruisme et celui de la justice procédurale sur le civisme ne sont
pas significatifs à p = 0,05 (T de Student < 1,96). Ces impacts peuvent toute-
fois être considérés comme significatifs à p = 0,10 (T de Student > 1,80).
L’ajustement de ce modèle est acceptable avec un chi-deux = 228,35 pour un
degré de liberté (ddl) de 59 ; un CFI = 0,93 ; un NNFI = 0,90 ; et un RMSEA =
0,08. L’utilisation des indices GFI et AGFI est déconseillée parce que ces indi-
ces sont sensiblement biaisés par la non-normalité de possibles effets d’inte-
raction (Jöreskog et Yang, 1996).
2. Tester la relation entre, d’une part, les variables indépendantes de justice dis-
tributive et procédurale, et, d’autre part, la variable médiatrice de soutien
organisationnel perçu. Les résultats de cette deuxième analyse montrent que
le soutien organisationnel perçu est positivement et significativement
influencé par la justice distributive (gamma = 0,23 ; T de Student = 3,32) et
par la justice procédurale (gamma = 0,57 ; T de Student = 8,76). L’ajustement
de ce modèle est très satisfaisant avec un chi-deux = 126,83 pour un ddl =
50 ; un CFI = 0,98 ; un NNFI = 0,97 ; et un RMSEA = 0,06. La formulation de
l’analyse sous Simplis est présentée en annexe (étape 2).
3. Tester la relation entre, d’une part, les variables indépendantes de justice dis-
tributive et procédurale, et, d’autre part, les variables dépendantes de compor-
tements d’altruisme et de civisme, en ajoutant la variable médiatrice de
soutien organisationnel perçu. La formulation de l’analyse sous Simplis est
présentée en annexe (étape 3). Les résultats de cette troisième analyse sont
présentés à la figure 12.4. Ils montrent que les variables indépendantes de jus-
tice distributive et justice procédurale influencent positivement la variable
médiatrice de soutien organisationnel perçu (respectivement, gamma = 0,23 ;
T de Student = 3,28 ; gamma = 0,57 ; T de Student = 8,75). Le soutien perçu
influence positivement à son tour les comportements d’altruisme (bêta =
0,14 ; T de Student = 2,10) et de civisme (bêta = 0,19 ; T de Student = 3,18).
Les indices d’ajustement de ce modèle sont très satisfaisants avec un chi-
334 Analyse des variables modératrices et médiatrices

deux = 381,82 pour un ddl = 127 ; un CFI = 0,93 ; un NNFI = 0,92 ; et un


RMSEA = 0,069. Le rôle médiateur du soutien organisationnel perçu est donc
vérifié.
4. La dernière étape de la démarche de Baron et Kenny permet de vérifier la
nature partielle ou complète de la médiation en examinant la significativité
des liens directs entre les variables indépendantes de justice et celles dépen-
dantes de comportements citoyens. Il faut aussi s’assurer de la significativité
de l’effet médiateur en utilisant le test de Sobel. La figure 12.4 montre que le
lien entre la justice procédurale et le comportement d’altruisme n’est plus
significatif après l’introduction de la variable médiatrice alors qu’il l’était lors
de la première étape de la démarche de Kenny et Baron (gamma était de
0,15 avec T de Student = 2,04). La médiation par le soutien organisationnel
perçu est donc complète entre la justice procédurale et l’altruisme. Le lien
entre la justice distributive et le civisme diminue mais reste significatif après
l’introduction de la variable médiatrice de soutien organisationnel perçu
(gamma = 0,17 ; T de Student = 2,29). La médiation par le soutien organisa-
tionnel perçu entre la justice distributive et le comportement de civisme sem-
ble donc être partielle.

Le test de Sobel a été calculé pour tester la significativité de l’effet médiateur


du soutien organisationnel perçu. En utilisant les coefficients de régression et les ter-
mes d’erreurs 7, les résultats du test indiquent que les effets médiateurs sont statisti-
quement significatifs pour les liens entre d’une part la justice procédurale et
l’altruisme (Z = 2.05 ; p = 0,04), et d’autre part la justice procédurale et le civisme
(Z = 2.99 ; p = 0,002). L’application du test de Sobel à l’effet médiateur du soutien
perçu entre la justice distributive et les comportements d’altruisme et de civisme per-
met de montrer que cet effet est statistiquement significatif dans le cas du lien entre
la justice distributive et le civisme (Z = 2.27 ; p = 0,02). Cependant, l’effet médiateur
du soutien organisationnel perçu n’est pas significatif pour le lien entre la justice dis-
tributive et l’altruisme (Z = 1.77 ; p = 0,08).

4. Démarches d’analyse des variables modératrices

Nombre de recherches ont montré que le rôle modérateur d’une variable corres-
pond à un effet non linéaire d’interaction entre la variable indépendante principale et
la variable modératrice (Aiken et West, 1991 ; Jaccard et al., 1990 ; Saunders, 1956).
L’interaction entre les variables indépendante et modératrice génère une modification
de l’intensité ou/et de la forme de la relation entre la variable indépendante et la
variable dépendante. Plusieurs méthodes sont utilisées pour tester le rôle modérateur
d’une variable. Il s’agit essentiellement des analyses de la variance ANOVA, des analy-
ses multi-groupes et des régressions multiples hiérarchiques (Aiken et West, 1991).
L’analyse de variance est généralement utilisée lorsque les variables indépendante et

7 Le test de Sobel est réalisé directement sur le site http://quantrm2.psy.ohio-state.edu/kris/


sobel/sobel.htm, à partir des résultats de l’analyse, en utilisant les coefficients de régression et les
erreurs standardisées d’estimation.
Démarches d’analyse des variables modératrices 335

0,17 (2,23)

Justice 0,17 (2,29)


Civisme
distributive
0,23 0,19
(3,28) Soutien (3,18)
organisationnel
0,57 0,13
perçu
(8,75) (2,10)
Justice
Altruisme
procédurale N.S.

Liens significatifs et médiation partielle


Lien non significatif (n.s) : médiation complète

FIGURE 12.4 – Résultats du test de l’effet médiateur du soutien organisationnel perçu

modératrice sont catégoriques, surtout dichotomiques avec deux modalités telles que
le sexe. Cette méthode a l’avantage d’être simple et éprouvée. Néanmoins, elle a deux
limites : elle ne permet de tester qu’un seul lien à la fois ; elle ne tient pas compte
des erreurs de mesure et n’est donc pas adaptée aux variables latentes ; de plus elle
n’est pas adaptée aux variables ordinales et continues (Aguinis, 1995 ; Baron et
Kenny, 1986).
L’analyse des effets modérateurs peut aussi être réalisée par des analyses
multi-groupes. Les groupes sont constitués selon les différents niveaux de la variable
modératrice. Une analyse par régression est alors appliquée à chaque groupe. Si les
estimations des coefficients sont différentes entre les groupes, l’effet modérateur est
établi (MacKenzie et Spreng, 1992). Le changement du coefficient de détermination
R2 selon l’appartenance aux groupes suggère aussi la présence d’un effet modérateur.
La constitution des groupes en cas de variable dichotomique (binaire, ex. sexe) est
simple. Lorsque la variable modératrice est continue ou ordinale, la division en grou-
pes se fait par la transformation de cette variable en une variable dichotomique selon
les pôles extrêmes, généralement selon la valeur médiane 8 (ex. Groupe1 : individus à
faible implication, groupe2 : individus à forte implication). Les analyses multi-grou-
pes ont l’avantage d’être simples et robustes. Elles ont toutefois deux limites : (1) la
dichotomisation des variables modératrices pour constituer les groupes génère une
perte d’information importante ; (2) le partage de l’échantillon en sous-groupes
réduit la taille de l’échantillon généralement modeste dans les recherches en gestion
(Stone-Romero et Anderson, 1994). Ces méthodes sont surtout adaptées aux variables
modératrices nominales et mesurées sans erreur. Le recours aux méthodes d’équations
structurelles permet d’améliorer leur utilisation.
Afin de dépasser les limites des analyses multi-groupes classiques, certains
auteurs ont développé une méthode de régression multiple hiérarchique, adaptée à

8 Une méthode moins arbitraire de transformation d’une variable continue en variable catégorique
est effectuée à l’aide du logiciel SPSS 11 (rubrique : Transformer / Discrétiser variables).
336 Analyse des variables modératrices et médiatrices

l’analyse des effets d’interaction et appelée « régression multiple modérée » (Aiken et


West, 1991 ; Jaccard et al., 1990). Afin d’analyser l’effet modérateur d’une variable Z
sur la relation entre une variable indépendante XP et une variable dépendante Y, le
produit des deux variables (XP × Z), qui représente l’effet non linéaire d’interaction,
est d’abord calculé. Deux régressions sont alors testées 9. La première est un test des
effets principaux de XP et Z sur Y. La seconde régression est réalisée après l’introduc-
tion du terme multiplicatif (XP * Z).
Y = a + b1 XP + b2 Z
Y = a + b1 XP + b2 Z+ b3 XP × Z
Le rôle modérateur de Z est établi si le coefficient b3 est statistiquement signi-
ficatif. Le coefficient de détermination R2 de la seconde régression devrait aussi être
meilleur que celui de la première régression afin de montrer que l’ajout de l’effet
modérateur améliore la validité prédictive du modèle. En dépit de son succès (Cor-
tina, 1993), la régression multiple modérée peut avoir une faible puissance pour
détecter et estimer l’effet modérateur dans les cas suivants : faible fiabilité des mesu-
res, utilisation de variables dichotomiques, forte multicolinéarité entre les variables
et faible taille de l’échantillon étudié (Aguinis et Stone-Romero, 1997 ; Busemeyer et
Jones, 1983 ; Cortina, 1987). Pour dépasser les limites de la régression multiple
modérée, certains auteurs (McClelland et Judd, 1993) ont mis l’accent sur l’intérêt
d’utiliser cette démarche multiplicative avec les méthodes d’équations structurelles.
Kenny et Judd (1984) ont développé un modèle d’analyse des effets non linéaires
d’interaction, inspiré de la régression multiple modérée et adapté aux variables laten-
tes. Ce modèle fondateur est basé sur l’utilisation du produit des indicateurs des
variables latentes en interaction, à savoir la variable explicative et la variable modé-
ratrice. Selon cette approche, l’analyse du rôle modérateur est faite par l’ajout d’un
effet d’interaction représenté par une nouvelle variable latente mesurée par le produit
des indicateurs des variables en interaction. La nouvelle variable (XP × Z) est mesurée
par le produit des indicateurs de XP et Z. Si l’impact de cette nouvelle variable latente
sur Y est significatif, l’effet modérateur est démontré.

4.1 LA DÉMARCHE D’ANALYSE DE PING POUR LES EFFETS MODÉRATEURS


À partir du modèle de Kenny et Judd (1984), plusieurs procédures d’analyse
des effets d’interaction ont été développées par les spécialistes des méthodes d’équa-
tions structurelles ; chacune présentant des forces et des faiblesses en termes de
complexité et de précision (Schumacker et Marcoulides, 1998). Les procédures les
plus connues sont celle de Jaccard et Wan (1995), celle de Jöreskog et Yang (1996)
et celles de Ping (1995, 1996b). En dépit de leur grande rigueur, les deux premières
procédures restent très complexes. La présence de nombreuses contraintes non linéai-
res dans ces procédures génèrent des problèmes de convergence des modèles testés.
Les procédures de Jaccard et Wan (1995) et de Jöreskog et Yang (1996) ne peuvent
pas aussi être utilisées avec des logiciels conviviaux tels que Simplis de Lisrel 8, Amos

9 Pour un objectif de simplicité, le terme (a) comprend à la fois l’intercept (résidu statistique non
expliqué par les variables explicatives retenues ; ce résidu représente donc l’effet des variables expli-
catives non inclues dans le modèle) et l’erreur de régression.
Démarches d’analyse des variables modératrices 337

4 et EQS 5.6, étant donné que ces logiciels ne traitent que les relations linéaires (Li
et al., 1998). La procédure recommandée dans cette recherche est basée sur les tra-
vaux de Ping (1995, 1998). Cette procédure présente plusieurs avantages. Elle limite
le nombre de paramètres estimés en mesurant l’effet d’interaction (XP × Z) par un seul
indicateur égal au produit des sommes des indicateurs de XP et Z. Elle peut être utili-
sée avec tous les logiciels des méthodes d’équations structurelles, étant donné qu’elle
remplace les contraintes non linéaires par des valeurs fixées à partir des résultats de
l’analyse factorielle confirmatoire préalablement réalisée 10. Outre sa simplicité rela-
tive, la procédure de Ping (1995) a la même rigueur que les autres démarches d’ana-
lyse des effets d’interaction (Cortina et al., 2001).
La méthode de Ping (1995, 1998) repose sur la démarche d’analyse en deux
étapes d’Anderson et Gerbing (1988) : la première consiste en une analyse factorielle
confirmatoire permettant de s’assurer de la validité du modèle de mesure ; la seconde
consiste en un test des relations entre les variables latentes. Ping (1995) recom-
mande d’utiliser les résultats de l’analyse factorielle confirmatoire pour calculer l’indi-
cateur de l’effet d’interaction, ainsi que sa contribution factorielle (loading) et
l’erreur de variance. Les valeurs obtenues sont fixées lors de la seconde étape d’esti-
mation des liens entre les différentes variables (Figure 12.5). L’estimation des effets
modérateurs par la procédure de Ping (1995) consiste à mettre en œuvre les étapes
suivantes :
■ Étape 1. Réaliser une analyse factorielle confirmatoire comportant les varia-
bles XP et Z, ainsi que les autres variables du modèle, afin de déterminer les
contributions factorielles des différents indicateurs xi et zj et les termes
d’erreurs εxi et εzj. La démarche d’analyse est itérative et s’arrête lorsque les
indices d’ajustement sont acceptables, exemple CFI ≥ 0,90 ; RMSEA ≤ 0,08.
■ Étape 2. Centrer tous les indicateurs des variables du modèle, en soustrayant
de chaque valeur la moyenne de la variable. Cette opération permet de réduire
la multicolinéarité entre d’une part XP et Z et d’autre part leur produit (XP × Z).
Plusieurs auteurs ont montré que pour limiter la multicolinéarité entre les
variables explicatives et leur produit, toutes les variables doivent être centrées
en retranchant leur moyenne des données brutes (Aiken et West, 1991 ; Jac-
card et al., 1990).
■ Étape 3. Calculer l’indicateur du terme d’interaction (XP × Z). L’indicateur de
l’effet d’interaction, représentant le rôle modérateur est obtenu en faisant le
produit des sommes des indicateurs de la variable explicative et de la variable
modératrice (Σxi × zj). La contribution factorielle λxz et l’erreur θεxz de l’effet
d’interaction sont calculées par les équations suivantes (Équations 4 et 5 de
Ping 1995), avec λxi et λzj les loadings des indicateurs et, θεxi et θεzj leurs ter-
mes d’erreur (résultats de l’étape1) :
λxz = Σ λxi × Σ λzj
θεxz = (Σλxi)22 × VAR (x) × (Σθεzj) + (Σλzj)2 × VAR (z) × (Σθεxi)
+ (Σλxi) × (Σλzj).

10 Robert Ping a développé plusieurs méthodes d’analyse des effets modérateurs. L’ensemble de ces
méthodes est présenté sur son site : http://www.wright.edu/~robert.ping/research1.htm.
338 Analyse des variables modératrices et médiatrices

■ Étape 4. Tester le modèle structurel permettant d’estimer les coefficients b1 et


b2, liant XP et Z à la variable dépendante Y : (Y = a + b1 XP + b2 Z).
■ Étape 5. Tester le modèle structurel en intégrant le produit (XP × Z), en fixant
sa contribution factorielle λxz et son erreur θεxz (étape3). Cette étape permet
d’estimer la significativité du coefficient b3 mesurant l’effet modérateur (Y = a
+ b1 XP + b2 Z+ b3 XP × Z).
■ Étape 6. S’assurer que l’intégration du produit (XP × Z) ne détériore pas l’ajus-
tement du modèle, et plutôt améliore son pouvoir prédictif (R2). L’effet modé-
rateur est évalué par la significativité et le signe du coefficient b3 (Schumacker
et Marcoulides, 1998).

L’estimation des effets modérateurs est généralement un processus long et


complexe. La démarche proposée par Ping (1995) est relativement simple par rapport
aux autres procédures existantes. La rigueur et l’efficacité de cette démarche sont
éprouvées et satisfaisantes (Cortina et al., 2001 ; Li et al., 1998). Afin de mettre en
œuvre la démarche de Ping (1995), le chercheur doit se familiariser avec les logiciels
d’équations structurelles. Un exemple d’illustration sur des données d’une enquête sur
la justice organisationnelle permet de mieux clarifier le recours à cette démarche dans
les recherches en GRH.

εxi X1
λxi
X2
XP

b1 Y1
Xi
Y Y2
εzj Z1
b2
λzj Yk
Z2
Z
b3

Zj
XP × Z

λXZ

(X1 + X2 + … + Xi) × (Z1 + Z2 + … + Zj)

εXZ

FIGURE 12.5 – Procédure de Ping (1995) pour l’analyse des variables modératrices
Démarches d’analyse des variables modératrices 339

4.2 ILLUSTRATION DE LA DÉMARCHE DE PING POUR LES EFFETS


MODÉRATEURS

Selon Brockner et Wiesenfeld (1996), les réactions des salariés aux décisions
dépendent plus de l’interaction entre la justice distributive et la justice procédurale
que d’une perception disjointe de ces deux formes de justice. À cet égard, certains
auteurs ont détecté des effets d’interaction entre ces formes de justice dans l’analyse
de la satisfaction à l’égard de la rémunération (Folger et Konovsky, 1989). Les récom-
penses obtenues et les procédures utilisées pour les allouer interagissent pour créer
un sens de la justice et influencer par conséquent les attitudes et les comportements
des individus. La justice procédurale semble avoir un effet modérateur sur la relation
entre la justice distributive et la satisfaction à l’égard de la rémunération
(Figure 12.6). L’hypothèse suivante peut être formulée.
HYPOTHÈSE 2 : la justice procédurale a un rôle modérateur sur la relation entre
la justice distributive et la satisfaction à l’égard de la rémunération.
Afin de tester le modèle de la figure 12.6, une enquête par questionnaire a été
réalisée auprès de 267 salariés du secteur bancaire. La justice distributive et la jus-
tice procédurale ont été mesurées respectivement par quatre et sept items proposés
par Folger et Konovsky (1989). La satisfaction à l’égard de la rémunération a été
mesurée par le questionnaire de Heneman (1985). Pour simplifier l’illustration, seule
une partie du modèle est présentée. Elle concernera la satisfaction à l’égard des avan-
tages divers de la rémunération. Cette dimension de la satisfaction est mesurée par
quatre items dans le questionnaire de Heneman. Le test des effets modérateurs ou
d’interaction doit être précédé d’une analyse de la normalité des données et de la fia-
bilité des construits.
L’analyse de l’effet modérateur de la justice procédurale selon la procédure de
Ping (1995) est réalisée en plusieurs étapes :
1. Test de la normalité des données par les indicateurs de skewness et de kurtosis.
Ces coefficients d’asymétrie et d’aplatissement, obtenus par SPSS, doivent être
inférieurs à 3 en valeur absolue (Hair et al., 1998). Ce test permet de suppri-
mer les items ayant des distributions non normales. Les items utilisés dans

Justice
distributive
Satisfaction
à l’égard de
la rémunération

Justice
procédurale

Effet modérateur

FIGURE 12.6 – Rôle modérateur de la justice procédurale


340 Analyse des variables modératrices et médiatrices

cette étude ont tous des coefficients skewness et kurtosis acceptables, variant
entre -3 et 3.
2. Examen de la fiabilité et de la validité des variables latentes étudiées. Suite à
une analyse en composantes principales et à une analyse de la fiabilité, les
coefficients alpha de Cronbach sont respectivement de 0,93 pour la justice dis-
tributive (4 items), 0,77 pour la justice procédurale (4 items restants), et 0,95
pour la satisfaction à l’égard des avantages divers dans la rémunération. Cet
examen de la fiabilité est complété par une analyse de la validité convergente
et discriminante. La fiabilité des variables étudiées doit être la plus élevée
possible étant donné que la fiabilité de l’effet modérateur (terme
multiplicatif : Justice distributive x Justice procédurale) dépend de la fiabilité
des deux variables en interaction (Aguinis, 1995) 11.
3. Toutes les données brutes sont centrées en y retranchant leurs moyennes,
avant de calculer le terme multiplicatif (Justice distributive x Justice procédu-
rale), représentant l’effet modérateur. Ceci est nécessaire pour réduire la mul-
ticolinéarité entre le terme multiplicatif et les variables en interaction. Les
moyennes sont calculées et retranchées des données brutes en utilisant SPSS.
4. Pour l’application de la démarche de Ping (1995) pour le test de l’effet d’inte-
raction une première étape consiste à réaliser une analyse factorielle confirma-
toire sur les trois variables du modèle. La formulation de l’analyse sous Simplis
est présentée en annexe. Cette analyse permet de s’assurer de la validité des
construits et d’obtenir les coefficients nécessaires pour calculer la contribution
factorielle (loading) et l’erreur de variance du terme (Justice distributive x
Justice procédurale). Les résultats de cette analyse ont permis de retenir res-
pectivement trois items pour la mesure de la justice distributive et de la jus-
tice procédurale. Les quatre items mesurant la satisfaction ont été tous
maintenus. L’ajustement du modèle de mesure est acceptable avec un chi-
deux = 86,28 pour un ddl = 32 ; un CFI = 0,97 ; un NNFI = 0,96 ; et un
RMSEA = 0,07.
5. Selon Ping, l’effet d’interaction (Justice distributive x Justice procédurale) est
mesuré par un seul indicateur qui est le produit des sommes respectives des
indicateurs de la variable indépendante (Justice distributive) et de la variable
modératrice (Justice procédurale). À partir des résultats non standardisés de
l’analyse factorielle confirmatoire précédente (Figure 12.7), il est possible de
calculer le loading λjj et l’erreur θεjj du terme d’interaction selon les équations
susmentionnées (étape3 de la démarche de Ping) 12 :
λjj = 8,384 et θεjj = 19,324

11 La fiabilité de l’interaction est plus ou moins égale au produit des fiabilités des deux variables en
interaction. Si par exemple, ces fiabilités sont au seuil préconisé de 0,70 et si la corrélation entre les
deux variables est nulle, la fiabilité de l’interaction ne serait que de (0,7 × 0,7) soit seulement 0,49.
Dans le cas de cette étude, la fiabilité de l’interaction est acceptable en étant égale à (0,93 × 0,77)
soit 0,72.
12 Les loadings, les termes d’erreurs et les variances, utilisés pour le calcul de λjj et θεjj sont don-
nés par les matrices Lambda X et Phi, dans l’output Lisrel. λjj = (1 + 1,03 + 1,03) × (1 + 0,94 + 0,80)
= 8,3844 ; θεjj = (1 + 1,03 + 1,03)2 × 0,824 × (0,29 + 0,37 + 0,55) + (1 + 0,94 + 0,8) 2 × 0,712 ×
(0,18 + 0,12 + 0,13) + (1 + 1,03 + 1,03) × (1 + 0,94 + 0,80) = 19,3244.
Démarches d’analyse des variables modératrices 341

J. distri1
0,56
Justice (0,06)
J. distri2 (T = 8,05) avansat1
distributive

J. distri3 Satisfaction à avansat2


l’égard des
avantages divers avansat3
J. proc1 N.S.

Justice avansat4
J. proc2
procédurale

J. proc3
0,10
(0,04)
J. distributive
(T = 2,14)
∑J. distri * ∑J. proc X
J. procédurale N.S. : Lien non significatif
8,384 RMSEA = 0,07
CFI = 0,97
19,32 NNFI = 0,96

Note : La variable V999 a été omise de la représentation graphique pour faciliter la lecture. Néanmoins, la variable latente F2 a un sta-
tut endogène, d’où la covariance entre sa perturbation et la variable latente F1 pour mesurer la covariance entre les deux facteurs.

FIGURE 12.7 – Résultats de l’analyse de l’effet modérateur de la justice procédurale

6. Test du modèle structurel comportant la variable indépendante (Justice distri-


butive), la variable modératrice (Justice procédurale), l’effet d’interaction
(Justice distributive x Justice procédurale), et la variable dépendante (Satis-
faction à l’égard de la rémunération). Les termes calculés λjj et θεjj sont fixés
lors de cette analyse. La formulation de l’analyse sous Simplis est présentée en
annexe. Les résultats du test montrent que la justice distributive a un impact
positif sur la satisfaction à l’égard des avantages divers de la rémunération
(gamma=0,56 ; T de Student = 8,05). La justice procédurale n’a pas d’impact
direct significatif sur cette satisfaction. Le produit (Justice distributive x Jus-
tice procédurale) a un impact positif significatif sur la satisfaction
(gamma = 0,10 ; T de Student = 2,14). L’ajustement du modèle structurel est
excellent avec un chi-deux=104,75 pour un ddl = 41 ; un CFI = 0,97 ; un
NNFI=0,96 ; et un RMSEA=0,076. Le coefficient de détermination R2 pour la
satisfaction à l’égard des avantages de la rémunération est égal à 0,28. Il est
considéré acceptable. L’effet modérateur pur de la justice procédurale sur la
relation entre la justice distributive et la satisfaction à l’égard de la rémunéra-
tion est donc vérifié dans cette étude. En examinant le signe positif du coeffi-
cient gamma, liant le produit (Justice distributive x Justice procédurale) et la
satisfaction, il semble que la justice procédurale accroît et renforce l’effet de
la justice distributive sur la satisfaction à l’égard des avantages divers. Même
si le coefficient semble faible (gamma=0,10), l’effet modérateur est accepté 13.
Les salariés interrogés semblent être plus satisfaits de leur rémunération lors-
342 Analyse des variables modératrices et médiatrices

que leur perception de la justice distributive est combinée avec une percep-
tion positive de la justice procédurale.

5. Conclusion

Le développement continu des théories en gestion et GRH suscite un intérêt


croissant pour les rôles des variables médiatrices et modératrices. L’amélioration des
méthodes d’analyse et d’estimation de ces variables semble nécessaire. La détection
exacte des effets médiateurs et modérateurs a toujours été difficile et complexe. Les
méthodes d’équations structurelles peuvent apporter une grande rigueur et flexibilité
à l’analyse de ce type de variables. Afin de tirer avantage de cet apport, plusieurs pré-
cautions doivent être prises en compte lors des analyses des effets médiateurs et
modérateurs :
■ Le choix d’une démarche d’analyse est nécessaire compte tenu de la com-
plexité des effets étudiés. Deux démarches ont été présentées et illustrées
dans ce chapitre. Le modèle de Baron et Kenny (1986) propose une démarche
rigoureuse et robuste d’analyse « causale » et séquentielle des effets média-
teurs. La démarche de Ping (1995) représente une démarche relativement sim-
ple et rigoureuse d’analyse des effets modérateurs sous forme d’interaction
entre les variables. Les deux démarches présentées peuvent être utilisées avec
tous les logiciels disponibles tels que Lisrel, Amos et EQS.
■ L’examen des limites des méthodes classiques d’analyse des effets médiateurs
et modérateurs, telles que les régressions hiérarchiques, les analyses multi-
groupes, les régressions multiples modérées, permet de mettre l’accent sur
l’importance de la pertinence du cadre théorique et de la congruence du design
de la recherche. À cet égard, la définition rigoureuse des construits est essen-
tielle dans la mesure où elle influence par la suite la qualité de la mesure. La
fiabilité élevée (alpha de Cronbach ≥ 0,80) semble être nécessaire pour assurer
la puissance statistique des méthodes d’analyse des effets intermédiaires
(Aguinis, 1995).
■ Les méthodes d’estimation des effets intermédiaires sont souvent exigeantes
en termes de taille d’échantillon. Lorsque le modèle théorique étudié com-
porte des variables médiatrices et surtout modératrices, des tailles d’échan-
tillons importantes semblent être nécessaires (N ≥ 300 voire 500). Selon
MacKinnon et al. (2002), plus l’effet détecté est faible, plus la taille de
l’échantillon doit être élevée.
■ Afin de réduire la multicolinéarité entre les variables indépendantes principa-
les et les variables médiatrices et modératrices, il semble utile de centrer tou-
tes les variables mesurées en y retranchant la moyenne (Aiken et West, 1991 ;
Jaccard et al., 1990).
■ L’analyse des effets non linaires d’interaction entraîne généralement une dété-
rioration des indices d’ajustement. Le choix de seuils acceptables et souples

13 McClelland et Judd (1993) ont mis l’accent sur la difficulté de détecter les effets d’interaction,
dont la grandeur est souvent faible.
Bibliographie 343

doit toutefois être expliqué par rapport aux caractéristiques de chaque indice
(Roussel et al., 2002).
■ La détection des effets médiateurs et modérateurs ne doit jamais découler de
la seule analyse statistique. La pertinence de l’argumentation théorique est la
principale garantie de l’avancement de la recherche sur les variables intermé-
diaires.

Bibliographie
Aguinis H. (1995), Statistical power problems with moderated multiple regression in
management research. Journal of Management, vol. 21, pp. 1141-1158.
Aguinis H. et Stone-Romero E. (1997), Methodological artifacts in moderated multiple
regression and their effects on statistical power. Journal of Applied Psychology, vol.
82, pp. 192-206.
Aiken L.S. et West S.G. (1991), Multiple Regression : Testing and Interpreting Interac-
tions, Newbury Park, CA : SAGE Publications.
Ambler T. (1998), Mediation and moderation : roles and tests. Pan’Agra Workin Paper,
N° 98-904, London Business School.
Anderson J.C. et Gerbing D.W. (1988), Structural equation modeling in practice : a
review and recommended two-step approach. Psychological Bulletin, vol. 103,
pp. 411-423.
Arnold H.J. (1982), Moderator variables : a clarification of conceptual, analytic and
psychometric issues. Organizational Behavior and Human Performance, vol. 29,
pp. 143-174.
Baron R.M. et Kenny D.A. (1986), The Moderator-Mediator variable distinction in social
psychological research : conceptual, strategic, and statistical considerations. Journal
of Personality and Social Psychology, vol. 51, pp. 1173-1182.
Brockner J. et Wiesfeld B.M. (1996), An integrative framework for explaining reactions
to decisions : interactive effects of outcomes and procedures. Psychological Bulletin,
vol. 120, pp. 189-208.
Busemeyer J.R. et Jones L.E. (1983), Analysis of multiplicative combination rules when
the causal variables are measured with error. Psychological Bulletin, vol. 93, pp. 549-
562.
Collins L.M., Graham J.W. et Flaherty B.P. (1998), An alternative framework for defining
mediation. Multivariate Behavioral Research, vol. 33, pp. 295-312.
Cortina J.M. (1993), Interaction, nonlinearity and multicollinearity : Implications for
multiple regression. Journal of Management, vol. 19, pp. 915-922.
Cortina J.M, Chen G. et Dunlap W.P (2001), Testing interaction effects in LISREL : exa-
mination and illustration of available procedures. Organizational Research Methods,
vol. 4, pp. 324-360.
Cronbach L.J. (1987), Statistical tests for moderator variables : flaws in analysis
recently proposed. Psychological Bulletin, vol. 102, pp. 414-417.
Eisenberger R., Fasolo P. et Davis-LaMastro V. (1990), Perceived organizational support
and employee diligence, commitment and innovation. Journal of Applied Psychology,
vol. 82, pp. 51-59.
344 Analyse des variables modératrices et médiatrices

El Akremi A. et Roussel P. (2003), Analyse des variables médiatrices et modératrices par


les méthodes d’équations structurelles : applications à une étude en GRH. Communi-
cation soumise au Congrès de l’AGRH, Grenoble 2003.
Folger R. et Konovsky M.A. (1989), Effects of procedural and distributive justice on
reactions to pay raise decisions. Academy of Management Journal, vol. 32, pp. 115-
130.
Hair J.F Jr., Anderson R.E., Tatham R.L. et Black W.C. (1998), Multivariate Data Analysis,
New York : Macmillan.
Heneman H.G. (1985), Pay satisfaction. In Rowland, K.M. et Ferris, G.R. (Eds), Research
in personnel and human resources management, vol. 3, Greenwich, JAI Press, pp. 115-
139.
Jaccard J., Turrisi R. et Wan CK. (1990), Interaction Effects in Multiple Regression,
Newbury Park, CA : SAGE Publications.
Jaccard J. et Wan CK. (1995), Measurement error in the analysis of interaction effects
between continuous predictors using multiple regression : multiple indicator and
structural equation approaches. Psychological Bulletin, vol. 117, pp. 348-357.
James L.R. et Brett J.M (1984), Mediators, moderators and tests for mediation. Journal
of Applied Psychology, vol 69, pp. 307-321.
Jöreskog K.G. et Yang F. (1996), Nonlinear structural equation models : The Kenny and
Judd model with interaction effects. In Marcoulides G.A. et Schumacker R.E. (Eds),
Advances in Structural Equation Modeling Techniques, Hillsdale, NJ : LEA, pp. 57-88.
Jöreskog K.G., Sörbom D., Du Toit S. et Du Toit M. (1999), LISREL 8 : New Statistical
Feature, Chicago, IL : Scientific Software International Inc.
Kenny D., Kashy D.A., et Bolger N. (1998), Data analysis in Social Psychology. In Gil-
bert, D.T. Fiske, S.T. et Gardner, G. The Handbook of Social Psychology, 4th ed., Bos-
ton, Oxford University Press, pp. 233-265.
Kenny D. et Judd Ch.M. (1984), Estimating the Nonlinear and Interactive Effects of
Latent Variables. Psychological Bulletin, vol. 96, pp. 201-210.
Li F., Harmer P., Duncan T.E., Duncan S.C., Acock A. et Boles S. (1998), Approaches to
testing interaction effects using SEM methodology. Multivariate Behavioral Research,
vol. 33, pp. 1– 39.
MacKenzie S.B. et Spreng R.A. (1992), How does motivation moderate the impact of
central and peripheral processing on brand attitudes and intentions. Journal of Con-
sumer Research, vol. 18, pp. 519-529.
MacKinnon D.P., Lockwood Ch.M., Hoffman J.M., West S.G. et Sheets V. (2002), A com-
parison of methods to test mediation and other intervening variable effects. Psycho-
logical Methods, vol. 7, pp. 83-104.
MacKinnon D.P., Warsi G. et Dwyer J.H. (1995), A Simulation study of mediated effects
measures. Multivariate Behavioral Research, vol. 30, pp. 41-62.
McClelland G. H. et Judd C. M. (1993), Statistical Difficulties of Detecting Interactions
and Moderator Effects. Psychological Bulletin, vol. 114, pp. 376-390.
Moorman R.H., Blakely G.L. et Niehoff B.P. (1998), Does perceived organizational sup-
port mediate the relationship between procedural justice and organizational citi-
zenship behavior ? Academy of Management Journal, vol. 41, pp. 351-357.
Moulder B.C. et Algina J. (2002), Comparison of methods for estimating and testing
latent variable interactions. Structural Equation modeling, vol. 9, pp. 1-19.
Bibliographie 345

Niehoff B.P. et Moorman R.H. (1993), Justice as a mediator of the relationship between
methods of monitoring and organizational citizenship behavior. Academy of Manage-
ment Journal, vol. 36, pp. 527-556.
Organ D.W. (1990), The motivational basis for organizational citizenship behavior. In
Staw B.M. et Cummings L.L. (Eds), Research in organizational behavior, vol. 12,
Greenwich, CT : JAI Press, pp. 43-72.
Ping R. (1995), A Parsimonious estimating technique for interaction and quadratic
latent variables. The Journal of Marketing Research, vol. 32, pp. 336-347.
Ping R. (1996a), Latent variable interaction and quadratic effect estimation : A Two-
Step technique using structural equation analysis. The Psychological Bulletin, vol.
119, pp. 166-175.
Ping R. (1996b), Latent variable regression : A technique for estimating interaction and
quadratic coefficients. Multivariate Behavioral Research, vol. 31, pp. 95-120.
Ping R. (1996c), Estimating latent variable interactions and quadratics : The state of
this art. Journal of Management, vol. 22, pp. 163-183.
Ping R. (1998), EQS and LISREL examples using survey data. In Schumacker, R.E. et
Marcoulides, G.A. (Eds), Interaction and Nonlinear Effects in Structural Equation Mode-
ling, London, Lawrence Erlbaum Associates, pp. 63-100.
Roussel P., Durrieu F., Campoy E. et El Akremi A. (2002), Méthodes d’équations
structurelles : recherches et application en gestion, Paris, Economica.
Saunders D.R. (1956), Moderator variables in prediction. Educational and Psychological
Measurement, vol. 16, pp. 209-222.
Schumacker R. (2002), Latent variable interaction modeling. Structural Equation mode-
ling, vol. 9, pp. 40-54.
Schumacker R.E. et Marcoulides G.A. (1998), Interaction and Nonlinear Effects in Struc-
tural Equation Modeling, London, Lawrence Erlbaum Associates.
Sharma S., Durand R.M. et Gur-Arie O. (1981), Identification and analysis of moderator
variables. Journal of Marketing research, vol. 18, pp. 291-300.
Shrout P.E. et Bolger N. (2002), Mediation in experimental and nonexperimental
studies : new procedures and recommendations. Psychological Methods, vol. 7,
pp. 422-445.
Sobel M.E. (1996), An introduction to causal inference. Sociological Methods and
Research, vol. 24, pp. 353-379.
Stone-Romero E.F et Anderson L.E. (1994), Relative power of moderated regression and
comparison of subgroup coefficients for detecting moderating effects. Journal of
Applied Psychology, vol. 79, pp. 354-359.
Yang Jonsson F. (1998), Modeling interaction and nonlinear effects : a step by step
Lisrel example. In Schumacker R.E. et Marcoulides G.A. (Eds), Interaction and Nonli-
near Effects in Structural Equation Modeling, London, Lawrence Erlbaum Associates,
pp. 17-42.
Zedeck S. (1971), Problems with the use of « moderator » variables. Psychological Bulle-
tin, vol. 76, pp. 295-310.
346 Analyse des variables modératrices et médiatrices

ANNEXE
PROGRAMMES SIMPLIS SOUS LISREL 8.5
Test des effets médiateurs par la démarche de Baron et Kenny (1986)
Étape (1) de la démarche
Mediator effect (1) Justice — Comportements OCB
Observed Variables : altr1 altr2 altr3 civism1 civism2 civism3 jdist1 jdist2
jdist3 jproc1 jproc2 jproc3 jproc4
Covariance Matrix from File C :\lisrel850\MM1\MEDIA1a.cov
Sample Size=422
Latent Variables : ALTRUISM CIVISME JUSTDIS JUSTPRO
Relationships :
altr2=1*ALTRUISM
altr1 altr3=ALTRUISM
civism3=1*CIVISME
civism1 civism2=CIVISME
jdist1=1*JUSTDIS
jdist2 jdist3=JUSTDIS
jproc1=1*JUSTPRO
jproc2 jproc3 jproc4=JUSTPRO
ALTRUISM=JUSTDIS JUSTPRO
CIVISME=JUSTDIS JUSTPRO
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem

Étape (2) de la démarche


Mediator effect (2) Justice — Soutien organisationnel
Observed Variables : pos1 pos2 pos3 pos4 pos5 jdist1 jdist2 jdist3 jproc1
jproc2 jproc3 jproc4
Covariance Matrix from File C :\lisrel850\MM1\MEDIA2a.cov
Sample Size=422
Latent Variables : SOUTIEN JUSTDIS JUSTPRO
Relationships :
pos1=1*SOUTIEN
pos2 pos3 pos4 pos5=SOUTIEN
jdist1=1*JUSTDIS
jdist2 jdist3=JUSTDIS
jproc1=1*JUSTPRO
jproc2 jproc3 jproc4=JUSTPRO
SOUTIEN=JUSTDIS JUSTPRO
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem

Étape (3) de la démarche


Mediator effect (3) Justice — Soutien — OCB
Observed Variables : altr1 altr2 altr3 civism1 civism2 civism3 pos1 pos2 pos3
pos4 pos5 jdist1 jdist2 jdist3 jproc1 jproc2 jproc3 jproc4
Annexe 347

Covariance Matrix from File C :\lisrel850\MM1\MEDIA3.cov


Sample Size=422
Latent Variables : ALTRUISM CIVILOY SOUTIEN JUSTDIS JUSTPRO
Relationships :
altr2=1*ALTRUISM
altr1 altr3=ALTRUISM
civism3=1*CIVILOY
civism1 civism2=CIVILOY
pos1=1*SOUTIEN
pos2 pos3 pos4 pos5=SOUTIEN
jdist1=1*JUSTDIS
jdist2 jdist3=JUSTDIS
jproc1=1*JUSTPRO
jproc2 jproc3 jproc4=JUSTPRO
SOUTIEN=JUSTDIS JUSTPRO
ALTRUISM=SOUTIEN JUSTDIS
CIVILOY=SOUTIEN JUSTDIS
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem

Test de l’effet modérateur selon la démarche de Ping 1995


Étape (1) de la démarche
Measurement model AFC Satisfaction Justice Ping Step1
Observed Variables : avansat1 avansat2 avansat3 avansat4 jdistr1 jdistr2
jdistr3 jproc1 jproc2 jproc3
Covariance Matrix from File C :\lisrel850\MOD\MODT.cov
Sample Size=267
Latent Variables : PAYSATIS JUSTDIST JUSTPROC JDXJP
Relationships :
avansat1=1*PAYSATIS
avansat2 avansat3 avansat4=PAYSATIS
jdistr1=1*JUSTDIST
jdistr2 jdistr3=JUSTDIST
jproc1=1*JUSTPROC
jproc2 jproc3=JUSTPROC
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem

Étape (2) de la démarche


Model Satisfaction Justice Ping Step2
Observed Variables : avansat1 avansat2 avansat3 avansat4 jdistr1 jdistr2
jdistr3 jproc1 jproc2 jproc3 interac
Covariance Matrix from File C :\lisrel850\MOD\MODT.cov
Sample Size=267
Latent Variables : PAYSATIS JUSTDIST JUSTPROC JDXJP
Relationships :
348 Analyse des variables modératrices et médiatrices

avansat1=1*PAYSATIS
avansat2 avansat3 avansat4=PAYSATIS
jdistr1=1*JUSTDIST
jdistr2 jdistr3=JUSTDIST
jproc1=1*JUSTPROC
jproc2 jproc3=JUSTPROC
interac=8,384*JDXJP
PAYSATIS=JUSTDIST JUSTPROC JDXJP
Set the Error Variance of interac Equal to 19,324
Set the Correlation between JDXJP and JUSTDIST Equal to 0
Set the Correlation between JDXJP and JUSTPROC Equal to 0
Options : ND=3 AD=OFF IT=100
Lisrel Output : SS SC SE RS TV EF MI FS MR
Path Diagram
End of Problem
Chapitre 13

Études longitudinales
et comparaisons entre groupes
par les modèles d’équations
structurelles
Eric CAMPOY 1 et Marc DUMAS 2

Sommaire

1 Invariance de la mesure 350

2 L’étude du changement des attitudes 365

3 Conclusion 375

1 Maître de Conférences Université Paris 1 Panthéon–Sorbonne.


2 Maître de Conférences Université de Rennes 1.
350 Études longitudinales et comparaisons entre groupes

La mesure du changement a fait l’objet de travaux depuis plusieurs décennies,


qui se sont poursuivis dans deux directions opposées : d’une part en aval, avec les
travaux sur les modèles du changement ; d’autre part en amont, en rejoignant les
questions de validation de l’invariance d’une mesure. Tous ces travaux se caractérisent
par un fourmillement d’idées, tant sur le plan conceptuel (quelles sont les différentes
formes d’invariance, de changement, etc.), que sur le plan pratique (multiplicité des
méthodes utilisées pour conduire les tests, etc.).
L’objectif de ce chapitre est double : tout d’abord exposer les derniers avance-
ments théoriques et pratiques concernant à la fois l’étude de l’invariance et l’étude du
changement ; ensuite, présenter à travers des modèles particuliers d’équations struc-
turelles, un outil d’analyse commun permettant de simplifier les procédures et d’uni-
fier les tests pratiqués, tant pour l’analyse de l’invariance (analyse longitudinale des
moyennes et des structures de covariances) que pour celle du changement (modèles
de croissance).
Le chapitre est divisé en deux sections principales traitant chacune d’un
aspect particulier : l’invariance de la mesure pour la première et l’étude du change-
ment pour la seconde. Chacune comporte d’abord une synthèse théorique puis une
illustration pratique décrivant dans le détail la procédure pour mener à bien les tests
et un exemple d’interprétation des résultats de ces tests effectués sur des données
empiriques.

1. Invariance de la mesure

Le besoin de vérifier l’invariance d’une mesure peut se présenter dans des cas
très variés :
– développement et validation d’un outil de mesure ;
– généralisation de la validité d’une mesure dans des groupes différents (sexe,
nationalité, etc.) ;
– validation d’un test psychotechnique ;
– comparaison de modes alternatifs de recueil des données ;
– opérationnaliser les changements alpha, bêta et gamma ;
– aide dans les études longitudinales, etc.
À cette diversité de situations où il est nécessaire de tester cette invariance
ne saurait correspondre un seul et même besoin d’invariance : selon l’objet de l’étude
concernée, le niveau ou la forme d’invariance attendus (ou plutôt de non-invariance
tolérés) sera différente comme nous le verrons par la suite.
Pendant longtemps l’on a cru pouvoir vérifier l’invariance d’une mesure par un
seul test. Néanmoins, la non-invariance d’une mesure peut avoir des origines bien dif-
férentes d’un cas à l’autre (cadre de référence différent entre groupes ou dans le
temps, recalibration de la métrique dans le temps ou conception différente des inter-
valles de réponse entre groupes, etc.), qu’un seul et unique test ne saurait différen-
cier, si ce n’est mesurer. Par ailleurs, une forme de non-invariance peut être
acceptable dans un cas et inacceptable dans un autre cas : une différence de
Invariance de la mesure 351

moyenne peut-être inacceptable lors de la validation d’un test psychotechnique, elle


peut-être en revanche tout à fait acceptable et parfois même souhaitée lors de la
comparaison entre groupes ou dans le temps.
L’existence de différents aspects de non-invariance a en général conduit les
chercheurs à développer un ou plusieurs test(s) ad hoc en fonction de l’objet propre
de l’étude et du degré et de la forme d’invariance souhaitée. Une recension récente en
a dénombré plus d’une centaine développés depuis vingt ans (Vandenberg et Lance,
2000) ; chacun étant censé tester l’invariance d’une mesure, ou à tout le moins un
aspect particulier de cette invariance. Face à ce maquis de tests deux questions se
posent :
– Peut-on réduire à quelques grandes catégories la multitude des tests
existants ?
– Y a-t-il un ordre particulier dans lequel ces tests doivent être menés ?
C’est l’objet du travail de Vandenberg (2002 ; Vandenberg et Lance, 2000) que
nous allons présenter dans un premier temps, avant de proposer une application par
les modèles d’équations structurelles de la démarche proposée par ces auteurs.

1.1 LES DIFFÉRENTS TESTS DE L’INVARIANCE DE LA MESURE


Après leur revue sur deux décennies des pratiques les plus fréquentes et perti-
nentes en matière de mesure de l’invariance de la mesure, Vandenberg et Lance
(2000) ont dégagé les tests suivants 3 :
1. Tester l’invariance des matrices de covariances
(H0 : les matrices de covariances sont égales, S(1) = S(2)).
2. Tester l’invariance configurationnelle, ou invariance factorielle « faible »
(H0 : la structure factorielle, en posant les mêmes paramètres libres et fixés,
est identique d’un groupe (ou période) à l’autre).
3. Tester l’invariance métrique, ou invariance factorielle « forte »
(H0 : les contributions factorielles de chaque indicateur sont égales d’un
groupe (ou période) à l’autre, Λ(1) = Λ(2)).
4. Tester l’invariance scalaire
(H0 : les moyennes des indicateurs sont égales d’un groupe (ou période) à
l’autre, τ(1) = τ(2)).
5. Tester l’invariance des moyennes
(H0 : les moyennes latentes des facteurs sont égales d’un groupe (ou période)
à l’autre, κ(1) = κ(2)).

3 Pour des raisons de cohérence, nous reprenons les appellations données par Vandenberg et Lance
(2000). En effet, les appellations des différents tests sont souvent propres à chaque chercheur, alors
qu’elles recoupent souvent le même type de test formellement, ou seulement dans l’esprit. Par exem-
ple, le test de l’invariance métrique est appelé « invariance de la structure factorielle » (Alwin et
Jackson, 1981), « égalité de l’unité de mesure » (Cole et Maxwell, 1985), « comparabilité de la
métrique » (Drasgow et Kanfer, 1985), « invariance factorielle » (Horn et McArdle, 1992),
« invariance des contributions factorielles » (Marsh, 1994) ou encore « invariance de la mesure
totale » (Reise et al. 1993).
352 Études longitudinales et comparaisons entre groupes

6. Tester l’invariance de la variance unique


(H0 : les variances uniques des indicateurs sont égales d’un groupe (ou
période) à l’autre, Θδ(1) = Θδ(2)).
7. Tester l’invariance des variances
(H0 : les variances des facteurs sont égales d’un groupe (ou période) à l’autre,
Φj(1) = Φj(2)).
8. Tester l’invariance des covariances

(H0 : les covariances entre les facteurs sont égales d’un groupe (ou période) à
l’autre, Φij(1) = Φij(2)).
Quant à l’ordre dans lequel ces tests doivent être menés, toujours selon Van-
denberg et Lance (2000), il est impératif d’effectuer en premier lieu et dans cet ordre
les tests 1 à 4 ; en revanche, les tests 5 à 7 peuvent être menés facultativement
après, dans l’ordre souhaité par le chercheur (figure 13.1). Voici les raisons qui justi-
fient l’ordre proposé :
a) Si l’invariance des matrices de covariances (test 1) est vérifiée, il ne sera
pas nécessaire de procéder aux tests 2, 3 et 4, puisque l’on peut considérer
que l’invariance est validée (Jöreskog, 1971 ; Bagozzi et Edwards, 1998). Ce
n’est donc que dans le cas où les matrices de covariances ne sont pas égales
que l’on devra vérifier l’existence ou non des différentes autres formes d’inva-
riance. En effet, le rejet de l’hypothèse de l’égalité des matrices de covariances
ne veut pas dire qu’il n’existe pas une certaine invariance et ne donne aucune
information quant à l’origine d’une possible non-invariance de la mesure.
b) La vérification de l’invariance configurationnelle (test 2) est une condition
nécessaire pour tester l’invariance métrique (test 3) et l’invariance scalaire
(test 4). Si tel n’est pas le cas, les tests 3 et 4 n’ont plus aucune pertinence,
puisque la structure factorielle n’étant pas stable, les indicateurs représentent
des construits différents selon les groupes 4. Le non-rejet de l’hypothèse nulle
(i.e. invariance configurationnelle validée) implique (a) que les individus ont
bien utilisé le même cadre cognitif (on peut dès lors les comparer en termes
de différence de moyenne latente) et (b) que l’on peut poursuivre l’inspection
de l’invariance par les tests suivants, dans la mesure où ceux-ci seront con-
duits en maintenant la contrainte d’invariance configurationnelle. C’est pour
cela que le modèle testé pour l’invariance configurationnelle est considéré
comme le modèle de base auquel on comparera les autres modèles au fur et à
mesure des différents tests (modèles emboîtés ou nichés).
c) De même, l’invariance métrique (test 3), au moins partiellement validée, est
en général considérée comme une condition nécessaire au test de l’invariance
scalaire (test 4) (Bollen, 1989 ; Marsh, 1994), même si certains chercheurs
peuvent préférer l’ordre inverse pour les besoins de leur étude (Bagozzi et
Edwards, 1998). Ce test permet de renforcer l’invariance factorielle par rapport
au test précédent, dans la mesure où il impose comme contraintes supplémen-

4 Lorsque l’invariance configurationnelle n’est pas vérifiée, cela signifie que les individus des
divers groupes n’ont pas le même cadre cognitif concernant le concept étudié (ou qu’il a changé au
fil du temps dans le cas d’une étude longitudinale).
Invariance de la mesure 353

taires que les contributions factorielles de chaque indicateur soient égales


d’un modèle à l’autre (i.e. entre les groupes ou entre les périodes). Il s’agit
d’un test d’invariance métrique dans la mesure où la contribution factorielle
représente le coefficient directeur d’une droite donnée par l’équation :
Vi = ai.Fj + ei 5. Ainsi, elle représente également la quantité de variation de Vi
lorsque Fj varie de une unité. Imposer comme contrainte l’égalité des contribu-
tions factorielles entre groupes revient à tester l’égalité des unités de gradua-
tion.

d) Pour l’invariance scalaire (test 4), on utilise le vecteur τ, formé des paramè-
tres de positionnement des indicateurs (i.e. la valeur de la variable observée
quand la valeur de la variable latente à laquelle elle est associée égale 0). Le
test d’égalité des moyennes des indicateurs peut donc être considéré comme
un test de différence de biais de réponses systématiques entre groupes (Bol-
len, 1989). Néanmoins l’interprétation de ce test est délicate, car elle dépend
fortement des conditions de l’étude. Par exemple, s’il s’agit de tester deux
méthodes de recueil de données, une différence significative des moyennes des
indicateurs peut être interprétée comme provenant d’un biais lié aux méthodes
de recueil des données (chaque méthode a un biais de réponse qui lui est pro-
pre et est significativement différent de celui des autres méthodes). Mais si
l’on compare deux groupes, il est nécessaire de se demander si la différence de
moyennes des indicateurs représente un biais ou si elle n’est pas justement
inhérente à la différence imposée pour bâtir les groupes (si l’on compare sala-
riés avec ou sans ancienneté, ou salariés ayant suivi ou non une formation, un
effet d’apprentissage ou de socialisation peut expliquer la différence et cette
différence est même souvent souhaitable). La différence n’est alors plus un
biais indésirable, mais bien au contraire elle peut être souhaitée et ne fait que
refléter les différences attendues entre groupes.
Il est important de noter qu’alors que l’invariance configurationnelle n’est
envisageable que totale, le chercheur peut, sous certaines conditions, ne se
contenter que d’une invariance métrique partielle et/ou d’une invariance sca-
laire partielle (en relâchant des contraintes). D’une part, comme on l’a vu pour
l’invariance scalaire précédemment (mais cela est également applicable à
l’invariance métrique), il est parfois évident que selon les hypothèses de
recherche testées, et la façon que l’on a de les tester, on ne s’attend pas à une
invariance totale. D’autre part, même dans le cas où les hypothèses de recher-
che conduisent à postuler l’invariance métrique (et/ou scalaire) totale, que
doit-on faire si un ou deux indicateurs ne permettent pas de valider cette
invariance totale ? Si le chercheur peut trouver une justification théorique,
n’est-il pas préférable, et scientifiquement intéressant, d’accepter cette inva-
riance partielle et de continuer à explorer les données afin de tester d’autres
aspects de l’invariance ? Bien évidemment, la réponse qui vient à l’esprit est
affirmative. Néanmoins, quelle est la réelle validité des résultats issus d’un
modèle qui a été modifié en fonction des données ? Ainsi, pour que l’inva-

5 Avec Vi : indicateur i ; ei : erreur de mesure de l’indicateur i ; ai : contribution factorielle asso-


ciée à Vi ; Fj : variable latente j.
354 Études longitudinales et comparaisons entre groupes

riance (métrique et/ou scalaire) partielle soit acceptable, il est non seulement
souhaitable que les contraintes relâchées soient toutes justifiées et que leur
nombre soit le plus faible possible, mais il serait également nécessaire de
reproduire l’étude dans les mêmes conditions auprès de nouveaux échan-
tillons 6.
Ainsi, ce n’est qu’à partir du moment où le test 1 a été validé ou, s’il n’a pas
été validé, que les tests 2 à 4 ont été validés (au moins partiellement pour les
tests 3 et 4) que l’on pourra aller plus loin dans l’étude de l’invariance, selon
les objectifs de l’étude 7. Trois possibilités s’offrent alors au chercheur :
e) Tester l’invariance de la variance unique (test 6), afin de prolonger l’étude
de l’invariance de la mesure, imposant comme contrainte l’égalité entre les
groupe (ou d’une période à l’autre) de la variance des erreurs. Par définition,
les variances uniques des indicateurs sont indépendantes (i.e. non corrélées)
et la matrice Θδ est donc diagonale. Néanmoins, dans le cas des études longi-
tudinales, il est possible (parfois même probable) que certains indicateurs
covarient d’une période à l’autre (Chan, 1998). Dans ce cas on testera une
matrice non diagonale (les covariances sont hors diagonale), afin de contrôler
l’effet propre de chaque indicateur. Il est alors nécessaire d’imposer comme
contrainte supplémentaire l’égalité des covariances uniques entre indicateur
pour deux périodes successives (Willett et Sayer, 1994).
f) Tester l’invariance des variances des variables latentes (facteurs) (test 7),
afin de voir si la variabilité des construits est stable (la variance d’un facteur
représente la dispersion de ce facteur). Si c’est le cas, les individus utilisent
une amplitude similaire sur le construit, en répondant au indicateurs qui le
mesurent (pas de changement beta, cf. section 2.1). Sinon, plus la variance
est élevée, plus cette amplitude est grande. Après la validation de ce test,
deux choix s’offrent au chercheur :
– Effectuer le test précédent d’invariance de la variance unique (test 6), afin
de tester l’invariance de la fiabilité des indicateurs (le test 7 est alors une
condition nécessaire) ;
– Tester l’invariance des covariances entre les facteurs (test 8), afin de tes-
ter la présence de changement de type gamma (s’il y a bien invariance con-
figurationnelle — cf. : section 2.1) 8. En effet, si le concept est équivalent
au sein de chacun des groupes (i.e. les individus monopolisent le même
cadre de référence pour répondre aux questions), les relations entre facteurs
ne devraient pas changer. En revanche, si ce n’est pas le cas, on peut
s’attendre à ce que ces relations soient différentes d’un groupe à l’autre, non

6 On retrouve ici les mêmes problèmes posés par la possibilité d’introduire des covariances entre
les erreurs des indicateurs dans tout modèle d’équations structurelles (Roussel et al., 2002).
7 Vandenberg et Lance (2000) suivent en cela On retrouve ici la position d’Anderson et Gerbing
(1988) pour qui il est nécessaire de bien comprendre ce que l’on mesure, avant de tester les relations
entre ce qui a été mesuré. Ainsi, la démarche propose dans un premier temps de mesurer l’invariance
de mesure (relations entre les variables observées et les variables latentes), avant de tester l’inva-
riance structurelle (relations entre les variables latentes).
8 Certains auteurs utilisent le tests 7 puis 6 afin de tester l’égalité des inter-corrélations entre fac-
teurs, mais la justification d’une telle pratique reste peu claire (Vandenberg et Lance, 2000).
Invariance de la mesure 355

seulement quant à leur intensité, mais également en ce qui concerne les fac-
teurs en jeux dans les relations (Vandenberg et Self, 1993). On peut néan-
moins s’interroger sur l’apport réel de cette séquence de tests par rapport au
test de l’invariance configurationnelle (test 2) concernant le changement
gamma (cf. section 2.1). Au mieux, il y aura redondance (la validation de la
séquence ne fait que confirmer le test 2 sans apporter plus d’information, au
pire il y aura contradiction entre la séquence (tests 7 et test 8) et le test 2
et donc dans les conclusions que l’on peut en tirer. Or, le test de l’invariance
configurationnelle est bien plus fort que le reste et l’emporte donc (Vanden-
berg et Lance, 2000).

g) Tester la différence des moyennes latentes des facteurs. Il s’agit ici de tes-
ter non plus les qualités de la mesure, mais les différences entre groupes (ou
périodes) dans la mesure d’une ou de plusieurs variables latentes. Même si ce
test est très proche des méthodes classiques de comparaison des moyennes
(comme l’ANOVA), il a l’avantage de s’insérer dans une séquence qui oblige le
chercheur à vérifier l’invariance de la mesure, alors que très souvent les tests
de différence des moyennes par les méthodes classiques sont effectués par les
chercheurs sans qu’ils aient vérifié au préalable qu’ils comparent bien des cho-
ses comparables (i.e. qu’il y a bien un certain degré d’invariance de la mesure).

Ce qui caractérise l’ensemble des études sur l’invariance de la mesure est,


comme nous l’avons déjà dit, le recours à une multitude d’outils statistiques (ACP,
ANOVA, MANOVA, régression, boxplot, etc.) pour mener soit le même test, soit diffé-
rents tests d’invariance. Plutôt que de présenter toutes ces techniques et sans nier
leur pertinence, il nous semble plus intéressant de présenter une méthode qui permet
de mener l’ensemble de ces tests, à travers un modèle particulier d’équations
structurelles : l’analyse longitudinale des moyennes et des structures de covariances
(Chan, 1998). Cette méthode met à profit l’extrême flexibilité des modèles d’équa-
tions structurelles. En outre, elle permet d’isoler de manière plus sûre les éventuelles
sources de non-invariance, puisqu’elle unifie l’ensemble de la procédure de test. Enfin,
cela nous permettra d’avoir une cohérence dans l’ensemble du chapitre dans la mesure
où la méthode utilisée dans la seconde section repose également sur un autre modèle
particulier d’équations structurelles.

1.2 APPLICATION

Les données reprises ici sont tirées d’une étude sur l’effet du passage aux
35 heures sur les attitudes organisationnelles (Dumas et al., 2002). 289 salariés d’une
grande mutuelle régionale de l’ouest de la France (environ 1200 salariés) ont répondu
à deux reprises (avant le passage aux 35 heures et 18 mois après, cf. tableau 13.1) à
un questionnaire comprenant sept échelles d’attitudes, chacune mesurant un ou plu-
sieurs phénomènes (implication au travail, dans l’emploi, dans l’organisation, le con-
flit travail-famille, etc.). Le premier recueil des données a été effectué peu de temps
avant la conclusion de l’accord sur les 35 heures, tandis que le second a eu lieu
18 mois après le passage aux 35 heures. L’objectif général était d’évaluer les change-
ments d’attitudes liés à la réduction du temps de travail 9.
356
Test de l’invariance / équivalence de la mesure Test de différence entre groupes

Études longitudinales et comparaisons entre groupes


ou
Pas de tests Test de changement dans le temps
FIGURE 13.1 – Récapitulatif et ordre de réalisation des divers tests

supplémentaires
d’invariance
à mener

Oui

Invariance de Invariance Invariance Comparaison


Non Invariance Oui Oui Oui
la matrice de métrique scalaire des moyennes Option A
covariances configurationnelle τ(1)= τ(2)
Λ(1)=Λ(2) κ(1) = κ(2)
de l’invariance dune mesure

Σ(1) = Σ(2)
Non Non Non
Non Invariance
Relâcher des Relâcher des partielle
contraintes contraintes Invariance des
variances uniques Option B
Θδ(1) = Θδ(2)
Oui Oui Invariance Oui Homogénéité
Invariance Invariance
des variances
partielle partielle partielle Oui uniques

Non Non Non


Invariance des
variances Invariance de la
Source : d’après Vandenberg et Lance (2000)

entre facteurs fiabilité des items


Φj(1) = Φj(2)
Aucune comparaison possible
Option C
Aucune invariance observée

Invariance des Comparaison


covariances des paramètres
entre facteurs structurels
Φjj’(1) = Φjj’(2)
Invariance de la mesure 357

Nb salariés Nb de Taux de
Questionnaires Nb de réponses Tx de réponses
destinataires rép. utilisables rép. utilisables

T1 1200 570 47,50 % 556 46,33 %

T2 1124 1 395 35,14 % 370 32,92 %

T 1 ∩ T2 1124 a 318 28,29 % 289 25,71 %

1. 76 salariés ont quitté l’entreprise

TABLEAU 13.1 – Nombre et taux de réponses aux deux questionnaires

Pour vérifier la représentativité de cet échantillon, nous avons comparé les


caractéristiques des répondants à celles de la population (tableau 13.2).
Les hommes, minoritaires dans l’entreprise, sont sur-représentés dans les
échantillons (48,7 % contre 42,8 %). Les répondants sont plus jeunes que la popula-
tion étudiée. La différence d’âge est encore plus marquée pour les femmes. Par consé-
quent on constate que l’ancienneté moyenne des échantillons diminue et que le
nombre d’enfants des répondants est plus élevé.
Il s’agit également de contrôler la structure de qualification et des variables
supposées être corrélées telles que le salaire, le niveau de formation. Les salariés
ayant un niveau inférieur au Bac sont sous représentés dans l’échantillon ; à l’inverse
ceux ayant un niveau supérieur au Bac+2 sont surreprésentés.
L’échantillon n’est donc pas tout à fait représentatif de la population totale en
termes de sexe, d’âge et de structure de qualification. Néanmoins, compte tenu de la
taille de l’échantillon (plus de 25 % de la population), les résultats sont interpréta-
bles et sont par nature comparables à un échantillon de convenance.
Nous nous proposons d’illustrer le développement des différents tests de
l’invariance de la mesure au travers d’un exemple dont le but est d’étudier la stabilité
d’un concept bi-dimensionnel auprès de trois populations différentes : salariés du
siège, du réseau commercial et des sites de gestion (administratifs) 10.

1.2.1 Procédure
Il s’agit tout d’abord, dans une étape préliminaire, de tester l’invariance des
matrices de covariances (modèle M0). On s’intéresse ici non pas à la structure pro-
prement dite de l’échelle, mais seulement à la matrice de variances / covariances.
Autrement dit, ce modèle est composé d’autant de variables latentes qu’il y a de
variables observées (chaque item est associé à un seul facteur et réciproquement ;

9 En fait, 965 réponses (926 exploitables) ont été obtenues sur au moins une des deux vagues,
avec 318 individus (289 réponses exploitables) ayant répondu aux deux vagues (tableau 13.1).
10 En fait, l’objectif est d’étudier si il existe, à une période donnée, des différences d’attitudes dans
les trois sous-groupes homogènes de salariés. Mais avant de pouvoir tester la possible existence de
ces différences, il est nécessaire de vérifier que les concepts mesurés dans chacun des ces groupes
sont comparables.
358 Études longitudinales et comparaisons entre groupes

Variables Population totale (N = 1200) Répondants T1 et T2 (N= 289)

Sexe H 514 42,8 % 155 53,6 %


F 686 57,2 % 134 46,4 %
Âge H 42,36 σ = 10,39 41,19 σ = 9,25
F 41,31 σ = 9,78 38,72 σ = 9,37
H et F 41,76 σ = 10,05 40,04 σ = 9,37
Contrat CDD 30 2,5 % 6 2,1 %
CDI 1141 95,1 % 274 94,8 %
CQ 29 2,4 % 9 3,1 %
Temps partiel 50 % 45 3,8 % 3 1,0 %
80 % 103 8,6 % 19 6,6 %
100 % 1052 87,7 % 267 92,4 %
Ancienneté H 16,74 σ = 11,46 15,41 σ = 10,55
Entreprise F 17,50 σ = 11,42 14,58 σ = 1,01
H et F 16,92 σ = 11,43 15,03 σ = 1,13
Anc. Poste H et F – – 7,48 σ = 6,94
Enfants H – – 1,45 σ = 1,21
F – – 1,19 σ = 1,00
H et F – – 1,33 σ = 1,12
Formation Sans – – 5 1,7 %
CAP-BEP – – 47 16,3 %
Bac – – 73 25,3 %
Bac + 2 – – 118 40,8 %
≥ Bac + 4 – – 44 15,2 %
Sans Rép. – – 2 0,7 %

TABLEAU 13.2 – Description de la population et des échantillons


de répondants (T1 et T2)

autrement dit, on a chaque fois un « facteur-item ») 11 et l’on pose comme contrain-


tes que :
■ chaque variance de « facteur-item » est identique (i.e. : égale) pour toutes les
périodes ou groupes ;
■ chaque covariance entre deux « facteurs-items » donnés est identique (i.e. :
égale) pour toutes les périodes ou groupes ;
■ chaque covariance entre deux facteurs / items donnés de deux périodes suc-
cessives est identique (la covariance entre le facteur / item A en T1 et le
facteur / item B en T2 est égale à la covariance entre le facteur / item A en T2
et le facteur / item B en T3, mais pas à la covariance entre le facteur / item A
en T1 et le facteur / item B en T3) 12.

11 Il suffit de spécifier que la matrice des relations entre variables latentes est une matrice identité
et que la matrice des résidus de variances / covariances est nulle. Autrement dit, en l’absence des
contraintes supplémentaires exposées, il s’agit de ce que l’on appelle communément le « modèle
nul ».
Invariance de la mesure 359

Si M0 présente un degré d’ajustement acceptable (validé par les indices d’ajus-


tement), on peut conclure à l’invariance de la mesure, sans qu’il soit nécessaire
d’avoir recours à d’autres tests. Sinon, il est nécessaire de conduire d’autres tests afin
de détecter les possibles sources de non équivalence, en suivant la démarche de Van-
denberg et Lance (2000).
Pour l’ensemble de ces tests, nous aurons recours à une méthode particulière
d’équations structurelles, l’analyse longitudinale des moyennes et des structures de
covariances (Longitudinal Mean and Covariance Structure Analysis ou LMACS) proposée
par Chan (1998). Cette méthode permet d’estimer six paramètres différents :
1. les contributions factorielles des indicateurs (λ) ;
2. les variances des résidus (erreurs) des indicateurs (ε) ;
3. les moyennes des indicateurs (τ) ;
4. les moyennes des facteurs (µ) ;
5. les variances des facteurs (ou des perturbations des facteurs) (σ2) ;
6. les covariances entre facteurs (σ) ou entre facteurs et perturbations (ψ).

À l’exception des moyennes des facteurs et des indicateurs, ces paramètres


sont estimés par l’analyse classique des structures de covariance (Roussel et al.,
2002). Comme dans celle-ci, il est impératif pour des raisons de métrique de fixer
arbitrairement une des contributions factorielles à 1 pour chacune des périodes (ou
pour chacun des groupes), ainsi que tous les coefficients de régression des erreurs des
indicateurs (Bollen, 1989). Les indicateurs concernés par cette contrainte sont appe-
lés indicateurs de référence. Puisque tous les autres paramètres (contributions facto-
rielles, variances et covariances) sont estimés librement, relativement au coefficient
fixé à 1 13.
Pour calculer les moyennes avec le logiciel EQS, il est nécessaire de faire inter-
venir une variable particulière V999 14 (non indiquée sur la figure 13.2 pour plus de
lisibilité) et de régresser tous les facteurs sauf, comme nous le verrons plus loin, un
(en T1 ou le groupe de référence) par rapport à cette variable. Ce faisant, plusieurs
différences apparaissent par rapport à un modèle classique d’équations structurelles
et l’imposition de certaines contraintes devient indispensable :

12 Cette dernière contrainte n’a de sens que pour un test longitudinal et en aucun cas pour un test
multi-groupes.
13 En fait, dans tout modèle d’équations structurelles, chaque fois que l’on a une ou plusieurs varia-
ble(s) observée(s) régressée(s) par rapport à une variable latente, il faut fixer un des coefficient de
régression à 1. S’il y a plusieurs variables observées dans la régression (cas de la relation entre une
variable latente et les divers items qui la mesurent), on choisit arbitrairement le coefficient qui va
être fixé ; s’il n’y a qu’une variable observée (cas de la relation entre un item et son erreur) alors la
relation est fixée à 1.
14 Cette variable V999 est propre au logiciel EQS et sert uniquement à indiquer que l’on travaille sur
les moyennes latentes. Elle n’intervient nullement dans le calcul des coefficients de régression entre
les variables (latentes et / ou observées). Néanmoins, elle n’est que quasi transparente car sa pré-
sence transforme les variables latentes (ou facteurs) qui sont régressées, d’un statut de variables
exogènes en variables endogènes (nous verrons plus loin les conséquences pratiques de cette modi-
fication).
360 Études longitudinales et comparaisons entre groupes

a) Les facteurs qui étaient auparavant exogènes deviennent endogènes et possè-


dent dès lors chacun une perturbation (i.e. erreur de mesure) dont il faut esti-
mer la variance.
b) Cependant un problème se pose car l’on ne peut calculer les covariances
qu’entre variables endogènes : il n’est donc plus possible de calculer les cova-
riances entre facteurs comme dans un modèle classique d’équations structurel-
les. Néanmoins, les perturbations des facteurs devenus endogènes étant, elles,
exogènes, on peut alors estimer les covariances entre les facteurs exogènes et
les perturbations des facteurs endogènes.
c) Cette technique permet d’estimer la moyenne latente de chaque indicateur et
de chacun des facteurs (c’est le coefficient de régression entre V999 et chacun
des indicateurs et facteurs). Mais pour des questions d’identification du
modèle (Roussel et al., 2002), il est nécessaire :
– d’estimer la moyenne latente de chaque indicateur de référence sous con-
trainte d’égalité à chacune des périodes (ou dans chacun des groupes). Les
moyennes des autres indicateurs sont estimées librement.
– de fixer la moyenne latente du facteur en T1 (ou pour le groupe de référence)
égale à 0 (les moyennes des autres facteurs sont estimées librement). Ainsi,
on peut interpréter la valeur de la moyenne estimée du facteur lors d’une
autre période, comme la variation de la moyenne entre T1 et la période cor-
respondante. Puisque la moyenne du facteur en T1 est imposée égale à 0,
cela revient à fixer à 0 le coefficient de régression entre V999 et le facteur,
ce qui équivaut à supprimer le lien entre V999 et le facteur 15. Dans ce cas,
le facteur en T1 redevient une variable exogène (donc sans perturbation
associée) et la covariance entre le facteur en T1 et le facteur en toute autre
période (variables endogènes), sera donnée par la covariance entre le fac-
teur en T1 et la perturbation du facteur à une autre période.
La procédure proposée par Chan (1998) pour établir le degré d’invariance de la
mesure revient à tester successivement différents modèles LMACS nichés afin de les
comparer.
Nous reprenons cette procédure et nous l’adaptons pour l’appliquer complète-
ment à la démarche de Vandenberg et Lance 16.
En premier lieu il s’agit de tester l’invariance configurationnelle (modèle
M1), c’est-à-dire la stabilité de la structure factorielle. Dans le modèle testé à présent,
ainsi que dans tous les modèles ultérieurs, il est donc nécessaire de fixer la structure
factorielle de l’échelle (comme sur la figure 13.2). C’est ce modèle qui va être désor-
mais considéré comme le modèle de référence. Si l’ajustement de ce modèle aux don-
nées est acceptable (validé par les indices d’ajustement), on peut sérieusement
prétendre à l’existence d’une seul et même structure factorielle au cours du temps (ou
au sein des groupes) et continuer à tester l’invariance de la mesure.

15 Dans un modèle d’équations structurelles, tout lien inexistant est en fait un lien dont la valeur
est contrainte à 0.
16 En fait, Chan propose une démarche assez proche, mais moins complète que celle de Vandenberg
et Lance puisqu’il ne mène pas l’ensemble des tests proposés par Vandenberg et Lance.
Invariance de la mesure 361

ψ21

D2

σ12 σ22
F1 F2
µ1 = 0 µ2

λ11 = 1 λ21 λ31 λ41 λ51 λ12 = 1 λ22 λ32 λ42 λ52

V11 V21 V31 V41 V51 V12 V22 V32 V42 V52
τ11 = a τ21 τ31 τ41 τ51 τ12 = a τ22 τ32 τ42 τ52
1 1 1 1 1 1 1 1 1 1
E11 E21 E31 E41 E51 E12 E22 E32 E42 E52
ε11 ε21 ε31 ε41 ε51 ε12 ε22 ε32 ε42 ε52

FIGURE 13.2 – Représentation d’un modèle LMACS sous EQS


(1 facteur latent avec 5 indicateurs mesurés sur 2 périodes) 17

Le deuxième modèle (M2), niché dans le premier, permet de tester l’invariance


métrique. Par rapport à M1, on ajoute la contrainte d’égalité des contributions
factorielles : les contributions factorielles de chaque indicateur sont estimées sous
contrainte d’égalité sur l’ensemble des périodes ou des groupes (λ21 = λ22 ; λ31 =
λ32 ;…). Si la différence de chi-deux entre les deux modèles n’est pas significative
(au regard de la différence de degrés de liberté), on peut conclure à l’égalité des con-
tributions factorielles et donc à l’invariance de la mesure. Ici, non seulement la struc-
ture factorielle reste la même au fil du temps, mais le poids de chaque indicateur dans
le facteur ne change pas non plus. 17

Les modèles suivants, nichés selon le même principe d’imposition de nouvelles


contraintes, permettent de tester les différents aspects restant de l’invariance : inva-
riance scalaire (M3 ; égalité des moyennes des indicateurs), invariance des moyen-
nes, des variances et des covariances entre (ou des) variables latentes
(respectivement M4, M5 et M6 ; respectivement égalité des moyennes, variances et
covariances entre ou des facteurs), et invariance de la variance unique (M7 ; égalité
des moyennes des indicateurs).
Chaque fois on compare Mn à Mn–1. Si la différence de chi-deux entre les deux
modèles n’est pas significative (au regard de la différence de degrés de liberté), on
peut conclure à une invariance de la mesure toujours plus stricte. Et l’on continue en
comparant Mn+1 à Mn. Si au contraire, la différence de chi-deux entre les deux modèles
est significative (au regard de la différence de degrés de liberté), alors il n’y a pas
invariance du critère que Mn contrôle. Auquel cas, si l’on poursuit l’analyse, le modèle
Mn+1 comprendra toutes les contraintes posées jusqu’au modèle Mn–1 plus celle(s) qui
lui est(sont) propre(s) et on comparera Mn+1 à Mn–1 et non pas à Mn.

17 La variable V999 a été omise de la représentation graphique pour faciliter la lecture. Néanmoins,
la variable latente F2 a un statut endogène, d’où la covariance entre sa perturbation et la variable
latente F1 pour mesurer la covariance entre les deux facteurs.
362 Études longitudinales et comparaisons entre groupes

1.2.2 Exemple : stabilité d’une échelle de mesure


auprès de plusieurs populations

Lors de l’étude des changements d’attitudes liés au passage aux 35 heures, il


est apparu nécessaire de distinguer trois sous-populations de salariés de l’entreprise :
ceux du siège (N = 38), ceux des sites de gestion (administratifs, N = 135) et ceux du
réseau (commerciaux, N = 116). En effet, non seulement l’identité au travail, les con-
ditions de travail et le rapport à la structure hiérarchique de la société sont différents
selon ces populations, mais l’accord négocié n’a pas les mêmes implications pour cha-
cune. Il est donc nécessaire, avant toute chose, de vérifier l’invariance de la mesure
de chacune des variables auprès des 3 sous-populations à chacune des deux périodes.
Les résultats présentés ici (tableau 13.3) concernent l’échelle de mesure de l’implica-
tion dans le travail (6 items), dont la structure est bidimensionnelle (3 items sur cha-
cune des deux dimensions : implication dans le travail et implication dans l’emploi).

Le degré d’ajustement du modèle M0 (test de l’égalité des matrices de cova-


riance) est ambigu. Il est mauvais au regard du chi-deux, médiocre au regard du
RMSEA et acceptable au regard du NNFI et du CFI. Il est donc nécessaire d’analyser
plus en détail ces résultats :

– Le NNFI et le CFI conduisent à accepter sans discussion le modèle et à conclure


à l’équivalence de la mesure sans avoir recours à d’autres analyses.

– Le chi-deux (χ251 = 133, non significatif) conduit, au contraire, à rejeter le


modèle. Néanmoins, on sait que le chi-deux est souvent trop restrictif car très
sensible à de nombreux biais (complexité du modèle, nombre d’individus et
d’indicateurs) ce qui conduit les chercheurs à le négliger au profit d’autres indi-
ces d’ajustement. Toutefois, le modèle testé ici est très simple (aucune struc-
ture factorielle imposée), ne comporte que 6 indicateurs et l’échantillon n’est
pas de grande taille. C’est pourquoi l’information fournie par le chi-deux est à
prendre à considération.
– Cette ambiguïté se retrouve également dans la valeur médiocre du RMSEA : si
elle avait été inférieure à 0,05 (en plus des valeurs du NNFI et du CFI), le
modèle aurait été accepté. Entre 0,05 et 0,1, l’acceptation du modèle est plus
délicate dans l’absolu. Ici, compte tenu des caractéristiques du modèle évo-
quées précédemment, il semble que l’on puisse attendre un niveau d’ajuste-
ment inférieur à 0,05. Le résultat est donc médiocre et laisse à penser qu’il y a
un problème de non équivalence de la mesure à un niveau quelconque de celle-
ci.

Il apparaît donc plus prudent à ce stade de rejeter le modèle. On ne peut pas


conclure à une équivalence parfaite de la mesure au sein des trois groupes. Mais, les
bons niveaux du NNFI et du CFI, ainsi que le niveau médiocre (et non mauvais) du
RMSEA vont plutôt dans le sens d’une équivalence seulement partielle de la mesure.
Ce sont donc les tests ultérieurs qui non seulement confirmeront cette hypothèse,
mais permettront également de déceler la ou les source(s) potentielle(s) de non équi-
valence.
Invariance de la mesure 363

Base de
Test d’invariance Modèle χ2 ddl ∆χ2 ∆ddl Sign. RMSEA NNFI CFI
comparaison

Des matrices de covariances M0 M0 rejeté 132,997 51 – – – 0,075 0,977 0,981

Configurationnelle M1 M1 accepté 33,555 24 – – – 0,037 0,994 0,998

Métrique M2 M2–M1 40,468 32 6,913 8 NS 0,030 0,996 0,998

Scalaire M3 M3–M2 44,273 40 3,805 8 NS 0,019 0,998 0,999

Des moyennes latentes M4 M4–M3 56,891 44 12,618 4 S 0,032 0,996 0,997

De la variance des facteurs M5 M5–M3 48,575 44 4,302 4 NS 0,019 0,998 0,999

Des covariances entre facteurs M6 M6–M5 63,911 46 15,336 2 S 0,037 0,994 0,996

De la variance des erreurs M7 M7–M5 60,909 56 12,334 12 NS 0,018 0,999 0,999

Notes :
LMACS = longitudinal mean and covariance structures analysis.
M0 = pas de structure factorielle (1 item = 1 indicateur), égalité des variances des facteurs et des covariances entre facteurs ; M1 =
structure factorielle fixée + contributions factorielles, variances des facteurs et des erreurs, moyennes des facteurs et des indicateurs et
covariances entre facteurs libres ; M2 = structure factorielle + égalité des contributions factorielles fixées + variances des facteurs et des
erreurs, moyennes des facteurs et des indicateurs et covariances entre facteurs libres ; M3 = structure factorielle + égalité des contribu-
tions factorielles et des moyennes des indicateurs fixées + variances des facteurs et des erreurs, moyennes des facteurs et covariances
entre facteurs libres ; M4 = structure factorielle + égalité des contributions factorielles et des moyennes des indicateurs et des facteurs
fixées + variances des facteurs et des erreurs et covariances entre facteurs libres ; M5 = structure factorielle + égalité des contributions
factorielles, des moyennes des indicateurs et des variances des facteurs fixées + variances des erreurs, moyennes des facteurs et cova-
riances entre facteurs libres ; M6 = structure factorielle + égalité des contributions factorielles, des moyennes des indicateurs, des
variances des facteurs et des covariances entre facteurs fixées + variances des erreurs et moyennes des facteurs libres ; M7 = structure
factorielle + égalité des contributions factorielles, des moyennes des indicateurs, des variances des facteurs et des erreurs fixées +
moyennes des facteurs et covariances entre facteurs libres.
RMSEA = root mean square error of approximation (Steiger, 1990), NNFI = nonnormed fit index (Bentler and Bonnett, 1980) ; CFI =
comparative fit index (Bentler, 1990).
S / NS : Différence de chi-deux significative / non significative avec p < 0,05.

TABLEAU 13.3 – Indices d’ajustement et comparaisons des modèles LMACS


pour l’échelle de l’implication au travail auprès de trois groupes 16 (N = 289)
18

■ Le modèle M1 (invariance configurationnelle) est acceptable au regard de


l’ensemble des indices (y compris le chi-deux). Ainsi, quelle que soit la popu-
lation concernée, l’échelle fait apparaître les deux mêmes dimensions. Ce n’est
donc pas à ce niveau que se pose le problème de non équivalence. Ce modèle
va donc servir de base de comparaison avec un modèle niché, donc plus strict
quant aux critères d’équivalence de la mesure. Si tel n’avait pas été le cas,
aucune analyse ultérieure n’était envisageable, puisqu’il devenait impossible
de comparer des structures factorielles différentes entre elles.

18 Implication au travail : relation qu’entretient l’individu d’une part avec le travail en général
(implication dans le travail) et, d’autre part, avec son emploi en particulier (implication d’ans
l’emploi) (échelle adaptée de Kanungo (1982).
364 Études longitudinales et comparaisons entre groupes

■ L’étape suivante est le test de l’invariance métrique (M2). Ce modèle a un


degré d’ajustement acceptable et son ajustement ne se dégrade significative-
ment pas du fait de l’imposition des nouvelles contraintes d’égalité des contri-
butions factorielles par rapport à M1 (∆χ2 / ∆ddl = 6,913 / 8, non significatif).
Ainsi, dans chaque groupe les individus ont non seulement fait la même dis-
tinction entre l’implication au travail et l’implication dans l’emploi, mais ils
ont en outre considéré les items de la même manière (le poids de chaque item
relativement aux autres est identique d’un groupe à l’autre). C’est donc le
modèle M2 qui devient la base de comparaison pour le test suivant.
■ Celui-ci (M3) concerne l’invariance scalaire. Ici encore, la conclusion est la
même que précédemment. Ce modèle a un degré d’ajustement acceptable et
son ajustement ne se dégrade significativement pas du fait de l’imposition des
nouvelles contraintes d’égalité des moyennes des indicateurs par rapport à M2
(∆χ2 / ∆ddl = 3,805 / 8, non significatif). Ainsi, dans chaque groupe les indi-
vidus ont non seulement fait la même distinction entre l’implication au travail
et l’implication dans l’emploi et considéré les items de la même manière, mais
ils ont en outre accordé le même poids absolu à chaque item (dans le modèle
M2, on testait le poids relatif des items les uns par rapport aux autres). C’est
donc le modèle M3 qui devient la base de comparaison pour le test suivant.
À ce stade de l’analyse, il est possible de considérer que l’on a bien testé et
validé l’invariance de la mesure de l’implication au travail au sein des trois sous-
populations distinctes. Bien entendu, il est possible de souhaiter une invariance de la
mesure encore plus forte, en vérifiant l’égalité des variances des résidus, l’égalité des
variances des facteurs ou encore l’égalité des moyennes des facteurs. Chacune de ces
contraintes supplémentaires à sa propre justification comme nous l’avons vu. C’est
bien au chercheur de décider du degré acceptable de non-invariance de la mesure,
selon les objectifs de l’étude (validation de la stabilité d’un test psychotechnique
auprès de différentes populations et dans le temps, validation de la structure facto-
rielle d’une échelle auprès de deux populations, étude du changement d’une attitude
dans le temps, etc.). Néanmoins, il faut garder à l’esprit que la variance d’un facteur
et les covariances entre facteurs sont en général propres à chaque échantillon, alors
que l’égalité des contributions factorielles peut être généralisée à tous les échan-
tillons d’une population donnée (MacCallum et Tucker,1991). Ainsi, si l’objectif de la
recherche est d’étudier le changement dans le temps d’une variable, il serait absurde
de vouloir valider une invariance stricte de la mesure au fil du temps. De même ici, de
par les caractéristiques des trois sous-populations évoquées précédemment, il est
envisagé une différence de niveau d’implication dans le travail de chacune d’entre
elles. C’est pourquoi, le test de l’invariance à proprement parler de la mesure d’impli-
cation dans le travail se termine à cette étape. Désormais, les tests menés serviront à
valider cette hypothèse.
■ Nous avons choisi de tester ensuite l’invariance des moyennes des facteurs
(M4). Contrairement aux tests précédents, l’imposition de la contrainte d’éga-
lité des moyennes des facteurs dégrade sensiblement l’ajustement du modèle
par rapport à M3 (∆χ2 / ∆ddl = 12,618 / 4, significatif, p < 0,05), même si
l’ajustement du modèle reste acceptable. Ainsi, le niveau initial d’implication
varie d’un groupe à l’autre 19. Si l’étude portait sur la validation d’un outil psy-
L’étude du changement des attitudes 365

chotechnique auprès de plusieurs échantillons aléatoires ou de plusieurs


nationalités, ce résultat serait ennuyeux quant à la validité de la mesure. En
revanche, dans le cadre de l’étude sur les effets du passage au 35 heures, ce
résultats ne pose pas de problème, et confirme le bien fondé de la segmenta-
tion envisagée selon le lieu de travail.
■ Puisqu’il n’y a pas d’équivalence des moyennes des facteurs, nous reprenons M3
comme base de comparaison pour la suite des tests. Ces tests montrent qu’il y
a d’un groupe à l’autre équivalence des variances des facteurs (M5) et de la
variance unique (M7), mais pas des covariances entre facteurs (M6). Ces résul-
tats nous conduisent aux conclusions suivantes :
– la séquence M5-M6 indique qui si les individus de chaque groupe calibrent de
la même manière l’échelle de mesure (même structure factorielle, poids rela-
tif et absolu des indicateurs et variabilité des dimensions), il ne perçoivent
pas de le même manière la relation entre les deux dimensions de l’implica-
tion au travail (non-équivalence des covariances entre facteurs). Est-ce à
dire que ce n’est pas le même construit qui est mesuré d’un groupe à l’autre ?
En fait, compte tenu de l’ensemble des éléments invariants, on peut admet-
tre que c’est toujours le même construit. En effet, bien que la corrélation
entre les deux dimensions de l’implication au travail soit différente selon
que les individus appartiennent à un groupe ou à l’autre, la structure fonda-
mentale du construit n’est pas remise en cause. Cela pourrait même conduire
à des pistes de recherche : y a-t-il des situations de travail qui conduisent
les individus à distinguer plus ou moins fortement le travail proprement dit
et l’emploi (autrement dit l’implication au travail et l’implication sont plus
ou moins indépendantes) ? Le passage aux 35 heures a-t-il pour effet de
réduire, d’accroître ou de maintenir cette différence de perception ?
– la séquence M5 – M7 indique quant à elle non seulement qu’il y a homogé-
néité des erreurs (si seul M7 était validé), mais également qu’il y a invariance
de la fiabilité des indicateurs (M5 – M7 sont validés).

2. L’étude du changement des attitudes

L’analyse de la variance peut être une fin en soi lors d’une recherche ou simple-
ment une étape préliminaire mais essentielle à la mise en évidence du changement
possible d’une variable dans le temps et à l’étude de sa nature et de ses effets.

19 Ce résultat peut paraître surprenant compte tenu du fait que les contributions factorielles et les
moyennes des indicateurs sont invariantes d’un groupe à l’autre. Cela provient d’une erreur commu-
nément faite qui voudrait que le modèle soit formatif (les facteurs sont le produit des indicateurs),
alors que conceptuellement, les méthodes d’équations structurelles procèdent inversement sous la
forme d’un modèle réflexif. Par exemple, dans le cas d’une variable latente (F1) mesurée par trois
indicateurs (V1, V2 et V3) :
Pour un modèle formatif on a une équation : F1 = λ1.V1 + λ2.V2 + λ3.V3 + D1
Pour un modèle réflexif on a trois équations : V1 = λ1.F1 + E1
V2 = λ2.F1 + E2
V3 = λ3.F1 + E3
366 Études longitudinales et comparaisons entre groupes

2.1 LES FORMES DU CHANGEMENT


Lorsque l’on décèle un changement une des premières questions que l’on doit
se poser porte sur la source réelle de ce changement. S’agit-il réellement d’un chan-
gement de niveau d’une attitude (ou d’un comportement), invariante tant dans sa
conceptualisation que dans sa mesure ?
C’est pour répondre à cette question que Golembiewki et ses collègues (Golem-
biewki, 1986, 1989 ; Golembiewki, Billingsley et Yeager, 1976) ont proposé une
méthode originale de description et d’analyse du changement fondée sur trois types
de changement : les changements alpha, bêta, gamma.
Dans une étude sur l’impact de l’aménagement du travail mis en œuvre dans
une entreprise sur les attitudes au travail des salariés de cette entreprise (Golem-
biewki, Billingsley et Yeager, 1976), les résultats indiquent « qu’un changement
gamma est intervenu, c’est-à-dire que la mise en œuvre de l’aménagement du temps
de travail a profondément modifié les attitudes au travail, notamment les dimensions
psychologiques que l’employé utilise pour évaluer ses attitudes au travail [et non pas
seulement le niveau de ces attitudes au travail] ». Golembiewski (1986, 1989) a
ensuite développé et présenté cette typologie, intitulée changements alpha, bêta et
gamma. Elle permet de distinguer trois types différents de changements d’attitudes
de l’état A à un état B. Golembiewski et al. (1976) s’intéressant aux changements
d’attitudes des nouveaux engagés dans l’entreprise notent que la reconstitution des
perceptions de l’environnement de travail peut prendre deux formes :
■ Un changement bêta survient quand les répondants redéfinissent les interval-
les de mesure ; par exemple un quatre à la période deux peut être défini par le
répondant de la même manière qu’un trois à la période une. « Bien que une
différence statistiquement significative existe entre les deux valeurs, cette dif-
férence n’est pas significative parce que en réalité, les deux valeurs sont per-
ceptiblement identiques ». Si un changement bêta est présent mais que l’on
n’en tient pas compte dans les analyses, les différences obtenues dans les
valeurs moyennes sur les instruments peuvent ne pas être nécessairement dues
au type de changement recherché. L’existence d’un changement bêta peut
signifier que les différences observées dans les valeurs ne sont pas des diffé-
rences réellement perçues par les répondants ; inversement le manque de dif-
férence statistique peut en réalité masquer une différence véritablement
significative parce que la même valeur sur l’échelle de mesure peut signifier
maintenant des différences chez les répondants au cours des différentes pério-
des de mesure 20.
■ Plus compromettant pour interpréter le changement est la seconde forme de
reconstitution des perceptions du travail, le changement gamma. Avec les

20 L’interprétation d’un tel changement est délicate : son origine peut se trouver dans l’échelle de
réponse proposée qui est ambiguë et mérite d’être améliorée ; mais on peut également envisager que
l’échelle de valeur utilisée pour répondre a évolué au fil du temps ou n’est pas la même d’un groupe
à l’autre (par exemple quand on interroge des adhérents d’une association sur leur fréquentation du
local de l’association, la réponse « souvent » n’a pas la même signification selon qu’on est un mem-
bre très actif ou simple adhérent). Si l’on a réussi à interpréter ce changement et si sa nature est
acceptable, il est possible de le contrôler en grande partie en libérant une partie des contraintes.
L’étude du changement des attitudes 367

changements alpha et bêta, l’instrument est supposé mesurer le construit de


façon constante sur plusieurs périodes de mesure. En réalité, les expériences
dans le nouvel environnement organisationnel peuvent influer sur les répon-
dants à un tel degré qu’ils redéfinissent les instruments mesurant les cons-
truits entre les périodes. Les réponses aux items à l’ensemble des périodes sont
fonction de cadres de référence conceptuels différents 21. Aucune comparai-
son entre les périodes de temps n’est significative s’il se produit un chan-
gement gamma, parce que l’instrument opérationnalise maintenant
différents construits sur l’ensemble des périodes. Ainsi, la principale
menace pour interpréter avec précision les changements de scores est donc la
présence de changement gamma. Si un tel changement existe, aucune compa-
raison entre les périodes sur les valeurs de l’instrument n’est alors possible et
il est nécessaire de reconsidérer les objectifs de l’étude.

En l’absence de présence de changements gamma et bêta, il est alors possible


de considérer que tout changement d’une mesure a pour origine un changement
alpha. La différence des réponses des individus dans le temps est bien due à une
vraie évolution du niveau de l’attitude des individus, puisque cette attitude n’a varié
ni conceptuellement (pas de changement gamma), ni dans sa mesure (pas de change-
ment bêta).
Ainsi, on voit bien que l’on peut considérer les changements bêta et gamma
comme des mesures de non-invariance de la mesure telle qu’elle a été vue dans la sec-
tion précédente. Plus précisément le changement gamma correspond à la non-inva-
riance configurationnelle tandis que le changement bêta correspond à la non-
invariance métrique 22. En revanche, le changement alpha correspond à la mesure de
la non-invariance des moyennes latentes qui, dans la typologie de Vandenberg et
Lance, n’est pas à une condition sine qua non d’invariance de la mesure.
Lorsqu’un changement alpha existe, il est intéressant de déterminer sa forme.
Bien que la plupart du temps on considère ce changement comme étant linéaire, il ne
faut pas oublier que d’autres formes de changement peuvent être envisagées : quadra-
tique, en S, etc. Il faut bien reconnaître que la domination écrasante de la vision
linéaire n’est pas seulement due à une conceptualisation plus aisée, mais également à
des difficultés pratiques pour mettre en évidence des formes alternatives de change-
ment. Nous verrons plus loin, que l’utilisation des modèles d’équations structurelles
peut aider à conceptualiser des formes très diverses du changement.
La mise en évidence de l’existence d’un changement alpha peut bien entendu
être l’objectif final d’une recherche. Mais cela peut n’être qu’une étape avant de tester
les effets de ce changement sur d’autres variables qui connaissent également ou non

21 L’interprétation d’un tel changement est encore plus délicate : peut-être assiste-t-on à une
mutation du concept, peut-être est-on face à un artefact en T1 ou en T2, peut-être l’instrument est-
il de qualité médiocre, ou que le concept est mal défini ou encore peut-être n’est-il pas pertinent.
Seule la réflexion de la communauté scientifique et des études plus fines aideront à comprendre le
phénomène.
22 On pourrait considérer que le changement bêta correspond non seulement à la non-invariance
métrique, mais aussi à la non-invariance scalaire, mais cela est discutable compte tenu des remar-
ques faites précédemment à propos de l’invariance métrique.
368 Études longitudinales et comparaisons entre groupes

un changement alpha. Plus précisément, une fois un changement alpha repéré pour la
variable A et sa forme déterminée, il peut être souhaitable d’étudier séparément :
■ l’effet de la variable B mesurée en T1 sur la variable A mesurée entre T1 et Tn,
en dissociant :
– d’une part l’effet de B sur le niveau initial de A (i.e. : en T1) et,
– d’autre part, l’effet de B sur le changement de la variable A (i.e. :entre T1 et
Tn) ;
■ l’effet de la variable A mesurée entre T1 et Tn sur la variable C mesurée en Tn,
toujours en dissociant :
– d’une part l’effet du niveau initial de A sur le C et,
– d’autre part, l’effet du changement de la variable A sur C ;
Il est bien entendu possible de croiser ces deux démarches si l’on a affaire à
deux variables A et C connaissant chacune un changement alpha. On peut alors étu-
dier en outre l’effet du changement de A sur le changement de C (voir exemple déve-
loppé ci après).

2.2 APPLICATIONS
2.2.1 Mise en évidence de l’existence d’un changement alpha
et forme de ce changement : les modèles de croissance
Comme nous venons de le dire, il y a une correspondance entre type de chan-
gement et test de l’invariance : changement gamma et non-invariance configuration-
nelle, changement bêta et non-invariance métrique, changement alpha et non
invariance des moyennes latentes. Ainsi, si l’objectif de l’étude est la simple mise en
évidence d’un changement alpha, l’utilisation des modèles LMACS est suffisante. On
se reportera à l’exemple précédent (section 1.2.2.) pour un exemple de mise en
œuvre 23. Si en revanche, l’objectif est également de déterminer la forme de ce chan-
gement, il est nécessaire d’adjoindre aux modèles LMACS une autre stratégie issue
elle aussi des modèles d’équations structurelles : les modèles de croissance.
Une fois que l’on a pu établir l’invariance de la mesure par les modèles LMACS,
on peut tester en confiance la réalité du changement qu’a pu connaître la variable 24.
En effet, si l’on mesure maintenant un changement on peut en conclure qu’il s’agit
d’un changement quantitatif du même construit. Nous nous proposons de suivre la
méthode proposée par Chan (1998) appelée analyse de modèle de croissance latente
à indicateurs multiples (multiple indicator latent growth modeling analysis ou MLGM).
Comparée à l’analyse longitudinale des moyennes et des structures de cova-
riances utilisée dans la section précédente, cette méthode présente plusieurs particu-

23 Bien que l’exemple concerné porte sur une comparaison entre groupes et non sur une étude lon-
gitudinale, la procédure demeure la même.
24 En fait ici, on se limitera aux 4 premières étapes présentées dans la première section. Il suffit de
se prémunir contre l’existence d’un changement gamma et d’un changement bêta. L’existence d’un
changement alpha et sa forme vont alors être testés par les modèles de croissance.
L’étude du changement des attitudes 369

larités (figure 13.3) dont la principale est l’introduction de deux variables latentes de
second ordre :
■ Le « niveau initial » permet d’appréhender la moyenne et la variance de
l’ensemble des valeurs à l’origine de la courbe de croissance de chaque
individu ; la moyenne de ce niveau initial représente donc la valeur moyenne
de la variable latente de premier ordre en T1. Elle permet de contrôler ce
niveau initial à toutes les périodes de mesure.
■ Le « changement » permet d’appréhender la moyenne et la variance de
l’ensemble des coefficients directeurs de la courbe de croissance de chaque
individu ; la moyenne de ce changement représente donc la variation de la
variable latente de premier ordre entre Ti et Ti+1.
Dans la pratique, il faut fixer à 1 l’ensemble des coefficients de régression du
« niveau initial » vers la variable latente quelle que soit la période considérée (le
« niveau initial » demeure constant pour tous les individu au cours du temps), tandis
que pour modéliser le changement linéaire dans le temps de la variable latente, les
coefficients de régression de la « variation » vers la variable latente doivent être fixés
à 0 en T1, à 1 en T2, à 2 en T3, à 3 en T4, etc 25. Bien entendu, ces valeurs ne sont
valables que si l’intervalle entre chaque période est identique. Si ce n’est pas le cas, il
faut recalculer les coefficients afin qu’ils rendent compte du véritable écart de temps
entre chaque période 26.
Une autre différence avec l’analyse longitudinale des moyennes et des structu-
res de covariances réside dans le fait que ce qui nous intéresse ici ce sont les moyen-
nes de la « constante », de la « variation » et le cas échéant de la « variation
quadratique », mais en aucun cas ni la moyenne des variables latentes de premier
ordre, ni celle des indicateurs.

25 Ainsi, pour un changement de nature linéaire on a :


en T1 : F = 1 fois le niveau initial plus 0 fois le changement
en T2 : F = 1 fois le niveau initial plus 1 fois le changement
en T3 : F = 1 fois le niveau initial plus 2 fois le changement
en T4 : F = 1 fois le niveau initial plus 3 fois le changement
26 Les modèles de croissance et plus généralement les modèles d’équations structurelles sont très
flexibles. Par exemple, si c’est un changement de nature quadratique qui est envisagé pour la varia-
ble latente, on peut ajouter sur le même modèle une troisième variable latente de second ordre,
« changement quadratique », dont les coefficients de régressions vers la variable latente seront fixés
à 0 en T1, à 1 en T2, à 4 en T3, à 9 en T4, etc (autrement dit au carré de la valeur fixée des coeffi-
cients linéaires).
Ainsi, pour un changement de nature quadratique on a :
en T1 : F = 1 fois le niveau initial plus 0 (= 02) fois le changement
en T2 : F = 1 fois le niveau initial plus 1 (= 12) fois le changement
en T3 : F = 1 fois le niveau initial plus 4 (= 22) fois le changement
en T4 : F = 1 fois le niveau initial plus 9 (= 32) fois le changement
Plus généralement, pour toute forme alternative de changement envisagée, les coefficients devront
être déterminés de manière à correspondre à cette forme. Par la suite on pourra comparer les diffé-
rents modèles représentant des changements de forme différente. De même, il est également possi-
ble, après avoir fixé la valeur au moins 2 coefficients de la variable latente de second ordre
« changement », d’estimer librement les autres coefficients, afin de mieux déterminer la forme du
changement.
370 Études longitudinales et comparaisons entre groupes

Enfin, il faut noter que, pour une analyse d’un modèle de croissance latente à
indicateurs multiples, il est nécessaire de tenir compte de l’invariance de la mesure et
des contraintes qui y sont rattachées. D’où, sur la figure 13.3, l’imposition de l’égalité
au cours du temps des contributions factorielles des indicateurs ; la contrainte d’éga-
lité au fil du temps des moyennes des indicateurs n’est pas indiquée, mais elle est
présente. Par ailleurs, si d’autres formes plus strictes d’invariance ont été validées, il
faut conserver ici les contraintes correspondantes.
Dans notre exemple, nous allons étudier l’évolution sur 2 périodes de temps de
4 variables : soutien organisationnel perçu, satisfaction au travail, engagement dans
le travail et implication organisationnelle affective. Dans tous les cas, nous avons
vérifié l’invariance de chacune des mesures avant et après le passage aux 35 heures,
donc l’absence de changement gamma et de changement bêta. Nous nous intéressons
maintenant à l’existence d’un changement alpha et, si oui, à sa nature.
Pour vérifier si un modèle de croissance est plausible nous suivons la même
stratégie que celle qui est adoptée pour l’établissement d’invariance de mesure avec
les modèles LMACS en comparant les modèles nichés mais dans l’ordre inverse.
Le premier modèle, utilisé comme modèle de référence, assure qu’il n’y a pas
de croissance dans le temps (stricte stabilité). Cela signifie qu’il n’y aurait qu’un seul
facteur latent de second ordre, le niveau initial (Stoolmiller et al., 1995), puisque
pour spécifier l’absence de changement on fixe tous les coefficients de régression du
facteur de second ordre (i.e : le changement) à 0 (on fait donc comme si ce facteur
de second ordre n’existait pas).
Le second modèle présume un modèle de croissance linéaire, avec des coeffi-
cients de régression du facteur de second ordre « changement » fixés linéairement
(voir note 22).
Contrairement au test d’invariance de la mesure, le premier modèle est ici testé
en second, puisque c’est un modèle plus contraint. On peut imaginer un troisième
modèle avec une forme quadratique, ou toute autre forme de changement, qui intè-
grerait les modèles 1 et 2.
Puisque que nous avons seulement 2 variables mesurées à deux périodes, les
modèles 2 et 3 seront exactement les mêmes (12 = 1). Ainsi une différence du chi-
deux significative (au regard de la différence des degrés de liberté) indiquera l’exis-
tence d’un effet de croissance (tableau 13.4).
Pour trois des échelles (SOP, ST et IO), le modèle 2 non seulement ajuste les
données correctement mais aussi représente une amélioration significative de l’ajus-
tement (i.e. : réduction du chi-deux). La moyenne de la valeur initiale indique que en
moyenne un individu commence à la période 1 avec un score de 2,853 (soutien),
3,745 (satisfaction) et 3,610 (implication), tandis que la moyenne significativement
positive du changement indique qu’en moyenne les individus ont leur niveau d’atti-
tude qui a augmenté respectivement de 1,861 (soutien), 0,076 (satisfaction) et 0,050
(implication) entre chaque période, ici au nombre de deux (ce sont respectivement
les moyennes des facteurs latents de second ordre niveau initial, puis changement,
i.e. : µ4 et µ5 de la figure 13.3). De plus la variance de chaque niveau initial est tou-
jours significative (0,497 pour le soutien, 0,502 pour la satisfaction et 0,605 pour
l’implication affective), comme la variance de chaque changement (0,322 pour le sou-
L’étude du changement des attitudes 371

σ54
µ4 µ5
σ42 σ52
F4 F5
Niv. initial Changement
1 0
1 1 1 2

D1 D2 D3
F11 – T F22 – T F33 – T

λ41 = c λ42 = c λ43 = c


λ11 = 1 λ21 = a λ12 = 1 λ22 = a λ13 = 1 λ23 = a
λ31 = b λ32 = b λ33 = b
V11 V21 V31 V41 V12 V22 V32 V42 V13 V23 V33 V43

1 1 1 1 1 1 1 1 1 1 1 1
E11 E21 E31 E41 E12 E22 E32 E42 E13 E23 E33 E43

FIGURE 13.3 – Représentation d’un modèle MLGM sous EQS


(1 facteur latent avec 4 indicateurs mesuré sur 3 périodes) 25

tien, 0,361 pour la satisfaction et 0,266 pour l’implication affective) (ce sont respec-
tivement les variances des facteurs latents de second ordre « niveau initial », puis
« changement », i.e. : σ42 et σ52 de la figure 13.3). Cela signifie que tous les indivi-
dus n’ont pas le même niveau initial et ne connaissent pas le même niveau de pro-
gression du soutien, de la satisfaction et de l’implication affective (tableau 13.5),
sinon les variances seraient nulles ou proches de 0.
27

Concernant le modèle 2 de l’échelle de l’engagement dans le travail, il ne pré-


sente pas une augmentation significative de l’ajustement. De plus, tandis que la
moyenne du niveau initial montre que les individus avec une valeur initiale de 0,803,
la moyenne négative mais non significative du changement (–0,034) confirme que le
changement négatif de l’engagement dans le travail entre les périodes 1 et 2 n’est pas
significatif et ne peut être interprété.

Nous pouvons dès lors conclure qu’entre les deux périodes il y a eu un change-
ment positif significatif du soutien, de la satisfaction et de l’implication affective
pour les individus, alors qu’il n’y a eu aucun changement significatif de l’engagement
dans le travail.

27 Les 2 facteurs latents de second ordre servent à estimer la moyenne et la variance du niveau ini-
tial et du changement du facteur latent de premier ordre au cours des trois périodes. C’est pour cela
que tous leurs coefficients de régression sont fixés et non estimés librement.
372 Études longitudinales et comparaisons entre groupes

Base de
Modèle χ2 ddl ∆χ2 ∆ddl NNFI 2 CFI RMSEA
comparaison 1

Soutien organisationnel perçu (SOP)


Aucune croissance M1 504,2277 270 0,921 0,929 0,055
Croissance positive M2 M1-M2 391,2280 235 112,9997 35 0,949 0,957 0,048
linéaire
Satisfaction au travail (ST)

Aucune croissance M1 193,326 115 0,912 0,917 0,072


Croissance positive M2 M1-M2 147,459 102 45,8670 13 0,924 0,936 0,052
linéaire

Engagement dans le travail (ET)


Aucune croissance M1 11,3240 9 1,000 0,999 0,000
Croissance positive M2 M1-M2 5,7073 7 5,6167 2 1,005 1,000 0,000
linéaire
Implication organisationnelle affective (IO)

Aucune croissance M1 194,7191 66 0,840 0,864 0,082


Croissance positive M2 M1-M2 129,8614 56 64,8577 10 0,922 0,933 0,068
linéaire
1. Différence de chi-deux avec p < 0,05.
2. Le NNFI est un indice non normé, d’où des valeurs parfois légèrement supérieures à 1. Néanmoins, il apparaît préférable d’utiliser cet indice par rap-
port au NFI qui lui est normé, mais présentant des limites plus importantes (Roussel et al., 2002).
Notes : MLGM = multiple indicator latent growth modeling ; NNFI = nonnormed fit index (Bentler and Bonnett, 1980) ; CFI = compa-
rative fit index (Bentler, 1990) ; RMSEA = root mean square error of approximation (Steiger, 1990).

TABLEAU 13.4 – Indices d’ajustement et comparaisons des modèles MLGM


pour les échelles du soutien organisationnel perçu, de la satisfaction au travail, de
l’engagement dans le travail et de l’implication organisationnelle affective 26 (N = 289)

2.2.2 Étude de l’impact du changement


28

Le soutien organisationnel est considéré comme un bon prédicteur de l’impli-


cation organisationnelle affective. Ce lien a été testé à travers un modèle classique
d’équations structurelles testé en T1 puis en T2 (les résultats, excellents pour chacune
des 2 périodes, ne sont pas retranscrit ici, car cela s’éloigne du propos de ce chapi-
tre). Comme chaque variable a en moyenne changé entre les périodes 1 et 2, nous
allons tester maintenant les relations entre leur niveau initial respectif et leur chan-
gement.

28 Soutien organisationnel perçu : perception qu’a le salarié de l’implication de l’entreprise à son


égard (échelle abrégée d’Eisenberger et al., 1986). Satisfaction au travail : degré de satisfaction res-
sentie par le salarié sur divers éléments liés à son travail (échelle MSQ traduite par Roussel, 1996).
Engagement dans le travail : relation qu’entretient l’individu avec le travail en général (échelle adap-
tée de Kanungo (1982). Implication affective : dimension affective du lien psychologique qui unit le
salarié à son entreprise (échelle de Allen et Meyer, 1990).
L’étude du changement des attitudes 373

Moyenne Moyenne Variance Variance


Variable Significativité
valeur initiale changement valeur initiale Changement

Soutien organisationnel (SOP) 2,853 1,861 S 0,497 0,322


Satisfaction au travail (ST) 3,745 0,076 S 0,502 0,361
Engagement dans le travail (ET) 0,803 –0,034 NS – –
Implication organisationnelle (IO) 3,610 0,050 S 0,605 0,266

S / NS : p < 0,1.

TABLEAU 13.5 – Moyenne de la valeur initiale et du changement pour les échelles


du soutien organisationnel perçu, de la satisfaction au travail, de l’engagement
dans le travail et de l’implication organisationnelle affective (N = 289)

Nous avons testé deux modèles (figures 13.4 et 13.5) chacun spécifiant une
relation entre le niveau initial du soutien organisationnel et (1a) le niveau initial et
(1b) le changement de la satisfaction au travail (premier modèle) ou de l’implication
organisationnelle affective (second modèle), et une relation entre (2) le changement
du soutien organisationnel et le changement de la satisfaction au travail (premier
modèle) ou de l’implication organisationnelle affective (second modèle).

Les deux modèles ont un ajustement acceptable aux données, compte tenu du
nombre très élevé de degré de liberté (tableau 13.6) et toutes les variables dépen-
dantes sont assez bien expliquées puisque leur r2 est élevé pour la satisfaction au tra-
vail (0,622 pour le niveau initial et 0,518 pour le changement) et modérément élevé
pour l’implication organisationnelle affective (0,333 pour le niveau initial et 0,224
pour le changement).

Base de
Modèle χ2 ddl ∆χ2 ∆ddl NNFI CFI RMSEA
comparaison 1

Soutien organisationnel perçu (SOP) -> Satisfaction au travail (ST)

Modèle indépendant M1 7741,615 703

Modèle testé M2 M1-M2 1875,973 705 5865,642 2 0,890 0,895 0,076

Soutien organisationnel perçu (SOP) -> Implication organisationnelle affective (IO)

Modèle indépendant M1 6534,170 561

Modèle testé M2 M1-M2 1573,750 563 4960,420 2 0,891 0,897 0,079

1. Différence de chi-deux avec p < 0,05


Notes : MLGM = multiple indicator latent growth modeling ; NNFI = nonnormed fit index (Bentler and Bonnett, 1980) ; CFI = compa-
rative fit index (Bentler, 1990) ; RMSEA = root mean square error of approximation (Steiger, 1990).

TABLEAU 13.6 – Indices d’ajustement des modèles mesurant l’effet du changement


du soutien organisationnel perçu sur la satisfaction au travail et sur l’implication
organisationnelle affective (N = 289)
374 Études longitudinales et comparaisons entre groupes

Soutien Satisfaction
.524
organisationnel au travail r2 = .622
initial initiale
–.133
.387 .353

Soutien .276 Satisfaction


organisationnel au travail r2 = .518
changement changement

FIGURE 13.4 – Les effets du changement du soutien organisationnel perçu


sur la satisfaction au travail

Les résultats reportés sur la figure 13.4 montrent que le niveau initial du sou-
tien organisationnel a une relation positive avec le niveau initial de la satisfaction
dans l’emploi mais une relation négative avec le changement de la satisfaction dans
le travail. Ceci signifie que les individus ayant les plus hauts niveaux initiaux de sou-
tien organisationnel, ont également les plus hauts niveaux initiaux de satisfaction au
travail, mais les personnes ayant un haut niveau initial de soutien organisationnel
auront une moindre augmentation de leur satisfaction que ceux ayant un plus faible
niveau initial de soutien 29. Par ailleurs, la relation positive entre le changement de
soutien et le changement de la satisfaction au travail montre que plus le soutien
perçu par les individus augmente, plus leur satisfaction augmente.
La même conclusion peut être tirée pour le lien entre le soutien et l’implica-
tion organisationnelle, excepté que la relation entre le niveau initial du soutien et le
changement de l’implication affective, bien qu’étant négative, n’est pas significative.
Ceci signifierait, si la relation était statistiquement significative, que plus le soutien
est élevé et moins l’augmentation de l’implication affective est importante
(figure 13.5).

29 Le coefficient négatif peut s’interpréter comme nous venons de la faire (i.e. : moindre augmenta-
tion) ou plus radicalement comme une diminution pour ceux qui ont un niveau initial de soutien
fort. Pour trancher, il suffit de vérifier spécifiquement sur les individus qui ont un niveau initial de
soutien fort s’il y a eu une augmentation ou une diminution de leur satisfaction (calcul d’une
moyenne simple pour chacune des périodes à l’aide n’importe quel logiciel d’analyse de données).
Néanmoins, le test du changement effectué dans la section précédente nous indique qu’une moindre
augmentation est plus probable qu’une diminution (ce qui est confirmé par le calcul des moyennes
sous SPSS).
Conclusion 375

Soutien Implication
.387
organisationnel organisationnelle r2 = .333
initial initiale
–.057 (ns)
.416 .269

Soutien .156 Implication


2
organisationnel organisationnelle r = .224
changement changement

FIGURE 13.5 – Effets du changement du soutien organisationnel perçu sur l’implication


organisationnelle affective

3. Conclusion

Le faible recours aux études longitudinales a pour cause principale la difficulté


et la complexité des analyses auxquelles le chercheur doit faire face (comment déter-
miner l’existence d’un changement réel ? Comment mesurer s’il y a lieu l’impact de ce
changement ? etc.). Pourtant malgré ces difficultés, les études longitudinales présen-
tent de nombreux avantages par rapport aux analyses transversales classiques,
notamment la possibilité de mettre en évidence des liens de causalité 30. L’on ne peut
donc qu’encourager le développement du recours à une démarche longitudinale pour
étudier un phénomène social.

C’est pourquoi, nous avons souhaité dans ce chapitre proposer une réponse au
problème de l’analyse des données longitudinales, en proposant non seulement une
démarche méthodologique rigoureuse en trois temps, mais également en présentant
une méthode d’analyse intégrée à partir des modèles d’équations structurelles parti-
culiers et adaptés à chacune des séquences 31 :

■ valider un certain niveau d’invariance de la mesure (modèle des moyennes


latentes) ;

30 Nous rappelons que le recours aux modèles d’équations structurelles dans une étude transversale
ne permet en aucune manière d’établir des relations causales, seulement des relations de dépendance
linéaire. Pour qu’un lien de causalité entre deux variables soit établi, il faut que trois critères soient
remplis : (a) les deux variables doivent covarier, (b) la relation ne doit pas être attribuable à une ou
plusieurs autres variables et doit persister même lorsque cette ou ces variables sont contrôlées et,
enfin, (c) la « variable cause » supposée doit être antérieure (ou au moins simultanée) à la
« variable conséquence ». Une étude transversale permet de vérifier facilement les deux premiers cri-
tères, mais pas le troisième. Au mieux, le chercheur peut tenter de justifier l’enchaînement causal.
Néanmoins, seule une étude longitudinale permettra de valider réellement ce critère.
376 Études longitudinales et comparaisons entre groupes

■ identifier la nature et la forme du changement (modèle de croissance + modèle


des moyennes latentes) ;
■ tester l’impact du changement (modèle de causalité classique + modèle de
croissance + modèle des moyennes latentes).

La principale limite rencontrée pour mener une étude longitudinale réside dans
l’extrême lourdeur de mise en œuvre (mesurer au moins deux fois, et de préférence
plus de deux fois, un phénomène auprès des mêmes individus). À cette contrainte
s’ajoute le risque de faire face à un changement gamma qui rendraient les données
inexploitables.
Par ailleurs, nous avons tenté de faire apparaître la tension qui existe en per-
manence entre désir d’invariance de la mesure et besoin de mettre en évidence un
changement ou des différences. Il nous semble qu’une voie de recherche fructueuse
réside dans l’affinement de la compréhension des sources de non-variance (mise en
évidence, distinction entre changement inter-individuel et intra-individuel, et inter-
prétation). Cela représenterait une aide pour le chercheur d’autant plus précieuse que
c’est à lui de déterminer, en connaissance de cause, le degré de non-invariance qu’il
est prêt à accepter. Ici encore le recours aux modèles d’équations structurelles pour-
rait, sans exclure d’autres méthodes, s’avérer très utile.

Bibliographie
Alis D., Dumas M. et Campoy E. (2004), « Analyse des impacts d’un accord d’aménage-
ment — réduction du temps de travail (ARTT) à 35 heures sur l’implication et la
satisfaction des salariés — le cas de la “Mutuelle de l’Ouest” ». Rapport d’étude
DARES.
Allen N.J. et Meyer J.P. (1990), « The measurement and antecedents of affective, conti-
nuance and normative commitment to the organization », Journal of Occupational
Psychology, 63, 1-18.
Alwin D.F. et Jackson D.J. (1981), « Applications of simultaneous factor analysis to
issues of factor invariance ». In Jackson D.J. et Borgatta E.F. (dir), Factor analysis
and measurement in sociological research. Beverly Hills, CA, Sage, 249-279.
Anderson J.C. et Gerbing D.W. (1988), « Structural equation modeling in practice : a
review and recommended two-step approach ». Psychological Bulletin, 103, 411-423.
Bagozzi R.P. et Edwards J.R. (1998), « A general approach for representing constructs
in organizational research ». Organizational Research Methods, 1, 45-87.

31 Le principe présenté dans chacune de ces séquences peut trouver de multiples autres applica-
tions, en particulier grâce à la souplesse des méthodes d’équations structurelles. Nous avons par
exemple commencé à montrer en quoi le test de l’invariance de la mesure permet d’effectuer une
analyse multi-groupes. On pourrait bien entendu prolonger cette analyse multi-goupes afin de déter-
miner de façon plus fine l’origine des différences entre les groupes. On peut par ailleurs croiser les
applications, par exemple mener une analyse multi-groupes longitudinale (Alis, Dumas, Campoy,
2004).
Bibliographie 377

Bentler P.M. (1990), « Comparative fit indexes in structural models ». Psychological Bul-
letin, 107, 238-246.
Bentler P.M. et Bonnett D.G. (1980), « Significance tests and goodness of fit in the
analysis of covariance structures ». Psychological Bulletin, 88, 588-606.
Bollen K.A. (1989), Structural equations with latent variables. New York, Wiley and Sons.
Cole D.A. et Maxwell S.E. (1985), « Multitrait-multimethod comparisons across
populations : a confirmatory factor analytic approach ». Multivariate Behavioral
Research, 20, 389-417.
Drasgow F. et Kanfer R. (1985), « Equivalence of psychological measurement in hetero-
geneous populations ». Journal of Applied Psychology, 70, 662-680.
Dumas M., Alis D., Joyeau A. et Campoy E. (2002), « Analyse des impacts d’un accord
d’aménagement — réduction du temps de travail (ARTT) à 35 heures sur l’implication
et la satisfaction des salariés — le cas de la “Mutuelle de l’Ouest” ». Rapport d’étude
DARES.
Eisenberger R., Huntington R., Hutchinson S. et Sowa D. (1986), « Perceived organiza-
tional support », Journal of Applied Psychology, 71, 500-507.
Golembiewski R.T. (1986), « Contours in social change : Elemental graphics and a surro-
gate variable for gamma change ». Academy of Management Review,. 3, 550-566.
Golembiewski R.T. (1989), « The alpha, beta, gamma change typology. Perspectives on
acceptance as well as resistance ». Group et Organization Studies, 14, 150-154.
Golembiewski R.T., Billingsley K. et Yeager S. (1976), « Measuring change and persis-
tence in human affairs : Types of change generated by OD designs ». The Journal of
Applied Behavioral Science, 12, 133-157.
Horn J.L. et McArdle J.J. (1992), « A practical and theoretical guide to measurement
invariance in aging research ». Experimental Aging Research, 18, 117-144.
Jöreskog K.G. (1971), « Simultaneous factor analysis in several populations ». Psycho-
metrika, 36, 409-426.
Kanungo R.N. (1982), « Measurement of job and work involvement », Journal of Applied
Psychology, 67, 341-349.
MacCallum R.C. et Tucker L.R. (1991), « Representing sources of error in the common-
factor model : implications for theory and practice ». Psychological Bulletin, 109,
501-511.
Marsh H.W. (1994), « Confirmatory factor analysis models of factorial invariance : a
multifaceted approach ». Structural Equation Modeling, 1, 5-34.
Reise S.P., Widaman K.F. et Pugh R.H. (1993), « Confirmatory factor analysis and item
response theory : two approaches for exploring measurement invariance ». Psycholo-
gical Bulletin, 114, 552-566.
Roussel P. (1996), Rémunération, motivation et satisfaction au travail, Paris : Econo-
mica.
Roussel P., Durrieu F., Campoy E. and El Akremi A. (2002), Méthodes d’équations
structurelles : recherché et applications en gestion. Paris, Economica.
Steiger J.H. (1990), « Some additional thoughts on components, factors, and factor
indeterminacy ». Multivariate Behavioral Research, 25, pp. 41-45.
Stoolmiller M., Duncan T.E. and Patterson G.E. (1995), « Predictors of change in antiso-
cial behavior during elementary school for boys ». In Hoyle R.H. (ed), Structural
equation modeling : concepts, issues, and applications. Thousand Oaks, CA, Sage, 236-
253.
378 Études longitudinales et comparaisons entre groupes

Vandenberg R.J. (2002), « Toward a further understanding of and improvement in


measurement invariance methods and procedures ». Organizational Research Methods,
5, 139-158.
Vandenberg R.J. et Lance C.E. (2000), « A review and synthesis of the measurement
invariance literature : suggestions, practices, and recommendations for organizatio-
nal research ». Organizational Research Methods, 3, 4-69.
Vandenberg R.J. et Self R.M. (1993), « Assessing newcomers’ changing commitment to
the organization during the first 6 months of work ». Journal of Applied Psychology,
78, 557-568.
Willett J.B. et Sayer A.G. (1994), « Using covariance structure analysis to detect corre-
lates and predictors of individual change over time ». Psychological Bulletin, 116,
363-381.
Chapitre 14

L’analyse typologique :
de l’exploratoire au confirmatoire
François DURRIEU 1, Pierre VALETTE-FLORENCE 2

Sommaire

1 Essai de typologie exploratoire :


le cas de la personnalité de marque 381

2 L’implication organisationnelle :
essai de typologies exploratoire et confirmatoire 388

3 Que retire le franchisé de son appartenance


au réseau ? : l’analyse de régression
avec classes latentes 399

4 Conclusion 401

1 Professeur Bordeaux École de Management.


2 Professeur des Universités, CERAG (UMR CNRS) — ESA Université Pierre Mendès-France de
Grenoble.
380 L’analyse typologique : de l’exploratoire au confirmatoire

L’analyse typologique vise à classer et à constituer des groupes d’individus ou


d’objets, ces individus étant décrits par un ensemble de caractéristiques. Pour parve-
nir à constituer ces groupes (ou classes, catégories, types), les individus ou objets
appartenant à l’un d’entre eux sont identifiés statistiquement comme étant proches
par rapport à un ensemble d’éléments caractéristiques. Les traitements statistiques
par analyse typologique doivent en outre parvenir à rendre les groupes d’individus ou
d’objets identifiés les plus éloignés possibles les uns des autres (Evrard et al., 2000).
Quatre questions doivent être posées pour résoudre une analyse typologique :
– le choix de l’indice de proximité des individus ou objets constituant un
groupe ;
– le processus de constitution des groupes ;
– la description des groupes ;
– la fiabilité statistique des résultats obtenus.
Si le but recherché est facile à comprendre, l’analyse typologique représente
pour le chercheur ou l’analyste un exercice périlleux, car les résultats obtenus décou-
lent à la fois de l’optique d’analyse retenue, mais aussi des choix méthodologiques
effectués (algorithmes retenus et critères de regroupements utilisés). Il existe quatre
voies principales d’investigation en analyse typologique.
■ La première consiste à regrouper les objets ou individus compte tenu de leur
proximité mesurée par une distance (le carré de la distance euclidienne en
général). Les processus de constitution des groupes sont apparentés à deux
familles principalement : les méthodes hiérarchiques et les méthodes nodales
(non hiérarchiques). La première famille recourt à l’arbre hiérarchique qui per-
met de voir comment les individus ou objets se regroupent. Le regroupement
est dit ascendant lorsque n individus s’emboîtent vers le groupe total, ou des-
cendant lorsqu’ils se divisent du groupe total vers n individus. Dans la seconde
famille (méthodes non hiérarchiques), l’analyste définit K groupes a priori.
Puis, la méthode détermine les centres de classe et alloue les individus à la
classe la plus proche. Cette famille de méthodes est utilisée quand la taille de
l’échantillon est importante (au delà de 150). Cependant, la présence d’un trop
grand nombre de variables peut masquer l’existence d’autres groupes.
■ La deuxième consiste à réaliser une analyse factorielle exploratoire puis à uti-
liser les scores factoriels qui en résultent afin de déterminer les groupes d’indi-
vidus. Cette procédure présente des avantages :
– de mettre en évidence une structure factorielle permettant de mieux appré-
hender le phénomène étudié ;
– de pondérer implicitement les variables initiales ;
– de garder les variables qui permettent de bien représenter le phénomène (la
communalité) ;
Cette démarche reste purement exploratoire et descriptive. En effet, la struc-
ture des échelles de mesure des phénomènes étudiés ainsi que le nombre de
groupes, sont définis a posteriori au moyen d’une démarche heuristique. Elle
est descriptive car on lui demande de remplacer des individus ou des objets
par des groupes moins nombreux, homogènes et bien séparés les uns des
Essai de typologie exploratoire : le cas de la personnalité de marque 381

autres (Chandon et Dano, 1997). Un premier exemple, basé sur la personnalité


de la marque illustrera cette optique.
■ Une troisième voie consiste d’une part, à rechercher une pondération optimale
des variables initiales en confirmant la structurelle factorielle, d’autre part, à
utiliser les scores factoriels latents pour classer les individus par des méthodes
classiques (hiérarchiques ou nodales). Nous passons dans ce cas à une démar-
che confirmatoire. Aussi, devons-nous disposer d’une théorie ou d’hypothèses
concernant la représentation et la mesure du phénomène étudié. Cependant, le
nombre de groupes est déterminé a posteriori. Une validation par analyse fac-
torielle confirmatoire de second ordre de l’implication organisationnelle illus-
trera cette démarche.
■ Enfin, une quatrième voie consiste à choisir directement des analyses confir-
matoires, permettant à la fois de valider la structure d’une échelle, mais aussi
de trouver le nombre de groupes sous-jacents (segments) qui sont supposés
exister selon des hypothèses théoriques, et ce, parmi un échantillon d’obser-
vations (salariés, entreprises, consommateurs, secteurs économiques, etc.).
L’implication organisationnelle servira d’exemple pour illustrer la méthode des
modèles de mélange. Enfin, une analyse de régression par classes latentes
montrera l’intérêt d’une analyse typologique prédictive toujours dans le cadre
de l’implication organisationnelle. Dans ce cas, il s’agira de déterminer un
nombre de groupes et de les décrire par le poids des variables explicatives (en
l’occurrence les dimensions de l’implication organisationnelle).

1. Essai de typologie exploratoire :


le cas de la personnalité de marque

À travers un exemple en marketing sur la personnalité d’une marque (Aacker,


1997), il s’agit de définir le positionnement perceptuel de différentes marques de
vêtements au sein d’un échantillon de consommateurs (N=954). Cet exemple permet
de présenter l’approche monadique de l’analyse typologique. Un questionnaire identi-
que a été administré à des sous-échantillons de consommateurs pour chaque marque
de vêtement. Par exemple, 60 personnes ont été interrogées à propos de la marque
Addidas. Les marques étudiées et les échantillons de personnes interrogées sont indi-
qués dans le tableau 14.1.
Tout d’abord, considérons la définition d’une marque. La personnalité d’une
marque regroupe l’ensemble des caractéristiques humaines associées à une marque. La
perception de ces caractéristiques découle d’un contact direct ou indirect que le con-
sommateur a avec la marque. En outre, le consommateur peut associer directement
des traits de personnalité à une marque à partir de l’ensemble des caractéristiques
humaines qu’ils attribuent à l’utilisateur type de cette marque (le consommateur per-
çoit un individu référent comme étant un consommateur type de la marque et s’iden-
tifie ou non à lui). De plus, les traits de personnalité peuvent être attribués
indirectement à la marque par les caractéristiques attachées au produit, par les asso-
ciations à la catégorie de produit, par le nom de marque, le logo, le style publicitaire,
382 L’analyse typologique : de l’exploratoire au confirmatoire

Effectifs Effectifs
Addidas 60 Kenzo 65
Benetton 60 Levis 124
Boss 40 Newman 60
Celio 65 Oxbow 70
Chevignon 50 Petit Bateau 61
Dior 59 Quick Silver 60
Edenpark 60 Zara 60
Etam 60
TABLEAU 14.1 – Les marques de l’échantillon

le prix et le canal de distribution. Ainsi, la personnalité d’une marque peut-elle être


définie en cinq traits (Figure 14.1).
La personnalité d’une marque a été étudiée dans un contexte français par
Ferrandi et al. (1999). Ils ont cherché à tester le modèle théorique de Aacker
(Figure 14.1) sur des consommateurs français afin de voir si l’on obtenait les mêmes
dimensions conceptuelles (sincérité, dynamisme, compétence, féminité et robus-
tesse). La structure de la personnalité appliquée à un contexte français a été adaptée
et comprend les dimensions suivantes : sincérité, dynamisme, convivialité, féminité
et robustesse. La figure 14.2 présente les différences et les correspondances entre les
échelles anglo-saxonne et francophone et les construits qu’elles mesurent.
Dans un premier temps de la démarche typologique, il faut identifier, à l’aide
d’une Analyse en Composantes Principales (ACP), la structure de l’échelle de la per-
sonnalité de la marque. Des rotations Varimax et Promax 3 sont mises en œuvre au
cours l’ACP. Nous retrouvons les dimensions de sincérité, de féminité, de dynamisme,
de compétence et de robustesse. Seuls les résultats de l’ACP avec rotation Varimax
sont présentés (tableau 14.2). Une structure à cinq facteurs représentant 64 % de la
variance expliquée totale est identifiée.
Le premier facteur concerne les aspects de sincérité, le second ceux de la
féminité, le troisième ceux du dynamisme, le quatrième ceux de la compétence et
enfin le cinquième ceux de la robustesse. Si on retrouve les facteurs de l’échelle
d’Aacker, les items définissant les axes principaux sont différents. À partir de cette
structure factorielle du concept de personnalité de la marque, nous allons utiliser les
scores factoriels pour élaborer les typologies des individus. Nous allons définir com-
ment les individus — consommateurs se regroupent par rapport à leurs perceptions
de la personnalité des marques de vêtements.
Nous disposons de deux familles de classification : les méthodes hiérarchique
et non hiérarchique. La taille élevée de l’échantillon (N=954) conduit à préférer la
classification non hiérarchique. Cette démarche de classification non hiérarchique des

3 Promax est une méthode de rotation oblique. Nous utilisons deux méthodes de rotation pour voir
si notre structure factorielle ne dépend pas de la méthode.
Essai de typologie exploratoire : le cas de la personnalité de marque 383

Sincérité Dynamisme Compétence Féminité Robustesse

Réaliste Audacieuse Digne de Aristocratique D’extérieur


Honnête Pleine confiance Charmante Solide
Saine d’entrain Intelligente
Gaie Pleine Qui a du
d’imagination succès
Moderne

FIGURE 14.1 – La structure factorielle de la personnalité de la marque selon Aacker.

Échelle Échelle
anglo-saxonne allégée française

Sincérité Sincérité

Sincérité stricto

Convivialité

Compétence Convivialité

Qualités réelles

Reconnaissance

Dynamisme Dynamisme

Féminité Féminité

Robustesse Robustesse

FIGURE 14.2 – Comparaison des échelles de Aacker et de Ferrandi et al.

individus est fondée sur la méthode des nuées dynamiques (K-means). Celle-ci pose le
problème du choix du nombre de groupes car elle nécessite de fixer le nombre de
catégories permettant de départager la population étudiée. Techniquement, cette
méthode consiste à calculer N centres de gravités (moyennes des valeurs des variables
pour tout individu composant la classe) et à classer ces individus par rapport à leur
proximité de ces centres.

La validité de la classification des répondants sera appréciée par le critère de


« convergence vraie » (Caumont et Chandon, 1989). Il est fondé sur l’utilisation de
384 L’analyse typologique : de l’exploratoire au confirmatoire

Composante
1 2 3 4 5
Sincère 0,873
Honnête 0,853
Vrai 0,830
Saine 0,717
Charmante 0,768
Féminine 0,745
Douce 0,691
Séduisante 0,689
Élégante 0,641
Branchée 0,763
Audacieuse 0,762
Imagination 0,733
Moderne 0,704
Intelligente 0,694
Technique 0,691
Consciencieuse 0,620
Solide 0,926
Robuste 0,915
TABLEAU 14.2 – Dimensions de la personnalité de la marque.

deux approches et sur l’appréciation de leur degré de convergence. La convergence


permet de déterminer la stabilité de la classification et par conséquent sa validité. La
première méthode à comparer, est celle de la classification non hiérarchique. Elle cor-
respond à la classification obtenue à partir de la méthode des nuées dynamiques. La
seconde est une classification établie a posteriori à partir de l’Analyse Factorielle Dis-
criminante (AFD) sur les données initiales. L’AFD permet d’étudier l’influence de varia-
bles qualifiées d’explicatives (les items du questionnaire), en termes de validité
prédictive, sur une variable à expliquer (ici, l’appartenance à un groupe de la classifi-
cation). L’AFD définit une classification des répondants à partir des fonctions discrimi-
nantes 4.
La comparaison des résultats de ces deux méthodes est réalisée au moyen de
la matrice de confusion. La matrice de confusion est un tableau croisé où apparais-
sent en ligne les résultats de la classification hiérarchique et en colonne ceux de la
classification issue de l’AFD. La diagonale de cette matrice représente les observations
bien classées, c’est-à-dire celles pour lesquelles la classe d’appartenance est la même
quelle que soit la méthode de classification envisagée. Pour résoudre la comparaison,
il est souhaitable d’utiliser un échantillon-test et un échantillon de contrôle qui rend
la méthode de la matrice de confusion plus fiable. Selon cette procédure, les fonctions

4 La fonction discriminante est une combinaison linaire de variables qui permettent de discriminer
les groupes de la classification.
Essai de typologie exploratoire : le cas de la personnalité de marque 385

discriminantes seront définies sur l’échantillon-test et permettront le classement de


l’échantillon de contrôle. Cette méthode est celle des deux moitiés ou du « Split
Half ». Puis, il est nécessaire de calculer la somme des observations bien reclassées
dont les données se trouvent sur la diagonale de la matrice de confusion. Cette
somme est ramenée à l’effectif total afin de calculer un indice de qualité de la typolo-
gie. Plus cet indice est proche de 1, meilleure sera la typologie.
L’appréciation de la validité de la typologie repose également sur le critère de
mise en œuvre (Caumont et Chandon, 1989). Son but vise à obtenir des groupes de
tailles opératoires ne se résumant pas à quelques individus classés. Pour simplifier,
cela signifie que les catégories identifiées, selon la procédure d’analyse typologique
choisie, doivent regrouper un nombre suffisant d’observations (individus, entreprises,
consommateurs, etc.). Si nous disposons d’une typologie à 4 groupes, il est ensuite
nécessaire de calculer l’effectif moyen d’individus ou d’objets constituant un groupe.
Le nombre d’observations pour un groupe sera jugé suffisant s’il se situe autour de cet
effectif moyen. Le critère d’explication optimale (Caumont et Chandon, 1989)
apporte aussi un élément de jugement sur la validité de la classification. Selon ce cri-
tère, il faudrait parvenir clairement à décrire et à dénommer les classes à partir des
variables utilisées pour la classification. Dans l’exemple utilisé, les cinq facteurs prin-
cipaux de la structure factorielle du concept de personnalité de la marque devraient
servir à décrire les groupes identifiés par l’analyse typologique. Pour cela, il faut
décrire les groupes à partir des valeurs moyennes des variables de classification. Les
individus du groupe 1 peuvent avoir par exemple un score moyen élevé de sincérité.
À présent, nous allons illustrer notre propos avec l’exemple de la personnalité
de la marque selon le cadre théorique d’Aacker. Nous partons d’une typologie à quatre
groupes pour positionner un groupe dans chaque cadran de la carte perceptuel qui
représente le positionnement des marques par rapport à leur personnalité. En procé-
dant par itérations, une première solution supérieure à quatre groupes est testée afin
de répartir les individus qui sont mal classés. Cette solution initiale comprend 6 grou-
pes. Mais elle ne donne pas de groupes aux effectifs homogènes. Dans une seconde
itération, une solution initiale à 8 groupes est testée. Elle permet d’identifier des
groupes dont les effectifs sont plus homogènes. Les centres de ces 8 classes sont sau-
vegardés. L’étape suivante conduit à supprimer le premier groupe qui est constitué de
85 individus. Nous considérons que ces individus sont mal classés car à l’évidence, il
n’y a pas de typologie mise à jour, l’effectif étant trop faible au regard des autres
groupes. On reclasse les individus de ce groupe par rapport aux centres de gravité des
7 autres groupes. Cette solution constitue l’un des cas que l’on peut rencontrer :
reclasser les groupes qui ont un faible effectif. Cela répond au critère de mise en
œuvre. L’autre cas possible serait le reclassement de groupes dont les effectifs
seraient les plus importants, dans les autres groupes, afin d’obtenir des classes de
taille opératoire.
La procédure à suivre sur le logiciel SPSS consiste à cliquer sur « Analyse » de
la barre de menu, puis « classification » et enfin « Nuées dynamiques ». Puis, il faut
sélectionner les variables de l’analyse du fichier de données (vêtement.sav). Ensuite,
il faut définir le nombre de groupes de départ en écrivant 8 dans le champ « Nombre
de classes ». Nous cliquons sur la méthode « itérer » et « classer » qui permet de cal-
culer les centres de classes et de classer les individus par rapport aux centres. Pour
386 L’analyse typologique : de l’exploratoire au confirmatoire

cela, il faut sauvegarder les centres de classes en cliquant sur le bouton « centre »,
en sélectionnant le champ « écrire » et en cliquant sur « fichier ». Le fichier de sau-
vegarde des centres est appelé « centre.sav ». Puis, il faut cliquer sur le bouton
« OK ». Nous devons, comme indiqué précédemment, reclasser les individus du pre-
mier groupe (au nombre de 85). Il faut revenir dans le fichier « centre.sav » où nous
supprimons la première ligne. Ce fichier contient une première colonne qui s’appelle
« cluster » où apparaît le numéro du groupe ainsi que le score moyen par groupe des
dimensions de la personnalité. En supprimant la première ligne, nous devons renom-
mer les autres lignes de cette colonne (2 → 1, 3 → 2, etc.). Puis nous revenons au
fichier de données « vêtement.sav ». Nous sélectionnons les mêmes variables. Puis
nous choisissons le nombre de groupes de départ en écrivant 7 dans le champ
« Nombre de classes ». Nous choisissons l’option « classer seulement ». Pour cela, il
faut lire les centres en cliquant sur le bouton « centre », en sélectionnant le champ
« lire » et en cliquant sur fichier « centre.sav ». Au bout de cinq itérations, nous
obtenons les résultats suivants (tableaux 14.3 et 14.4).

Le tableau 14.3 représente les valeurs moyennes des variables de classification


par groupe. Les consommateurs du groupe 1, par exemple, ont un score moyen de sin-
cérité de 0,87. Plus l’on s’éloigne de 0 pour aller vers 1, plus les marques sont perçues
comme sincères par les consommateurs, et inversement lorsque l’on s’éloigne de 0
pour aller vers –1.

La taille des groupes est homogène et conséquente pour vérifier le critère de


mise en œuvre. Le groupe 1, désigné comme « les street-wearistes », considère les
marques de vêtements comme sincères (0,87) et compétentes (0,55), mais non fémi-
nines (–0,47). La dimension compétente est définie par les variables « technique » et

Classe

1 2 3 4
sincérité ,86938 –,34632 ,26967 –,84173
féminité –,47372 1,03393 ,21613 –,69903
dynamisme ,06171 ,32024 –,05728 –,30456
compétence ,55124 ,04987 –,97224 ,37269
robustesse –,16293 ,47966 –,58925 ,31592
TABLEAU 14.3 – Valeurs moyennes par groupe des dimensions de la personnalité

Classe 1 235,000

2 214,000

3 232,000

4 229,000

TABLEAU 14.4 – Effectifs des groupes


Essai de typologie exploratoire : le cas de la personnalité de marque 387

« intelligente ». Le second groupe, « les prêt à porteristes », décrit les marques de


vêtements comme féminines (1,03) et robuste (0,48). Le troisième groupe, « les
utilitaires » définit les marques de vêtements comme non robustes (-0,59) et non
compétentes (-0,97). Enfin, le quatrième groupe, « les fashion-victims » regroupe les
individus qui pensent que les marques de vêtements sont non sincères (-0,84) et non
féminines (-0,70). En croisant les marques et la typologie, on peut voir que pour le
groupe 1, les marques emblématiques sont Celio et Eden park, pour le groupe 2 Kenzo
et Dior, pour le groupe 3 Etam et Petit bateau et pour le groupe 4 Levis et Addidas.
Ces variables nous permettent de différencier les groupes, de pouvoir les nommer, et
ainsi de satisfaire au critère d’explication optimale. Une AFD est ensuite réalisée pour
tester la validité du critère de convergence vraie (tableau 14.5).
Nous avons classé les individus de l’échantillon de contrôle en utilisant les
fonctions discriminantes obtenues sur l’échantillon test (application de la méthode
des deux moitiés). En colonne, le tableau 14.5 présente le classement réalisé par
l’AFD et en ligne celui obtenu par la méthode des nuées dynamiques. La diagonale de
cette matrice représente les observations bien classées (effectifs), c’est-à-dire celles
pour lesquelles la classe d’appartenance est la même quelle que soit la méthode de
classification envisagée. En faisant la somme des effectifs du tableau 14.4 et en la
divisant par l’effectif de la diagonale on obtient le pourcentage d’individus non sélec-
tionnés (échantillon de contrôle) bien classés. Il est ici de 94 %. Cela signifie que
94 % des individus sont classés de la même façon quelle que soit la méthode utilisée.
Ainsi la classification reste-t-elle stable quelle que soit la méthode d’analyse typolo-
gique utilisée. Pour compléter la description des groupes, on associe à ces derniers,
les marques étudiées dans l’enquête à partir des résultats issus de l’analyse factorielle
discriminante. Une représentation graphique permet de restituer l’ensemble des résul-
tats de cette classification (Figure 14.3).
L’analyse factorielle discriminante fait ressortir deux axes discriminants. Ils
sont sauvegardés en tant que scores discriminants pour déterminer les coordonnées
de chaque franchisé sur l’espace discriminant (Figure 14.3). Dans ce graphique
(obtenu sur le logiciel Excel), les grands ronds représentent les marques. Les coordon-
nées sont des moyennes des scores discriminants des franchisés appartenant à la mar-

Classe d’affectation Classe(s) d’affectation prévue(s)


(nuées dynamiques)
1 2 3 4

Observations non sélectionnées Effectif 1 114 1 0 0

2 0 98 0 2

3 5 4 113 7

4 3 1 5 101

93,8 % des observations originales non sélectionnées classées correctement.

TABLEAU 14.5 – Comparaison entre les classifications obtenues par l’AFD


et par les nuées dynamiques
388 L’analyse typologique : de l’exploratoire au confirmatoire

Les prêt à porteristes


n = 214
dior
Les fashion-victims
n = 229
zara
féminité
robustesse
levis

chevignon kenzo
compétence quick silver dynamisme

addidas
oxbow etam
newman benetton

Les steet-wearistes petit bateau


n = 235
celio
eden park
sincérité Les utilitaires
n = 235

FIGURE 14.3 – Positionnement des consommateurs de vêtements et des marques


selon la perception qu’ils se font de la personnalité d’une marque

que. Les grands carrés représentent les dimensions conceptuelles de la personnalité


de la marque. Ces coordonnées sont issues de la matrice de structure de l’Analyse Fac-
torielle Discriminante.

2. L’implication organisationnelle : essai


de typologies exploratoire et confirmatoire

Dans les recherches en comportement organisationnel et en management des


ressources humaines, le concept d’implication organisationnelle est défini comme
l’attachement psychologique d’un individu envers son organisation. Cet attachement
se traduirait par une forte croyance de l’individu dans les buts et les valeurs de l’orga-
nisation, par une volonté d’exercer des efforts significatifs au profit de celle-ci et par
un fort désir d’en rester membre (Mowday et al., 1982). L’utilisation de ce concept
dans une organisation en réseau est proposée par Dubost et al. (2000) et Durrieu et
Roussel (2002) qui l’appliquent aux réseaux de franchises. Cette adaptation se justifie
par les similitudes des relations de franchise et des relations d’emploi notamment au
regard de la stabilité des liens de travail, des principes d’autorité et de confiance qui
régulent le fonctionnement des réseaux de franchises. Les analyses typologiques qui
suivent vont s’appuyer sur des données collectées en France auprès d’un large échan-
tillon de franchisés. La démarche confirmatoire, dite de seconde génération, qui va
être exposée nécessite de définir le cadre théorique qui sera testé pour décrire le phé-
nomène d’implication dans ce type d’organisation.
L’implication organisationnelle 389

Les recherches sur l’implication organisationnelle ont longtemps considéré ce


concept comme unidimensionnel à la suite des travaux de Porter et al. (1974) et
Mowday et al. (1982). Puis, les travaux de Allen et Meyer (1990), Meyer et Allen
(1991) et Meyer et al. (1993) ont fortement contribué à suggérer que le concept est
de nature multidimensionnelle. Le cadre théorique qu’ils développent suppose que
l’implication présente trois dimensions : l’implication affective, l’implication dite cal-
culée (« continuance ») et l’implication normative. La validité empirique de ce cadre
théorique n’est pas complètement apportée (Meyer et Allen, 1997). Aussi allons-nous
tester l’apport possible d’une autre dimension de l’implication organisationnelle qui
est proposée par O’Reilly et Chatman (1986), en l’occurrence l’internalisation. Elle
considère que l’implication représente un attachement psychologique né de la conver-
gence perçue par l’individu entre ses valeurs et celles de son organisation. Cette
facette est supposée pertinente chez les franchisés qui intègrent un réseau de fran-
chise en raison de leur adhésion à une charte et à un contrat exposant ses principes
de fonctionnement, sa stratégie, ses valeurs. L’intérêt d’étudier ces quatre dimensions
théoriques du concept est de développer un cadre d’analyse susceptible d’être mieux
adapté aux réseaux de franchises. Le tableau 14.6 présente les items du questionnaire
d’implication administré à un échantillon de 1000 franchisés, dont 810 ont répondu
(N = 810). L’administration du questionnaire a été réalisée par entretiens téléphoni-
ques sur une période de deux semaines.

Méthodologiquement, une première phase nécessite d’effectuer une analyse


factorielle. Une analyse en composantes principales est réalisée avec une rotation
varimax sur les items des échelles en contraignant le nombre de facteurs à 4. Il s’agit
de retrouver les dimensions de l’implication organisationnelle des franchisés à savoir
l’implication affective, l’implication calculée, l’implication normative et l’internalisa-
tion. Nous partons d’une structure hypothétique de l’implication organisationnelle. Si
nous retrouvons cette structure, nous utiliserons les scores factoriels pour déterminer
des groupes (calcul des centres de gravité des groupes et le positionnement des indi-
vidus par rapport à ces centres) de franchisés. Ces derniers pouvant privilégier une
dimension de l’implication plutôt qu’une autre, les scores factoriels aident à tenir
compte des poids de chaque caractéristique. La matrice des composantes après rota-
tion est présentée dans le tableau 14.7.

Les résultats de l’ACP montrent que le premier facteur est composé d’items
définissant l’implication affective (3 items sur quatre), le deuxième facteur est à la
fois composé d’items d’implication calculée (Q46 et Q49) et d’implication normative.
En revanche, l’ACP ne permet pas de définir des facteurs purement affectifs ou pure-
ment normatifs. Les dimensions de l’implication organisationnelles définies par la
théorie ne sont que partiellement retrouvées dans l’analyse factorielle. Cependant,
nous obtenons une structure que nous pouvons complètement justifier théorique-
ment. Cette situation est assez fréquente. Il est par conséquent intéressant de voir
comment poursuivre le travail d’analyse typologique en maintenant la construction
théorique initiale, non retrouvée ou partiellement avec l’ACP. Pour conduire cette ana-
lyse, il est nécessaire de recourir aux méthodes confirmatoires d’analyse factorielle
afin d’examiner s’il est raisonnable de maintenir la structure factorielle initiale du
concept.
390 L’analyse typologique : de l’exploratoire au confirmatoire

Je passerais bien volontiers le reste de ma vie professionnelle dans ce réseau de franchise. (Q45FIDEL)
Je ressens vraiment les problèmes de ce réseau comme s’ils étaient les miens. (Q48PROBL)
Implication (—) Je ne me considère pas comme un « membre de la famille » dans ce réseau. (Q52NEMB)
affective (—) Je ne me sens pas « affectivement attaché » à ce réseau. (Q56NATTA)
Ce réseau a pour moi beaucoup de signification personnelle. (Q60SIGNI)
(—) Je ne ressens pas un fort sentiment d’appartenance à ce réseau. (Q63PAPPA)

Il serait très difficile pour moi de quitter ce réseau en ce moment, même si je le voulais. (Q46QUITT)
Beaucoup trop de choses seraient dérangées dans ma vie si je me décidais à quitter ce réseau maintenant.
(Q49DERAN)
En ce moment, rester dans ce réseau est un problème qui relève autant de la nécessité que du désir.
Implication
(Q53NECES)
« calculée »
Je pense avoir trop peu de possibilités pour envisager de quitter ce réseau. (Q57PQUIT)
Une des conséquences négatives de mon départ de ce réseau serait le manque de solutions de rechange
possibles. (Q61RECHA)
Si je n’avais pas tant donné de moi-même à ce réseau, j’aurais pu envisager de travailler ailleurs. (Q64AILLE)

(—) Je ne ressens aucune obligation de rester avec mon franchiseur actuel. (Q66POBLI)
Même si c’était à mon avantage, je ne me sentirais pas le droit de quitter mon réseau maintenant.
(Q50DEVOI)
Implication J’éprouverais de la culpabilité si je quittais mon réseau maintenant. (Q54CULPA)
normative Le réseau mérite ma loyauté. (Q58LOYAU)
Je ne quitterai pas mon réseau pour le moment car j’éprouve un sentiment d’obligation envers les gens qui
en font partie. (Q62OBLIG)
Je dois beaucoup à mon réseau. (Q65BEAUC)

Si les valeurs de ce franchiseur étaient différentes, je ne serais pas aussi attaché à mon réseau. (Q47ATTACH)
Depuis que j’ai rejoint ce réseau, mes valeurs personnelles et celles du franchiseur sont devenues plus
similaires. (Q51VALEU)
La raison pour laquelle je préfère ce réseau aux autres s’explique par ce qu’il représente, par ses valeurs.
Internalisation
(Q55PREFV)
Mon attachement à ce réseau est essentiellement basé sur la similitude de mes valeurs avec celles qui
caractérisent le réseau. (Q59SIMIL)
Ce que ce réseau représente est important pour moi. (Q67IMPOR)

N.B. : le signe négatif — indique un item inversé.

TABLEAU 14.6 – Les items des échelles d’implication organisationnelle

2.1 L’IMPLICATION ORGANISATIONNELLE : ESSAI DE TYPOLOGIE


EXPLORATOIRE À PARTIR DE SCORES FACTORIELS CONFIRMÉS

L’Analyse Factorielle Confirmatoire (AFC) de l’Implication Organisationnelle est


réalisée à l’aide des méthodes d’analyse de structures de covariances. Son but est de
tester la qualité d’ajustement du modèle théorique initial aux données empiriques,
ceci afin de vérifier s’il est possible de réaliser une analyse typologique basée sur le
modèle théorique de départ. En effet, l’analyse exploratoire ne nous a pas permis de
retrouver la structure factorielle hypothétique de l’implication dans le contexte de la
franchise. Aussi, l’Analyse Factorielle Confirmatoire permet-elle d’effectuer d’autres
tests de la structure théorique initiale de l’implication et de vérifier par un autre che-
L’implication organisationnelle 391

Composante

1 2 3 4
Q56 sens pas affectivement attaché réseau 0,739
Q52 pas membre de la famille dabs réseau 0,705
Q63 pas de sentiment d’appartenance 0,626
Q66 ne ressens pas obligation rester 0,607
46 difficile quitter réseau même si je voulais 0,783
Q50 ne me sens pas le droit quitter réseau 0,657
Q49 trop choses dérangées si quittais réseau 0,596
Q62 pas quitter car sentiment obligation 0,501
Q58 réseau mérite ma loyauté 0,706
Q67 réseau représente qqchose important pour moi 0,681
Q59 attachement basé sur similitude des valeurs 0,659
Q55 préférence pour réseau en raison de ses valeurs 0,640
Q64 si pas tant donné aurais pu travailler ailleurs 0,708
Q61 conséquences départ : pas de rechange possible 0,622
Q53 rester relève autant nécessité que désir 0,545
TABLEAU 14.7 – Les dimensions de l’implication organisationnelle

min si elle pourrait être la meilleure représentation du phénomène étudié. Les traite-
ments statistiques ont été effectués avec le logiciel EQS 6. Au préalable, il apparaît
que les dimensions de l’implication organisationnelle sont fortement corrélées comme
le montre le tableau 14.8.

implication affective ↔ implication calculée 0,88

implication affective ↔ implication normative 0,91

implication affective ↔ internalisation 0,99


implication calculée ↔ implication normative 0,97

implication calculée ↔ internalisation 0,72

implication normative ↔ internalisation 0,87

TABLEAU 14.8 – Corrélations entre dimensions de l’implication organisationnelle

Le niveau très élevé des corrélations entre les dimensions de l’implication con-
duit à considérer la réalisation d’une AFC de second ordre (Bagozzi, 1981). Celle-ci
consiste à tester un modèle théorique constitué d’une variable latente générique, en
l’occurrence l’implication, qui serait une représentation de quatre autres variables
latentes corrélées. La construction de ce modèle hiérarchique dit de second ordre
392 L’analyse typologique : de l’exploratoire au confirmatoire

ainsi que les coefficients des paramètres estimés sont présentés dans la figure 14.4.
La réalisation d’une AFC est expliquée dans le chapitre consacré au développement
d’échelles de mesure pour questionnaire. Seuls les résultats sont repris présentement
avec quelques explications complémentaires. Les critères de validité interne examinés
sont ceux des validités convergente et prédictive et de cohérence interne 5. Par
ailleurs, dans le but de tester la qualité des échelles et du modèle de mesure, une
analyse des indices d’ajustement 6 du modèle théorique aux données empiriques est
systématiquement effectuée.
L’indicateur de multinormalité des variables, le KURTOSIS multivarié normalisé
de Mardia (Mardia, 1974), est trop élevé car largement supérieur à 3. En raison du
manque de normalité des variables, il est impossible de faire confiance aux tests
d’ajustement et aux erreurs standards estimées par une méthode de maximum de vrai-
semblance. Il est nécessaire d’utiliser la méthode de correction des tests et des
erreurs standards. Cette méthode développée avec le logiciel EQS accepte les paramè-
tres estimés par le maximum de vraisemblance, mais corrige le Khi2 et d’autres indi-
ces d’ajustement comme IFI, NFI, NNFI, CFI et le RMSEA (Yuan et Bentler, 1998) et
les erreurs standards (Bentler et Dijkstra, 1985).
Puis, plusieurs itérations de l’AFC sont entreprises pour épurer les échelles en
vue d’obtenir une structure factorielle bien ajustée aux données empiriques. Les indi-
ces d’ajustement doivent être acceptables et le modèle de mesure doit garder un
nombre suffisant d’items pour chaque dimension. Les items ayant une contribution
factorielle inférieure à 0,4 sont éliminés. À l’issue des itérations, l’implication affec-
tive est seulement définie par deux items : « Je passerais bien volontiers le reste de
ma vie professionnelle dans ce réseau de franchise » et « Je ressens vraiment les pro-
blèmes de ce réseau comme s’ils étaient les miens ».
Les indices GFI, CFI, IFI, MFI, supérieurs à 0,90, et RMSEA, inférieur à 0,08,
révèlent un ajustement du modèle théorique aux données empiriques satisfaisant
(Encadré 14.1). Les indices proches mais inférieurs à 0,90 (AGFI, NFI, NNFI) signalent
que l’ajustement n’est toutefois pas excellent.
Les paramètres estimés de mesure et de structure sont tous statistiquement et
significativement différents de zéro (Figure 14.4). Le coefficient de cohérence interne
sur l’ensemble de l’échelle est de 0,85 montrant une bonne fiabilité d’ensemble de
l’échelle d’implication organisationnelle. Le R_ moyen est de 0,41 révélant une vali-
dité prédictive du phénomène d’implication chez les franchisés, somme toute accep-
table.

5 La validité convergente est établie quand chaque indicateur partage plus de variance avec son
construit qu’avec son erreur de mesure. La validité convergente de chaque paramètre estimé sera
vérifiée quand chaque contribution factorielle est statistiquement différente de zéro (Anderson et
Gerbing, 1988). La validité prédictive est vérifiée quand la moyenne des R2 est proche de 1. La fiabi-
lité de cohérence interne est assurée quand tous les indicateurs mesurent bien le même construit et
que les « loadings » (contributions factorielles) ont des valeurs comparables. C’est l’indicateur rhô,
« ρ » (Jöreskog, 1971), qui est utilisé pour mesurer la fiabilité de cohérence interne du construit.
6 Les indices GFI, AGFI de Joreskog, IFI de Boollen, NFI et NNFI de Bentler et Bonnet, CFI de
Bentler. doivent être proche de 0,9 et si possible supérieurs. Quant au RMSEA de Steiger, il est
recommandé d’obtenir un RMSEA inférieur à 0,08 pour être acceptable (Brown et Cudeck, 1993).
L’implication organisationnelle 393

ENCADRÉ 14.1
Les indices d’ajustement

SATORRA-BENTLER SCALED CHI-SQUARE = 229.8892 ON 95 DEGREES OF FREEDOM


LISREL GFI FIT INDEX = 0.927
LISREL AGFI FIT INDEX = 0.895
PROBABILITY VALUE FOR THE CHI-SQUARE STATISTIC IS.00000
BENTLER-BONETT NORMED FIT INDEX = 0.854
BENTLER-BONETT NON-NORMED FIT INDEX = 0.883
COMPARATIVE FIT INDEX (CFI) = 0.907
BOLLEN (IFI) FIT INDEX = 0.909
MCDONALD (MFI) FIT INDEX = 0.909
ROOT MEAN-SQUARE ERROR OF APPROXIMATION (RMSEA) = 0.045
90 % CONFIDENCE INTERVAL OF RMSEA (0.038, 0.052)

0,53 Q46QUIT

0,60 Q49DERAN

0,41 Implication
Q53NECES
calculée

0,46 Q57PQUIT 0,91

0,40 Q61RECHA

0,62 Q45FIDEL
Implication
affective 0,97
0,57 Q48PROBL

0,49 Q47ATTAC Implication


organisationnelle
0,61 Q51VALEU 0,86

0,51 Implication
Q55PREFV
internalisation

0,55 0,93
Q59SIMIL

0,57 Q667IMP

0,64 Q50DEVOI

0,61 Q54CULPA
Implication
normative
0,54 Q62OBLIG

0,59 Q65BEAUC

FIGURE 14.4 – AFC sur l’échelle d’implication organisationnelle des franchisés


394 L’analyse typologique : de l’exploratoire au confirmatoire

L’étape suivante consiste à effectuer une classification (analyse typologique)


des individus à partir des scores latents de l’échelle d’implication organisationnelle,
et en utilisant la méthode des nuées dynamiques. Les scores factoriels établis dans
l’AFC (Figure 14.4) sont enregistrés dans le fichier de données de départ SPSS, indi-
vidu par individu, pour les quatre variables latentes du modèle théorique. Le
tableau 14.9 des « centres de classes finaux » représente les valeurs moyennes des
variables de classification par groupe. Les franchisés du groupe 1 ont un score moyen
d’implication affective de -–18,47. Plus l’on va vers des scores négatifs, moins les
franchisés sont impliqués affectivement. Plus l’on va vers du scores positifs, plus les
franchisés sont impliqués affectivement comme le sont les franchisés du groupe 4.
La méthode des nuées dynamiques est mise en œuvre par processus itératif.
Une première solution à 6 classes est générée. Pour respecter le critère de mise en
œuvre, les groupes n° 4 (9 franchisés) et n° 6 (54 franchisés) sont éliminés. Le
tableau 14.10 reproduit le résultat du nombre d’observations par groupe lorsque la
classification à 4 groupes est retenue au regard du critère de mise en œuvre (effectifs
importants et relativement comparables). Une itération supplémentaire est réalisée
en supprimant la classe n° 2 afin de voir si ce critère pouvait être amélioré. Ce n’est
pas observé dans ce cas. Si chaque classe de la typologie a une taille suffisante pour
satisfaire au critère de mise en œuvre (tableau 14.10), il n’en va pas de même pour
le critère d’explication optimale. En effet, les seuls résultats qui peuvent être inter-
prétés sont que les franchisés de la classe 1 sont les moins impliqués et ceux de la
classe 4 sont les plus impliqués. Le tableau 14.9 permet d’observer que si les franchi-
sés du groupe 1 sont les moins impliqués normativement (–25,84) et affectivement

Classe

1 2 3 4

implication affective –18,47 5,55 –4,34 15,25

implication calculée –13,66 4,10 –3,21 11,27

implication normative –25,84 7,76 –6,07 21,32

internalisation –11,99 3,60 –2,83 9,92

TABLEAU 14.9 – Valeurs moyennes par groupe des dimensions de l’implication


organisationnelle des franchisés

Classe 1 146,000

2 234,000

3 180,000

4 143,000

Observations validées 703,000

TABLEAU 14.10 – Effectifs des groupes


L’implication organisationnelle 395

(–18,47), les franchisés du groupe 4 sont les plus impliqués normativement (21,32)
et affectivement (15,25). L’interprétation du tableau 14.9 ne permet pas de différen-
cier les groupes selon le type d’implication. En effet, il n’y a pas de groupe plutôt
défini par l’implication affective, un autre plutôt défini par l’implication normative,
etc. Finalement, le seul résultat interprétable est celui d’un niveau d’implication plus
ou moins grand selon le groupe. Le premier n’est pas du tout impliqué, le deuxième
l’est, le troisième ne l’est pas et enfin le quatrième est très impliqué. Cette analyse
typologique ne parvient donc pas à générer des structures d’implication organisation-
nelle clairement différenciées pour chaque groupe de franchisés. Pour réaliser une
analyse typologique plus intéressante, c’est-à-dire pour déterminer les facettes
d’implication qui caractérisent chaque catégorie, la méthode classique des nuées
dynamiques révèle des insuffisances. Il est nécessaire de prolonger l’analyse typologi-
que par une étude confirmatoire. Celle-ci est fondée sur la méthode des modèles de
mélange.

2.2 L’IMPLICATION ORGANISATIONNELLE : ESSAI DE TYPOLOGIE


CONFIRMATOIRE ET UTILISATION DES MODÈLES DE MÉLANGE

La méthode des modèles de mélange vise à tester l’échelle de second ordre de


l’implication organisationnelle tout en mettant à jour des segments de franchisés.
Chaque segment de franchisés dispose d’une structure d’implication organisationnelle
qui lui est spécifique. Cette structure fait coexister de deux types de liens.
■ Les liens entre les dimensions de l’implication (affective, calculée, normative
et internalisation) et la variable de second ordre d’implication organisation-
nelle appelés : liens de structure.
■ Les liens entre les dimensions de l’implication (affective, calculée, normative
et internalisation) et les items qui définissent ces dernières appelés : liens de
mesure.
Cette méthode va permettre a posteriori de pouvoir déterminer le nombre de
groupes de la typologie et d’obtenir un ensemble de critères permettant d’optimiser
le ratio ajustement/parcimonie. Ces critères sont les indices d’ajustement AIC (Aïke
Index Criteria) et BIC (Indice bayesien de Schwartz) qui donnent la possibilité de
comparer les différentes solutions de groupes. Il faudra retenir celles dont le AIC et le
BIC sont les plus faibles 7. Cette solution désignera la typologie ou la classification
optimale des franchisés au regard de la variable d’implication et de ses quatre facet-
tes hypothétiques. Il existe un critère d’entropie appelé E calculé dans les logiciels de
méthodes de mélange qui permet de mesurer la qualité de la séparation des groupes.
Un coefficient E proche de 1 permet de conclure à un classement satisfaisant des
observations sur la base de leur appartenance probable à un groupe.
Toutefois, cinq conditions doivent être réunies pour utiliser cette méthode des
modèles de mélange, sans quoi elle ne converge pas (Valette-Florence, 1998) :
■ une distribution multinormale des variables est fortement recommandée ;

7 Soit deux solutions S1 et S2, si AICS1 < AICS2, alors on choisira la solution S1. Le BIC s’interprète
de la même façon.
396 L’analyse typologique : de l’exploratoire au confirmatoire

■ la taille d’échantillon est extrêmement importante (N>800 voire 1500


individus) ;
■ une structure théorique est très bien définie (validité interne et externe
confirmée) ;
■ des critères heuristiques sont utilisés pour sélectionner les groupes ;
■ une solution initiale 8 est utilisée.
Cette méthode se révèle d’utilisation plutôt complexe, notamment quant à
l’élaboration de la solution initiale. À ce jour, peu d’illustrations ont été publiées en
gestion. En marketing où les problématiques de segmentation des consommateurs
sont fréquentes et importantes, des travaux ont été récemment publiés (Valette-Flo-
rence, 1998 ; Ferrandi et Valette-Florence, 2002 ; Valette-Florence, Ferrandi et Usu-
nier, 2000). Deux logiciels permettent de traiter les modèles de mélanges sur des
variables latentes : STEMM (Jedidi et al., 1997) et un module de MPLUS (Muthén et
Shedden, 1999).
L’application qui suit est réalisée sur MPLUS, en utilisant le module STREAMS
(Gustafsson et Sthal, 2000). Il permet d’utiliser un modèle de départ et les coeffi-
cients qu’il génère pour tester un modèle de mélanges à 2 puis à trois groupes, voire
davantage. L’option « JIGGLE » est sélectionnée pour faire varier les coefficients de
départ afin d’accroître les chances d’obtenir une solution acceptable. Dans cette
application, une solution à 1 groupe est retenue comme solution initiale. Elle pro-
vient du test de l’échelle de second ordre de l’implication organisationnelle. À partir
des coefficients de mesure et de structure de la solution à 1 groupe, d’autres solutions
à 2 groupes puis à 3 et enfin à 4 sont testées. La solution à 4 groupes ne converge
pas avec STREAMS. Celle-ci avait été retenue par la méthode de première génération
des nuées dynamiques. Aussi, seuls sont présentés les résultats des solutions à 2 et 3
groupes (tableau 14.11).
Si l’on prend en compte les critères des indices d’ajustement AIC et BIC qui
sont peu différents d’un groupe à l’autre, la solution 2 serait préférable. Cependant les
écarts sont négligeables, alors que l’entropie semble meilleure pour la solution à 3
groupes. L’indice E correspondant, se rapproche de la valeur de 1. En conséquence, la
solution à 3 groupes est retenue pour décrire les classes.
En première analyse, la variable « implication calculée » est mal représentée
dans le groupe 3 (tableau 14.12). Les coefficients de mesure sont compris entre 0,27
et 0,46. « L’implication affective » ne définit pas la variable de second ordre pour le
troisième groupe (paramètre non significatif : NS). L’analyse se poursuit par le calcul
des coefficients de détermination R_ afin de décrire les groupes 2 et 3. Ils mettent en
exergue les variables qui expliquent le plus la constitution des groupes. Comme nous
cherchons à savoir ce qui les différencie, nous repérerons les coefficients R_ qui sont
très différents entre les deux groupes.
Les individus du premier groupe sont ceux qui sont les plus impliqués sans
privilégier l’une ou l’autre des dimensions de l’implication organisationnelle. On voit

8 La méthode consiste à retenir comme solution initiale les coefficients de l’échelle d’implication
de second ordre générés par l’analyse factorielle confirmatoire puis de les faire varier pour parvenir à
une typologie satisfaisante.
L’implication organisationnelle 397

Solution à 2 groupes Solution à 3 groupes

H0 value –24681,78 –24699,12


AIC 49539,56 49636,25
BIC 49942,04 50180,51
SBIC 49662,62 49802,66
E 0,81 0,86

TABLEAU 14.11 – Comparaison de deux typologies : l’une à deux groupes,


l’autre à trois groupes

CLASSES cl1 cl2 cl3


EFFECTIF 59 229 428
IMP → IMPAFF 0,96 0,86 NS
IMP → IMPCAL 0,97 0,89 1,00
IMP → IMPNOR 0,97 0,97 0,90
IMP-> INTERN 0,99 0,75 0,92
IMPNORM → Q50DEV 0,60 0,75 0,69
IMPNORM → Q54CUL 0,67 0,66 0,56
IMPNORM → Q62OBL 0,86 0,54 0,60
IMPNORM → Q65BEA 0,95 0,51 0,64
IMPCAL → Q46QUI 0,94 0,53 0,46
IMPCAL → Q49DER 0,94 0,64 0,41
IMPCAL-> Q53NEC 0,92 0,42 0,42
IMPCAL → Q57PQU 0,60 0,57 0,27
IMPCAL → Q61REC 0,46 0,41 0,44
IMPAFF → Q48PRO 0,87 0,49 0,63
IMPAFF → Q45FID 0,98 0,64 0,58
INTERN → Q55PRE 0,97 0,43 0,58
INTERN → 59SIM 0,93 0,56 0,43
INTERN → Q67IMP 0,98 0,40 0,57
INTERN- → 51VAL 0,98 0,59 0,53
INTERN- → Q47ATT 0,99 0,34 0,56
N.B. : se reporter à la Figure 14.4 pour les labels des variables

TABLEAU 14.12 – Effectifs et les coefficients de mesure et de structure par groupe


398 L’analyse typologique : de l’exploratoire au confirmatoire

cl1 cl2 cl3 cl1 cl2 cl3

Q48PRO 0,89 0,28 0,21 Q51VAL 0,95 0,35 0,28

Q46QUI 0,77 0,24 0,39 Q53NEC 0,85 0,18 0,18

Q49DER 0,88 0,41 0,17 Q57PQU 0,36 0,34 0,07

Q54CUL 0,44 0,44 0,32 Q61REC 0,21 0,17 0,19

Q55PRE 0,94 0,18 0,34 Q65BEA 0,91 0,26 0,41

Q59SIM 0,86 0,32 0,19 Q47ATT 0,98 0,12 0,32

Q62OBL 0,75 0,29 0,36 IMPAFF 0,93 0,75 NS

Q67IMP 0,95 0,16 0,33 IMPNOR 0,94 0,94 0,82

Q45FID 0,95 0,42 0,34 IMPCAL 0,94 0,80 1,00

IMTERN 0,99 0,57 0,84

TABLEAU 14.13 – Les coefficients R2 par groupe

dans le tableau 14.13 que pour la première classe, les coefficients de détermination
sont les plus élevés. Toutes les variables permettent de définir quelle est l’implication
organisationnelle du groupe 1. Les individus du second groupe privilégient l’implica-
tion affective et l’implication normative par rapport aux individus du groupe 3, les
coefficient de détermination de « impaff » et « impnorm » du groupe 2 étant supé-
rieurs à ceux du groupe 3. Les individus du groupe 2 considèrent qu’il serait extrême-
ment difficile de quitter le réseau de franchise auquel ils sont fidèles et affectivement
attachés. Ils ressentent une obligation de rester dans le réseau par devoir ou en rai-
son d’engagements implicites et explicites. Les individus de ce groupe peuvent être
qualifiés d’affectifs obligés. Quant au troisième groupe de franchisés, les individus
privilégient plutôt l’implication calculée et l’internalisation, les coefficients de déter-
mination de « impcal » et « interna » du groupe 3 étant supérieurs à ceux du groupe
2. Il est perçu dans le groupe 3 que les franchiseurs proposent à leurs partenaires
franchisés des objectifs, des valeurs et une « rente de réputation ». Ceci permettrait
d’attirer, de fédérer et de retenir ces derniers. En contrepartie, les franchisés adhèrent
à un concept. Ils s’engagent à le promouvoir de façon loyale et estiment défavorable-
ment le coût d’opportunité de sortir du réseau compte tenu de tous les avantages
qu’ils en retireront en y restant. Les individus de ce groupe peuvent être qualifiés de
promoteurs.

Le modèle de mélange sur des variables latentes d’implication donnent une


typologie à trois groupes (les impliqués, les affectifs obligés et les promoteurs).
Que retire le franchisé de son appartenance au réseau ? 399

3. Que retire le franchisé de son appartenance au


réseau ? : l’analyse de régression avec classes latentes

La validité prédictive de la classification peut être testée en évaluant la capa-


cité des différentes dimensions de l’implication organisationnelle confirmées
(cf. Figure 14.4) à expliquer le bénéfice annuel réalisé par les franchisés. Les scores
latents des quatre variables issus de l’analyse factorielle confirmatoire de second
ordre de l’implication organisationnelle ainsi que ceux de la variable de second ordre
sont repris. Le modèle présenté est sans constante (la droite de régression est de la
forme Y=a × X + erreur). À cet effet, une extension de l’analyse de régression aux
modèles de mélange avec le logiciel GLIMMIX développée par Wedel et De Sarbo
(1995), puis Wedel (1997), est proposée. Au lieu d’estimer une équation de régression
pour l’ensemble des observations, un modèle de mélange estime une droite de régres-
sion pour chacun des « p » segments spécifiés à l’avance par l’analyste. Avec cette
technique, les poids de chaque dimension de l’implication qui permettrait d’expliquer
le bénéfice annuel réalisé sont déterminés. Dans le cas présent, une procédure itéra-
tive faisant incrémenter le nombre de segments est mise en œuvre. La solution rete-
nue est celle pour laquelle les indicateurs d’ajustement tels le BIC, le CAIC (de
Bozdogan) et l’AIC sont les plus faibles 9 (tableau 14.14).

2 groupes 3 groupes 4 groupes

FUNCTION –3311,90 –2842,80 –2945,63

AIC 6641,79 5713,61 5929,26

CAIC 6682,87 5777,50 6015,97

BIC 6682,85 5777,48 6015,94

Es 0,87 0,76 0,69

TABLEAU 14.14 – Comparaison de typologie à 2, 3, 4 groupes

Des solutions de classification à 2, 3 et 4 groupes sont comparées


(tableau 14.14). Comme les indices AIC, BIC et CAIC sont les plus faibles pour une
solution à 3 groupes, il n’est pas nécessaire de tester les solutions à 5 et 6 groupes
car les indices seraient supérieurs à ceux de la solution à 3 groupes. Cette dernière
est retenue pour la segmentation. Une entropie de 0,76 (Es) permet de conclure à une
classification satisfaisante des observations sur la base de leurs probabilités d’appar-
tenir à un groupe. De ce fait, le modèle de mélange met en évidence trois groupes de
franchisés. Ils se différencient par une influence variable des quatre dimensions de
l’implication sur le bénéfice qu’ils retirent de leur activité.
Au regard du tableau 14.15, plusieurs constatations s’imposent :

9 Soit deux solutions S1 et S2, si AICS1<AICS2, alors on choisira la solution S1. Nous pouvons inter-
préter le BIC et le CAIC de la même façon.
400 L’analyse typologique : de l’exploratoire au confirmatoire

■ Les 3 groupes mis en évidence présentent des effectifs fort différents allant de
64,5 % de l’échantillon pour le plus important à 14,3 % pour le plus faible.
■ Les trois groupes se différencient en termes de Bénéfice réalisé (sur une
échelle de niveau moyen allant de 0 à 10) :
– les franchisés qui retirent le plus de bénéfices du réseau sont ceux du groupe
3 (6,55) ;
– les franchisés qui retirent le moins de bénéfices du réseau sont ceux du
groupe 1 (4,08).
■ Globalement, les trois groupes identifiés montrent une sensibilité différente en
termes d’importance de l’influence des quatre dimensions de l’implication
organisationnelle sur le bénéfice réalisé.
– les franchisés du groupe 1 ne privilégient pas l’implication calculée (-0,205)
pour réaliser un bénéfice ;
– les franchisés du groupe 2 privilégient l’implication calculée (0,355) sans
internaliser les valeurs du réseau (-0,793) pour réaliser un bénéfice ;
– les franchisés du groupe 3 privilégient l’implication calculée (0,89) et
l’implication affective (0,42) pour réaliser un bénéfice.
La régression avec classes latentes donne une solution à trois groupes comme
dans le cas précédent de la classification effectuée avec la méthode des modèles de
mélange. Cependant, la définition des groupes est différente car les objectifs des
deux méthodes diffèrent. Avec la régression, nous cherchons à déterminer des grou-
pes en expliquant le bénéfice par les dimensions de l’implication organisationnelle.
Avec le modèle des mélanges, il s’agit de trouver pour chaque groupe une échelle de
mesure de second ordre de l’implication. L’objectif est dans ce dernier cas de décrire,

Groupes de cl1 cl2 cl3


franchisés
Paramètres estimés coeff t prob coeff T Prob coeff T prob
Implication affective –0,045 0,021 –2,154 0,148 0,013 11,381 0,42 0,025 16,712
Implication calculée –0,205 0,023 –8,797 0,355 0,016 22,761 0,89 0,029 31,308
Implication normative –0,004 0,014 –0,309 0,016 0,006 2,775 –0,04 0,010 –4,535
Internalisation 0,079 0,003 30,158 –0,793 0,009 –89,668 0,03 0,004 7,261
Les dimensions dominantes Implication calculée Implication calculée Implication affective
Internalisation Implication calculée
Effectifs 0,143 0,645 0,212
Niveau de Bénéfice réalisé 4,08 6,37 6,55
Les franchises les plus CAR’GO JEFF DE BRUGES POINT CHAUD
représentatives de RAPID’FLORE DE NEUVILLE MAXAUTO
l’échantillon L’AGE D’OR SPEEDY BUDGET
CENTURY 21 JACK HOLT
L’ONGLERIE

TABLEAU 14.15 – Définition des groupes


Conclusion 401

2 Les franchises
les groupes

BUDGET 1,5

cl3
1
MAXAUTO
POINT CHAUD

L'ONGLERIE JACK HOLT


0,5
GRANDEUR NATURE
CONFORAMA MOD'S HAIR
CARLSON WAGONLIT RAPID'FLORE
CHOICE HOTELS CAR'GO
CLARINE
JACADI
0
–1 –0,5DE NEUVILLE 0
DESCAMPS 0,5 1 1,5 2
JEFF DE BRUGES
MOVING cl2 CATENA
cl1
SPEEDY
–0,5 L'AGE D'OR
CENTURY 21 JEAN-CLAUDE BIGUINE
STATUS
UNICIS
JARDILAND

–1

N.B. : Les carrés noirs correspondent aux groupes de réseaux de franchises suivant leur implication, les losanges noirs correspondent
aux réseaux de franchise. Il est possible de déterminer les réseaux représentatifs des classes, issues de la régression, pour chaque
groupe défini dans le tableau 14.15. Il suffit d’observer dans la figure 14.5 les réseaux qui sont le plus proche du centre d’un groupe.
Le groupe 1 est associé aux réseaux CAR’GO, RAPID’FLORE et L’AGE D’OR, le groupe 2 à JEFF DE BRUGES, DE NEUVILLE, SPEEDY et
CENTURY 21 et le groupe 3 à POINT CHAUD, MAXAUTO, BUDGET, JACK HOLT et L’ONGLERIE.

FIGURE 14.5 – Positionnement des réseaux de franchises et des franchisés

alors que dans celui de la régression il est d’expliquer. Aussi, est-il normal de trouver
des résultats différents. Mais, contrairement aux méthodes de mélanges, celle de la
régression avec classes latentes parvient à définir une classification où des différen-
ces se produisent au niveau des dimensions de l’implication organisationnelle, et ce
pour chaque groupe. Ce résultat permet de vérifier le critère d’explication optimale
même si le critère de mise en œuvre n’est pas vérifié (niveau très hétérogène des
groupes).
À la suite, une question naturelle se fait jour. Ces groupes sont-ils indépen-
dants ou non des franchises ? Une simple analyse factorielle des correspondances sur
SPSS permet d’indiquer une dépendance entre les profils de groupes et le choix des
franchises, comme cela est illustré dans la figure 14.5.

4. Conclusion

Au delà des illustrations fournies, nous voudrions en guise de conclusion met-


tre l’accent, non seulement sur la difficulté et la complexité de mise en œuvre des
méthodes proposées, mais aussi sur l’ambiguïté des options méthodologiques offertes
aux chercheurs et aux utilisateurs de ces méthodes.
402 L’analyse typologique : de l’exploratoire au confirmatoire

■ Difficulté et complexité des analyses, dans la mesure où la pratique est sou-


vent fort éloignée de la théorie. Ainsi, les modèles d’équations structurelles
avec classes latentes sont-ils théoriquement réalisables mais quasiment inexis-
tants dans la pratique, compte tenu des problèmes d’estimation rencontrés
(non convergence fréquente). Ainsi, seules des illustrations extrêmement sim-
ples sont-elles disponibles (Valette-Florence, 1998) et difficilement transposa-
bles à des problématiques théoriques beaucoup plus complexes. À cet égard, il
est paradoxalement recommandé d’opter pour des approches, certes moins
sophistiquées, mais beaucoup plus robustes permettant à coup sûr d’obtenir
une solution acceptable, tant sur un plan théorique que managérial ;
■ Ambiguïté des options méthodologiques offertes aux chercheurs, car des
résultats différents peuvent très bien être obtenus sur un même jeu de don-
nées. Veut-on simplement décrire, auquel cas le recours à une analyse facto-
rielle confirmatoire, suivie d’une analyse typologique classique, semble être
une alternative sûre et fiable, ou au contraire prédire, situation plus délicate
pour laquelle l’usage d’un modèle de régression par classes latentes semble
être à ce jour le démarche la plus judicieuse.
En tout état de cause, c’est toujours à l’analyste ou au chercheur qu’il impor-
tera de justifier ses choix méthodologiques et surtout de comparer plusieurs optiques
d’analyse avant de retenir celle qui lui semble la plus adéquate quant à sa probléma-
tique de recherche ou d’investigation.

Bibliographie
Aaker J.L. (1997), « Dimensions of brand personality », Journal of Marketing Research,
vol. 34, n° 3, pp. 347-356.
Allen N.J. et Meyer J. (1990), « The measurement and antecedents of affective, conti-
nuance, and normative commitment to the organization », Journal of Occupational
Psychology, vol. 63, pp. 1-18.
Anderson J.C. et Gerbing D.W. (1988), « Structural Equation Modeling in Practice : A
Review and Recommended Two-Step Approach », Psychological Bulletin, vol. 103,
n° 3, pp. 411-23.
Bagozzi R.P. (1981), « An examination of the validity of two models of attitude », Mul-
tivariate Behavioral Research, vol. 16, pp. 323-359.
Bentler P.M. et Dijkstra T. (1985), « Efficient estimation via linearization in structural
models », in P. R. Krishnaiah (Ed.), Multivariate Analysis VI, Amsterdam : North-Hol-
land, pp. 9-42.
Browne M. et Cudeck R. (1993), « Alternatives ways of assessing model fit », in K. Bol-
len et L.S. Long (eds), Testing Equation Models, Thousand Oaks, CA : Sage, pp. 136-
163.
Caumont D. et Chandon JL. (1989), « Quelques problèmes liés à la validité d’une
classification », Recherche et applications en Marketing, vol. 4, n° 3, pp. 77-93.
Dubost N., Gauzente C., Guilloux V., Roussel P. et Kalika M. (2000), « Franchise et cul-
ture managériale : étude des facteurs humains et organisationnels, versus franchi-
seur, conditionnant la pratique de la franchise — typologie de franchiseurs »,
Rapport CREPA Dauphine Paris IX — LIRHE Toulouse I, pour la Fédération Française de
la Franchise.
Bibliographie 403

Durrieu F. et Roussel P. (2002), « L’implication organisationnelle dans les réseaux de


franchises : un concept pertinent pour des entreprises en réseau ? », Revue de Ges-
tion des Ressources Humaines, n° 44, pp. 2-19.
Ferrandi J.M. et Valette-Florence P. (2002), « Premiers test et validation de la transpo-
sition d’une échelle de personnalité humaine aux marques », Recherche et Applica-
tions en Marketing, vol. 17, n° 3, pp. 21-40.
Ferrandi J-M., Fine-Falcy S. et Valette-Florence P. (1999), « L’échelle de personnalité
des marques de Aaker appliquée au contexte français : un premier test », Actes du
Congrès de l’Association Française de Marketing, Strasbourg, 15, pp. 1089-1112.
Gustafsson J-E. et Sthal P.A. (2000), STREAMS User’s guide version 2.5 for windows,
Mölndal, Sweden : Multivariate ware.
Jedidi K. Jagpal H. et Desarbo W. (1997), « STEMM : A general finite mixture structure
equation model », Journal of Classification, vol. 14, pp. 23-50.
Joreskog K. (1971), « Statistical analysis of sets of congeneric tests », Psychometrika,
vol. 36, n° 2. pp. 109-133.
Mardia K.V. (1974), « Applications of some measures of multivariate skewness and kur-
tosis in testing normality and robustness studies », Sankhya, B36, pp. 115-128.
Meyer J. et Allen N.J. (1991), « A three-component conceptualization of organizational
commitment », Human Resource Management Review, vol. 1, pp. 61-89.
Meyer J., Allen N.J. et Smith C.A. (1993), « Commitment to organizations and
occupations : extension and test of a three-component conceptualization », Journal
of Applied Psychology, vol. 78, 538-551.
Mowday R.T., Porter L.W. et Steers R.M. (1982), Employee-organization : the psychology
of commitment, absenteism and turnover, New York : Academic Press.
Muthen B. et Shedden K. (1999), « Finite mixture modelling with mixture outcomes
using the EM algorithm », Biometrics, vol. 55, pp. 463-469.
Muthen K.L. et Muthen B.O. (1998), Mplus User’s Guide, Los Angeles, CA : Muthen et
Muthen.
O’Reilly C.A. et Chatman J.A. (1986), « Organizational commitment and psychology
attachment : the effects of compliance, identification and internalization on proso-
cial behavior », Journal of Applied Psychology, vol. 71, n° 3, pp. 492-499.
Porter L.W., Steers R.M., Mowday R.T. et Boulian P. (1974), « Organizational commit-
ment, job satisfaction and turnover among psychiatric technicians », Journal of
Applied Psychology, vol. 59, pp. 603-609.
Valette-Florence P. (1998), « Apports des analyses hiérarchiques multiniveaux et des
modèles de mélange aux techniques de modélisation selon les équation structurelles
vers une troisième génération d’analyse multivariée », Actes du 14e congrès de l’Asso-
ciation Française de Marketing, mai, Bordeaux, pp. 695-712.
Valette-Florence P., Ferrandi J-M. et Usunier J-C (2001), « Le temps des
consommateurs : le cas du téléphone portable », Revue Française de Gestion, n° 132,
pp. 112-118.
Wedel M. (1997), Glimmix User’s Manual, Groningen : Progamma.
Wedel M. et De Sarbo W. (1995), « A mixture likelihood approach for generalized linear
models », Journal of Classification, vol. 12, n° 1, pp. 1-35.
Yuan K. H. et Bentler P. M. (1998), « Normal theory based test statistics in structural
equation modeling », British Journal of Mathematical and Statistical Psychology, vol.
51, pp. 289-309.
Conclusion :
ouvertures épistémologiques
Jacques IGALENS 1, Jean-Pierre NEVEU 2, Jacques ROJOT 3
Patrice ROUSSEL, Frédéric WACHEUX

Ce dernier chapitre tente à la fois de prendre de la distance par rapport à


l’usage apparemment mécanique qu’il peut être fait des méthodes exposées et
d’admettre le regard critique de chercheurs qui mettent en garde leurs utilisateurs
devant la tentation de reconnaître une avancée « scientifiquement prouvée » comme
une vérité définitive. Les connaissances en sciences humaines et sociales sont large-
ment tributaires des paradigmes dans lesquels s’inscrivent les chercheurs. Or, les pos-
tulats d’une recherche ne se limitent pas aux fondements théoriques qui les sous-
tendent, ils concernent également le cadre méthodologique choisi. C’est à cette
attention que les auteurs de ce chapitre nous invitent.
Les trois contributions de ce chapitre de conclusion proposent une réflexion
sur la position du chercheur face à une problématique de recherche. Elles soulignent
que les débats épistémologiques ne cherchent pas à distinguer le vrai du faux. Il ne
s’agit pas d’assigner ceux qui ont raison contre ceux qui ont tort. La réflexion propo-
sée présentement doit permettre à chacun d’expliciter les postulats qui sous-tendent
sa démarche. En effet, la validité des savoirs scientifiques dépend surtout de la cohé-
rence du paradigme, de la méthode et de l’objet de l’analyse. C’est le seul moyen de
maîtriser la condition de la production des connaissances.
Au-delà de l’analyse épistémologique, ces trois contributions illustrent égale-
ment l’esprit critique qui caractérise l’évaluation des travaux présentés dans les sup-
ports scientifiques (congrès et revues). Les analyses développées montrent comment
la réflexion épistémologique et l’évaluation critique contribuent à l’amélioration con-
tinue des méthodes de recherche développées en sciences sociales et en sciences de

1 Professeur à l’Université Toulouse 1.


2 Professeur à l’IEP de Bordeaux.
3 Professeur à l’Université Paris 2 Panthéon-Sorbonne.
406 Management des ressources humaines

gestion. Elles poussent les chercheurs à faire de nouveaux progrès afin de répondre
aux faiblesses qu’elles mettent en exergue.
La première contribution, proposée par Jacques Igalens, reflète une tradition
de la critique intellectuelle fondée sur l’érudition, l’expérience de direction de recher-
che et l’expression d’opinions personnelles. L’exercice de la critique vise à mettre en
garde les chercheurs devant les risques de scientisme et d’éloignement des chercheurs
vis-à-vis de grandes questions de société, en l’occurrence ici, de management des
entreprises. Cette contribution permet à tout chercheur débutant de se préparer à
l’exercice de la critique épistémologique auquel il pourra être confronté en situation
d’évaluation. Il s’agit ici d’un exercice révélateur du regard critique qui est porté sur
les travaux publiés dans les revues scientifiques lorsque les utilisateurs de méthodes
de recherche placent le questionnement de recherche et la modélisation théorique au
second rang de leur objectif. L’article scientifique devient alors un simple support des-
tiné à démontrer les capacités du chercheur à mobiliser avec brio un ensemble de
méthodes de recherche. L’étude du phénomène de gestion considéré se trouve alors
écrasée par un flot d’arguments méthodologiques. Deux chapitres servent de point
d’appui à l’analyse critique de Jacques Igalens, celui de Charles-Henri d’Arcimoles et
Stéphane Trébucq (chapitre 8), puis de Patrice Roussel (chapitre 9).
Ces deux chapitres de l’ouvrage sont, bien entendu, rédigés comme des textes
pédagogiques visant à présenter des méthodes d’analyse de données et leur articula-
tion au sein de démarches méthodologiques structurées. Leur objectif ne vise pas à
étudier avec précision des phénomènes de gestion, leurs fondements théoriques et les
implications de leurs résultats. De même que dans l’ensemble des chapitres de
l’ouvrage, un ou plusieurs exemples de phénomènes de gestion sont choisis pour
expliquer de manière détaillée la mise en place d’un plan de recherche méthodologi-
que permettant de résoudre un problème posé. Enfin, l’exercice critique proposé par
Jacques Igalens mêle analyses épistémologiques et développement d’opinions per-
sonnelles comme annoncé en préambule de sa contribution. Cela conduit parfois
l’auteur à formuler des arguments excessifs où l’opinion prend le pas sur les fonde-
ments méthodologiques et ignore les objectifs purement méthodologiques des chapi-
tres. Cependant, tout chercheur soumis à un processus d’évaluation dans une revue
académique ou un congrès scientifique doit accepter de s’exposer à ce type d’analyse
et se préparer à y faire face. Les deux chapitres cités en exemple donneront aux lec-
teurs, les clés nécessaires pour anticiper et surmonter la critique.
La deuxième contribution, de Jean-Pierre Neveu, propose une réflexion sur les
recherches qui se rattachent au courant constructiviste. Plusieurs chapitres du livre
sont analysés par l’auteur comme se référant à ce courant et conduisent à voir en lui,
une « solution paradigmatique propre à formaliser et conduire une démarche scientifi-
que originale ». Jean-Pierre Neveu s’attache dans un premier temps à définir le cons-
tructivisme en appui des chapitres 2, 3, 5 et 6 du livre. Il relève que ces travaux
présentent le constructivisme comme une alternative au positivisme, et le seul apte à
étudier et à comprendre les problèmes d’interactions « individu, organisation,
contexte ». Il apporte un regard critique à l’égard de cette position en tentant de
montrer que cette capacité n’est pas l’apanage du constructivisme. En mobilisant les
grands penseurs de la recherche scientifique pour nourrir sa réflexion, il appelle les
auteurs de ces chapitres à apporter une réponse claire sur l’apport distinctif de ce
Conclusion 407

courant au regard d’autres écoles de pensée (constructionnisme, contextualisme, inte-


ractionnisme, systémique). Sa critique devient ensuite plus forte, et traduit les oppo-
sitions classiques entre courants constructivistes et positivistes. L’auteur regrette que
les chercheurs justifient leur positionnement constructiviste par opposition aux fai-
blesses qu’ils attribuent au positivisme, au lieu de s’appuyer sur ses propres qualités.
En montrant les qualités intrinsèques de ces démarches épistémologiques et métho-
dologiques, ces travaux pourraient mieux les valoriser. Pour finir, Jean-Pierre Neveu
reprend à son compte les critiques traditionnelles des positivistes à l’égard des cons-
tructivistes, en déplorant les limites de l’observation et de l’immersion du chercheur
sur le terrain étudié. La question est soulevée quant à la validité des déductions ou
des propositions théoriques générées dans ces recherches. Les chercheurs s’expose-
raient à l’impossibilité d’établir des lois généralisables en raison d’observations qui
seraient tributaires des systèmes de valeurs, de croyances, de perceptions et des opi-
nions des chercheurs.
La troisième contribution, de Jacques Rojot, exprime le regard d’un positiviste
raisonné sur deux approches constructivistes : les chapitres de Frédéric Wacheux et de
Jean-Michel Plane. L’auteur relève sans ambiguïté les postulats fondamentaux de
cette épistémologie et montre les difficultés à conduire une recherche dans cette
approche. Il soulève les limites et les difficultés à tenir cette position par rapport à
l’objet des sciences de gestion. Il défend, par ailleurs, le caractère complémentaire
d’une approche plus positiviste. Sur ce dernier point, il existe encore de nombreuses
réflexions à mener. La complémentarité des méthodologies relève plus aujourd’hui de
la croyance que de la preuve ostensive. Jacques Rojot nous invite par son questionne-
ment à travailler dans cette direction.

1. Jacques IGALENS : sens de la recherche et recherche


de sens dans les sciences de gestion

Le sens de la recherche dans les sciences de gestion semble actuellement


déterminé par le progrès des méthodes et des techniques. Plusieurs indices peuvent
être convoqués à l’appui de cette opinion.
Lorsque la Fnege (Fondation nationale pour l’enseignement de la gestion des
entreprises) commença à exercer ses activités, elle fit le constat d’une faiblesse quan-
titative et qualitative de la recherche française en sciences de gestion. Elle encoura-
gea la diffusion et l’amélioration des techniques de recherche par des publications,
puis par la création du Cefag, cycle de formation pour les doctorants, aujourd’hui pro-
longé par des séminaires de méthodologie de la recherche organisés pour les jeunes
docteurs. La création du diplôme d’habilitation à diriger des recherches a également
joué un rôle car sa préparation a obligé les docteurs à se poser des questions sur les
méthodes de recherche dans un cadre plus large que celui qui avait été retenu pour
leur dissertation doctorale.
Les directeurs de recherche en gestion qui font régulièrement le point sur les
thèses universitaires soutenues, toutes sous-disciplines confondues, reconnaissent
que le niveau monte 4. La multiplication des revues scientifiques françaises en gestion
408 Management des ressources humaines

s’accompagne également, pour les plus anciennes d’entre elles, d’un taux de sélecti-
vité élevé, ce qui entraîne obligatoirement des exigences méthodologiques de plus en
plus sévères pour espérer être publié. Pour ne prendre que deux exemples, RAM
(Recherche et applications en marketing) affiche un taux de sélectivité d’un article
publié pour dix soumis et la Revue de gestion des ressources humaines d’un pour sept,
et encore faudrait-il tenir compte de l’autosélection, car plus une revue scientifique
est exigeante, moins elle reçoit de propositions. Un autre indice de ce progrès de la
recherche est constitué par le nombre croissant d’ouvrages consacrés aux méthodes
de recherche, qu’ils soient généraux ou spécialisés (Evrard et al., 1993 ; Igalens et
Roussel, 1998 ; Wacheux, 1998).
Ces ouvrages sont utilisés dans les cours de DEA, par les doctorants et tous
ceux qui constituent la communauté des chercheurs en gestion dans les écoles, les
universités, mais aussi certaines sociétés de conseil et certains départements de
grandes entreprises.
Sans avoir la prétention de bâtir un idéal type de la « bonne recherche » il
semble que pour avoir des chances d’être retenu dans un congrès international ou
d’être publié dans une revue académique (par opposition à revue professionnelle), le
candidat doit apporter la preuve de sa maîtrise des méthodes et des outils de recher-
che récents, ceux que l’on qualifie parfois de troisième, quatrième ou xième génération.
L’objet de cette contribution consiste à poser une question : n’y a t il pas un
risque que la course actuelle à l’amélioration des méthodes de recherche et des tech-
niques de traitement des données ne s’opère au détriment de l’intérêt de la recherche
elle-même ? Ce risque doit être précisé pour pouvoir être sereinement évalué car il ne
s’agit pas de faire preuve de nostalgie et encore moins d’évoquer un hypothétique âge
d’or de la recherche qui n’a jamais existé. Le risque auquel nous sommes confrontés
est celui d’une clôture autoréférentielle de la recherche qui nous éloignerait de plus
en plus des préoccupations des praticiens de la gestion.
Précisons qu’il ne s’agit nullement de sous-entendre que les praticiens sont les
seuls à même de juger de la qualité ou tout simplement de l’intérêt d’une recherche,
car souvent la recherche est en avance sur la pratique et il serait dangereux de ne
tenir compte que des retombées immédiates d’une recherche pour, par exemple, auto-
riser son financement.
Le risque évoqué est davantage celui d’une dérive, celle de chercheurs en ges-
tion qui emportés par la passion de la recherche en oublieraient l’objet de la recher-
che.
La gestion a parfois eu du mal à se démarquer de l’économie et la recherche en
gestion n’obéit pas aux finalités de la recherche en économie (Lorino, 1992).
Lorsqu’une technique de recherche pose plus de problèmes qu’elle n’en résout,
elle n’est pas adaptée aux sciences de gestion. Lorsqu’une technique de recherche
pose sans cesse de nouveaux problèmes qu’elle seule est capable de résoudre dans des
versions avancées qui elles-mêmes ne résoudront les problèmes anciens qu’en accep-
tant d’en endosser de nouveaux, il y a également un risque de dérive.

4 Cf. à ce sujet les différents rapports sur les recherches doctorales publiés à l’occasion des jour-
nées des IAE ou directement par la Fnege.
Conclusion 409

Enfin, et c’est le cas le plus courant (notamment dans les thèses de doctorat)
lorsqu’un chercheur ayant choisi un sujet intéressant pour la progression des connais-
sances en gestion et pour les gestionnaires semble oublier ses résultats pour ne se
consacrer qu’à des considérations méthodologiques, il y a un risque de dérive.
En d’autres termes, veillons à ce que le sens de la recherche ne s’épuise pas
dans la succession d’apparentes solutions qui ne font que déplacer les problèmes.
Toute discipline scientifique a besoin d’un discours de la méthode, mais en gestion,
l’un des critères essentiels consiste à vérifier que la méthode permet de répondre au
problème posé.
Conservons cette recherche de sens qui distingue les sciences sociales et tout
particulièrement les sciences de l’action dans lesquelles s’inscrivent les sciences de
gestion.
Les éditeurs m’ont demandé de réagir à deux chapitres que j’ai eu à choisir
parmi trois, j’ai retenu :
1. méthodes de régression et traitement des données financières et sociétales :
questionnements et applications (d’Arcimoles et Trébucq, chapitre 8) d’une
part ;
2. méthodes de développement d’échelles pour questionnaires d’enquête (Rous-
sel, chapitre 9), d’autre part.

Ces deux chapitres offrent un grand intérêt car ils se situent dans une perspec-
tive d’amélioration des techniques de recherche, notamment par l’utilisation de
méthodes nouvelles ou renouvelées de traitement des données ; l’un et l’autre utili-
sent des recherches déjà publiées et en quelque sorte les « revisitent ».
Examinons, dans un premier temps, le chapitre de d’Arcimoles et Trébucq. Pour
des raisons de clarté nous ne retiendrons que les deux premières parties de ce chapi-
tre, c’est-à-dire que nous ne réagirons pas à la troisième partie consacrée à l’action-
nariat salarié.
Quatre niveaux différents d’analyse sont présentés, chaque niveau étant conçu
pour apporter une valeur ajoutée par rapport au niveau précédent.
À la base, nous trouvons des entreprises qui composent un indice boursier
américain. Le premier niveau d’analyse est celui d’une agence de notation américaine
de Boston, KLD. Cette agence produit des données de performance sociale qui servent
(entre autres) à des investisseurs dans le cadre de l’ISR (investissement socialement
responsable). Le second niveau d’analyse est constitué par un article de recherche dû
à deux chercheurs, Waddock et Graves, qui croisent les données de l’agence KLD avec
des données de performance financière et concluent à l’existence d’une liaison entre
performance sociale et performance financière. Les chercheurs consacrent un quart de
l’article aux conséquences pratiques de leur découverte et notamment détaillent ce
qu’ils appellent le cercle vertueux de certaines entreprises. Le troisième niveau d’ana-
lyse prend également la forme d’un article de recherche publié trois ans plus tard dans
la même revue par McWilliams et Siegel qui, à partir des mêmes données que les
auteurs précédents, aboutissent à un résultat inverse en introduisant une nouvelle
variable, les dépenses de recherche-développement et les dépenses publicitaires. Au
passage les auteurs modifient sensiblement la mesure de la performance sociale sans
410 Management des ressources humaines

expliquer les raisons de cette modification 5. La discussion des résultats pratiques qui
occupait quatre pages précédemment est ici réduite à une page.
Le quatrième niveau d’analyse est celui de d’Arcimoles et Trébucq. Ces deux
auteurs critiquent les auteurs du niveau précédent :
« (ils) ne présentent pas de statistique F pour les différentes régressions effec-
tuées, ils n’abordent pas non plus les éventuels problèmes de colinéarité pouvant se
poser dans le cas d’une corrélation significative entre ces deux variables
explicatives… »
Ils s’intéressent ensuite aux entreprises françaises. Après avoir reproduit les
types d’analyse de Waddock et Graves puis de McWilliam et Siegel, ils proposent
« plusieurs améliorations sur la forme et le fond par rapport aux solutions retenues par
Waddock et Graves ou McWilliam et Siegel » :
– analyse factorielle ;
– analyse de multicolinéarité ;
– test de la normalité des résidus ;
– partial least square (PLS) afin de résoudre le problème des données manquan-
tes.
L’utilité de l’analyse factorielle pour s’assurer de la cohérence des données
sociétales, la supériorité de la méthode PLS sont longuement justifiées. En revanche
lorsqu’on arrive à un résultat qui met en évidence « qu’une gestion partenariale don-
nant la faveur aux clients et aux fournisseurs pourrait s’exercer au détriment de la
performance financière » et que cette influence disparaît lorsqu’on introduit la varia-
ble « R&D sur Ventes » le lecteur, qu’il soit chercheur ou praticien, ne peut manquer
de s’interroger.
Pourquoi, par quels mécanismes une gestion de la qualité influence-t-elle
négativement la performance ? Dans la mesure où les auteurs ne fournissent pas de
réponse, le lecteur qui veut comprendre par lui-même doit effectuer le chemin à
l’envers : il a des résultats, mais quelle est la théorie ?
QUAL, cette variable qui influence négativement la performance, est une varia-
ble qui entre dans la mesure du concept de performance sociale (ou sociétale) de
l’entreprise. Mais qu’est-ce que la performance sociale de l’entreprise ? Dans la mesure
où l’article de quatrième niveau est muet sur ce point, il faut se reporter à l’article
princeps de Waddock et Graves, qui écrivent :
« CSP is a multidimensional construct with behaviors ranging across a wide
variety of inputs (e.g. investment in pollution control equipment or other environ-
mental strateies), internal behaviors or processes (treatment of women and minori-
ties, nature of products produced, relationships with customer), and outputs (e.g.
community relations and philanthropic programs) ».

5 La meilleure méta-analyse sur les relations entre performance sociale et performance économi-
que portant sur 52 études conclut à une association positive modérée bidirectionnelle et simultanée,
mais les différences d’échantillonnage ou de définitions de la performance sociale expliquent entre
15 et 100 % de la variation de la corrélation d’une étude à l’autre (Orlitzky et al., 2003).
Conclusion 411

Les lecteurs habitués aux démarches qualité reconnaîtront une présentation


classique qui consiste à isoler un flux entrant, un processus de transformation et un
flux de sortie, ce type de présentation est très utilisé dans le cadre de la reconfigura-
tion lorsqu’il faut, par exemple, simplifier l’organisation ou la recentrer sur son cœur
de métier. Utiliser un tel vocabulaire (input, process, output) suppose qu’on ait préa-
lablement isolé le sens de la chaîne que l’on présente. On trouve souvent ce sens
autour de verbes tels que produire, vendre, livrer, maintenir, etc.
Mais en l’espèce, en quoi la nature des produits fabriqués, les programmes phi-
lanthropiques, le traitement des femmes et les équipements anti-pollution relèvent-
ils d’un sens commun, voire d’un concept ? Un concept prend sens dans une théorie,
quelle théorie me permet de mettre cet inventaire hétéroclite dans le même
réceptacle ?
Waddock et Graves n’argumentent pas cette question, mais font valoir que
l’existence des agences de notation sociale se traduit par la production d’information
sur ces sujets et que cette information oriente le comportement de certains investis-
seurs (ISR).
Rappelons-nous qu’un jour, face à la difficulté de définir l’intelligence,
quelqu’un a proposé de la définir comme ce qui était mesuré par ces petits rébus que
l’on appelle tests d’intelligence. Dans le même esprit, le champ de l’économétrie a été
défini comme étant ce qui était publié dans la revue Econometrica. Pourquoi ne pas
accepter que la définition de la performance sociale devienne :« ce qui est mesuré par
les agences de notation sociale » ?
Aucune autre définition ne permet de rendre compte d’un périmètre aussi
étrange et cette définition n’est pas stérile puisque les agences, par leur prise en
compte de ces différents domaines, produisent certainement des effets : sur l’ISR,
mais aussi des effets en retour sur les entreprises qui sont amenées à réagir pour être
bien notées.
Si l’on accepte cette définition, le concept trouve une nouvelle vigueur car il
peut s’articuler dans des théories telles que les choix de portefeuille (pour la part
ISR) ou le néo-institutionnalisme pour les effets en retour de la notation sur l’organi-
sation, les engagements et la communication des entreprises.
En revanche, ce qui pose problème, c’est que l’agence américaine KLD et
l’agence française ARESE n’ont absolument pas la même façon de mesurer la perfor-
mance sociale de l’entreprise, à certains égards leurs conceptions sont même oppo-
sées (sur le problème de l’exclusion notamment).
La performance sociale KLD n’est pas la performance sociale ARESE et donc il
faudrait expliquer pourquoi la performance sociale KLD devrait être reliée à la perfor-
mance financière (ce que Waddock et Graves font très rapidement) et pourquoi la per-
formance sociale ARESE devrait être reliée à la performance financière (ce que
d’Arcimoles et Trébucq ne font pas).
Quel est ici, au fond, le sens de la recherche de d’Arcimoles et Trébucq ? C’est
la réplication d’une recherche américaine (avec des améliorations statistiques incon-
testables). Pour que cette réplication ait du sens, du point de vue des sciences de
gestion, il faudrait qu’elle nous apporte des connaissances sur les liaisons entre per-
412 Management des ressources humaines

formance sociale et performance économique. Nous sommes dans un cas intéressant


où la légitimité d’une recherche est articulée autour de trois éléments, des données,
des méthodes de traitement des données et une caution scientifique matérialisée par
deux articles d’une excellente revue américaine.
Le problème est que les résultats du premier article de cette excellente revue
sont faux (selon Mcwilliams et Siegel), que la méthodologie du second souffre de gra-
ves insuffisances (selon d’Arcimoles et Trébucq) et que la réplication effectuée dans le
troisième s’attache tellement à perfectionner les modalités de traitement des données
qu’elle n’interroge ni la théorie ni les concepts, ce qui pose des problèmes quasi
insurmontables d’interprétation des résultats et d’ailleurs les résultats ne sont pas
interprétés ; si Waddock et Graves consacraient 25 % de leur texte à l’analyse des
résultats, Mcwilliams et Siegel 10 %, nous sommes ici à 1 % …
Enfin, il me semble que le risque évoqué de dérive est encore plus présent dans
la recommandation des auteurs pour des recherches futures. Ils plaident pour une
« accumulation de résultats empiriques », « une analyse particulièrement rigoureuse
des résultats » qui, au vu des orientations, du sens même de leur contribution, doi-
vent être obtenues par des méthodes toujours plus complexes de traitement des don-
nées alors qu’en l’espèce les progrès futurs sur cette question importante me
paraissent dépendre de la recherche de sens : que veut dire « performance sociale »
et, une fois qu’on a répondu à cette question, pourquoi et comment une liaison
devrait-elle exister entre performance sociale et performance économique ?
Si on retient une définition telle que celle que j’ai proposée (et qui me semble
la seule capable de justifier le type de mesure effectué par la suite concernant la per-
formance sociale), il est évident que l’on a plus à attendre de recherches qui s’efforce-
ront de comprendre comment travaillent les gestionnaires de fonds socialement
responsables ou comment se mettent en place des mécanismes d’apprentissage dans
les entreprises que d’un nouveau traitement des données KLD ou ARESE. Il y a égale-
ment une incidence du cadre théorique et conceptuel retenu sur l’autre terme de la
recherche (que j’ai peu évoqué mais qui mériterait autant d’attention), la performance
financière. La performance financière est un construit et aucune variable ne s’impose
a priori ; toute mesure doit être appropriée au type de question que l’on se pose (la
recherche de sens). Dans le cadre de l’ISR par exemple, je pencherais plus du coté de
la mesure de la performance boursière que des variables de rentabilité retenues par
les auteurs cités.
En conclusion le chapitre de d’Arcimoles et Trébucq permet de mettre en évi-
dence l’un des risques de dérive évoqués en introduction : celui qui érige le traite-
ment des données en finalité ; parodiant Pirandello, un auteur a évoqué, à propos de
la performance sociale, « des données en quête de théorie ». Gareth Morgan (1989,
p. 14) est encore plus précis quand il écrit « quand vous n’avez en main qu’un mar-
teau tous les problèmes ressemblent à des clous », en l’occurrence il s’agit souvent
d’un marteau-pilon.
Voyons maintenant le chapitre « Méthodes de développement d’échelles pour
questionnaires : une application aux échelles d’attitude » de Roussel (chapitre 9).
Ici aussi nous trouvons quatre niveaux d’analyse. Au premier niveau se trouve
un chercheur en sciences de gestion (en marketing ou en GRH le plus souvent) qui,
Conclusion 413

pour mener à bien sa recherche, doit procéder à des mesures ; le cas est à peu près
inverse du précédent : nous supposons qu’il dispose d’un cadre théorique solide, de
concepts bien définis et que, classiquement, il cherche à étudier l’articulation de ces
concepts compte tenu de facteurs de contingence. Au second niveau se situe le para-
digme de Churchill, qui n’est pas un paradigme mais une méthode conçue pour répon-
dre aux attentes de notre chercheur en lui proposant une démarche systématique en
huit étapes. Le troisième niveau correspond à la pratique des chercheurs qui s’est
développée depuis quelques années en incluant au paradigme de Churchill une ana-
lyse factorielle confirmatoire et en le prolongeant par des modèles d’équations struc-
turelles. Pour notre chercheur, depuis l’apparition de logiciels spécialisés, le recours
aux modèles d’équations structurelles n’offre que des avantages. En premier lieu et
sans que la raison soit vraiment connue, cette méthode est dite avancée ; or, dans le
train de la recherche, il est plus utile d’être dans un wagon de tête que de savoir où
on va. En second lieu, je n’ai encore jamais lu une recherche qui après un recours aux
modèles d’équations structurelles aboutisse au constat suivant : mon cadre théorique
ne tient pas la route.
Le chercheur teste plusieurs modèles théoriques et retient celui qui s’ajuste au
mieux aux données qu’il a collectées. Seul un puriste pourrait s’étonner qu’un modèle
s’ajuste au mieux à des données alors qu’une certaine logique formelle pourrait impo-
ser que ce soit les données qui s’ajustent au modèle. Comme l’écrit Roussel,
« l’utilisation des analyses factorielles confirmatoires et des modèles d’équations
structurelles introduit l’estimation systématique des erreurs de mesure dans le traite-
ment des données », ce qui peut être interprété par notre chercheur comme un cin-
glant démenti de l’imprécation que me jetaient mes maîtres lorsque j’étais étudiant
doctoral, GIGO ! (Garbage In, Garbage Out !)
À certains égards les logiciels d’équations structurelles sont devenus les
machines à laver de la recherche en gestion, on peut y placer des données très sales
et en ressortir un modèle tout propre sachant que peu de personnes ont le courage de
passer la tête à l’intérieur d’une machine à laver pour comprendre son fonctionne-
ment…
Le quatrième niveau correspond, en toute logique, à un dépassement du
troisième « Les recherches récentes … recommandent d’utiliser l’analyse factorielle
en axes principaux, qui, elle, procède à l’estimation des erreurs de mesure des
variables. » L’auteur rappelle enfin que les modèles d’équations structurelles exigent
de construire plusieurs agrégats pour chaque facette du construit :« Les travaux
récents conduisent à recommander de construire au minimum trois indicateurs pour
chaque variable latente, chaque indicateur devant être le score moyen ou la somme
totale d’au minimum deux items ». Cette technique dite du parcelling résout donc cer-
tains problèmes posés par l’utilisation des modèles d’équations structurelles qui
avaient (abusivement ?) été sollicités par les chercheurs pour aller au-delà du para-
digme de Churchill. La technique du parcelling elle-même n’est pas exempte de criti-
ques, ne serait-ce que le préformatage qu’elle impose tant au niveau du nombre de
facettes du construit que des items constituant chacune de ces facettes. Espérons que
demain un spécialiste nous proposera un parcelling étendu qui réduira ces contraintes
mais redoutons que cette extension ne s’opère au prix de nouvelles conditions restric-
tives ou limitatives.
414 Management des ressources humaines

Cet exemple illustre une autre dérive : l’utilisation de certaines méthodes de


recherche pose des problèmes que seul un dépassement de ces méthodes est capable
de résoudre. En quoi est-ce une dérive et non pas un progrès ?
Il y a dérive lorsqu’au terme d’un tel empilement on oublie la portée et le sens
de la recherche. Dans le chapitre analysé, l’auteur illustre son propos à partir des don-
nées relatives à un sujet essentiel pour la GRH, la satisfaction au travail. Il s’agit pour
lui de trouver la structure de la satisfaction au travail et l’auteur atteint parfaitement
son objectif à partir d’une construction purement herzbergienne : satisfaction intrin-
sèque et satisfaction extrinsèque. Cette structure bidimensionnelle est meilleure que
celle proposée, par exemple, par les créateurs du MSQ qui a pourtant généré aux
États-Unis d’innombrables applications.
Dans cette nouvelle structure, il me semble important de relever que disparais-
sent la satisfaction par rapport au salaire et celle par rapport aux possibilités d’avan-
cement alors que ces deux items constituaient un facteur pour les auteurs du MSQ. En
d’autres termes, lorsqu’on pose la question « dans votre emploi actuel, êtes vous
satisfait ? » et que l’on propose, parmi d’autres, un item relatif au salaire (« de votre
salaire par rapport à l’importance du travail que vous faites ») il apparaît dans la nou-
velle construction de la satisfaction au travail que les réponses relatives à cet item ne
doivent pas être prises en considération. Résultat surprenant car ne correspondant à
aucune théorie (dans le cadre de la théorie d’Herzberg il y eut une controverse pour
savoir s’il fallait placer la rémunération entièrement du côté des facteurs d’hygiène,
mais nul n’a jamais douté que le salaire joue un rôle dans la satisfaction au travail).
Par ailleurs, la perception des conditions de travail est agrégée pour Roussel à la
satisfaction extrinsèque, ce qui n’est pas non plus le cas du MSQ. Ces résultats posent
des questions de recherche essentielles, s’agit-il d’un artefact dû à des biais, s’agit-il
d’une meilleure compréhension du construit rendue possible par de nouvelles métho-
des de recherche, s’agit-il de modifications dues à des différences dans le temps (les
études américaines sont assez anciennes) ou dans l’espace (les Français versus les
Américains). Une ligne est consacrée à ces résultats :« nous pouvons constater que
seul le modèle trois répond à l’ensemble des critères d’ajustement ».
Ici le sens de la recherche, ce qui légitime ce papier par rapport à d’autres déjà
écrits par l’auteur sur les mêmes sujets, c’est la présentation d’un ultime raffinement,
le parcelling, qui me paraît poser autant de problèmes qu’il en résout. En revanche, les
techniques présentées par l’auteur sont utilisées sur de vraies données qui renvoient
à une vraie question de recherche et qui donnent des résultats que je trouve contre-
intuitifs ou, au minimum, paradoxaux par rapport aux recherches précédentes et
même par rapport à une recherche utilisant les mêmes données, à savoir la thèse
publiée de P. Roussel.
Ces résultats méritent discussion (la recherche du sens), sinon la recherche en
gestion devient un pur discours de la méthode au risque d’une coupure durable avec
notre milieu naturel qui est celui des organisations.
En conclusion, je voudrais exprimer combien l’exercice proposé par les éditeurs
m’avait initialement séduit, mais je n’en ai compris les difficultés qu’en cours de
route. La principale fut de trouver une problématique commune pour traiter les deux
chapitres choisis qui sont très différents. La seconde, je ne doute pas que les trois
Conclusion 415

auteurs concernés l’admettront : on ne peut accepter une telle commande sans se


mettre dans une posture critique, ce qui ne veut pas dire que le jugement global porté
sur l’un et l’autre chapitres soit négatif. Tout au contraire, il est positif et je ne doute
pas que la contribution de d’Arcimoles et Trébucq au débat de la liaison ou de
l’absence de liaison entre performances sociale et économique sera souvent reprise, et
pour ses qualités méthodologiques, et pour ses résultats. Quant à Roussel, il nous
livre ici la plus pédagogique des présentations du paradigme de Churchill qui
demeure, en dépit des limites également bien expliquées, une méthode robuste de
création de mesures et (in fine) de développement de normes dont le besoin est
important et permanent dans nos disciplines.

2. Jean-Pierre NEVEU : de la notion de constructivisme


appliquée aux sciences de gestion

Une contribution épistémologique est toujours une entreprise délicate à


mener. Délicate parce que l’exercice est tout d’abord difficile et se heurte à un type de
complexité intellectuelle qui ne correspond pas au type de démarche habituellement
suivie en gestion. Ensuite, réfléchir sur la façon d’appréhender et de conduire la
démarche scientifique fait appel à des connaissances, voire à une familiarité, d’un
corpus de notions tellement vaste qu’impossible à embrasser dans sa totalité. De fait,
toute contribution en la matière, et la nôtre bien évidemment, ne peut aspirer à la
crédibilité que d’une façon des plus relatives, comme une soumission de contribution
au corpus écrasant des écrits déjà existants. Ainsi conscient de ces difficultés, nous
invitons le lecteur à nous suivre dans un exercice appliqué de réflexion concernant
une proposition théorique qui, depuis une dizaine d’années, anime intérêt et contro-
verses dans le monde francophone des sciences de gestion : le constructivisme.

Depuis les interrogations pionnières de Le Moigne (1990), jusqu’à des dévelop-


pements plus récents (Wacheux, 1996), la notion de constructivisme s’est peu à peu
installée dans le panorama des théories de l’organisation jusqu’à susciter un certain
engouement dont témoignent les quelques contributions de cet ouvrage. Notion poly-
morphe, elle occupe avec autant de vitalité les divers niveaux d’analyse théorique et
empirique. En clair, elle se pose en solution paradigmatique propre à formaliser et
conduire une démarche scientifique originale.

Nous appuyant sur la lecture d’un ensemble de textes publiés dans cet
ouvrage, nous aborderons une sélection de thèmes justifiant, de notre point de vue, la
poursuite d’efforts en vue de concrétiser les ambitions exprimées par la proposition
constructiviste. Dissipant à l’avance tout malentendu possible, nous voudrions préci-
ser que nous ne sommes absolument pas opposé au constructivisme, mais que les
remarques éventuellement critiques que nous serons amené à formuler vont plutôt
dans le sens d’interrogations incitatrices de plus grande robustesse conceptuelle et
méthodologique. Notre démarche se veut donc constructive dans le souci de préserver
la plus grande ouverture théorique du champ des sciences de gestion.
416 Management des ressources humaines

2.1 CONSTRUCTIVISME : QUELLE DÉFINITION ?


En 1997, se tenait un colloque spécialement destiné à apprécier et à évaluer le
phénomène constructiviste en sciences de gestion (Louart et Desreumaux, 1997). Les
organisateurs de l’événement avaient pris soin de présenter la notion à la fois au sin-
gulier et au pluriel, une mesure avertie au vu de la diversité des chemins empruntés.
Il est regrettable qu’aucune contribution de cet ouvrage ne mentionne directement ce
colloque, ou bien même n’en tire de réels enseignements. De fait, un certain nombre
de questions demeurent en suspens ; et l’absence de réponses précises nuit, in fine, à
la démonstration dans son ensemble. Notre point de départ sera ainsi d’appréhender
certains problèmes de définition tels qu’ils nous sont apparus à la lecture de diverses
contributions. Ceci représente une phase préliminaire essentielle car elle condition-
nera pour une bonne part la validité méthodologique des développements scientifi-
ques ultérieurs.
Pour reprendre Plane, la nature du constructivisme est celle d’un « processus
d’enactment dans lequel la production scientifique est une forme de construction
sociale ». Gombault exprime une vue identique quand elle précise que « le contexte
peut difficilement être appréhendé autrement que par un couple sujet-objet régi par
l’échange, qui produit la réalité ». De même, Husser apparente le constructivisme aux
jeux de processus interactifs entre une variété d’acteurs « par lesquels un contenu
(…) évolue dans un contexte particulier ». Il ressort ainsi de ces présentations une
définition globale du constructivisme fondant son originalité sur la prise en compte
d’un contexte (environnement, circonstances) déterminé par la nature de l’activité et
produit d’une intentionnalité caractéristique de sa texture (relations, interactions). La
récurrence de références bibliographiques communes (notamment Berger et Luck-
mann, Gergen, Garfinkel) conforte l’impression d’une unité conceptuelle.
Pourtant, à y regarder de plus près, cette cohérence conceptuelle n’est que de
façade et reflète avant tout l’option théorique des auteurs. Leur choix, en soi absolu-
ment recevable, ne saurait néanmoins justifier l’originalité de cette fameuse démarche
« constructiviste » par rapport à d’autres courants eux aussi intéressés par le rapport
dialectique du contexte avec sa texture. Sous-estimer les conséquences de cette
variété au point de ne la mentionner qu’en note de bas de page (Plane, nous renvoie
à la cohérence d’un éventuel paradigme constructiviste) semble illustrer, de façon
caractéristique, un net manque de lisibilité théorique. Car, en fin de compte, à quoi se
réfère-t-on au juste ? En effet, l’intérêt porté à l’étude des actions sociales sous
l’angle d’une quête de sens qui dépasse le stade de la description d’événements exter-
nes est une des caractéristiques historiques des sciences sociales. Pourquoi, par
exemple, ne pas invoquer Durkheim (1988/1894 6, 1912) qui accrédite la notion
d’institution en soulignant l’importance du rôle des croyances et de la culture pour la
compréhension des pratiques sociales ? Posture d’autant plus étrange que le sociolo-
gue français appréciait la philosophie pragmatique américaine qui, par le truchement
d’un G.H. Mead, conditionna l’émergence du courant interactionniste dont se réclame,
entre autres, le constructivisme ? Pourquoi encore ne pas assurer l’originalité du cons-
tructivisme par rapport à d’autres auteurs, d’autres courants, eux aussi intéressés par

6 Cette notation de deux dates est utilisée 1) pour indiquer la première édition d’un ouvrage
étranger, 2) l’édition française d’une citation.
Conclusion 417

l’étude des relations sociales fondée sur la signification de l’interaction


contexte — individu ? Comment se situe ainsi le constructivisme par rapport au cons-
tructionnisme (Gergen et Davis, 1985), ou encore au contextualisme (Rosnow et Geor-
goudi, 1986), ce dernier étant particulièrement soucieux de se distinguer de la
systémique et du constructivisme de Watzlawick ? Invoquer une éventuelle unité para-
digmatique sous-jacente à ces démarches nous paraît davantage une esquive qu’une
réponse véritable aux enjeux scientifiques posés. Qui songerait, par exemple, à mettre
dans un même panier J.B. Watson et A. Bandura sous prétexte qu’ils « habitent » le
même « paradigme fonctionnaliste » (Burrell et Morgan, 1979) ?
Le problème soulevé par ce manque de clarté dans la définition contraste avec
l’unanimité critique portée à l’encontre du positivisme. Le constructivisme ne devrait-
il donc sa raison d’être que par une définition négative ? Et même, à quoi les auteurs
se réfèrent-t-ils plus précisément quand ils invoquent le positivisme, dans la mesure
où à la lecture des diverses contributions, le principe du pouvoir de la raison à géné-
raliser et l’acceptation d’une ontologie réaliste ne semblent pas être remis foncière-
ment en cause ? Foncièrement, seulement, car sur ce dernier point, l’ambiguïté
parfois persiste. Plane, par exemple, nous suggère un constructivisme à la fois,
« radical (déniant) toute réalité aux phénomènes sociaux » (idéalisme) et un autre,
d’essence implicitement réaliste, qui « se veut une analyse immanente du réel ».
Comme nous allons essayer de le montrer, il semble que la cause d’un tel
embarras conceptuel réside dans le biais initial majeur d’une confusion de genre entre
les niveaux d’analyse épistémologique et méthodologique.

2.2 CONSTRUCTIVISME : QUEL NIVEAU D’ANALYSE ?


De la lecture des travaux « constructivistes » de cet ouvrage, il se dégage une
constatation : tous sont de nature empirique et la seule contribution théorique
(Chanlat) se préoccupe essentiellement de méthode. Il ressort ainsi une idée du cons-
tructivisme comme celle d’une notion relevant essentiellement du registre méthodolo-
gique. L’ambition épistémologique affichée par les auteurs nous indique exactement
le contraire. Pourtant, il nous semble que ceux-ci ont tendance à prendre la méthode
pour la doctrine (« un tel positionnement épistémologique — le constructivisme —
s’appuie sur des choix méthodologiques », reconnaît sans problème Plane) et que, de
ce fait, ils négligent le bien-fondé de leur démarche en prenant pour acquis un dis-
cours théorique qui ne l’est pas.
Un élément paraît acquis : l’association constructivisme/méthodes qualitati-
ves. Cependant, une telle constatation alimente la confusion plutôt qu’elle ne la dis-
sipe car, de même que les méthodes quantitatives peuvent être utilisées dans les
disciplines d’études culturelles (Bernard, R. H., 1988), la recherche qualitative n’est
pas l’apanage d’un paradigme interprétatif. Quoique écartant tout recours à des
modes statistiques d’analyse de données, le « qualitativisme » n’exclut en rien
l’option d’un positivisme qualitatif (Prasad et Prasad, 2002). L’interprétation du quoti-
dien peut se faire sur les bases d’une formulation théorique naturaliste (Douglas,
1973) qui reconnaît la réalité d’un monde externe objectif, un fact-world indépendant
(Natanson, 1962). En réalité, la recherche qualitative, qualifiée de « terme omnibus »
(Prasad et Prasad, 2002, p. 6) mobilise une véritable armée espagnole de perspecti-
418 Management des ressources humaines

ves et de procédures dont la cohérence paradigmatique est illusoire : observation par-


ticipante, interactionnisme symbolique, ethnométhodologie, ethnologie,
phénoménologie, récits de vie, grounded theory analysis, féminisme, herméneutique,
antilibéralisme, « réformisme », etc. Peu suspect de sympathies « quantophréniques »
(Sorokin, 1959/1956), Douglas (1973) avait pourtant mis en garde contre les travers
de démarches qualitatives non maîtrisées qui prétendent déduire des théories généra-
lisantes de la libre, et « spontanée », expression des expériences quotidiennes. Ainsi,
pour lui, les pages d’un Goffman relèvent davantage du journalisme réaliste à la Nor-
man Mailer (le Gunter Wallraff de Chanlat ?) que de la véritable investigation scienti-
fique.

À longueur de revues parmi les plus accessibles, il est répété combien la que-
relle des méthodes quali vs quanti est infondée, qu’elle ne correspond pas à la réalité
du travail scientifique et que la fameuse séparation établie par Weber entre approches
compréhensives et approches explicatives ne correspond pas à la réalité historique 7
(Mucchielli, 1994, 1998). Concernant les méthodes, il est vrai que le recours au for-
malisme de modélisations chiffrées peut parfois éloigner le chercheur du terrain au
point de le rapprocher du monde abstrait des mathématiques. Ceci pose un problème
à la mission scientifique appliquée des sciences de gestion. Mais le chiffre en lui-
même n’est rien car c’est la façon dont il est utilisé qui lui confère sa réputation
(Gould, 1996). Le vice inhérent aux méthodes quantitatives est d’induire une routine
de l’investigation, une standardisation progressive des connaissances que facilite le
recours aux technologies de l’informatique. Une véritable « MacDonalisation » de la
science, pour reprendre l’image de Ritzer (1993). Certaines revues (et pas uniquement
nord-américaines) accueillent ainsi des contributions n’apportant véritablement rien
d’autre au domaine qu’une énième validation de modèles pré-établis de seule garantie
académique. Mais ceci représente un excès du courant quantitativiste, qui ne doit
conduire ni à « jeter le bébé avec l’eau du bain », ni à accepter de façon béate un
qualitativisme salvateur. L’étude non experte du discours a aussi ses dangers, menant
le scientifique insouciant, ou inconscient, tout droit vers le lieu commun, ou le
sophisme militant. Ayant en tête les remarquables études qualitatives d’un Van Maa-
nen évoquées par Chanlat, que penser, en effet, de certaines références (aussi réper-
toriées par Chanlat) comme Enriquez ou encore Pagès, types même de ces démarches
non scientifiques tant décriées par Popper ? Le cas Bourdieu est quant à lui devenu
un véritable cas d’école en matière de méthodologie douteuse : opinions tenant lieu
d’hypothèses, échantillons d’études non contrôlés, délégations d’entretiens à du per-
sonnel non formé (Verdès-Leroux, 1998).

Si l’on peut tout faire dire à un chiffre, quoi de plus redoutable qu’un mot,
qu’un geste ou qu’une conduite ? Sûre de son fait, Gombault ironise sur l’approche
quantitative « qui ne se salit pas le bas du pantalon », (reprenant ainsi une réflexion
de R. Park), et de nous assurer que ses données, à elles, sont le résultat d’un travail
« entièrement réalisé à la main, artisanalement (sic) pourrait-on dire ». Le discours
prend parfois un tour véritablement intégriste, Chanlat n’hésitant pas à opposer le
quantitatif à « l’humain », et Gombault nous annonçant avoir écarté le recours à un

7 Rappelons que Max Weber, si souvent invoqué comme une des références fondamentales de la
démarche constructiviste fut avant tout un générateur de réflexions, toujours « propre sur lui ».
Conclusion 419

logiciel d’analyse de données, « un artifice inutile ou d’un apport marginal au mouve-


ment de réflexion, voire risquant de l’entraver en l’encombrant ». Du point de vue de
la recherche scientifique, un comportement de rejet aussi vif et catégorique nous
semble plus à même de déchaîner les passions que de contribuer, de façon plus
sereine et fondée, à une démonstration de validité du « paradigme constructiviste ».
Au risque d’écorcher certaines opinions toutes faites, nous voudrions revenir une fois
de plus à Durkheim pour qui, seule l’observation doit éventuellement donner matière
à la formalisation théorique, la sanction en étant l’apriorisme où « c’est donc (…)
une certaine manière de concevoir la réalité sociale qui se substitue à cette réalité »
(Durkheim, 1988/1894, p. 115). Cette dérive dénoncée par Durkheim comme une tare
du positivisme (chez Comte, Spencer, notamment), a pour effet désastreux de diluer
la science dans l’opinion (pour reprendre la distinction de Bachelard, 1934), de subs-
tituer les commandements aux lois scientifiques, bref de remplacer la science par
l’idéologie. C’est ainsi, poursuit Durkheim (ibid., p. 119), que l’investigation scientifi-
que cède le pas à l’art, que « maximes d’actions » et « préceptes déguisés » usurpent
la place de lois issues de « l’expérience » et de la « comparaison méthodique ». C’est
bien un comble de lire sous la plume de Chanlat les propos suivants qu’un Auguste
Comte n’aurait certainement pas désavoués, lui qui avait une volonté messianique de
monde meilleur : « N’est-ce pas aussi cela, faire de la recherche : contribuer au bien-
être de l’espèce humaine. L’interrogation scientifique rejoignant ainsi l’impératif (sic)
éthique ».

2.3 CONSTRUCTIVISME : QUEL TYPE DE CHERCHEUR ?


Nous en venons enfin à un troisième thème soulevé par la proposition cons-
tructiviste, celui de la place et du rôle du chercheur. L’importance du sujet est sou-
vent relevée comme en témoignent les démonstrations théoriques de Plane et de
Chanlat, ou encore la recherche empirique de Gombault. Mais, une fois de plus, nous
voudrions revenir sur un certain nombre de points exprimés qui nous semblent davan-
tage obscurcir le propos que d’en dégager la pertinence avec netteté.
Les diverses contributions témoignent de l’influence des recherches en ethno-
logie / anthropologie sur la définition du rôle de chercheur. Sur un plan purement
technique, tout d’abord, associer la démarche d’un Malinowski à celle d’un Mayo, par
exemple, nous semble assez périlleux. Tout d’abord, parce que la posture même des
ethnologues immergés dans le terrain varie beaucoup entre individus. Malinowski
avait une approche « active » de l’investigation, alors que Margaret Mead, beaucoup
plus « passive », « recevait » dans sa hutte les discours des jeunes Samoans s’y ren-
dant exprès. Les deux chercheurs étaient bien sur le terrain, mais « participaient » de
façon fort différente. Nous renvoyons le lecteur intéressé par ce point de méthode en
ethnologie vers l’ouvrage fort éclairant, et souvent cocasse, de Georges et Jones
(1980) qui relatent les comportements de « ceux qui cherchent ». Quant au Profes-
seur Elton Mayo, il est certain qu’il ne s’est pas beaucoup « sali le bas du pantalon »
dans ses recherches, ou du moins pas autant que Roetlisberger et Dickson (1939),
véritables instigateurs des expériences à la Western Electric.
Comme nous l’enseigne la doctrine depuis Kant (1987/1781) et, à sa façon
plus polémique, Schopenhauer (1966/1859), il est futile de vouloir prétendre à la
420 Management des ressources humaines

connaissance de la chose en soi. Ainsi, la proximité du terrain ne garantit pas en elle-


même une meilleure connaissance de l’intérieur des phénomènes sociaux observés.
Chanlat nous cite, avec raison, l’exemple des ethnologues. Nous pourrions y ajouter
celui des grands voyageurs. Ainsi, T.E. Lawrence reconnaît-il dans ses « mémoires »
qu’une indigénisation, (going native, une véritable compréhension « fusionnelle »
avec un environnement autre que celui dont l’observateur-acteur est issu, est une
entreprise illusoire : « (…) L’homme qui agit ainsi abandonne son propre milieu ; il
prétend à celui d’autrui ; et les prétentions sont vaines (…) Mais comment se faire
une peau d’Arabe 8 ? Ce fut, de ma part, affectation pure » (2002/1935, p. 50). Le
chercheur n’est généralement pas dupe du fait que l’observé l’observe. Même Skinner
en était parfaitement conscient (Bjork, 1993). Ce qui importe, c’est que le chercheur
s’en rende suffisamment compte afin de définir les limites des résultats obtenus. Qua-
litativistes et quantitativistes sont ainsi également tenus par un devoir d’honnêteté
intellectuelle et d’intégrité scientifique.
Il existe une autre difficulté propre à l’élan qualitativiste : celle qui consiste,
par péché d’orgueil ou d’insouciance, à surestimer ses propres capacités de compré-
hension. Que ce soit Plane ou Schein, il est difficile de leur accorder le savoir-faire
maïeutique de Socrate, cet « art d’accoucher les esprits dans le sens où il aide ses
interlocuteurs à mieux cerner leurs problèmes et à imaginer leurs propres solutions »
(Plane). À moins de suivre Chanlat dans sa description ultraélitiste d’un chercheur-
perle rare doté (formé et expérimenté de quelle façon puisque, d’après lui, il peut
n’être qu’un simple étudiant ?) d’une maturité exceptionnelle et (donc) peu reproduc-
tible, il ne nous resterait donc que la référence psychanalytique du chercheur clini-
cien. Contournant Charybde, nous sombrons alors dans Scylla, la démarche
psychanalytique 1) n’étant pas une science mais une thérapeutique, 2) et posant le
problème de la modification des comportements observés par l’action même du cher-
cheur qui cherche avant tout à valider son propre cadre conceptuel (Borch-Jacobsen,
2002).
Le chercheur empruntant le chemin interprétativiste doit se souvenir, et tenir
compte véritablement, du fait qu’il est lui-même limité par sa propre culture. Il n’est
que de lire les travaux d’historiens, par exemple, pour réaliser combien une réalité
aussi communément partagée que le travail, par exemple, peut être soumise à de
redoutables contingences spatiales et temporelles (Fossier, 2000). Ignorant cela, le
constructiviste risque fort de se laisser prendre au défaut qu’il entend dénoncer dans
le positivisme et ainsi d’habiller de ses propres a priori les actes d’autrui.

2.4 CONSTRUIRE LE CONSTRUCTIVISME


Soyons clairs : nous reconnaissons à la motivation constructiviste une raison
d’être et des atouts certains dans l’élucidation scientifique des phénomènes organisa-
tionnels (Prasad, 2002). À la lumière d’un échantillon de contributions, nous avons
cependant tenu à réaffirmer certains points d’importance qui conditionnent en partie
la validité d’une notion apparemment encore mal définie dans notre pays. Il est
remarquable ainsi d’observer le décalage existant entre la sophistication du pro-

8 Ici dans le sens de Bédouin.


Conclusion 421

gramme théorique et les problèmes de mise en œuvre, de méthodologie. Peut-être,


comme nous l’avons souligné, conviendrait-il de dépasser une fois pour toutes
l’obsession d’un clivage méthodes qualitatives vs méthodes quantitatives, ce qui per-
mettrait d’élargir et d’enrichir les perspectives de recherche. Une telle ouverture
d’esprit s’accommoderait d’ailleurs parfaitement au pragmatisme de l’échéance ges-
tionnaire. À la question « faut-il renoncer au positivisme ? », Boudon (Boudon et
Leroux, 2003) répondit que « l’exigence de rigueur qui caractérise la pensée positi-
viste doit certainement être prise au sérieux » (p. 132), mais qu’il fallait distinguer
un positivisme dur, comtien, d’un positivisme doux, moins dogmatique. C’est, nous
semble-t-il, par ce type de souplesse intellectuelle que pourrait s’affirmer l’avenir
d’un constructivisme à la fois accepté et acceptable.

3. Jacques ROJOT : réflexions sur l’apport


des méthodes qualitatives

Il convient d’abord de préciser que ce qui suit est une lecture très personnelle
des textes des deux auteurs dont les contributions précèdent. Certes, elle reste aussi
près du texte que possible, mais d’une part, elle peut dépasser leur pensée parce
qu’elle l’interprète et en tire des conclusions qu’ils n’auraient peut-être pas souhai-
tées eux-mêmes, et, d’autre part le langage de l’un des auteurs est parfois assez abs-
trait et un deuxième niveau d’interprétation s’ensuit.
Ceci dit, ce commentaire réunit deux textes qui, apparemment, s’inscrivent
dans le même courant théorique et qui présentent donc des similarités. Cependant, à
voir de plus près, ils illustrent aussi des différences assez profondes à l’intérieur de ce
courant.
Dans un premier temps, il est souhaitable de brièvement rappeler ce qui est
frappant dans la présentation de leurs positions théoriques par les auteurs.
Fréderic Wacheux se situe délibérément au niveau de l’ensemble des méthodes
qualitatives et présente une analyse très conceptuelle. Le point de départ est simple :
l’examen seul des faits n’apporte rien, la réalité est ambiguë, l’observation est par
nature déficiente. Le rôle du chercheur, et ce qui le distingue du simple témoin, est
de construire du sens à partir de ce qu’il constate. Par ailleurs, les méthodes de
recherche sont connues et standardisées. Cependant « aucune recherche ne ressemble
à une autre ». L’essentiel de la démarche du chercheur qualitatif est donc dans le con-
trôle du processus de recherche. Ce processus est celui de la construction de sens par
focalisation progressive.
L’auteur nous indique ses postulats épistémologiques dès le départ. Le premier
est le constructivisme, bien sûr, mais dans ce qui va se révéler à l’analyse être une
version assez radicale. Non seulement la réalité sociale est construite, ce qui est la loi
du genre, mais toute situation sociale est en perpétuelle construction et reconstruc-
tion, à laquelle participe bien évidemment le chercheur par sa présence et son action.
Il en découle logiquement que toute structuration d’une situation n’est que provi-
soire, et donc l’on doit en déduire que la théorisation, de même, l’est aussi. Elle est le
moyen de guider l’interprétation. Il s’en suit que le rôle du chercheur est celui de
422 Management des ressources humaines

médiateur entre une réalité en mouvement et une interprétation mobile, constitutive


de connaissances jamais stables ou définitives, mais locales, de moyenne portée, ou
d’hypothèses temporaires à confronter avec ce qui se développe.
L’auteur ensuite déroule le processus de recherche dans les trois étapes où il le
conçoit : accès aux situations sociales ; observation, analyse et compréhension ;
explication et propositions. Si le déroulé de cette progression est classique, les con-
clusions que le lecteur est amené à tirer de leur confrontation aux postulats épisté-
mologiques de départ le sont moins.
D’une part, l’on pourrait un instant croire à un armistice entre méthodes quali-
tatives et quantitatives car l’auteur va indiquer plus loin que « la démarche qualita-
tive produit des abstractions pour expliquer et les outils quantitatifs examinent la
généralisation pour la validité ». N’y a-t-il pas là une possible piste de convergence
avec des visions plus traditionnelles, telles formulations d’hypothèses et validation ?
Cette piste est rapidement écartée en effet, puisqu’elle est toujours en construction,
l’analyse d’une situation de gestion ne peut se concevoir que dans une perspective
longitudinale. Les facteurs qui seraient mis en évidence par une étude en coupe à un
instant donné (quantitative par exemple) ne peuvent saisir la réalité et au mieux
mettent en avant des données qui encadrent ce qui compte ; mais pas l’essentiel et
ne sauraient seules rendre compte du réel. Seule une démarche quantitative longitu-
dinale est donc acceptable.
Les faits sociaux, et donc de gestion, sont la construction conjointe des
acteurs impliqués. L’on trouve ici le recours à des fondements microsociaux de l’orga-
nisation. Ils traduisent un certain degré de rattachement de l’auteur aux courants
théoriques issus de l’interactionnisme symbolique. La théorisation de l’observation du
quotidien tel qu’il est vécu par ceux qui le partagent est donc une des clefs d’entrée
de la compréhension des situations de gestion.
D’autre part, cependant, aussi inévitable comme conclusion à tirer des prémis-
ses est l’affirmation que le chercheur ne doit pas seulement s’insérer directement dans
la situation mais doit aussi s’efforcer de « construire des relations avec les acteurs
pour s’immiscer dans leur quotidien ». Le second pilier de référence théorique est
donc celui de la recherche-action. Il ne peut y avoir de processus de recherche sans
implication directe et délibérée du chercheur dans la situation de gestion.
Il est toutefois loisible de se demander si tous les pratiquants de la recherche-
action se reconnaîtraient dans la conception qui en est présentée. L’auteur fait réfé-
rence à un processus piagétien dans cette interaction acteurs-chercheur.
Il ne s’agit donc pas seulement d’une participation dans l’action, ni d’un
recueil des connaissances des acteurs. Certes, nul ne connaît mieux qu’eux la situa-
tion, bien qu’ils ignorent la théorie, mais l’idée d’un tel processus va bien au-delà. Ce
que connaissent les acteurs peut se concevoir comme la connaissance pratique, ou ce
que Giddens considère comme connu mais inexprimable par ceux qui le maîtrisent
dans leur comportement. Il y aurait alors accommodation et assimilation successives
entre les parties. Les acteurs transmettent une quantité de données qui ont une his-
toire au chercheur, en même temps ils lui découvrent, involontairement, leur maîtrise
de leurs « connaissances pratiques ». Celui-ci en même temps qu’il les assimile, ce
qu’il ne saurait faire sans l’aide volontaire des acteurs (la partie « histoire » de ces
Conclusion 423

données), les passe au cadre de ses connaissances théoriques, qu’il est amené à
accommoder elles-mêmes et donc à modifier pour rendre compte de ce qui reste à
expliquer, une fois ces premiers cadres épuisés. Le processus est itératif et cumulatif
et c’est ainsi que la connaissance se bâtit additivement par itération et par modifica-
tions successives des schémas théoriques.
Cependant, et c’est une troisième point, le chercheur doit maintenir objecti-
vité et distance, pour ne pas risquer de simplement s’intégrer à la démarche pratique
des acteurs, perdant ainsi ses repères de constructeur de connaissances, et au con-
traire apportant celles qu’il maîtrise déjà pour faciliter l’action. Néanmoins il doit
pouvoir accéder à ce que Frédéric Wacheux considère comme les phénomènes de
« reliance », et que l’on pourrait tout aussi bien assimiler aux ethnométhodes des
« membres » d’une collectivité selon Garfinkel. Le chemin est étroit entre les deux
impératifs, et sa difficulté est bien illustrée ailleurs et d’ailleurs par les risques
qu’illustrent certaines démarches de certains chercheurs en relations professionnelles.
En fin de compte, la démarche est équilibrée, chacun s’y retrouvera, acteurs
qui trouveront des réponses à leurs questions, et chercheur qui accumulera des con-
naissances.
Au passage, l’auteur indique que « l’étude de cas est l’un des instruments les
plus puissants pour encadrer le processus de recherche ». L’on aimerait qu’il précise
en détail comment il l’insère dans les contraintes du cadre qu’il vient de définir, au-
delà de l’avertissement de ne pas « imposer une raison froide sur les situations ».
L’étude de cas en elle-même, en effet ne s’inscrit pas automatiquement dans un pro-
cessus piagétien de recherche action. La section suivante s’attache à le faire, dans
une certaine mesure, mais à sa lecture il s’avère alors s’agir d’une étude de cas bien
particulière, du type de celles conduites par les ethnométhodologues.
C’est en effet le processus qui, on le déduit implicitement, permet au cher-
cheur de maintenir le difficile équilibre entre distanciation et intégration. Ici aussi, le
processus joue un rôle essentiel, garde-fou en plus d’instrument de légitimité du
caractère scientifique de la démarche conduite.
La pique, au passage, à l’égard des méthodes quantitatives, qui auraient la naï-
veté d’établir une relation causale simple pour rendre compte d’un phénomène com-
plexe devrait s’accompagner d’une critique de l’argument du « tout se passe comme
ci », absente ici.
L’inspiration de la démarche explicatoire trouve sa source dans « l’intuition
kantienne ». Au fond ce qui légitime la démarche du chercheur est d’inspiration phé-
noménologique. Il n’y a non seulement pas de réalité objective, mais pas non plus de
réalité totalement socialement construite Les sciences sociales, et donc les sciences
de gestion, restent « approximatives » et une part « d’indicible » est irréductible.
La contribution de Jean-Michel Plane se situe elle aussi dans le cadre des
méthodes quantitatives apparemment proches, mais finalement se situant sur un plan
assez différent de celui de la précédente.
Là aussi, le point de départ sera une brève réflexion sur la présentation faite
par l’auteur. Il nous présente de façon très pragmatique la recherche intervention par
l’exemple, en exposant son propre parcours.
424 Management des ressources humaines

D’emblée, il se situe dans le cadre d’un « constructivisme modéré ». C’est-à-


dire qu’en ses propres termes, il voit le constructivisme plus comme une attitude de
recherche que comme un paradigme définitif. Comment interpréter cette position par
rapport à celle de Frédéric Wacheux ? L’on pourrait dire que la réalité est bien une
construction sociale, tout comme la production scientifique, mais qu’une fois produite
elle acquiert une existence propre et quasi « solide ». Elle contraint ensuite les pro-
cessus d’action, et de recherche, émergents.
Sur le plan de la recherche, il va s’agir alors, plus près du positivisme que dans
le cas précédent, de faire apparaître des régularités, des « relations stables » entre
« phénomènes sociaux ».
Le chercheur construit bien, mais pas la réalité. Il élabore le construit le plus
adapté et susceptible d’expliquer une réalité, certes socialement construite, mais lar-
gement en dehors de lui.
Certes, l’intervention du chercheur « modifie le comportement des acteurs et
transforme ainsi la réalité », mais il s’agit d’une réalité déjà construite dont la struc-
ture et le fonctionnement sont améliorés par son intervention.
On est là beaucoup plus près de l’analyse sociotechnique telle que la dévelop-
paient les chercheurs pionniers des années 1970, tel Lou Davis à UCLA, que d’une
perspective piagétienne. Le critère de succès de la démarche scientifique est beau-
coup plus pragmatique. Il est concret.
Jean-Michel Plane prend grand soin de rappeler que la démarche est insépara-
ble d’interventions au sein d’organisations. Ces interventions prennent la forme
d’expérimentations qui servent à élaborer un diagnostic. Ce diagnostic s’accompagne
de la mise au point d’outils d’analyse de fonctionnement. L’ensemble débouche sur un
projet d’amélioration innovant du fonctionnement de l’organisation.
La création de connaissances est inséparable de l’introduction par le chercheur
de changements dans l’organisation. Il va procéder à « l’objectivation à partir de
l’information inévitablement subjective ».
Le rôle du chercheur en recherche intervention est donc, ici, double. D’une
part, assez classiquement, au sens de l’intervention sociotechnique, il amène les
acteurs à s’interroger sur leurs pratiques et à en découvrir de nouvelles. Cependant, si
l’on comprend bien, il a aussi la capacité d’apporter de nouvelles connaissances en
management, qu’il a sans doute formalisées dans ses expériences préalables, puisqu’il
s’agit en structurant les expériences de faire apparaître des « invariants ». Certes, ce
sont les acteurs qui imaginent ces nouvelles pratiques structurantes et bénéfiques,
mais on les imagine mal le faire sans l’aide du chercheur s’il s’agit bien d’invariants.
Une différence majeure entre les deux auteurs est le caractère des connaissan-
ces scientifiques accumulées par le chercheur, toujours inachevées, locales et provi-
soires pour l’un, elles laissent place à des invariants pour l’autre.
Enfin, il apparaît en filigrane dans les textes, du moins à nos yeux, que pour
Jean-Michel Plane, la recherche-action est une méthode de recherche qualitative
parmi d’autres. C’est celle qu’il privilégie, mais il est sous-entendu qu’il en existe sans
doute d’autres. Au contraire, pour Frédéric Wacheux, il nous semble que la, et sans
doute la seule, méthode de recherche qualitative est la recherche action, du moins
Conclusion 425

dans la conception qu’il en donne. Cependant, en effet, la juxtaposition des deux tex-
tes démontre bien que la catégorie de la recherche-action est loin d’être homogène et
peut recouvrir des réalités bien différentes. Il y a en effet loin du modèle, qualifié de
piagétien, sous notre seule responsabilité, de Frédéric Wacheux, à celui, dans les
mêmes conditions, « d’accoucheur socratique », mais d’un Socrate « sachant » de
Jean-Michel Plane. De même, l’intuition kantienne dans un cas situe la démarche dans
une autre perspective que celle de l’amélioration délibérée du management dans
l’autre.
En conclusion, ce que nous considérons être l’apport majeur et ce que met en
évidence pour nous l’approche de Frédéric Wacheux est le rôle fondamental des micro-
fondements de l’organisation pour expliquer sa naissance et son fonctionnement et le
rôle du processus de recherche pour équilibrer la démarche du chercheur qui restera
toujours subjective et provisoire dans des structures elles-mêmes en permanente
construction et déconstruction.
Plus classiquement, Jean-Michel Plane reconnaît une objectivité aux structures
socialement construites. L’apport et le caractère nouveau de sa démarche, là aussi de
notre point de vue, est que, une fois construites par les acteurs, elles vont les con-
traindre autant que les habiliter, au sens d’un autre apport de Giddens.
L’objection que l’on peut apporter au caractère de généralité de la méthode de
la recherche action, et la question implicite à laquelle aucun des deux auteurs ne
répond réellement, consiste dans l’obstacle bien illustré par Weick. Celui-ci met en
évidence l’impossibilité pour une recherche d’être à la fois simple (simple), de portée
générale (general) et exacte (accurate). Le point est illustré par un cadran d’horloge
où figurent ces trois caractéristiques respectivement à la place de 8h, 12h et 4h. Une
aiguille qui se déplace sur le cadran ne peut évidemment être proche que de l’une de
ces positions et une seulement. Weick, d’un naturel généreux, admet les compromis
(i.e., à 2h une recherche est, pour lui, à la fois générale et exacte, mais ne peut être
simple. Cependant, si l’on pousse la métaphore un peu plus loin, cette recherche n’est
plus vraiment générale ni exacte, se situant dans une position intermédiaire de celles
de ces deux points.
Si l’on admet que la recherche action est remarquablement adaptée à la com-
préhension la plus exacte des situations qui se présentent dans les organisations et
que peu d’autres outils peuvent permettre, il ensuit, si l’on suit Weick, qu’elle est tout
simplement incapable d’être générale et simple. Il convient donc de s’y résigner, et
d’adopter le seul remède possible proposé par Weick : lire les autres types de recher-
ches, centrées sur les autres points significatifs du cadran.

4. Patrice ROUSSEL et Frédéric WACHEUX : en conclusion

Pour conclure cet ouvrage de méthodes de recherche, nous voudrions exprimer


quelques idées simples et inciter d’autres chercheurs à poursuivre le débat. En pre-
mier lieu, nous pensons qu’il est indispensable de prendre un certain recul dans
l’usage des méthodes de recherche en prenant conscience de leurs apports et de leurs
limites. Les recherches en sciences humaines et sociales, décennies après décennies,
426 Management des ressources humaines

ont eu recours à des méthodes de recherche toujours plus complexes, sophistiquées,


rigoureuses… Pourtant à chaque période, de grandes théories, de grands esprits
scientifiques, ont marqué leur époque et l’histoire, en proposant des hypothèses sur
des phénomènes sociaux et humains rencontrés dans nos sociétés. Malgré l’aspect
parfois rudimentaire des méthodes utilisées, leurs propositions demeurent, et contri-
buent encore au développement de la connaissance et à la compréhension du monde.
L’ouvrage que nous venons de proposer tente de présenter de manière didacti-
que des méthodes de recherche contemporaines qui ne prétendent pas effacer celles
du passé. À leur tour, elles deviendront peut-être un jour, poussives et rudimentaires.
Elles permettent simplement d’aborder des phénomènes jusque-là peu explorés, fau-
tes de méthodes adaptées. Elles deviennent à leur tour incontournables et doivent
être accessibles au plus grand nombre de chercheurs, d’étudiants et d’experts.
En second lieu, la recherche scientifique connaît régulièrement des débats
contradictoires sur sa pertinence, ses qualités, son utilité, sa force contributive à
l’essor de la connaissance. Notre ouvrage ne peut les ignorer et se contenter de juxta-
poser soigneusement des méthodes dites qualitatives et des méthodes dites quantita-
tives, en portant des œillères sur les fondements qui les sous-tendent et les critiques
qu’elles se rejettent parfois. Néanmoins, notre ouvrage se situe dans une perspective
pragmatique de la recherche. À chaque problème sa solution, à chaque solution une
méthode pour y parvenir.
Chaque problème de recherche qui est posé mérite une réflexion sur le choix
des méthodes, des techniques et des outils les mieux adaptés pour le résoudre. Mieux,
il est souhaitable que les recherches tendent à concilier les approches inductives,
déductives et constructivistes pour traiter d’une question nouvelle. À différents sta-
des d’avancement d’un programme de recherche, il est possible de mobiliser différen-
tes démarches méthodologiques. Cette position ne se limite pas à considérer comme
judicieux d’utiliser les méthodes qualitatives dans la phase exploratoire d’une recher-
che, et les méthodes quantitatives dans la phase confirmatoire. Des chemins inverses
peuvent être pris, pour permettre d’abord de dresser une topographie du phénomène
par les chiffres, avant de donner du sens par les mots.
Quant aux discussions épistémologiques, elles doivent éviter deux écueils.
L’encyclopédisme philosophique qui nuit à la pédagogie et la trop grande simplifica-
tion qui aboutit à une connaissance approximative. Nous espérons les avoir dépassés.
Aucun chercheur en sciences de gestion ne prétend exercer une critique philosophi-
que des contributions, mais chacun pose des questions épistémologiques, parce qu’il
les rencontre au quotidien dans ses propres recherches.

Bibliographie
Bachelard, G. (1934). Le nouvel esprit scientifique. Paris : Presses Universitaires de
France.
Bernard, H. R. (1988). Research methods in cultural anthropology. Newbury Park : Sage.
Bjork, D. W. (1993) : B. F. Skinner — A life. New-York : BasicBooks.
Conclusion 427

Borch-Jacobsen, M. (2002). Folies à plusieurs. Paris : Les Empêcheurs de penser en


rond.
Boudon, R. & Leroux, R. (2003). Y-a-t-il encore une sociologie ? Paris : Odile Jacob.
Burrell, G. & Morgan, G. (1979). Sociological paradigms and organizational analysis.
London : Heinemann.
Douglas, J. D. (1973). « Understanding everyday life ». In J. D. Douglas (éd.), Unders-
tanding everyday life (pp. 3-44). London : Routledge & Kegan Paul.
Durkheim, E. (1912). Les formes élémentaires de la vie religieuse. Paris : Alcan.
Durkheim, E. (1988/1894). Les règles de la méthode sociologique. Paris : Flammarion.
Evrard, Y., Pras, B., Roux, E., Choffray, J.M. et Dussaix, A.M. (1993). Market, études et
recherches en Marketing, fondement, méthodes. Paris : Nathan.
Fossier, R. (2000). Le travail au Moyen Âge. Paris : Hachette.
Georges, R. A. & Jones, M. O. (1980). People studying people. Berkeley : University of
California Press.
Gergen, K. F. & Davis, K. E. (1985). The social construction of the person. New-York :
Springer.
Gould, S. J. (1996). The mismeasure of Man. New-York : Norton.
Igalens, J. et Roussel, P. (1998). Méthodes de recherche en gestion des ressources
humaines. Paris : Economica, collection Recherche en gestion.
Kant, I. (1987/1781). Critique de la raison pure. Paris : Garnier-Flammarion.
Lawrence, T. E. (2002/1935). Les sept piliers de la sagesse. Paris : Payot.
Le Moigne, J.-L. (1990). « Épistémologies constructivistes et sciences de
l’organisation ». In A.-C. Martinet, (éd.), Épistémologies et sciences de gestion
(pp. 81-140). Paris : Economica.
Lorino, P. (1992). L’économiste et le manager. Paris : La découverte.
Louart, P. & Desreumaux, A. (éds.) (1997). Constructivisme(s) et sciences de gestion.
Actes de colloque. Lille : Université des Sciences et Technologies de Lille.
McWilliams, A. et Siegel, D. (2000). Corporate Social Responsability and Financial
Performance : Correlation or Misspecification ? Strategic Management Journal, vol.21,
pp. 603-609.
Morgan, G. (1989). Creative Organization Theory, Sage Publication, p. 14.
Mucchielli, L. (1994). « Sociologie : le faux débat ». Sciences Humaines, n° 35, 23-25.
Mucchielli, L. (1998). « La guerre des méthodes n’aura pas lieu ». Sciences Humaines,
n° 80, 26-29.
Natanson, M. (1962). Literature, philosophy, and the social sciences. The Hague : Marti-
nus Nijhoff.
Orlitzky, M., Schmidt, F., Rynes, S.L. (2003). Corporate Social and Financial
Performance : a Meta-analysis. Organization Studies 24(3) : 403-441
Prasad, A. & Prasad, P. (2002). The coming of age of interpretive organizational
research. Organizational Research Methods, 5, 4-11.
Prasad, A. (2002) The contest over meaning : Hermeneutics as an interpretive metho-
dology for understanding texts. Organizational Research Methods, 5, 12-33.
Ritzer, G. (1993). The MacDonalization of society. Thousand Oaks : Pine Forge Press.
Roetlisberger, F. J. & Dickson, W. J. (1939). Management and the worker. Cambridge :
Harvard University Press.
428 Management des ressources humaines

Rosnow, R.L. & Georgoudi, M. (éds.) (1986). Contextualism and understanding in beha-
vioral science. New-York : Praeger.
Schopenhauer, A. (1966/1859, troisième édition). Le monde comme volonté et comme
représentation. Paris : Presses Universitaires de France.
Sorokin, P.A. (1959/1956). Tendances et déboires de la sociologie américaine. Paris :
Aubier.
Verdès-Leroux, J. (1998). Le savant et la politique. Paris : Grasset.
Wacheux, F. (1996). Méthodes qualitatives et recherches en gestion. Paris : Economica.
Waddock, S.A. et Graves, S.B. (1997). The Corporate Social Performance — Financial
Performance Link. Strategic Management Journal, vol.18, n° 4, juin, pp. 303-319.
Présentation des auteurs

Charles-Henri d’ARCIMOLES, Professeur des Universités, est Codirecteur du DESS de


Gestion des Ressources Humaines à l’Université de Paris 1 Panthéon–Sorbonne. Ses
travaux de recherche se situent à l’interface de la gestion des ressources humaines et
de la finance et sont consacrés à l’étude des relations entre GRH et performance. Il a
publié un ouvrage sur ce sujet, et plusieurs articles dans des revues académiques
françaises ou étrangères.
Eric CAMPOY, Maître de Conférences en Sciences de Gestion à l’Université
Paris 1 Panthéon-Sorbonne. Membre du CERGORS (http://cergors.univ-paris1.fr), ses
domaines de recherche sont les relations professionnelles, le comportement organisa-
tionnel et les méthodes quantitatives de recherche. Il est coauteur d’un ouvrage sur
les méthodes d’équations structurelles.
Jean-François CHANLAT, Professeur des Universités et membre du centre de
recherche Crepa, Université Paris-Dauphine, Professeur affilié, HEC-Montréal. Ses
domaines d’enseignement et de recherche touchent la théorie des organisations, la
sociologie de l’entreprise et les sciences sociales appliquées au management. Auteur
de plusieurs ouvrages et de nombreux articles publiés dans diverses langues, ses tra-
vaux concernent le rapport individu–organisation et cherchent à fonder une anthro-
pologie de l’action organisée
Marc DUMAS, Maître de conférences, responsable pédagogique du DUT GEA GRH
en ligne de l’IUT de Rennes 1. Membre du CREM. Ses domaines de recherche sont
l’implication au travail, les politiques d’équilibre travail–famille et les méthodes
quantitatives de recherche en gestion. Il est l’auteur d’articles publiés dans la Revue
de Gestion des Ressources Humaines.
François DURRIEU est Professeur–chercheur en marketing à Bordeaux École de
Management où il enseigne la recherche en marketing et l’analyse de données. Ses
domaines d’activité concernent le marketing du vin, la relation d’affaires en milieu
industriel et les méthodes d’équations structurelles. Il est Directeur du centre de
recherche Marchés et Marketing du vin à Bordeaux École de Management. Il est co-
auteur d’un livre sur les Méthodes d’équations structurelles et publie des articles dans
430 Management des ressources humaines

la Revue de Sciences de Gestion, ainsi que dans la Revue Française de Gestion de Res-
sources humaines.
Assâad EL AKREMI, Maître de Conférences et chercheur au LIRHE CNRS, à l’Uni-
versité de Toulouse 1, il est membre du GRACCO–GDR CNRS. Ses domaines de recher-
che sont le comportement organisationnel, la flexibilité organisationnelle et les
méthodes de recherche. Coauteur de deux ouvrages, il s’intéresse particulièrement aux
applications des méthodes d’équations structurelles dans la recherche en Sciences de
gestion.
Claire GAUZENTE, Maître de Conférences HDR, coresponsable du DESS-Master
Marketing & NTIC de l’UFR Droit Économie Gestion de l’Université d’Angers. Ses recher-
ches portent sur la culture organisationnelle, l’orientation marché, les pratiques éthi-
ques en commerce électronique et les méthodes de recherche en gestion (http://
www.univ-angers.fr/Enseignant.asp ?ID=613). Ses publications sont parues dans des
revues françaises et internationales (Journal of Electronic Commerce Research, Journal
of Consumer Marketing, Academy of Marketing Science Review, Journal of Small Busi-
ness Management, International Journal of Retail and Distribution Management, etc.).
Anne GOMBAULT, Professeur à Bordeaux École de Management, membre du
centre de recherche Humanisme et Gestion, responsable de la Chaire ACME (Art, Cul-
ture et Management en Europe) qu’elle a créée en 2004. Ses domaines de recherche
sont le comportement organisationnel, le management des organisations artistiques
et culturelles et les méthodes qualitatives de recherche en gestion. Ses travaux ont
été publiés dans plusieurs revues et ouvrages, notamment à la Documentation Fran-
çaise.
Jocelyn HUSSER, Maître de Conférences, membre du centre de recherche du
CREFF, Université Montesquieu–Bordeaux IV. Ses domaines de recherche sont le com-
portement organisationnel, le management hospitalier et les méthodes qualitatives
de recherche en management.
Jacques IGALENS, Professeur de Sciences de gestion à l’IAE de Toulouse et
chercheur au LIRHE CNRS, il a été à l’origine de la création de l’AGRH, Association
francophone de Gestion des Ressources Humaines. Ses travaux de recherche actuels
concernent la responsabilité sociale de l’entreprise et notamment l’évaluation et la
communication extra-financière. Au sein de l’ADERSE et de l’IAS, il contribue à l’ana-
lyse des besoins en formation et en développement des managers des grandes entre-
prises sur le thème de la RSE. Par son activité de directeur de recherche de nombreux
doctorants français et étrangers, il participe à l’amélioration et à la diffusion des con-
naissances en gestion des ressources humaines.
Saïd JMEL est ingénieur statisticien à l’Université de Toulouse Le Mirail. Ses
contributions à la recherche se situent dans le champ de la statistique appliquée aux
sciences humaines. Il est coauteur d’articles parus notamment dans Psychometrika,
Psychological Methods et Social Indicators Research.
Jean-Pierre NEVEU, Professeur des Universités, responsable de la filière Gestion
des Organisations à l’Institut d’Études Politiques de Bordeaux, et chercheur associé au
LIRHE-CNRS, Université de Toulouse 1. Ses domaines d’expertise sont la théorie des
organisations, l’implication au travail, ainsi que la santé organisationnelle. Il est
auteurs de plusieurs livres, articles et communications en France et à l’étranger. Mem-
Présentation des auteurs 431

bre du comité de rédaction de la Revue de Gestion des Ressources Humaines, il siège


au comité éditorial du Journal for East European Management Studies.
Jean-Michel PLANE, Professeur des Universités, responsable du Master
Recherche Sciences des Organisations et des Institutions à l’Université Paul Valéry–
Montpellier III et de l’équipe de recherche GREG-GESTER. Ses domaines de recherche
sont la théorie des organisations, les méthodes de recherche-intervention et le mana-
gement des ressources humaines (jean-michel.plane@wanadoo.fr). Ses travaux sont
publiés dans le Journal of Business Ethics, la Revue Française de Gestion, la Revue
Internationale des PME. Il est l’auteur de quatre ouvrages consacrés à l’analyse des
organisations et à la gestion des ressources humaines.
Jacques ROJOT, Professeur des Universités, Codirecteur du CIFFOP à l’Université
de Paris II, Directeur scientifique-adjoint du département des sciences sociales à la
Mission Scientifique Pédagogique et Technique du Ministère de la Recherche. Ses
domaines de recherche sont la théorie des organisations, les relations professionnel-
les et la gestion des ressources humaines. Auteur de nombreux ouvrages et articles
dans des revues scientifiques, notamment en France, en Europe et aux États-Unis, il
est rédacteur en chef de la Revue de Gestion des Ressources Humaines, ainsi que mem-
bre du comité de rédaction de plusieurs revues scientifiques étrangères.
Pierre ROMELAER, Professeur des Universités, Directeur du centre de recherche
Crepa et du DEA « Politique Générale des Organisations » à l’Université Paris–
Dauphine. Ses domaines de recherche et d’enseignement sont la théorie des organisa-
tions, les processus de décision, la gestion du changement et de l’innovation, la ges-
tion des ressources humaines et les méthodes qualitatives de recherche en gestion. Il
compte de nombreuses productions scientifiques dont 36 depuis 2000 (http://
www.dauphine.fr/crepa/pierreromelaer.htm). Il a enseigné dans des programmes de
master, doctorat et pour managers et cadres dirigeants, dans 12 pays et 3 langues. Il
a été vice-président du CNU, directeur du Cefag, directeur de l’école doctorale de ges-
tion de Dauphine, membre du jury d’Agrégation, professeur à l’Institut Européen
EIASM.
Patrice ROUSSEL, Professeur des Universités, Directeur du GRACCO–GDR CNRS,
responsable du département Gestion du LIRHE CNRS, et du Master Management des
Ressources Humaines à l’IAE de l’Université Toulouse 1. Ses domaines de recherche
sont le comportement organisationnel, les méthodes de recherche et le management
des rémunérations (http://gracco.univ-tlse1.fr ; http://lirhe.univ-tlse1.fr). Ses tra-
vaux sont publiés dans le Journal of Organizational Behavior, International Journal of
Human Resource Management, Revue de Gestion des Ressources Humaines. Il est
l’auteur de quatre ouvrages en méthodes de recherche et en gestion des ressources
humaines.
Stéphane TRÉBUCQ est Maître de Conférences en sciences gestion à l’Université
Montesquieu Bordeaux IV (http://trebucq.u-bordeaux4.fr) et membre du CRECCI–
Centre de Recherche en Contrôle et Comptabilité Internationale de l’Institut d’Admi-
nistration des Entreprises (http://www.iae-bordeaux.fr/crecci/). Ses domaines de
recherche ont trait à la communication financière et comptable, au management de la
valeur et à la gouvernance partenariale. Ses travaux s’appuient sur des méthodologies
qualitatives et quantitatives, publiées dans le Journal of Corporate Ownership &
432 Management des ressources humaines

Control, et les revues Finance-Stratégie-Contrôle, Gestion des Ressources Humaines,


Économies et Sociétés.
Pierre VALETTE-FLORENCE, Professeur des Universités, Directeur du DESS Ingé-
nierie Marketing à l’École Supérieure des Affaires de Grenoble. Il est l’auteur de plus
de 150 articles dans des revues anglophones (International Journal of Research in
Marketing, Journal of Advertising Research, Journal of Business Research, …) et des
revues francophones (Recherche et Applications en Marketing, Revue Française de Ges-
tion, Décisions Marketing,…). Ses thèmes de recherche portent sur l’étude du compor-
tement du consommateur (styles de vie, modes de consommation, valeurs sociales et
individuelles, analyse selon les chaînages cognitifs), l’interculturel et le management
de la marque, ainsi que les méthodes d’équations structurelles et de classes latentes.
Stéphane VAUTIER est Maître de Conférences en psychométrie à l’Université de
Toulouse Le Mirail et membre fondateur de l’European Association of Methodology
(http://www.eam-online.org/). Ses travaux se situent à l’interface de la psychomé-
trie, des statistiques, de la psychologie différentielle et de la philosophie des scien-
ces. Il s’intéresse particulièrement au statut théorique et empirique des données
collectées par questionnaires. Ses travaux sont publiés dans des revues comme Psy-
chological Methods, Structural Equation Modeling, Assessment, Social Indicators
Research, Theory & Decision, Journal of Personality Assessment (http://www.univ-
tlse2.fr/cerpp/annuaire/vautier/).
Frédéric WACHEUX, Professeur des Universités, Directeur du DESS GRH et Co-
directeur du MBA-RH de l’Université Paris–Dauphine. Il est Directeur du centre de
recherche du CREPA. Ses domaines d’intervention sont la structuration des organisa-
tions, création de valeur et ressources humaines et les méthodes qualitatives de
recherche en management (www.dauphine.fr/CREPA). Auteur de nombreux articles et
de deux ouvrages, il intervient également auprès de cadres et de dirigeants dans
l’accompagnement de processus de changement.
Table des matières

INTRODUCTION ............................................................................................................... 5

CHAPITRE 1
COMPRÉHENSION, EXPLICATION ET ACTION DU CHERCHEUR
DANS UNE SITUATION SOCIALE COMPLEXE ................................................................ 9
Frédéric WACHEUX
1. Accéder aux situations sociales .............................................................................. 11
2. Observer, comprendre, analyser ............................................................................. 16
3. Expliquer et proposer .............................................................................................. 20
4. Conclusion : épistémologie constructiviste des méthodes qualitatives .............. 27

CHAPITRE 2
LA MÉTHODE DES CAS ................................................................................................. 31
Anne GOMBAULT
1. La méthode des cas : une stratégie privilégiée d’accès au réel ........................... 32
1.1 Définition et intérêt .............................................................................................. 32
1.2 Les différentes études de cas ou le choix d’un plan de recherche ............................. 34
1.3 La réalisation de l’étude de cas .............................................................................. 36
2. Un exemple de mise en œuvre de la méthode des cas ......................................... 39
2.1 Du plan de recherche au choix de l’étude de cas ..................................................... 40
2.1.1 La problématique ............................................................................................ 40
2.1.2 Une logique exploratoire, constructiviste, inductive et itérative, qualitative ............ 41
2.1.3 Un cas unique ................................................................................................ 41
2.2 La réalisation ........................................................................................................ 45
2.2.1 Le déroulement du processus de recherche ......................................................... 45
2.2.2 Production et analyse des données .................................................................... 45
2.2.3 Présentation des résultats ................................................................................ 50
A. Situation .................................................................................................... 51
434 Management des ressources humaines

B. Description et analyse de la construction de l’identité organisationnelle


au musée du Louvre entre 1996 et 1998 ............................................................. 52
C. Contributions ............................................................................................... 53
2.3 Commentaires de l’application de la méthode de cas ............................................... 54
2.3.1 Cheminant chemin faisant… : un processus de recherche patient ........................... 54
2.3.2 La relation au terrain : une attention constante .................................................. 56
A. Le comportement dans l’organisation ................................................................ 56
B. La relation avec les acteurs ............................................................................. 56
3. Conclusion ................................................................................................................ 61

CHAPITRE 3
CONTEXTUALISME ET RECUEIL DE DONNÉES ............................................................. 65
Jocelyn HUSSER
1. La démarche contextualiste .................................................................................... 66
1.1 Fondements de la démarche contextualiste ............................................................. 66
1.2 Pertinence de la démarche contextualiste pour la GRH ............................................. 68
2. Les cadres intermédiaires hospitaliers dans leur contexte de gestion ................ 69
2.1 Mobilisation des éléments des contextes interne et externe
pour l’échantillonnage des études de cas ................................................................. 69
2.2 Mobilisation des variables du contexte pour une étude longitudinale
par étude de cas ..................................................................................................... 70
2.3 Description des étapes de la gestion du changement organisationnel
à partir d’une grille de lecture contextuelle .............................................................. 73
2.3.1 Présentation du contexte interne de l’unité des Urgences pédiatriques
en phase initiale ............................................................................................. 73
A. Contexte général .......................................................................................... 73
B. Contexte particulier ....................................................................................... 74
2.3.2 Description des étapes de l’émergence du changement observé .............................. 75
3. Recueil et analyse de données ................................................................................ 80
3.1 Recueil et analyse de données par entretiens .......................................................... 80
3.1.1 Mise en œuvre de l’analyse structurale ............................................................... 82
A. Présentation d’une première grille de décomposition ............................................ 82
B. Présentation d’une seconde grille de décomposition ............................................. 83
3.2 L’observation directe participante : un mode de recueil complémentaire
de données contextuelles ........................................................................................ 86
3.2.1 Le choix d’un dispositif d’observation à double niveau : interactions
et production d’outils de gestion. ...................................................................... 88
A. Identification des acteurs ............................................................................... 89
B. Types d’observations ...................................................................................... 90
3.2.2 Mise en évidence des observations menées dans des contextes d’interactions ........... 91
3.3 Recours à l’analyse documentaire ........................................................................... 92
3.3.1 Mise en œuvre de l’analyse documentaire ............................................................ 94
3.3.2 Analyse transversale des documents produits lors du processus d’accréditation ......... 95
4. Conclusion ................................................................................................................ 98
Table des matières 435

CHAPITRE 4
L’ENTRETIEN DE RECHERCHE ...................................................................................... 101
Pierre ROMELAER
1. Définition de l’entretien semi-directif centré (ESDC) ......................................... 102
2. Le nombre d’entretiens et la variété de l’échantillon ......................................... 104
3. La phrase d’entame, le début de l’entretien ........................................................ 108
4. Le guide de l’interviewer, le guide d’entretien ................................................... 112
5. Les reformulations et les relances, le recentrage ............................................... 116
5.1 Les types de reformulations et de relances ............................................................ 116
5.2 La difficulté de l’interviewer à maîtriser les reformulations et les relances .............. 118
6. Les premiers entretiens ......................................................................................... 121
7. La relation entre entretien et analyse de contenu ............................................. 122
8. Qualité et validation des contenus d’entretiens ................................................. 124
9. ESDC et méthodologie de la recherche ................................................................ 126
10. Le temps et le lieu de l’entretien, l’environnement social de l’entretien ......... 127
11. L’entretien comme situation de communication interpersonnelle .................... 130
12. Conclusion .............................................................................................................. 134

CHAPITRE 5
RECHERCHE-INTERVENTION ET INNOVATIONS MANAGÉRIALES .......................... 139
Jean-Michel PLANE
1. L’intervention du chercheur en management : implications théoriques,
méthodologiques, pratiques ................................................................................. 143
1.1 L’étude des relations chercheurs – terrain ............................................................. 143
1.1.1 Une logique de production de connaissances et la question
de l’objectivation des informations .................................................................. 144
1.1.2 La question de la place et de la neutralité du chercheur ..................................... 144
1.1.3 L’implication du chercheur et la gestion de la « familiarité distante » ................... 144
1.2 De la recherche-intervention au développement du potentiel humain
des organisations ................................................................................................. 145
1.2.1 Les apports produits sur le terrain par un processus de recherche-intervention ....... 145
1.2.2 Le développement des capacités conceptives des acteurs des organisations ........... 146
2. La production d’innovations managériales : le cas d’une entreprise
de production de cartes électroniques ................................................................ 147
2.1 Une entreprise en pleine mutation et en quête de compétitivité ............................ 147
2.1.1 Situation de l’entreprise ................................................................................. 147
A. Positionnement concurrentiel ........................................................................ 148
B. Les innovations organisationnelles ................................................................. 149
2.1.2 Le management des ressources humaines de l’entreprise ..................................... 149
2.2 Les implications managériales des innovations organisationnelles ......................... 150
2.2.1 Une logique d’apprentissage organisationnel ..................................................... 150
436 Management des ressources humaines

2.2.2 Les changements managériaux observés dans l’entreprise .................................... 151


2.3 Perspectives de développement stratégique pour l’entreprise Thélec ........................ 152
2.3.1 Le projet stratégique et organisationnel de l’entreprise ....................................... 153
2.3.2 La formation au management .......................................................................... 153
2.3.3 Les solutions organisationnelles ...................................................................... 154
3. Conclusion .............................................................................................................. 154

CHAPITRE 6
LA RECHERCHE EN GESTION ET LES MÉTHODES ETHNOSOCIOLOGIQUES ......... 159
Jean-François CHANLAT
1. Les méthodes ethnosociologiques appliquées aux organisations
et à la gestion ........................................................................................................ 160
2. Deux méthodes ethnosociologiques ..................................................................... 163
2.1 La méthode des récits de vie ................................................................................ 163
2.2 La méthode de l’observation participante .............................................................. 165
3. Les méthodes ethnosociologiques et le champ de la recherche en gestion ..... 168
4. Conclusion .............................................................................................................. 172

CHAPITRE 7
LA MÉTHODOLOGIE Q ET L’ÉTUDE DE LA SUBJECTIVITÉ ......................................... 177
Claire GAUZENTE
1. Les objectifs d’étude .............................................................................................. 178
1.1 L’étude de la subjectivité ..................................................................................... 178
1.2 La théorie des concours ou ce que signifie vraiment « Il pleut » ............................ 179
2. L’instrumentation de l’étude de la subjectivité ................................................... 180
2.1 La méthode de recueil – Le Q-sort ........................................................................ 180
2.2 La méthode d’analyse – L’analyse factorielle Q ...................................................... 182
2.3 Récapitulatif de la démarche et des options possibles ........................................... 185
3. Une application : la perception de la personnalité des collaborateurs ............. 186
3.1 Considérations préalables ..................................................................................... 186
3.2 Dispositif de recueil des données .......................................................................... 188
3.3 Résultats, interprétation et validité ...................................................................... 188
4. Conclusion .............................................................................................................. 195

CHAPITRE 8
MÉTHODES DE RÉGRESSION ET TRAITEMENT DES DONNÉES FINANCIÈRES
ET SOCIÉTALES : QUESTIONNEMENTS ET APPLICATIONS ........................................ 207
Charles-Henri D’ARCIMOLES et Stéphane TRÉBUCQ
1. Ressources humaines et performance de l’entreprise ......................................... 208
1.1 Protocole et échantillonnage ................................................................................ 208
1.2 Homogénéité des données .................................................................................... 209
Table des matières 437

1.3 Définition et mesure des variables ........................................................................ 210


2. Application au cas de la relation entre performance financière
et performance sociétale ...................................................................................... 212
2.1 Régressions effectuées sur les entreprises américaines ........................................... 213
2.1.1 Mise en œuvre des modèles (Waddock et Graves 1997) ....................................... 213
2.1.2 Limites des résultats de Waddock et Graves (1997)
et critiques de McWilliams et Siegel (2000) ...................................................... 219
2.2 Régressions effectuées sur les entreprises françaises ............................................. 224
2.2.1 Mise en œuvre des modèles (d’Arcimoles et Trébucq 2002) .................................. 224
2.2.2 Améliorations apportées au modèle et limites des résultats ................................. 227
3. Application au cas de la relation entre performance financière
et actionnariat salarié ........................................................................................... 232
3.1 Régressions effectuées sur les entreprises françaises ............................................. 233
3.1.1 Mise en œuvre des modèles (d’Arcimoles et Trébucq 2003) .................................. 233
3.1.2 Limites des résultats ..................................................................................... 235
3.2 Approfondissements possibles des régressions ....................................................... 237
3.2.1 Identification des facteurs pouvant influencer les résultats empiriques ................. 238
3.2.2 Test complémentaire de l’effet de la variable taille ............................................ 240
4. Conclusion .............................................................................................................. 241

CHAPITRE 9
MÉTHODES DE DÉVELOPPEMENT D’ÉCHELLES POUR QUESTIONNAIRES
D’ENQUÊTE ................................................................................................................... 245
Patrice ROUSSEL
1. Le paradigme de Churchill : une méthode classique de développement
d’échelles de questionnaire .................................................................................. 247
1.1 Enjeux et fondements .......................................................................................... 247
1.2 Mise en œuvre et actualisation du Paradigme de Churchill ..................................... 248
1.2.1 Les quatre étapes de la phase exploratoire ........................................................ 249
A. Spécifier le domaine du construit .................................................................. 250
B. Générer un échantillon d’items ..................................................................... 250
Approche déductive ..................................................................................... 250
Approche inductive ...................................................................................... 250
Rédaction des items ..................................................................................... 251
Les formats des modalités de réponse ............................................................... 251
Le nombre d’items dans l’échelle ..................................................................... 252
Évaluation de la validité de contenu ................................................................ 253
C. La collecte de données ................................................................................ 254
Le mode d’administration du questionnaire ........................................................ 254
La taille d’échantillon ................................................................................... 255
D. Purifier l’instrument de mesure ...................................................................... 256
Analyse critique de la démarche de Churchill ...................................................... 256
Actualisation de la démarche de Churchill .......................................................... 260
1.2.2 La phase de validation ................................................................................... 260
A. La collecte de données ................................................................................ 260
B. Estimer la fiabilité et la validité ..................................................................... 260
438 Management des ressources humaines

C. Développer des normes ................................................................................ 261


2. Application de la démarche de développement d’échelle pour questionnaire .. 262
2.1 Les phases de spécification du domaine du construit et de génération des items .... 262
2.2 La collecte de données ......................................................................................... 262
2.3 Purifier l’instrument de mesure ............................................................................ 262
2.3.1 Analyse de la structure factorielle .................................................................... 262
2.3.2 Analyse de la fiabilité de cohérence interne ...................................................... 267
A. Échelle de satisfaction intrinsèque .................................................................. 268
B. Échelle de satisfaction extrinsèque ................................................................. 268
C. Limites de l’interprétation du coefficient de Cronbach ......................................... 269
2.3.3 Analyse factorielle confirmatoire ..................................................................... 270
A. Les indices de mesure absolus ....................................................................... 272
B. Les indices de mesure « incrémentaux » (ou indices relatifs de comparaison) ........... 272
C. Les indices de mesure de parcimonie ............................................................... 273
3. Conclusion .............................................................................................................. 273

CHAPITRE 10
MODÉLISER LES DIFFÉRENCES INDIVIDUELLES AVEC L’ANALYSE FACTORIELLE ..... 277
Stéphane VAUTIER, Patrice ROUSSEL et Saïd JMEL
1. Construire des variables composites : analyse factorielle exploratoire
et cohérence interne ............................................................................................. 279
1.1 La notion de variable composite .......................................................................... 279
1.2 La cohérence interne ............................................................................................ 280
1.3 L’analyse factorielle exploratoire .......................................................................... 281
2. Application avec le « Minnesota Satisfaction » Questionnaire .......................... 282
2.1 Analyses factorielles exploratoires ........................................................................ 282
2.2 Cohérence interne et corrélation moyenne ............................................................. 284
3. Analyse factorielle confirmatoire et fidélité composite ..................................... 286
3.1 Construction d’une matrice de covariance de petite taille ...................................... 286
3.2 Modèles emboîtés et modèle hiérarchique ............................................................. 287
3.3 Fidélité et spécificité des composites .................................................................... 290
3.4 Bootstrapper les coefficients de fidélité et alpha ................................................... 291
4. Discussion et conclusion ....................................................................................... 291
4.1 La démarche globale pour construire des variables composites ............................... 291
4.2 Pour aller plus loin .............................................................................................. 293

CHAPITRE 11
ANALYSE DES EFFETS LINÉAIRES PAR MODÈLES D’ÉQUATIONS STRUCTURELLES . 297
Patrice ROUSSEL, François DURRIEU, Eric CAMPOY et Assâad EL AKREMI
1. Démarche méthodologique pour les modèles d’équations structurelles ............ 299
1.1 Étape 1 – Élaboration d’un modèle théorique ........................................................ 300
1.2 Étape 2 – La spécification du modèle théorique .................................................... 300
Table des matières 439

1.3 Étape 3 – L’estimation du modèle théorique ......................................................... 302


1.3.1 Le choix de la matrice de données de départ ..................................................... 302
1.3.2 Méthode d’estimation .................................................................................... 302
A. L’ajustement du modèle théorique aux données ................................................. 303
B. Le choix de la méthode d’estimation des données .............................................. 303
1.3.3 La taille d’échantillon .................................................................................... 304
1.4 Étape 4 – L’identification du modèle théorique ..................................................... 305
1.5 Étape 5 – Interprétation des résultats .................................................................. 306
1.5.1 La qualité de l’ajustement du modèle aux données ............................................. 306
A. L’ajustement du modèle global ...................................................................... 307
B. L’ajustement du modèle de mesure ................................................................. 308
La fiabilité des construits .............................................................................. 308
La validité des construits .............................................................................. 308
L’ajustement du modèle de mesure .................................................................. 309
C. L’ajustement du modèle structurel .................................................................. 309
1.5.2 L’interprétation des résultats — et les modifications éventuelles du modèle .......... 310
A. Solutions standardisées ou non standardisées ? ................................................. 310
B. La respécification éventuelle du modèle théorique ............................................. 311
2. Résolution d’un modèle d’équations structurelles .............................................. 312
2.1 La corrélation entre les variables latentes expliquées ............................................ 312
2.2 Test de l’hypothèse 1 ........................................................................................... 313
2.3 Test de l’hypothèse 2 ........................................................................................... 317
2.4 Test de l’hypothèse 3 ........................................................................................... 318
2.5 Test de l’hypothèse 4 ........................................................................................... 319
2.6 Le modèle final ...................................................................................................
320
2.6.1 Ajustement et pouvoir explicatif des modèles ................................................... 320
2.6.2 Parcimonie et pouvoir explicatif du modèle final ............................................... 320
2.6.3 Re-spécification et re-estimation du modèle final (ancien modèle 4) .................... 321
3. Conclusion .............................................................................................................. 322

CHAPITRE 12
ANALYSE DES VARIABLES MODÉRATRICES ET MÉDIATRICES PAR LES MÉTHODES
D’ÉQUATIONS STRUCTURELLES ................................................................................... 325
Assaâd EL AKREMI
1. Définition des variables modératrices et médiatrices ......................................... 326
2. Typologie des variables médiatrices et modératrices ......................................... 328
3. Démarches d’analyse des variables médiatrices .................................................. 330
3.1 La démarche d’analyse de Baron et Kenny pour les effets médiateurs .................... 330
3.2 Illustration de la démarche d’analyse de Baron et Kenny pour les effets médiateurs 332
4. Démarches d’analyse des variables modératrices ................................................ 334
4.1 La démarche d’analyse de Ping pour les effets modérateurs ................................... 336
4.2 Illustration de la démarche de Ping pour les effets modérateurs ............................ 339
5. Conclusion .............................................................................................................. 342
440 Management des ressources humaines

CHAPITRE 13
ETUDES LONGITUDINALES ET COMPARAISONS ENTRE GROUPES
PAR LES MODÈLES D’ÉQUATIONS STRUCTURELLES ................................................... 349
Eric CAMPOY et Marc DUMAS
1. Invariance de la mesure ........................................................................................ 350
1.1 Les différents tests de l’invariance de la mesure .................................................... 351
1.2 Application ......................................................................................................... 355
1.2.1 Procédure .................................................................................................... 357
1.2.2 Exemple : stabilité d’une échelle de mesure auprès de plusieurs populations .......... 362
2. L’étude du changement des attitudes .................................................................. 365
2.1 Les formes du changement ................................................................................... 366
2.2 Applications ........................................................................................................ 368
2.2.1 Mise en évidence de l’existence d’un changement alpha et forme
de ce changement : les modèles de croissance ................................................... 368
2.2.2 Étude de l’impact du changement .................................................................... 372
3. Conclusion .............................................................................................................. 375

CHAPITRE 14
L’ANALYSE TYPOLOGIQUE : DE L’EXPLORATOIRE AU CONFIRMATOIRE ................ 379
François DURRIEU, Pierre VALETTE-FLORENCE
1. Essai de typologie exploratoire : le cas de la personnalité de marque ............. 381
2. L’implication organisationnelle : essai de typologies exploratoire
et confirmatoire ..................................................................................................... 388
2.1 L’implication organisationnelle : essai de typologie exploratoire
à partir de scores factoriels confirmés .................................................................... 390
2.2 L’implication organisationnelle : essai de typologie confirmatoire
et utilisation des modèles de mélange ................................................................... 395
3. Que retire le franchisé de son appartenance au réseau ? :
l’analyse de régression avec classes latentes ...................................................... 399
4. Conclusion .............................................................................................................. 401

CONCLUSION : OUVERTURES ÉPISTÉMOLOGIQUES ................................................ 405


Jacques IGALENS, Jean-Pierre NEVEU, Jacques ROJOT,
Patrice ROUSSEL, Frédéric WACHEUX

PRÉSENTATION DES AUTEURS .................................................................................... 429

Vous aimerez peut-être aussi