Vous êtes sur la page 1sur 496

© Editions EMS, 2018

Tous droits réservés


www.editions-ems.fr

ISBN : 978-2-37687-180-4
(versions numériques)
Dirigé par
Françoise CHEVALIER, L. Martin CLOUTIER
et Nathalie MITEV

Les méthodes
de recherche du

collection BUSINESS SCIENCE INSTITUTE


dirigée par
Pr Paul BEAULIEU, ESG UQAM
Pr Michel KALIKA, Business Science Institute et iaelyon School of Management
Pr émérite Alain-Charles MARTINET, iaelyon School of Management
TA B L E D E S M AT I È R E S
Avant-propos...................................................................................7
Remerciements................................................................................9
Préface. L’impératif d’efficacité dans la méthode du savoir......10
Introduction. Les méthodes de recherche du DBA : la recherche
sur le terrain, pour le terrain et par le terrain..............................15

Partie I. Choisir une méthode de recherche adaptéeà la 4


question terrain.................................................................................... 19
Introduction à la partie I.............................................................19

Chapitre 1. Le cadre général de la recherche de terrain...........23

Chapitre 2. Espoirs et désespoirs du doctorant.......................36

Chapitre 3. Choix des méthodes de recherche : discours contre


La méthode !...................................................................................48

Chapitre 4. Le portefeuille des méthodes de recherche terrain :


méthodes qualitatives, méthodes quantitatives et mixtes........66

Partie II. Recueillir les données du terrain............................87


Introduction à la partie II............................................................87

Chapitre 5. L’observation ............................................................94

Chapitre 6. Les entretiens.........................................................108

Les méthodes de recherche du DBA


Tab l e d e s m a t i è r e s

Chapitre 7. Les études de cas...................................................126

Chapitre 8. La méthode ethnographique................................. 140

Chapitre 9. Les récits de vie .....................................................158

Chapitre 10. Recherche historique, narration et documents


d’archives...................................................................................... 176

Chapitre 11. La collecte des données sur Internet.................. 191

Chapitre 12. Questionnaires et questionnaire en ligne..........201

Chapitre 13. Pratiquer une recherche-intervention


qualimétrique............................................................................... 218

Chapitre 14. Les designs quasi-expérimentaux ..................... 241

Partie III. Analyser les données du terrain......................... 257

Introduction à la partie III.........................................................257

Chapitre 15. L’analyse des données qualitatives : voyage au 5


centre du codage..........................................................................262

Chapitre 16. Logiciels et analyse de données qualitatives....283

Chapitre 17. L’analyse des données visuelles..........................306

Chapitre 18. Les analyses statistiques


multidimensionnelles..................................................................323

Chapitre 19. Visualisation de données et infographie


dynamique : le logiciel Sphinx ...................................................340

Chapitre 20. La méta-analyse....................................................358

Chapitre 21. Outils et méthodes de représentation


conceptuelle et de créativité  : l’apport des neurosciences.... 371

Partie IV. Contextualiser les méthodes..................................395

Introduction à la partie IV.........................................................395


Tab l e d e s m a t i è r e s

Chapitre 22. Le «  contexte  » et la recherche en terre africaine :


implications épistémologiques et méthodologiques...............400

Chapitre 23. Mener une recherche ancrée sur le terrain : la


dynamique du collier de perles...................................................422

Chapitre 24. L’émergence de la science du design en


management comme approche de recherche...........................437

Chapitre 25. La cartographie des concepts en groupe (CCG) :


étapes de réalisation et conversations orientées terrain........ 451

Conclusion....................................................................................481
Présentation des auteurs............................................................483

6
AVA N T- P R O P O S
Michel Kalika

Ce livre Les méthodes de recherche du DBA coordonné par


Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev, tous
trois membres de la faculté du Business Science Institute,
s’inscrit dans la perspective de la collection qui l’accueille aux
Éditions EMS. En effet, la collection Business Science Institute
a pour vocation de publier, en version papier et électronique,
7
des ouvrages rédigés soit par les professeurs du DBA, soit
issus des thèses des docteurs de DBA. La collection compte
aujourd’hui trois séries : la série les « Fondamentaux du DBA »
intègre les ouvrages de référence des professeurs ; la série les
« Recherches du DBA » les ouvrages issus des thèses des doc-
teurs de DBA et la série les « Pratiques managériales » où sont
bienvenues les publications ancrées dans le terrain et la réalité
managériale.

Le premier ouvrage La création de connaissance par les managers


(2015) coordonné avec Paul Beaulieu a regroupé 27 professeurs
et 5 doctorants qui ont précisé en quoi la création de connais-
sance par les managers était possible voire souhaitable. Le
deuxième ouvrage Le projet de thèse de DBA (2017) coordonné
également avec Paul Beaulieu a regroupé 19 contributions de
professeurs autour de la question de la définition du projet de
thèse. Le présent ouvrage complète les deux précédents de la
série les « Fondamentaux du DBA » et regroupe 35 auteurs qui
précisent quelles sont les méthodes et outils envisageables
pour un doctorant-manager. Ce travail collectif des professeurs

Les méthodes de recherche du DBA


Av a nt - p ro p o s

du Business Science Institute vise aussi à créer une culture


commune qui harmonise les directions de thèse tout en respec-
tant leur liberté.

En septembre 2018, la collection Business Science Institute


compte au total une quinzaine d’ouvrages dont deux en anglais.

L’Executive DBA du Business Science Institute est, à notre


connaissance, le seul programme de DBA ayant investi dans la
création d’une collection d’ouvrages dédiés au DBA. Puissent-
ils être utiles aux doctorants-managers !

Michel Kalika,
Président du Business Science Institute

8
R E ME RCIE ME N TS
Cet ouvrage est le résultat du travail collectif d’une équipe de
35 auteurs, membres d’une entreprise académique étendue ori-
ginale, celle de Business Science Institute. Il témoigne de l’éner-
gie collective des talents individuels, animés par un même projet :
celui de mettre à disposition des étudiants en DBA les éléments
de méthode de recherche indispensables à la réalisation de leur
thèse. Nous les en remercions tous chaleureusement.

Les auteurs adressent tous leurs remerciements à Michel Kalika


pour l’avant-propos de l’ouvrage, et à Paul Beaulieu pour la pré- 9
face de l’ouvrage. Et plus encore pour cet engagement et cet
optimisme entrepreneurial, marques de fabrique du Business
Science Institute, qu’ils partagent non seulement avec le
corps professoral mais aussi avec l’ensemble des étudiants du
Business Science Institute.

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev

Les méthodes de recherche du DBA


P R É FAC E

L’impératif d’efficacité dans la méthode du savoir

Paul Beaulieu

L’émergence de la nouvelle vague de formation de docteurs de


pratique en gestion, communément appelés DBA1, s’inscrit
dans le contexte mondial d’une expansion de la complexité des 10
dynamiques et des processus d’affaires de toutes catégories. Le
nombre d’acteurs, d’organisations, d’institutions, de facteurs
critiques des systèmes d’affaires, de processus et de contextes
à prendre en compte, s’est accru de façon considérable au cours
des dernières décennies.

Le DBA, pris au sens de cette nouvelle fonction ou statut au


sein de la pratique de la gestion et ainsi qu’au sens de l’insti-
tutionnalisation de la formation de celle-ci, tire sa raison d’être
de cette nouvelle complexité du monde global des affaires2 et de
l’envergure des maillages et des modalités organisationnels de
plus en plus diversifiés. Cette nouvelle vague émergente de pro-
grammes de DBA fait suite à celle qui a cherché antérieurement
à former des managers que l’on voulait du type « clinicien » mais
sans avoir jamais réussi à clarifier les rôles spécifiquement dé-

1. DBA pour Doctor in Business Administration.


2. Nous prenons le terme affaires dans son acception la plus large et couvrant la
diversité des domaines d’application, et non pas au sens usuel et restreint des
affaires à but lucratif.

Les méthodes de recherche du DBA


Préface

volus à celui-ci. Le nouveau courant de la formation des DBA


s’oriente vers le développement des compétences scientifiques
de managers issus des milieux de la pratique et qui sont ap-
pelés à exercer celles-ci pour assurer une plus grande validité
des connaissances et une plus grande efficacité des pratiques
mises en œuvre.

La valeur intrinsèque de la contribution potentielle du DBA ré-


side particulièrement dans ses capacités à développer et à as-
surer une plus grande valeur de vérité aux connaissances de
pratique mobilisées pour la réalisation de la gestion. En consé-
quence, la méthode de la production des faits scientifiques sera
pour lui une préoccupation de qualité qui sera constante pour
soutenir et assurer l’efficacité de ses prestations, ainsi que son
apport distinctif au sein des situations de la pratique de ges-
tion.

Ainsi, le docteur de pratique en gestion vient combler un besoin


dont les symptômes se font de plus en plus évidents et discer-
nables dans le discours des acteurs du monde de la gestion. D’un
côté, les professeurs-chercheurs appartenant au champ social
des sciences de la gestion vivent une crise. Celle-ci touche les 11
suppositions fondatrices liées à la pertinence et à l’efficacité
de leurs productions eu égard aux attentes des agents des do-
maines de la pratique de la gestion3. Le reproche le plus cou-
rant qui est adressé aux productions du champ scientifique de la
gestion est leur trop grande abstraction et leur éloignement des
préoccupations d’efficacité. Du côté du champ de la pratique de
gestion, la faiblesse de la valeur de vérité au plan de l’efficaci-
té des connaissances et des procédés de gestion mis en œuvre
est de plus en plus ressentie comme préoccupante par les res-
ponsables dans les organisations. Trop de processus et trop de
stratégies d’intervention reposent sur des croyances qui n’ont
pas été soumises à l’épreuve d’une justification rigoureuse ré-
pondant aux qualités et aux règles usuelles de la connaissance
scientifique. La pratique de gestion mise en œuvre est encore
trop souvent non fondée sur la preuve par les faits d’une assu-

3. À ce sujet, le texte de Sandberg et Tsoukas s’est fait l’écho de ce malaise et en


a explicité les principales dimensions fondamentales : Sandberg, J. & Tsoukas,
H. (2011), Grasping the logic of practice: Theorizing through practical rationality,
Academy of Management Review, vol. 36, n°2, p. 338-360.
Préface

rance d’efficacité. Le domaine de la gestion des affaires à but


lucratif a pour sa part l’avantage de bénéficier des impératifs
provenant de la règle touchant l’obligation de générer un sur-
plus économique d’opération et de la capitalisation de celui-ci
pour l’avancement des capacités de l’entreprise. L’application de
cette règle du système des affaires capitalistes permet une cer-
taine « épuration » périodique et quasi mécanique des pratiques
de gestion inefficaces.

Le manager-DBA, de par la logique du rôle scientifique qui lui


est dévolu au sein des situations de gestion, s’inscrit dans une
épistémologie pragmatiste 4. Le courant de la pratique de gestion
basée sur les données probantes ou les preuves (Evidence-based
Management, en anglais) participe à la dynamique de ce champ so-
cial des sciences de gestion qui est en émergence et qui s’ancre
de façon concomitante dans le monde de la pratique de gestion et
dans celui de la pratique de la science. Peut-être sommes-nous
en présence du nouvel espoir d’une pratique de gestion scienti-
fiquement enracinée qui pourra appréhender toute la profondeur
de la complexité de l’hypermodernité actuelle sans se replier dans
la naïveté des prétentions de l’idéologie managériale rationaliste
12 de la deuxième moitié du XXe siècle. Nous vivons dans un monde
pour lequel nos conceptions de l’efficacité individuelle et collec-
tive doivent être révisées et rendues sensibles aux mouvances de
situations de plus en plus dynamiques5. Ainsi les exigences du
temps présent appellent-elles à une redéfinition de la division du
travail et des responsabilités scientifiques devant répondre aux
besoins du monde de la gestion.

La méthode, ce cheminement qui va de la problématisation aux


processus de résolution des problèmes et à l’atteinte des résul-
tats, est le fait de l’accomplissement, tant par les gestionnaires
en situation de pratique que par les chercheurs, de la produc-
tion d’une connaissance valide. Le gestionnaire déploie de la
méthode pour la réalisation d’objectifs en vue d’une efficacité
accrue. Le scientifique procède aussi dans le même sens dans la
poursuite d’un objectif de théorisation.

4. Rescher, N. (2012), Pragmatism. The Restoration of its Scientific Roots, New Brunswick,
NJ, Transaction Publishers.
5. Pour reprendre une proposition du philosophe François Julien (1996), Traité de l’ef-
ficacité, Paris, Grasset.
Préface

Il en va dans un sens identique pour les processus de théori-


sation. Le gestionnaire en situation de pratique se livre à des
activités de théorisation et de réflexivité sur sa pratique et sur
l’expérience qui se réalise à travers la dynamique des situations.
Ainsi, le praticien en situation de réalisation de la gestion et le
chercheur théoricien au sein du champ social des sciences de la
gestion entretiennent-ils une relation étroite avec la méthode et
avec la connaissance méthodologique. Les finalités vont varier
mais les démarches de connaissance partagent de nombreuses
similitudes de qualité et de processus. Comme le signale à juste
titre l’anthropologue-social des sciences, Bruno Latour, le sa-
voir est fondamentalement un savoir-faire qui s’accompagne
d’un faire-savoir 6. Bref, tous sont des praticiens du savoir mais
ils se différencient quant aux modalités d’administration de la
preuve.

Le DBA est appelé à occuper une position sociale dans le champ


des sciences de la gestion. C’est en cela qu’il se distingue radi-
calement de celui qui a pour fonction la maîtrise des processus
et des stratégies de réalisation7. Les faits, l’activité et les finali-
tés scientifiques sont au centre de ses préoccupation lorsqu’il
met en œuvre les compétences qui lui sont spécifiques. En effet, 13
être titulaire d’un DBA, c’est également être en mesure de faire
preuve de capacités de compréhension critique et de réflexivité
plus aiguisées.

C’est ainsi que la maîtrise méthodologique est un domaine de


compétence essentiel pour un manager-chercheur candidat au
DBA. Il lui importe au premier plan de développer ses « capaci-
tés méthodologiques » à un niveau de compétence fiable scien-
tifiquement afin d’être en mesure d’assumer les finalités spéci-
fiques qui lui incombent : connaître et comprendre la panoplie
des modalités méthodologiques en ce qui concerne leurs fina-
lités, leurs caractéristiques, leurs processus, leurs critères de
qualité et leurs facteurs d’efficacité ; être capable d’effectuer le
design de plans méthodologiques efficients et efficaces ; être
capable de prescrire et/ou de mettre en œuvre des plans métho-

6. Bruno Latour (2010), Cogitamus. Six lettres sur les humanités scientifiques, Paris, La
Découverte ; ainsi que L’espoir de Pandore. Pour une version réaliste de l’activité scienti-
fique, Paris, La Découverte, 2007.
7. Fonction éminemment dévolue aux MBA (entre autres).
Préface

dologiques ; ainsi que d’évaluer rigoureusement la performance


des méthodologies mises en œuvre et/ou prescrites et surtout
innover sur le plan de la méthode.

Comme il convient de constater, la connaissance méthodolo-


gique est déterminante pour la pratique du docteur en gestion.
Elle occupe une large part de sa formation de doctorant et elle
doit demeurer pour lui un apprentissage continu qui s’effectue
dans la perspective du maintien d’une position d’ouverture, d’ef-
ficacité, d’innovation et de distance critique. Bref, la méthodolo-
gie de production des faits scientifiques est fondamentale dans
l’accomplissement du rôle dévolu au DBA au sein du monde de
la gestion.

Paul Beaulieu
Professeur
École des Sciences de la Gestion
Université du Québec à Montréal

14
IN T RODUCT ION

Les méthodes de recherche du DBA :


la recherche sur le terrain, pour le terrain et
par le terrain

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev

15
OBJECTIF ET VUE D’ENSEMBLE DE L’OUVRAGE
Mener une thèse de Doctorate in Business Administration (DBA)
offre des spécificités toutes particulières (Kalika, 2017). À la dif-
férence de l’étudiant qui entame une thèse de PhD (ou doctorat
traditionnel) et se pose la question de la recherche d’un terrain,
l’étudiant en DBA dispose du ou des terrains d’investigation.
Dans le DBA, le doctorant est sur le terrain, il en a une connais-
sance propre, familière1.

L’une des questions qui se pose est celle de la prise de distance,


celle de l’arrachement momentané du terrain, pour mieux y reve-
nir ensuite armé de questions de recherche, d’angles de lecture,
pour y voir plus clair. Les doctorants dans un DBA ont entre les
mains une « mine d’or », celle de leurs terrains, encore faut-il
qu’ils sachent comment s’y prendre pour l’exploiter. S’arracher
du sens commun, ou de « la connaissance ordinaire » (Morel,

1. Métaphore du terrain de football de Jean-Pierre Helfer.

Les méthodes de recherche du DBA


I nt ro d u c t i o n

1992), pour investiguer d’autres scénarii de lecture, est certes


un point de passage obligé de tous les doctorants ; toutefois
les doctorants engagés dans un DBA, rencontrent ce problème
plus intensément compte tenu de leur immersion dans ces ter-
rains. Des terrains qui leur sont tellement familiers qu’ils en de-
viennent consubstantiels à leur façon de penser. Or, il s’agit avec
la pratique de la recherche d’amener la personne à « prendre la
réalité avec des pincettes » (Bourdieu, 1995) et à cultiver une
« familiarité distante » (Matheu, 1986). La posture de chercheur
va amener les personnes à travailler, en mode réflexif, sur leurs
propres pratiques et expériences. L’opération de dédoublement
ne va pas de soi.

Une autre spécificité des doctorants de DBA est qu’ils s’en-


gagent à mener leurs travaux de recherche tout en continuant
à exercer leurs activités professionnelles. S’ils acquièrent pro-
gressivement les concepts, méthodes, outils… au travers de sé-
minaires méthodologiques et thématiques, le temps est cepen-
dant limité. Ils n’auront pas, à la différence d’étudiants de PhD
ou de doctorat traditionnel, le temps de « faire des gammes re-
cherche », c’est-à-dire des exercices à blanc. Exercices où l’on
16 peut se familiariser et apprendre, en particulier à manier mé-
thodes et outils de recherche. Pour les doctorants de DBA, rien
de tel. Ici non seulement l’apprentissage de la recherche se fait
dans et par la pratique, en compagnonnage étroit avec d’autres
chercheurs, mais ici aussi, plus qu’ailleurs, le temps est compté.

Enfin les étudiants de DBA, à la différence aussi des étudiants


en PhD ou de doctorat traditionnel, ne se destinent pas à faire de
la recherche leur profession à part entière. Le DBA leur permet
d’acquérir une expertise spécifique sur un sujet particulier, d’an-
crer leur réflexion et leur analyse en recourant à des cadres mé-
thodologiques et théoriques éprouvés (Beaulieu & Kalika, 2015).
Les doctorants de DBA sont des praticiens qui, leur thèse sou-
tenue, deviennent consultants ou experts dans leur entreprise,
voire rejoignent, à temps partiel, le corps des enseignants dési-
reux de faire partager leurs pratiques tout en étant en mesure de
prendre de la distance par rapport à elles.

C’est dans ce contexte que prend place cet ouvrage. Il s’adresse


aux étudiants de DBA. L’objectif est de leur fournir une palette
I nt ro d u c t i o n

de méthodes et d’outils qu’ils vont pouvoir s’approprier et mettre


en œuvre sur les terrains qui leur sont familiers. Il existe de très
nombreux ouvrages sur les méthodes et les outils de recherche
en management. Cet ouvrage est différent. Son orientation est
volontairement pragmatique. Il ne cherche pas à présenter un
panorama exhaustif des méthodes de recherche. Le périmètre de
méthodes et d’outils proposés dans l’ouvrage est à la fois volon-
tairement restreint et divers. Restreint, pour chercher à répondre
le plus possible aux préoccupations de doctorants partant du
terrain et revenant en fin de course au terrain : les doctorants de
DBA font de la recherche Par le terrain et Pour le terrain. Divers,
pour laisser à chacun la liberté et la créativité de construire son
chemin, tout en gardant le cap de la rigueur scientifique. C’est à
cet équilibre original et délicat que l’ouvrage invite.

Dans cet ouvrage la présentation des méthodes est volontai-


rement écrite de manière simple pour être plus facilement ap-
propriable et par conséquent utilisable. Il s’agit d’un côté de
chercher à éviter tout jargon, d’un autre côté d’être respectueux
des terminologies propres aux domaines scientifiques. Toute la
gageure est ici pour les auteurs de ne pas sacrifier à la rigueur
scientifique tout en facilitant en même temps l’accessibilité à 17
cette indispensable rigueur. Une double exigence qui alimente
l’écriture de chacun des chapitres de cet ouvrage.

S’engager dans un DBA c’est en quelque sorte orchestrer


l’énergie collective des talents individuels. Talents des profes-
seurs-chercheurs et talents des managers-doctorants. C’est
ce à quoi cet ouvrage, qui se veut pragmatique et didactique,
cherche à contribuer. Disponible en version française, et bien-
tôt, anglaise, l’ouvrage pose les premières pierres d’un édifice
en construction, celui du Business Science Institute.

L’ouvrage comporte quatre parties. La première partie pose la


question du choix des méthodes de recherche, la deuxième s’in-
téresse aux méthodes de recueil des données, la troisième aux
méthodes d’analyse des données, et la quatrième partie porte
sur la contextualisation des méthodes. Certes, dans « la vraie vie
du chercheur » la séparation entre choix et mise en œuvre n’est
pas aussi dichotomique que l’organisation de l’ouvrage pourrait
le laisser supposer. Les phases de recueil et d’analyse des don-
I nt ro d u c t i o n

nées, par exemple, sont en tensions dynamiques constantes.


Les itérations et les bricolages font partie de l’exercice de la re-
cherche (Weick, 1995). Néanmoins c’est, à nouveau, animés d’un
souci didactique (et non pas normatif) que nous avons retenu
cette organisation de l’ouvrage en quatre parties distinctes.

Souhaitons que les lecteurs puissent retrouver dans la lecture


de ces chapitres le plaisir que les auteurs ont mis à les écrire.
Souhaitons enfin que l’ouvrage qui se situe dans le prolonge-
ment de l’ouvrage sur le projet de thèse de DBA (Beaulieu &
Kalika, 2017), tombe sous le sens pour les doctorants de DBA.

Références citées

Beaulieu, P. & Kalika, M. (2015), La création de connaissance par les


managers, Éditions EMS.
Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Éditions
EMS.
Bourdieu, P. (1995), Sur les rapports entre la sociologie et l’histoire
en Allemagne et en France, Actes de la Recherche en Sciences
Sociales, vol. 106, n° 1, p. 116.
18 Kalika, M. (2017), Comment réussir son DBA ?, Éditions EMS.
Matheu, M. (1986), La familiarité distante, Gérer et Comprendre, vol. 3,
p. 81-94.
Morel, C. (1992), Le mal chronique de la connaissance ordinaire sur
l’entreprise, Gérer et Comprendre, vol. 28, p. 71-83. http://www.
christianmorel-sociologue.fr/Connais1.pdf
Weick, K. E. (1995), What theory is not, theorizing is, Administrative
Science Quarterly, vol. 40, n° 3, p. 385-390.
PARTIE I
Choisir une méthode de recherche adaptée
à la question terrain

Introduction à la partie I

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev


19

Un doctorant de DBA peut se sentir submergé par le large éven-


tail de méthodes de recherche utilisées en sciences de gestion,
particulièrement en début de thèse. Cette première partie l’ai-
dera à mieux comprendre comment choisir une ou plusieurs
méthodes de collecte de données en fonction de l’état de l’art
dans son domaine de recherche, ses objectifs de recherche, sa
problématique, sa question terrain, ses compétences et motiva-
tions personnelles et professionnelles.

Dans le chapitre 1, Michel Kalika explique le rôle du travail de


terrain en relation au processus de recherche, à la collecte des
données de terrain et aux différentes finalités d’un terrain de re-
cherche. Il suggère qu’une approche enracinée et inductive cor-
respond mieux aux doctorants de DBA, qui sont déjà fortement
ancrés dans leurs terrains professionnels. Une finalité d’explo-
ration inductive sera naturelle à des doctorants-managers im-
mergés dans leur quotidien professionnel. Une deuxième finali-
té de validation plus typique d’un PhD traditionnel commencera

Les méthodes de recherche du DBA


C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

par une revue de la littérature pour formuler des hypothèses ou


des propositions, suivie par la collecte de données de terrain
pour les valider déductivement. Le troisième type de finalité est
la confirmation des résultats par des acteurs concernés me-
nant à des recommandations pratiques. Il détaille l’aller-retour
continu entre la littérature et le terrain qui doit avoir lieu dans les
trois types de finalité. Le choix du sujet de thèse en relation à la
collecte des données – l’accès, les opportunités, la faisabilité,
les compétences et les objectifs du doctorant-chercheur – est
ensuite traité et est illustré à travers des exemples de doctorants
de DBA ayant soutenu leur thèse. Enfin, il caractérise les motiva-
tions personnelles et professionnelles qui rendent le terrain de
recherche une source autant qu’une destination de différentia-
tion et de légitimité pour des doctorants de DBA.

Dans le chapitre 2 Jean-Pierre Helfer évoque les diverses phases


psychologiques statistiquement habituelles qu’un doctorant de
DBA rencontre durant son engagement avec le processus de re-
cherche. Il les qualifie de « moments d’espoir » et de « périodes de
désespoir » dans le but de rassurer et d’équiper les doctorants à y
faire face. Mieux les comprendre, se comprendre et comprendre
20 les « rites » inhérents à tout processus au sein d’une communau-
té ne peuvent qu’améliorer la probabilité de succès. Il donne des
conseils très précis afin de surmonter les phases de désespoir et
puiser dans les satisfactions des périodes d’espoir. Il convient
de posséder des qualités d’analyste, de découvreur, de commu-
nicant et surtout de se maîtriser soi-même pour mieux gérer la
succession des phases. Il décrit trois phases bien distinctes, le
début, le milieu et la fin. Au début, le moment des interrogations,
s’interroger au mieux, se questionner au plus fin, surmonter les
incertitudes permettent de s’en échapper « par le haut ». Le milieu
est une phase de questionnements et la fin de la thèse est une pé-
riode d’inquiétudes. Il accentue particulièrement les spécificités
du DBA par rapport à un PhD traditionnel, avec des exemples, et
suggère différentes formes de soutien. Il montre que le déses-
poir est normal, que l’envie régulière de renoncer est naturelle
mais qu’elle doit être maîtrisée par la connaissance et la compré-
hension des codes doctoraux. 

Pierre-Louis Dubois pose la question du choix des méthodes de


recherche dans l’exercice particulier de la thèse de DBA dans
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

le chapitre 3. Toute recherche en sciences de gestion doit pré-


ciser les conditions des méthodes d’investigation de la réalité
observée liées au projet du chercheur, s’interroger sur le choix
des techniques de collecte de données et poser la question de
la validité des résultats, pour que la recherche puisse avoir une
portée hors du contexte d’étude. Ce chapitre se concentre donc
sur les interactions entre le choix des méthodes, la construction
d’une méthode adaptée à la problématique et au « terrain » étu-
dié, l’état de l’art et les objectifs de recherche. Il examine le rôle
des méthodes dans la thèse en relation avec la problématique,
l’état de l’art, le rapport à l’épistémologie, les pratiques dans le
temps et l’espace, et les objectifs de recherche. L’auteur donne
enfin quelques conseils pratiques sur les écueils à éviter et les
limitations inhérentes à toute recherche en sciences de gestion.
Les points critiques qu’il aborde incluent le choix des données,
le traitement des données, et la validité des résultats.

Le but du chapitre 4 d’Yves-Fréderic Livian est d’aider le docto-


rant de DBA à choisir la méthode d’approche de son terrain en
l’orientant dans une réflexion sur son projet en relation avec les
différences et complémentarités entre les méthodes quantita-
tives et qualitatives. Le « projet cognitif » de sa recherche doit être 21
pensé et s’insérer dans un courant de réflexion (théories dispo-
nibles, concepts à utiliser) et aboutir à créer des connaissances
nouvelles. Quatre opérations cognitives sont distinguées, la
description, l’explication, la compréhension et la transforma-
tion, qui vont mener à utiliser des méthodes de recherche terrain
différentes. Certains projets cognitifs privilégient une position
extérieure vis-à-vis du sujet étudié et une analyse déductive des
variables explicatives d’un phénomène ; d’autres projets sont
ancrés dans la prise en compte inductive des contextes, per-
ceptions et sentiments des individus impliqués dans la situa-
tion étudiée. Le manager-chercheur doit avoir une vue globale
du « portefeuille » de méthodes de recherche terrain et le cha-
pitre présente succinctement cinq principales familles de mé-
thodes de recherche : les dispositifs expérimentaux, l’enquête,
les études de cas, l’observation et la recherche-action, en en
soulignant les forces et limites d’utilisation et en les classant en
fonction des objectifs cognitifs de la thèse. Enfin, il expose deux
écueils méthodologiques contraires à éviter : la sous-estimation
des considérations méthodologiques, et le surinvestissement
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

qui accorde trop de confiance à la solidité « scientifique » des


méthodes en sciences sociales.

Ce dernier chapitre de la première partie énonce donc les grands


traits des principales méthodes de recherche quantitatives et
qualitatives qui doivent être considérés en relation à une ré-
flexion sur un projet de recherche et un terrain. Le but de la deu-
xième partie est de détailler et d’illustrer ces diverses méthodes
de collecte de données quantitatives et qualitatives et de fournir
des recommandations d’ordre pratique à un doctorant de DBA.

22
CHAPITRE 1.
Le cadre général de la recherche de terrain

Michel Kalika

Résumé

Dans tout travail doctoral en management, ce que l’on ap-


pelle le « terrain », par opposition à « la littérature », revêt un
rôle très significatif dans la mesure où l’on n’imagine pas une
thèse en management sans collecte de données empiriques
qui nourrissent la réflexion et la production de résultats. Dans 23
le cas d’une thèse de DBA, le rôle du terrain prend une place
particulière dans la mesure où le doctorant-manager est issu
d’un « terrain » qui va lui procurer à la fois son sujet de thèse
et les données empiriques qui vont lui permettre, en interac-
tion avec les théories issues de la littérature, de proposer des
résultats et des recommandations managériales dont la pré-
sence est indispensable dans ce type de thèse. Ce chapitre
précise la place du terrain dans le processus de recherche, les
différentes finalités d’un terrain de recherche, sa place dans
le choix du sujet de thèse de DBA et la relation réciproque qui
existe entre le terrain et la thèse.

Mots-clés : DBA, terrain, méthodologie, littérature, proces-


sus recherche.

Les méthodes de recherche du DBA


C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

« Le terrain est à la thèse ce que la mère est à l’enfant, elle le nourrit,
le voit grandir, s’émanciper, prendre son envol. »

INTRODUCTION
Dans toute recherche doctorale en management, la recherche
de terrain est centrale dans la mesure où elle contribue à nour-
rir la réflexion sur la question de recherche, la collecte d’infor-
mation et l’analyse des résultats. Par recherche de terrain, on
n’entend pas ici le fait de chercher un terrain, mais l’action qui
consiste à aller sur le terrain et à y collecter de l’information. Les
termes de « recherche de terrain » et de « terrain de recherche »
sont utilisés conjointement dans ce qui suit. On n’imagine pas
de recherche doctorale en management basée uniquement sur
une revue de littérature, des conjectures et sans une recherche
ancrée dans un terrain permettant de collecter des données
empiriques. Quand on parle de terrain, dans le champ de la re-
cherche en management, on fait implicitement référence à deux
dimensions : d’une part, un lieu de recherche et, d’autre part, une
méthodologie de collecte des données. Il peut s’agir de collecte
d’information dans des entreprises, des organisation publiques
24
ou associatives, ou auprès de clients ou consommateurs. Cette
collecte de données peut aussi prendre différentes formes par-
mi lesquelles on distingue traditionnellement les données qua-
litatives (entretiens, compte-rendu, observations, récits, etc.)
et les données quantitatives (enquête en ligne, en face à face,
statistiques diverses, etc.).

Dans le cadre d’un Doctorate in Business Administration la question


de la recherche de terrain se pose avec une acuité particulière et
de façon très spécifique dans la mesure où le doctorant-mana-
ger, qui est en activité ou qui a eu une longue vie professionnelle,
est ancré dans un terrain de recherche, dans une expérience ma-
nagériale qui est fréquemment à l’origine même de sa démarche
le conduisant à entreprendre un DBA.

Dans les lignes qui suivent nous commençons par préciser


la place du terrain dans le processus de recherche, puis nous
identifions les différentes finalités d’un terrain de recherche,
pour ensuite préciser la place de ce terrain dans le choix du sujet
de thèse de DBA et nous concluons en montrant que, dans une
L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

thèse de DBA, le terrain est à la fois source et destination de la


thèse.

1. PLACE DU TERRAIN DANS LE PROCESSUS DE


RECHERCHE1
La place chronologique du terrain dans le processus de re-
cherche dépend de l’approche plutôt déductive ou plutôt induc-
tive retenue. L’approche déductive, souvent appelée hypothético-
déductive, consiste à partir de la lecture de la littérature, donc
des théories, à formuler des hypothèses pour ensuite aller sur
le terrain collecter des données qui permettront de valider ou
d’infirmer ces hypothèses2. L’approche inductive de la recherche
consiste à commencer le processus de recherche par le terrain
et l’observation des faits pour ensuite les confronter à la littéra-
ture, conceptualiser, généraliser et proposer une nouvelle théo-
rie (Walsh, 2015). La distinction entre ces deux approches et la
place respective du terrain peut être illustrée par le tableau 1.

Tableau 1. La place du terrain dans les deux


approches de la recherche 25

Ordre Déductive Inductive


Examen de la littérature et des Terrain : observation des
1
théories existantes faits
2 Formulation d’hypothèses Examen de la littérature
Terrain : collecte de données Confrontation des données aux
3
théories existantes
4 Traitement des données 3
Validation ou non des hypo- Production d’une nouvelle
5
thèses théorie
6 Résultats et recommandations

1. Kalika (2017, p. 61-62).


2. C’est la démarche retenue par Sidibe (2018) dans sa thèse Le rôle de la gouvernance
dans le système de management des risques : Cas d’un échantillon des Banques maliennes,
soutenue en 2017, dont est issu l’ouvrage Gouvernance et management des riques paru
en 2018 dans la série les Recherches de DBA de la collection « Business Science
Institute ».
3. Pour le traitement des données, voir Moscarola (2018).
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

En pratique, le chercheur en management fait souvent des al-


lers-retours entre théories et observations au fil de son proces-
sus de recherche et combine ces approches inductives et dé-
ductives. Il peut ainsi partir de son terrain, de son expérience,
qu’il peut formaliser au travers de la rédaction d’un cas ou d’un
récit de vie et formuler des conjectures qu’il va comparer à la lit-
térature sur son sujet (Figure 1). Ensuite, il peut, à partir de ce
qu’il a lu, formuler des hypothèses qu’il cherchera à valider en re-
tournant sur le terrain. Il peut a contrario formuler des hypothèses
à partir de modèles issus de la littérature existante, collecter des
données pour les valider et, compte tenu des résultats déce-
vants qu’il obtient, collecter à nouveau des informations sur le
terrain et les réinterpréter pour construire une nouvelle théorie.

« La distinction faite ci-dessus entre les approches, porte


donc notamment sur la question de savoir par quoi le doc-
torant-manager doit démarrer son processus de thèse de
DBA : l’analyse de la littérature ou bien les observations.
La thèse de DBA doit se concevoir comme une succession
d’allers-retours entre l’étude de la littérature et l’observation
du terrain qui permet progressivement au doctorant de pré-
26 ciser son sujet. Nous faisons le constat que dans le cas des
doctorants-managers, le sujet émerge du terrain, de son ex-
périence de manager. Le doctorant-manager commence une
série de recherches bibliographiques sur les mots-clés de
son sujet et effectue des premières lectures. Il teste ensuite
par rapport à ses données de terrain déjà disponibles, les
premiers travaux qu’il découvre. Il est conduit à de nouvelles
lectures notamment suite aux interactions avec son directeur
de thèse. S’il a choisi une approche inductive enracinée dans
ses données, il mène des analyses approfondies de ses cas4,
de ses entretiens, de ses observations empiriques, qui vont
nourrir sa réflexion et le conduire à de nouvelles lectures. S’il
a opté pour une approche hypothético-déductive, il tire de la
littérature un cadre conceptuel, un modèle, des hypothèses
qui vont le conduire sur le terrain afin qu’il puisse les tester.
Enfin, après l’analyse de ses données, ses résultats vont le

4. C’est la méthodologie retenue par Diallo, dans sa thèse de DBA soutenue en 2017,
sur l’intégration des PME africaines au marché international dans lequel cinq cas
de PME sont étudiés.
L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

conduire à la fois à enrichir la littérature et à fournir au terrain


des recommandations managériales. On observe donc un
processus continu d’itérations gérées par le doctorant-ma-
nager entre la littérature et le terrain » (Kalika, 2017, p.63-64).

Figure 1. La thèse de DBA : Illustration de l’aller-


retour continu entre la littérature et le terrain

27

Source : d’après Kalika, 2017, p. 64

Nous observons dans les processus de thèse des docto-


rants-managers deux approches distinctes.

Une première approche ancrée dans les données qui consiste,


dans un premier temps, à recueillir les données liées au thème
de recherche (entretiens auprès de collègues ou collaborateurs,
lecture des documents et comptes rendus de réunion, enquêtes,
observations, etc.), à les analyser, puis à les interpréter au re-
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

gard de la littérature. Cette approche de la thèse de DBA qui


est enracinée dans les données et dans laquelle le terrain prime
nous semble particulièrement adaptée à des doctorants-mana-
gers qui font face, en début de recherche, à une masse de don-
nées accumulées au travers des dossiers et missions réalisées
au cours de leur vie professionnelle. Une seconde approche,
plus traditionnelle, consiste à commencer par l’analyse de la lit-
térature et la thèse va consister à tester un modèle conceptuel
dans une approche hypothético-déductive, à formuler des hypo-
thèses, à recueillir des données et à les analyser.

La première approche nous semble davantage correspondre à


l’esprit du DBA en raison de l’ancrage du doctorant-manager
dans son terrain. Mais le choix de l’approche dépend de la matu-
rité du sujet, de l’objectif de la recherche et des préférences du
doctorant-manager et de son directeur de thèse.

2. FINALITÉS DU TERRAIN DE RECHERCHE5


Le terrain de recherche peut avoir trois types de finalité dans une
recherche.
28
Il peut tout d’abord s’agir d’un terrain à finalité d’exploration.
Il s’agit dans ce cas au début du processus doctoral, en géné-
ral dans la première année, de vérifier la pertinence et l’intérêt
d’un sujet. Cette phase repose souvent sur l’interrogation se-
lon un mode ouvert, non directif, de managers, d’acteurs du
problème envisagé, de consommateurs, etc. Il sera important
pour le doctorant de conserver trace des données collectées
durant cette première phase et de les faire figurer en annexe de
la thèse (transcription par exemple des interviews enregistrés).
Ces données ont en effet pour vocation de justifier de l’intérêt
notamment managérial de la recherche conduite. On peut aus-
si dans cette phase, et de façon alternative, avoir recours à des
données secondaires tels que des articles de presse profession-
nelle pour vérifier l’intérêt d’un sujet sur lequel on envisage de
travailler. Le comptage, par exemple, du nombre de fois où un
article de presse destiné à des managers a porté sur le sujet en-
visagé est un témoignage de son actualité et de son intérêt ma-

5. Kalika (2017, p. 61-62).


L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

nagérial. Certains étudiants de DBA passent cette phase explo-


ratoire considérant que leur immersion quotidienne, depuis des
années, dans l’environnement professionnel les en dispensent.

Le deuxième type de terrain est à finalité de validation. Le doc-


torant-manager a effectué sa revue de la littérature et a formu-
lé des hypothèses ou des propositions que la collecte d’infor-
mation sur le terrain va lui permettre de valider. Cette collecte
d’information peut se faire par interview, par questionnaire, par
observation, etc., et vise à nourrir le processus de production
de résultat reposant sur des données empiriques. Dans une
recherche inductive comme dans une recherche-action 6, cette
phase de terrain, qu’est la collecte de données, est également
essentielle car elle va permettre au chercheur la conceptualisa-
tion et la formulation de propositions d’action.

Le troisième type de terrain est à finalité de confirmation. Après


avoir traité ses données et obtenu des résultats, le chercheur
peut souhaiter recueillir l’avis des acteurs concernés sur ce qu’il
a extrait des données et sur ses propositions. Il peut ainsi les
soumettre à la réaction d’un échantillon de managers sous la
forme de groupe de restitution ou de conférence assortis d’une
29
évaluation en retour sur les recommandations managériales for-
mulées.

Tableau 2. Les différentes finalités du terrain

Phases Finalité du terrain Caractéristiques


1 Exploration Nombre limité d’entretiens non directifs,
qualitatifs pour comprendre le phénomène
2 Validation Nombre plus large d’individus interrogés,
données quantitatives ou qualitatives
3 Confirmation Groupe de restitution ou conférence qui
donne un avis sur les recommandations

6. Voir le chapitre 13 dans cet ouvrage rédigé par V. Boko & M. Bonnet sur la re-
cherche-action.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

3. PLACE DU TERRAIN DANS LE CHOIX DU SUJET


DE THÈSE
Le choix d’un sujet de thèse de DBA résulte d’un processus
complexe où interagissent de nombreuses considérations. Nous
conseillons aux doctorants-managers de prendre en compte
cinq facteurs dans le choix du sujet : ses objectifs, ses res-
sources et compétences, les opportunités de l’environnement
auquel il est confronté, sa faisabilité et l’avis de son directeur de
thèse (Kalika, 2017, p. 42). Sur ces cinq facteurs, quatre (grisés)
concernent directement le terrain dans lequel le doctorant-ma-
nager est immergé.

Figure 2. Place du terrain de recherche dans le choix


du sujet

30

Les objectifs du doctorant-manager, qu’ils soient à dominante


personnelle ou professionnelle, sont largement influencés par le
terrain dans lequel il baigne. Par exemple, le choix de Bouacida
(2018) de travailler sur les joint-ventures franco-algériennes
n’est pas étranger au fait que son périmètre actuel d’activité se
situe à la fois en France et en Algérie et qu’il y développe des
projets potentiellement en lien avec les entreprises étudiées.

Les compétences de Favre (2016) en tant que DRH d’un groupe


de distribution Suisse à l’époque de son DBA et son souci d’ap-
porter une réponse aux problèmes d’évolution des compétences
des managers intermédiaires de son entreprise explique le choix
de son sujet « Le manager face à performance adaptative ».
L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

L’accès facilité à des managers susceptibles de répondre sans


délais à des enquêtes ont conforté et facilité ce terrain.

La position de Guelmami (2016) en tant que médecin directeur de


clinique en Tunisie le mettait en situation de percevoir directe-
ment les menaces internes et externes auxquelles les établisse-
ments de santé étaient soumis et lui a permis de définir son sujet
en fonction de son contexte de travail.

L’analyse de la faisabilité de la recherche est un critère important


de choix d’un sujet de thèse de DBA. Cette faisabilité comprend
généralement trois dimensions : conceptuelle, méthodologique
et temporelle (Kalika, 2017, p. 45). Les deux dernières compo-
santes de la faisabilité, méthodologique et temporelle, sont en
lien direct avec le terrain de recherche et dépendent largement
de l’accès au terrain et des difficultés inhérentes à la collecte des
données empiriques. On sait d’ailleurs que l’un des atouts ma-
jeurs des doctorants de DBA, comparé aux doctorants tradition-
nels, est précisément cette facilité de collecte de l’information
nécessaire à la recherche. Cela signifie que le doctorant-mana-
ger doit, lorsqu’il est confronté à plusieurs sujets envisageables,
privilégier celui pour lequel la collecte des données est la plus 31
aisée. Dans l’évaluation de la faisabilité, le doctorant-manager
doit aussi tenir compte de la difficulté et des risques liés à cer-
tains sujets tels que la corruption, le blanchiment d’argent et
les activités terroristes. Dans une moindre mesure, des sujets
peuvent apparaître sensibles dans certaines organisations et la
collecte d’information est alors rendue délicate.

4. TERRAIN DE RECHERCHE : SOURCE ET


DESTINATION DU DBA
Dans le cas des doctorants-managers, le terrain est donc à la
fois à la source du projet, comme nous l’avons montré précédem-
ment, mais aussi la destination du projet, ce vers quoi il tend. En
effet, dans l’analyse des motivations qui conduisent les docto-
rants-managers à s’investir dans un projet de DBA il y a deux
types de motivations clairement identifiés (Kalika, 2017, p. 30) :
les motivations telles que la recherche du plaisir, la fierté et la
réalisation relèvent plutôt de la sphère personnelle et ont peu à
voir avec le terrain de recherche ; en revanche, les motivations
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

telles que la volonté de se différencier, dans un environnement


professionnel où la détention d’un MBA est devenu courante,
et d’évoluer professionnellement en démontrant au travers de
la thèse une véritable capacité de réflexion, ou la recherche de
légitimité par la publication, sont en lien direct avec le terrain de
la recherche. Le doctorant-manager poursuit ses objectifs pro-
fessionnels et le terrain de sa recherche est aussi le futur terrain
sur lequel il entend, grâce à sa thèse de DBA, se différencier,
évoluer et développer sa légitimité. Le schéma suivant illustre
cette double relation qui se trouve au cœur du processus docto-
ral entre le terrain et la recherche de DBA.

Figure 3. Terrain de recherche, à la fois source et


destination du DBA

32

Cette relation « source » et « destination » du terrain est parfai-


tement illustrée dans le cas de la thèse de Mottet (2016) sur les
contradictions entre les normes françaises et suisses dans le
cadre du Grand Genève. Sa position au sein de l’administration
genevoise l’a confronté à cette question et a été à la source de sa
réflexion mais aussi de sa collecte de données ; la publication de
sa thèse a constitué pour lui un élément de légitimité qui l’a d’ail-
leurs conduit à publier un nouvel ouvrage (Mottet, 2018) sur le
sujet et à devenir aujourd’hui une personne de référence sur cette
question du Grand Genève. Il convient d’ailleurs de souligner que
le « terrain » au travers des organisations qui s’y trouvent est bé-
néficiaire de la réflexion doctorale dans la mesure où il profite des
recommandations managériales issues de la thèse.

Il convient de noter qu’il est bien sûr conseillé au doctorant-


manager de réaliser lui-même les investigations de terrain du
L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

fait de la richesse qu’elles procurent. Cependant il n’est pas


exclu, compte tenu des contraintes notamment temporelles de
réalisation d’enquêtes ou d’interviews, de procéder à une forme
de sous-traitance maîtrisée de la collecte d’information, comme
cela se fait couramment dans les enquêtes marketing. Ce
contrôle de la collecte d’information suppose alors la définition
du questionnaire ou guide d’entretien, la spécification d’un
plan d’enquête précis avec des consignes aux enquêteurs et
l’enregistrement éventuel des entretiens. Il va de soi en revanche
que l’analyse des résultats et la rédaction ne sauraient être
sous-traitées.

CONCLUSION
Pour conclure, on peut recommander au doctorant-manager de
veiller à l’alignement du terrain de recherche qu’il envisage de
choisir avec plusieurs facteurs.

Figure 4. L’alignement du choix du terrain

33

Le terrain de recherche doit tout d’abord être en cohérence avec


le contexte professionnel du doctorant-manager. Le docto-
rant-manager doit, en effet, tirer le meilleur parti de ses atouts
à savoir son ancrage dans un contexte professionnel qui a pour
vocation à être son terrain de recherche.

Il va de soi ensuite que le terrain de recherche, et plus particu-


lièrement le mode de collecte (qualitatif ou quantitatif) des don-
nées, doit être en accord avec ses préférences et compétences
personnelles.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Enfin, comme cela a été précisé plus haut, le terrain de recherche,


son rôle et sa place dans le processus de recherche, doivent être
alignés avec ce que l’on appelle le choix d’une approche plutôt
inductive ou déductive.

La question du terrain, dont l’importance a été soulignée au fil


de ces lignes, relève de choix du doctorant-manager qui doivent
être pris, après concertation, avec le directeur de thèse.

Références citées

Beaulieu, P. & Kalika, M. (2015), La création de connaissance par les


managers, Éditions EMS.
Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Éditions
EMS.
Bouacida, M. (2018), Management international, les conditions de
réussite des joint-ventures internationales en Algérie, Éditions EMS.
Diallo, Y. (à paraître), Intégration des PME africaines au marché
international, Éditions EMS.
Favre, F. (2016), Le manager face à sa performance adaptative, Éditions
34 EMS.
Guelmami, H. (2016), Gestion hospitalière. Le guide du manager, Éditions
EMS.
Kalika, M. (2017), Comment réussir son DBA ? Éditions EMS.
Moscarola, J. (2018), Faire parler les données, méthodes quantitatives et
qualitatives, Éditions EMS.
Mottet, V. (2016), Construire une agglomération transfrontalière : méthode
pour surmonter les contradictions normatives, Éditions EMS.
Mottet, V. (2018), Le Grand Genève dans tous ses États, Genève,
Florilège SlatKine.
Sidibe, D. (2018), Gouvernance et management des risques : les conseils
d’administration en question, Éditions EMS.
Walsh, I. (2015), Découvrir de nouvelles théories : une approche mixte et
enracinée dans les données, Éditions EMS.

Références pour en savoir plus

Dumez, H. (2016), Méthodologie de la recherche qualitative : les questions


clés de la démarche compréhensive, Paris, Vuibert.
L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

Ce livre permet de comprendre ce qu’est une recherche quali-


tative, et notamment comment faire une revue de la littérature,
comment traiter les matériaux collectés, etc.

Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2008),


Méthodologie de la recherche : réussir son mémoire ou sa thèse en
sciences de gestion, Pearson Education France.
Un ouvrage qui clarifie les questions complexes portant sur le
cadre épistémologique et qui aborde les questions liées à la
spécification de l’objet de recherche, l’enquête, l’observation,
comment choisir parmi les méthodes exploratoires, qualitatives
et quantitatives.

Martinet, A. C. & Pesqueux, Y. (2013), Épistémologie des sciences de


gestion, Paris, Vuibert.
Un livre nécessaire pour celui qui ressent le besoin de réfléchir
aux fondements de la recherche en gestion.

Romelaer, P. & Kalika, M. (2011), Comment réussir sa thèse : La conduite


du projet de doctorat, 2e édition, Paris, Dunod.
Un livre utile car reposant sur l’expérience de deux directeurs de
recherche livrant leurs expériences aux doctorants. 35
Thiétart, R. A. (2014), Méthodes de recherche en management,
4 e édition, Paris, Dunod.
Un ouvrage collectif de référence abordant clairement les ques-
tions de conception, de mise en œuvre, d’analyse et de diffusion
de la recherche.
CHAPITRE 2.
Espoirs et désespoirs du doctorant

Jean-Pierre Helfer

Résumé

Le parcours de tout doctorant est long, risqué et aléatoire


mais en même temps enthousiasmant, riche et stimulant. Une
bonne connaissance de soi et des « rites » inhérents à tout pro-
cessus au sein d’une communauté améliore très sensiblement
la probabilité de connaître le succès à la fin du parcours. Des 36
conseils très précis sont donnés aux doctorants en soulignant
les particularités du DBA au regard du PhD et également en
montrant les ressemblances entre les deux types de doctorat.

Mots-clés : parcours doctoral, DBA, PhD, thèse, terrain de


recherche, méthodologies, soutenance, superviseur.

Les méthodes de recherche du DBA


E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

INTRODUCTION
Un parcours doctoral est un processus plutôt long dans la vie
d’une personne, et de manière générale, – sans doute des excep-
tions existent – au cours de ce processus le doctorant connaît
diverses phases psychologiques que l’on pourrait tout simple-
ment qualifier de « moments d’espoir » et « périodes de déses-
poir ». Nous verrons que bien comprendre cette caractéristique,
statistiquement habituelle, pour mieux la maîtriser constitue un
point d’appui pour mener l’opération jusqu’à son terme et, par
là-même, s’attendre à ce que l’étape ultime soit colorée d’espoir
plutôt que de désespoir.

A priori, être doctorant, cet état très spécifique d’une personne,


n’intervient qu’une seule fois dans l’existence. Nous disons « a
priori » car il est quelques cas, lorsque les phases successives
d’espoirs et de désespoirs n’ont pas suffisamment ruiné l’opti-
misme du thésard, où ce dernier décide de s’engager dans une
seconde (sans doute jamais une troisième !) thèse. Dans ce cas,
l’un peut commencer par l’économie puis poursuivre en gestion
(l’inverse est rare), l’autre peut mener un DBA et décider ensuite
d’aller vers un PhD. Conservons cependant à l’idée que toute 37
personne, déterminée dans ses projets, se dirigera vers la thèse
qui lui convient et s’arrêtera là après avoir surmonté toutes les
phases de désespoir qui se sont dressées devant lui et épuisé
toutes les satisfactions des périodes d’espoir qu’il a connues.

Au passage le lecteur aura compris que l’auteur de ces lignes


n’est pas un adepte de l’écriture inclusive et donc que « doc-
torant » s’entend également comme « doctorante » et que, de
même, « directeur de la thèse » se comprend aussi comme « di-
rectrice de la thèse ».

Il est réel, et tout doctorant doit se pénétrer de cette idée, que


pour mener un parcours doctoral jusqu’à son terme il convient
de posséder des qualités d’analyste, de découvreur, de commu-
nicant et surtout et c’est essentiel, de se maîtriser soi-même, de
toujours se regarder en faisant un pas de côté tant les moments
de bonheur ont vite fait de s’estomper lorsque les phases du
malheur leur succèdent, tant les phases de désespoir profond
peuvent être à la source de renoncement lorsqu’elle prennent
la suite des périodes intenses d’espoir sans nuage. Un docto-
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

rant ne sachant pas surmonter la succession des phases verra


sa probabilité de mener le travail à terme réduite. Loin de nous
l’idée selon laquelle, seule la psychologie conduit au succès,
loin de nous l’idée selon laquelle tout est affaire de personnalité
dans un processus doctoral. En revanche, nous développons ici
l’idée simple qui fait de la force de l’âme et du regard froid et
distant qu’un doctorant est capable de porter sur lui-même, des
atouts puissants qui vont conduire avec sécurité le doctorant
vers la réussite.

La démonstration repose sur la chronologie du parcours : le


début, le milieu et la fin. Ces trois périodes, bien distinctes,
peuvent, très généralement, être décrites par un mot ou par des
mots, voisins les uns des autres, mais qui sont autant d’alertes
sur les risques que le doctorant est invité à maîtriser. Le début
de la thèse fourmille en interrogations, le milieu est propice aux
questionnements et la fin ouvre la porte aux incertitudes. On
comprend aisément qu’il s’agit d’inviter le doctorant à quitter par
le haut, du côté de l’espoir, interrogations, questionnements et
incertitude et à éviter au maximum de verser du côté du déses-
poir et à être ainsi dominé par les interrogations multiples, les
38 questionnements nombreux, les incertitudes à foison. Somme
toute, s’interroger au mieux, se questionner au plus fin, surmon-
ter les incertitudes sont autant de chemins qui mènent au suc-
cès.

Naturellement, le champ des explications recouvre ici prioritai-


rement le DBA, même si de nombreux traits communs existent
avec le PhD. En sens inverse, les deux doctorats diffèrent sur
plusieurs aspects et nous ne manquerons pas de souligner
toutes les caractéristiques de l’un et de l’autre, lorsque sur un
thème précis, le DBA l’emporte sur le PhD ou que, au contraire,
le PhD bat le DBA. Nous entendons par « l’emporter » ou « être
battu » par le choix du type de doctorat (PhD ou DBA) qui permet
au mieux au doctorant de réduire questionnements, interroga-
tions, incertitudes au cours de chaque phase et ainsi à le pla-
cer dans une situation plus confortable que celle procurée par
l’autre doctorat. Nous aimerions – au sens où notre intuition va
dans cette direction – prouver que le risque de voir le désespoir
l’emporter sur l’espoir, est plus élevé en PhD qu’en DBA.
E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

1. LE DÉBUT DE LA THÈSE : LE MOMENT


DES INTERROGATIONS
Pour le superviseur, le tuteur, le coach de la thèse, le début du
travail est un moment magique. Magique pour lui car le thésard,
si l’on devait en faire une caricature ou un dessin humoristique,
serait un individu avec au-dessus de sa tête un énorme point
d’interrogation et il appartient au directeur de la thèse d’accom-
pagner au mieux le doctorant dans la levée de ces interroga-
tions. Ai-je bien fait de m’engager dans ce parcours ? Le choix
de mon directeur de thèse est-il judicieux ? Le thème général
que je propose est-il dans mes cordes ? Correspond-il à mon
projet personnel ? Sera-t-il d’actualité dans trois ans ? Aurai-je
la compétence pour mener le travail à son terme ? Le temps va-
t-il me manquer ? Ai-je convaincu mon entourage personnel – et
professionnel – de l’intérêt de m’investir autant ? Quelle longue
série d’interrogations ! Et sans nul doute en oublions-nous
quelques-unes.

Tous les thésards passent-ils par cette phrase d’interrogations ?


Vraisemblablement. Parviennent-ils tous à s’en échapper par le
haut ? Pour la plupart, c’est heureusement le cas. Et c’est ici que 39
quelques conseils ou remarques viennent à propos pour aider à
quitter cette phase de début avec un esprit rempli d’espoirs et
donc avoir placé les aspects du désespoir au plus profond de
son cerveau, dans une sorte de sarcophage en béton pour éviter,
comme dans une centrale nucléaire, tout risque de dissémina-
tion intempestive.

Est-ce naturel de s’interroger au début d’une thèse ? Assurément


oui. Le moment est crucial et le lot d’interrogations, au-delà de
celles, naturelles, sur le point de savoir s’il sera possible d’aller
jusqu’au bout, tient à deux caractéristiques. Éclairer ces carac-
téristiques pour permettre de les connaître, de mieux les com-
prendre et alors les maîtriser : voilà le projet qui suit.

La première caractéristique, et ici nous parlons très prioritaire-


ment du DBA, tient à la nature de « contre-emploi » imposé à qui
s’engage dans un DBA. Contre-emploi au sens où un doctorant
venant du monde professionnel, complètement immergé dans
la vie des affaires, ne connaît dans son métier aucune activité
ressemblant de près ou de loin à un parcours doctoral. Même
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

si cette remarque est moins pertinente pour un consultant que


pour un contrôleur de gestion dans une entreprise ou encore
qu’un administrateur d’une entreprise publique dans un pays
émergent, convenons que tout oppose le chemin doctoral et le
travail en entreprise. Le premier implique la réflexion, le second
se nourrit de l’action ; le premier appelle un temps long, le se-
cond pousse au temps court ; le premier relève d’un individua-
lisme exemplaire, le second impose la collaboration ; le premier
privilégie le doute comme gage du succès, le second impose la
certitude comme source de la performance. Que d‘oppositions
entre les deux voies ! Ainsi, il est exigé du doctorant de passer
allègrement d’une vallée à l’autre, d’être maître des caractéris-
tiques de la recherche à certaines heures (le soir et le week-end)
et d’être impliqué à plein temps dans le registre de l’entreprise,
souvent durant les heures ouvrables.

Confronté, presqu’au quotidien, à ces deux mondes on mesure


alors pourquoi le doctorant a devant lui, au début du travail, un
océan d’interrogations. Si nous devions ajouter une différence
supplémentaire elle tiendrait à la façon d’exprimer sa pensée.
Le parcours doctoral impose une écriture – une thèse est bien
40 un écrit – fluide, communicante, construite, articulée, fondée
sur des exposés avec des introductions, des transitions, des
conclusions. Tout au contraire, la communication dans le monde
de l’entreprise repose sur la concision, l’essentiel, la brièveté, si
l’on nous pardonne sur un « bulletpointisme » désincarné, ce qui
signifie au sens littéral, privé de chair et le tout avec du « power-
pointisme » plutôt que de l’écriture en prose.

Il est une seconde caractéristique qui engendre un lot d’interro-


gations. Le parcours doctoral est – ceci est une critique adres-
sée à nous, à nous les superviseurs – difficile à décoder, difficile
à décrypter. Au début, pour améliorer la probabilité de réussite
il faut comprendre, il faut éclairer les zones d’ombre et elles sont
nombreuses. Où est le pouvoir ? Quelles sont les règles relation-
nelles entre les acteurs ? Y a-t-il des us et coutumes implicites
au sein de la communauté académique ? Des non-dits existent-
ils ? Le vocabulaire utilisé comporte-t-il des interdits ? Des pro-
pos obligatoires ? Les paroles de louange sont-elles toujours
empreintes de réalité ? Les propos critiques ne sont-ils qu’un
exercice imposé sans conséquences réelles ? Parmi les sugges-
E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

tions, parfois contradictoires des membres de la communauté


académique, comment repérer le vrai ? L’adapté à une situation ?
Le bon grain ? L’ivraie ? Il est vrai qu’entre les acteurs l’implicite
est souvent de mise et ainsi le décodage par celui qui ne fait pas
partie du cénacle engendre un lot fourni d’interrogations.

Comment surmonter ces interrogations, toutes légitimes ? Pour


ce faire le doctorant dispose de trois soutiens et d’une arme
puissante.

Le premier soutien est constitué des autres doctorants. Même


si, et c’est d’autant plus vrai lorsque le doctorat est organi-
sé en grande partie « à distance », tout doctorant dispose d’un
espace de rencontre avec d’autres doctorants. Les cours, les
séminaires, voire les plates-formes électroniques d’échange,
sont d’excellents outils pour partager entre doctorants Tout y
incite puisqu’il n’existe aucune forme de compétition entre eux.
Échanger avec d’autres, se rendre compte que l’on partage les
mêmes interrogations, faire appel à un doctorant plus senior
dans le processus sont d’excellentes formes de soutien. Sur ce
point l’avantage sera du côté du PhD. Nous, tuteurs, mesurons
la richesse des échanges qui peuvent exister au quotidien entre 41
jeunes doctorants dans un laboratoire, dans une chaire, dans un
groupe de personnes partageant le même bureau, la même café-
téria, les mêmes logiciels de traitements de données. Le candi-
dat en DBA semble sur ce point bien isolé.

Le deuxième soutien est composé de tous les professeurs, de


tous les directeurs scientifiques impliqués dans un programme,
c’est le cas pour le Business Science Institute. Il serait illusoire
d’attendre d’eux une implication qui n’appartient qu’au troisième
soutien, le directeur de la thèse. Tout simplement, il est envisa-
geable, avec eux, d’observer, d’écouter, d’interroger, de sollici-
ter pour mener une sorte d’analyse multi-angulaire auprès de
personnalités, sans doute fort différentes les unes des autres.
Mais, ces personnalités sont animées de la même ambition : voir
leurs thésards, les leurs et ceux des autres professeurs, réussir.
Leurs avis, dont la pertinence finale est à juger par le thésard,
seront toujours utiles.

Le troisième soutien est le directeur de la thèse. Durant cette


phase de début il est la personne qui a pour rôle premier de faire
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

échapper le thésard au désespoir, de le conduire sur les doux


rivages de l’espoir et du bonheur. C’est le directeur de thèse
qui délivre les codes, qui rassure, qui maintient la tête hors de
l’eau. Il sait que, à ce moment, sa responsabilité est cruciale. Il
sait que l’on attend de lui des réponses rapides, claires et adap-
tées au sujet. Il ne doit être ni un gourou, ni un complice mais
tout simplement un support qui accompagne dans les moments
complexes en s’appuyant sur son expérience enrichie de tous les
thésards qu’il a pu mener vers le succès.

Au surplus, à côté de ces trois soutiens, le thésard dispose


d’une arme puissante : lui-même. Cette arme ancre sa puissance
dans la volonté de celui qui a choisi cette voie et voit cette puis-
sance décuplée si le doctorant entre dans la voie recommandée
ici : « mieux savoir pour mieux comprendre, mieux comprendre
pour mieux réussir ».

2. LE MILIEU DE LA THÈSE : LA PHASE DES


QUESTIONNEMENTS
Cette phase du milieu peut survenir plus rapidement pour cer-
42 tains que pour d’autres. Elle commence dès que les sujets
presque métaphysiques du début ont été dominés, et alors les
questionnements tiennent à deux champs : le terrain et la mé-
thode. Annonçons-le très clairement. Ici l’avantage se situe du
côté du DBA au regard du PhD.

Arrêtons-nous un instant sur terrain et méthode pour un PhD.


Les questionnements sont d’une ampleur immense tout sim-
plement parce que le choix du possible est sans limite. Prenons
comme exemple le marketing. Le terrain sera-t-il celui des
consommateurs, celui des clients, celui des entreprises ? Le
terrain sera-t-il local, national, international ? Si l’entreprise est
choisie, conviendra-t-il de privilégier le B to B, le B to C ? Si le
client est choisi sera-t-il pertinent de questionner l’utilisateur
final ? L’acheteur ? Un segment de clientèle ? Tout un marché ?
Pour ce qui est de la méthode, l’espace n’est pas davantage cir-
conscrit. Une étude longitudinale ? Une coupe instantanée ?
Une approche plutôt constructiviste ? Une autre davantage
normative ? Ou encore une méthode très inductive ? Les choix
épistémologiques sont si lourds de conséquences que l’appren-
E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

ti PhD éprouve mille difficultés et se heurte ainsi à des ques-


tionnements sérieux. Le terrain évoqué n’appelle pas davantage
de solutions évidentes. Les contradictions naissent entre le sou-
haitable, le faisable et le possible dans les délais (avec en plus la
contrainte du budget disponible !).

Même si cette phase n’est pas absente de questionnements pour


le candidat DBA convenons que le champ du possible est da-
vantage restreint. La raison se trouve dans la définition même du
DBA : permettre à un manager expérimenté de faire progresser
la connaissance dans le domaine qui est le sien, le plus souvent
dans le secteur qui est le sien. Le choix du terrain, de ce fait,
réduit le champ du possible. Je suis banquier et je m’interroge
sur l’intérêt que les banques trouveraient à nourrir leur commu-
nication des différences de culture existant dans un pays. Le
terrain en découle : les banques de ce pays. Je suis spécialiste
de communication et je souhaite mesurer les bénéfices et les
contraintes du passage à la digitalisation. Le terrain laisse un
choix court : les agences, les annonceurs, les consommateurs.
La décision est aisée : les trois en même temps ! Je suis expert
dans mon pays en matière de régulation du secteur des télécom- 43
munications et je milite pour une meilleure compréhension du
traitement des réclamations par les opérateurs. Là encore, le
terrain des opérateurs du pays s’impose avec au surplus, le cas
échéant, une comparaison internationale. Que d’aisance dans le
choix du terrain !

Acceptons toutefois de reconnaître que toutes les situations de


choix du terrain ne sont pas également simples. Le DBA n’im-
pose pas une homogénéité parfaite des situations. Il est des
doctorants qui sont consultants et donc interviennent dans di-
vers types de secteurs, divers types d’entreprises. Il est des doc-
torants qui ont quitté un secteur pour en découvrir un autre. Il est
des doctorants pour lesquels l’essentiel est un thème (la green
supply chain, le management par la bienveillance, l’intérêt des
clusters, le management du risque, etc.) et non une entreprise
ou un secteur. Dans tous les cas, le choix du terrain comporte
un éventail assez ouvert. Mais, et c’est en liaison directe avec les
idées développées à propos de la phase de début, dans ces cas
le choix du terrain est très proche du choix même du sujet.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Il demeure que cette période du « milieu », même si c’est facilité


dans de nombreux cas pour le DBA, engendre pour le doctorant
des questionnements lourds en ce qui concerne le terrain qui
servira d’exemple, de preuve, de justification.

Pour ce qui est de la méthode, nous suggérons une égalité en ce


qui concerne les questionnements entre le DBA et le PhD avec
un léger avantage au DBA. Pour ce dernier, l’étendue du possible
est réduite par le projet : apporter un supplément de connais-
sances à des pratiques managériales et ceci dans un laps de
temps court alors même que, pour le doctorant, la thèse n’a pas
réduit les obligations professionnelles du moment. Ainsi, statis-
tiquement, on rencontrera beaucoup de thèses qui passent par
un modèle issu de la littérature avec des hypothèses, hypothèses
qui sont testées par une méthode quantitative reposant sur des
questionnaires administrés à un échantillon. La méthodologie
qualitative avec des propositions initiales élaborées par le re-
cours à des verbatim, voire à une analyse textuelle, ne sont pas
absentes. Les méthodologies plus lourdes, de type « ancrées »,
en raison de l’investissement en temps qu’elles imposent, bien
que non inexistantes sont plus rares.
44
Terrain et méthodes engendrent ainsi des questionnements qui,
s’ils ne sont pas résolus dans de bons délais, peuvent entraîner
le doctorant dans une spirale du désespoir. Pour surmonter ces
difficultés potentielles, les soutiens de l’arme évoquée plus haut
sont naturellement toujours pertinents mais on peut y ajouter
un conseil à ce stade : toujours avoir en tête, inscrire sur l’écran
d’accueil de son ordinateur, ce que l’on veut démontrer et à qui.
Avoir toujours le regard porté vers la cible, le projet, la ligne d’ar-
rivée constitue le meilleur gage pour éviter les erreurs de terrain
et de méthode. Une idée suggérée est celle de l’alignement, au
sens d’alignement managérial ou d’alignement des planètes. La
performance, le gage du succès, reposent sur l’alignement ter-
rain, méthode, projet final. Si l’un des trois sort de l’alignement
le danger s’annonce. Si les trois sont maintenus dans un parfait
alignement ceci signifie que le choix du terrain et de la méthode
avait été pertinent.

Plus simple à suggérer qu’à mettre en pratique ! Nous l’admet-


tons car le parfait alignement s’observe lorsque la thèse est
E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

achevée. Faisons confiance au doctorant qui, avec l’aide de son


directeur de thèse, mesurera tout écart s’il en survient un, pour
le corriger au plus vite.

3. LA FIN DE LA THÈSE : LA PÉRIODE DES


INQUIÉTUDES
S’il est une phase au cours de laquelle le doctorant est assailli de
sentiments très divers dans lesquels se mêlent espoirs et déses-
poirs c’est bien la phase ultime. Le thésard, à ce moment précis,
doit d’abord accepter d’aller vers le document définitif, ensuite
il doit se forger un caractère solide pour surmonter l’épreuve de
la soutenance et enfin il pense au lendemain, le lendemain de
la soutenance. Durant ces trois épreuves, les inquiétudes sont
multiples.

Commençons par cet instant crucial qui consiste à aller pas à


pas vers le point final mis à la thèse. Les inquiétudes, les incer-
titudes naissent.

Comme c’était aisé de soumettre au directeur de la recherche


45
des versions zéro, des brouillons, des premiers jets. Rien n’était
définitif et donc les remarques, les suggestions, les critiques
étaient les bienvenues. Toutes étaient acceptées puisqu’elles
permettaient le progrès. L’acceptation de la version finale est
autrement plus lourde de conséquences. Elle ne sera plus mo-
difiable, elle portera le nom du thésard, le nom du directeur de
recherche (nous verrons plus loin pour les membres du jury),
le logo de l’institution devant laquelle le travail sera défendu,
elle ne connaîtra plus de révision. Que d’inquiétudes ! Ai-je tout
dit ? Mes propos seront-ils convaincants ? Ma méthode est-elle
rigoureuse ? Suis-je certain d’apporter une valeur ajoutée à la
connaissance actuelle ? Toutes ces interrogations engendrent
rarement des réponses positives dans tous les cas. Et pourtant,
le moment crucial est proche. Sans doute avant de parvenir à
cette version définitive du travail convient-il de rappeler qu’au-
cun doctorant n’aura échappé au préalable aux moments de
noirs désespoirs face à l’obligation de tenir les délais. Avoir
achevé le travail plusieurs mois avant la soutenance pour que
le processus d’évaluation préalable puisse se mettre en place.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Quel défi ! « Jamais je n’y parviendrai, je préfère décaler ma sou-


tenance ». Combien de fois avons-nous entendu ces propos ?

Surmonter les inquiétudes, rebondir positivement sur le déses-


poir pour se propulser vers l’espoir d’un bon achèvement dans
des délais corrects n’appelle qu’une seule chose : l’acceptation
de soi, l’acceptation de son travail, l’acceptation des risques de
l’évaluation externe et… la confiance dans son superviseur qui,
c’est son devoir, ne délivrera l’autorisation de soutenance que
s’il est convaincu de la qualité du travail. Vient ensuite la phrase
de préparation de la soutenance et de l’évaluation externe.

Dans le cas de Business Science Institute, le directeur scienti-


fique donnera un feu vert conduisant à la constitution du jury,
un feu orange impliquant des modifications substantielles (ou
mineures et de forme seulement) avant d’aller plus loin, un feu
rouge interdisant une soutenance à court terme. Ici encore l’in-
quiétude est présente. Plaçons-nous dans le cas d’un feu vert.
Ce feu est-il résolument vert ou quelque peu orangé ? A-t-on
masqué certaines critiques qui verront le jour lors de la soute-
nance ? Les membres du jury seront-ils critiques positivement
46
ou iront-ils jusqu’à mettre en cause mon travail ? Comment arti-
culer mon exposé de soutenance en tenant compte des rapports,
pas obligatoirement homogènes, des membres du jury ? Leurs
louanges sont-elles réelles ? Leurs critiques sont-elles atté-
nuées dans l’écrit ?

Cette phase, en DBA, n’est somme toute pas différente de celle


connue par les doctorants PhD. Cependant, ces derniers dis-
posent d’un puissant élément modérateur de leurs inquiétudes :
la pré-soutenance. Naguère, cette pré-soutenance n’était pas
généralisée et le thésard se présentait devant son jury fort du
seul soutien de son directeur de thèse. Aujourd’hui, la pratique
des écoles doctorales impose une pré-soutenance. Elle porte
sur un texte non achevé mais proche d’une version définitive.
Les futurs rapporteurs se prononcent et tiennent une sorte de
« séance de travail » avec le directeur de la thèse et le thésard.
Les points essentiels sont ainsi abordés plusieurs mois avant la
soutenance officielle. Les inquiétudes sont alors abondamment
atténuées.
E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

En revanche pour le DBA la pré-soutenance n’est pas de mise et


alors, et c’est sans doute assez vrai, l’évaluation par le directeur
scientifique constitue une pré-soutenance.

Enfin, l’instant d’après survient. Ce moment est fait de vides – le


travail est achevé – et de pleins – que faire après – ? La boucle est
bouclée ; le parcours est à son terme ; la cible est atteinte. Le doc-
teur, en un instant, se replace au début du parcours. Pourquoi ai-
je entrepris un doctorat ? Quel retour sur investissement avais-je
en tête implicitement ou explicitement ? L’heure de vérité sonne.
Voulais-je décrocher un progrès de carrière ? Avais-je besoin
d’une carte de visite avec la mention « docteur » ? Souhaitais-je
me prouver que mon métier ne me donnant pas toute satisfac-
tion, je pouvais aller au-delà de mes contraintes quotidiennes ?
Était-il nécessaire pour moi – et pour d’autres – de poursuivre la
quête d’un sentiment de fierté ? Il est temps de mesurer l’écart
si écart il y a entre les attentes et la satisfaction. Là, de nouveau,
le désespoir n’est jamais loin : « Tout ça pour ça ». Mais l’espoir
peut l’emporter aisément. « Appelez-moi docteur ! » Autant de
cas, autant de situations différentes.

La conclusion aura été, et nous l’espérons, en filigrane de tous


47
ces propos. Un parcours doctoral est exigeant, comporte des in-
certitudes, n’est jamais certain d’aller jusqu’à son terme mais, en
sens contraire, apporte des satisfactions immenses fondées sur
le plaisir de la découverte, le plaisir d’apporter une pierre à une
œuvre, le plaisir de se reconnaître dans le travail. Pour maximi-
ser les chances de réussite il convient de disposer de divers ta-
lents et d’une capacité à comprendre pour surmonter les phases
difficiles. Le but était ici de montrer que le désespoir est normal,
que l’envie régulière de renoncer est naturelle mais qu’elle doit
être maîtrisée par la connaissance et la compréhension des co-
des doctoraux. La bonne connaissance des caractéristiques du
processus doctoral ouvre la porte à un succès à probabilité amé-
liorée. C’était le projet de ce chapitre.
CHAPITRE 3.
Choix des méthodes de recherche :
discours contre La méthode !

Pierre-Louis Dubois

Résumé

Ce chapitre propose quelques suggestions permettant de


construire une méthodologie de thèse, chemin faisant, sans
imposer de cadre a priori, en tenant compte des deux faces de
48
tout exercice doctoral, les contraintes académiques, qui déli-
mitent le temps consacré à cet exercice singulier et supposent
que l’on considère les ressources accessibles et la progres-
sion des connaissances dans laquelle la thèse souhaite s’ins-
crire. Dans un premier temps, il tente de situer la place des
méthodes dans une thèse en sciences de gestion comme ré-
sultat d’une interaction, puis il traite de quelques points cri-
tiques dans la construction d’une méthodologie.

Mots-clés : méthodologie, état de l’art, épistémologie,


sciences de gestion, traitement des données, validité, DBA,
thèse de doctorat.

Les méthodes de recherche du DBA


Choix des méthodes de recherche

INTRODUCTION
Définir a priori une méthode de recherche est une pratique as-
sez courante dans de nombreuses disciplines. L’économétrie
en est souvent une illustration. Et l’on en trouve de multiples
exemples en sciences de ce qui revient à prendre une « posture »
méthodologique. Sans ouvrir le débat sur le bien-fondé de telles
pratiques, il est légitime de se poser la question du choix des
méthodes de recherche dans l’exercice particulier de la thèse de
Doctorat en sciences de gestion, qui plus est dans le contexte
particulier d’un DBA.

Les sciences de gestion sont entendues dans une conception


largement partagée comme des sciences de la décision et de
l’action. Elles s’intéressent à des problématiques de gestion des
entreprises et des organisations inscrites dans des environne-
ments complexes où les contextes ne peuvent jamais être consi-
dérés comme équivalents. Ainsi la condition ceteris paribus (toutes
choses étant égales par ailleurs) n’est quasiment jamais respec-
tée, aucune situation ne pouvant être totalement comparable. Il
importe alors pour chaque recherche de préciser les conditions
propres des observations, des méthodes d’investigation de la ré- 49
alité observée, liées au projet du chercheur, à chaque stade de
celui-ci, de s’interroger sur le choix des techniques d’enquête ou
d’ expérimentation et de poser la question de la validité interne et
externe des résultats, en quelque sorte de leur intervalle de dé-
finition et de confiance, si l’on souhaite que la recherche puisse
avoir une certaine portée hors du contexte spécifique d’étude,
sans prétendre pour autant à une généralisation incondition-
nelle. Une telle conception ne retire par exemple rien à l’intérêt
de recherches fondées sur une axiomatique. Elle conduit sim-
plement dans ce cas précis à mettre l’accent sur ses limites et à
considérer et parfois à prendre en compte ou à intégrer les biais
(par exemple, les heuristiques décisionnelles) qui séparent cette
figuration stylisée de la réalité et à définir en quoi cette représen-
tation du réel permet à la pensée de progresser et de trouver une
utilité pour la compréhension d’un phénomène ou pour la déci-
sion. Notre conception tend surtout à ne pas donner priorité à la
méthode ou aux méthodes ordonnées dans le cadre d’une métho-
dologie a priori mais à créer une interaction entre, d’une part, la
définition de la problématique et la tentative de réponse partielle,
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

qui forment l’exercice central de la thèse et, d’autre part, à chaque


étape du travail doctoral, le choix et la discussion des concepts
qui semblent les plus appropriés et féconds, le recours aux mé-
thodes de recueil et de traitement des données qui semblent les
plus judicieuses et les plus aptes à saisir et comprendre le ou les
phénomènes qu’on se propose d’étudier.

Ce chapitre n’a pas pour objectif de présenter le panorama des


méthodes de recherche possibles dans un travail doctoral. Il n’y
suffirait pas ! Et d’excellents ouvrages sont disponibles sur ce
sujet (par exemple Evrard, Pras & Roux, 2009 ; Denzin & Lincoln,
1994 ; Wacheux, 1996 ; Grawitz, 1993) (cf. également le chapitre 4
écrit par Yves-Frédéric Livian dans cet ouvrage). Il ne prétend
pas non plus décrire une anti-méthode qui serait l’opposé de
méthodologies existantes, ce qui reviendrait à en proposer
une de plus ! Il propose plus modestement, dans l’esprit d’ou-
verture que nous nous sommes efforcé d’appliquer à nos nom-
breuses directions de thèse, quelques suggestions permettant
de construire une méthodologie de thèse, chemin faisant, sans
imposer de cadre a priori, en tenant compte des deux faces de
tout exercice doctoral, les contraintes académiques, qui déli-
50 mitent le temps consacré à cet exercice singulier et supposent
que l’on considère les ressources accessibles, et la progression
des connaissances dans laquelle la thèse souhaite s’inscrire,
qui fait nécessairement de toute thèse un propos d’étape dans la
construction scientifique et dans la carrière de l’impétrant.

À cette fin, dans le cadre forcément contraint de ce chapitre,


nous mettrons l’accent sur deux aspects de toute recherche
doctorale :
–– la nécessaire interaction entre le choix des méthodes, la
construction progressive d’une méthodologie adaptée à
la problématique, au fur et à mesure de sa définition, et la
considération du « terrain » étudié, de l’état de l’art et des
objectifs de la recherche ;
–– quelques écueils fréquents de la construction d’une mé-
thodologie, quelques dangers à éviter et quelques limites
inhérentes à toute recherche en sciences de gestion, en
laissant toute liberté au chercheur de s’adapter à la pro-
gression de son travail doctoral.
Choix des méthodes de recherche

1. LA PLACE DES MÉTHODES DANS LA THÈSE


EN SCIENCES DE GESTION, RÉSULTAT D’UNE
INTERACTION
Les sciences de gestion traitent de sujets d’études très divers.
Elles recouvrent sous le vocable « sciences de gestion » ou
« sciences du management » des disciplines variées, Gestion
des Ressources Humaines, Finance, Comptabilité-Contrôle,
Stratégie, Organisation Development, Marketing, Systèmes d’In-
formation, etc., souvent définies de façon fonctionnelle, qui ont
créé leurs propres corps de connaissances et qui donnent des
sciences de gestion une vision quelquefois kaléidoscopique.
Les thèses en sciences de gestion s’inscrivent parfois dans une
discipline, peuvent aussi être au croisement de deux disciplines
ou être beaucoup plus transversales… Ce dernier cas est assez
fréquent dans la thèse de DBA qui participe fréquemment d’une
démarche inductive à partir d’une problématique qui se construit
sur une expérience ou sur un terrain. Quel que soit le point de
départ de la thèse ou les disciplines de gestion concernées, le
schéma ci-dessous, nous a souvent servi et, par sa simplicité,
a permis d’engager une discussion avec chaque doctorant, en
tenant compte du type de thèse, des conceptions épistémolo- 51
giques ou des cadres méthodologiques envisagés par le candi-
dat.

Figure 1. Le projet de thèse : un cadre général


C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

La problématique de la thèse apparaît rarement a priori. Comme


l’écrivait Gaston Bachelard (1949, p.38) : « il n’y a de science que ce
qui est caché ». L’observation du réel n’est pas la réalité : elle peut
être un point de départ mais il appartient au scientifique de dépasser
le monde des apparences et de ne pas confondre la problématique
d’une recherche avec un relevé de symptômes, fussent-ils aigus !
À l’opposé, s’inscrire a priori dans un cadre conceptuel, comme un
prêt à porter commode, limite la vision du chercheur en l’enfermant
dans des cadres ou des règles qui lui semblent intangibles. Jean-
Louis Le Moigne (1990, p. 117) résume parfaitement cet écueil :
« Le fait qu’un nombre croissant de praticiens des (…) sciences
de gestion se confine dans l’étude de ce qui existe en telle ou telle
partie du système social ne rend nullement leurs conclusions plus
réalistes ; et il les rend largement inadéquates pour les décisions
concernant l’avenir. Une science de gestion féconde doit être
largement une étude de ce qui n’est pas : une construction de
modèles hypothétiques, pour les mondes qui seraient possibles… ».
On comprend alors pourquoi la problématique qui caractérise une
thèse ne peut être a priori. Elle est le résultat d’une découverte pas
à pas, d’un cheminement du chercheur dont l’objectif est de définir
puis de soutenir une thèse, qui est un propos réfutable ou au moins
52
une avancée de la réflexion qui s’inscrit dans une (ou des) situations
de gestion (Dubois, 1995). Cette ambition se réalise généralement
par un premier recours aux méthodes permettant d’explorer une
(ou des) situations de gestion et, de façonner la problématique,
de dégager des hypothèses, avant même évidemment de chercher
des éléments de réponse ou de solutions possibles. Dans cette
perspective, le point de départ de la thèse est parfois inspiré par la
lecture des travaux de recherche, parfois par des situations vécues
ou observées, cette seconde conjecture étant assez fréquente dans
le cas des DBA. Quelle que soit la source de cette idée originelle, le
travail doctoral initial se traduira par un jeu interactif entre le corps
de connaissances théoriques ou plus largement, un ensemble de
publications à la disposition du chercheur et le champ du réel (le
terrain) propre au problème de gestion qui l’intéresse.

1.1. De l’état de l’art


À ce stade exploratoire, la lecture des écrits relatifs à la problé-
matique en définition est en soi un exercice déterminant. D’un
Choix des méthodes de recherche

point de vue instrumental, il existe aujourd’hui, avec l’aide des


nouvelles technologies, une multitude de bases de données et
de moteurs de recherche, qui permettent une vaste exploration
des concepts qui paraissent les plus pertinents dans le cadre de
la problématique avec un double danger : se perdre dans la mul-
tiplicité des approches scientifiques et des définitions ou s’insé-
rer dans un cadre prédéfini dont on n’a pas pris conscience de
l’étroitesse et des limites. La connaissance d’un domaine scien-
tifique ne se réduit pas à quelques définitions, qu’il s’agisse des
sciences humaines telles la sociologie, de la psychologie, l’his-
toire, la linguistique, ou de sciences exactes ou expérimentales,
etc. Les acquis fondamentaux du chercheur ne sont pas neutres
et sa formation préalable peut être un atout pour ouvrir l’état de
l’art à des connaissances fécondes issues d’autres disciplines
(nous avons pu le constater en suivant au cours de nos directions
de thèse des étudiants ayant bénéficié d’une formation en ma-
thématiques, en philosophie, en sciences de l’éducation, en lin-
guistique, en psychologie…). La construction de l’état de l’art est
en soi un révélateur des approches de la réalité retenues par le
doctorant. Elle indique les cadres de pensée qui lui paraissent les
plus adaptés à la définition et au-delà, à la résolution de la pro-
53
blématique. Elle permet de dépasser le stade des symptômes et
des apparences pour aller vers l’explication ou la compréhension
des phénomènes étudiés, en forgeant des propositions, en émet-
tant des hypothèses. L’état de l’art, tel qu’il figure dans les docu-
ments finals de thèse n’est jamais neutre. Il met au jour les choix
fondamentaux du chercheur. Et il oriente vers des méthodes en
considération des terrains d’analyse et des objectifs recherchés :
observer, comprendre, expliquer, prévoir, décider, agir…

1.2. Du rapport à l’épistémologie


Sans reprendre ici les diverses conceptions épistémologiques
courantes en sciences de gestion, qui ont fait depuis plu-
sieurs années l’objet d’une littérature assez dense (par exemple
Martinet, 2013 ; Martinet & Pesqueux, 2013), il est certain que les
choix épistémologiques du doctorant l’orienteront vers certains
types de méthodologie : inductive, déductive ou abductive, cli-
nique ou expérimentale, etc. Construire une série d’hypothèses
à partir des théories, dans le cadre d’une conception positiviste
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

de la recherche, rechercher des régularités et des invariants qui


caractérisent certains faits sociaux, conduisent le chercheur
vers des méthodes de mesure et de validation des hypothèses
qui seront adaptées à son projet. Partir des expériences indivi-
duelles et collectives, tenter de les comprendre les représenta-
tions des acteurs, comme par exemple dans une approche strate-
gy as practice supposent un recours à des modes d’observation et
d’investigation, tels l’étude de cas ou l’observation participante
qui seront en accord avec un choix constructiviste ou pragma-
tiste critique. Dans ces dernières acceptions, on ne peut sépa-
rer production de connaissances et validation. Ce rapport entre
conception épistémologique et choix des méthodes constitue
un des aspects critiques de la cohérence du travail doctoral. Il
ne suffit pas de se référer à telle ou telle forme d’épistémologie
pour « valider » l’approche méthodologique retenue. Beaucoup
de thèses consacrent un chapitre ou une section à cet exer-
cice. Dans bien des cas, il s’agit d’une sorte de rationalisation
a posteriori. Dans d’autres cas, la difficulté à suivre les principes
de la « posture » épistémologique revendiquée tiennent aux
contraintes de l’exercice doctoral : limites de temps, ressources
humaines et matérielles, difficulté d’accès au terrain, aux don-
54 nées, etc. Il peut aussi s’agir d’erreurs de méthodes telles que
l’inadaptation de telle forme d’interrogation (questionnaire, par
exemple) dans une phase exploratoire1. Ce qui importe, au final,
est la conscience de la cohérence entre telle ou telle approche
épistémologique et la démarche méthodologique retenue. À ce
niveau, l’indication des limites inhérentes au travail doctoral, qui
permet de porter un regard critique et honnête sur les résultats,
peut être considérée comme la contrepartie obligatoire de toute
approche en sciences humaines. Les sciences de gestion n’y
font pas exception.

1.3. Du temps et de l’espace


Les sciences de gestion sont généralement entendues comme
des sciences de l’action de façon comparable aux sciences de

1. Cela ne signifie pas pour autant que des données issues d’un questionnaire ne
puissent pas avoir un intérêt exploratoire grâce par exemple à l’utilisation des mé-
thodes d’analyse de données à cette fin… Tout dépend de l’intention du chercheur
et de sa conscience des limites de son approche.
Choix des méthodes de recherche

l’ingénieur. Le rapport entre connaissances et pratique en est


une des caractéristiques essentielles sans adhérer pour autant
à une praxéologie naïve ou primaire à l’encontre de la démarche
scientifique, du type « Les dix lois de… » ou « les dix règles de… » !
Tout travail doctoral s’inscrit dans un espace et dans un temps
qu’il importe de situer ! Et le DBA par son inflexion fréquente
vers la (ou les) pratique(s) peut conduire le chercheur à revendi-
quer une spécificité de champ, de situation et d’application qui
lui donne à penser que sa contribution est originale et ne s’in-
sère pas (ou peu) dans un corps de connaissances préalables…
Une telle prétention est rarement fondée. Les recherches en
sciences de gestion supposent un rapport entre la spécificité de
l’objet d’étude qui se trouve toujours dans un contexte particu-
lier, dans une situation de gestion, et un corps de connaissances
qui peuvent être reliées avec l’objet et la situation étudiés pour
progresser dans le projet de recherche en fonction de la pro-
blématique retenue. Cette liaison entre situation de gestion et
connaissances s’enrichit d’une dimension historique et d’un re-
gard comparatif et critique qui conduisent le chercheur à évaluer
la relativité du contexte d’étude dans le temps et dans l’espace.
Comme l’écrit Claude Mouchot, « toute l’histoire est d’abord his-
55
toire naturelle, mais l’histoire humaine est beaucoup plus que
naturelle, la conscience de l’histoire la transforme en culture.
Dès lors, toute connaissance de l’homme sur l’homme s’inscrit
dans une culture et dans une histoire » (Mouchot, 1990, p. 74).
De façon plus prosaïque, retenons pour le doctorant en manage-
ment, la nécessité de situer son travail de recherche dans l’his-
toire de la pensée et des faits auxquels il s’intéresse et de mettre
en relief les aspects particuliers de l’environnement étudié au
regard d’autres types d’environnement. En situant ainsi son tra-
vail et sa contribution, il enrichit sa recherche, notamment par
la découverte d’analogies fécondes, et détermine avec plus de
précision et d’honnêteté scientifique l’« intervalle de définition
et de confiance » de son travail.

1.4. De la thèse comme projet


Aucune thèse ne peut faire l’économie de son projet. Réduire la
thèse de doctorat à des concepts et des méthodes sans se poser
la question des finalités, ce serait selon la célèbre citation du
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Pantagruel de Rabelais, faire de la science sans conscience. La


recherche dans le domaine des sciences de gestion ne peut se
réduire à la méthode ou aux techniques, elle ne peut éluder to-
talement la question de son projet. Toute problématique de ges-
tion des organisations se réfère à des fins qu’il importe de mettre
en lumière. La question de la méthode n’est jamais a priori. D’une
part, elle doit, comme nous venons de l’écrire, correspondre à
l’approche épistémologique retenue, qui interroge sur le sens et
les finalités de la recherche, d’autre part, elle doit s’inscrire dans
une pratique éthique de la recherche, qui suppose à la fois hon-
nêteté scientifique et respect des droits légitimes des partici-
pants aux situations de gestion. Une telle responsabilité invite le
chercheur à ne pas se contenter d’une définition de la probléma-
tique réduite au champ étroit d’une partie d’une sous discipline
de gestion mais à insérer au cœur même de son travail doctoral
la question des enjeux sociétaux et environnementaux liés aux
finalités recherchées. Il ne s’agit pas ici de prévoir pour chaque
thèse ou dans chaque thèse des digressions à caractère épisté-
mologique, éthique ou moral plus ou moins superficielles, mais
d’inscrire son projet, et en conséquence sa problématique, dans
ce qui est un des aspects les plus fondamentaux des sciences
56
de gestion, sa contribution au devenir des organisations et de la
société dans laquelle celles-ci sont insérées.

2. QUELQUES POINTS CRITIQUES DANS LA


CONSTRUCTION D’UNE MÉTHODOLOGIE
Une méthodologie de thèse peut se construire de bien des fa-
çons. Parfois elle s’inspire d’autres travaux et s’inscrit alors
dans une forme méthodologique éprouvée avec la possibilité de
comparer plus aisément les résultats mais aussi les limites d’un
cadre a priori. Dans bien d’autres cas, elle est une construction
plus ou moins originale qui cherche à définir et à traiter une pro-
blématique nouvelle. Quel que soit le cas, si la méthode n’est pas
première dans la construction du travail doctoral mais adaptée
au projet de recherche, au fur et à mesure de sa construction
et de son avancée, elle est l’élément indispensable et décisif
du caractère scientifique du travail et des résultats. Selon une
image un peu schématique, elle apporte une forme de contrôle
de qualité de la recherche et de la valeur de sa contribution à la
Choix des méthodes de recherche

connaissance. Sans prétendre à une revue exhaustive de chaque


étape de la construction d’une méthodologie, quelques points
critiques peuvent être évoqués dans le cadre restreint de ce cha-
pitre.

2.1. Du choix des données


Selon le projet du chercheur, selon les traditions de recherche,
selon les disciplines et les problématiques traitées, la question
des données « cueillies ou recueillies » se pose : d’où viennent
elles, existent-elles préalablement, par exemple issues d’une
base de données existante, ou faut-il aller les recueillir, par
quelle méthode, quelle est leur forme, leur nombre, sont-elles
homogènes, pourquoi choisir et traiter certaines données, sont-
elles de nature qualitative ou quantitative, en quoi sont-elles
dépendantes de la méthode de recueil, etc. ? On pourrait briève-
ment affirmer à la lecture de cette liste bien incomplète de ques-
tions, « qu’il y a rien de moins donné qu’une donnée » ! À l’heure
des big data, une telle réflexion peut sembler paradoxale ! Elle n’a
d’autre but que de signifier qu’en sciences de gestion, dans toute
la diversité de la discipline, la question de la nature et du choix 57
des données est toujours un point crucial de la recherche. La
diversité des situations de gestion a pour corollaire un rapport
aux données très différencié. Quelques points peuvent illustrer
cette conjecture :

Dans certaines disciplines ou sous disciplines, telles la finance


de marché ou l’étude du comportement du consommateur à par-
tir de bases de données, les données sont fournies de façon ex-
terne (panels, bases de données boursières, etc.). Elles ne sont
jamais neutres. L’étude de leur origine, des modes de collecte,
des choix de catégorisation forment un premier problème. Que
dire par exemple d’une base des revenus de consommateurs dé-
clarés au fisc, ou à son banquier pour obtenir un prêt ou à un
agent immobilier ? Comment comparer des catégories socio-
professionnelles lorsque les nomenclatures des pays différent
ou sont plus ou moins bien renseignées ?

Un second problème consiste à se frayer un chemin dans une


masse de données brutes alors même qu’elles n’ont quasiment
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

jamais été recueillies en fonction de la problématique du cher-


cheur. Par exemple :
–– Comment opérationnaliser ce qu’est un client fidèle ou en-
core, un statut social (niveau d’éducation, niveau de reve-
nus, classe sociale, etc., combinaison de ces variables ?).
Comment repérer les données utiles et leur donner une
forme adéquate (data mining), opératoire, dans un entrepôt
de données (data warehouse) ?
–– Comment saisir les données à traiter, les informations
utiles dans la phase exploratoire d’une étude ? Que doivent
être les données dans la phase confirmatoire d’une étude
exigeant en principe (sauf techniques statistiques appro-
priées du type bootstrap (Evrard et al., 2009)) un terrain diffé-
rent mais comparable… ?
–– Quelle est l’influence de l’enquête (des enquêteurs) sur le
recueil des données : technique d’observation avec ou sans
participation, biais de sélection par l’enquêteur des infor-
mations allant dans le sens de sa démonstration, etc. ?
–– Quel doit être le niveau de représentativité des données ?
58 Que cherche-t-on ? Repérer les individus les plus typiques
(idéal-type selon Max Weber, 1992), avoir une représenta-
tivité statistique proportionnelle à la population définie,
ou des individus représentatifs d’une sous population ?
Quelle est la portée scientifique d’une étude de cas (un
seul, plusieurs) ?

Ces quelques questions qui n’ont pas de réponse simple ou dé-


finitive montrent combien le choix des méthodes qui ont prési-
dé à la formation des données existantes à sélectionner ou des
données à recueillir est un pilier fondamental de tout travail de
recherche en sciences de gestion. Tout travail doctoral se doit
de porter clairement à la connaissance du lecteur et des autres
chercheurs les choix effectués, leur intérêt et leurs limites.

2.2. Du traitement des données


La mise en place d’un protocole de traitement des données n’est
pas non plus une donnée a priori d’une thèse. Certes certaines
thèses fondées sur un mode de recherche faisant l’objet d’une
Choix des méthodes de recherche

certaine tradition peuvent avoir recours à des protocoles assez


comparables, comme c’est le cas fréquemment de thèses s’ins-
crivant dans une méthodologie hypothético-déductive, mais,
même dans cette conjecture, il existe de nombreuses variantes
et bien des degrés de liberté. La méthodologie d’une thèse est
souvent évolutive. Les idées initiales à ce sujet peuvent être re-
mises en cause, chemin faisant, pour de multiples raisons qu’il
est impossible d’exposer ici de façon exhaustive. Citons à titre
d’exemples :
–– La possibilité d’accès aux données, leur quantité, leur
qualité, leur fiabilité, leur nature qualitative ou quantita-
tive, leur hétérogénéité, leur incomplétude… Toutes les
méthodes, qualitatives ou quantitatives, sont fondées sur
des exigences précises en termes de recueil et de traite-
ment de données. Qu’il s’agisse de la théorie enracinée
(Grounded Theory de Glaser et Strauss (1967)), du para-
digme de Churchill (1979) pour le traitement des échelles
psychométriques ou du caractère formatif ou réflexif des
indicateurs dans un modèle d’équations structurelles (cf.
Evrard et al., 2009), l’adéquation des données aux méthodes
de traitement choisies est une condition indispensable 59
de leur utilisation. Par exemple, l’utilisation de méthodes
linéaires pour représenter des phénomènes non linéaires
(tels qu’une relation qualité-satisfaction du client) ne per-
mettra pas de saisir correctement ceux-ci…
–– Pareillement, l’adaptation des méthodes de traitements
aux questions que le chercheur se pose est un point cru-
cial d’une thèse. Faut-il encore que le chercheur ait une
idée claire et fondée du problème posé. Ce qui est diffici-
lement le cas dans le cadre de recherches constructivistes
ou interprétativistes, par exemple, où l’objet de recherche
se précise au fur et à mesure des investigations du cher-
cheur. Pareillement on pourra considérer que l’utilisation
de méthodes causales, du type équations structurelles, se
doit de reposer sur un modèle conceptuel solide au plan
théorique dans le cadre d’une démarche confirmatoire.
–– Le choix des méthodes dépend aussi de l’aptitude du
chercheur à les maîtriser. Les nombreuses possibili-
tés d’approche qualitative (ethnographique, sémiotique,
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

historique, phénoménologique, anthropologique, etc.)


demandent une formation réelle du chercheur. Il en est
de même pour les approches quantitatives surtout lors-
qu’elles sont complexes. On ne peut « déléguer » cet aspect
méthodologique et se contenter d’une connaissance su-
perficielle qui se traduira inévitablement par des lacunes et
des erreurs dans le choix des méthodes et l’interprétation
des résultats. L’approche « presse-bouton » en matière de
traitement statistique, facilitée par des logiciels facilement
utilisables, est par exemple le type même de piège à éviter !
–– Comme nous le précisions ci-dessus, l’adéquation des
méthodes aux objectifs de recherche : observer, décrire,
comprendre, expliquer, prévoir, intervenir… est aussi un
point critique de leur choix. Cela peut justifier par exemple
le choix d’une enquête qui peut être un moyen d’observer
ou de décrire, d’une (ou plusieurs) étude(s) de cas qui peut
(peuvent) permettre d’aller plus loin dans la compréhension
d’une situation de gestion ou encore d’une expérimentation
qui donne la possibilité de manipuler certains variables…
Un protocole de recherche peut se bâtir au fur et à mesure
60 en forgeant par exemple des hypothèses grâce à un premier
temps d’observation et de description suivi de phases à vi-
sées explicatives, compréhensives, etc. Il importe à chaque
stade que le chercheur ne « sur-interprète » pas ses résul-
tats, ce qui est une tentation fréquente.
–– Un autre point critique de la construction d’une méthodo-
logie est tout simplement sa faisabilité dans le cadre limi-
té et contraint de la thèse de DBA. Certaines thèses sont
difficiles ou impossibles à mettre en œuvre car le docto-
rant ne peut dépasser les contraintes qui s’imposent à lui.
Comment faire une thèse sur le media planning sans ac-
cès aux données media détenues par les sociétés spéciali-
sées ? Comment s’inscrire dans le cadre de démarches fon-
dées sur la théorie enracinée et en respecter les principes
dans un temps contraint ? Comment finir une thèse en trois
ans lorsqu’on ne dispose pas des données longitudinales
indispensables (exemple d’études de cohortes) ? L’étendue
du sujet, les contraintes de temps et de ressources sont
des éléments à prendre en compte de façon impérative
dans le cadre de l’exercice spécifique de recherche qu’est la
Choix des méthodes de recherche

thèse. Et, sur ce point, tous les thésards ne sont pas à éga-
lité : l’insertion dans un laboratoire ou dans une entreprise
(par exemple, en convention CIFFRE), l’accès aux données,
l’existence d’une formation ou d’un background préalable,
la disposition de ressources humaines ou financières…
changent la donne. Il importe d’y réfléchir assez tôt…

2.3. De la validité des résultats


Le lien entre le choix des méthodes et la validité des résultats
peut également être vu sous de nombreux angles :
–– Le plus évident est le bon usage des méthodes en elles-
mêmes et par rapport à la nature des données, que celles-ci
soient de nature qualitative ou quantitative. Il s’agit là d’un
problème technique.
–– Les limites des méthodes elles-mêmes sont à mettre en
exergue, telles que les effets de laboratoire, l’incomplétude
des plans expérimentaux, les choix contingents de catégo-
risation des données…
–– Un autre angle de vue lie les résultats au choix des mé-
61
thodes ou à la séquence de choix retenue. Quel que soit
le problème que l’on cherche à résoudre, le choix des mé-
thodes et de façon plus ample d’une méthodologie parti-
culière détermine d’une certaine façon le type de résultats
obtenus. Cela ne remet pas en cause l’intérêt de ces résul-
tats obtenus dans le cadre d’un bon usage des méthodes
choisies et d’une justification pertinente d’une méthodolo-
gie mais rend néanmoins ceux-ci dépendant des choix mé-
thodologiques. Quand c’est possible, l’usage de plusieurs
méthodes concurremment permet de dépasser cette limite
si les résultats convergent indépendamment des méthodes
choisies (convergence méthodologique) et mieux encore, à
partir de jeux de données différents… Mais cette possibili-
té est limitée par le type de recherche et les contraintes de
temps et de ressources déjà mentionnées !
–– Le rapport des méthodes choisies à la problématique et
aux objectifs de recherche poursuivis, au fur et à mesure de
leur évolution, est aussi, comme cela a été mentionné, un
facteur déterminant de validité.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

En sciences de gestion, il existe en fait de nombreux critères de


validité qui comportent chacun un intérêt et des limites (Dubois,
2007) :
–– la pertinence des contributions en relation avec le corpus
de connaissances existant ;
–– la légitimation par la cohérence interne du raisonnement ;
–– la pertinence observée dans l’application des résultats ;
–– la confirmation par les tests et l’expérience répétée.

Un inventaire complet des modes de validation des connais-


sances en sciences de gestion est certainement une ambition
chimérique. La diversité des formes de validation des connais-
sances est à mettre en reflet de la diversité des situations de
gestion et des problématiques en jeu. Un tel constat n’élimine en
rien l’intérêt de la question. Il doit conduire le chercheur à situer
son apport qui ne peut être que partiel et relatif et à s’inscrire
dans une communauté de savoir dont il peut être un contribu-
teur utile, d’autres chercheurs ayant la possibilité de s’appuyer
sur ses recherches et d’y porter un regard scientifique critique
62 contribuant ainsi à cerner la validité de chaque connaissance
nouvelle.

CONCLUSION
En matière de méthodologie, le choix du tailleur est toujours
préférable à celui du prêt à porter ! Cette conception ouverte ne
remet pas en question l’intérêt de séquences classiques telles que
celles rencontrées fréquemment dans des thèses hypothético-
déductives (données-hypothèses-traitement-résultats) ou de
séquences appropriées à la construction d’échelles ou au
traitement des données textuelles… Ces approches sur des
temps partiels ou plus étendus du déroulement d’une recherche
peuvent constituer des fils conducteurs utiles et pertinents
pour des doctorants ayant besoin de guides méthodologiques
éprouvés ! Mais on ne peut ignorer leurs propres limites.

Comme l’écrivent Martinet et Pesqueux (2013, p. 245), en com-


mentant « les révolutions intervenues au sein même de la reine
des sciences, la physique quantique (…), ces contributions dé-
Choix des méthodes de recherche

cisives, et bien d’autres qui suivront, affichent le caractère incer-


tain, réfutable, inexorablement incomplet, inachevé, construit et
sans cesse reconstruit d’une connaissance scientifique fonda-
mentalement instrumentale et propositionnelle, toujours en at-
tente d’un peu mieux ou franchement autre ». Les sciences de
gestion, sciences de la décision et de l’action, plus que d’autres,
ne peuvent être celles d’un propos définitif, quelle que soit la mé-
thodologie employée.

Notre propos n’est bien sûr pas de construire un plaidoyer contre


la méthodologie, ce qui serait aberrant ! Il vise simplement à
ouvrir en cette matière le champ des possibles, à ne pas s’en-
gager sur des rails sans s’interroger sur les limites inhérentes
aux parcours balisés, à inciter le doctorant à exercer sa liberté
et sa créativité de chercheur, en prenant conscience à chaque
stade de la construction de son travail doctoral, et de ses choix
méthodologiques, des possibilités ouvertes par chaque chemin
emprunté et, en contrepartie, de la relativité de ses apports.

Références citées
Bachelard, G. (1949), Le Rationalisme Appliqué, PUF, Paris.
63
Churchill Jr, G.A. (1979), A paradigm for developing better measures
of marketing constructs, Journal of Marketing Research, vol. 16,
n°1, p. 64-73.
Denzin, N. K. & Lincoln, Y. S. (eds.) (1994), Handbook on Qualitative
Research, Sage Publications, Thousand Oaks.
Dubois, P.-L. (1995), Propos sur les sciences de gestion en général et
sur leur enseignement en particulier, Mélanges en l’Honneur du
Professeur André Page, Presses Universitaires de Grenoble,
Grenoble.
Dubois, P.-L. (2007), Connaissance et gestion, un paradoxe
indépassable, in P.-L. Dubois et Y. Dupuy (dir.), Connaissance et
Management, Economica, Paris.
Evrard, Y., Pras, B. & Roux, E. (2009), Market, fondements et méthodes
des recherches en marketing, 4 e édition, Dunod, Paris.
Glaser, B.C. & Strauss, A. L. (1967), The Discovery of Grounded Theory :
Strategies for Qualitative Research, Aldine Transactions, Chicago.
Grawitz, M. (1993), Méthodes en sciences sociales, Dalloz, Paris.
Le Moigne, J.-L. (1990), Épistémologies constructivistes et sciences
de l’organisation, in A.-C. Martinet (dir.), Épistémologies et
sciences de gestion, Economica, Paris, p. 81-140.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Martinet, A.-C. (1990), Épistémologies et sciences de gestion,


Economica, Paris.
Martinet, A.-C. (2013), Le système « épistémique – pragmatique-
éthique » des sciences de gestion, in A.-C., Martinet &
Y., Pesqueux (dir.), Épistémologie des sciences de gestion, Vuibert,
Paris, p. 243-262.
Martinet, A.-C. et Pesqueux Y. (dir.) (2013), Épistémologie des sciences
de gestion, Vuibert, Paris.
Mouchot, C. (1990), Décisions et sciences sociales, in A.-C.
Martinet (dir.), Épistémologies et sciences de gestion, Economica,
Paris, p. 31-79.
Wacheux, F. (1996), Méthodes qualitatives de recherche en gestion,
Economica, Paris.
Weber, M. (1992), Essais sur la théorie de la science, Plon-Agora, Paris.

Références pour en savoir plus


Denzin, N.K. & Lincoln, Y.S. (1994), Handbook of Qualitative Research,
Sage, Thousand Oaks.
Ce livre rassemble de nombreuses contributions de spécialistes
de sciences humaines pour expliquer les fondements théoriques
des méthodes qualitatives, les stratégies d’enquête, de collecte,
64 d’interprétation et de présentation des données.

Evrard, Y., Pras, B. & Roux, E. (2009), Market, fondements et méthodes


des recherches en marketing, 4 e édition, Dunod, Paris.
Ce livre dresse un panorama complet et actualisé des études et-
des méthodes de recherche en marketing. En fait, ces méthodes
concernent la plupart des disciplines de sciences de gestion et
les lecteurs y trouveront de nombreuses réponses aux questions
techniques qui se posent dans l’utilisation des méthodes de re-
cherche.

Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2012),


Méthodologie de la recherche en sciences de gestion, Réussir son
mémoire ou sa thèse, 2e édition, Pearson, Montreuil.
Ce livre très complet traite un ensemble de questions théo-
riques et méthodologiques qui se posent au chercheur lors de
la construction de son travail doctoral. Il met particulièrement
l’accent sur les problèmes de choix de méthodes et propose une
grande variété de méthodes d’analyse qualitatives et quantita-
tives.
Choix des méthodes de recherche

Martinet, A.-C. (dir.) (1990), Épistémologies et sciences de gestion,


Economica, Paris.
Livre fondateur, « premier en France à se consacrer à une ré-
flexion épistémologique sur les sciences de gestion ».

Miles, M.B. & Huberman, A. M. (2003), Analyse des données qualitatives,


2e édition, (trad. M. Hlady-Rispal), De Boeck, Paris.
Ce livre présente de nombreuses méthodes qualitatives « en vue
d’établir des conclusions fiables à partir de données qualita-
tives ». L’accent est mis sur le mode de présentation des don-
nées.

65
CHAPITRE 4.
Le portefeuille des méthodes de recherche
terrain : méthodes qualitatives, méthodes
quantitatives et mixtes

Yves-Frédéric Livian

Résumé 

Le manager-chercheur doit avoir une vue globale du « porte-


feuille » de méthodes de recherche terrain qu’il est suscep- 66
tible d’utiliser dans sa thèse. Ce chapitre a pour but d’aider le
chercheur à réfléchir sur son « projet cognitif », qui induira ses
choix méthodologiques. Puis, le chapitre présente les forces
et les limites des principales familles de méthodes, en dépas-
sant une dichotomie souvent excessive entre « quantitatif » et
« qualitatif ». Il conclut sur des recommandations en matière
de choix méthodologiques dans le cadre du DBA.

Mots-clés : quantitatif, qualitatif, méthode mixte, projet co-


gnitif.

Les méthodes de recherche du DBA


L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

« Il en va des choses de la science comme de celles de la cuisine :


les recettes sont indispensables à qui veut réussir un plat (…) mais elles
sont simultanément le lieu d’une insatisfaction profonde… »
Berthelot (1996, p. 8)

INTRODUCTION
Le chercheur se trouve face à un choix délicat : celui de la mé-
thode d’approche de son terrain. Déjà évoquée dans le volume
précédent sur Le projet de thèse de DBA (Beaulieu & Kalika, 2017),
il importe maintenant de s’y attaquer de front. Pour ce faire, il
(elle) doit avoir une vue globale de ce que nous appellerons le
« portefeuille » des méthodes disponibles1.

Le chapitre qui suit a pour but d’aider le doctorant à faire ce choix


(en dialogue avec son directeur) en l’orientant dans une réflexion
sur son projet (la méthodologie devant être au service du projet),
sur les différences entre le quantitatif et le qualitatif et sur les
forces et les limites de chaque famille de méthodes.

1. PARTIR DE SON OBJECTIF : QUEL EST LE


67
« PROJET COGNITIF » DE LA THÈSE ?
Le point de départ de la réflexion méthodologique est la clari-
fication de l’objectif de recherche du manager. Que veut-il dé-
couvrir ? Quelle question veut-il contribuer à résoudre ? Quelles
connaissances veut-il produire à partir de son expérience ou de
son action dans l’organisation ? Ce que nous appelons le « pro-
jet cognitif » de la recherche doit être pensé, en dialogue avec
son environnement et l’encadrement de sa thèse.

En fait, les objectifs des managers-doctorants appartiennent


souvent à quelques grands types : citons-en quelques-uns.
–– Comment fonctionne réellement tel service ou processus,
quelles en sont les forces et faiblesses ?
–– Quelles sont les caractéristiques de tel marché, secteur,
filière et faut-il s’y engager ?

1. Nous n’avons pas systématiquement féminisé les pronoms et adjectifs du texte,


sachant que nous évoquons « le chercheur-manager » ou « le doctorant » en ayant
en tête les femmes aussi bien que les hommes.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

–– Quels sont les obstacles à l’innovation, à l’entrepreneuriat


dans tel ou tel contexte ?
–– Quel est l’impact de telle réforme d’organisation ou de la
mise en place de tel outil de gestion ?
–– Pourquoi telle réforme, outil, système n’a-t-il pas produit
les résultats escomptés ?
–– Quelle est la perception de telle catégorie de personnel (ou
de clients) à l’égard de la politique de l’entreprise ?

Ces questions sont proches de rapports ou d’études réali-


sés par des cadres ou des consultants mais ici, dans le cadre
d’une thèse, elles doivent d’une part s’insérer dans un courant
de réflexion général (théories disponibles, concepts à utiliser)
et d’autre part aboutir à créer des connaissances nouvelles. Ce
« projet cognitif » suppose des opérations différentes, qui vont
orienter vers autant de méthodes diverses.

Quatre opérations sont possibles en sciences sociales, entre


lesquelles on doit, sinon choisir, du moins décider de l’impor-
68 tance que le doctorant veut lui accorder.
–– Décrire : l’objectif est de dépeindre et retracer dans le détail
et de manière nouvelle une situation ou un phénomène mal
connu.
–– Expliquer : l’objectif est de savoir quels facteurs sont la
cause du phénomène à étudier.
–– Comprendre : le but est de saisir pourquoi les acteurs
pensent ou se comportent de telle ou telle manière.
–– Transformer : le but est d’aider à changer une situation, en
œuvrant avec les acteurs concernés pour leur apporter des
éléments de décision nouveaux et en tirer des leçons gé-
nérales.

La description peut être un passage nécessaire mais ne suffira


en général pas à répondre au projet cognitif. Par contre, les trois
autres peuvent être des priorités possibles : le doctorant veut-
il (elle) surtout analyser, de manière relativement objective, les
variables explicatives et mesurer leur influence ?
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Veut-il (elle) surtout s’approcher au plus près du terrain pour


ressentir les idées, perceptions, sentiments des groupes hu-
mains concernés ? Veut-il en priorité modifier une situation ou
mettre en place un nouveau système ?

Le doctorant devra clarifier son but car les différentes opéra-


tions intellectuelles auxquelles il voudrait procéder ne sont pas
également permises par les méthodes disponibles : certaines
méthodes ont pour objectif surtout de décrire, d’autres surtout
d’expliquer, d’autres encore de comprendre ou de faire chan-
ger.

Nous verrons plus bas qu’une combinaison de méthodes est


possible, et parfois nécessaire. Mais cela ne permet pas au doc-
torant de faire l’économie de la réflexion préalable : qu’est-ce
que je veux faire principalement ? La réponse commence par un
verbe…

2. COMPRENDRE LA DISTINCTION QUANTITATIF/


QUALITATIF POUR MIEUX LA DÉPASSER
69
Dans le langage courant de la recherche, on distingue le
Quantitatif et le Qualitatif. Pour examiner utilement cette dis-
tinction, il faut d’abord se débarrasser des caricatures. Pour cer-
tains, les approches quantitatives sont forcément déterministes,
puisque calquées sur les sciences de la nature, campées sur des
données uniquement numériques et donc froides et arrogantes.
Pour d’autres, les approches qualitatives sont forcément floues
et fragiles, puisqu’elles s’appuient sur un raisonnement spécu-
latif et une vision subjective, sans démonstration chiffrée.

La persistance de cette dichotomie outrée est due à la survivance


de chercheurs campant depuis toujours sur des positions
extrêmes et persistants à mépriser les méthodes « des autres ».
Ces « ayatollahs » de la statistique ou du qualitatif post-moderne
tombent dans les travers du positivisme scientiste (il n’y a de
science que de mesurable) ou du relativisme radical (tout est
discours et donc tout se vaut) 2.

2. Heureusement, ils n’enseignent en général pas dans les DBA !


C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Un examen plus sain de cette distinction nécessite ensuite


d’évacuer les fausses oppositions3 :
–– Le quantitatif utiliserait des données numériques, des
comptages et pas le qualitatif : c’est faux puisque des ana-
lyses lexicographiques par exemple utilisent des résultats
chiffrés. L’assistance de logiciels d’analyse de données est
maintenant possible dans les deux cas (logiciels d’analyse
de données quantitatives et d’ADQAO) 4.
–– Le qualitatif serait « exploratoire » et le quantitatif « confir-
matoire » : on rencontre souvent des « designs » de re-
cherche différents. Les méthodes quantitatives sont
parfois présentées comme divisées en « méthodes explo-
ratoires » et « méthodes explicatives » (Gavard-Perret et al.,
2008).
–– Le qualitatif serait « interprétatif » et pas le quantitatif : c’est
également faux car les résultats statistiques ne parlent pas
d’eux-mêmes : une analyse factorielle de correspondance
par exemple nécessite un commentaire interprétatif.

Par rapport à ces fausses oppositions, il est plus utile de prendre


70 en compte d’autres distinctions parfois utilisées qui renvoient
au projet de recherche lui-même et qui ne mettent pas la fron-
tière au même endroit. Rappelons-en trois :
–– Enquête extensive/intensive : le chercheur peut avoir à étu-
dier une large population en l’interrogeant sur quelques
éléments. On sera alors dans l’enquête par questionnaire
fermé sur échantillon aléatoire. Ou bien il a pour but d’étu-
dier un lieu, un groupe, une situation réduits mais de ma-
nière approfondie.
–– Explication/compréhension : le chercheur peut avoir
comme objectif principal d’analyser les différentes va-
riables (qui, quoi, combien ?) qui expliquent le phénomène
étudié, d’en mesurer le poids, d’établir les relations existant
entre les variables. Ou bien, il peut chercher à s’approcher
au plus près des acteurs de la situation pour saisir les in-

3. On se référera sur ce thème à l’article « classique » de Brabet (1988) et plus récem-
ment au débat Giordano et Jollibert (2016).
4. Analyse de Données Qualitatives Assistée par Ordinateur (exemple : Tropes,
NVivo…).
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

tentions et les ressorts affectifs ou symboliques de leurs


actions (pourquoi ?).
–– Position externe/interne : certains ethnologues utilisent
cette distinction. La position d’extériorité, est celle dans la-
quelle le chercheur sait ce qui est important et l’analysera
dans ses propres termes. La position interne est celle où le
chercheur s’efface derrière la façon dont les gens étudiés
eux-mêmes pensent et réagissent et « collera » le plus pos-
sible à leurs discours.

On peut certes regrouper certains des termes de ces trois dis-


tinctions : extensif-explicatif-externe d’un côté et intensif-com-
préhensif-interne de l’autre. Mais l’usage de ces trois distinc-
tions permet d’avoir une vision plus souple des différences de
méthodes et d’imaginer des combinaisons. On pourra envisager
une enquête intensive utilisant des variables à analyser, ou une
recherche « compréhensive » comprenant une enquête assez
vaste avec un outil adapté…

Notre encouragement à rejeter les caricatures et les fausses


distinctions n’aboutit pas à considérer que toutes les méthodes 71
répondent aux mêmes préoccupations de manière indistincte,
ou ne seraient différentes que dans leur application concrète.
Certaines méthodes s’inscrivent dans une filiation, un état d’es-
prit, une « posture » qu’il importe de saisir et qui peut même avoir
des bases épistémologiques distinctes (Livian, 2018).

Certains projets cognitifs privilégient une position extérieure,


garante – pense-t-on – d’une « neutralité » vis-à-vis du sujet étu-
dié. L’objectif à atteindre est l’analyse fine des variables expli-
catives d’un phénomène, et cette explication doit forcément re-
poser sur les apports des recherches antérieures. Le chercheur
établira des hypothèses, qu’il cherchera ensuite à opérationna-
liser (c’est-à-dire répondre à la question : comment les mesurer
concrètement ?) et à vérifier sur le terrain considéré. L’objectif
ultime de produire des lois générales (comme dans les sciences
de la nature) n’est certes pas prioritaire mais la logique est bien
d’établir des régularités, en confirmant ou infirmant des conjec-
tures issues de la littérature théorique sur le sujet.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

D’autres projets sont davantage ancrés dans la prise en compte


des contextes et dans la pénétration au cœur des mobiles, per-
ceptions et sentiments des individus impliqués dans la situation
étudiée. Ils ont pour but de « donner à voir les acteurs penser,
parler, agir et interagir, coopérer ou s’affronter » (Dumez, 2011).

Le chercheur utilisera sa familiarité avec le milieu pour recueillir


le plus directement possible les discours produits par les indi-
vidus ou groupes concernés. Dans cette optique, il ne part pas
avec un corps d’hypothèses structuré et se « laisse surprendre »
par son terrain y compris en prenant comme objet de recherche
le langage spécifique des acteurs.

Il y a bien une posture plus objectivante, à prédominance déduc-


tive (vérifier des hypothèses générales) et une autre plus interne
à prédominance inductive (observer et faire émerger des phéno-
mènes complexes). On voit donc bien les différences mais aussi
les complémentarités possibles entre ces approches.

Le développement en sciences de gestion de « méthodes


mixtes » rend bien compte de cette complémentarité et des com-
72 binatoires possibles pour atteindre l’objectif cognitif recherché.

Une enquête par quelques entretiens très diversifiés, ou une


observation fine, peut permettre d’élaborer un outil de recueil
de données adapté au milieu, outil qui sera administré à une
population plus large. Une étude de cas approfondie utilisera
concurremment des analyses de textes, des entretiens ouverts,
de l’observation, parfois un questionnaire. Un sondage extensif
sur échantillon représentatif peut être utilement complété et en-
richi par des récits de vie individuels…

Ces méthodes mixtes, dont l’essor en sciences de gestion est


récent, peuvent se différencier par l’ordre du traitement des
données (quantitatif d’abord ou qualitatif d’abord), le poids de
chaque type et leurs modalités d’articulation (connexion, inté-
gration ou articulation) (Creswell, 2009).

Certains chercheurs associent la combinaison des approches


quantitatives et qualitatives avec la recherche-intervention
(Savall & Zardet, 2004).
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Ces approches mixtes encore rares, comportent un potentiel


énorme de création de connaissances et sont promises à se
développer en sciences de gestion5. Elles présentent bien sûr
l’inconvénient d’être consommatrices de ressources et sup-
posent une aisance du chercheur dans tous les registres. Elles
supposent aussi que l’usage des différents types de méthodes
corresponde à des positions épistémologiques voisines et non
incompatibles.

3. LE PORTEFEUILLE DE MÉTHODES
Notre but est de présenter succinctement les cinq principales
familles de méthodes de recherche de terrain de manière à aider
à un choix. Nous évoquerons pour chacune ses forces et ses li-
mites ou difficultés d’utilisation, sachant qu’une analyse plus dé-
taillée figure dans les chapitres 5 à 14 du présent ouvrage 6. Nous
donnerons ensuite une indication sur les méthodes mixtes.

3.1. Les dispositifs expérimentaux


Calqués sur la méthode expérimentale dominante en sciences 73
de la nature, ils consistent à étudier l’effet d’une variable (ou
plusieurs) sur une autre variable (ou plusieurs) en reconstituant
une situation simplifiée qui permette d’en isoler l’effet (cf. cha-
pitre 14). Cette situation peut être artificielle (in vitro, en labora-
toire) ou réelle (in vivo). La psychologie sociale utilise ces dispo-
sitifs depuis le début du XXe siècle7.

Le chercheur dégage les effets de la variable « explicative » sur


la variable « à expliquer », en comparant les résultats obtenus à
ceux relatifs à un groupe « de contrôle » (où l’on n’a rien chan-
gé). Les « expériences » doivent être répétées plusieurs fois, en

5. Dans un repérage fait sur la production en management stratégique, les auteurs


dénombrent 17 articles utilisant des méthodes mixtes sur 481 (Aldebert & Rouzies,
2011).
6. Un tableau complet comporterait également la méta-analyse, mais nous ne la trai-
tons pas ici car nous nous limitons aux méthodes de recueil de données sur le
« terrain », c’est-à-dire utilisant des données primaires s’appuyant sur des situa-
tions concrètes. La méta-analyse en tant que méthode d’analyse de données est
traitée dans le chapitre 20.
7. Par exemple la fameuse expérience Hawthorne sur la motivation (Mayo, 1932) et
celle de la soumission à l’autorité de Milgram (1974).
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

neutralisant les facteurs pouvant perturber l’étude du résultat


(résultat « toutes choses égales par ailleurs ») 8.

Cette méthode est d’une grande rigueur puisqu’elle permet d’iso-


ler clairement la relation entre plusieurs variables. En sciences
de la nature, elle a été la base de nombreuses découvertes scien-
tifiques. Des dispositifs quasi-expérimentaux sont couramment
utilisés en psychologie sociale, en économie, et de nombreuses
recherches en marketing s’en inspirent.

On comprend que ces situations expérimentales ne sont pos-


sibles qu’au prix d’une certaine simplification de la réalité (iso-
lation d’une variable ou d’un petit nombre de variables alors que
la réalité est complexe). Elles supposent aussi une certaine re-
constitution de la réalité, pour laquelle la transposition des ré-
sultats « dans la vie réelle » peut soulever des questions. Elles
peuvent être également lourdes à mettre en place.

3.2. L’enquête
Elle consiste à recueillir l’information recherchée de manière
74
systématique par des outils adaptés, principalement le ques-
tionnaire ou l’entretien.

De très nombreux types d’enquêtes existent. D’un côté, on aura


des enquêtes extensives, sur des échantillons construits, ayant
pour but de recueillir une masse de données qui feront l’objet
d’une analyse statistique (cf. chapitre 18). À l’autre extrémité, le
chercheur pourra interroger par entretiens un petit nombre de
personnes diversifiées afin d’explorer une question délicate ou
peu connue.

La réussite de l’enquête repose d’une part sur la correspondance


entre sa visée et l’objectif recherché (cf. supra), d’autre part sur le
taux de réponses obtenu (et donc la qualité de l’échantillon des
réponses réellement exploitables), enfin sur la qualité technique
de l’outil de recueil des données (nature et ordre des questions,
conduite des entretiens).

8. En médecine, on fera en sorte que les sujets sur lesquels portent les variables
soient répartis aléatoirement (« essai randomisé ») (Mayo, 1932).
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

L’enquête est la méthode reine de la recherche en sciences so-


ciales et aussi celle sur laquelle ont été publiés le plus grand
nombre d’ouvrages méthodologiques. Bien réalisée, une en-
quête apporte une quantité et une qualité d’informations qui
étonnera même les spécialistes du sujet. L’enquête extensive à
exploitation statistique fondée sur des hypothèses sérieuses,
permet d’envisager une extension des résultats.

L’enquête par entretiens approfondis permet d’approcher au


plus près les représentations, opinions, sentiments des su-
jets et les « phrases témoins » (verbatim) tirées des entretiens
restitueront la teneur des discours de manière vivante. Encore
faut-il que le questionnaire soit correctement élaboré (cf. cha-
pitre 12) et les entretiens menés selon des règles précises (cf.
chapitre 6).

Les déceptions en matière d’enquêtes sont très nombreuses


pour plusieurs raisons : le doctorant n’a pas pu faire un échan-
tillonnage pertinent, la diffusion du questionnaire s’est heur-
tée à des obstacles pratiques, le questionnaire n’était pas as-
sez incitatif ou trop lourd et le taux de réponses est plus faible
qu’espéré, les résultats sont triviaux car les questions n’ont 75
pas permis de favoriser la sincérité des réponses… Le temps
de préparation d’une enquête est décisif : en amont, un ques-
tionnaire hâtivement lancé aboutira à un échec ; en aval, des
entretiens mal retranscrits et peu exploités donneront un ré-
sultat médiocre.

Le contexte technologique et culturel joue un rôle dans le choix


de la méthode, et au sein de la famille « enquêtes » dans celui
de ses modalités. Un pays sans Poste fiable et au réseau infor-
matique défaillant rendra difficile la diffusion à grande échelle
d’un questionnaire. Certaines populations préfèrent l’expres-
sion orale à l’écrit. Les formes d’expression des opinions ou
les attitudes face à l’information varient grandement selon les
contextes9. Le chercheur devra se « mettre dans la peau » du ré-
pondant : comment créer le contact et rendre l’enquête accep-
table ? Quelle forme d’expression est la plus adaptée ? Quels
mots faut-il utiliser ou éviter ?

9. Voir chapitre 22 pour le cas de l’Afrique par exemple.


C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

3.3. Les études de cas

Il s’agit d’étudier une situation complexe (ou un petit nombre


de situations) en profondeur et dans son contexte spécifique.
Le chercheur va construire une analyse aussi complète que pos-
sible, en recueillant des informations par tous les moyens pos-
sibles (le plus souvent étude de documents, observation, en-
tretiens, voire questionnaires) au cours d’une certaine période.
Cette méthode va avoir l’avantage de replacer les phénomènes
étudiés dans leur histoire et leur contexte, de comprendre les
processus à l’œuvre et de recueillir les points de vue de plusieurs
types d’acteurs.

Si l’étude dure un certain temps, le chercheur pourra prendre en


compte la durée, et ainsi avoir une vision diachronique que l’en-
quête ne permet pas. La méthode peut être utilisée sur une seule
organisation, ou situation (mais alors celle-ci doit être suffisam-
ment riche et complexe pour nourrir la problématisation d’une
thèse) ou un petit nombre (souvent 2 à 4) et par conséquent in-
clure une comparaison inter-cas, puis une conclusion générale.
76
On peut associer à l’étude de cas la méthode des « récits de vie »,
qui consiste à procéder à une analyse approfondie du cas d’une
personne, à qui l’on fait retracer par une série d’entretiens sa
trajectoire personnelle. Ce « récit de vie » apporte un matériau
direct et potentiellement riche autour du thème objet de la re-
cherche (trajectoires d’entrepreneurs, d’artisans, de salariés, de
cadres…) (cf. chapitre 9). Le « récit de vie » est souvent utilisé
comme illustration vivante d’un processus traité par une autre
méthode (par exemple une enquête).

Les limites de ces méthodes sont inhérentes à leurs caractéris-


tiques : le cas peut être riche mais rien ne permet de penser a
priori qu’un autre cas ne serait pas complètement différent (ou
alors le chercheur doit défendre le caractère exemplaire du cas
traité). Le type de recueil d’informations, fortement lié à la per-
sonne du chercheur et à son implantation, ne permet pas de pen-
ser qu’il est indifférent à celle-ci et est donc fragile du point de
vue de sa fiabilité.
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

3.4. L’observation
Pour décrire et comprendre ou analyser, il faut parfois d’abord
observer. De nombreuses problématiques de gestion pâtissent
d’une base descriptive insuffisante. Des questions essentielles
sont peu documentées : que se passe-t-il réellement dans cette
situation, dans cette unité ? Que fait réellement cette catégorie
de personnel ? Comment la décision est-elle prise ? Quelle est la
véritable utilisation de cet outil ? Etc.

Le chercheur doit donc « aller y voir », soit pour compléter son


investigation sur d’autres données (des documents, des en-
tretiens…)10 soit pour découvrir des éléments peu visibles, peu
connus jusqu’à présent ou volontairement cachés. Il y a des phé-
nomènes qui ne s’étudient qu’en allant sur place (cf. chapitre 5).

La force de cette méthode réside dans sa globalité et son ou-


verture. Tout peut être intéressant pour un chercheur curieux :
les lieux, les installations, les machines, les personnes bien sûr,
mais aussi les bruits, les odeurs, le climat général. La subjectivi-
té du chercheur (à condition d’être encadrée) va l’aider à capter
des informations de toutes natures. Cela suppose non pas une 77
passivité, mais une attitude active qui n’est pas toujours natu-
relle : il faut parfois apprendre à ouvrir ses yeux et ses oreilles.
Bien sûr, cette méthode suppose la présence physique du cher-
cheur et donc qu’il soit admis dans la situation ou l’organisation
à étudier. Deux familles d’observation sont utilisables, selon la
position du chercheur dans le groupe ou la situation sur laquelle
porte la recherche.

L’observation de type ethnographique

Dans ce cas, le chercheur a réussi à se faire accepter dans le


groupe comme observateur et est (plus ou moins) libre d’obser-
ver et de garder trace de ce qu’il voit et entend (notes, carnets
de bord, vidéos…). Cette position du chercheur s’inscrit dans la
tradition ethnographique, ayant fait l’objet d’œuvres puissantes
et d’une littérature méthodologique abondante (cf. chapitre 8).
Redécouverte pour la gestion dans les années 1970-1980, ce type

10. La comparaison entre les documents et procédures officiels et ce qui résulte de


l’observation permet souvent d’obtenir des résultats spectaculaires !
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

d’observation est, dans les entreprises, rarement possible à


l’état pur : le chercheur est un visiteur ou un stagiaire mais qui
reste peu longtemps sur les lieux et à qui, le plus souvent, on ne
voudra bien montrer que ce que l’on veut…

Dans beaucoup de cas, le chercheur devra négocier plus ou


moins explicitement, avec l’organisation d’accueil les termes
d’une coopération : on vous laisse observer, échanger, voire fil-
mer… mais quel contrôle avons-nous sur le résultat, et que nous
donnez-vous en échange ? On touche là une des limites de la
méthode : à quel prix le chercheur-observateur a-t-il pu pénétrer
dans le milieu ? Est-il en connivence avec celui-ci ? A-t-il eu une
totale liberté d’observation ?

L’observation participante

Dans cette méthode, il est considéré qu’il n’y a pas moyen de


pénétrer les situations en tant que pur observateur et par consé-
quent que le chercheur doit tenir un rôle actif dans la situation.

Ce qu’il y avait d’artificiel et de fragile dans l’observation pure


disparaît : le chercheur a un accès aux réalités car il y œuvre di-
78 rectement. Par exemple, s’il (elle) occupe un poste, il éprouve
lui-même la complexité ou l’ambiguïté des situations, la dureté
des conditions de travail, la bonne ou mauvaise qualité du climat
relationnel, la nature des relations hiérarchiques…

Un doctorant DBA se retrouvera plus souvent dans la situation


d’être à la fois acteur dans son organisation et de « chausser les
lunettes » d’observateur pour la réalisation de sa recherche.

Cette observation participante peut se faire sous deux formes : soit


ouverte (le milieu sait que M. ou Mme X est à la fois salarié et fait
un travail de recherche) soit opaque (M. ou Mme X paraît un salarié
« normal » et cache le fait qu’il est en même temps chercheur).

L’observation opaque a permis de pénétrer des milieux hostiles


ou fermés et a apporté de très riches découvertes (pensons à
L’établi, Linhart, 1978). C’est une méthode couramment utilisée
aujourd’hui par les journalistes d’investigation11.

11. Parmi les exemples récents sur des problématiques du travail, on peut citer
Aubenas (2010) ou Le Guilcher (2017).
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Les avantages de cette méthode sont évidents : accès à l’infor-


mation, connaissance intime du milieu, possible prolongement
en termes de recommandations… Les difficultés aussi : le cher-
cheur-manager doit être capable de prendre du recul, de porter
un nouveau regard sur son entreprise ou son secteur, de relier
en permanence les informations qu’il recueille et les scènes aux-
quelles il participe à une problématisation générale. Il a comme
atout d’être un « insider », mais il doit parfois penser comme un
« outsider ». La position de « familiarité distante » n’est pas évi-
dente et doit être construite.

On aura compris que les méthodes d’observation sont suscep-


tibles de souffrir de nombreux biais et notamment :
–– Biais cognitifs liés au filtre personnel de l’observateur (voir
ce que l’on veut voir, et pas le reste). La validité externe
d’une telle recherche ne peut donc être que faible.
–– La tentation de reconstitution a posteriori d’un récit, corres-
pondant à ce que le chercheur veut démontrer.

Le risque est grand dans ces démarches d’un oubli progressif


de toute référence à un cadre théorique (même s’il est évoqué au 79
début de la thèse). Pris par son terrain – et quelquefois fasciné
par lui – le chercheur-observateur peut avoir du mal à articuler
ses résultats à une théorie ou à des concepts généraux.

3.5. La recherche-action
Les sciences de gestion se définissant comme devant produire
des connaissances « actionnables », une des méthodes cor-
respondant à cette vocation consiste à associer directement
connaissance et action (cf. chapitre 13). Cette démarche s’ins-
crit dans la tradition « clinique » en sciences humaines (clinique :
« au chevet de »…). Le médecin faisant de la recherche clinique
utilise ses connaissances pour soigner, mais en soignant il pro-
duit de la connaissance.

Recherche-clinique, recherche-action, recherche-intervention :


ces approches ont aussi droit de cité en psychologie et en so-
ciologie, où l’idée d’une « co-construction des connaissances »
entre chercheurs et acteurs est aujourd’hui mise en avant. Ces
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

approches ont une visée de changement et par conséquent, in-


téressent de nombreux chercheurs-managers. Il est vrai qu’elles
peuvent correspondre à un projet pratique, une motivation per-
sonnelle et une intention des dirigeants de l’entreprise accep-
tant d’accompagner le chercheur-manager qui y travaille.

Dans le cas où le chercheur-manager organise son projet dans


sa propre entreprise, la recherche-action soulève la même ques-
tion de la « double casquette » que l’observation-participante.
Comment concilier une action de changement et une distance
critique ? Comment agir dans un contexte précis et se connecter
à des concepts généraux ?

Une recherche-action réussie dans le cadre d’un DBA suppose


que le chercheur-manager n’ait pas un enjeu organisationnel
trop fort, avec une obligation de résultats. Elle suppose aus-
si la possibilité d’un décalage (même provisoire) du chercheur
avec la politique et le discours officiels des dirigeants. Le cadre
ambitieux voulant rapidement réussir une opération de change-
ment univoque n’est pas forcément un bon candidat pour mener
une recherche-action. Celle-ci suppose une prise en compte de
80 points de vue variés, des processus collectifs et une certaine
durée.

La recherche-action est donc bien une démarche spécifique qui


n’est ni de l’étude interne, ni du travail de consultant. C’est bien
un aller et retour original entre processus de changement et pro-
duction de connaissances.

Tableau 1. Forces et limites des cinq familles de


méthodes de terrain

Méthodes Forces Limites ou difficultés


Expérimentale Rigueur • Simplification de la
réalité
• Lourdeur
Enquêtes Données nombreuses et • Administration
riches • Échantillonnage
• Sincérité des réponses
Étude de cas Richesse • Accès au terrain
Prise en compte du • Portée limitée
contexte
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Méthodes Forces Limites ou difficultés


Observation
Ethnographique
• Richesse des observa- • Accès au terrain
tions • Objectivité question-
• Durée nable
• Articulation avec théo-
ries
Participante • Richesse • Accès au terrain
• Durée • Objectivité question-
nable
• Articulation avec théo-
ries
Recherche- • Richesse • Conciliation
action • Apport de solutions chercheur-acteur
• Articulation avec théo-
ries

3.6. Les méthodes mixtes

Ces différentes méthodes peuvent être combinées dans un de-


sign d’ensemble ayant pour but de démontrer la « thèse » portée
par le chercheur. En s’inspirant de Creswell (2009) et Creswell et 81
al. (2011), on peut retenir quatre combinaisons principales :
–– Le devis « concomitant convergent » consiste à utiliser deux
grandes méthodes, l’une à dominante quantitative, l’autre
qualitative et à comparer leurs résultats, pour proposer
une interprétation d’ensemble. Exemple : comparaison des
résultats d’une enquête extensive par questionnaire et une
enquête restreinte par entretiens.
–– Le devis « séquentiel explicatif » (fréquemment utilisé)
consiste à étudier les relations entre des variables, par une
démarche quantitative et à affiner les résultats par des mé-
thodes « qualitatives » complémentaires. Exemples :
• enquête extensive puis intensive (le chercheur traite des
données sur un vaste ensemble et affine l’analyse par
des entretiens sur un échantillon restreint diversifié) ;
• enquête extensive plus études de cas (traitement de don-
nées sur un vaste ensemble plus analyse fine de deux cas
emblématiques du phénomène traité).
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

–– Le devis « séquentiel exploratoire » (utilisé depuis long-


temps en sociologie) commence par une exploration du
sujet (étude de documents, entretiens d’experts, enquête
intensive) permettant la construction d’un questionnaire
spécifique, diffusé à plus grande échelle.
–– Le devis « transformateur » utilise plusieurs méthodes (en-
quêtes, étude de cas, observation-participante, recherche-
action) dans un but de changement.

4. SYNTHÈSE
Il est possible de comparer toutes ces méthodes sous trois
angles : leur contribution aux opérations de base du projet co-
gnitif, le rapport qu’elles impliquent avec les acteurs humains, la
place qu’y tient le cadre théorique.

Si l’on revient sur le projet cognitif à élaborer (cf. supra § 1), on


peut classer sommairement les méthodes de recherche terrain
de la manière suivante (Tableau 2) :

82
Tableau 2. Un classement sommaire des méthodes
en fonction des objectifs

Décrire Enquête extensive


Étude de cas
Observation
Séquentiel exploratoire
Expliquer Expérimentale
Enquête extensive
Séquentiel explicatif
Comprendre Enquête intensive
Étude de cas
Observation participante ou ethnographique
Transformer Recherche-action
Mixte transformateur

Par rapport à la relation avec les acteurs humains, les méthodes


présentées impliquent des relations très différentes entre le
chercheur et les personnes concernées par le thème de re-
cherche.
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

La recherche expérimentale cherche à isoler le chercheur de


toute influence externe de manière à gagner en « objectivité ».
L’enquête extensive maintient le chercheur à une certaine dis-
tance des sujets interrogés, distance réduite dans le cas des en-
tretiens ou des récits de vie. Dans toutes les autres méthodes, le
chercheur est immergé dans le milieu objet de sa recherche et il
y a donc interaction parfois forte entre chercheur et membres du
terrain. On va même plus loin dans le cas de la recherche-action
où il y a coproduction de connaissances.

Toute la gamme des rapports est donc présente, de l’attitude la


plus objectivante (proche des sciences de la nature) à celle la
plus coopérative (considérée comme spécifique aux sciences
sociales). Les critères de validité applicables à ces recherches
sont donc nécessairement très différents.

Par rapport à la place de la théorie, certaines méthodes s’ins-


crivent plutôt dans une démarche hypothético-déductive, où les
hypothèses sont issues de théories antérieures ou des modèles
existants à tester (méthode expérimentale, enquête extensive).

D’autres sont plutôt déductives. Sans négliger les cadres théo-


riques, elles laissent place à davantage de souplesse dans la 83
« découverte » d’éléments inopinés liés à la présence sur le ter-
rain (études de cas, enquêtes intensives, recherche-action, ob-
servation participante).

Certaines méthodes sont utilisées dans des démarches ex-


trêmes (comme la « théorie ancrée ») où tout cadrage théorique
en amont est déconseillé, pour que le chercheur découvre, sans
a priori, à travers les acteurs eux-mêmes, les éléments du pro-
blème (observation ethnographique, enquêtes intensives avec
entretiens non directifs…).

On mesure à travers ces trois dimensions que le choix des mé-


thodes n’est pas qu’un choix technique : il engage un objectif, un
mode de relation au terrain, un type de démarche scientifique.

CONCLUSIONS ET RECOMMANDATIONS
On aura compris, à la fin de ce panorama du « portefeuille de mé-
thodes », qu’il n’y a pas de méthode parfaite et que l’essentiel pour
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

le chercheur est d’être capable de justifier les raisons qui l’ont


conduit à choisir telle ou telle méthode en connaissance de cause.

Ces raisons sont d’abord celles correspondant au projet de la


thèse. En quoi la ou les méthodes utilisées correspondent-elles
à l’objectif fixé ? Ne négligeons pas cependant deux autres fac-
teurs qui peuvent conduire à choisir une méthode plutôt qu’une
autre : les préférences du chercheur et celles de son directeur.
Le chercheur peut se sentir plus à l’aise dans une méthode (mais
il aura quand même à dire pourquoi)12. Le directeur de thèse peut
aussi avoir ses propres orientations, notamment s’il se rattache
à un courant théorique ou si ses travaux personnels ont prin-
cipalement utilisé telle ou telle méthode (l’adéquation entre les
préférences du chercheur et celles du directeur font partie des
critères du choix réciproque des deux partenaires !).

Deux écueils méthodologiques contraires sont à éviter, et le dia-


logue entre le chercheur et son directeur(trice) permettra d’y re-
médier : la négligence et le surinvestissement.

La négligence consiste à sous-estimer les considérations mé-


thodologiques et à se fier à son expérience professionnelle an-
84
térieure ou à la connaissance que l’on a déjà du sujet, qui garan-
tiraient, aux yeux de certains candidats, la qualité du résultat.
L’impératif de justification méthodologique à laquelle tout cher-
cheur est soumis dissuadera rapidement les candidats oublieux.

Le surinvestissement, quelquefois lié à une formation scienti-


fique, accorde quant à lui, trop de confiance à la solidité « scien-
tifique » des méthodes en sciences sociales. Le chercheur se
perd alors dans de nombreux calculs statistiques utilisant les
dernières formules à la mode. Cela peut le pousser à des raf-
finements hors de propos, alourdissant le texte de la thèse et
minorant l’apport de connaissances sur le fond. En matière qua-
litative, le raffinement des modes de codage fait parfois perdre
de vue le contact direct avec le matériau et ne produit pas une
valeur ajoutée incontestablement supérieure.

12. Si l’usage de certains outils statistiques peut être lié à une expérience profes-
sionnelle antérieure du manager, la maîtrise de la plupart des méthodes vient
avec la pratique et notamment en matière d’enquête. « L’enquête s’apprend en se
faisant, d’une manière sinueuse et chaotique… » (Beaud & Weber, 2010, p. 12). Le
chercheur ne peut donc attendre une maîtrise totale à l’avance…
L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

De nombreux chercheurs expérimentés soulignent le carac-


tère de « bricolage » de la recherche ou son côté « artisanal »
(Pettigrew, 1985), tant il est vrai que la qualité s’obtient davantage
par une construction permanente et une vigilance constante que
par l’application de recettes toutes faites.

Quoi qu’il en soit, les difficultés méthodologiques sont large-


ment inévitables et il faut se garder de les « mettre sous le tapis »
(Guionnet & Rétif, 2015). Elles peuvent avoir un intérêt heuristique
car elles permettent parfois de révéler des aspects inconnus du
sujet traité (par exemple la difficulté de faire exprimer tel groupe
social sur certains sujets) ou des outils utilisés (par exemple
l’inadaptation de telle échelle de mesure dans tel contexte). Une
fois les résultats obtenus, un regard rétrospectif permettra aus-
si de juger des écarts éventuels par rapport à l’objectif visé et à
la promesse de la méthodologie choisie. C’est aussi la maturité
avec laquelle le doctorant traitera de ses choix et de ses limites et
difficultés d’application qui sera jugée au final.

Références citées
Aldebert, B. & Rouzies, A. (2011), L’utilisation des méthodes
85
mixtes dans la recherche française en stratégie : constat et
pistes d’amélioration, XXe colloque de l’AIMS, vol. 6, 6-8 juin,
Nantes. Disponible à : www.strategie-aims.com/conferences/
xxeconference/com1336.
Aubenas, F. (2010), Le Quai de Ouistreham, Paris, Éditions de l’Olivier.
Beaud, S. & Weber, F. (2010), Guide de l’enquête terrain, Paris, La
Découverte.
Beaulieu, P. & Kalika, M. (dir.) (2017), Le projet de thèse de DBA, Caen,
Éditions EMS.
Berthelot, J.-M. (1996), Les vertus de l’incertitude, Paris, PUF.
Brabet, J. (1988), Faut-il encore parler d’approche qualitative et
d’approche quantitative ?, Recherches et Applications Marketing,
vol. 3, no 1, p. 75-89.
Creswell, J.W. (2009), Research Design : Qualitative, Quantitative and
Mixed Methods Approches, Thousand Oaks, CA, Sage.
Creswell, J.W., Vicki, L. & Plano, C. (2011), Designing and Conducting
Mixed Methods Research, 2nd edition, Thousand Oaks, CA, Sage
Publications.
Dumez, H. (2013), Méthodologie de la recherche qualitative, Paris,
Vuibert.
C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert A. (dir.)


(2008), Méthodologie de la recherche. Réussir son mémoire ou sa
thèse en sciences de gestion, Paris, Pearson.
Giordano, Y. & Jollibert, A. (2016), Pourquoi je préfère la recherche
quantitative, Revue Internationale PME, vol. 29, no 1, p. 7-17.
Guionnet, C. & Rétif, S. (dir.) (2015), Exploiter les difficultés
méthodologiques. Une ressource pour l’analyse en sciences sociales,
Rennes, PUR.
Le Guilcher, G. (2017), Steak machine, Paris, Éditions Goutte d’Or.
Linhart, R. (1978), L’établi, Paris, Éditions de Minuit
Livian, Y. (2018), Enseigner la recherche qualitative en sciences
économiques et de gestion, HAL-SHS 01757005.
Mayo, E. (1932), The Problem of Working Together, Chicago, IL,
University of Chicago Press.
Milgram, S. (1974), La soumission à l’autorité, Paris, Calmann Lévy.
Pettigrew, A.M. (1985), Contextualist research: a natural way to
link theory and practice, in E. E., Lawler, A. M. Mohrman, S. A.,
Mohrman, G., Ledford & T. G., Cummings (eds.), Doing Research
that is Useful in Theory and Practice, Lanham, MA, Lexington
Books, p. 222-273.
Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion.
86 Approche qualimétrique, Paris, Economica.

Références pour en savoir plus

Guides pratiques
Quivy, R. & van Campenhoudt, L. (2006), Manuel de recherche en
sciences sociales, 3 e édition, Paris, Dunod.
Un manuel clair, largement utilisé.

Dépelteau, F. (2010), La démarche d’une recherche en sciences humaines,


Québec, Les Presses de l’Université Laval/de Boeck Université.
Un guide complet et très pédagogique.

Pour approfondir les choix entre différentes approches :


Berthelot, J.-M. (1990), L’intelligence du social, Paris, PUF.
Ouvrage fondamental, d’un abord un peu difficile, qui décrit les
différentes manières d’aborder l’étude des réalités sociales.

Schurmans, M. (2011), Expliquer, interpréter, comprendre, 2e édition,


Genève, Faculté de Psychologie.
Une bonne synthèse en un petit volume.
PARTIE II
Recueillir les données du terrain

Introduction à la partie II

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev


87

La collecte de données qualitatives et quantitatives peut prendre


de multiples formes en fonction du terrain, de l’accès qu’un doc-
torant pourra en avoir, des techniques et compétences qu’il
possédera ou voudra développer, des outils à sa disposition,
et des questions de recherche qu’il posera ainsi que sa posture
épistémologique. Les questionnaires, les entretiens, les obser-
vations, l’ethnographie et les études de cas sont les principales
méthodes utilisées en sciences de gestion. D’autres comme les
récits de vie, les méthodes historiques, les quasi-expérimen-
tations, la recherche-action, les données collectionnées par
Internet pourront aussi inspirer des doctorants de DBA. Elles
sont décrites et illustrées dans les chapitres qui suivent, leurs
avantages et limites y sont discutés et des conseils pratiques
sont fournis pour des doctorants de DBA.

Dans le chapitre 5 Françoise Chevalier et Sébastien Stenger


décrivent l’observation, une méthode scientifique reconnue de
récolte de données dans les enquêtes de terrain des sociolo-

Les méthodes de recherche du DBA


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

gues. Elle permet d’avoir accès à des données qui ne sont pas
accessibles par des entretiens ou des questionnaires et elle
peut être mobilisée dans les différentes disciplines de la ges-
tion. Le doctorant de DBA a donc de nombreuses raisons, si sa
recherche porte sur l’entreprise dans laquelle il travaille, de re-
courir à l’observation. Les auteurs la définissent d’abord, puis
distinguent ses deux formes principales, l’observation parti-
cipante et l’observation non participante et indiquent qu’elles
peuvent s’insérer dans des designs de recherche variés comme
la recherche-action. Ils en soulignent les avantages : comment
elles peuvent révéler les représentations sociales ou l’existence
de pratiques non officielles ou des rapports de pouvoir et inté-
rêts que les acteurs ne sont pas forcément prêts à aborder dans
des entretiens ; puis les difficultés dont la conscience aide à
s’en prémunir : risque de défaut de distance, risque de la sai-
sie d’artefacts, et risques de biais cognitifs. Enfin, les auteurs
fournissent quelques principes simples afin de tirer le meilleur
parti de la méthode et précisent les tâches à suivre et pratiques
concrètes : comment se positionner, construire une grille d’ob-
servation, cultiver ses facultés d’observation, donner forme aux
information recueillies, et s’autoanalyser.
88
Le chapitre 6 de Françoise Chevalier et Vincent Meyer décrit
la collecte de données qualitatives par entretiens, une des mé-
thodes les plus utilisées en recherche en sciences de gestion
car elle permet de collecter rapidement des données riches de
première main. Les entretiens visent à réunir des discours, des
récits et des matériaux discursifs permettant de comprendre les
représentations mentales et les pratiques des individus au sein
des organisations investiguées. Les auteurs expliquent les ca-
ractéristiques des trois grands types d’entretiens, directifs, se-
mi-directifs et non directifs ainsi que leurs paradigmes épisté-
mologiques et leurs modes de questionnement, et introduisent
brièvement d’autres types d’entretiens – biographiques, entre-
tiens de groupe et entretiens à distance. Puis ils se concentrent
sur la pratique concrète de l’entretien semi-directif : la construc-
tion du guide d’entretien, les types de questions possibles, les
moments-clés, le « principe de l’entonnoir » ; l’attitude de l’inter-
viewer, le positionnement, l’empathie, la compréhension et la re-
formulation ; le lieu, la durée, l’enregistrement et la retranscrip-
tion de l’entretien ; l’échantillonnage et la saturation théorique ;
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

et comment établir une relation de confiance avec l’interviewé.


Le chapitre offre donc des clés du succès de la méthode de l’en-
tretien pour les doctorants de DBA, très souvent doublement
immergés dans leur objet de recherche, en tant que chercheur
et en tant qu’acteur dans leurs organisations, ce qui leur procure
une connaissance précieuse et approfondie des organisations
étudiées, mais nécessite aussi en contrepartie une exigence et
une rigueur particulières.

Dans le chapitre 7, Pierre-Jean Barlatier explique comment une


méthode de recherche par études de cas apporte une analyse
détaillée et en profondeur sur un nombre limité de sujets. Elle
est particulièrement pertinente pour étudier des phénomènes
complexes nouveaux en situation réelle. Même si elle est sou-
vent critiquée, car difficilement généralisable et source de biais
éventuels, elle demeure une méthode très utilisée par les cher-
cheurs en management. Afin d’y apporter le soin et la rigueur
scientifique requis, Barlatier définit d’abord en quoi consiste
cette méthode, puis pourquoi et comment l’utiliser. Il clarifie en-
suite comment bien choisir ses cas, puis les différentes typo-
logies de catégories de cas. Il détaille pourquoi opter pour une
étude de cas simple ou multiples et conclut en en exposant les 89
avantages et limites.

Fatou Diop Sall décrit la méthode ethnographique dans le cha-


pitre 8 en mettant l’accent sur sa démarche très pratique en thèse
de DBA. Cette méthode permet de réaliser une étude descriptive
et analytique des traditions, us, coutumes et mœurs de popu-
lations déterminées. Pour comprendre la complexité des socié-
tés, communautés, organisations et comportements des indivi-
dus, la méthode ethnographique est conseillée comme outil et
démarche d’approche de terrain de recherche en management.
L’auteur fournit des exemples de son usage en recherche en
management dans laquelle elle est d’un grand apport pour com-
prendre les comportements des consommateurs par exemple.
Elle s’attache d’abord à expliquer cette méthode comme outil de
collecte de données qualitatives du terrain dans le milieu naturel
des individus pour les regarder agir et observer ainsi leurs com-
portements. Elle détaille les techniques de l’observation partici-
pante, l’observation non-participante, les journaux de bord, l’in-
trospection, et l’usage de photographies et vidéos. Elle discute
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ensuite les aptitudes du chercheur et la démarche à suivre, et


enfin elle souligne la pertinence de cette méthode en manage-
ment et ses implications managériales.

Dans le chapitre 9, Julia Vincent-Ponroy et Françoise Chevalier


présentent le récit de vie, ou approche biographique, comme mé-
thode de recherche en sciences humaines. Dans une première
partie, elles offrent une vision d’ensemble des récits de vie en les
plaçant dans leur contexte historique, puis elles les définissent
ainsi que leurs enjeux épistémologiques. L’usage du récit de vie
dans la recherche en sciences sociales est relativement récent,
cette dernière ayant été longtemps dominée par les approches
quantitatives et structuralistes dans lesquels l’individu est abor-
dé en tant qu’unité statistique. La méthode biographique vise à
appréhender de façon inductive des phénomènes via la narration
que le sujet fait au chercheur librement, de moments de vie choi-
sis pour leur lien avec le thème de l’étude tel qu’il a été présen-
té par le chercheur. La portée des résultats obtenus à partir de
l’étude des récits de vie dépasse le cas de l’individu qui se ra-
conte. Cela demande que le chercheur trouve la bonne distance
épistémologique avec l’informateur, mais aussi fasse preuve
90 d’écoute sensible, de bienveillance, d’empathie, qui sont les
clés de l’attitude de compréhension. La deuxième partie détaille
quand utiliser cette méthode pour étudier quels phénomènes, en
fournissant des exemples de récits de vie de construction identi-
taire d’individus et de groupes et leurs parcours, ou de mondes
sociaux professionnels. Comment appliquer la méthode à tra-
vers l’entretien narratif est ensuite expliqué, avec des conseils
pratiques sur l’accès au terrain, la formulation des questions,
l’organisation des entretiens, la préparation psychologique et
technique du chercheur, le guide d’enquête, la conduite et les
étapes de l’entretien, et l’analyse du récit de vie. La méthode du
récit de vie permet de recueillir des informations riches dans un
contexte particulier et offre aux doctorants-managers la possi-
bilité de creuser un phénomène en explorant l’épaisseur du vécu
des personnes en situation. Elle peut s’avérer particulièrement
utile dans le cadre des recherches menées en DBA.

Jean-Christophe Bogaert, Jean Moscarola et Caroline Mothe


exposent dans le chapitre 10 l’intérêt des archives historiques
et de la narration comme méthode de recherche. Ils en dé-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

montrent l’utilité à travers une recherche longitudinale d’un cas


unique couvrant les 25 années d’existence d’une entreprise de
taille moyenne afin d’en analyser ses évolutions et sa stratégie.
Ils situent dans un premier temps les spécificités de l’approche
historique, comment construire du sens à partir de la recherche
d’archives, la critique des sources et l’écriture historique. Ils
en présentent ensuite l’application à leur recherche longitu-
dinale en détaillant la problématique de recherche, la pluralité
des techniques utilisées pour construire un corpus à partir de
sources historiques, les méthodes d’analyse lexicales, de conte-
nu, le codage et la triangulation, finalement menant à la narra-
tion et construction d’un récit. Une caractéristique importante
de l’approche historique est qu’elle peut s’appuyer sur une com-
binaison de méthodes qualitatives et quantitatives dans le but
de rechercher des explications pour les événements observés en
s’intéressant à l’influence des contextes sur les processus sur
une longue durée.

Dans le chapitre 11 Jean-François Lemoine sensibilise les étu-


diants de DBA à l’usage des données consultables sur Internet
avec la rigueur scientifique qui s’impose dans un travail docto-
ral. La première tâche est d’évaluer la qualité scientifique des 91
informations disponibles étant donné leur diversité et de dis-
tinguer les données académiques de celles qui le sont moins.
L’auteur présente des aides à la classification des données
scientifiques afin de les hiérarchiser. Pour mieux exploiter des
données collectées sur Internet pour des études empiriques, il
identifie les risques susceptibles d’affecter leur qualité que le
doctorant devra avoir à l’esprit de manière à pouvoir prendre le
recul nécessaire par rapport aux résultats obtenus : le contrôle
de l’identité des répondants ; l’échantillonnage de convenance
et le remplissage incomplet ou mensonger. Il donne ensuite des
solutions à mettre en œuvre pour favoriser la divulgation de don-
nées personnelles sincères. Les données collectées sur Internet
peuvent être exploitées mais avec prudence afin de mettre à jour
des contributions théoriques et managériales reconnues par la
communauté des chercheurs et des praticiens.

Le chapitre 12 par Jean Moscarola présente ce qui distingue les


questionnaires conçus pour la recherche pour ensuite explici-
ter les apports des enquêtes en ligne. Il y détaille l’usage des
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

questionnaires pour la recherche en les divisant entre : ques-


tionnaires en situations managériale et expérimentale ; le ques-
tionnaire comme instrument de mesure ; le questionnaire mo-
délisation ; le questionnaire exploratoire ; et le questionnaire en
tant qu’outil d’analyse. Les caractéristiques des questionnaires
en ligne sont ensuite décrites, en en accentuant leurs conditions
précises d’usage telles la diffusion et la sollicitation ; l’effet de
design ; l’effet de dévoilement et de scénarisation ; leur inte-
ractivité dynamique et sémantique ; et les effets de partage et
collaboration. L’efficacité et les limites des enquêtes en ligne
sont ensuite soulignées en les illustrant à travers des exemples
d’enquêtes réalisées. Des conseils pratiques sont finalement
donnés sur comment concevoir un questionnaire ou une grille
d’analyse et les mettre en ligne. Des sites internet avec des
exemplaires de formulaires en ligne et des informations sur les
logiciels Sphinx et leur contribution aux enquêtes en ligne sont
également fournis.

Dans le chapitre 13, Violette Boko et Marc Bonnet expliquent


que la recherche-action est une recherche « en action », enga-
gée avec les acteurs des organisations, ce qui est approprié en
92 DBA lorsque le doctorant a déjà une expérience professionnelle
et qu’il dispose d’un réseau de relations professionnelles. Le
chercheur-manager y observe de façon détaillée et longitudinale
les processus d’apprentissage organisationnel tout en faisant
preuve de distanciation et de réflexivité, car la rigueur scienti-
fique nécessite de pratiquer une observation longitudinale pour
bien identifier les logiques d’action, les langages de l’action ain-
si que les écarts entre les discours et les pratiques. Ils donnent
quelques points de repères sur différentes méthodes de re-
cherche-action : l’observation participante et l’ethnographie ;
la recherche clinique ; la recherche-action participative ; et la
recherche-intervention. La méthode de recherche-intervention
qualimétrique est ensuite présentée en détail, comme une des
méthodes les plus transformatives en sciences de gestion, car
elle intègre les effets qualitatifs, quantitatifs et financiers des
actions réalisées. Elle repose sur l’interactivité cognitive, l’inter-
subjectivité contradictoire, et la contingence générique. Sa mise
en œuvre fait l’objet de la négociation d’un contrat de recherche
et d’un protocole d’intervention, qui se compose de trois types
d’action : un processus d’apprentissage organisationnel et un
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

pilotage négocié du changement ; la réalisation d’un diagnos-


tic socio-économique participatif ; la mise en place d’outils de
management socio-économique menant à des décisions poli-
tiques et stratégiques. Toutes les étapes de ces méthodes sont
ensuite illustrées au travers d’un exemple de thèse réalisée dans
un établissement scolaire privé au Bénin. Des enseignements à
retirer de la recherche-action sont présentés en ce qui concerne
son impact sur le chercheur lui-même, sur l’organisation où la
recherche a eu lieu, et sur la contribution scientifique auprès du
monde académique et des praticiens de la conduite du change-
ment et du développement organisationnel.

Dans le chapitre 14, Jacques Igalens et Claude Roussillon Soyer


encouragent l’utilisation de la quasi-expérimentation comme
méthode de recherche de terrain de DBA. Un avantage important
est qu’elle dépasse les limites de l’observation et de l’expérimen-
tation artificielle, donc quand les manipulations contrôlées ne
sont pas possibles, ce qui peut être pertinent pour un étudiant
de DBA. Ils rappellent d’abord en quoi consiste les méthodes de
quasi-expérimentation et leur validité interne et externe. Ils en
discutent les avantages en donnant de nombreux exemples de
leur application en particulier en recherche en gestion des res- 93
sources humaines. Ils formulent ensuite un nombre de clés du
succès de la quasi-expérimentation, spécifiquement en termes
des relations entre le chercheur et le praticien, en fournissant
des conseils pratiques pour guider la recherche.

Après avoir réfléchi à sa problématique et méthodologie de re-


cherche, choisi une ou deux méthodes de collecte de données
pour répondre à sa question terrain, puis recueilli ses données
qualitatives, quantitatives ou un mélange des deux, l’étudiant de
DBA aura accumulé des données à « l’état pur » à partir de son
travail de terrain. Il faudra ensuite les traiter, les coder et les ana-
lyser de manière rigoureuse et scientifique afin d’en tirer des ré-
sultats et articuler les contributions empiriques et conceptuelles
et les implications managériales, ce que traite la troisième partie
de cet ouvrage.
CHAPITRE 5.
L’observation

Françoise Chevalier et Sébastien Stenger

Résumé

En quoi consiste l’observation ? Que peut-elle apporter à un


doctorant dans le cadre de ses recherches ? L’observation
est une technique de collecte des données qui permet d’avoir
accès à des données qui ne sont pas accessibles par des en-
tretiens ou des questionnaires. Ce chapitre explore les avan- 94
tages mais aussi les difficultés que génère l’observation et
donne des indications concrètes pour sa mise en œuvre.

Mots-clés : observation participante, observation non-


participante, grille d’observation, réflexivité.

Les méthodes de recherche du DBA


L’ob s e r v a t i o n

INTRODUCTION
Originaire de l’anthropologie, l’observation est une méthode
scientifique de récolte de données reconnue en particulier
depuis son utilisation dans les enquêtes de terrain des socio-
logues de l’École de Chicago. Certaines de ces observations
sont devenues célèbres, comme l’étude de W.F. Whyte (1993)
sur les jeunes de banlieue Street Corner Society, dans laquelle le
chercheur a observé une bande de jeunes immigrés italiens de
la banlieue de Boston pendant plus de trois ans afin de rendre
compte de leurs pratiques et comportements. L’observation peut
être mobilisée dans les différentes disciplines de la gestion : en
stratégie, en marketing, en finances, en contrôle de gestion, en
ressources humaines, en systèmes d’information…

Quel est l’intérêt pour un doctorant de recourir à l’observation


dans le cadre de son travail de recherche ? Quels en sont les
avantages mais aussi les difficultés d’un point de vue pratique et
scientifique ? À quelles conditions l’observation peut-elle être
pour le doctorant en DBA l’occasion de produire une connais-
sance scientifique approfondie de son sujet ?
95
Ce chapitre se propose de définir l’observation, d’en souligner
la richesse et les difficultés, et de développer les modalités pra-
tiques de sa mise en œuvre.

1. DÉFINITION DE L’OBSERVATION ET DES TYPES


D’OBSERVATION
En quoi consiste l’observation ? L’observation est une technique
de collecte des données. Elle permet d’avoir accès à des données
qui ne sont pas accessibles par des entretiens ou des question-
naires (Arborio & Fournier, 2010). Il ne s’agit pas ici de poser des
questions mais de voir, d’entendre, de pratiquer le cas échéant…
L’observation sollicite tous les sens du chercheur : elle consiste
à récolter les pratiques concrètes d’acteurs situés dans des
contextes précis, à aller comprendre soi-même, en propre, sur
place le déroulement de la vie dans une organisation sans trop
en perturber les activités ordinaires et à chercher la signification
de ce qui se passe entre les acteurs concernés. L’observation
permet d’accéder en temps réel à l’objet de recherche (Journé,
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

2008). La durée de l’observation peut aller de quelques heures à


quelques mois voire années (Stenger, 2017).

Classiquement on distingue deux grandes modalités d’observa-


tion : l’observation non participante et l’observation participante
(voir tableau 1). L’observation non participante caractérise les
situations où le chercheur ne participe pas aux activités obser-
vées. L’observation participante, elle, renvoie à des situations où
le chercheur prend part aux activités qu’il observe. Le chercheur
est à la fois acteur et observateur de la situation. Dans les deux
cas, soit les personnes observées sont mises au courant et le
chercheur s’efforce le plus possible de faire oublier sa présence,
soit les personnes observées n’ont pas connaissance de l’obser-
vation (ce qui peut bien sûr soulever des questions d’éthique). À
découvert ou incognito ? Il s’agit pour l’observateur de préciser
sa relation au terrain.

Tableau 1. Deux types d’observation


Type d’observation1 et relation observateur/ observés

Observation non participante


96
Soit l’observateur révèle sa posture de chercheur aux observés

Soit l’observateur ne révèle pas sa posture de chercheur aux observés

Observation participante

Soit l’observateur révèle sa posture de chercheur aux observés

Soit l’observateur ne révèle pas sa posture de chercheur aux observés

L’observation peut être mise au service de démarches de re-


cherche très différentes, déductives qui visent à tester des
théories, ou inductives qui visent à la création de nouvelles
théories. Mise au service de plusieurs visées (Dumez, 2016),
l’observation peut s’insérer dans des designs de recherche va-
riés. L’observation peut, par exemple, s’inscrire dans une re-

1. On pourrait ici ajouter un troisième type d’observation lorsque l’observateur ob-
serve, à distance, une situation d’expérimentation construite de toute pièce pour
une recherche spécifique. C’est le cas par exemple de la célèbre expérience de
Milgram.
L’ob s e r v a t i o n

cherche-action dont le principe consiste à introduire un chan-


gement dans l’organisation pour en observer les effets. À partir
de là, l’observation est en mesure de faire « preuve », elle génère
aussi des analyses originales, des comparaisons fructueuses et
une production d’idées et de théories fondées empiriquement.

Encadré 1. Un exemple d’observation : les comités


de direction (Flamand, 2002)
Nicolas Flamant a observé pendant un an dans le cadre de sa thèse
les comités de direction d’une grande entreprise française de l’aé-
rospatiale, rebaptisée la Société Défense Espace (SDE). À quoi sert
un comité de direction ? Que se passe-t-il dans ces instances ? Que
font les participants au cours de ces réunions ? À partir de nom-
breuses situations concrètes, l’observateur analyse les processus
par lesquels se fabrique le pouvoir dans les instances de direction
et ses multiples formes. Il constate entre autre que « l’enjeu des co-
mités de direction n’est pas tant de prendre des décisions que d’y
siéger » car si les dirigeants ambitionnent d’y participer, la plupart
sont déçus de constater que rien de décisif ne s’y passe. Il existe un
paradoxe chez ces dirigeants : les attributs du pouvoir séduisent
plus que les responsabilités.

2. AVANTAGES DE L’OBSERVATION 97

L’observation présente de nombreux avantages. Premier avan-


tage, elle permet de recueillir des informations de première
main, sans intermédiaire. En effet, que ce soit dans une enquête
par questionnaires ou par entretiens, l’accès au terrain est in-
direct et l’enquêteur dépend de ce que ses interlocuteurs lui
disent. Or ceux-ci peuvent avoir intérêt à se présenter sous un
jour plus favorable ou à « dissimuler » certaines pratiques qu’ils
estiment ne pas devoir divulguer (Peretz, 2004) ou auxquelles ils
ne prêtent pas attention parce que celles-ci leur paraissent al-
ler de soi. Les données recueillies par observation sont donc à
priori plus fiables (Becker, 1970) : l’observation peut révéler par
exemple l’existence de pratiques non officielles qui sont occul-
tées ou bien des rapports de pouvoir, des intérêts que les ac-
teurs ne sont pas forcément prêts à révéler.

Elle peut aussi mettre à jour des représentations inscrites dans


l’esprit des personnes interrogées mais perçues comme trop peu
légitimes ou trop banales pour que les individus les évoquent et
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

y prêtent attention. C’est ce qu’explique le sociologue Donald


Roy qui s’est fait recruter pour son enquête comme ouvrier à la
chaîne afin de comprendre les pratiques de freinage de la pro-
duction : « Comme membre du collectif de travail, j’avais accès
de l’intérieur aux discussions et aux activités. Comme ouvrier
sur machine, je pouvais passer au microscope différentes ac-
tivités. Cela présentait beaucoup d’avantages pour comprendre
(…). Là où les groupes sont si sensibles et si habiles à se sous-
traire à l’observation, l’observation participante peut constituer
un dispositif très sensible pour repérer faits et rapports perti-
nents » (Roy, 1952, p. 427, cité in Fournier, 1996). L’observation
permet donc d’accéder à des phénomènes difficiles à percevoir
autrement. Les entreprises ne sont pas toujours désireuses de
rendre publiques à un chercheur étranger des données internes
et peuvent mettre des barrières, rendre impossible ou limiter
l’accès de l’enquêteur à certains domaines bien précis.

Deuxième avantage, l’observation permet d’accéder aux repré-


sentations sociales : elle permet de rendre compte des pratiques
sociales, de montrer ce qui amène les acteurs à agir de telle ou
telle sorte. L’observateur est en mesure de décrire les règles
98 formelles qui régissent les situations (comme par exemple la
définition d’un poste de travail) mais aussi des normes infor-
melles (par exemple des attentes, des façons de se comporter,
des rites, etc.). La saisie des pratiques sociales par l’observa-
tion passe par la description des scènes de la vie sociale mais
aussi par les commentaires qu’en font les individus : les conver-
sations qui accompagnent la pratique, les sentiments éprouvés
(satisfaction, déception), la manière de le faire (sérieux, décon-
traction). Ces commentaires renseignent sur le sens que les ac-
teurs donnent à leur action, ils constituent une très riche source
d’information pour la compréhension des conduites sociales et
des organisations.

Le doctorant a donc de nombreuses raisons, si sa recherche


porte sur l’entreprise dans laquelle il travaille, de recourir à l’ob-
servation. Sa familiarité avec le milieu étudié, antérieure à l’en-
quête, est un avantage. Le chercheur est déjà ici sur le terrain
alors que la découverte d’un nouvel univers réclame du temps :
celui de l’acclimatation à un univers nouveau. Le doctorant ici n’a
aucun problème à tenir son rôle ni à maîtriser les compétences
L’ob s e r v a t i o n

techniques requises étant depuis longtemps dans son entre-


prise. Sa familiarité lui permet de satisfaire aux exigences de la
situation, de s’adapter aux normes, aux mœurs en vigueur, et de
se défaire de la préoccupation de bien tenir son rôle, pour pou-
voir porter son regard sur le reste.

Mais cette familiarité qui est un avantage en termes d’insertion


et d’agilité sur le terrain crée aussi des problèmes. Quels sont-
ils et comment les surmonter ?

3. DIFFICULTÉS DE L’OBSERVATION
On peut identifier trois problèmes liés à l’observation comme ou-
til de recueil des données et qui se posent de manière plus aigüe
pour le doctorant-manager. Il importe d’en avoir conscience
pour pouvoir s’en prémunir.

Tout d’abord le principe central de l’observation est la distance.


Le premier problème auquel le chercheur devra faire face est
celui du manque de distance. L’enquêteur doit savoir rendre fa-
milier ce qui est étranger et rendre étranger ce qui est familier
(Beaud & Weber, 2001). En effet c’est du déplacement de regard, 99
de la confrontation entre le système de référence de l’enquêteur
et celui de l’univers des enquêtés, qu’on peut espérer faire émer-
ger un savoir. Prendre un objet de recherche dans son environ-
nement direct pose donc problème car il sera plus difficile de se
décentrer et de garder cette « marginalité nécessaire » (Hughes,
1996, p. 13). La proximité du doctorant-manager avec son terrain
risque de limiter sa capacité d’étonnement : comment porter un
regard décalé sur un monde proche du sien et voir « autrement »
ce qui nous semble banal, quotidien, acquis et sans intérêt ?
Toute la question ici est de se donner les moyens de « dénatu-
raliser » l’objet d’étude, autrement dit de passer du « cela va de
soi », « c’est normal », « c’est naturel » …à « comme c’est bizarre »,
« comme c’est étrange ».

Deuxième difficulté : la saisie d’artefacts. L’observation im-


plique une forme de participation à la situation susceptible de
modifier la véracité des informations recueillies. Il serait naïf de
croire que l’observation donne accès aux situations réelles sans
les perturber. Choisir un mode d’observation directe via un rôle
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

social à occuper dans la situation observée, engage un certain


nombre de caractéristiques de l’enquêteur qui vont créer des
perturbations. Le chercheur n’est pas un extraterrestre se tenant
au point de vue de Sirius, un pur regard invisible ; il est présent
en chair en os. Le chercheur est à la fois instrument de recueil
et analyseur. Olivier Schwartz parle de « paradoxe de l’observa-
teur » pour évoquer cette tension (Schwartz, 1993, p. 271).

Par exemple la subjectivité du chercheur est marquée par des


caractéristiques sociales générales telles que son apparence,
son sexe, son âge, son origine ethnique, son origine sociale, ses
études, qui vont influencer ses observations. Duneier et Molotch
(1999) ont montré l’impact de la couleur de peau et la difficulté
d’échanger avec leurs enquêtés dans des ghettos noirs : les en-
quêteurs blancs étaient vus comme incapables de comprendre
les personnes interrogées et les interviewés réagissaient avec
une grande défiance. Dans certains milieux professionnels, le
genre de l’observateur peut aussi modifier considérablement les
comportements observés (par exemple dans l’armée, la police,
etc.), l’observateur sera alors « abusé » par des individus qui
adaptent leur conduite en sa présence. Jean Peneff (1992) qui a
100
observé des ouvriers d’une entreprise de sous-traitance explique
qu’il a été longtemps considéré comme « l’œil de Moscou » de la
direction et qu’en conséquent les ouvriers lui ont longtemps ca-
ché certaines façons de faire leur travail. En clair les individus
s’adaptent, ils catégorisent l’observateur, jugent sa conduite,
ses faux-pas, en font un allié ou un ennemi : « Est-il en lien avec la
direction ? Que va-t-il faire des données recueillies ? ». Les inter-
actions entre enquêteurs et enquêtés ont donc des effets sur les
informations recueillies et peuvent produire des artefacts éloi-
gnés de l’objectivité. Ce problème est d’autant plus marqué pour
le doctorant-manager qu’il doit souvent imposer à ses collègues
une démarche d’investigation nouvelle et leur faire accepter un
parti pris de connaissance qui peut paraître suspicieux (« que
va-t-il raconter ? pourquoi fait-il un doctorat ? »). Les enquê-
tés veulent savoir à qui ils ont affaire et peuvent modifier leur
conduite en adoptant pour la circonstance un comportement de
conformité aux règles en rupture avec ce qu’ils font d’ordinaire.
Ainsi le fait de devenir un « observateur » va venir perturber la
situation et la qualité des informations.
L’ob s e r v a t i o n

La troisième difficulté porte sur les biais cognitifs de l’observa-


teur. Cette difficulté guette tout chercheur : c’est celle qui consiste
à projeter, consciemment ou inconsciemment, une ou des grilles
de lecture préétablies sur la situation observée (quand le docto-
rant cherche à trouver dans ses observations ce qu’il estime être
la réalité des choses, quand l’idéologie prime sur le contenu de
ce qui est observé). La tentation peut être grande en effet de faire
valoir un jugement préconçu ou de chercher à servir ses intérêts
ou sa vision à travers un discours d’allure scientifique. Dans un
DBA, cette situation est encore plus sensible car la présence
sur le terrain précède le plus souvent la décision d’enquête. Le
doctorant-manager a pendant longtemps fréquenté son terrain
sans avoir vis-à-vis de celui-ci « une distanciation scientifique »,
un regard extérieur d’objectivité : il est partie-prenante. Dit au-
trement sa longue fréquentation du terrain peut l’amener, empa-
thie aidant, à une implication dans les intérêts des acteurs peu
compatible avec la production de connaissance scientifique. La
position de manager peut s’accompagner en effet de grille(s)
de lecture implicite(s) des situations. Il convient d’être atten-
tif à cette subjectivité du chercheur forcément marquée par les
proximités professionnelles. Cela exige de ne pas tomber dans
le « subjectivisme » c’est-à-dire dans la restitution d’un point de 101
vue personnel.

Comment éviter ces trois principaux risques (risque de défaut de


distance, risque de saisie d’artefacts et risque de biais cognitifs)
dans le recueil des données ? Comment éviter que l’enquêteur
ne cède à des partis pris biaisés et subjectifs ? Comment garan-
tir la validité la crédibilité des informations recueillies et procé-
der à une analyse rigoureuse ?

4. LA PRATIQUE CONCRÈTE DE L’OBSERVATION


Comment observer ? Cet exercice n’est pas chose aisée ni par-
faitement contrôlée, mais en dépit de son caractère empirique,
l’observation est désormais dotée d’outils et de techniques qui
permettent de garantir la scientificité et la validité de ses décou-
vertes. Quelques principes simples peuvent guider l’enquêteur
afin de tirer le meilleur parti de la méthode : à cet égard, définir
les tâches de l’observateur est clé (Tableau 2).
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Tableau 2. Les tâches de l’observateur


Être sur place parmi les personnes observées et s’adapter à ce milieu.

Observer le déroulement ordinaire des événements.

Enregistrer ceux-ci en prenant des notes ou par tout autre moyen.

Interpréter ce qui a été observé et en rédiger un compte-rendu.

4.1. Se positionner en tant qu’observateur


Dans les cas d’observation participante ou non participante
connus par les observés, il importe d’obtenir la confiance de ses
interlocuteurs. Aussi l’observateur doit-il présenter son projet
et expliciter ses objectifs de connaissance pour que les per-
sonnes comprennent la raison de sa présence. Un des points
essentiels est d’indiquer l’usage que l’on souhaite faire des don-
nées. La présentation de soi doit s’efforcer de donner des gages
de neutralité par rapport aux intérêts sociaux en présence dans
la situation et témoigner beaucoup de respect aux acteurs. Il
s’agit de construire le statut d’observateur et gérer ses relations
avec les observés (Journé, 2008) en n’ayant de cesse de réduire
102 les biais de sa présence.

4.2. Construire une grille d’observation


Observer le déroulement ordinaire des activités ne va pas de soi.
Qui va-t-on observer ? Que faut-il observer ? Où l’observation
se déroule-t-elle ? Dans quel contexte ? Combien de temps ?
Deux observateurs placés dans une même situation développe-
ront des regards différents. À cet égard, on peut se rappeler le
texte de Georges Perec et sa tentative de description de choses
vues au carrefour Mabillon, le 19 mai 1978 2. Il convient pour le
chercheur de construire suivant les situations observées, la ou
les grilles d’observation qui vont lui permettre de poser son re-
gard plus spécifiquement sur tel ou tel élément. Pour parvenir à
construire une grille d’observation, il importe de s’interroger sur
les données à observer (Tableau 3).

2. Voir le podcast de l’émission radiophonique : https://www.franceculture.fr/emis-


sions/creation-air/tentative-de-description-de-choses-vues-au-carrefour-ma-
billon-le-19-mai-1978
L’ob s e r v a t i o n

Tableau 3. Grille d’observation


Quelles données spécifiques observer ?

Collecter in vivo ce que les gens font et disent

Les comportements effectifs des personnes en situation, les gestes, les


actions (versus ce qu’elles en disent, ou ce qui est prescrit).

Les propos en situation, leur contexte d’énonciation, le langage employé,


les interactions habituelles (difficiles à formuler par les acteurs).

Les éléments de contexte

Les agencements matériels et spatiaux, l’inventaire des objets…

Les comptages

Les foules (les flux, les interactions, l’apparence, les gestes…)

La durée, les temps nécessaires, les rythmes….

L’une des difficultés des grilles d’observation est de réussir


à trouver un équilibre entre ce que l’on veut absolument enre-
gistrer comme données sans pour autant se priver de données
émergentes, inattendues, celles auxquelles on n’avait pas pen-
103
sé et qui pourtant sont révélatrices de dimensions cachées.
Si l’observation s’inscrit dans une démarche de recherche
hypothético-déductive, la grille d’observation aura un coté plus
systématique et comportera la liste de ce qui doit être observé,
de ce qui est considéré comme significatif au regard des objec-
tifs et des hypothèses de la recherche. Si l’observation participe
d’une démarche de recherche plus inductive, la grille d’obser-
vation sera plus lâche, plus souple, plus ouverte pour être en
mesure de saisir tous les imprévus des situations observées et
justement donner accès à ce qui est mal ou peu connu. Dans
tous les cas de figure il convient d’inscrire la grille d’observation
dans un système dynamique prenant en compte la richesse des
terrains travaillés.

4.3. Cultiver les facultés d’observation et faire de


l’étonnement une ressource
Il s’agit pour l’observateur d’explorer certains aspects qu’il pourrait
négliger, recueillir le détail de longues scènes et être attentif aux
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

démentis du terrain par rapport à ce qu’il s’attend à observer, aux


évènements qui ne cadrent pas avec les hypothèses préalables.

Le meilleur moyen, pour se faire spectateur et réveiller sa fa-


culté d’étonnement, c’est de faire des comparaisons. Comparer
des situations en faisant varier les points de vue. Comparer ses
propres données de terrain avec celles issues d’autres terrains
(Chevalier, 2017). Mais aussi comparaison en soumettant ses
propres observations à des pairs ou en se confrontant à des tra-
vaux similaires.

4.4. Donner forme aux informations recueillies


Les notes d’observation constituent l’essentiel du matériau
concret que l’observateur pourra reprendre pour étayer l’ana-
lyse. Ces notes sont prises soit directement sur le terrain si cela
est possible (l’observateur est muni d’un carnet de note ou d’un
ordinateur), soit le soir à la fin de la journée dans un « journal
de terrain », où sont consignées les observations au jour le jour.
Ce journal sert de matériau de base pour l’analyse. Ainsi au fur
et à mesure ce journal va s’enrichir d’analyses : aux notes des-
104 criptives (lieux, personnes, récits d’évènements, interactions)
se mêlent des réflexions personnelles qui rendent compte des
impressions de l’observateur.

Tableau 4. Les notes d’observation


Les notes d’observation peuvent prendre plusieurs formes :

Notes en simultané (suppose une situation stable et confortable…).

Enregistrement mécanique (dictaphone).

Photographies de l’observation (préciser les conditions de la prise de


vue : date, occasion, photo posée ou non…).

Mémorisation et enregistrement différé.

Il convient de noter non seulement les données qualitatives mais aussi


les comptages (statistiques de données recueillies au cours des événe-
ments eux-mêmes).
L’ob s e r v a t i o n

Une fois sorti du terrain le chercheur s’attache à rendre expli-


cites les analyses et sa démarche en exploitant de manière sys-
tématique les notes qu’il a prises. Il s’agit d’identifier ce qui a
varié d’une situation à l’autre et de rapprocher les scènes ob-
servées. Il est ainsi possible de proposer des classements thé-
matiques. Il est également possible de coder pour compter le
nombre d’occurrences de telle ou telle situation et faire émer-
ger des catégories d’analyse. Ainsi dans son observation d’un
hôpital, Jean Peneff repère les différentes activités d’un chirur-
gien au cours d’une journée et classe les différents objets et
personnes afin de mettre en lumière certains statuts sociaux :
à l’hôpital les personnels sont classés selon le grade, le sexe,
l’âge, selon les objets qu’ils manipulent, selon les attributs ves-
timentaires, etc. (Peneff, 1997, p. 287).

4.5. L’autoanalyse
Enfin au terme de ce travail, pour convaincre du bien-fondé de
ses observations, l’enquêteur est amené à faire un travail de ré-
flexivité sur lui-même. Il importe d’expliquer pourquoi il fait cette
enquête, quelle est sa position, sa trajectoire et surtout com- 105
ment il pense avoir été perçu par les personnes qu’il a obser-
vées. Cette réflexivité est une condition de scientificité car elle
permet de remettre les données recueillies dans leur contexte
et d’en corriger les éventuels biais. L’enquêteur, tout en s’im-
pliquant à la première personne, s’efforce donc de « se voir à la
deuxième et à la troisième personne ». Autrement dit, il s’agit de
déchiffrer les dispositifs d’identification, de catégorisation et de
classification à travers lesquels les gens observés le perçoivent
et l’apprécient et, réciproquement, à travers lesquels il leur pré-
sente des façades et gère des apparences. Les effets de ces at-
tributs sur le contenu des interactions ne sont pas seulement
des déformations, ce sont des vertus à exploiter car à travers ces
effets, un ordre social se révèle que l’observateur peut analyser.

CONCLUSION
L’observation, et tout particulièrement l’observation partici-
pante, apparaît ainsi comme une méthode d’enquête réclamant
– comme toutes les méthodes d’enquête en sciences sociales –
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

un retour réflexif sur les conditions de sa mise en œuvre pour


évaluer, d’une part, les raisons de sa pertinence et, d’autre part,
les limites que ses modalités précises imposent à la qualité des
informations recueillies. Réflexivité et contrôle de la subjectivité
du chercheur vont de pair pour garantir la qualité de l’observa-
tion.

Références citées
Arborio, A.-M. & Fournier, P. (2010), L’enquête et ses méthodes :
l’observation directe, Paris, Armand Colin, coll. « 128 ».
Becker, H. (1970), Sociological Work : Method and Substance, Chicago,
Aldine.
Beaud, S. & Weber, F. (2001), Guide de l’enquête de terrain, Paris, La
Découverte, coll. « Guide Repères ».
Chevalier, F. (2017), La théorisation dans une perspective terrain :
le décorticage d’une démarche de recherche, in P. Beaulieu &
M. Kalika (dir.), Le projet de thèse de DBA, Caen, Éditions EMS,
coll. « Business Science Institute », p. 165-176.
Dumez, H. (2016), Méthodologie de la recherche qualitative : les questions
clés de la démarche compréhensive, Paris, Vuibert.
Duneir, M. & Molotch, H. (1999), Talking city trouble: Interactional
106
vandalism, social inequality, and the “urban interaction
problem”, American Journal of Sociology, vol. 104, no 5, p. 1263-1295.
Flaman, F. (2002), Une anthropologie des managers, Paris, PUF, coll.
« Sciences Sociales et Société ».
Fournier, P. (1996), Deux regards sur le travail ouvrier, Actes de la
Recherche en Sciences Sociales, vol. 115, p. 80-93.
Hughes, E.C. (1996), Le regard sociologique. Essais choisis, Paris,
Éditions de l’École de Hautes Études en Sciences Sociales.
Journé, B. (2008), Collecter les données par l’observation, in
M.-L., Gavard-Perret, D. Gotteland, C. Haon & A. Jolibert (dir.),
Méthodologies de la recherche. Réussir son mémoire ou sa thèse en
sciences de gestion, Pearson Education France, p. 247-279.
Matheu, M. (1986), La familiarité distante. Quel regard poser sur la
gestion dans notre société ?, Gérer et Comprendre, p. 81-94.
Peretz, H. (2004), Les méthodes en sociologie. L’observation, Paris, La
Découverte, coll. « Repères ».
Peneff, J. (1992), L’Hôpital en urgence. Étude par observation participante,
Paris, Éditions Métailié, coll. « Leçon de choses ».
Roy, D. (1952/2006), Un sociologue à l’usine, Paris, La Découverte,
coll. « Repères ».
L’ob s e r v a t i o n

Schwartz, O. (1993), L’empirisme irréductible, in N. Anderson (dir.),


Le Hobo – Sociologie du sans-abri, Paris, Nathan, coll. « Essais et
Recherches », p. 263-305.
Stenger, S. (2017), Au cœur des cabinets d’audit et de conseil, Paris,
Presses Universitaires de France.
Whyte, W.F. (1993/1943), Street Corner Society: The Social Structure of
an Italian Slum, Chicago, University of Chicago Press.

Références pour en savoir plus


Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2012),
Méthodologie de la recherche. Réussir son mémoire ou sa thèse en
sciences de gestion, 2e édition, Pearson. 
Cet ouvrage donne des bases rigoureuses pour bien aborder un
travail de recherche (construire un objet de recherche, choisir
et/ou croiser les méthodes de collecte des données et les mé-
thodes d’analyse des données, synthétiser et rédiger les résul-
tats). Le chapitre consacré à l’observation permet d’approfondir
la technique relative à cette méthode.

Muccchielli, R. (1996), L’observation psychologique et psychosociologique,


5 e édition, Paris, ESF Éditeur.
Un ouvrage de base qui présente d’un côté les éléments essen- 107
tiels de l’observation, d’un autre côté les applications concrètes
de l’observation. L’ouvrage se veut pratique, notamment par les
exercices d’entraînement qu’il propose.
CHAPITRE 6.
Les entretiens

Françoise Chevalier et Vincent Meyer

Résumé 

La conduite d’entretien, méthode de recueil des données très


utilisée et en apparence simple, repose toutefois sur des tech-
niques spécifiques. Elle nécessite notamment de maîtriser
les cadres épistémologiques auxquels se réfèrent les entre-
tiens qu’ils soient directifs, semi-directifs ou non directifs. 108
L’objectif de ce chapitre est de présenter les fondements,
tant théoriques que pratiques, nécessaires à la maîtrise de la
conduite d’entretiens, en particulier des entretiens semi-di-
rectifs.

Mots-clés : entretien directif, semi-directif, non directif, guide


d’entretien semi-directif, principe de l’entonnoir, attitudes de
l’interviewer, empathie, reformulation.

Les méthodes de recherche du DBA


L e s e nt r e t i e n s

« Je dirais volontiers que l’entretien peut être considéré comme


une forme d’exercice spirituel, visant à obtenir, par l’oubli de soi,
une véritable conversion du regard que nous portons sur les autres dans
les circonstances ordinaires de la vie. »
Bourdieu (1993)

INTRODUCTION
La conduite d’entretien est l’une des pratiques de collecte de don-
nées parmi les plus répandues en sciences de gestion (Bryman
& Bell, 2015 ; Yin, 1994). Elle est très largement utilisée par les
chercheurs car elle permet de collecter rapidement des données
riches et de première main. En apparence simple, elle repose
cependant sur des partis pris épistémologiques importants et
nécessite de se poser au préalable des questions théoriques et
pratiques pour atteindre le degré de flexibilité nécessaire à son
perfectionnement (Myers & Newman, 2007 ; Thiétart, 2014).

Si l’entretien semi-directif est le plus connu d’entre tous, il en


existe une grande variété. L’objet de ce chapitre est d’abord de
définir les différents types d’entretiens pour permettre aux doc-
109
torants de choisir le ou les entretiens les plus appropriés pour
leur recherche. La conduite d’entretien étant par ailleurs avant
tout une pratique, l’objectif de ce chapitre est aussi de fournir
aux doctorants-managers les outils et techniques nécessaires à
son usage et son perfectionnement au quotidien.

1. DÉFINITION DE L’ENTRETIEN ET DES TYPES


D’ENTRETIENS
L’entretien n’est ni une conversation amicale, ni une discus-
sion, ni un interrogatoire, ni une interview journalistique, ni une
confession. L’entretien est une méthode de recueil des données
qui participe d’une démarche préparée à l’avance et s’intègre
dans un plan de recherche. Le « bon entretien » a pour objectif
la compréhension de ce qui se passe pour l’autre. Il vise à réunir
des discours, des récits et des matériaux discursifs permettant
de comprendre les représentations mentales et les pratiques
des individus au sein des organisations investiguées lors d’une
recherche.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

1.1. Les trois principaux types d’entretiens


Il existe trois principaux types d’entretiens : directifs, non direc-
tifs et semi-directifs. En théorie, ces trois types s’échelonnent
sur un continuum allant d’une entière directivité à une entière
non-directivité, mais la plupart des chercheurs les utilisent,
dans la pratique, à tour de rôle au cours de leurs investigations
ou même au cours d’un seul entretien.

Les entretiens directifs sont constitués de questions très pré-


cises, en général fermées, préparées à l’avance par le chercheur
et posées dans un ordre déterminé. Ils permettent de collecter
rapidement des réponses précises à des questions spécifiques
dans un cadre hypothético-déductif, afin de décrire ou d’expli-
quer des situations et des comportements donnés. Même si
la collecte de données par entretiens directifs reste orale, elle
s’apparente à une collecte de données quantitatives par ques-
tionnaire et vise essentiellement à assurer la fiabilité ou la me-
sure de concepts clés. Les entretiens directifs sont donc, le
plus souvent, utilisés pour préciser des propos lors d’un second
entretien ou collecter certaines informations démographiques
110 manquantes. Ils peuvent également servir à comparer deux po-
pulations précises dans des situations spécifiques (Yin, 1994).

Les entretiens non directifs sont constitués d’échanges au


cours desquels le chercheur recueille des discours et des récits
sur une thématique donnée sans questions préparées à l’avance
(De Ketele & Roegiers, 1996). L’objectif est ici de collecter des
informations brutes et laisser l’interlocuteur s’exprimer le plus
librement possible sans influencer ou biaiser ses propos. Si les
entretiens non directifs ne nécessitent pas la préparation de
questions en amont, ils requièrent une « attention positive in-
conditionnelle » (Evrard, Pras & Roux, 1993, p. 91) et une forte
empathie du chercheur lors de l’entretien, « c’est-à-dire l’accep-
tation du cadre de référence du sujet, en termes d’émotion ou de
signification, « comme si » l’investigateur était à la place du sujet
interrogé » (Thiétart, 2014, p. 235). Les entretiens non directifs
sont ainsi souvent utilisés lors de recherches ethnographiques,
en phase exploratoire d’une recherche basée sur la théorie an-
crée ou grounded theory en anglais (Strauss & Corbin, 1994) ou
pour effectuer des entretiens dits biographiques.
L e s e nt r e t i e n s

Les entretiens semi-directifs sont l’une des méthodes, si ce


n’est la méthode de collecte de données la plus répandue en re-
cherche qualitative. Ils reposent sur une série de thématiques et
de questions préparées à l’avance. L’objectif n’est pas d’obtenir
des réponses précises à des questions fermées ou des théories
professées (Argyris & Schön, 1974) par des interlocuteurs mais,
au contraire, de comprendre les pratiques, les comportements
et les perceptions des individus en lien avec la question de re-
cherche (Thiétart, 2014). À titre de comparaison, l’observation
permet de voir directement ce que font les individus mais elle
ne permet pas toujours d’accéder à leur ressenti ou à leur uni-
vers mental. De même si les questionnaires permettent d’obtenir
des réponses spécifiques à des questions précises, ils présup-
posent toutefois que les individus ont une connaissance exacte
et transparente de leurs actions et de leurs comportements.
L’entretien semi-directif repose lui sur l’idée que la réalité des
individus n’est pas uniquement accessible par le chercheur
(observation) ou par les individus eux-mêmes (questionnaires)
mais par une interaction dynamique entre le chercheur et ses in-
terlocuteurs.

Les entretiens directifs, non directifs et semi-directifs répondent 111


ainsi à des objectifs et des paradigmes épistémologiques dif-
férents. Les entretiens directifs permettent d’obtenir des infor-
mations précises à des questions fermées et correspondent
bien au cadre hypothético-déductif. Les entretiens non directifs
permettent de recueillir des paroles libres. Ils sont particulière-
ment pertinents dans les approches inductives où la construc-
tion du savoir émerge du terrain. Les entretiens semi-directifs
représentent eux un compromis basé sur un paradigme abductif
(Shepherd & Sutcliffe, 2011), celui d’un dialogue continu entre le
terrain et la théorie (Chevalier, 2017).

Ces trois méthodes de collecte de données (Tableau 1) restent


cependant des archétypes et il convient ici d’éviter deux écueils.
L’une des erreurs fréquentes des jeunes chercheurs est de com-
mencer leur collecte de données par des entretiens directifs
pour être sûr d’obtenir des réponses à leurs questions et ainsi
se rassurer, alors que leur objectif principal est, au contraire,
de vouloir découvrir ce qui se passe sur le terrain. Par ailleurs,
un entretien nécessite avant tout de la flexibilité, c’est-à-dire
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

une capacité à utiliser ces différentes modalités d’entretiens en


fonction de l’avancement de la recherche menée.

Tableau 1. Caractéristiques des trois grands types


d’entretiens

Directif Non directif Semi-directif


Principales ca- Collecte rapide Conversation Collecte de
ractéristiques de réponses à libre nécessi- réponses riches
des questions tant une grande visant à com-
spécifiques, empathie et prendre des pra-
visant à assurer visant la collecte tiques et/ou les
la fiabilité ou la de propos et de perceptions des
mesure d’infor- récits bruts individus en lien
mations et de avec la question
concepts clés de recherche
Questions Préparées à Non préparées à Trame flexible
l’avance et l’avance préparée à
posées dans un l’avance
ordre précis
Paradigme épis- Hypothético- Inductif Abductif
témologique déductif

112
1.2. Les autres types d’entretiens
Il existe d’autres types d’entretiens, moins fréquemment utili-
sés, mais qui peuvent s’avérer pertinents dans le cadre d’une re-
cherche de DBA. Ainsi les entretiens biographiques visent-ils
à collecter des informations sur le passé ou certains moments
clés de la vie des individus. Ils sont souvent non directifs : les
chercheurs invitent leurs interlocuteurs à une « plongée dans
leur histoire de vie ». La mémoire étant par nature sélective, les
chercheurs s’aident souvent de visuels ou d’artefacts pour ravi-
ver les souvenirs de leurs interlocuteurs.

Les entretiens de groupe permettent d’observer et de mieux


comprendre les interactions entre les individus, ce qui peut
s’avérer particulièrement pertinent lorsqu’on analyse les jeux
de pouvoir. Ils peuvent également servir à stimuler les échanges
d’idées, d’émotions et d’expériences entre les personnes.
Certaines personnes peuvent néanmoins se sentir inhibées.
Veiller à la dynamique de groupe est ici clé.
L e s e nt r e t i e n s

Les entretiens téléphoniques ou par visioconférence (via


Skype ou Zoom) sont assez peu utilisés en recherche qualita-
tive car ils ne permettent pas d’établir aussi facilement le contact
humain propre au face à face. Ils présentent néanmoins l’avan-
tage de réduire substantiellement les frais de déplacements et
peuvent ainsi être utilisés en complément pour augmenter le
nombre et la diversité des personnes interrogées comme dans
cette étude de Patwardhan, Noble et Nishihara (2009) sur les
centres d’appels américains implantés en Inde.

On peut également citer la méthode des incidents critiques


(Flanagan, 1954) où l’on interroge les personnes sur un enchaî-
nement séquentiel d’événements.

2. LA PRATIQUE CONCRÈTE DE L’ENTRETIEN SEMI-


DIRECTIF
Conduire des entretiens semi-directifs suppose la construction
d’un guide d’entretien et la maîtrise de l’attitude clé de l’inter-
viewer : celle de la compréhension faite d’empathie et de refor-
mulation. D’autres questions telles que le lieu, la durée et l’en-
113
registrement des entretiens, ainsi que le nombre d’entretiens à
mener se posent au chercheur. Enfin il est essentiel d’établir et
de maintenir tout au long de l’entretien une relation de confiance
avec ses interlocuteurs, gage d’une authenticité de la relation.

2.1. Le guide d’entretien semi-directif


Il est primordial de bien connaître les modalités d’élaboration
des guides d’entretiens semi-directifs au risque, si les entre-
tiens ne sont pas correctement conduits, de consacrer beau-
coup de temps à un recueil de données qui, in fine, pourrait se
révéler peu utile au chercheur et à son projet de recherche. Le
guide d’entretien est un des éléments clés de la préparation d’un
entretien semi-directif. Il est constitué d’une liste de thèmes
et de questions ouvertes, complétée par des reformulations et
des questions de relance, en lien avec la question de recherche.
Il peut comporter des questions rédigées formellement ou se li-
miter à une simple liste de mots-clés. C’est un aide-mémoire
qui permet de recentrer l’entretien si nécessaire, mais il ne doit
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

jamais se transformer en un cadre rigide. La qualité principale


d’un chercheur menant un entretien reste sa flexibilité, c’est elle
qui lui permet de s’ouvrir aux découvertes inattendues caracté-
ristiques des recherches qualitatives. Différents types de ques-
tions sont utilisables.

Encadré 1. Types de questions possibles1


Les questions d’introduction. « Pouvez-vous me décrire votre métier,
votre parcours professionnel ? ». Ces questions sont essentielles car
elles permettent de mettre en confiance les interlocuteurs, en par-
tant de ce qu’ils connaissent bien. Elles permettent également de les
ancrer dans un processus réflexif.
Les questions liées au thème de recherche. « Et dans ce cadre qu’en est-
il des programmes qualité mis en œuvre dans votre entreprise ? »
Les questions de relance. « Si j’ai bien compris, vous venez de me dire
que… »
Les questions d’approfondissement. « Pouvez-vous me donner des
exemples ? » « Qu’avez-vous fait dans ce cas précis ? » ; « Comment avez-
vous réagi ? »
Les questions d’interprétation : « Est-ce que vous pensez que le système
d’évaluation de votre entreprise est juste ? »
114 Les questions de structure. « Avez-vous d’autres points à ajouter avant de
passer à la deuxième partie de l’entretien ? »

L’entretien comporte plusieurs moments clés. L’entame ou dé-


marrage de l’entretien en est un. C’est l’occasion d’énoncer sa
position de chercheur en présentant la thématique générale de
ses travaux, sans toutefois énoncer précisément sa question de
recherche, ceci pour laisser à l’interviewé la liberté de s’appro-
prier la thématique de la manière qui lui convient. Il s’agit de ne
pas induire tel ou tel type de réponse par un formatage trop pré-
cis de la présentation de la question de recherche. Le but des
entretiens semi-directifs étant bien de recueillir la spontanéité
de l’interviewé. Tout au long de l’entretien, l’utilisation des
regards, des silences et une empathie sincère sont indispen-
sables à l’établissement d’une relation de confiance. À cet égard
les silences permettent aux interlocuteurs d’avoir un temps de
réflexion supplémentaire pour élaborer leurs réponses. En fin

1. Pour un approfondissement sur les différents types de questions, voir Kvale


(1996).
L e s e nt r e t i e n s

de parcours, pour la clôture de l’entretien, il est recommandé de


poser une dernière question ouverte (« nous arrivons maintenant
au terme de cet entretien, est-ce qu’il y aurait un point que vous sou-
haiteriez ajouter, est-ce que nous avons abordé tous les points impor-
tants selon vous ? »). Ceci au cas où vos interlocuteurs souhaite-
raient aborder un point important pour eux et qui n’aurait pas été
développé. Préparez soigneusement votre dernière question.
«  Closure sometimes brings jewels » (la clôture peut amener des
perles) comme aiment à le dire nos collègues d’Outre-Manche.
Enfin il ne faut bien sûr jamais oublier de remercier ses interlo-
cuteurs pour le temps qu’ils vous ont consacré.

On peut se référer au principe de l’entonnoir pour structurer


son guide d’entretien. On commence par rappeler le cadre de
l’entretien et la garantie d’anonymat des propos pour établir un
climat de confiance avec son interlocuteur. On poursuit par des
questions assez larges sur l’activité de son interlocuteur ou sur
la thématique générale de sa recherche et l’on continue ensuite
avec des questions d’approfondissement et des relances de plus
en plus précises pour l’amener progressivement vers le cœur de
son sujet. Tout le déroulé de l’entretien s’accompagne de refor- 115
mulations successives garantes de la qualité de l’écoute active
de l’interviewer. La conclusion permet de s’assurer que toutes
les thématiques ont bien été abordées.

Encadré 2. Exemple de guide d’entretien semi-


directif
Entreprises familiales : question de gouvernance 2
Entame de l’entretien
Bonjour M., je tiens à vous remercier de m’accorder cet entretien et
du temps que vous voulez bien me consacrer… Dans le cadre de mes
recherches sur la direction des entreprises familiales, je conduis une
série d’entretiens auprès de dirigeants actionnaires familiaux, de di-
rigeants professionnels extérieurs à l’entreprise et de consultants
spécialistes des questions de gouvernance dans les entreprises fa-

2. Cet encadré s’appuie sur les travaux de recherche de Nicolas Paillère, mémoire
de recherche Majeure International Business (CEMS) HEC – Paris, dirigé par
F. Chevalier, 2016.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

miliales… Notre entretien durera approximativement 1 heure, voire


un peu plus.
J’aimerais enregistrer notre conversation pour la retranscrire, en vous ga-
rantissant l’anonymat et la confidentialité des propos. Est-ce possible ?
Autrement je prendrai en note notre entretien.
Questions ouvertes et questions de relance
Pouvez-vous commencer par me décrire votre parcours professionnel et
votre métier au quotidien ?
Dans le cadre de vos activités, vous êtes amené à rencontrer des actionnaires
familiaux désireux de confier le management de leur entreprise à un dirigeant
extérieur à la famille.
– Pourquoi prennent-ils cette décision ? Dans quel contexte ?
– En quoi consiste cette opération ?
– Quelles sont les responsabilités confiées au dirigeant extérieur à la fa-
mille ?
– Pouvez-vous me donner des exemples concrets ?
– Quelles sont les attentes des actionnaires familiaux ?
– Quelles sont les attentes des dirigeants extérieurs ?
– Quelles sont les difficultés rencontrées ?
– Pouvez-vous me donner des exemples concrets ?
– Comment ces difficultés sont-elles surmontées ?
116
– Et lorsque cela se passe bien ?
– Comment cela se passe-t-il ?
– Pouvez-vous me donner des exemples concrets ?
– Quels sont les ingrédients des opérations qui se passent bien ?
– Quelles sont, à votre avis, les bonnes questions que doivent se poser les
actionnaires familiaux avant de prendre la décision de confier le management
à un dirigeant extérieur à la famille ?
– ……..
– Est-ce que nous avons abordé tous les points qui vous semblent impor-
tants ?
– Souhaitez-vous ajouter d’autres points ?
Clôture de l’entretien
Je vous remercie du temps que vous venez de me consacrer dans le cadre
de cette recherche, et serais heureux le cas échéant de vous faire part des
résultats finaux de mes travaux. Si d’autres questions se posent me sera-t-il
éventuellement possible de reprendre contact avec vous…
L e s e nt r e t i e n s

2.2. Les attitudes de l’interviewer, l’empathie et la


reformulation
Poser des questions ouvertes et reformuler sont des techniques
indispensables à la réalisation d’entretiens semi-directifs de
qualité. Les questions ouvertes et les reformulations reflètent
la posture du chercheur à savoir son attitude d’écoute active et
authentique.

Il ne s’agit en aucun cas de juger les propos de l’interviewé, ni


de vouloir les évaluer, ou encore apporter une solution ou une
aide quelconque à l’interviewé. Jugement, évaluation, interpré-
tation, aide, solution sont autant d’attitudes spontanées bien
décrites par Porter (1973/1996) à proscrire dans la conduite
d’entretiens semi-directifs. Il ne s’agit ni de donner son avis, ni
même de ponctuer verbalement ou non verbalement les propos
de son interlocuteur (par un « ok » ou « oui d’accord » …), au risque
de l’influencer dans une direction qui ne serait pas spontané-
ment la sienne. C’est une attitude d’écoute et de compréhension
qui est ici mise en œuvre : celle préconisée par Rogers dans
son ouvrage fondateur Le développement de la personne (Rogers,
1968/2018). L’empathie tient à distance la sympathie et son op-
117
posé l’antipathie. C’est la capacité du chercheur à « s’immerger
dans le monde subjectif de l’interviewé » (Rogers, 1968/2018).
Cette attitude de compréhension, sans à priori aucun et sans au-
cune idée préconçue, suppose une disponibilité entière à l’autre,
sans toutefois perdre de vue l’objet de la recherche menée. C’est
là un exercice particulièrement engageant. Le chercheur s’efface
pour mieux laisser l’interviewé s’exprimer. Autrement dit c’est
une posture d’humilité et d’intérêt vrai pour l’autre qui est solli-
citée ici. À cet égard, il est fréquent qu’en fin d’un tel entretien,
l’interviewé remercie le chercheur pour son écoute attentive et
patiente. Dans ces conditions aussi, l’interviewé, souvent par-
cimonieux de son temps au démarrage de l’entretien, oublie ses
contraintes et accorde au chercheur beaucoup plus de temps
que prévu au départ.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Encadré 3. Attitude de compréhension de


l’interviewer(d’après Rogers, 1968/2018)
• Accueil (et non pas initiative de l’interviewer)
• Être centré sur le vécu du sujet (et non sur les faits)
• Être centré sur la personne (et non sur problème)
• Faciliter la communication (et non pas faire des révélations)
• Respecter le sujet (et non pas se servir de l’entretien comme
d’une occasion de montrer la perspicacité de l’interviewer)

À cet égard, la reformulation est une technique de base de l’in-


terviewer. Elle concourt à mettre en œuvre l’attitude d’empathie
indispensable à l’interviewer. La reformulation consiste à « re-
dire en d’autres termes » ce que l’interviewé vient d’exprimer. Si
la reformulation est de qualité, l’interviewé manifeste son accord
« oui c’est bien cela… », il est encouragé à poursuivre son expres-
sion et développer son propos. À l’opposé, si l’interviewé mani-
feste son désaccord avec votre reformulation, « non ce n’est pas
ce que je voulais dire… », c’est que vous avez interprété ses propos
et qu’il ne s’y reconnaît pas. Autrement dit que vous attribuez à
ses propos un sens qu’il ne leur donnait pas et par conséquent
118 vous les déformez. Dans ce cas le chercheur laissera l’inter-
viewé reprendre et préciser sa pensée à son rythme et dans le
sens qui est le sien. La reformulation est un outil essentiel dans
la conduite d’entretiens semi-directifs. Les reformulations ac-
compagnent tout le cheminement de l’interviewé et témoigne de
la capacité d’écoute réelle de l’interviewer. Il est possible de dis-
tinguer trois modalités de reformulation.

Encadré 4. La reformulation et ses modalités


La reformulation reflet : elle reprend les derniers mots, expres-
sions ou segments de discours de l’interviewé. L’intervieweur répète
ce qui vient d’être dit. L’interviewé poursuit sur sa lancée.
La reformulation-résumé : elle offre une synthèse des propos te-
nus par l’interviewé. Elle suppose un temps d’écoute plus long. Si
l’interviewé acquiesce, c’est que le résumé proposé correspond bien
à ce qu’il vient d’énoncer. Se sentant écouté et compris, l’interviewé
est amené à poursuivre et souvent approfondir sa réflexion.
La reformulation-clarification : il s’agit d’un type de reformulation,
plus rare pour la recherche en gestion, et à manier avec beaucoup de
précautions. Il s’agit ici de reformuler le non-dit, ce que l’interviewé
n’a pas verbalement énoncé mais qui était présent implicitement
L e s e nt r e t i e n s

dans son propos. Si l’interviewé acquiesce, c’est qu’il se reconnaît


dans cette reformulation. Si l’interviewé conteste, c’est que la refor-
mulation n’en est pas une, mais s’apparente plutôt à une interpréta-
tion ou un jugement, autrement dit confère au contenu délivré par
l’interviewé un sens qu’il n’y mettait pas. La reformulation-clarifica-
tion est ainsi beaucoup plus utilisée dans le cadre thérapeutique de
la relation d’aide.

2.3. Lieu, durée et enregistrement de l’entretien


Il y a plusieurs questions pratiques essentielles à se poser avant
et après un entretien. Tout d’abord quel est le lieu le plus ap-
proprié pour mener son entretien ? En dehors ou sur le lieu de
travail de son interlocuteur ? Ensuite à quel moment conduire
cet entretien ? Combien de temps dure un entretien semi-direc-
tif ? Combien d’entretiens peut-on mener au cours d’une seule et
même journée ? Et qu’en est-il de l’enregistrement ?

Les réponses sur le lieu et la durée dépendent le plus souvent de


l’objectif et du contexte et de la recherche. Néanmoins, que l’on soit
sur le lieu de travail de son interlocuteur ou à l’extérieur, il importe
de veiller à préserver sa disponibilité mentale et éviter au maximum
les perturbations extérieures (interruptions téléphoniques, pé- 119
riodes de clôture pour les responsables financiers…). Les entre-
tiens qualitatifs durent en moyenne entre une et deux heures ; l’une
des erreurs les plus fréquentes pour un chercheur néophyte est de
sous-estimer la fatigue physique et mentale qu’engendrent les en-
tretiens. Les entretiens requièrent une attention pleine et entière
et il est difficile de mener correctement plus de quatre entretiens
par jour. En effet, même s’il n’est pas nécessaire d’un point de vue
méthodologique de rédiger un journal de bord comme pour les en-
quêtes ethnographiques, il est toujours souhaitable de s’accorder
au moins une trentaine de minutes en fin de journée pour faire le
point sur les entretiens que l’on a menés.

La question de l’enregistrement est également importante. La


plupart des chercheurs enregistrent leurs entretiens sur des fi-
chiers audio. Il est en effet particulièrement exigeant, d’un point
de vue cognitif, de prendre des notes, d’être concentré sur les
réponses de ses interlocuteurs tout en gardant en tête son guide
d’entretien. Cela est toutefois possible et requiert un véritable
entraînement. Dans tous les cas il s’agit d’effectuer une retrans-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cription fidèle des entretiens. L’enregistrement nécessite de


demander expressément l’accord des personnes interrogées. Il
peut bien sûr arriver qu’une personne refuse d’être enregistrée
ou s’auto-censure pendant l’entretien parce qu’elle ne souhaite
pas diffuser des informations sensibles ou que ses critiques
soient conservées sur un fichier audio. Dans ce cas, il convient
de rappeler à son interlocuteur que les données récoltées en
entretien seront anonymisées et non diffusées. En général cela
suffit à lever la plupart des inhibitions. En cas contraire, le cher-
cheur s’appuiera sur sa prise de note. Dans tous les cas de fi-
gure, que les entretiens soient enregistrés ou qu’ils ne le soient
pas, ayez toujours votre carnet à spirales et votre crayon pour
prendre des notes. Prendre des notes témoigne aussi de l’intérêt
vrai, sincère et sérieux, que l’on porte à l’autre.

Après l’entretien, il convient de le retranscrire afin de pouvoir le


coder ou tout simplement revenir sur ses données. En général, il
est d’usage de compter 5 à 6 heures de retranscription par heure
d’enregistrement (Bryman & Bell, 2015). Cela peut augmenter si
l’on fait une retranscription phonétique complète (hésitations,
intonations…) pour une recherche linguistique. Les logiciels de
120 retranscription audio comme Dragon Naturally Speaking ont fait
d’énormes progrès dans la reconnaissance de la voix d’un même
utilisateur et peuvent faciliter grandement le travail du chercheur.
En revanche il n’existe pas encore sur le marché de logiciels per-
mettant de retranscrire fidèlement une conversation entre deux ou
plusieurs personnes et il convient soit de retranscrire soi-même
ses entretiens, soit de prévoir un budget de recherche dédié à
la retranscription. Celui-ci peut devenir conséquent quand on a
plusieurs centaines d’heures d’enregistrement pour un projet de
recherche. Certaines applications gratuites comme otranscribe3
peuvent toutefois simplifier la retranscription en associant la prise
de note avec des fonctions de lecture de fichiers audio avancées.

2.4. L’échantillonnage
Combien faut-il mener d’entretiens ? Si l’on se place dans un
cadre hypothético-déductif, le nombre de personnes à interro-

3. 
h ttp://otranscribe.com/
L e s e nt r e t i e n s

ger peut être fixé en amont en fonction du projet de recherche.


En revanche, si l’on se place dans un cadre inductif ou abductif
(Shepherd & Sutcliffe, 2011) comme c’est la plupart du temps en
recherche qualitative, la meilleure réponse est celle la satura-
tion théorique. Le but principal des recherches qualitatives
étant de produire des nouvelles théories ou d’enrichir celles
existantes, le chercheur doit continuer à mener des entretiens
jusqu’à ce que ceux-ci « saturent », autrement dit jusqu’à ce qu’ils
ne fournissent plus aucune nouvelle information relativement à
la question de recherche.

Dans la pratique, il n’est pas toujours facile de déterminer le


moment de la saturation théorique surtout lors d’un DBA où la
contrainte de temps est plus forte que pour les doctorants en
Ph.D. Dès lors, quelles sont les règles d’usage ? Evidemment le
nombre d’entretiens varie en fonction du contexte et de la mé-
thode choisie (étude de cas simple ou multiple, recherche ac-
tion, étude ethnographique …). Notre expérience de recherche
nous a conduit par exemple, dans le cadre d’études de cas mul-
tiples sur les cercles de qualité, à réaliser plus de 200 entretiens
semi-directifs (Chevalier, 1991). Marshall et ses collègues (2013)
ont ainsi mené une enquête très détaillée auprès de 83 études 121
qualitatives publiées dans les meilleures revues académiques
en systèmes d’information. Il en ressort une très forte variation
entre le nombre d’entretiens (d’une dizaine à plus de 200 entre-
tiens) et que la moyenne des recherches qualitatives se situe
autour de 20 à 30 entretiens pour les recherches basées sur la
théorie ancrée ou « grounded theory » (Strauss & Corbin, 1994) et
de 15 à 30 entretiens pour les études de cas simple.

2.5. Établir une relation de confiance avec ses


interlocuteurs
La qualité d’un entretien réside dans la richesse des échanges
entre le chercheur et ses interlocuteurs, dans la capacité que
ce dernier à de les inciter à partager des exemples précis mar-
quants, dans sa capacité à les pousser à aller au-delà des his-
toires officielles pour passer dans le registre de ce qui se fait
mais ne se dit pas. En général, les doctorants en DBA mènent
leurs recherches au sein des organisations pour lesquelles ils
travaillent et il n’existe pas de recette miracle pour établir une
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

relation de confiance. Les doctorants-managers sont en général


familiers de leur objet d’étude : l’accès au terrain est facilité, en
revanche leurs interlocuteurs peuvent aussi se montrer méfiants
envers le chercheur, éventuel collègue de travail.

Le premier acte est de se positionner en tant que chercheur dès


le début de l’entretien. Le plus simple est de rappeler le cadre
de la recherche et de souligner la confidentialité absolue de
l’échange. Sortir du lieu de travail pour effectuer l’entretien peut,
à cet égard, se révéler utile. Plus généralement, le chercheur n’a
de cesse de faire preuve d’empathie envers ses interlocuteurs
pour libérer la parole, c’est-à-dire s’intéresser activement à leurs
propos et tenter de se mettre à leur place et d’intégrer leur fa-
çon de penser. Quand la recherche se passe dans un contexte
tendu entre deux groupes, Roer-Strier et Sands (2015) suggèrent
également de se positionner en tant qu’expert pour dépasser les
jeux politiques entre les acteurs et libérer leur parole.

L’entretien étant avant tout un travail de mise à jour d’idées, de


souvenirs et d’expériences, la maïeutique socratique reste un
modèle à suivre pour tout chercheur en sciences sociales comme
122 nous le rappelle Bourdieu (1996, p. 913) : « le travail “socratique”
d’aide à l’explicitation, vise à proposer sans imposer, à formuler
des suggestions parfois explicitement présentées comme telles
(est-ce que vous ne voulez pas dire que…) et destinées à offrir
des prolongements multiples et ouverts au propos de l’enquête,
à ses hésitations ou à ses recherches d’expression ».

CONCLUSION
La conduite d’entretien est à la fois simple et complexe. Comme
toute pratique elle ne se fonde pas uniquement sur une théorie
que l’on peut apprendre mais sur des compétences que l’on per-
fectionne au fur et à mesure du temps. Dans le cadre d’une thèse
de DBA, à cet apprentissage s’ajoutent les contraintes profes-
sionnelles, ce qui peut limiter la disponibilité nécessaire pour
effectuer des tâches chronophages telles que la retranscription
ou pour multiplier les entretiens jusqu’à atteindre la saturation
théorique nécessaire aux recherches qualitatives. Les docto-
rants en DBA sont par ailleurs très souvent doublement immer-
gés dans leur objet de recherche, en tant que chercheur et en
L e s e nt r e t i e n s

tant qu’acteur, ce qui leur procure une connaissance précieuse


et approfondie des organisations étudiées, mais nécessite aus-
si en contrepartie une exigence et une rigueur particulières. La
clé du succès est de : se positionner dès le début de l’entretien
en tant que chercheur, de préparer minutieusement son guide
d’entretien pour mieux s’en détacher, d’être empathique et
d’adopter une attention positive inconditionnelle, de créer une
relation de confiance avec ses interlocuteurs pour libérer leur
parole sans jamais oublier d’être ouvert à la recherche de sur-
prises lors des entretiens.

Références citées
Argyris, C. & Schön, D. (1974), Theory in Practice : Increasing
Professional Effectiveness, San Francisco, CA, Jossey-Bass.
Bourdieu, P. (1993), Comprendre, in P. Bourdieu (dir.), La misère du
monde, Paris, Seuil.
Bourdieu, P., Accardo, A. & Balazs, G. (1993), La misère du monde,
vol. 476, Paris, Seuil.
Bryman, A. & Bell, E. (2015), Business Research Methods, Oxford,
Oxford University Press.
Chevalier, F. (1991), Cercles de qualité et changement organisationnel,
123
Paris, Economica.
Chevalier, F. (2017), La théorisation dans une perspective terrain :
le décorticage d’une démarche de recherche, in P. Beaulieu &
M. Kalika (dir.), Le projet de thèse de DBA,Caen, Éditions EMS, coll.
« Business Science Institute », p. 165-176.
De Ketele, J.-M. & Roegiers, X. (1996), Méthodologie du recueil
d’informations – Fondements des méthodes d’observations, de
questionnaires, d’interviews et d’études de documents, Louvain La
Neuve, Belgique, Deboeck Superieur.
Evrard, Y., Pras, B. & Roux, B. (1993), Market, Étude de marchés et
recherche en marketing, Fondements et méthodes, Paris, Nathan.
Flanagan, J. C. (1954), The critical incident technique, Psychological
Bulletin, vol. 51, no 4, p. 327-358.
Kvale, S. (1996), Interviews : An Introduction to Qualitative Research
Interviewing, Thousands Oaks, CA, Sage.
Marshall, B., Cardon, P., Poddar, A. & Fontenot, R. (2013), Does
sample size matter in qualitative research ? A review of qualitative
interviews in IS research, Journal of Computer Information Systems,
vol. 54, no 1, p. 11-22.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Meyer, V. (2018), Performance Management : An American Technology


in a French Multinational Enterprise Established in China, Thèse de
doctorat en sciences de gestion, dirigée par F. Chevalier, HEC
Paris.
Myers, M. D. & Newman, M. (2007), The qualitative interview in IS
research: Examining the craft, Information and Organization,
vol. 17, no 1, p. 2-26.
Patwardhan, A., Noble, S. M. & Nishihara, C. M. (2009), The use of
strategic deception in relationships, Journal of Services Marketing,
vol. 23, no 5, p. 318-325.
Porter, E.H. (1973/1996), Relationship awareness theory, Manual
of Administration and Interpretation, 9 th edition. Carlsbad, CA,
Personal Strengths Publishing,
Roer-Strier, D. & Sands, R. G. (2015), Moving beyond the “official
story”: When “others” meet in a qualitative interview, Qualitative
Research, vol. 15, no 2, p. 251-268.
Rogers, C. R. (1968/2018), Le développement de la personne, 2e édition,
Paris, InterEditions.
Saunders, M., Lewis, P. & Thornhill, A. (2012), Research Methods for
Business Students, 6 th edition, Harlow, Royaume-Uni, Pearson
Education.

124 Shepherd, D. A. & Sutcliffe, K. M. (2011), Inductive top-down


theorizing : A source of new theories of organization, Academy of
Management Review, vol. 36, no 2, p. 361-380.
Strauss, A. & Corbin, J. (1994), Grounded theory methodology,
in N.K. Denzin & Y. S. Lincoln (eds.), Handbook of Qualitative
Research, Thousand Oaks, CA, Sage, p. 273-285.
Thiétart, R. A. (2014), Méthodes de recherche en management, 4 e édition,
Paris, Dunod.
Yin, R. K. (1994), Case Study Rresearch: Design and Methods, 2nd edition
(Applied Social Research Methods Series, 5), Thousand Oaks,
CA, Sage.

Références pour en savoir plus


Mucchielli, R. (2011), L’entretien de face à face dans la relation
d’aide, 21e édition, Montrouge, Éditions ESF, coll. « Formation
Permanente ».
Cet ouvrage de base, devenu une référence, décrit ce que doit
être un bon entretien car l’intention de bien conduire l’entretien
ne suffit pas. Il faut une méthode. Didactique, l’ouvrage s’arti-
cule autour de deux grandes parties : une partie connaissance
L e s e nt r e t i e n s

du problème et une partie exercices d’application fort utile pour


les débutants.

Blanchet, A. & Gotman, A. (2005), L’enquête et ses méthodes :


l’entretien, Paris, Armand Colin, coll. « Sociologie ».
Comment préparer, réaliser et analyser les entretiens effectués
dans le cadre d’une enquête ? Cet ouvrage pose les conditions
de validité de la méthode, précise le cadre technique de cette
situation particulière d’interrogation et définit les principes de
l’analyse des discours produits.

125
CHAPITRE 7.
Les études de cas

Pierre-Jean Barlatier

Résumé

La méthodologie de l’étude de cas est une méthodologie de re-


cherche très prisée en sciences sociales, utilisée pour étudier
des phénomènes complexes nouveaux en situation réelle ou
étendre les connaissances sur des phénomènes déjà investi-
gués. Les études de cas apportent ainsi une analyse détail- 126
lée et en profondeur sur un nombre limité de sujets. L’objectif
de ce chapitre est d’apporter un regard éclairé sur cette mé-
thode pour les chercheurs-managers candidats au DBA qui
envisagent d’utiliser l’étude de cas dans leur recherche, en
expliquant pourquoi et comment utiliser cette méthodologie
et en en exposant les avantages et inconvénients. Pour cela
nous nous appuyons sur les travaux de chercheurs renommés
comme Yin (2003, 2009) ou Stake (1995) pour leurs techniques
et recommandations sur la méthodologie de l’étude de cas.

Mots-clés : étude de cas, méthodologie, recherche qualita-


tive, design de recherche, courant épistémologique.

Les méthodes de recherche du DBA


Les études de cas

INTRODUCTION
La méthodologie de l’étude de cas est une méthodologie de re-
cherche mobilisée pour étudier des phénomènes en situation
réelle, qu’ils soient nouveaux et/ou complexes ou bien pour
étendre les connaissances sur des phénomènes déjà investi-
gués. Les études de cas apportent ainsi une analyse détaillée et
en profondeur sur un nombre limité de sujets.

Cependant, elle fait souvent l’objet de critiques concernant la


généralisation des résultats obtenus en raison du faible nombre
de cas étudiés, ou encore sur le manque d’objectivité des cher-
cheurs qui biaiserait les résultats. Pour autant elle reste une mé-
thode très utilisée par les chercheurs en sciences sociales qui
publient des études de cas avec tout le soin et la rigueur scien-
tifique requise.

L’objectif de ce chapitre est d’apporter un regard éclairé sur cette


méthode pour les chercheurs-managers candidats au DBA qui
envisagent d’utiliser l’étude de cas pour leur recherche. Nous
abordons tour-à-tour les questions fondamentales suivantes :
en quoi consiste cette méthode ; pourquoi et comment l’utiliser ;
127
comment bien choisir ses cas ; quelles sont les différentes typo-
logies de catégories de cas ; pourquoi opter pour un design de
recherche d’étude de cas simple ou multiples ; pour finir en en
exposant les avantages et inconvénients. Pour cela, nous met-
tons en exergue les techniques et recommandations issues des
travaux sur la méthodologie de l’étude de cas de chercheurs re-
nommés comme Yin (2003, 2009) ou Stake (1995).

1. QU’EST-CE-QUE LA MÉTHODE DES ÉTUDES DE


CAS ?
L’étude de cas est une approche méthodologique qui vise systé-
matiquement la collecte suffisante d’informations sur une per-
sonne, un événement ou un système social (groupe d’individus
ou organisation) afin de permettre au chercheur de comprendre
comment celui-ci fonctionne ou se comporte en situation réelle
(Berg, 2000). Les études de cas rigoureuses permettent aux
chercheurs d’explorer ou de décrire un phénomène dans son
contexte en utilisant diverses sources de données. Ainsi, les
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

études de cas peuvent s’intéresser à un individu, un groupe, ou


une organisation, par la collecte et l’analyse de récits de vie, de
documents écrits, de biographies, d’interviews, ou encore d’ob-
servation participante qui servent à la déconstruction et à l’inhé-
rente reconstruction du ou des phénomènes complexes étudiés
(Yin, 2003).

De ce fait l’étude de cas n’est pas une technique de collecte de


données en soi, mais une approche méthodologique qui s’ac-
commode d’un certain nombre de dispositifs de collecte de
données. Quelles que soient la ou les techniques de recueil em-
ployées, les informations collectées sont en général riches et
détaillées.

La méthode des études de cas est aussi considérée comme de-


sign de recherche « naturaliste » (Lincoln & Guba, 1985), le plus
souvent de nature qualitative, en contraste aux designs de re-
cherche « expérimentaux » où les chercheurs ont un contrôle sur
l’environnement et/ou les variables (comme les essais cliniques
en laboratoires), alors que les études de cas s’intéressent à des
phénomènes en situation réelle et non contrôlée.
128
La méthode de l’étude de cas est une méthode de recherche
éprouvée et ancienne, notamment dans les domaines de la mé-
decine ou des sciences sociales comme la psychologie, où les
patients sont étudiés cas par cas. En sciences de gestion et des
organisations, il est important d’éviter toute confusion entre
l’approche pédagogique par les études de cas initiée par la
Harvard Business School dès les années 1920, qui sont générale-
ment utilisées afin d’aider les étudiants à mieux appréhender les
théories et concepts à la lumière de cas concrets et pratiques ; et
la méthodologie de recherche de l’étude de cas.

2. POURQUOI UTILISER LA MÉTHODE DE L’ÉTUDE


DE CAS ?
Selon Yin (2003, 2009) la méthode de l’étude de cas peut être uti-
lisée afin d’expliquer, de décrire ou d’explorer des évènements
ou des phénomènes dans leur contexte réel. C’est une approche
différente de celle des designs expérimentaux contrôlés où les
chercheurs testent des hypothèses en conditions cliniques de
Les études de cas

laboratoire, qui leur permettent de manipuler l’environnement


délibérément. Selon Yin (2003, 2009), le recours à la méthode de
l’étude de cas est pertinente lorsque certaines conditions sont
réunies :
–– l’étude doit répondre à des questions de recherche du type
« quoi », « comment » et « pourquoi » ;
–– le chercheur ne peut pas manipuler le comportement des
informants impliqués dans l’étude ;
–– le chercheur traite des facteurs contextuels du phénomène
étudié qui semblent pertinents ;
–– les limites entre le phénomène étudié et son contexte ne
sont pas claires.

Siggelkow (2007) distingue quant à lui trois grands usages de la


méthodologie des études de cas : (i) la motivation d’étudier une
question de recherche importante à la lueur d’un cas particuliè-
rement intéressant ; (ii) l’inspiration de nouvelles idées générées
par l’immersion dans un cas riche grâce à une approche induc-
tive ; et (iii) l’illustration d’une théorie par un cas à valeur ajoutée,
qui va apporter de nouveaux éclairages. 129
La méthode des études de cas peut être appréhendée de dif-
férentes manières en fonction de l’approche épistémologique
pertinente. Il existe traditionnellement deux grands courants
épistémologiques de la méthode des études de cas en sciences
sociales (et a fortiori en sciences de gestion et des organisa-
tions).

La première est proposée par des auteurs comme Stake (1995) et


Merriam (2009) et se situe dans un paradigme socio-constructi-
viste ou interprétatif, où le chercheur a une interaction person-
nelle avec le cas. Ici, l’étude de cas est développée dans une re-
lation entre le chercheur et ses informants, et est présentée de
manière à inviter le lecteur à rejoindre cette interaction dans la
découverte du cas (Stake, 1995).

La seconde approche développée par des auteurs comme Yin


(2003 ; 2009) ou Eisenhardt (1989) s’inscrit davantage dans un
paradigme post-positiviste, qui implique le développement d’un
protocole d’étude soigné et qui considère avec attention la va-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

lidité des résultats obtenus et ses éventuels biais. En général


cette approche implique un construit conceptuel préalable et/ou
une phase exploratoire ou pilote et assure que tous les éléments
du cas soient décrits et analysés convenablement.

Pour autant, les chercheurs tenants de ces deux principaux cou-


rants ont contribué ensemble à développer la popularité de la
méthode des études de cas et des principes qui caractérisent
cette méthodologie. Pour une revue détaillée des différentes
approches épistémologiques mobilisées par les études de cas
nous invitons le lecteur à consulter l’article d’Avenier et Thomas
(2015).

3. COMMENT BIEN CHOISIR SON OU SES CAS ?


Il est primordial de pouvoir formuler une question de recherche
convaincante au regard de l’état des connaissances sur le thème,
avec une première appréciation des enjeux théoriques mais
surtout managériaux pour un candidat en DBA, et de vérifier
la pertinence du ou des cas envers ce thème. Chaque cas doit
être clairement défini, dans sa nature, son espace et son temps,
130 ce qui signifie que le périmètre temporel (début et fin du cas)
et spatial (zone géographique, organisation, groupe social, etc.)
ainsi que les types de données et les priorités et difficultés re-
latives à la collecte et l’analyse de données doivent être connus
afin d’opter pour l’approche méthodologique appropriée. Le ta-
bleau 1 détaille quelques éléments proposés par Stake (1995) qui
peuvent servir à évaluer la pertinence et l’adéquation du cas à la
problématique de recherche retenue.
Les études de cas

Tableau 1. Évaluation de la pertinence du cas


proposé (adapté de Stake, 1995)

Communication Clarté : Est-ce qu’on comprend bien le cas ?


Intégrité : Est-ce que ses composantes s’assemblent
bien ?
Attrait : Est-ce que cela pique l’intérêt du lecteur ?
Contenu Le cas : Est-il adéquatement défini ?
La problématique : Est-ce que les principales ques-
tions de recherche sont bien identifiées ?
Les données : Est-ce qu’il y a suffisamment de
sources de données ?
Méthode Sélection des cas : La stratégie de sélection est-elle
raisonnable ?
Collecte des données : Est-ce que les activités de
collecte de données sont abordées ?
Validation : Existe-t-il un besoin ou des opportunités
de triangulation des données ?
Aspects pratiques Accès : Est-ce que toutes les conditions sont réu-
nies pour commencer la collecte sur le terrain ?
Confidentialité : Quelle est la sensibilité à la protec-
tion de l’anonymat ?
Coûts : Est-ce que les estimations en temps et en
ressources sont raisonnables ?
131

4. QUELLES SONT LES DIFFÉRENTES CATÉGORIES


D’ÉTUDES DE CAS ?
Il existe différentes catégories d’études de cas dont le choix va
être guidé par la nature de la question de recherche et le péri-
mètre de l’étude. Les typologies les plus utilisées sont proba-
blement celles de Yin (2003, 2009) et Stake (1995), qui sont résu-
mées dans le tableau 2.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Tableau 2. Les différentes catégories d’études de


cas selon Yin (2003, 2009) et Stake (1995)

Yin (2003, 2009)


Explicatif Descriptif Exploratoire
(explanatory) (descriptive) (exploratory)
Étude de cas qui Étude de cas utilisée Étude de cas qui
adresse une probléma- pour décrire un phéno- explore un phéno-
tique visant l’explica- mène et son contexte. mène représentant un
tion de liens causaux point d’intérêt pour le
présumés entre phéno- chercheur et qui vise
mènes complexes. la découverte de nou-
velles causalités et/ou
résultats.
Stake (1995)
Intrinsèque Instrumental Collectif
(intrinsic) (instrumental) (collective)
Approche qui vise tout Approche qui vise Approche qui implique
d’abord une meilleure essentiellement à ré- l’étude de plusieurs
compréhension du soudre un problème ou cas simultanément ou
phénomène incarné contribuer à la théorie. séquentiellement, afin
dans le cas, pour un Ici le cas est un acces- de produire des résul-
cas particulier ou soire, un instrument tats généralisables
unique pour le cher- qui sert un objectif su- à une plus grande
cheur, sans chercher a périeur. Évidemment, population.
132 priori à en généraliser le cas doit être analysé
les résultats (même si avec la rigueur néces-
cela peut représenter saire mais il sert avant
une option selon tout à la poursuite d’un
Stake). intérêt externe au cas
lui-même.

5. LE DESIGN DE LA RECHERCHE : ÉTUDE DE CAS


SIMPLE OU ÉTUDE DE CAS MULTIPLES ?
Au-delà des différentes catégories d’étude de cas, le chercheur
doit choisir entre un design de recherche avec un cas unique ou
comportant plusieurs études de cas. À l’évidence, le choix d’une
catégorie propre au design de la recherche va conditionner le
nombre de cas à investiguer. Il est certain que s’intéresser à un
cas exploratoire unique implique un design de recherche com-
portant un seul cas alors qu’il est plus approprié (et prudent)
d’étudier plusieurs cas lorsque l’objectif de la recherche est da-
vantage la compréhension d’un phénomène qui vise à être géné-
ralisé. La sélection d’un ou plusieurs cas est un élément clé de
Les études de cas

la recherche. Le choix du design d’une étude de cas simple se


justifie par différentes raisons (Yin, 2009) :
(a) l’étude d’un cas critique, pour éprouver une théorie par
exemple ;
(b) d’un cas unique ou extrême, si rare qu’il mérite d’être analysé
et connu ;
(c) d’un cas représentatif ou typique, qui peuvent être informatifs
sur des situations communes ;
(d) d’un cas révélateur, qui donne ainsi l’opportunité d’observer
et d’analyser un phénomène préalablement inaccessible ;
et enfin :
(e) d’un cas longitudinal, qui étudie l’évolution d’un phénomène
sur plusieurs périodes de temps.

Selon Yin (2009) ce sont les cinq principales raisons de sélec-


tionner une étude de cas simple, outre l’étude de cas pilote, pré-
alable à d’autres investigations, qui ne constitue pas une étude
achevée en soi.

De plus, une étude de cas simple peut être soit holistique (holistic)
et comprendre une seule unité d’analyse, soit comprendre plu- 133
sieurs unités d’analyse encastrées (embedded). Par exemple, une
étude de cas peut s’intéresser à une industrie (comme le secteur
automobile, l’énergie ou l’environnement…), ainsi qu’à une ou
plusieurs entreprises de cette industrie (Renault, Engie, etc.).
Ce type d’étude de cas implique donc deux niveaux d’analyse et
accroît par conséquent la complexité et la quantité de données
à collecter et analyser. L’analyse dans ce design de recherche
peut porter sur les sous-unités étudiées séparément (dans notre
exemple différentes entreprises d’une même industrie), ou en-
core effectuer des comparaisons entre ces sous-unités.

Cependant, un même travail de recherche peut contenir plusieurs


études de cas. Il s’agit alors d’un design d’étude de cas multi-
ples. Ces designs de recherche sont de plus en plus fréquents
mais requièrent davantage de temps et de travail. Une étude de
cas multiples comprend comme unités d’analyse plusieurs cas
individuels qui peuvent être soit des cas holistiques soit des cas
encastrés. Pour Yin (2009), l’usage d’étude de cas multiples doit
suivre une logique de réplication (replication) et non pas d’échan-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tillonnage statistique, et chaque cas doit être soigneusement


sélectionné à cette fin. Les cas ainsi choisis doivent conduire à
des résultats soit similaires (réplication littérale) soit contras-
tés mais pour des raisons préalablement connues (réplication
théorique). Chaque cas est ainsi traité comme une expérimenta-
tion à part entière. La figure 1 expose ces différents designs de
recherche.

Figure 1. Les différents designs de recherche


d’étude de cas selon Yin (2009)

134

6. AVANTAGES ET INCONVÉNIENTS DES ÉTUDES


DE CAS
La méthode de l’étude de cas présente un certain nombre d’avan-
tages et points forts pour un manager-chercheur.

Premièrement, la collecte et l’examen des données s’effectuent


la plupart du temps au plus proche du terrain, c’est-à-dire au
cœur du phénomène étudié. Cela permet d’avoir un accès pri-
vilégié à des données riches, en contexte réel, ce qui contraste
avec l’approche expérimentale de laboratoire qui se concentre
sur l’examen d’un nombre limité de variables. Ainsi, cette mé-
thodologie est particulièrement appropriée pour l’analyse de
phénomènes complexes, en situation réelle, qui ne pourraient
Les études de cas

être correctement analysées par les méthodes expérimentales


cliniques.

Deuxièmement, même si l’on associe le plus souvent la métho-


dologie de l’étude de cas à une stratégie de recherche qualita-
tive, celle-ci permet d’utiliser des méthodes de traitement de
données qualitatives et/ou quantitatives (voir Partie 3 de cet
ouvrage : Analyser les données du terrain, ainsi que Miles et al.,
2014).

En dépit de ses qualités, la méthodologie de l’étude de cas fait


également l’objet de certaines critiques et pièges à éviter.

Une première grande critique envers la méthode concerne la


généralisation scientifique des résultats. En effet, étant donné
que selon cette méthode la création de connaissances porte
sur une seule ou quelques unités d’analyse, comment alors pré-
tendre à une généralisation des résultats ? Selon Eisenhardt
(1989) et Yin (2003, 2009) les résultats issus de cette méthode
peuvent prétendre à une généralisation théorique ou analytique
des résultats, c’est-à-dire de généraliser un ensemble de résul-
tats envers une théorie plus large, ou encore la formulation de
135
nouvelles théories qui ne prétendent pas au statut de théories
« universelles » mais plus modestes, relatives à une population
spécifique (Eisenhardt, 1989). En revanche il n’est pas question
ici de généralisation statistique, comme celle que l’on trouve dans
les résultats issus d’analyses statistiques de questionnaires qui
visent une représentation fidèle d’une population sur une base
d’échantillonnage adéquate.

Une seconde critique généralement adressée à la méthode des


études de cas est celle d’un manque de rigueur souvent repro-
ché, sur base de résultats équivoques ou biaisés.

Une troisième difficulté inhérente à la méthode de l’étude de cas


est liée à la quantité de données collectées à traiter, notamment
dans le cas d’études de cas longitudinales ou ethnographiques,
ou encore dans les études de cas multiples. Cette difficulté sur-
vient lorsque les données ne sont pas systématiquement gérées
et organisées par le chercheur qui se retrouve dans une situa-
tion de saturation vis-à-vis du volume de données à analyser. Ce
volume de données, conjugué avec les restrictions de temps et
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ressources, peuvent négativement impacter la profondeur et la


finesse de l’analyse. Cela met en évidence l’importance pour le
chercheur de résister à la tentation d’accumuler le plus de don-
nées possible sans réfléchir au temps adéquat à consacrer à
l’analyse et à l’interprétation des résultats issus des données.

En guise de synthèse, nous proposons le tableau suivant, issu


des travaux de Stake (1995), qui expose les principaux écueils et
les actions requises pour les éviter ou les atténuer.

Tableau 3. Les principaux écueils et solutions ou


actions atténuantes selon Stake (1995)

Principaux écueils Solutions ou actions atténuantes


Sélection/conceptualisation de Approfondir les connaissances
mauvais cas conduisant à un théoriques et empiriques sur le
manque de généralisations théo- thème, justifier les choix faits
riques
Collecte d’un volume trop impor- Aligner la collecte de données avec
tant de données non pertinentes ou la question de recherche, en restant
insuffisant flexible et ouvert sur d’autres pistes
à explorer
136 Définir/circonscrire le(s) cas Se concentrer sur les liens des
composantes du cas (temps et/ou
espace), être clair sur ce qui est en
dehors du cas
Manque de rigueur Triangulation, validation des ré-
pondants, utilisation d’un échan-
tillonnage théorique, transparence
du processus de conduite de la
recherche
Problèmes éthiques ou moraux Anonymisation des informants
afin d’éviter toute identification,
consentement des participants
Intégration avec le cadre théorique Permettre l’émergence de pistes
de recherche inattendues, ne pas
forcer l’adéquation, vérifier les
explications préliminaires, être
clair et cohérent avec l’orientation
épistémologique choisie
Les études de cas

CONCLUSION
La méthodologie de l’étude de cas permet d’étudier de manière
scientifique un phénomène singulier ou complexe dans son
contexte réel, en répondant aux questions du type « pourquoi ? »
et « comment ? ». Elle permet de collecter des données variées
et de les faire analytiquement converger pour mettre en valeur
les enseignements du ou des cas. Ce n’est pas une méthode de
recherche uniquement portée sur l’exploration d’un phénomène
mais sur une meilleure compréhension des comportements des
sujets étudiés.

C’est une méthode de recherche naturellement proche du terrain,


et donc de ce fait particulièrement appropriée et prisée des cher-
cheurs-managers candidats au DBA. En général le chercheur-ma-
nager qui opte pour cette méthodologie de recherche pour son
travail de DBA va bénéficier de son accès privilégié à des données
issues du terrain mais risque probablement de connaître davan-
tage de difficultés d’objectivité et de prise de recul sur la pratique.

Pour réaliser une « bonne » étude de cas il n’est pas seulement


nécessaire de faire preuve de rigueur scientifique, mais d’appor- 137
ter un éclairage théorique et managérial nouveau, capable de pro-
voquer un échange intellectuel, de changer la manière actuelle de
penser le phénomène étudié. Et en ce sens, la double compétence
des chercheurs-managers est un atout majeur pour cela.

Références citées
Avenier, M.-J. & Thomas, C. (2015), Finding one’s way around
various methodological guidelines for doing rigorous case
studies: a comparison of four epistemological frameworks,
Systèmes d’Information et Management, vol. 20, n° 1, p. 61-98.
Berg, B.L. (2000), Qualitative Research Methods for the Social Sciences,
4th edition, Boston, MA, Allyn & Bacon.
Eisenhardt, K.M. (1989), Building theories from case study research,
Academy of Management Review, vol. 14, n° 4, p. 532-550.
Lincoln, Y. & Guba, E. (1985), Naturalistic Inquiry, Newbury Park, CA,
Sage Publications.
Merriam, S.B. (2009), Qualitative Research: A Guide to Design and
Implementation, San Francisco, CA, John Wiley & Sons.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Miles, M.B., Huberman, A.M. & Saldaña, J. (2014), Qualitative Data


Analysis, A Methods Sourcebook, 3 rd edition, London, Sage
Publications.
Stake, R.E. (1995), The Art of Case Study Research, London, Sage
Publications.
Siggelkow, N. (2007), Persuasion with case studies, Academy of
Management Journal, vol. 50, n° 1, p. 20-24.
Yin, R.K. (2003), Case Study Research, Design and Methods, 3 rd edition,
London, Sage Publications.
Yin, R.K. (2009), Case Study Research, Design and Methods, 4th edition,
London, Sage Publications.

Références pour en savoir plus


Dumez, H. (2016), Méthodologie de la recherche qualitative. Les questions
clés de la démarche de recherche compréhensive, 2e édition, Paris,
Vuibert.
Ouvrage francophone de référence sur le design de la recherche
qualitative en management.

Eisenhardt, K.M. & Graebner, M.E. (2007), Theory building from


138 cases : Opportunities and challenges, Academy of Management
Journal, vol. 50, n° 1, p. 25-32.
Dans cet article les auteurs exposent une série de recomman-
dations pour définir un design de recherche rigoureux d’études
de cas.

Gioia, D.A., Corley, K.G. & Hamilton, A.L. (2012), Seeking qualitative
rigor in inductive research : Notes on the Gioia methodology,
Organizational Research Methods, vol. 1, p. 15-31.
Dans cet article les auteurs proposent une méthodologie de
structure d’analyse de données qualitatives rigoureuse qui per-
met de renforcer la fiabilité de la recherche effectuée selon une
approche inductive.

Ragin, C.C. (1987), The Comparative Method : Moving Beyond Qualitative


and Quantitative Strategies, Berkeley & Los Angeles, CA, London,
Royaume-Uni, University of California Press.
Ouvrage fondateur de la méthode d’analyse qualitative compara-
tive (QCA – Qualitative Comparative Analysis).
Les études de cas

Thiétart, R.-A. (dir.) (2014), Méthodes de recherche en management,


4 e édition, Paris, Dunod.
Ouvrage francophone de référence sur le design de la recherche
en management.

139
CHAPITRE 8.
La méthode ethnographique

Fatou Diop Sall

Résumé

L’objet de ce chapitre est de décrire la méthode ethnogra-


phique en mettant l’accent sur sa démarche très pratique en
Executive DBA. La méthode ethnographique est une métho-
dologie qualitative qui permet de réaliser une étude descrip-
tive et analytique des traditions, us, coutumes et mœurs de po- 140
pulations déterminées. Elle permet de collecter des données
ou informations dans un système complexe pour comprendre
la dynamique autour des objets. Aujourd’hui pour comprendre
la complexité des sociétés, communautés et comportements
des individus, la méthode ethnographique est conseillée
comme outil et démarche d’approche de terrain de recherche
en sciences sociales, humaines et de management.

Mots-clés : méthode ethnographique, méthodologie qualita-


tive, collecte de données, terrain, Executive DBA.

Les méthodes de recherche du DBA


L a m é t h o d e e t h n o g ra p h i qu e

« L’éducation est la plus puissante des armes


que l’on peut utiliser pour changer le monde. »
Nelson Mandela (1918-2013)

INTRODUCTION
Depuis longtemps, les comportements dans les sociétés ont été
un objet de recherche pour les sociologues, les psychologues,
les anthropologues, les historiens. Pour les sociologues comme
Émile Durkheim (1912), il faut comprendre la société dans son
ensemble, considérée comme « une réalité fondamentale » qui
est une abstraction métaphysique, une entité mystique. Alors
que, pour l’ethnologue Marcel Mauss (1947), la société est consi-
dérée comme un groupe social vivant habituellement dans un
lieu déterminé possédant une langue, une structure et des tra-
ditions qui lui sont propres. Pour comprendre la complexité de
cette société, la méthode ethnographique est utilisée comme
outil et démarche d’approche du terrain dans les recherches en
sciences sociales et humaines. Pour Karl Popper (1963), il faut
partir du terrain qui donne une représentation des faits, phéno-
mènes et comportements qu’il qualifie de mondes réels dans sa
141
vision des mondes scientifiques. La méthode ethnographique
est une méthode de la science de l’anthropologie dont l’objet est
l’étude descriptive et analytique, sur le terrain, des mœurs et des
coutumes de populations déterminées. En tant que sciences des
faits, la méthode ethnographique a été pratiquée dans les tra-
vaux portant par exemple sur les études des peuples africains.
La méthode permet de comprendre des phénomènes difficile-
ment quantifiables.

Contrairement aux socio-ethnographes qui partent du point


de vue fondamental que l’objet de la recherche ethnographique
c’est la société dans son ensemble, le management se limite à
des catégories d’individus dans la société. En marketing, cette
méthode a été d’un grand apport pour comprendre les com-
portements des consommateurs de plus en plus diffus et très
difficiles à maîtriser. Diffus à l’échelle internationale puisque
les cultures sont différentes ; mais aussi à l’échelle nationale,
voire régionale, parce que les traditions, us et coutumes dif-
fèrent. L’ethnographie permet de récolter des informations
dans un système complexe, pour comprendre la dynamique
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

autour des objets. Il s’agit de mieux comprendre les compor-


tements des individus, de manière qualitative pour ensuite
concevoir des stratégies adaptées dans les organisations où
existent des dynamiques de plus en plus complexes et spéci-
fiques.

L’objet de ce chapitre n’est pas d’analyser la théorie sur la mé-


thode ethnographique ou sur sa conception méthodologique,
mais de mettre l’accent d’abord sur la description de la méthode
puis sur sa pratique, son application.

1. LA MÉTHODE ETHNOGRAPHIQUE COMME OUTIL


DE COLLECTE DES DONNÉES DE TERRAIN
Dans cette section, nous allons décrire la méthode ethnogra-
phique et son introduction dans les sciences de management
puis nous procédons à une présentation des différents outils de
collecte de données utilisés dans le cadre de la recherche eth-
nographique.

142 1.1. Description de la méthode et son introduction en


sciences de management
Les premiers auteurs qui se sont intéressés à la méthode sont
des sociologues ethnographiques (Durkheim, 1912 ; Mauss,
1947 ; Griaule, 1957). Pour eux l’objectivité, la bonne foi, l’exac-
titude, la plénitude dans l’enregistrement et la description des
faits sont des conditions absolument indispensables pour la
recherche ethnographique. La recherche ethnographique ne
cherche pas seulement à décrire des faits, sinon elle ne serait
« qu’une pure passion de collectionner des faits disparates et
isolés » (Griaule, 1957, p. 593). Elle cherche à comprendre et ex-
pliquer les faits, phénomènes et comportements dans la société,
les organisations, le milieu des affaires ou du travail.

Depuis déjà plusieurs années en sciences de l’anthropologie


comme en sciences de management, les chercheurs ont utilisé
des méthodes telles que les groupes de discussion dans une
salle de réunion pour comprendre les comportements des indi-
vidus.
L a m é t h o d e e t h n o g ra p h i qu e

Encadré 1. Exemple de groupe de discussion


Le groupe de discussion est organisé dans une salle aménagée et
comprend entre 13 à 17 personnes. Les discussions de groupe portent
sur un thème et permettent de faire émerger les préjugés freinant le
changement d’attitudes. Le groupe est organisé autour d’un modéra-
teur-facilitateur de la discussion, de la résolution du conflit et/ou de
la prise de décision. Les interactions entre les membres du groupe
et les comportements de chacun sont généralement effectués par
un observateur muni ou non d’une grille d’observation (Evrard et al.,
2000, p.102).

Aujourd’hui, les comportements des individus dans une société


sont devenus plus complexes et les méthodes de groupe de dis-
cussion ne sont plus assez pertinentes pour analyser les phé-
nomènes. En effet, avec la méthode du groupe de discussion, le
chercheur se contentait plus d’interroger des individus dans des
locaux aménagés à cet effet. Le chercheur qui utilise la méthode
ethnographique ne peut plus se limiter à étudier des comporte-
ments dans les locaux, il se déplace sur le terrain dans le milieu
naturel des individus (personnes cibles) pour les regarder agir
et observer ainsi des comportements qu’il ne pouvait pas voir
dans les locaux aménagés. 143
Les comportements sont, dans ce cas, beaucoup plus naturels
et donc proches de la réalité. De plus, ces comportements per-
mettent de faire réagir l’ethnographe, de discuter et de rebondir
sur de nouvelles choses.

Encadré 2. Exemple d’étude ethnographique


Ici le fabricant d’une marque d’aspirateur veut comprendre l’usage
fait de son produit et les conditions d’utilisation avant sa mise en
marché. Le chercheur se rend chez un particulier qui fait partie de
sa cible. Il observe l’hygiène de la maison, le particulier faire son mé-
nage et observe notamment l’utilisation qui est faite de l’aspirateur.

Cette étape exploratoire est déterminante pour comprendre


des comportements. Ainsi, la compréhension des comporte-
ments des individus est donc devenue essentielle en amont de
la conception des produits. Les entreprises ne se placent donc
plus seulement du côté de l’offre, mais désormais du côté de la
demande.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

1.2. Les ethnoétudes pour recueillir des données


empiriques
Les recherches ethnographiques en sciences de management
portent sur des pratiques marchandes (vente, achat, consom-
mation) et non marchandes (travail, pratiques sociales et so-
ciétales) propres à chaque individu, communauté ou société. Il
existe différents outils pour réaliser ce type d’études, tous inté-
ressants et surtout complémentaires.

L’observation participante

Le chercheur est un « participant complet », lorsqu’il participe


comme acteur à la situation étudiée. Dans ce cas, le chercheur ne
notifie pas aux sujets observés son rôle de chercheur. L’objectif
de cette démarche est de partager l’expérience de l’individu en
action. L’observation est alors dissimulée.

Encadré 3. Exemple d’observation complète


Le chercheur qui veut comprendre le travail des mineurs intègre le
groupe de mineurs en tant que nouvelle recrue. Il observe comment
144
les mineurs travaillent tout en étant des leurs. Il dissimule son iden-
tité de chercheur, il est connu et accepté dans le groupe comme mi-
neur.

Cette technique de collecte de données rencontre quelques li-


mites. En adoptant une observation « dissimulée », le chercheur
peut difficilement approfondir ou recouper ses observations
par d’autres techniques comme l’entretien. Le chercheur court
également le risque rédhibitoire d’être découvert. Il doit utiliser
des méthodes d’enregistrement des données pour éviter toute
détection (Bouchard, 1976). La position du chercheur par rap-
port au terrain est rigide. La technique de collecte pose des pro-
blèmes éthiques (Punch, 1986). Le chercheur ne peut s’appuyer
sur le simple argument de la collecte de « données réelles »
(Lincoln & Guba, 1985).

Le chercheur peut être un « participant observateur ». Dans ce


cas, le chercheur notifie clairement aux sujets à interroger son
statut de chercheur et son appartenance à l’organisation. Il dé-
clare son rôle de chercheur et observateur. Lorsque le chercheur
L a m é t h o d e e t h n o g ra p h i qu e

opte pour ce type de collecte de données, sa position présente


un compromis. Le chercheur dispose d’un plus grand degré de
liberté pour mener ses investigations. Contrairement à l’obser-
vation « dissimulée », il peut compléter ses observations par des
entretiens. Il s’expose néanmoins à la réactivité des sujets, car
il est mandaté au sein de l’organisation. Il n’est pas dans une
position neutre vis-à-vis des sujets et ces derniers peuvent acti-
ver des mécanismes de défense à l’égard de l’investigation ou de
résistances à la divulgation de certaines informations.

Encadré 4. Exemple d’observation « déclarée » 


Un salarié d’une organisation qui décide de s’engager dans un travail
de recherche. Son statut de membre de l’organisation prédomine sur
son rôle de chercheur. Le conflit de rôles qui en découle peut rendre
difficile le maintien de sa posture de chercheur sur le terrain.

Dans le cas où le chercheur est un « observateur qui participe ». Sa


participation à la vie de l’organisation étudiée reste marginale et
son rôle de chercheur est clairement défini auprès des sujets. Le
chercheur risque alors de rencontrer des résistances chez les
acteurs observés au début de sa recherche. Toutefois, ces ré- 145
sistances peuvent se réduire avec le temps et le chercheur peut
être en mesure d’accroître sa capacité d’observation. C’est le
comportement du chercheur qui sera ici déterminant. Pour peu
qu’il réussisse à créer une relation de confiance avec les sujets,
il dispose d’une plus grande latitude pour compléter l’observa-
tion par des entretiens et pour maîtriser ses sources de don-
nées. L’élément clé ici réside dans le maintien d’une neutralité à
l’égard des sujets.

Encadré 5. Exemple d’observation participante


Le chercheur est d’abord acteur dans l’institution où il exerce une
fonction. Ensuite, il doit étudier une situation dans laquelle il parti-
cipe. En effet, il part d’un rôle statutaire et permanent d’acteur et il lui
faut accéder au rôle de chercheur.

L’intérêt de l’observation participante est, selon Bryman (1989,


p. 142), plus de comprendre (ce qui suppose une empathie avec
une capacité de voir les choses du dedans) que de simplement
expliquer (ce qui renvoie à une analyse causale en extériorité) les
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

comportements subtils des acteurs, au sein d’organisations ou


de situations complexes.

Il faudra avec cette technique de collecte de données, veiller à ce


que l’implication ne l’emporte pas sur la distanciation qui définit
la posture même du chercheur (Lapassade, 1996, p. 53).

L’observation non participante

Elle est une étape élémentaire de l’approche terrain, elle est des-
tinée à collecter des données préliminaires sur le terrain (Evrard
et al., 2000). Elle peut être également comme une source de col-
lecte de données complémentaires (Yin, 1990).

Encadré 6. Exemple d’observation non


systématique
Lors des visites sur le terrain pour y conduire des entretiens, le cher-
cheur peut observer des indicateurs (le climat social de l’organisa-
tion, l’appauvrissement de l’organisation, les pratiques courantes,
etc.), qu’il va inclure dans sa base de données. Il pourra y ajouter des
indicateurs non verbaux émis par les sujets lors de la conduite d’en-
tretiens (gestes, relations interpersonnelles, ton, regards, etc.).
146

Dans l’observation systématique, le chercheur mène des ob-


servations en adoptant tout au long du recueil de données, un
même dispositif de collecte et d’analyse. Les éléments observés
doivent être définis au préalable. Ce mode de collecte impose de
développer et de valider un cadre standard d’observations avant
de recueillir les données qui vont servir de base empirique à la
recherche (Bouchard, 1976).

Encadré 7. Exemple d’observation systématique


Le chercheur doit définir un cadre d’observation systématique qui
repose sur trois critères déterminants : d’abord, les catégories rete-
nues doivent respecter des règles d’attribution exclusive, d’exhaus-
tivité, d’homogénéité et de pertinence. Ensuite, le chercheur doit re-
tenir des unités de découpage et d’enregistrement. Il doit également
établir un plan d’échantillonnage et enfin définir un plan d’analyse
des données.
L a m é t h o d e e t h n o g ra p h i qu e

La tenue de journaux de bord

Le journal de bord permet de constituer la mémoire vive de


l’étude de terrain et de retrouver lors de l’analyse des données,
l’atmosphère du site et de l’évènement. Le journal de bord per-
met de mémoriser tout ce qu’on observe sur le terrain.

Exemple d’éléments indispensables pour la tenue d’un journal


de bord : lorsque le chercheur est l’enquêteur, il doit se munir
d’un carnet pour une prise de notes sur les faits observés. Il doit
prendre de nombreuses notes lors des séquences d’observa-
tion. L’utilisation d’un carnet de notes classique est conseillée. Il
permettra de réaliser des croquis, de décrire certaines choses,
de réaliser des préanalyses, des renvois théoriques et surtout de
laisser une trace des réactions lors des premiers contacts.

L’introspection

Dans l’objectif de recueillir des « verbatim » pour compléter


la compréhension du phénomène, le chercheur ne se satisfait
pas de sa seule interprétation du comportement constaté, il
convoque l’intéressé pour lui faire raconter son interprétation de 147
son comportement observé. Cela pour limiter le risque de surin-
terprétation des données. On peut notamment avoir recours aux
récits de magasinage ou de consommation introspective. Ces
récits permettront de connaître l’état intime et les sentiments
profonds du consommateur durant l’expérience.

Encadré 8. Exemple d’introspection 


Le chercheur peut s’inscrire sur un forum ou aller sur des blogues
sur internet pour regarder ce qui est raconté. Ces forums et blogues
sont devenus des sources d’informations pour compléter les obser-
vations participantes ou non participantes. Leur accès facile fait
qu’ils sont très utilisés par les internautes.

La prise de photographies ou vidéos

La photographie est aussi un excellent moyen de capture d’in-


formation et permet d’avoir un visuel toujours accessible après
l’étude de terrain. À la fois pour réaliser l’analyse d’une manière
précise au calme après l’observation. Il permet aussi de décou-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

vrir éventuellement des détails qui auraient pu échapper au pre-


mier coup d’œil au chercheur. On l’utilise généralement pour
décrire des points de vente, du personnel, des clients et des
consommateurs (habillement, postures, comportements, équi-
pements, ustensiles, etc.).

Les photos ou vidéos ne peuvent être la seule base d’une in-


terprétation approfondie, elles doivent être accompagnées de
notes. Il faudra aussi veiller à ne pas privilégier la dimension es-
thétique à la seule observation en produisant, par là même, des
effets de biais.

Encadré 9. Exemple de cas de prise de


photographie accompagnée de notes
Un chercheur qui fait une étude sur l’histoire des supports de stoc-
kage des informations. Il part des supports traditionnels : tableau
blanc (ou noir), les blocs-notes, les autocollants (avec des photos
à l’appui) et les comparent aux supports modernes de stockage
de données avec l’arrivée d’internet : courriels, Facebook, Twitter,
Dropbox, etc.

148 Encadré 10. Exemple


Le chercheur utilise une caméra pour filmer les pratiques, gestes et
comportements avec un crayon à la main et pour observer les gestes,
la façon dont les gens utilisent les technologies de l’information et
des communications (TIC), dont ils cuisinent, dont ils font le mé-
nage, dont il se comporte sur le lieu de travail, dans un magasin… La
caméra sert à archiver toute la panoplie culturelle des gens chez eux
ou dans leurs milieux naturels (d’achat, travail, consommation, etc.).

Ici on recherche chez le chercheur, l’adaptabilité, les qualités


d’écoute, de curiosité, de réactivité et le bon sens. On lui de-
mande de faire à la fois le terrain et de rédiger des mini rapports.
Le chercheur doit être très rapide dans la réflexion et ses ac-
tions. Il doit avoir une ouverture d’esprit, une écoute. Au jour le
jour, le chercheur doit avoir beaucoup d’intuition, de créativité,
de réactivité.

La photographie et la vidéo comme matériel de recherche sont


désormais très prisées par les ethnographes, car accompagnées
de notes, elles permettent de fournir des informations immé-
diates et disponibles via internet aux entreprises. Cette méthode
L a m é t h o d e e t h n o g ra p h i qu e

comporte deux objectifs précis qui sont le gain de temps (il n’est
plus nécessaire d’attendre le retour de l’ethnographe pour avoir
les informations) et la possibilité pour l’entreprise d’être inte-
ractive avec le chercheur ethnographe et donc de modifier à son
souhait son discours initial, si nécessaire.

2. L’APPLICATION ET LA DÉMARCHE DE LA
MÉTHODE ETHNOGRAPHIQUE
Dans cette section nous allons commencer par présenter les ap-
titudes du chercheur et la démarche à suivre avant de souligner
la pertinence de la méthode en management et ses implications
managériales.

2.1. Les aptitudes du chercheur-ethnographe et la


démarche à suivre
Le chercheur ethnographe doit cultiver un certain nombre d’apti-
tudes qui lui permet de collecter des données riches et les meil-
leures sur le terrain. C’est pour cette raison que Woods (1990)
affirme que le chercheur ethnographe a plusieurs points com- 149
muns avec le romancier, l’historien social, le journaliste et le pro-
ducteur d’émissions de télévision. Selon Woods, le chercheur
ethnographe doit être habile dans « l’acuité de ses observations,
la finesse de son écoute, sa sensibilité émotionnelle, sa capacité
de pénétration des niveaux de réalité, son pouvoir d’expression,
son habilité à recréer des scènes et des formes culturelles et à
leur « donner vie » et finalement, à raconter une histoire avec une
structure sous-jacente ». Pour lui, il ne s’agit pas de lui deman-
der d’écrire des œuvres de fictions « mais de représenter des
formes culturelles comme les vivent les protagonistes ».

Le travail du chercheur-ethnographe implique de l’empathie,


une capacité de « compréhension ». Il lui faut avoir des capaci-
tés surtout artistiques (Woods, 1990). Le chercheur doit être une
partie intégrante de toute recherche ethnographique. Comme le
soulignent Arnould et Wallendorf (1994, p. 485), « la recherche
ethnographique implique la participation expérientielle étendue
de la part du chercheur dans un contexte culturel spécifique ».
Le chercheur a pour objectif de comprendre ce qu’il étudie en
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

s’y investissant personnellement. Lorsque le chercheur a identi-


fié le groupe social, la sous-culture ou le territoire qu’il souhaite
étudier, il se prépare à s’immerger, de façon plus ou moins pro-
fonde, dans le quotidien des individus qui y vivent, tel un plon-
geur s’apprêtant à découvrir des fonds marins.

Encadré 11. Exemple


La métaphore chercheur-ethnographe et le plongeur sous-marin :
L’immersion de l’ethnographe dans un phénomène qui lui est incon-
nu peut être comparée à un plongeur se préparant à découvrir de
nouveaux trésors dans le fond des océans. À l’image du plongeur qui
vérifie les coordonnées de sa zone de plongée sur une carte, l’eth-
nographe délimite son champ d’études. Quand le plongeur contrôle
ses bouteilles, vérifie son masque et son altimètre, l’ethnographe
examine son matériel de recherche (carnet de note, appareil photo,
dictaphone, stylos ou crayon), planifie et choisit ses outils de col-
lecte de données (observation participante, l’écriture de journaux de
bord, l’introspection, le photographie avec prise de notes). La phase
de préparation terminée le plongeur et ethnographe peuvent prendre
part à l’exercice qui leur incombe, soit s’immerger dans un environ-
nement presque inconnu afin de saisir ce qui en est le cœur et l’es-
sence (Arnould & Wallendorf, 1994).

150 Le chercheur doit développer une intimité avec les acteurs ou


sujets du terrain. Son implication personnelle et affective est
une condition nécessaire à toute recherche interprétative, la
neutralité vis-à-vis du phénomène devient dénuée de sens.
Cependant, le chercheur doit être conscient et prêt à gérer les
risques qu’engendre cet investissement affectif. Mitchell (1993,
cité par Thiétart, 1999, p. 250) expose le « paradoxe de l’intimité ».
L’intimité développée par le chercheur avec les acteurs lui ouvre
les portes d’informations jusqu’ici inaccessibles. En revanche,
cette intimité peut engendrer une prise de position du chercheur
vis-à-vis des interviewés qui le limitera dans sa prise de recul et
sa vision critique. Ce paradoxe de l’intimité est fonction de deux
dimensions : la connaissance du terrain et l’implication affective
du chercheur. De ces deux dimensions découle une typologie du
rôle du chercheur au sein de son étude (Figure 1).

Les questions relatives à la compréhension de pratiques et com-


portements des individus sont souvent traitées en utilisant la
méthode d’investigation comme technique de collecte de don-
nées. Toutes les disciplines en management qui ont pour objec-
L a m é t h o d e e t h n o g ra p h i qu e

tifs de comprendre des faits dans un terrain peu exploré peuvent


utiliser la méthode ethnographique. Les études culturelles l’ont
utilisé dans les recherches systématiques et approfondies eth-
nographiques de groupements juvéniles en Grande-Bretagne
(Blackman, 2005). Les travaux en psychosociologie ont utilisé
la méthode ethnographique pour analyser les relations conflic-
tuelles entre parents et enfants (Dion & Sitz, 2013). Lors de son
expansion et de son développement, le marketing s’est réguliè-
rement tourné vers les méthodes et les théories des sciences so-
ciales afin de comprendre et d’expliquer davantage les compor-
tements de consommation des individus. Afin de rendre compte
de ces pratiques de plus en plus diffuses et complexes (Dion,
2008), les chercheurs en marketing considèrent la méthode eth-
nographique comme une perspective méthodologique perti-
nente permettant de comprendre de façon fine les dynamiques
consommatoires actuelles.

Figure 1. Perception du chercheur en fonction de


son implication affective et de sa connaissance du
terrain

151

Source : inspirée de Mitchell (1993, cité par Thiétart, 1999, p. 250)


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

2.2. La pertinence de la méthode en management et les


implications managériales
L’adaptation de la méthode ethnographique à des probléma-
tiques marketing s’est faite de multiples façons à partir de
phénomènes tels que l’étude de communautés de consomma-
tion (Schouten & McAlexander, 1995 ; Bernard, 2004 ; Didry &
Giannelloni, 2015), des dimensions ethniques de la consomma-
tion (Peñaloza, 1994), des comportements en points de vente
(Badot et al., 2009 ; Peñaloza, 1999) ou des dynamiques consom-
matoires juvéniles (Ezan, 2009 ; Kjelgaard & Askegaard, 2006 ;
Ritson & Elliot, 1999).

Ces diverses applications illustrent le recours croissant aux ap-


proches ethnographiques, dont la « Consumer Behavior Odyssey »
de Belk, Wallendorf et Sherry (Belk, 1987 ; Belk et al., 1989) montre
que depuis plus d’une dizaine d’années, les travaux de recherche
sur le comportement de consommation portent un regard ethno-
graphique et socioculturel sur la consommation contemporaine
et partageant la même volonté de mettre à jour les « aspects
socioculturels, expérientiels, symboliques et idéologiques de
152 la consommation » (Arnould & Thompson, 2005, p. 868) se re-
groupent au sein du courant de recherche de la « Consumer
Culture Theory » (Arnould & Thompson, 2005).

En marketing, les observations des pratiques se font générale-


ment sur les lieux d’achats ou au domicile. Elles sont complétées
par des entretiens approfondis avec chaque personne. Les pra-
tiques sont parfois filmées.

Le travail du chercheur ethnographe de terrain implique fonda-


mentalement les aptitudes et qualités du chercheur et les ob-
servations prolongées faites sur le terrain en participant à la
vie des gens. L’entretien ethnographique ne se conçoit pas en
général sans dispositif d’observation participante et d’analyse
du matériel officiel et personnel (journaux personnels, lettres,
autobiographies et récits de vie produits conjointement par le
chercheur et le sujet), qui sont indispensables pour les straté-
gies à mettre en place dans l’organisation. Les résultats obte-
nus sur le terrain permettent d’orienter la stratégie marketing.
Quel marketing relationnel développer ? Dans un contexte d’hy-
per concurrence et de volatilité des consommateurs, la mise en
L a m é t h o d e e t h n o g ra p h i qu e

place d’une stratégie de marketing relationnel est indispensable


pour augmenter la satisfaction de sa clientèle et la fidélisation
durable (Woodruff, 1997).

L’utilisation de la méthode ethnographique dans les recherches


en DBA permet de renforcer la contribution managériale du ma-
nager-chercheur.

CONCLUSION
Les thèses de DBA doivent avoir un fort ancrage terrain. Une
recherche interprétative et qualitative basée sur la méthode eth-
nographique permet de répondre à l’exigence d’une contribution
managériale en Executive DBA. Le positionnement interpréta-
tif permet au manager-chercheur de comprendre les pratiques
d’individus dans une organisation ou dans une communauté
donnée. La perspective interprétative invite le chercheur « à voir
à travers les yeux de l’observé », il doit se rapprocher au plus
près de sa cible. L’immersion dans le monde des sujets étudiés
devient une condition nécessaire pour le manager-chercheur.
Durant la période d’interactions sociales intenses entre le cher-
cheur et les sujets dans le milieu de ces derniers naîtront des 153
résultats à fortes implications managériales. L’intérêt de la mé-
thode est que le manager-chercheur et le sujet qui fait l’objet de
l’étude sont impliqués dans la collecte de données. Cette col-
lecte de données peut être réalisée en mode synchrone ou asyn-
chrone.

Une thèse de DBA doit créer de la connaissance. Elle doit ap-


porter impérativement une connaissance nouvelle qui sera sa
caractéristique, sa contribution. Cette création de la connais-
sance peut porter sur les concepts, les méthodologies et le
champ d’application (Kalika, 2017, p.48). La méthode ethnogra-
phique est une méthode très originale qui permet de produire de
la connaissance. En effet, lorsque la méthode est appliquée sur
un domaine original elle crée de la connaissance. La méthode
ethnographique permet de réussir l’approche terrain en permet-
tant au manager-chercheur de s’immerger dans le terrain pour
en ressortir avec des résultats originaux, pertinents et utiles
pour les managers. Pour cette raison, le manager-chercheur
doit maîtriser les outils et méthodes ethnographiques afin de
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

se distinguer d’autres types de recherche par la richesse de la


confrontation entre les connaissances nourries de réalités de
terrain et celles qu’il peut obtenir de terrains fictifs.

Références citées
Arnould, E. & Thompson, C.J. (2005), Consumer Culture Theory
(CCT): Twenty years of research, Journal of Consumer Research,
vol. 31, n° 4, p. 868-882.
Arnould, E. & Wallendorf, M. (1994), Market-oriented ethnography:
Interpretation building and marketing strategy formulation,
Journal of Marketing Research, vol. 31, p. 484-504.
Badot, O., Carrier, C., Cova, B., Desjeux, D. & Filser, M. (2009),
L’ethnomarketing : un élargissement de la recherche en
comportement du consommateur à l’ethnologie, Recherche et
Applications en Marketing, vol. 24, n° 1, p. 93-111.
Belk, R. W. (1987), The role of the odyssey in consumer behavior and
in consumer research, Advances in Consumer Research, vol. 14,
p. 357-361.
Belk, R.W., Wallendorf, M. & Sherry, F. Jr (1989), The sacred and the
profane in consumer behavior: Theodicy on the Odyssey, Journal
of Consumer Research, vol. 16, p. 1-38.
154 Bernard, Y. (2004), La netnographie : une nouvelle méthode
d’enquête qualitative basée sur les communautés virtuelles de
consommation, Décisions Marketing, vol. 36, p. 49-62.
Blackman, S. (2005), Youth subcultural theory: A critical engagement
worth the concept, its origins and politics, from Chicago School
to postmodernism, Journal of Youth Studies, vol. 8, n° 1, p. 1-20.
Bouchard, T.J. (1976), Field research methods: Interviewing,
questionnaires, participant observation, systematic observation,
unobtrusive measure, in Dunette M.D. (ed.), Handbook of Industrial
and Organisational Psychology, Chicago, Rand McNally college
Publishing Co, p. 363-413.
Bryman, A. (1989), Quantity and Quality in Social Research, London,
Unwin Hyman.
Didry, N. & Giannelloni, J.-L. (2015), 14es Journées Normandes de
Recherches sur la Consommation : Société et Consommation, 26-27
novembre, Angers.
Dion, D. (2008), À la recherche du consommateur : nouvelles techniques
pour mieux comprendre le client, Paris, Dunod.
Dion, D. & Sitz, L. (2013), Enrichir la compréhension des
comportements des consommateurs : pistes opérationnelles et
enjeux organisationnels, Décisions Marketing, vol. 71, p. 45-58.
L a m é t h o d e e t h n o g ra p h i qu e

Durkheim, E. (1912/1984), Les formes élémentaires de la vie religieuse,


Paris, Presses Universitaires de France.
Evrard, Y., Pras, B. & Roux, E. (2000), Market : Études et recherche en
marketing, Paris, Dunod.
Ezan, P. (2009), De l’intérêt de la méthode ethnographique pour
comprendre les pratiques de consommation des enfants,
Recherche et Applications en Marketing, vol. 24, n° 4, p. 77-95.
Griaule, M. (1957), Méthode de l’ethnographie, Paris, Presses
Universitaires de France.
Kalika, M. (2017), Comment réussir son DBA ?, Caen, Éditions EMS,
coll. « Business Science Institute ».
Kjelgaard, D. & Askegaard, S. (2006), The glocalization of youth
culture: The global youth segment as structures of common
difference, Journal of Consumer Research, vol. 33, p. 231-247.
Lapassade, G. (1996), Les microsociologies, Paris, Anthropos.
Lincoln, Y.S. & Guba, E.G. (1985), Naturalistic Inquiry, Beverly Hills,
CA, Sage.
Mauss, M. (1947), Manuel d’ethnographie, Paris, Payot.
Popper, K. (1963), Conjectures and Refutations: The Growth of Scientific
Knowledge, édition française Payot, 2006.
Peñaloza, L. (1994), Border crossings: A critical ethnographic
exploration of the consumer acculturation of Mexican 155
immigrants, Journal of Consumer Research, vol. 21 (June), p. 32-54.
Peñaloza, L. (1999), Just doing it: A visual ethnographic study of
spectacular consumption behavior at Nike Town, Consumption
Markets & Culture, vol. 2, n° 4, p. 337-400
Punch, M. (1986), The Politics and Ethics of Fieldwork, Beverly Hills,
CA, Sage.
Ritson, M. & Elliot, R. (1999), The social uses of advertising: An
ethnographic study of adolescent advertising audiences, Journal
of Consumer Research, vol. 26, p. 260-277.
Schouten, J. W. & McAlexander, J. H. (1995), Subcultures of
consumption: An ethnography of the new bikers, Journal of
Consumer Research, vol. 22, p. 43-61.
Thiétart, R.A. (1999), Méthodes de recherche en management, Paris,
Dunod.
Woodruff, R.B. (1997), Customer value: the next source for
competitive advantage, Journal of Academy of Marketing Science,
p. 25-139.
Woods, P. (1990), L’ethnographie de l’école, Paris, Armand Colin.
Yin, R. K. (1990), Case Study Research, Design and Methods, Newbury
Park, CA, Sage.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Références pour en savoir plus

Pour en savoir plus sur la méthode ethnographique vous pouvez


consulter les références relatives aux évolutions postmodernes
du consommateur ou la revue canadienne Approches Inductives. La
méthode ethnographique conduit les chercheurs en Marketing à
donner une priorité à la compréhension des changements so-
ciaux et culturels et à s’inscrire dans de nouvelles propositions
et de nouvelles pratiques. Ainsi pour répondre à des problèmes
sociaux, culturels, le courant dit Consumer Culture Theory (CCT)
s’est développé.
Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Caen,
Éditions EMS, coll. « Business Science Institute ».
Les auteurs de l’ouvrage présentent les différents éléments d’un
projet de thèse de DBA. Cet ouvrage permet de comprendre les
préalables pour le choix d’une méthodologie en rapport avec le
sujet choisi, la problématique, les questions et les objectifs de
recherche.

Caru, A. & Cova, B. (2003), Approche empirique de l’immersion dans


156 l’expérience de consommation : les opérations d’appropriation,
Recherche et Applications en Marketing, vol. 18, n° 2, p. 47-65.
Dans l’article les auteurs essaient de comprendre le comporte-
ment du consommateur à travers son immersion dans des ex-
périences de consommation. Ils s’appuient sur l’appropriation
développée par le consommateur pour accéder à l’immersion.

Desjeux, D. (1997), L’ethnomarketing, un nouveau souffle pour


les études de comportements des consommateurs, Sciences
Humaines, vol. 1, p. 28-39.
L’auteur montre l’importance de l’immersion sur un terrain qui
permet de dépasser un certain nombre d’écueils méthodolo-
giques liés aux capacités cognitives du consommateur.

Diallo, M.F. & Kaswengi, J. (eds.) (2018), In Times of Crisis : Perspectives


and Challenges of the 21st Century, New York, Nova Book Publishers.
Dans l’ouvrage un chapitre traite de l’ethnographie comme une
méthode de collecte de données pour comprendre une situation
de crise. Le XXIe siècle est caractérisé pour ces situations très
complexes.
L a m é t h o d e e t h n o g ra p h i qu e

La revue Approches Inductives dirigée par Jason Luckerhoff, François


Guillemette et François Labelle de l’Université du Québec à
Trois-Rivières (UQTR) au Canada.
Cette revue développe les nouvelles méthodes de recherche
qualitatives dans le but de construire de nouvelles connais-
sances et des théories émergentes.

157
CHAPITRE 9.
Les récits de vie

Julia Vincent-Ponroy et Françoise Chevalier

Résumé

Parmi les multiples significations qui se cachent derrière l’ex-


pression « récit de vie », figure une méthode de recherche en
sciences humaines : l’approche biographique. Ce chapitre a
pour vocation d’offrir aux doctorants de DBA une vision d’en-
semble de ce que sont les récits de vie en tant que méthode, 158
en les resituant dans leur contexte historique et en présentant
les enjeux et questionnements épistémologiques auxquels ils
sont associés. Ce chapitre pose également les grands prin-
cipes pouvant aider les chercheurs dans l’utilisation de cette
méthode, en pointant du doigt les objets de recherche pouvant
être étudiés grâce à l’approche biographique et en offrant des
conseils pratiques quant à la conduite de ce type d’enquête.

Mots-clés : récit de vie, histoire de vie, approche biogra-


phique, méthodes qualitatives, perspective ethnosociolo-
gique, narration.

Les méthodes de recherche du DBA


Les récits de vie

« Dire l’identité d’un individu ou d’une communauté, c’est répondre


à la question : qui a fait telle action ? Qui en est l’agent, l’auteur ?
[…] Répondre à la question “qui ?”, comme l’avait fortement dit
Hannah Arendt, c’est raconter l’histoire d’une vie. »
Paul Ricœur (1983, p. 441)

INTRODUCTION
Le récit de vie peut être oral ou écrit, formel ou informel, être le
lieu d’une quête de soi ou d’une interaction sociale : il est protéi-
forme. Mais alors, que peut-il y avoir de commun entre les récits
de vie que sont une autobiographie ou un entretien accordé à
un chercheur en sciences humaines ? Le socle commun à ces
pratiques est la narration, par un sujet, de tout ou partie de son
histoire personnelle. C’est au récit de vie en tant que méthode de
recherche en sciences humaines, utile pour une thèse de DBA,
que ce chapitre est dédié.

Ce chapitre est divisé en deux parties. La première partie offre


une vision d’ensemble du récit de vie : d’abord replacés dans leur
contexte historique, les récits de vie sont ensuite définis plus pré-
cisément. Un aperçu des enjeux épistémologiques et des ques- 159
tionnements soulevés par les récits de vie en tant que méthode
de recherche est proposé. Cette partie se referme sur une ré-
flexion concernant le positionnement du chercheur en sciences
humaines lorsqu’il utilise cette méthode. La seconde partie, plus
pratique, pointe du doigt le type de phénomènes pouvant être ex-
plorés à partir de la méthode des récits de vie avant de donner des
éléments de base pour conduire et analyser des récits de vie.

1. LE RÉCIT DE VIE EN SCIENCES HUMAINES :


DE QUOI PARLE-T-ON ?

1.1. Le récit de vie en sciences humaines : contextualisation


Dans un ouvrage dédié aux histoires de vie1, Pineau et Legrand
(2013) dressent la liste des différentes catégories dans les-

1. Bien que des nuances puissent être apportées entre ces expressions, dans un
souci de simplicité nous utiliserons indifféremment dans ce chapitre les expres-
sions « récit de vie », « histoire de vie » ou « approche biographique ».
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

quelles les histoires de vie – qu’ils définissent comme la « re-


cherche et construction de sens à partir de faits temporels per-
sonnels » (p.5) – peuvent s’inscrire.

L’origine des récits de vie, sous leur forme écrite, ce sont les bios
grecques qui, à partir du IVe siècle, sont utilisées par les phi-
losophes socratiques comme moyen d’accéder à la connais-
sance de soi, c’est la célèbre maïeutique socratique (Pineau &
Legrand, 2013 ; Momigliano, 1991, p. 125). Le récit de soi prend
ensuite des formes littéraires : celle de mémoires – où il s’agit
pour les auteurs de raconter leur vie publique en insistant sur
le contexte historique – ou celle de confessions, suivant la lo-
gique chrétienne de l’aveu, comme celles de Saint Augustin au
IVe siècle, ou encore celle de la chanson de geste au Moyen Âge.
Mais l’apogée littéraire du récit de soi se produit au XVIIIe siècle :
la publication, par Jean-Jacques Rousseau de ses Confessions
(1782) marque l’avènement de l’autobiographie comme genre
littéraire, qui reste, jusqu’à aujourd’hui, très répandu dans les
cultures occidentales.

L’usage du récit de vie en sciences sociales est en revanche


160 beaucoup plus récent. Un des travaux fondateurs dans l’utilisa-
tion des récits de vie comme méthode de recherches en sciences
humaines – considéré également comme un des ouvrages fon-
dateurs de l’École de Chicago – est Le paysan polonais (Thomas
& Znaniecki, 1919/1998), une étude en cinq tomes sur les im-
migrants polonais dont le tome trois est une autobiographie
commentée de l’immigrant polonais Wladeck Wisniewski. De
cette enquête autobiographique au cœur du terrain, Thomas et
Znaniecki tirent une sociologie à l’époque novatrice, fondée sur
la méthode biographique (récits de vie) afin de comprendre les
communautés (ici, d’immigrants polonais). Mais l’engouement
pour les approches biographiques en sciences humaines trouve
rapidement ses limites.

En effet, dès les années 1940, on observe une montée en puis-


sance des approches quantitatives, avec pour méthode de prédi-
lection l’enquête par questionnaire sur échantillon représentatif.
Les faits sociaux se trouvent alors quantifiés et l’histoire indi-
viduelle perd de son intérêt scientifique aux yeux de nombreux
chercheurs. À cela s’ajoute, dans les années 1950-1960, le suc-
Les récits de vie

cès des approches structuralistes, qui contribuent également à


maintenir les récits de vie dans un oubli quasi complet : dans ces
approches – qui touchent de nombreuses disciplines allant de la
sociologie (Pierre Bourdieu) à la philosophie (Michel Foucault)
en passant par l’anthropologie (Claude Lévi-Strauss) et la psy-
chanalyse (Jacques Lacan) – l’individu tend à être absorbé au
profit de la structure, ce qui explique que les récits de vie ne
soient plus alors considérés comme une méthode de recherche
adaptée. Il faudra attendre les années 1970 pour observer un re-
gain d’intérêt pour les récits de vie en sciences sociales : l’indi-
vidu est remis à l’honneur et non plus considéré comme « unité
statistique » (Passeron, 1989, p. 6). En France, Daniel Bertaux a
largement contribué à revaloriser la méthode biographique en
sociologie, en posant les principes de l’enquête telle qu’elle doit
être conduite à savoir…

« … résolument orientée vers les réalités pratiques et maté-


rielles, politiques et sociales […]. Son but premier […] est
d’étudier un morceau ou segment particulier d’une réalité so-
ciale-historique, une pièce de la gigantesque mosaïque so-
ciétale, un objet social […]. Dans cette perspective, le recours
aux récits de vie s’avère remarquablement performant » 161
(Bertaux, 2010, p. 11-12).

Mais qu’est-ce exactement que les récits de vie comme méthode


de recherche en sciences humaines ?

1.2. Le récit de vie comme méthode de recherche


en sciences humaines : définition, épistémologie et
questionnements
Conçu comme un idéal, le récit de vie complet serait celui de
« la totalité de l’histoire d’une personne. Il commencerait par la
naissance, voire par l’histoire des parents […]. Il couvrirait toute
l’histoire de la vie du sujet. Pour chaque période de cette his-
toire, le récit décrirait non seulement la vie intérieure du sujet
et de ses actions, mais aussi les contextes interpersonnels et
sociaux qu’il/elle a traversés » (Bertaux, 2010, p. 35).

Il va de soi qu’ainsi défini, le récit de vie est complexe à mettre


en œuvre dans une optique de production de savoir scientifique.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Le chercheur doit donc souscrire à une définition plus souple


du récit de vie : « Il y a du récit de vie dès lors qu’un sujet raconte
à quelqu’un d’autre, chercheur ou pas, un épisode quelconque
de son expérience vécue. Le verbe “raconter” (faire le récit de)
est ici essentiel : il signifie que la production discursive du sujet
a pris la forme narrative » (Bertaux, 2010, p. 35). Pour Wacheux
(1996, p. 162), la méthode biographique peut se définir comme :
« Une analyse d’un récit par un acteur sur des événements qu’il a
vécus. Le discours est provoqué par le chercheur. L’acteur reste
libre de la formulation des faits et des interprétations qu’il en
donne ».

Le récit de vie comme méthode est donc une approche bio-


graphique visant à appréhender les phénomènes à l’étude via la
narration que le sujet fait de son expérience vécue. Le récit de vie
s’inscrit dans une démarche inductive. Il s’agit de produire une
description fine et approfondie d’un phénomène, d’un parcours,
d’une situation, à partir du récit qu’un « sujet » fait de sa vie ou
d’une période donnée de sa vie.

Aussi la méthode des récits de vie s’inscrit-elle dans la mou-


162 vance de la sociologie compréhensive de Dilthey, où le chercheur
cherche à appréhender les phénomènes, à les comprendre, en
s’appuyant sur la façon dont les acteurs en parlent, à partir de
la signification qu’ils donnent à leurs actes – et donc, à la façon
dont ils en font le récit. À partir des récits qu’il recueille et ana-
lyse, le chercheur va pouvoir construire de nouvelles hypothèses
quant à des objets d’études jusque-là peu explorés (Chevalier,
2017). C’est ainsi que la portée des résultats obtenus à partir
de l’étude des récits de vie dépasse le cas de l’individu qui
se raconte : c’est par le singulier que le chercheur peut accéder
au général. Encore faut-il que le chercheur soit conscient des
écueils ou limites de la méthode des récits de vie.

Les récits de vie sont la vie racontée, pas la vie « réelle ». Le récit
vient en quelque sorte faire écran entre le chercheur et la réalité,
et ce, à plusieurs égards. D’abord le récit ordonne : il ordonne
chronologiquement, il présente l’expérience d’une certaine fa-
çon et ce faisant il la structure, il la lisse, la rend cohérente. C’est
ce phénomène que Bourdieu qualifie d’« illusion biographique »
(Bourdieu, 1986). De plus, tout récit est sélection, remaniement
Les récits de vie

de sa propre temporalité, « mise en intrigue » (Ricoeur, 1983) :


le sujet sélectionne les événements qu’il va mettre en lumière
et décide de la place qu’il va leur accorder. Cette sélection peut
conduire à des omissions ou à des déformations qui peuvent
être involontaires, découlant par exemple de défaillances de la
mémoire : des épisodes sont passés sous silence, ou alors la fic-
tion vient se loger dans les creux, comme pour combler les zones
où le souvenir est flou. Mais la sélection peut aussi conduire à
des omissions conscientes et volontaires. Dans la mesure où le
sujet consent à participer à l’enquête, il est présumé de bonne
foi, ce qui a priori limite le risque de récits inventés, ou tronqués,
qui pourraient nuire à l’étude. En revanche, le sujet peut tout à
fait considérer que tel épisode n’a pas d’intérêt dans le cadre de
l’étude puisque, dans le contexte de la recherche en sciences hu-
maines, le récit de vie ne consiste pas dans la narration exhaus-
tive d’une vie de la naissance à la mort (le récit de vie « total »)
mais dans le récit des moments de vie choisis, par le sujet, pour
leur lien avec le thème de l’étude tel qu’il a été présenté par le
chercheur. Ceci nous amène à nous intéresser à la position par-
ticulière du chercheur qui adopte une approche biographique.

163
1.3. La position du chercheur utilisant le récit de vie
comme méthode
Le chercheur, en présentant au sujet sa thématique de recherche,
« précentre » l’entretien (Bertaux, 2010, p. 38) : la présentation agit
ici comme un filtre, et l’acceptation, par le sujet, de participer
à l’étude dans les conditions proposées par le chercheur. Dans
la relation chercheur / sujet, le premier est à l’origine de la rela-
tion, il l’oriente en fonction de ses intérêts de recherche, tandis
que le second apporte le contenu. Dans la mesure où ce que le
sujet raconte, c’est son expérience vécue – expérience à laquelle
le chercheur est initialement étranger – le chercheur peut avoir
du mal à « entrer » dans le récit. À l’inverse, dans la mesure où
les entretiens sont souvent longs et répétés, et où leur contenu
est souvent de l’ordre de l’intime, le chercheur peut risquer de
perdre la distance nécessaire à l’analyse. Un enjeu de la relation
est donc, pour le chercheur, de trouver la bonne distance :

« La distance épistémologique à trouver entre le chercheur


et l’informateur est complexe : pour le chercheur, elle est
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

maximum au départ, il est étranger au contenu, son effort est


de s’en approcher ; l’informateur au contraire, au départ fait
corps avec le contenu, les deux s’identifient, son effort pour
lui est de s’en distancier suffisamment pour le voir, le com-
prendre. Le défi est que chacun trouve la distance optimum »
(Pineau, 1983, p. 173).

Dans le cadre de cette relation, il s’agit de faire preuve de plu-


sieurs qualités, dont l’écoute et l’empathie, qui sont les clés de
l’attitude de compréhension.

2. QUAND ET COMMENT UTILISER LES RÉCITS DE


VIE ?

2.1. Quels phénomènes étudier ?


Ricoeur a bien montré le lien entre récit et action : le récit est ce
qui permet de décrire l’action et notamment l’action dans la du-
rée, ce qui en fait un excellent moyen d’appréhender les proces-
sus d’action que le sociologue et le psychosociologue cherchent
164 à comprendre : « la temporalité peut être appréhendée, non seu-
lement à travers des événements historiques, des faits objec-
tifs, mais également par le vécu des individus ou des groupes,
leurs représentations, leurs affects et leurs réflexions » (Burrick,
2010, p. 7). En ce sens, le récit de vie s’avère être particulièrement
adapté pour explorer des phénomènes tels que les parcours des
individus ou des groupes, leur construction identitaire, mais
aussi explorer les processus de changement au niveau de l’indi-
vidu, du groupe ou de la société.

Encadré 1. Deux exemples de récits de vie


Récits de vie des associés dans les « Big 4 »2
Utilisation formelle et systématique de la méthode des récits de vie
Dans sa recherche sur les associés d’audit dans les cabinets des
«  Big 4 », Claire Garnier cherche à comprendre le « processus de

2. Les «  Big 4 » (traduction littérale, les « quatre grands ») sont les quatre groupes
d’audit financier : Deloitte Touche Tohmatsu, EY (Ernst & Young), KPMG, et PwC
(PricewaterhouseCoopers).
Les récits de vie

construction identitaire de l’associé ainsi que son élaboration d’une


stratégie de carrière » (Garnier, 2014, p. 13).
Pour ce faire, elle utilise l’approche biographique. Ainsi, c’est en de-
mandant à des associés travaillant dans des cabinets d’audit « Big 4 »
en France de raconter leur parcours que le chercheur accumule des
preuves, traque les similarités, et offre une analyse approfondie de
l’identité professionnelle des associés comme population distincte
des autres employés des « Big 4 », mettant en lumière les aspects
longitudinaux des processus de cooptation à l’œuvre dans ces struc-
tures.
Fragments de récits de vie des employés
dans une entreprise familiale
Utilisation partielle de récits de vie
Dans le cadre de sa recherche portant sur l’identité des entreprises
familiales, Julia Vincent-Ponroy (2016) a conduit une cinquantaine
d’entretiens auprès d’employés non-familiaux, afin de comprendre
la façon dont ils contribuent à construire l’identité familiale de l’en-
treprise dans laquelle ils travaillent. Ces entretiens semi-directifs
n’étaient à l’origine ni conçus ni présentés comme des récits de vie.
Pour autant, ils sont parsemés de passages narratifs où les inter-
viewés racontent tout ou partie de leur parcours professionnel, font
le récit de leur expérience de telle période dans la vie de l’organisa-
tion, ou de tel événement les ayant marqués. L’analyse de ces récits
de (bouts de) vies a permis d’identifier des similarités inter-indivi-
duelles et de faire émerger des mécanismes de construction de
165
l’identité organisationnelle (au niveau collectif) dans les entreprises
familiales, par les employés non-familiaux.

Pour Daniel Bertaux, la perspective ethnosociologique et la mé-


thode des récits de vie à laquelle elle est associée, visent à com-
prendre trois types d’objets sociaux : les mondes sociaux, les
trajectoires sociales et les situations sociales. Ce n’est en réalité
pas « la vie » elle-même de l’individu qui constitue le matériau
utile de la recherche, mais bien les informations factuelles sur
les conditions et les processus mobilisés par celui-ci dans une
situation sociale et historique donnée.

Par exemple, pour comprendre le monde social de la boulangerie


artisanale, il est possible d’aller explorer plusieurs boulangeries
– et de demander aux individus y travaillant de bien vouloir ac-
corder aux chercheurs le récit de leur expérience de boulanger.
Les trajectoires sociales sont des types de parcours pouvant
être rassemblés – comme la réussite sociale par exemple. Enfin,
les situations sociales sont des situations partagées par des ca-
tégories de gens ne faisant pas nécessairement partie du même
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

monde social et n’interagissant pas nécessairement, comme par


exemple la situation des créateurs d’entreprises, des innova-
teurs…

Encadré 2. Récits de vie : les sans-papiers


Dans son ouvrage Clandestins au pays des papiers. Expériences et par-
cours de sans-papiers algériens (2009), Marie-Thérèse Têtu-Delage
s’appuie sur les données récoltées via de l’observation et des entre-
tiens narratifs conduits auprès d’une soixantaine de sans-papiers
algériens dans la ville de Romans pour étudier la façon dont les
différents acteurs abordent la question de la régularisation et com-
ment ils se comportent par rapport à elle. Les récits de vie visent ici à
mieux comprendre une situation sociale.

Les récits de vie constituent ainsi une méthode de recherche


très largement applicable, et ce dans de nombreuses disciplines
allant de l’histoire à la sociologie, l’ethnologie, la psychologie et
bien sûr les sciences de gestion. Les récits de vie fournissent
une véritable « stratégie d’accès au réel en sciences de gestion »
(Sanséau, 2005), comme par exemple en marketing (Özçaglar-
Toulouse, 2009) ou en gestion des ressources humaines
166 (Joyeau, Demontrond & Schmidt, 2010) ou encore en entrepre-
neuriat (Bah, Tiercelin & Ndione, 2015). Les objets de recherche
peuvent ainsi être aussi divers que la construction des identités,
le leadership, le comportement des consommateurs, les atti-
tudes dans le travail, le changement, l’innovation... La méthode
des récits de vie s’avère particulièrement adaptée pour explorer
des phénomènes peu étudiés, se produisant dans la durée, tant
au niveau individuel que collectif.

Se pose alors une question pratique : comment appliquer cette


méthode ?

2.2. Mise en œuvre : la conduite de l’entretien narratif


Concrètement, la méthode biographique ou des récits de vie re-
pose sur une technique d’entretiens particulière : les entretiens
narratifs.

« Un entretien au cours duquel un “chercheur” (lequel peut


être un étudiant en tant que jeune chercheur) demande à une
Les récits de vie

personne, [appelée] “sujet”, de lui raconter tout ou partie de


son expérience vécue. En mettant l’accent […] sur l’aspect
“vie sociale” : vie et activités en relation et interactions avec
d’autres personnes, pratiques récurrentes, cours d’action
orientés vers des buts à atteindre » (Bertaux, 2010, p. 10).

Pour reprendre la démarche dans l’ordre : comme toute enquête


de terrain, il faut commencer par… accéder au terrain ! Et accé-
der au terrain c’est d’abord être capable de se présenter soi en
tant que chercheur, et de présenter son projet, ce qui n’est pas
toujours chose facile. La prise de contact revêt une importance
considérable dans le bon déroulé de l’entretien. Elle détermine
la réception que le futur interviewé fait de la demande d’enquête.
Dès le moment où la « question de recherche » est formulée, l’in-
terlocuteur s’en saisit et la traduit en fonction de ses propres
« cadres » ou grilles de perception. D’où la nécessité d’être à la
fois précis et ouvert dans la formulation. Exercice difficile, qui
nécessite de revenir plusieurs fois sur la ou les formulation(s)
possible(s) et de les tester une première fois, puis d’effectuer un
recalibrage en fonction des premiers entretiens tests réalisés.

167
Encadré 3. Le rodage de la méthode : recherche sur
les créateurs d’entreprises innovantes
Dans sa recherche sur les créateurs d’entreprises innovantes
Micaelli (2013, p. 177) décrit le rodage de la méthode.
« Pour notre part, nous avons souhaité mener deux entretiens de ro-
dage de la méthode biographique préalablement au démarrage de
l’enquête, ce qui a été l’occasion de tester la formulation de notre
question de recherche.
Ainsi, dans nos premiers échanges, nous avions retenu les formu-
lations suivantes : « Pourquoi êtes-vous devenu créateur d’entreprise ? »,
« Qu’est-ce qui vous a amené à devenir créateur d’entreprise ? », « Avez-
vous toujours souhaité devenir créateur d’entreprise ? », qui ont toutes été
abandonnées car générant un focus trop prégnant sur certains élé-
ments du parcours.
En effet, la personne répondait le plus souvent à la première formu-
lation comme s’il s’agissait d’une question fermée n’appelant qu’une
seule réponse « directe » : « j’ai créé mon entreprise parce que… », « Je
suis entré chez […] car … », il était alors nécessaire de la relancer plu-
sieurs fois pour qu’elle enchaîne ensuite sur d’autres éléments de
son parcours.
La seconde formulation entraînait bizarrement un blocage de l’in-
terviewé qui ne savait pas trop comment répondre, et il devenait né-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cessaire de reposer plusieurs fois la question de manière différente


avant que la personne ne commence réellement à s’exprimer.
La dernière, quant à elle, focalisait le démarrage de l’entretien sur
la période de l’enfance, alors que nous souhaitions justement ne
pas influencer la façon dont l’interlocuteur amorcerait son discours,
considérant que cette amorce était en elle-même riche de sens pour
l’enquête.
Finalement, c’est la question : « Pourriez-vous me raconter comment
vous êtes devenu créateur d’entreprise ? » qui a été choisie pour lancer
les entretiens narratifs. »

Alors que le premier entretien est souvent difficile à décrocher,


il s’opère souvent un effet « boule de neige » par lequel une fois
la première porte ouverte, les autres s’ouvrent bien plus facile-
ment.

Les prises de rendez-vous pour les entretiens sont ici essen-


tielles, d’une part parce, et cela est classique des méthodes
d’entretien, le futur interviewé ne connaît pas le chercheur, et n’a
pas nécessairement envie de se raconter ; d’autre part parce qu’à
la différence des autres méthodes d’entretien, le nombre d’en-
tretiens que mène le chercheur est ici plus restreint. En revanche
168 les entretiens sont beaucoup plus longs (durée de 2 à 4 heures)
et il est fréquent que le chercheur soit amené à revoir plusieurs
fois son interlocuteur pour creuser et approfondir la démarche
d’introspection entamée. Soigner la présentation du projet de
recherche et instaurer une relation de confiance sont ici des élé-
ments cruciaux. De même, il convient de bien insister sur le fait
que l’expérience de la personne est intéressante pour le cher-
cheur, non pas parce qu’elle est l’expérience de cette personne,
en son nom, mais parce que cette personne est emblématique
de phénomènes plus généraux. À ce titre, il faut indiquer à la
personne ce qui est attendu d’elle dans le cadre du dispositif de
recherche – dans le cas présent, raconter son expérience per-
sonnelle en lien avec un sujet précis.

Si la personne accepte, il est recommandé de fixer rapidement


un rendez-vous, dans un lieu calme pour nouer un contact au-
thentique avec l’interviewé. L’encadré ci-dessous résume les
points clés de l’étape « prise de rendez-vous ».
Les récits de vie

Encadré 4. La prise de rendez-vous par le


chercheur
1. Préparer son texte.
2. Se présenter simplement – nom / institution.
3. Présenter son travail de recherche dans des termes non-sa-
vants, accessibles à la personne que l’on cherche à interviewer,
et si possible qui l’intéressent.
4. Évoquer rapidement le dispositif de recherche en employant le
verbe raconter (ou équivalent), de façon simple : « je cherche des
gens qui pourraient me raconter… ».
5. Garantir l’entière confidentialité des propos.
6. Proposer un rendez-vous en face à face, idéalement le plus rap-
proché possible dans le temps, dans un endroit calme.
7. Prévoir un temps long pour l’entretien.

Vient ensuite le moment de l’entretien. Préparation psycholo-


gique et préparation technique sont ici de mises.

Préparation psychologique dans le sens où le chercheur se met


en condition d’écoute entièrement dédiée, pour être à même de
recevoir le récit de l’interviewé en gardant intacte toute la sub- 169
jectivité qu’il recèle. Les entretiens longs portent sur des as-
pects intimes et personnels du parcours de l’interviewé. Comme
le précise Michelat « ce qui n’est qu’intellectualisé, ce qui n’est
pas pris en charge affectivement par la personnalité n’a qu’une
signification faible et une relation réduite avec le comportement
de l’individu » (Michelat, 1975, p. 231). La réalisation de ces en-
tretiens demande un investissement conséquent. Il s’agit de tra-
vailler en profondeur la posture d’écoute qu’il convient d’adopter
pour être totalement disponible pour l’autre. La méthode des
récits de vie suppose que le chercheur effectue une véritable
plongée dans l’intimité de ses interlocuteurs. Cette immersion
est plus conséquente que celle des entretiens semi-directifs
classiques car les entretiens sont beaucoup plus longs et in-
vitent à une introspection plus en profondeur. Avec le récit de
vie, le chercheur est amené à connaître toutes sortes de don-
nées confidentielles, où l’affectif et l’émotionnel tiennent des
places importantes. Les entretiens narratifs, dans l’approche
biographique, sollicitent les personnes dans leur histoire, dans
les méandres de leur passé, de leur présent et de leur avenir.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Préparation technique également : l’entretien biographique se


prépare à l’avance et cette préparation donne lieu à quelques
notes – succinctes mais nécessaires – que le chercheur aura
avec lui le jour de l’entretien : c’est le « guide d’enquête 3 ». Ces
notes sont les points que le chercheur souhaite aborder et
il s’assurera, à la fin de l’entretien, une fois la partie narrative
achevée, que l’interviewé a évoqué tous ces aspects. Dans le cas
contraire, l’entretien pourra se terminer par une phase de ques-
tions plus précises.

Au début de l’entretien, il est possible de demander à la per-


sonne interrogée si elle accepte d’être enregistrée – si l’enregis-
trement n’est pas obligatoire, la prise de notes exhaustive, elle,
l’est. Il importe ici bien sûr de préciser que s’appliquent, comme
dans toute enquête de terrain fondée sur des entretiens, les prin-
cipes déontologiques de garantie d’anonymat, d’une part, et de
non divulgation des notes d’entretien, de l’autre. Néanmoins,
l’interviewé peut, s’il le souhaite, avoir communication des résul-
tats de la recherche et pouvoir, le cas échéant, bénéficier d’une
restitution lui présentant l’aboutissement du travail qu’il a en
partie rendu possible. Tout ceci mérite d’être clairement spécifié
170 en début d’entretien.

Le chercheur invite ensuite le narrateur à raconter la partie de


son expérience qui l’intéresse dans le cadre de ses travaux, et
laisse ensuite le narrateur raconter. Il est essentiel de se sou-
venir que c’est en partie dans la façon que le narrateur a de
construire son récit, de raconter son histoire, que le sens se
construit. Aussi importe-t-il de ne pas interrompre le récit – ce
qui ne veut pas dire rester silencieux d’un bout à l’autre de l’en-
tretien, au contraire : il faut montrer à la personne interviewée
que son récit suscite l’intérêt et, si nécessaire 4, l’encourager à
le poursuivre, avec des reformulations (« donc vous dites que… »)
et des relances (« ah bon ! et comment est-ce arrivé ? »). Un type
de relance intéressant, notamment dans l’étude des parcours,
consiste à demander à la personne interviewée si elle aurait aimé

3. Il faut noter qu’à mesure que l’enquête avance – et que les données s’accumulent –
le projet de recherche évolue, et le guide d’enquête aussi. Il ne faut pas hésiter à le
modifier au fur et à mesure.
4. Il est normal que l’interlocuteur cherche ses mots par moment, cela ne veut pas
dire que le récit va s’arrêter. Le silence est aussi le temps de la réflexion.
Les récits de vie

faire autrement, que les choses se déroulent différemment. Cela


permet de se faire une idée des moments clés, des moments de
choix dans les parcours.

Pour conclure l’entretien, il est possible de poser les questions


figurant sur le guide d’enquête et n’ayant pas été abordées, et de
terminer avec une ou deux questions permettant à l’interviewé
d’exprimer des émotions positives – « qu’est-ce que vous avez
aimé dans… ? », « quel est votre meilleur souvenir à… ? » : les récits
peuvent conduire à des émotions fortes, et il importe d’éviter de
rester sur des émotions négatives. Il est fréquent pour les en-
tretiens biographiques que le chercheur soit amené à revoir son
interlocuteur.

Encadré 5. Les étapes de l’entretien narratif ou


biographique
1. Consacrer du temps à la préparation psychologique et tech-
nique préalables.
2. Présenter à nouveau son travail, ses attentes et le dispositif en
place.
3. Garantir l’anonymat / la confidentialité – éventuellement deman- 171
der à enregistrer.
4. Lancer l’entretien avec une question simple, contenant le verbe
« raconter ».
5. Lors de l’entretien, reformuler et utiliser des questions de re-
lance.
6. À la fin du récit, s’assurer que les points du guide d’enquête ont
bien été abordés .
7. Clôturer l’entretien par un retour sur le récit d’un moment as-
socié à une émotion positive (un succès, un moment de bon-
heur…).

2.3. L’analyse du récit de vie


Comme tout matériau de recherche, les entretiens narratifs sont
à analyser. Mieux vaut que cette analyse survienne le plus tôt
possible dans le processus de collecte de données et ne pas
attendre d’avoir conduit tous les entretiens biographiques pour
commencer à les analyser. Pourquoi ? Parce que c’est l’analyse
des entretiens qui permet de définir les besoins ultérieurs en
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

termes de données (qui interroger ?) et qui permet également de


faire évoluer le guide d’enquête de façon à obtenir des informa-
tions manquantes. Par ailleurs, les entretiens narratifs ne sont
en général pas le seul matériau dont dispose le chercheur : don-
nées secondaires et notes d’observation viennent compléter le
contenu obtenu lors des entretiens.

L’analyse des entretiens à proprement parler consiste à établir


des comparaisons entre les entretiens, à identifier des récur-
rences. Pour ce faire, le chercheur commence par retranscrire
ses entretiens. Il convient ensuite de les analyser individuelle-
ment, et chercher à identifier les éléments clés racontés par le
narrateur, ces éléments factuels dont le chercheur peut suppo-
ser qu’ils sont réels, et qu’ils sont arrivés dans un certain ordre.
La dimension longitudinale de l’analyse est clé ici (Chevalier,
1997). Retracer la structure diachronique du récit (que s’est-
il passé et quand : avant / après ?) : voilà le premier stade de
l’analyse du récit de vie. Dans Analyser les entretiens biographiques
(1997/2004), Demazière et Dubar proposent de découper le récit
en séquences, c’est-à-dire en unités qui correspondent aux mo-
ments clés de la situation telle que présentée par le narrateur. Il
172 s’agit aussi de « connecter » la temporalité du récit avec la tem-
poralité historique : des indices doivent permettre de replacer la
temporalité individuelle dans la temporalité historique, dans la
chronologie collective.

Dans un second temps, le chercheur fera dialoguer ses entre-


tiens et les confrontera également aux autres données recueil-
lies. Les entretiens biographiques supposent d’analyser et de
comprendre les situations à partir du vécu de l’individu et non
pas tant à partir de l’organisation, même si les intrications psy-
chologiques et sociologiques sont scrutées tout au long de
l’analyse. C’est à travers ce dialogue qu’il pourra établir des com-
paraisons, identifier des récurrences et commencer à proposer
des relations de causalité et à terme un « modèle » pour penser
le phénomène à l’étude. Le chercheur pourra ainsi faire émerger
des mécanismes sociaux, développer des concepts, contribuer
à la construction d’un pan de théorie, en itérant entre les don-
nées et la littérature.
Les récits de vie

CONCLUSION
Le récit de vie, méthode de recherche, permet de recueillir des
informations riches dans un contexte particulier. Faisant dia-
loguer les temporalités, la méthode offre aux doctorants-ma-
nagers la possibilité de creuser un phénomène en explorant
l’épaisseur du vécu des personnes en situation. Cette méthode
qualitative conduit à faire émerger, au travers d’histoires singu-
lières, le sens de phénomènes humains et sociaux plus larges.
Les doctorants en DBA sont tout particulièrement concernés
par cette approche qui fait la part belle à l’expérience cumulée
au fil du temps. Les récits de vie sont ainsi en mesure d’appor-
ter une aide originale et précieuse à la compréhension intime de
phénomènes sociaux et organisationnels et par là même d’éclai-
rer et de faciliter un retour à l’action plus pertinent.

Références citées
Bah, T., Tiercelin A. & Ndione L. C. (2015), Les récits de vie en sciences
de gestion. Orientations épistémologiques et méthodologiques, Caen,
Editions EMS, coll. « Versus ».
Becker, H. S. (ed.) (1966), Social Problems: A Modern Approach. 173
London, J. Wiley and Sons.
Bertaux, D. (2010), Le récit de vie, 3 e édition, Paris, Armand Colin.
Bourdieu, P. (1986), L’illusion biographique, Actes de la Recherche en
Sciences Sociales, vol. 62-63, p. 69-72.
Burrick, D. (2010), Une épistémologie du récit de vie, Recherches
Qualitatives, Numéro Hors-Série n°8, p. 7-36.
Chevalier, F. (1997), Recherches qualitatives et longitudinales : les
relations entre sociologie et histoire, in L.J. Filion, P. Paillé &
D. Laflamme (dir.), Recherches qualitatives, vol. 17, Université du
Québec à Trois-Rivières, p. 44-56.
Chevalier, F. (2017), La théorisation dans une perspective terrain :
le décorticage d’une démarche de recherche, in P. Baulieu &
M. Kalika (dir.), Le projet de thèse de DBA, Caen, Éditions EMS,
coll. « Business Science Institute », p. 165-176.
Demazière, D. & Dubar, C. (1997/2004), Analyser les entretiens
biographiques, L’exemple des récits d’insertion, Paris, Nathan et
Presses Université Laval, coll. « Essais et Recherches ».
Garnier, C. (2014), Qui sont les associés d’audit des cabinets Big 4 ? Une
lecture interactionniste des carrières des auditeurs dans les cabinets
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

des Big 4 en France, Thèse de doctorat, HEC Paris, dirigée par


C. Ramirez.
Geertz, C. (1973), The Interpretation of Cultures, New York, Basic
Books.
Joyeau, A., Demontrond, P.-R. & Schmidt, C. (2010), Les récits de
vie en gestion des ressources humaines : principes, portée,
limite, Management & Avenir, vol. 4, n° 34, p. 14-39.
Micaelli, I. (2013), Comment deviennent-ils innovateurs ? Analyse du
« passage à l’acte d’innover » de chercheur-entrepreneur-innovateurs,
Thèse de doctorat, HEC Paris, Co-dirigée par C.H. Besseyre-
des-Horts et F. Chevalier.
Michelat, G. (1975), Sur l’utilisation de l’entretien non directif en
sociologie, Revue Française de Sociologie, vol. 16, no2, p. 229-247.
Momigliano, A. (1991), The Classical Foundations of Modern
Historiography. Traduction française, Les fondations du savoir
historique, Paris, Les belles Lettres.
Özçaglar-Toulouse, N. (2009), Quel sens les consommateurs
responsables donnent-ils à leur consommation ? Une approche
par les récits de vie, Recherche et Applications Marketing, vol. 24,
no 3, p. 3-24.
Passeron, J.C. (1989), Biographies, flux, itinéraires, trajectoires,
174 Revue Française de Sociologie, vol. 31, no 1, p. 3-22.
Pineau, G. & Legrand, J.L. (2013), Les histoires de vie, 5 e édition, Paris,
Presses Universitaires de France.
Ricœur, P. (1983), Temps et récit, Tome 1, L’intrigue et le récit historique,
Paris, Éditions du Seuil.
Sanséau, P.Y. (2005), Les récits de vie comme stratégie d’accès
au réel en sciences de gestion : pertinence, positionnement et
perspectives d’analyse, Recherche Qualitatives, vol. 25, no 2, p. 33-
57.
Têtu-Delage, M.T. (2009), Clandestins au pays des papiers. Expériences et
parcours de sans-papiers algériens, Paris, La Découverte et CIEMI.
Thomas, W. I. & Znaniecki, F. (1919/1998), Le paysan polonais en Europe
et en Amérique, Paris, Nathan.
Vincent-Ponroy, J. (2016), Family Firms’ Organisational Identity and
Non-family Employees: A Case Study, [titre français : Les employés
non-familiaux dans l’entreprise familiale : l’identité organisationnelle en
question, une étude de cas], Thèse de doctorat, HEC Paris, dirigée
par F. Chevalier.
Wacheux, F. (1996), Méthodes qualitatives et recherche en gestion, Paris,
Economica.
Les récits de vie

Références pour en savoir plus


Bertaux, D. (2010), Le récit de vie, 3 e édition, Paris, Armand Colin.
Cet ouvrage examine les fonctions des récits de vie et comment
s’y prendre pour mener à bien le recueil des récits de vie. Il pro-
pose également différents modes d’analyse des récits, au cas
par cas ou sur le mode comparatif. Il souligne combien chaque
parcours de vie d’une personne peut être envisagé comme le re-
flet de déterminations, d’interactions et d’actions multiples.

Joyeau, A., Demontrond, P.-R. & Schmidt, C. (2010), Les récits de


vie en gestion des ressources humaines : principes, portée,
limite, Management & Avenir, vol. 4, n° 34, p. 14-39.
Cet article propose de montrer l’intérêt des récits de vie dans
le champ de la gestion des ressources humaines. L’apport des
récits de vie est mis en avant à travers deux études empiriques,
l’une portant sur la gestion des compétences et l’autre sur la
gestion de la mobilité géographique intra-nationale.

175
CHAPITRE 10.
Recherche historique, narration et documents
d’archives

Jean-Christophe Bogaert, Jean Moscarola et Caroline Mothe

Résumé

Ce chapitre s’attache à décrire l’intérêt des archives histo-


riques et de la narration dans le contexte d’une recherche lon-
gitudinale d’un cas unique couvrant les 25 années d’existence
176
d’une entreprise de taille moyenne opérant à l’international
dans le domaine de la biotechnologie industrielle. Il s’appuie
sur une combinaison de méthodes qualitatives et quantita-
tives dans le but de rechercher de manière abductive des ex-
plications pour les événements observés en s’intéressant à
l’influence des contextes sur les processus.

Mots-clés : ambidextrie, données d’archives historiques,


étude de cas longitudinale, narration.

Les méthodes de recherche du DBA


Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

INTRODUCTION
La loi française définit les archives comme « l’ensemble des do-
cuments, quels que soient leur date, leur lieu de conservation,
leur forme et leur support, produits ou reçus par toute personne
physique ou morale et par tout service ou organisme public ou
privé dans l’exercice de leur activité » (Code du patrimoine, ar-
ticle L.211). Par extension, on peut considérer comme archives
toutes traces laissées par les activités humaines, qu’elles soient
gravées sur les marbres anciens ou digitalisées dans les mé-
moires informatiques. C’est grâce aux archives que « les histo-
riens font parler les choses muettes » selon la formule de Lucien
Febvre (1959).

C’est la méthode choisie dans cette recherche pour décrire en


profondeur 25 ans de la vie d’une entreprise et expliquer ses évo-
lutions et sa stratégie. En historien, l’auteur s’est appuyé sur les
archives qu’il a pu collecter en profitant de sa qualité de manager
dans cette entreprise. En historien, selon le mot de Marc Bloch
(1949), il « transmet une partie de lui-même », en choisissant le
découpage d’une période vécue, les concepts et systèmes d’in-
terprétation qu’il privilégie. En historien, il se révèle également 177
bon écrivain car l’histoire est aussi un genre littéraire comme
l’indique Henri Marrou (1954). Enfin, comme chercheur en ges-
tion, il s’appuie sur des méthodologies qualitatives et quantita-
tives qui font la richesse de ce travail.

Ce chapitre sera organisé de la manière suivante : dans la


Section 1, nous situons les spécificités de l’approche historique.
Dans la Section 2, nous présenterons le cas de l’entreprise étu-
diée par Jean-Christophe Bogaert (2017) dans sa thèse de DBA
en la prenant comme exemple d’une recherche fondée sur des
archives historiques.

1. DES ARCHIVES À LA CONSTRUCTION DU SENS :


PRÉSENTATION DE L’APPROCHE HISTORIQUE
L’histoire n’est pas seulement liée à la discipline éponyme, mais
est également largement utilisée dans d’autres domaines scien-
tifiques, notamment en sociologie ou, moins fréquemment, en
sciences de gestion. Il y a « la méthode en histoire et l’histoire
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

comme méthode » (Lemarchand & Nikitin, 2013, p. 1). Ceci im-


plique pour un chercheur en sciences de gestion d’avoir un mini-
mum de connaissances sur cette méthode.

1.1. La recherche et la critique des sources


L’histoire est d’abord une enquête1 dont les sources sont des
archives, bien que les entretiens puissent aussi se pratiquer
en histoire contemporaine. Trouver les documents, les archiver
mais aussi les qualifier et les critiquer, tel est le travail à réali-
ser. À la différence des entretiens, les archives ne sont pas sus-
pectes d’une quelconque influence du chercheur mais doivent
être situées dans le contexte de leur production et par les inten-
tions de leur auteur ou des institutions qui les conservent. Un
rapport de conseil d’administration ne se lit pas comme un ar-
ticle de presse ou un tract syndical. L’historien doit connaître les
contextes et les finalités pour être capable d’apprécier les conte-
nus et en faire une critique autant externe qu’interne (Le Goff
& Nora, 1974). En histoire contemporaine, cela peut donner un
avantage au chercheur immergé dans le terrain de sa recherche.
178
Ce travail de critique des sources n’est pas propre à l’histoire ;
on le retrouve dans toutes les sciences humaines lorsqu’il
s’agît de « faire parler » les textes contenus dans les archives :
recherche qualitative pure (Dumez, 2016), analyse de contenu
(Bardin, 1977), analyse de données textuelles (Moscarola, 2018),
les méthodes sont nombreuses. Elles ont en commun l’exigence
de maintenir une distance critique. Elles se différencient par leur
degré de formalisme (Moscarola, 2018). Selon ses goûts et ta-
lents, le chercheur peut privilégier une approche plus qualitative
et littéraire ou plus quantitative et formalisée.

1.2. L’écriture de l’histoire


Les archives fournissent des faits et des évènements. Faire œuvre
d’historien consiste à les organiser en suivant la ligne du temps,
celle des causes ou des arguments. Faire sens en déroulant un
récit, faire sens en expliquant un processus et en proposant une

1.  Ἱστορίαι [Historíai] signifie « enquête » en grec.


Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

interprétation ou faire sens en plaidant une cause. La qualité de


l’histoire s’apprécie à la capacité de capter l’attention du lecteur,
mais ce qui distingue l’historien du conteur c’est l’intention de
vérité. Cette expression modère la prétention de pouvoir dire les
choses telles qu’elles se sont passées et situe l’histoire à l’arti-
culation des faits et des idées. Ainsi peut-on chercher, dans une
démarche inductive, à restituer les faits sous la forme d’un récit
qui les organise ou, au contraire, dans une démarche déductive,
chercher à vérifier une théorie dont l’observation confirmerait le
bien fondé.

Question de méthode ! Le cas présenté ci-dessous illustre la va-


riété des approches possibles.

2. UN EXEMPLE D’APPLICATION DES ARCHIVES


HISTORIQUES
Jean-Christophe Bogaert réalise une étude de cas longitudi-
nale approfondie de l’entreprise dans laquelle il a occupé des
fonctions de direction au cours des 25 dernières années. En tra-
vaillant sur une période relativement longue, il peut mettre en
évidence une dynamique évolutive que l’étude des intervalles de 179
temps courts ne permet pas (Burgelman, 2011). Cette approche
lui permet de trier les informations pertinentes et d’accéder à
des détails intimes, de considérer différentes étapes, mais aussi
d’explorer la séquence des événements pour étudier l’aspect dy-
namique des évolutions de l’entreprise.

Elle débouche sur la formulation de la problématique suivante :


« Comment l’ambidextrie organisationnelle peut elle être mise
en œuvre dans des entreprises de taille moyenne pour s’adap-
ter de façon dynamique aux changements environnementaux
et augmenter leurs chances de survie ? ». Ce chapitre ne déve-
loppe pas la réponse à cette question mais s’attache à décrire
comment cette problématique découle également du travail his-
torique entrepris dans cette recherche. La figure 1 présente les
différentes étapes de ce travail et les méthodes mises en œuvre.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 1. Des sources aux résultats, la pluralité des


approches

2.1. La collection des archives


Nous expliquons ici le choix des sources et des archives et justi-
fions les choix effectués pour constituer le corpus des décisions
et évènements sur la base duquel sont menées les analyses ul-
180
térieures. Le but ici est de montrer comment procéder et les pro-
blèmes que cela pose.

Diverses sources d’archives ont été utilisées (Figure 2) : pro-


cès-verbaux des réunions de direction, communiqués de presse,
rapports aux actionnaires, communications aux syndicats et aux
membres du personnel, articles de presse, e-mails, etc.

Figure 2. Les sources, archives et documents


Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Les sources sont plus nombreuses et plus faciles à trouver les


dernières années – et plus pauvres les premières années. L’effort
de recherche s’est porté sur cette première période ainsi que sur
les types de documents les moins courants ou portant sur des
évènements marquants dans le souvenir du chercheur. Le but
était de maximiser la variété de l’information. Ce travail s’est dé-
roulé sur une période de temps assez longue dans d’incessants
allers et retours entre la lecture des archives, leur organisation
dans un récit en construction et la recherche de nouvelles ar-
chives.

2.2. Construction d’un récit


Le premier travail d’analyse s’effectue au cours d’une lente
maturation. Elle consiste à partir de l’expérience personnelle
du chercheur et des archives rassemblées à organiser un récit
nourri par des observations factuelles, des souvenirs et des lec-
tures sur la stratégie. Ainsi s’élabore l’idée que cette histoire
peut s’expliquer par les réponses stratégiques de l’organisation
aux fluctuations de son environnement et que celles-ci corres-
pondent à différentes époques. 181

Conformément aux recommandations pour les études de cas


longitudinales (Thiétart, 2014 ; Yin, 2009), l’analyse a débuté
en reconstituant la chronologie des événements historiques
par la rédaction d’un récit retraçant l’histoire de l’entreprise
en adoptant la vision écologique de la réalité de Burgelman
(1991). Contrairement à une approche réductionniste qui isole
les variables et étudie les relations entre elles, cette approche
« examine comment les composants individuels interagissent
pour devenir des systèmes dont la nature ne peut être complè-
tement comprise en ne regardant que la somme des parties »
(Burgelman, 2011, p.11).

Mais, pourquoi un récit ? Un récit idéal commence par une si-


tuation stable qu’une force quelconque vient perturber. Il en ré-
sulte un état de déséquilibre ; par l’action d’une force dirigée en
sens inverse, l’équilibre est rétabli ; le second équilibre est bien
semblable au premier, mais les deux ne sont jamais identiques.
Il y a par conséquent deux types d’épisodes dans un récit : ceux
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

qui décrivent un état (d’équilibre ou de déséquilibre) et ceux qui


décrivent un passage d’un état à l’autre.

La différence entre les descriptions et les récits réside préci-


sément dans l’influence implicite du temps. Les actions et les
interactions se déroulent au fil du temps. Dumez (2016, p.129) in-
dique que « le chercheur qui veut donc expliquer les dynamiques
sociales, dynamiques d’interactions entre individus ou de déve-
loppement institutionnel, doit passer par le récit. (…) Le récit a
alors un statut de production de connaissances, d’exploration,
un outil pour discuter des théories ». Il ajoute (2016, p.13) : « nous
devons rompre avec l’idée que nous devrions exclure la descrip-
tion et la narration comme formes extra-scientifiques, littéraires
et subjectives : la recherche qualitative doit décrire et dire, et la
description et la narration doivent être considérées comme des
méthodes scientifiques et objectivantes susceptibles de cri-
tique2 ».

Le récit qui résulte de ce travail en constitue le premier résultat.


Sa structuration en 4 époques est le produit d’un travail inductif
dans l’esprit de la théorie ancrée (Glaser & Strauss, 1967). Dans
cette approche, aucune hypothèse théorique n’est utilisée a prio-
182
ri, la théorie émergeant du matériau lui-même (Dumez, 2016).
Ce travail exploratoire conduit à découper l’histoire de l’entre-
prise en 4 époques : Antiquitus (avant 1994), Feodalis (1994-2001),
Modernitas (2001-2011), et Contemporalis (depuis 2012), caractéri-
sées par des contextes d’environnement et des intentions stra-
tégiques différents. Le récit est présenté sur 77 pages en annexe
de la thèse. La figure 3 en donne un aperçu lexical par la mise en
évidence des mots-clés caractérisant chaque époque. Au centre
du graphique, on trouve les mots communs de la période. Cet
aperçu permet au lecteur de se faire une idée du bien-fondé des
interprétations du chercheur.

2. Ce qui implique la publication du récit et son analyse critique facilitée par les mé-
thodes de l’analyse de donnée textuelle (Moscarola, 2018).
Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Figure 3. La Narration. Aperçu lexical de chacune


des époques3

2.3. Analyse de contenu


Nous décrivons maintenant les méthodes plus formalisées utili-
sées pour analyser les archives rassemblées. Elles passent par
la sélection préalable d’un corpus extrait de l’ensemble des ar-
chives pour répondre à la problématique de l’ambidextrie orga-
nisationnelle. 183

Le corpus des 410 décisions et des 277 évènements de l’environne-


ment

Pour aller plus loin, en se référant à la méthodologie qualita-


tive rigoureuse recommandée par Gioia et al. (2012), la première
analyse inductive a été systématisée en s’appuyant sur les
concepts de la théorie de l’ambidextrie. Ce choix, comme l’in-
dique Burgelman (2011), réalise un équilibre entre la tradition
de l’approche historique (qui généralise à partir de l’abondance
des particularités du récit) et celle des sciences sociales (qui
limitent le champ de leur observation à une vision théorique plus
réduite). Cela conduit à focaliser l’attention sur les décisions
prises par l’entreprise en référence aux évènements de son envi-
ronnement. Ces décisions et évènements sont documentés par
des verbatim extraits des documents d’archives (Figure 2).

3. Toutes les analyses ont été effectuées avec SphinxIQ2.


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Il s’agit de 410 actions ou décisions majeures prises par l’entre-


prise tout au long de ses 25 ans d’histoire et de 277 évènements
contextuels. La croissance exponentielle du nombre des actions/
décisions par an reflète le développement de l’entreprise et sa
transformation d’une très petite entité avec quelques employés à
une organisation internationale avec près de 400 employés dans
six lieux sur trois continents. Les principales décisions managé-
riales et évènements sur la période des 25 ans étudiés (de 1991 à
2015) ont été identifiés en utilisant la méthode de listage (Miles
et Huberman, 1994). Ces informations décrites par des textes ex-
traits des archives sont datées et constituent le corpus soumis à
l’analyse de contenu.

La codification

L’analyse de contenu consiste à lire systématiquement des


textes pour en extraire le sens et le noter. Ce travail repose sur
la définition préalable de catégories de contenu, les codes, puis
sur la lecture et la codification de chaque élément du corpus. On
parle de codage théorique (Bohm, 2004) quand ces catégories
proviennent d’une théorie de référence. C’est le cas pour les 410
184 décisions dont l’index constitué de 12 critères a été défini à par-
tir de l’étude de questionnaires utilisés dans 25 recherches ma-
jeures sur l’ambidextrie organisationnelle. Les évènements sont
définis selon 8 dimensions intrinsèques de l’environnement et
codés selon leur impact sur l’entreprise.

La figure 4 illustre le travail de codification effectué sur les déci-


sions en utilisant le logiciel Excel (les décisions illustrées à titre
d’exemple dans la figure 4 apparaissent en langue anglaise car
la thèse a été rédigée dans cette langue). La première colonne
contient le texte décrivant chaque décision. Les 12 colonnes sui-
vantes constituent l’index. Enfin, 3 colonnes donnent les scores
(Exploration, Exploitation Ambidextrie) calculés à partir des
critères précédents. Le même travail est effectué sur les évène-
ments externes pour parvenir à une mesure du dynamisme de
l’environnement.
Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Figure 4. Analyse de contenu : coder en référence à


un modèle

Au terme de ce travail de lecture et de codification, les 687 extraits


d’archives décrivant les décisions prises en réaction aux évène-
ments de l’environnement conduisent à près de 10 000 chiffres
185
résultant de la codification et donnant une autre vision très
quantitative de cette histoire décrite par les deux graphiques de
la figure 5.

Ces graphes représentent des scores annuels moyens tirés de


l’analyse de contenu effectuée sur les corpus des décisions et
des évènements. Ils montrent l’évolution du dynamisme de l’envi-
ronnement et les réponses de l’entreprise appréciées au prisme
de l’ambidextrie. Ces éléments permettent également, grâce à
une régression linéaire multiple, de mettre en évidence que l’am-
bidextrie organisationnelle est plus fortement influencée par
l’ambidextrie de réseau que par l’ambidextrie structurelle. Ces
résultats, entre autres4, servent de base aux conclusions tirées
de cette recherche et aux implications managériales.

4. Nous renvoyons à la lecture de la thèse pour en apprécier toute la richesse.


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 5. Quantifier les contenus

186

2.4. Triangulation
On obtient ainsi différents points de vue sur le cas étudié : ce-
lui d’une analyse historique construite comme un récit et celui
d’une analyse de contenu fondée sur un modèle. Analyse qua-
litative d’une part et quantitative d’autre part. La triangulation
consiste à soumettre les données disponibles à différentes ana-
lyses – comme nous l’avons déjà fait pour le récit en exposant les
mots spécifiques de chaque époque.

Pour le corpus des 410 décisions, une classification automa-


tique (Moscarola, 2018) a été effectuée dans le but de définir des
classes de décision homogènes selon les mots-clés des verba-
tim. Cette analyse inductive mais purement statistique conduit
à identifier 5 thèmes (cf. tableau en figure 6). Ils mettent en évi-
dence la convergence des différents points de vue en affichant
les époques et les critères de l’analyse de contenu (éléments
Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

du modèle de l’ambidextrie) qui distinguent les classes théma-


tiques révélées par l’analyse de données textuelles.

Cette analyse permet de trianguler les résultats et de discuter


la portée de l’approche par l’ambidextrie à la lumière d’une ap-
proche exploratoire fondée sur l’analyse de données textuelles.

Figure 6. Trianguler en confrontant le modèle


d’analyse de contenu à l’exploration lexicale et
historique

CONCLUSION
Au-delà de l’exemple particulier du cas étudié, ce chapitre avait
pour visée de promouvoir l’approche historique comme mé- 187
thode de collecte de données fondée sur la collection d’archives
et comme modalité d’analyse des informations ainsi recueil-
lies. C’est une approche intéressante pour des managers-cher-
cheurs. Comme managers, ils bénéficient de l’accès à des do-
cuments souvent plus objectifs et riches que les traditionnels
entretiens. Comme chercheurs, ils peuvent mettre en œuvre
selon leur goût et leur capacité les méthodes illustrées dans ce
chapitre. Les uns pourront s’en tenir à un travail inductif de nar-
ration et d’interprétation guidé par la référence à des théories
existantes ou débouchant sur de nouvelles conjectures (Walsh,
2015). Les autres iront chercher dans les archives les traces de
concepts théoriques pour coder leurs données empiriques et
tester leur modèle (Moscarola & Papatsiba, 2001 ; Boughzala &
Moscarola, 2016). Les méthodes et les outils existent, enrichis
des méthodes d’analyse de données textuelles (Moscarola,
2018) : ils permettent de soumettre à l’analyse statistique les in-
terprétations du chercheur. Les plus ambitieux pourront, comme
dans cet exemple, multiplier les approches et les triangulations ;
ils devront toutefois résister à la tentation de s’intéresser plus
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

aux méthodes qu’aux connaissances qu’elles permettent de pro-


duire ! Au risque de noyer le lecteur dans une complexité inutile.

Références citées
Bardin, L. (1977), L’analyse de contenu, Paris, Presses Universitaires
de France.
Bloch, M. (1949), Apologie pour l’histoire ou métier d’historien, Paris,
Armand Colin, coll. « Référence Histoire ».
Bogaert, J.C. (2017), Organizational Ambidexterity for Medium-Sized
Firms in a Context of Growing Uncertainty, Thèse de DBA, Business
Science Institute et Université Lyon 3.
Bohm, A. (2004), Theoretical coding: text analysis in grounded
theory, in U. Flick, E. von Kardorff & I. Steinke (eds.), A Companion
to Qualitative Research, Thousand Oaks, CA, Sage, p. 270-275.
Boughzala, Y. & Moscarola J. (2016), Analyser les corpus d’avis
en ligne : Analyse lexicale exploratoire et/ou modélisation
sémantique ?, Actes des 13es Journées Internationales d’Analyse
Statistique des Données Textuelles (JADT), 7-10 juin, Université de
Nice.
Burgelman, R.A. (1991), Intraorganizational ecology of strategy
making and organizational adaptation: Theory and field
188 research, Organization Science, vol. 2, no 3, p. 239-262.
Burgelman, R.A. (2011), Bridging history and reductionism: A key
role for longitudinal qualitative research, Journal of International
Business Studies, vol. 42, no 5, p. 591-601.
Dumez, H. (2016), Méthodologie de la recherche qualitative. Les questions
clés de la démarche compréhensive, 2e édition, Paris, Magnard-
Vuibert.
Febvre, L. (1959), Combats pour l’histoire, Paris, Armand Colin.
Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2012), Seeking qualitative
rigor in inductive research: Notes on the Gioia methodology,
Organizational Research Methods, vol. 16, n° 1, p. 15-31.
Glaser, B.G. & Strauss, A.L. (1967), The Discovery of Grounded
Theory ? Strategies for Qualitative Research, New Brunswick, NJ,
and London, Aldine Transaction.
Le Goff, J. & Nora P. (dir.) (1974), Faire de l’histoire, I. Nouveaux
problèmes, II. Nouvelles approches, III. Nouveaux objets, Paris,
Éditions Gallimard.
Lemarchand, Y. & Nikitin, M. (2013), La méthode en histoire et l’histoire
comme méthode. Document de recherche n°12, Laboratoire
d’Économie d’Orléans, Université d’ Orléans.
Marrou, H.I. (1954), De la connaissance historique, Paris, Le Seuil.
Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Miles, M.B. & Huberman, A.M. (1994), Qualitative Data Analysis. An


Expanded Sourcebook, 2nd edition, Thousand Oaks, CA, Sage
Publications.
Moscarola, J. & Papatsiba V. (2001), Exploration sans a priori ou
recherche orientée par un modèle : Contributions et limites de
l’analyse lexicale pour l’étude de corpus documentaires, Actes
des 6es Journées internationales d’Analyse Statistique des Données
Textuelles (JADT,) 13-15 mars, Saint-Malo, p. 581-592.
Moscarola, J. (2018), Faire parler les données. Méthodologies
quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business
Science Institute ».
Thiétart, R.A. (2014), Méthodes de recherche en management, 4 e édition,
Paris, Dunod.
Walsh, I. (2015), Découvrir de nouvelles théories. Une approche mixte et
enracinée dans les données, Caen, Éditions EMS, coll. « Business
Science Institute ».
Yin, R.K. (2009), Case Study Research: Design and Methods, 4th edition,
Thousand Oaks, CA, Sage.

Références pour en savoir plus


Moscarola, J. (2018), Faire parler les données. Méthodologies
quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business 189
Science Institute ».
Cet ouvrage situe l’approche historique par rapport aux autres
approches qualitatives et présente les méthodes d’analyse
de contenu, d’analyse lexicale et sémantique. Le site compa-
gnon www.faireparelerlesdonnees.blog présente de nombreux
exemples illustrés avec les logiciels Sphinx.

Seignobos, C. (2014), La méthode historique appliquée aux sciences


sociales, Lyon, ENS Éditions, coll. « Bibliothèque idéale
des sciences sociales ». http://books.openedition.org/
enseditions/492.
Cet ouvrage disponible en ligne présente les grandes étapes
de la méthode historique en discutant sa pertinence pour les
sciences sociales.

Thiétart, R.A. (2014), Méthodes de recherche en management, 4 e édition,


Paris, Dunod.
Cet ouvrage francophone de référence en méthodologie de re-
cherche en management a pour objectif de répondre aux ques-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tions que se pose tout chercheur en gestion et en management,


que ce soit avant, pendant ou après sa recherche.

Walsh, I. (2015), Découvrir de nouvelles théories. Une approche mixte et


enracinée dans les données, Caen, Éditions EMS, coll. « Business
Science Institute ».
Ce livre propose une approche originale applicative de la théorie
enracinée et permet d’élaborer de nouvelles théories en rupture
avec la littérature existante de par l’utilisation de données mixtes
qualitatives et quantitatives.

Yin, R.K. (2009), Case Study Research: Design and Methods, 4th edition,
Thousand Oaks, CA, Sage.
Ce best-seller offre un panorama complet de la conception et
de l’utilisation de la méthode des études de cas en tant qu’outil
de recherche. Le livre offre une définition claire de la méthode
d’étude de cas ainsi qu’une discussion sur les techniques de
conception et d’analyse.

190
CHAPITRE 11.
La collecte des données sur Internet

Jean-François Lemoine

Résumé 

Face à la multitude et à la diversité des données disponibles


sur Internet, l’étudiant en DBA s’interroge régulièrement sur
celles qu’il doit ou non mobiliser dans le cadre de sa thèse.
Afin de lui permettre de réaliser un travail doctoral de qualité
sur le plan scientifique, ce chapitre se propose de l’aider, d’une 191
part, à hiérarchiser les informations collectées sur Internet,
d’autre part, à obtenir des données non mensongères lors de
la réalisation de ses enquêtes en ligne.

Mots-clés : qualité des données, articles scientifiques, clas-


sement des revues académiques, enquêtes par Internet, vali-
dité externe, divulgation des données personnelles.

Les méthodes de recherche du DBA


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

INTRODUCTION
Comment un étudiant en DBA doit-il se comporter face à l’abon-
dance des données mises à sa disposition sur Internet ? La mul-
titude des données consultables sur Internet constitue-t-elle un
avantage pour la réalisation de sa thèse ? Toutes les données
auxquelles ont accès les doctorants se valent-elles d’un point
de vue scientifique ? Comment opérer un tri et une hiérarchi-
sation parmi les données disponibles ? Ces nombreuses ques-
tions se posent inévitablement à tout étudiant de DBA engagé
dans une recherche doctorale tant le recours à Internet semble
représenter aujourd’hui une évidence pour la réalisation de toute
activité professionnelle. Derrière cette apparente facilité d’ac-
cès aux données se cachent pourtant d’importantes difficultés
qui peuvent venir entacher la qualité scientifique de la thèse.
La première est relative à l’évaluation de la qualité scientifique
des informations disponibles. En d’autres termes, les données
consultées ont-elles leur place dans la thèse ? La seconde a trait
à la façon dont il convient d’exploiter les données collectées sur
Internet pour les besoins de l’étude empirique de la thèse. Cela
revient à se demander : quelles sont les précautions à prendre
192 avant d’interpréter, avec la rigueur scientifique qui s’impose
dans un travail doctoral, les informations issues d’une enquête
en ligne ? Le but de ce chapitre est de sensibiliser les étudiants
à ces deux problèmes majeurs et de leur livrer quelques conseils
susceptibles de les éviter.

1. COMMENT S’ASSURER DE LA QUALITÉ


SCIENTIFIQUE DES DONNÉES CONSULTÉES ?
Préalablement à l’exposé de recommandations pratiques sus-
ceptibles d’aider le doctorant à hiérarchiser les données aux-
quelles il est confronté, nous présenterons la diversité de ces
dernières.

1.1. La diversité des données disponibles sur Internet


En quelques clics, tout doctorant a accès à une multitude d’in-
formations prenant diverses formes (témoignages, définitions,
statistiques, articles professionnels et académiques, rapports
L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

d’activité, etc.) mais ne possédant pas le même statut d’un point


de vue scientifique/académique. Ceci a pour conséquence
qu’elles ne pourront pas être mobilisées avec autant d’impor-
tance dans le corps de la thèse.

D’une manière générale, il convient de distinguer les données


académiques de celles qui ne le sont pas (ou moins). Sont prio-
ritairement considérés comme académiques :
–– les articles issus de revues scientifiques qui ont fait l’objet
d’un processus d’évaluation anonyme par des lecteurs, ayant
la plupart du temps le statut d’enseignants-chercheurs,
regroupés au sein d’un comité de lecture. Citons, à titre
d’exemples, Finance, Organization Studies, Management
International, Recherche et Applications en Marketing, Review of
Accounting Studies, Revue de Gestion des Ressources Humaines,
Systèmes d’Information et Management, etc. ;
–– les communications présentées dans le cadre de colloques
scientifiques nationaux et internationaux (colloque de l’As-
sociation Information Management, congrès internatio-
nal de l’Association Française du Marketing, conférence
annuelle de l’Association Internationale de Management 193
Stratégique, Hawaii International Conference on System
Sciences (HICSS), etc.) ;
–– les ouvrages et les chapitres d’ouvrages rédigés par des
enseignants-chercheurs ;
–– les thèses de doctorat.

Ce sont principalement les données issues de ces différentes


sources qui devront être privilégiées pour la rédaction de la
thèse. Bien entendu, cela ne veut pas dire que les données non
académiques, telles que les articles managériaux, les rapports
d’entreprise, les statistiques issues de fédérations ou de syn-
dicats professionnels, ne doivent pas être mobilisées dans le
cadre d’un travail doctoral. Elles présentent en effet une utili-
té certaine lorsqu’il s’agit de contextualiser sa recherche d’un
point de vue managérial, de souligner l’intérêt pratique ou l’im-
portance de son travail, d’illustrer ses propos, de décrire un
secteur d’activité ou des comportements de consommateurs,
etc. Il convient donc de ne pas faire preuve de sectarisme à leur
égard mais de les exploiter de manière plus parcimonieuse que
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

les données académiques. Pour parvenir à réaliser ce savant do-


sage entre données académiques et données non académiques,
il est conseillé, notamment au cours de la première année de
thèse, de revenir régulièrement vers le directeur de recherche
afin qu’il éclaire le doctorant sur les pratiques en cours selon la
discipline d’appartenance.

1.2. Les aides à la classification des données


scientifiques
Pour aider le doctorant à hiérarchiser, sur le plan académique,
les différents articles qui sont à sa disposition sur Internet, il est
utile de s’aider des différents classements existant en matière
de revues scientifiques. Ils sont réalisés régulièrement par des
organismes étrangers (EJL néerlandais, ABS anglais, VHB alle-
mand, ABDC australien, Financial Times, etc.) et français (clas-
sement FNEGE, CNRS, HCERES, Essec, HEC, etc.). Si on prend
l’exemple du classement de la Fondation Nationale pour l’Ensei-
gnement de la Gestion des Entreprises (FNEGE), il est élaboré à
partir des critères suivants (FNEGE, 2016, p. 9) :
194 –– la gouvernance de la revue (rotation du rédacteur en chef,
nomination des équipes éditoriales, caractère internatio-
nal du comité éditorial, efforts pour la Francophonie) ;
–– la qualité du processus de révision des articles (respect
des standards académiques d’évaluation (double aveugle),
gestion rigoureuse du processus de révision (délais de ré-
ponses aux auteurs), taux de sélectivité) ;
–– la diffusion et l’impact des revues (reconnaissance externe
de la revue via la citation des articles publiés et l’apparte-
nance à des classements nationaux et internationaux), le
caractère « gestionnaire » de la revue (thématique, pré-
sence et importance de collègues gestionnaires dans le
comité éditorial).

À titre d’illustration, le classement 2016 de la FNEGE débouche


sur la typologie suivante (FNEGE, 2016, p. 10) :
–– revues classées 1 : revues les plus remarquables des
sciences de gestion (ou d’une sous-discipline des sciences
de gestion) ;
L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

–– revues classées 2 : revues très sélectives avec un proces-


sus de révision très exigeant ;
–– revues classées 3 : revues répondant aux principes d’arbi-
trage, de sélectivité et de qualité qui en font de très bonnes
revues, avec une bonne réputation scientifique et des
contributions importantes, à un degré toutefois inférieur
aux revues des deux premiers rangs ;
–– revues classées 4 : revues répondant complètement aux
principes d’arbitrage des revues scientifiques, avec une
bonne sélectivité, accueillant des contributions originales.
Leur reconnaissance et leurs indices de qualité sont bons
mais à un degré moindre que les revues classées aux rangs
supérieurs.

À l’aide de ces différents classements, l’étudiant débutant en


DBA pourra se rassurer quant à la dimension académique des
articles qu’il se procure sur Internet et quant à la pertinence de
leur mobilisation dans le cadre de sa thèse. Il sera également
en mesure de les différencier, de les hiérarchiser selon leur de-
gré de scientificité, de complexité. Si les différents classements
élaborés par les institutions savantes sont utiles pour le cher- 195
cheur, ils doivent néanmoins être utilisés avec raison et ne pas
conduire à l’exclusion systématique des supports n’y figurant
pas. En d’autres termes, il peut exister des références non clas-
sées dont la lecture peut aider le doctorant à progresser dans
sa réflexion. Ne pas les mobiliser sous le seul prétexte qu’elles
n’apparaissent pas dans des classements constituerait une er-
reur. Là encore, tout est question de dosage et s’il convient de
privilégier la lecture de revues classées dans le cadre d’un tra-
vail doctoral, il ne faut pas se priver, lorsque cela est utile à la
recherche du candidat, de mobiliser d’autres supports.

Par ailleurs, il convient de faire preuve de recul par rapport à ces


classements dans la mesure où :
–– ils sont évolutifs. Une revue non classée à l’instant t peut
l’être en t+1. La FNEGE prend en compte cette possible
apparition de nouvelles revues au sein de son classement
en proposant une rubrique intitulée « revues émergentes »
composée de supports scientifiques en passe d’être inté-
grés à court terme à sa classification. À l’inverse, il peut
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

arriver qu’une référence soit déclassée. De telles possibili-


tés doivent donc amener le doctorant à faire preuve de mo-
dération et de prudence quant à son évaluation de la qualité
scientifique d’un support ;
–– ils ne convergent pas tous. Ainsi, la Revue Française de Gestion
qui est classée 2 dans le classement 2016 de la FNEGE est
catégorisée 3 dans le classement 2017 du CNRS. Une telle
situation ne doit pas conduire l’étudiant en DBA à remettre
en cause la qualité scientifique du support consulté.

2. COMMENT EXPLOITER LES DONNÉES


COLLECTÉES SUR INTERNET LORS DE LA
RÉALISATION D’UNE ÉTUDE EMPIRIQUE ?
Après une présentation des risques susceptibles d’affecter la
qualité des études empiriques réalisées par Internet, nous for-
mulerons quelques recommandations pratiques afin d’aider
les doctorants à collecter des données les moins mensongères
possible lors de la mise en œuvre de leurs enquêtes en ligne.

196
2.1. La prise en compte des risques associés à la
collecte des données sur Internet
L’intérêt des enquêtes par Internet est de pouvoir contacter faci-
lement et rapidement un grand nombre d’individus. Par ailleurs,
les taux de réponse traditionnellement obtenus pour ce genre
d’étude sont beaucoup plus élevés que ceux classiquement as-
sociés aux enquêtes administrées en face à face, par voie postale
ou par téléphone. Ces éléments constituent indéniablement des
avantages pour les étudiants de DBA qui disposent la plupart
du temps d’un temps limité pour mener à bien leur recherche.
Pourtant, derrière cette apparente facilité de mise en œuvre de
l’enquête par Internet se cachent des risques récurrents pouvant
mettre à mal la qualité scientifique de l’étude réalisée. Il est donc
indispensable pour le doctorant de toujours les avoir à l’esprit
de manière à pouvoir prendre du recul par rapport aux résultats
obtenus et à être en mesure de relativiser leur portée.

La première limite des études administrées par Internet est


liée à l’impossibilité de contrôler l’identité des répondants.
L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

S’ils ont fourni des données erronées, il n’est pas possible de


le savoir et cela place inévitablement le chercheur dans une
situation d’incertitude par rapport à la composition réelle de
son échantillon et donc à sa représentativité statistique. Dans
tous les cas, l’échantillon constitué est dit de convenance et il
ne permet pas une extrapolation des résultats à la population
totale faisant l’objet de la recherche. Le remplissage incom-
plet de certains questionnaires déposés en ligne constitue un
deuxième risque susceptible de dégrader la valeur de la base
de données composée. Même s’il existe des systèmes infor-
matiques empêchant la validation totale du questionnaire tant
que celui-ci n’a pas été intégralement rempli par l’enquêté, les
doctorants n’y recourent pas systématiquement et se trouvent
donc potentiellement confrontés à ce problème. Enfin, il ne
faut pas sous-estimer la tendance des internautes à adopter
des comportements de non divulgation de leurs données per-
sonnelles. Cela peut se traduire par des absences de réponses
à certaines questions ou par la communication de données
mensongères. Ce type de réaction se produit d’autant plus que
l’internaute est interrogé sur des sujets qu’il juge sensibles et
relevant de sa vie privée. 197
Ces différents risques limitent la validité externe de l’étude
réalisée et empêchent donc toute tentative de généralisation
des conclusions obtenues. Cela doit donc amener le doctorant
à prendre du recul par rapport à ses résultats, à les utiliser
avec une extrême prudence et à ne jamais les présenter comme
des certitudes acquises. Sous ces conditions, le doctorant
est autorisé à exploiter les données collectées et à formuler
avec précaution des recommandations théoriques et/ou
managériales.

2.2. Les solutions à mettre en œuvre pour favoriser la


divulgation de données personnelles sincères
Pour réduire le risque de divulgation de données mensongères
lors des enquêtes en ligne, l’étudiant en DBA peut s’inspirer des
conseils formulés par Lancelot-Miltgen et Lemoine (2015) aux
entreprises afin d’obtenir de la part des répondants des informa-
tions personnelles les plus sincères possible.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Quatre actions sont envisageables (Lancelot-Miltgen & Lemoine,


2015) :
–– offrir aux internautes une contrepartie. D’une manière
générale, les répondants sont d’autant plus enclins à se
consacrer sérieusement et honnêtement à l’enquête dont
ils font l’objet qu’ils savent qu’ils vont recevoir quelque
chose en échange qu’ils jugent satisfaisant. Préalablement
au remplissage du questionnaire, les enquêtés se livrent à
un arbitrage coûts/bénéfices afin d’évaluer si la contrepar-
tie proposée est bien de nature à compenser le risque qu’ils
prennent en dévoilant une partie de leur vie privée (Paine
et al., 2007). Elle peut prendre la forme d’avantages finan-
ciers (rémunération, remise de bons d’achat, de réduction,
abonnement à une revue) ou d’envoi symbolique de petits
cadeaux (stylos, clés USB, etc.) ;
–– faire preuve de pédagogie dans la présentation de l’enquête
en explicitant précisément son utilité et sa finalité ;
–– soigner la formulation de la demande en recourant à un
vocabulaire simple, compréhensible par tous mais égale-
198 ment en offrant aux répondants des modalités de réponse
variées, renforçant leur sentiment de liberté en matière de
données à fournir, et la possibilité de ne plus être sollicités
ultérieurement. Par ailleurs, la collecte de données sen-
sibles doit être réduite à un nombre limité de questions pour
lesquelles les réponses à communiquer sont courtes ;
–– gagner la confiance du répondant en fournissant l’identité
et le titre de l’enquêteur, en précisant le caractère confiden-
tiel de l’étude et en rassurant l’internaute quant à l’aspect
sécurisé du site sur lequel a lieu la collecte des données.

En suivant ces recommandations, l’étudiant peut espérer favori-


ser les comportements de dévoilement de soi de ses répondants
en réduisant leurs craintes de voir leur vie privée mise à mal par
l’étude réalisée et en limitant leur propension à fournir des don-
nées erronées. Même si elle ne met pas totalement à l’abri le doc-
torant d’une collecte de données biaisées, la mise en œuvre de
ces conseils lui permet néanmoins d’attester de sa clairvoyance
en matière d’étude réalisée sur Internet et d’afficher vis-à-vis de
L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

ses pairs sa volonté de tout mettre en œuvre pour conduire une


recherche scientifique de qualité.

CONCLUSION
À la question « peut-on mobiliser, dans le cadre d’une thèse de
DBA, toute information disponible sur Internet ? », la réponse
est non. En effet, les données consultables en ligne sont de
qualité inégale sur le plan académique et sont susceptibles de
mettre à mal la rigueur scientifique dont doit faire preuve un tra-
vail doctoral. Dans la mesure où il arrive qu’elles soient parfois
utiles au doctorant dans l’élaboration de sa réflexion, il convient
malgré tout de ne pas les rejeter systématiquement mais plutôt
de les exploiter avec parcimonie, clairvoyance et lucidité. On at-
tendra de l’étudiant de DBA qui utilise des données collectées
sur Internet qu’il en explique précisément les raisons (souci de
contextualisation de la recherche, volonté de démontrer l’impor-
tance du sujet traité par des données économiques, etc.), qu’il
soit en mesure de les relativiser, d’un point de vue scientifique,
par rapport aux données académiques et qu’il les exploite avec
199
prudence afin de mettre à jour des contributions théoriques et
managériales reconnues de manière indiscutable par la commu-
nauté des chercheurs et des praticiens.

Références citées
FNEGE (2016), Classement des revues scientifiques en sciences de
gestion, juin, Paris.
Lancelot-Miltgen, C. & Lemoine, J.-F. (2015), Mieux collecter les
données personnelles sur Internet. Une étude qualitative auprès
d’internautes français, Décisions Marketing, n° 79, p. 35-52.
Paine, C., Reips, U.D., Stieger, S., Joinson, A. & Buchanan, T. (2007),
Internet users’ perceptions of privacy concerns and privacy
actions, International Journal of Human-Computer Studies, vol. 65,
n° 6, p. 526-536.

Références pour en savoir plus


CNRS (2017), Catégorisation des revues en Économie et en Gestion,
décembre, Paris.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

En comparant ce classement à celui de la FNEGE (2016), vous


pourrez constater comment les différentes revues académiques
existantes peuvent faire l’objet de typologies différentes.

Evrard, Y., Pras, B. & Roux, E. (2009), Market : fondements et méthodes


de recherche en marketing, 4 e édition, Paris, Dunod.
Cet ouvrage vous aidera à mieux comparer, sur le plan des avan-
tages et des inconvénients, les enquêtes réalisées sur Internet
aux études administrées en face à face, par voie postale ou par
téléphone.

Wirtz, J., Lwin, M. & Williams, J.D. (2007), Causes and consequences
of consumer online privacy concern, International Journal of Service
Industry Management, vol. 18, n° 4, p. 326-348.
Cet article explique comment la préoccupation pour le respect
de la vie privée sur Internet génère des comportements spéci-
fiques en matière de divulgation des données personnelles.

200
CHAPITRE 12.
Questionnaires et questionnaire en ligne

Jean Moscarola

Résumé

On présente tout d’abord ce qui distingue les questionnaires


conçus pour la recherche pour ensuite expliciter les apports
des enquêtes en ligne. Les exemples cités sont présentés
en détail sur le site associé https://faireparlerlesdonnees.
blog/ qui présente également les modes opératoires pour la 201
construction d’un questionnaire en ligne.

Mots-clés : formulaire, design, interactivité, sondage, emai-


ling, taux de réponse.

Les méthodes de recherche du DBA


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

“The rise of online survey is accompanied with the rise of big data. It is of
critical importance to design the online survey to enable survey data to be
related to the other kinds of data.”
Vera Toepoel

INTRODUCTION
Les questionnaires sont utilisés par les organismes publics et
organisations en charge de populations, ils servent aussi dans
les entreprises à enquêter auprès des clients ou des collabo-
rateurs. Dans l’administration ou en informatique on parle de
questionnaire ou de formulaire pour qualifier les documents ou
interfaces destinés à recueillir des informations servant à définir
des droits ou à lancer une application.

Tous ces usages reposent sur un travail de formalisation plus


ou moins abouti selon la liberté laissée dans le choix et l’expres-
sion des réponses. Un formulaire administratif ou informatique
définit très précisément les situations ou actions possibles, un
questionnaire de satisfaction peut laisser place à une libre ex-
pression.
202
La qualité des informations1 recueillies dépend autant des ques-
tions et du support, que des protocoles de diffusion, de recueil
et d’enregistrement des réponses.

Au cours des vingt dernières années, Internet a profondément


transformé l’usage des questionnaires. Les protocoles tra-
ditionnels de diffusion par voie postale de questionnaires au-
to-administrés, ou d’enquêtes menées en face à face ou au télé-
phone avec l’assistance d’un enquêteur ou d’un téléacteur, ont
été massivement remplacés par les questionnaires diffusés en
ligne. Ainsi disparaissent l’assistance par un tiers (enquêteur
ou téléacteur) et la nécessité de saisir les réponses reçues par
voie postale ou recueillies par les enquêteurs. C’est désormais
le répondant qui le fait. Cela a conduit à une explosion de l’usage
des questionnaires devenu beaucoup moins coûteux et à l’appa-
rition de nouvelles pratiques que nous examinerons dans la sec-

1. De l’existence de la réponse à son authenticité les critères sont nombreux et diffi-
ciles à définir. L’absence de réponse peut aussi bien venir de l’incompréhension de
la question que du refus de répondre. Sans parler des réponses « stratégiques ».
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

tion 2 après avoir passé en revue les grandes caractéristiques


des questionnaires et leur intérêt pour la recherche.

1. L’USAGE DES QUESTIONNAIRES POUR LA


RECHERCHE
Les questionnaires viennent en complément des autres sources
évoquées dans les chapitres précédents et ne doivent pas être
confondus avec les entretiens : les questions sont précises, po-
sées de manière systématique, les possibilités de réponses le
plus souvent explicitées. Toutefois, l’analyse d’entretiens peut
aider à la conception d’un questionnaire, et le formalisme des
questionnaires peut être utilisés pour analyser le contenu des
entretiens (Moscarola, 2018).

1.1. Questionnaire en situation managériale


Le recours aux questionnaires n’est pas spécifique à la re-
cherche. Les managers et les consultants les utilisent pour éva-
luer des résultats et réagir (enquête qualité, de satisfaction2, de
climat interne, baromètres), pour éclairer une décision (étude 203
de marché) ou pour mettre en place des observatoires, faire
des points réguliers et suivre les opérations. Dans tous ces cas
l’information recherchée est finalisée par l’action ou par la pro-
duction de connaissances descriptives très spécifiques à un do-
maine.

Les buts du chercheur sont différents : produire une connais-


sance générale dont la portée ne se limite pas à un cas particu-
lier ou à une décision, mais se réfère à des théories et connais-
sances existantes. Cette nouvelle connaissance doit pouvoir
être enseignée et apporter une compréhension plus générale et
applicable à d’autres cas.

Il est plus facile pour des managers-chercheurs, immergés


dans leur terrain, d’administrer un questionnaire. Mais pour ré-
pondre aux exigences de la recherche il faut aller plus loin que
la construction d’un questionnaire de satisfaction, de climat so-

2. SERVQUAL (voir Parasurama et al., 1988).


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cial ou que la mise en place d’un observatoire. Néanmoins, ces


approches managériales peuvent être une opportunité pour une
première analyse exploratoire conduisant à ajouter des questions
plus globales permettant de problématiser le questionnaire.

Examinons maintenant quelques usages de questionnaires très


spécifiques à l’approche recherche.

1.2. Questionnaires en situation expérimentale


Les approches expérimentales consistent à mettre des per-
sonnes en situation de réaliser une tâche en vue d’observer leur
action et de recueillir de l’information. Ces méthodes initiées en
psychologie expérimentale par le test de Rorschach (1921) ont
été vulgarisées par le Thematic Apperception Test ou TAT (Brelet,
1986). La méthode consistait à montrer aux répondants des
planches de dessins figuratifs représentant des situations, et de
leur demander de raconter une histoire à partir de ces planches.
Leur récit est ensuite interprété par l’analyste. Ce principe est
repris en marketing et gestion des ressources humaines par les
méthodes d’analyse conjointe (Green & Srinivasan, 1990). Le but
204
est d’identifier les préférences de consommateurs ou de sala-
riés en les faisant choisir entre des paires de cartes présentant
les attributs de différents produits ou postes de travail. Leurs
choix sont ensuite analysés statistiquement. Ces méthodes re-
posent sur des questionnaires présentant des documents figu-
ratifs et donnant lieu à des réponses libres (TAT) ou spécifiées
(« analyse conjointe », Guillot-Soulez & Soulez, 2009).

La méthode Delphi (Linstone & Turoff, 2002) consiste à interro-


ger des experts sur des projets. Dans un premier temps ils ré-
pondent à un questionnaire en évaluant les différents aspects
du projet. Dans un deuxième temps la moyenne des évaluations
est communiquée à chaque expert en leur donnant la possibilité
de réviser leurs propres évaluations ou d’expliquer pourquoi ils
les maintiennent.

Ces approches ont en commun de faire réagir les répondants.


Elles ont longtemps été limitées par la lourdeur du protocole im-
pliquant la production et le maniement des planches figuratives
ou la communication de résultats et le recueil des réactions.
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Comme nous le verrons, les possibilités offertes par Internet ont


permis d’étendre ces usages en les banalisant.

1.3. Questionnaire instrument de mesure


Les questionnaires sont utilisés en psychologie pour évaluer
les caractéristiques mentales ou comportementales d’un indi-
vidu invité à indiquer son degré d’accord avec des énoncés qui
lui sont proposés. Les réponses sont données sur des échelles
de Lickert (1932) à nombre d’échelons impairs, 5 ou 7 le plus
souvent 3. La psychométrie définit les méthodes permettant de
valider le questionnaire en l’administrant à un grand nombre
de personnes pour vérifier la qualité de la mesure. Les tests
du coefficient intellectuel ou de l’intelligence émotionnelle en
sont des exemples. Ces méthodes sont reprises en sciences
sociales pour définir des concepts abstraits comme la person-
nalité, l’attitude (Igalens & Tahri, 2012) les valeurs (Schwartz,
2006 ; Hofstede, 2001) et caractériser des populations. Les cher-
cheurs en gestion se sont inspirés de ces méthodes pour définir
des concepts et les opérationnaliser par des échelles de mesure
dont la publication est un résultat de recherche qui nécessite 205
le respect d’une méthodologie rigoureuse (Touzani & Salaani,
2000 ; Brignier, 1991).

Ainsi le Handbook of Management Scales4 ou le Handbook of


Marketing Scales (Bearden & Netemeyer, 1999) publient des
échelles utilisées, testées et publiées dans tous les domaines du
management. C’est une référence utile pour le chercheur même
s’il est nécessaire de les adapter aux contextes particuliers no-
tamment lorsqu’elles comportent de très nombreux items forte-
ment redondants5.

1.4. Questionnaire modélisation


Lorsque l’objet de la recherche est de tester des hypothèses, une
théorie ou un modèle, l’approche standard consiste à construire

3. Pour éviter les prises de positions forcées.


4. h ttps://en.wikibooks.org/wiki/Handbook_of_Management_Scales
5. Ce qui se justifie lorsque le questionnaire est passé par un professionnel psycho-
logue.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

le questionnaire en opérationnalisant les concepts de la théorie


avec des échelles de mesure. On parle de « construit » pour défi-
nir la mesure de chaque concept résultant de l’application d’une
batterie d’échelles. Les relations entre construits définissent
le modèle. Les techniques de modélisation en équation struc-
turelle (Bagozzi, 1981) donnent la possibilité de tester directe-
ment le modèle à partir des données recueillies. Cette approche
connaît un grand succès autant par son caractère pédagogique
(Kühnel, 2001) car elle guide la construction du questionnaire,
que par la portée de ses résultats. Elle permet en effet de tester
globalement le modèle, de qualifier l’importance des influences
entre concepts et de visualiser cela par un diagramme.

Figure 1. Des concepts aux questions :


le questionnaire modèle

206

La figure 1 illustre les principes de construction d’un question-


naire en opérationnalisant des concepts. Le TAM est un modèle
ayant donné lieu à de nombreuses recherches en système d’in-
formation.
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

1.5. Questionnaire exploratoire


Face aux difficultés à appliquer les théories de la mesure dont les
conditions sont très exigeantes, ou en préférant une approche
inductive, le chercheur peut opter pour un questionnaire explora-
toire fondé sur une problématique plus générale visant à identi-
fier des influences de contextes ou de circonstances, ou à appré-
hender différents points de vue. Il cherche ainsi à collecter des
données en explorant plusieurs facettes et en cherchant sur le
mode de la « théorie enracinée » (Walsh, 2015) à faire émerger des
hypothèses nourries de ses observations plutôt que la littérature.

Figure 2. Explorer en décrivant

207

Les schémas dans la figure 2 illustrent deux manières de voir


l’objet de la recherche dont les chercheurs peut se servir pour
construire un questionnaire exploratoire (Moscarola, 2018).

1.6. Questionnaire outil d’analyse


Enfin un questionnaire peut être utilisé comme une grille d’ana-
lyse que le chercheur construit pour différents usages de caté-
gorisation et de compilation des informations qu’il rencontre en
différentes circonstances de sa recherche. Il peut ainsi tenir son
journal de recherche en notant dans un formulaire évènements,
activités, lectures et réflexion. Enfin s’il analyse des transcrip-
tions d’entretiens, il peut le faire à l’aide d’une grille thématique,
ou d’un « codebook » réalisé avec un formulaire.

Dans tous ces cas le chercheur dialogue avec lui-même, orga-


nise et consigne sa pensée en documentant les zones d’un for-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

mulaire comme s’il répondait à un questionnaire sur ce qu’il a


fait, observé, lu, ou compris du corpus qu’il analyse.

À la place des traditionnels cahiers, blocs notes ou dossiers, il


utilise un système d’information numérique, construit et structu-
ré en zones et rubriques correspondant aux catégories concep-
tuelles de sa recherche. Ce qu’il perd en contrainte de forme et
rigidité est compensé par des capacités accrues d’archivage,
de gestion et d’analyse. Ce travail peut être entrepris avec l’aide
d’un tableur, d’un outil de gestion documentaire ou en construi-
sant un questionnaire.

2. LES QUESTIONNAIRES EN LIGNE, PORTÉE ET


LIMITES
Internet remplace le support papier en y ajoutant les propriétés
d’un support multimédia pour solliciter des répondants en diffu-
sant 6 des formulaires. De plus il apporte une intelligence auto-
matisée avec la possibilité par exemple d’adapter les questions
en fonctions des réponses ou de réguler les sollicitations pour
208 respecter des quotas. Ces tâches traditionnellement dévolues
aux enquêteurs sont, comme bien d’autres, prises en charge par
le système.

À la suite des premiers questionnaires en ligne apparus à la


fin des années 1990 sous forme de pages html, on assiste à une
remarquable adaptation des usages à l’évolution des technolo-
gies. Dès 2004 Kaplowitz et al. (2004) parlent de démocratisation
de la recherche et en 2010, Frippiat et Marquis (2010), dans leur
état des lieux, montrent que mener une enquête via Internet est la
solution la moins coûteuse et la plus rapide. En 2015 Callegaro et
al. (2015) décrivent les possibilités des formulaires dynamiques,
associés à des bases de données et de format adaptable à tout
type d’appareil mobile. En 2017 Fielding et al. (2017) prennent
la mesure des ces évolutions et dressent l’actualité d’une re-
cherche en sciences sociales où le traditionnel questionnaire en
ligne coexiste avec la récupération de commentaires spontané-
ment déposées sur le web. L’ethnographie virtuelle ou « netno-

6. Les outils d’e-mailing permettent des gérer la campagne de collecte.


Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

graphie » (Kozinets, 2009) vient ainsi brouiller des clivages his-


toriques.

Cette évolution se fait grâce à la technologie, et de nom-


breuses études ont montré l’effet positif de l’image (Ganassali
& Moscarola, 2004 ; Middleton et al., 2014) et de l’interactivité
(Bouzidi, 2012) sur l’efficacité des questionnaires mesurée par
les taux de réponses et de remplissage (Ganassali & Moscarola,
2004 ; Galesic & Bosnjak, 2009). Pour ce qui concerne la qualité
des réponses les conclusions sont moins nettes. L’incitation à
répondre provoquée par la présence d’un enquêteur est moins
forte, mais l’influence sur le contenu des réponses (« désirabilité
sociale »7) plus faible également. Tout dépend des cibles, ainsi
que des leviers dont le chercheur dispose pour s’y adapter.

2.1. Diffusion et sollicitation


Internet apporte une flexibilité et une rapidité inégalées pour
diffuser des questionnaires en déposant un lien sur un site ou
un réseau social, en l’envoyant par mail ou en utilisant un outil
d’emailing. Cette solution est de loin la plus efficace pour per-
209
sonnaliser la sollicitation et gérer les relances, mais elle néces-
site de disposer d’adresses mail. Ce mode de diffusion parti-
culièrement adapté aux enquêtes en « milieu connu » donne un
avantage certain aux managers-chercheurs qui obtiennent de
très bon taux de réponses (Mottet, 2016) au sein de leur entre-
prise. Mais il faut aussi savoir relancer car Internet est un media
rapide, autant pour provoquer une réaction que pour laisser la
sollicitation dans l’oubli. Enfin pour obtenir de bon taux de ré-
ponses et échapper au biais de ce média, il faut poursuivre la
collecte par téléphone ou enquêteur.

2.2. Effet de design


L’usage des couleurs, des images, des graphismes, des icônes
et émoticons donne au questionnaire une apparence séduisante
et ludique et permet de l’adapter à une charte graphique. De très

7. Biais qui consiste à vouloir se présenter sous un jour favorable à ses interlocu-


teurs (Wikipédia).
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

nombreuses études (Couper, 2008 ; Ganassali, 2008) ont montré


les effets de ces ajouts qui compensent l’absence de stimulation
humaine. Mais il faut savoir aussi résister à la tentation d’en faire
trop (Couper, 2008).

2.3. L’effet de dévoilement et de scénarisation


Dans les enquêtes papier auto-administrées le répondant dé-
couvre les intentions du chercheur en prenant connaissance du
questionnaire. Avec un enquêteur c’est lui qui dévoile progressi-
vement les questions. Sur Internet, leur apparition est contrôlée
par le découpage en pages du formulaire. Cela permet de débu-
ter par des questions ouvertes sans dévoiler l’objectif de l’étude.
Le répondant ne découvre les intentions des auteurs qu’après
avoir répondu à une première séquence de questions ouvertes.
Cette opportunité permet de concevoir des questionnaires hy-
brides (Ganassali, 2016) avec une première partie qualitative et
exploratoire assimilable à un entretien préalable ouvert et une
deuxième destinée à tester un modèle théorique. Dans la tradi-
tion des test projectifs, les réponses à la partie ouverte peuvent
210 être stimulées par un mur d’images (Ganassali, 2016).

Un autre effet de dévoilement consiste à présenter les réponses


(modalités, items d’une batterie d’échelles, images d’un mur
d’images) de manière aléatoire afin d’éliminer les biais liés aux
ancrages perceptifs sur les premiers éléments (« effet de pri-
mauté » selon Tourangeau & Rasinski, 2000).

2.4. Interactivité dynamique et sémantique


L’absence d’enquêteur peut être compensée sur le web par des
effets d’interactivité donnant au répondant le sentiment qu’il a
un interlocuteur. L’interactivité dynamique consiste à faire ap-
paraître les items au fur et à mesure de l’avancement de ses
réponses : « effet d’exposition ». L’interactivité sémantique
consiste à faire varier les questions en fonctions des réponses
précédemment apportées comme s’il y avait un interlocuteur :
« effet d’interpellation ». On peut enfin mentionner l’interactivité
de groupe qui, dans la tradition de la méthode Delphi consiste à
informer le répondant des réponses apportées par les autres en
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

l’interpellant ou en lui demandant de confirmer ou de modifier sa


réponse (Boughzala, 2010).

Des études (Ganassali, 2008 ; Bouzidi, 2012) montrent les effets


positifs de l’interactivité sur la qualité des réponses. Au-delà de
l’effet d’interpellation, l’interactivité sémantique permet aussi au
chercheur de contrôler ses interprétations en soumettant en temps
réel ses conclusions à l’avis du répondant8 (Boughzala, 2010).

2.5. Effets de partage et collaboration


Les questionnaires en ligne permettent aussi d’organiser la re-
cherche sur un mode collaboratif en diffusant un lien aux per-
sonnes-relais chargées d’organiser la collecte auprès de diffé-
rentes populations. La collaboration peut également porter sur
le partage entre chercheurs d’une grille d’analyse commune per-
mettant de répartir le travail d’analyse bibliographique ou d’ana-
lyse de contenu.

2.6. Efficacité et limites des enquêtes en ligne


211
Seules les populations connectées sont atteignables ce qui
exclut certaines personnes et conduit à en sur-représenter
d’autres (« biais d’exposition »). Le deuxième inconvénient tient
à la qualité des réponses (voir aussi figure 3) plus incertaine que
celles obtenues avec des enquêteurs expérimentés : abandons
en cours, non-réponses, réponses « simplement pour avancer »,
saisies erronées, orthographe approximative… Ces biais d’inté-
rêt peuvent être compensés par les effets de design, de scénari-
sation ou d’interactivité, mais la nécessité de « nettoyer les don-
nées » pour qualifier un échantillon exploitable réduit l’efficacité
et augmente les coûts. Enfin, l’apparente facilité à concevoir un
questionnaire et l’aspect ludique des effets de design ou d’in-
teractivité peuvent conduire à un questionnaire trop long, mal
compris où qui lasse le répondant. La technologie ne doit pas
prendre le pas sur la réflexion, la connaissance du terrain et les
contenus (Couper, 2008).

8. Un calcul en temps réel permet de situer le répondant en fonction de ses réponses
et de l’interpeller sur cette base.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 3. Ce qui détermine la qualité d’un


questionnaire en ligne

Source : Ganassali & Moscarola, 2004

3. QUELQUES EXEMPLES
Les exemples ci-dessous sont présentés en détail à l’adresse
suivante : https://faireparlerlesdonnees.blog/questionnaire

212 3.1. Grandes enquêtes


Un groupe de trente universités européennes met en ligne un
questionnaire hybride rédigé dans vingt-trois langues différentes
comportant un mur d’images et des questions destinées à étudier
l’usage des boissons en Europe du point de vue de la consomma-
tion et de la culture (Santos et al., 2013). Plus de 15 000 réponses
ont été collectées sur une période de 6 mois. Chaque universi-
té gère sa collecte en diffusant un questionnaire multi-langue.
Les réponses sont consolidées dans une base commune.
L’analyse de contenu des commentaires suscités par le mur
d’image est effectuée avec un « codebook » en ligne partagé entre
les codeurs de chaque université qui lisent les réponses dans le
formulaire et les codent.

3.2. Questionnaire exploratoire


Pour lancer sa recherche sur la prise en compte des normes
environnementales dans les projets urbains, Vincent Mottet
(Mottet, 2016) diffuse à ses collègues, cadres dirigeants de l’État
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

de Genève, un questionnaire sur leur perception de l’environne-


ment et de l’action des acteurs du développement territorial. Ils
le connaissent tous et il obtient en un mois un excellent retour à
son questionnaire en ligne. Cette première enquête lui permet
d’affiner sa problématique. L’usage d’un mur d’image introductif
a certainement contribué à la qualité des retours.

3.3. Questionnaire managérial


Amara Kouyatey, membre dirigeant de la Banque Ouest
Africaine de Développement lance dans le cadre de ses acti-
vités de directeur des ressources humaines un questionnaire
auprès des cadres de cette banque présente dans neuf pays.
Il conçoit son questionnaire en référence aux instruments des
ressources humaines, à la satisfaction et à l’engagement des
collaborateurs. Il répond ainsi au besoin d’évaluer les actions de
sa banque et à des questions théoriques débattues dans la lit-
térature. Il y parvient par un effort de modélisation. Sa position
dans la banque et la diffusion par du questionnaire par Internet
lui permettent d’obtenir des données qu’un chercheur acadé-
mique n’aurait pas pu obtenir.
213

3.4. Questionnaire modélisation et interactivité


Younes Boughzala dans le cadre d’une thèse académique
(Boughzala, 2010), étudie l’adoption d’un système d’information.
Il se réfère à un modèle classique qu’il enrichit en examinant le
rôle de la confiance. À la fin du questionnaire diffusé en ligne,
le système affiche un commentaire qui caractérise le répondant
et l’invite à réagir en s’expliquant. Le chercheur vérifie ainsi la
pertinence de ses interprétations et l’analyse des réponses sti-
mulées par l’interpellation permet d’approfondir les conclusions
de la recherche.

D’autres recherches sont présentées sur le site avec une des-


cription de modes opératoires.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

4. CONCEVOIR UN QUESTIONNAIRE OU UNE GRILLE


D’ANALYSE ET LES METTRE EN LIGNE

4.1. Les outils


Il existe désormais de très nombreux services web proposant la
réalisation et la mise en ligne de questionnaires. Ils offrent tous
de nombreuses possibilités de mise en forme et de design. Les
exemples présentés ont été mis en œuvre avec les outils Sphinx9
qui présentent l’avantage d’offrir de nombreuses possibilités de
scénarisation et d’interactivité mais surtout d’être intégrés à des
outils d’emailing et d’analyse statistique, lexicale et sémantique
très complets.

4.2. La méthode
La disposition d’outil informatique est incontournable mais
cette condition nécessaire n’est pas suffisante. Pour concevoir
un bon questionnaire qu’il soit en ligne ou non, il faut concréti-
ser les concepts et modèles théoriques dans un langage com-
214 pris par les répondants et qui les motive. Bref, articuler théorie
et terrain pour répondre à la question de recherche. Cela néces-
site tout un travail préalable, comportant une phase de test des-
tinée à vérifier le bon fonctionnement des outils et l’adaptation
du questionnaire aux interlocuteurs (Saris & Gallhofer, 2014).
Cette phase de test est cruciale est doit être entreprise le plus
rapidement possible. La flexibilité des questionnaires en ligne
le permet.

Références citées
Bagozzi, R.P. (1981), Evaluating structural equation models with
unobservable variables and measurement error, Journal of
Marketing Research, vol. 18, n° 3, p. 375-381.
Bearden, W. O. & Netemeyer, R. G. (1999), Handbook of Marketing
Scales, Thousand Oaks, CA, Sage.
Boughzala, Y. (2010), Le rôle de la confiance dans l’adoption des systèmes
d’information : Cas de l’E-achat public en France, Thèse de doctorat
en sciences de gestion, Université de Savoie Mont Blanc.

9. Sphinx Déclic est le service en ligne de Sphinx.


Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Bouzidi, W. (2012), L’interactivité dans les enquêtes en ligne, Thèse de


doctorat en sciences de gestion, Université de Savoie Mont
Blanc.
Brelet, F. (1986), Le TAT – Fantasme et situation projective, Paris,
Éditions Dunod.
Brignier, J.-M. (1991), L’influence des échelles de mesures sur les
réponses collectées dans les enquêtes, Recherche et Application
en Marketing, vol. 6, n° 1, p. 1-25.
Callegaro, M., Manfreda, K.L. & Vehovar, V. (2015), Web Survey
Methodology, Thousand Oaks, CA, Sage.
Couper, M. (2008), Designing Effective Web Surveys, Cambridge,
Cambridge University Press.
Fielding, N. G., Lee, R. M. & Blank, G. (eds.) (2008), The SAGE
Handbook of Online Research Methods, Thousand Oaks, CA, Sage.
Frippiat, D. & Marquis, N. (2010), Les enquêtes par Internet en
sciences sociales : un état des lieux, Population, vol. 65, n° 2,
p. 309-338.
Galesic, M. & Bosnjak, M. (2009), Effects of questionnaire length on
participation and indicators of response quality in a web survey,
Public Opinion Quarterly, vol. 73, n° 2, p. 349-360.
Ganassali, S. (2008), The influence of the design of web survey
questionnaires on the quality of responses, Survey Research 215
Methods, vol. 2, n° 1, p. 21-32.
Ganassali, S. (2016), Presenting online multi-image elicitation: The
contributions of a hybrid protocol, Recherche et Applications en
Marketing (English Edition), vol. 31, n° 4, p. 65-82.
Ganassali, S. & Moscarola, J. (2004), Protocoles d’enquête et
efficacité des sondages par internet, Décisions Marketing, n° 33,
p. 63-75.
Green, P. E. & Srinivasan, V. (1990), Analysis in Marketing: New
developments with implications for research and practice,
Journal of Marketing, vol. 54, n° 4, p. 3-19.
Guillot-Soulez, C. & Soulez, S. (2009), L’analyse conjointe :
présentation de la méthode et potentiel d’application pour la
recherche en gestion des ressources humaines, Revue de Gestion
des Ressources Humaines, vol. 80, n° 2, p. 33-44.
Hofstede, G. (2001), Culture’s Consequences: Comparing Values,
Behaviors, Institutions and Organizations Across Nations, London,
Sage.
Igalens, J. N. & Tahri, N. (2012), Perception de la RSE par les
salariés : Construction et validation d’une échelle de mesure,
Revue de Gestion des Ressources Humaines, vol. 83, n° 1, p. 3-19.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Kaplowitz, M., Hadlock, T. & Levine, R. (2004), A comparison of web


and mail survey response rates, Public Opinion Quarterly, vol. 68,
n° 1, p. 94-101.
Kozinets, K. (2009), Netnography: Doing Ethnographic Research Online,
Thousand Oaks, CA, Sage.
Kühnel, S. (2001), The didactical power of structural equation
modeling, Conference on Structural Equation Modeling, Present and
Future, A Festschrift in Honor of Karl Joreskog, Uppsala, Sweden,
Scientific Software International, p. 79-96.
Likert, R. (1932), A technique for the measurement of attitudes,
Archives of Psychology, vol. 22, n° 140, p. 55.
Linstone, H.A. & Turoff, M. (eds.) (2002), The Delphi Method:
Techniques and Applications, New Jersey Institute of Technology.
Middleton, A., Bragin, E., Morley, K. I. & Parker, M. (2014), Online
questionnaire development: using film to engage participants
and then gather attitudes towards the sharing of genomic data,
Social Science Research, vol. 44, p. 211-223.
Moscarola, J. (2018), Faire parler les données. Méthodologies
quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business
Science Institute ».
Mottet, V. (2016). Construire une agglomération transfrontalière, Caen,
Éditions EMS, coll. « Business Science Institute ».
216
Parasuraman, A., Zeithaml, V. A. & Berry, L. L. (1988), Servqual:
A multiple-item scale for measuring consumer perception or
service quality, Journal of Retailing, vol. 64, n°1, p. 12.
Rorschach, H. (1921), Psychodiagnostics, Berne, Hans Huber.
Santos, C. R., Ganassali, S., Casarin, F. & Laaksonen, P. (eds.)
(2013), Consumption Culture in Europe: Insight into the Beverage
Industry, Hershey, PA, IGI Global.
Saris, W. E. & Gallhofer, I. N. (2014), Design, Evaluation and Analysis of
Questionnaires for Survey Research, Second edition, Hoboken, NJ,
Wiley.
Schwartz, S. (2006), A theory of cultural value orientations:
Explication and applications, Comparative Sociology, vol. 5, n° 2,
p. 137-182.
Toepoel, V. (2005), Doing Surveys Online, Thousand Oaks, CA, Sage
Publications.
Tourangeau, L. & Rasinski, K., (2000), The Psychology of Survey
Response, Cambridge, Cambridge University Press.
Touzani, M. & Salaani, T. (2000), Le processus de validation des
échelles de mesure : fiabilité et validité, Marketing, vol. 11, n° 3,
p. 290-307.
Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Walsh, I. (2015), Découvrir de nouvelles théories : une approche mixte et


enracinée dans les données, Caen, Éditions EMS, coll. « Business
Science Institute ».

Références pour en savoir plus


Fielding, N. G., Lee, R. M. & Blank, G. (eds.) (2008), The SAGE
Handbook of Online Research Methods, Thousand Oaks, CA, Sage.
Cet ouvrage de référence fait le point sur toutes les sources de
données et méthodes de collecte en ligne. Il vous donnera des
idées sur des approches complémentaires au traditionnel ques-
tionnaire en ligne

Moscarola, J. (2018), Faire parler les données. Méthodologies


quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business
Science Institute ».
Vous y trouverez comment développer votre questionnaire à l’ar-
ticulation des concepts de la littérature et des expériences du
terrain tout en mettant en œuvre les stratégies d’interrogation
que permettent les formulaires en ligne. Des exemples de for-
mulaires en ligne se trouvent également sur le site compagnon :
https://faireparlerlesdonnees.blog/. Le site de l’éditeur des logi-
ciels Sphinx http://www.lesphinx-developpement.fr, vous four- 217
nira des informations sur ces logiciels et sur leur contribution
aux enquêtes en ligne.
CHAPITRE 13.
Pratiquer une recherche-intervention
qualimétrique

Violette Boko et Marc Bonnet

Résumé

Ce chapitre a pour objet d’illustrer la façon dont on peut ré-


aliser une thèse DBA sur la base d’une recherche-action. Il
commence par un passage en revue de plusieurs méthodes
218
possibles de recherche-action, et il justifie le recours à l’une
des méthodes les plus transformatives de recherche-action
appliquées aux sciences de gestion : il s’agit de l’approche de
recherche-intervention qualimétrique. Celle-ci intègre en ef-
fet les effets qualitatifs, quantitatifs et financiers des actions
réalisées. La méthode est illustrée par un cas d’application
dans un établissement scolaire au Bénin. Les impacts de la
recherche-intervention sont évalués à trois niveaux : celui de
l’intervenant-chercheur, celui de l’organisation étudiée et ce-
lui de la contribution à la connaissance scientifique.

Mots-clés : recherche-action, recherche-intervention qua-


limétrique, apprentissage organisationnel, observation par-
ticipante, recherche clinique, recherche-action participative,
protocole d’intervention.

Les méthodes de recherche du DBA


P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

INTRODUCTION
Parmi les choix méthodologiques envisageables pour réussir un
DBA (Kalika, 2017), la recherche-action est une option qui per-
met d’obtenir de forts impacts managériaux (Bonnet, 2015), à la
fois sur le développement des compétences du doctorant, sur
les entreprises ou organisations où la recherche est réalisée et
sur la création de connaissances opérationnelles en gestion. Il
faut tout d’abord rappeler que la recherche-action n’est pas une
recherche « sur » les organisations (Coghlan & Brydon-Miller,
2014), mais une recherche « avec » les acteurs des organisations,
ce qui est bien approprié pour un DBA lorsque le doctorant a
déjà une expérience professionnelle et qu’il dispose d’un réseau
dense de relations professionnelles lui permettant de négocier
un accès aux données. Ce n’est pas non plus une recherche sur
l’action, mais en action, au cours de laquelle le doctorant ob-
serve de façon détaillée et longitudinale les processus d’appren-
tissage organisationnel tout en faisant preuve de distanciation
et de réflexivité (Schön, 1983 ; Argyris et al., 1985).

Parmi les méthodes de recherche-action, nous avons choi-


si de présenter un exemple de thèse réalisée sur la base d’une 219
recherche-intervention qualimétrique (Savall & Zardet, 2004 ;
Bonnet & Péron, 2014). Il s’agit d’une forme de recherche enga-
gée (Van de Ven, 2007) destinée à améliorer la performance so-
cio-économique durable des organisations et de leurs parties
prenantes. Comme pour toute méthode de recherche-action, ce
type de recherche peut être réalisé dans des contextes extrê-
mement variés, y compris dans le cas où les recherches quan-
titatives sont quasiment impraticables en raison de la difficulté
d’accès aux données, comme pour des sujets qui abordent les
aspects sensibles illustrés dans ce chapitre. En effet, la re-
cherche-action présentée touche à des problématiques telles
que les modes de décision dans les équipes de direction (Owens
et al., 2015), la formation de la stratégie (Golsorkhi et al., 2015)
ou la construction de la confiance dans le management d’entre-
prises familiales (Chrisman et al., 2012). Dans ces cas, il ne suffit
pas de mener des recherches à caractère spéculatif sur la base
d’observations ponctuelles ni de se limiter à des enquêtes par
entretiens ou questionnaires, car la rigueur scientifique néces-
site de pratiquer une observation longitudinale pour bien iden-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tifier les logiques d’action, les langages de l’action (Girin, 1990)


ainsi que les écarts entre les discours et les pratiques (Argyris et
al., 1985). Les méthodes de construction de connaissance par la
recherche-action s’apparentent à une approche aristotélitienne
plutôt que platonicienne (Dewey, 1910 ; Gibbons et al., 1994 ;
Gustavsen, 2001 ; Eikeland, 2008) et elles sont particulièrement
bien appropriées pour la recherche en gestion dans un contexte
de grande complexité, où les problèmes posés sont flous
(Gephart & Smith, 2009), les données difficilement accessibles
et où les solutions dépendent de la créativité des acteurs dans
un monde considéré comme ouvert à de multiples possibles.
C’est l’opposé des situations de gestion rencontrées au siècle
passé, où les problèmes pouvaient être bien posés, et avaient
une solution jugée optimale, même s’ils étaient compliqués.

Ce chapitre a pour but de montrer comment se déroule concrè-


tement ce type de recherche, en illustrant les différentes étapes,
depuis la négociation de l’accès au terrain jusqu’à l’évaluation
des impacts et à l’utilisation des données dans la thèse.

La méthodologie est présentée au travers d’un exemple de thèse


réalisée au travers d’une recherche-action dans un établisse-
220
ment scolaire privé au Bénin (Boko, 2017). L’intérêt de ce choix
est d’illustrer la mise en œuvre d’une recherche-action dans un
contexte peu exploré, car difficile d’accès pour des recherches
traditionnelles (Tidjani & Kamdem, 2010) et dans un pays où
très peu de recherches en gestion ont été effectuées à ce jour
(Hounkou, 2006).

La méthode de recherche-intervention qui a été choisie est pré-


sentée dans un premier temps, puis le contexte et le déroule-
ment de l’intervention. La méthode employée est ensuite illus-
trée au travers d’une sélection de matériaux recueillis au cours
de cette recherche menée par une doctorante professionnelle,
avec l’aide de son directeur de recherche. Des enseignements
à retirer de cette forme de recherche-action sont enfin retirés.
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

1. CHOIX DU MODE DE RECHERCHE-ACTION :


LA RECHERCHE INTERVENTION QUALIMÉTRIQUE

1.1. Variété des méthodes de recherche-action


Les méthodes de recherche-action se différencient des
autres méthodes de recherche en gestion, comme celles
de questionnaires, des codages de données d’entretiens et
d’analyses de données quantitatives figées. Depuis l’origine
des travaux scientifiques sur la recherche-action (Lewin, 1946),
l’hypothèse a été formulée que l’objet analysé est vivant et qu’il
change quand on l’observe, comme cela avait déjà été mis en
évidence par la découverte de l’effet Hawthorne en 1933-1945 par
Mayo (2004). Il existe actuellement des dizaines de modalités
de recherches-actions, recensées dans la « SAGE Encycopedia
of Action-Research » (Coghlan & Brydon-Miller, 2014) : « action-
learning » (Revans, 1982) ; « action-science » (Argyris et al., 1985) ;
« appreciative inquiry » (Sorensen et al., 2010) ; « story-telling » (Boje,
2001) ; « trans-organizational development » (Boje & Rosile, 2003),
etc. Contrairement au domaine des sciences médicales, les
sciences de gestion sont encore loin de proposer un consensus 221
scientifique quant aux avantages et limites de chaque méthode. Il
convient par conséquent de se limiter à l’indication de quelques
points de repères, en décrivant brièvement ci-dessous des
méthodes de recherche-action par ordre croissant d’engagement
du chercheur dans l’action sous l’angle des sciences de gestion
en tant que science de l’action et de la décision.

L’observation participante et l’ethnographie (Atkinson


& Hammersley, 1994), développées au début du XXe siècle par
l’anthropologue Bronislaw Malinowski (1989). Cette approche a
inspiré en France le Centre de Recherche en Gestion de l’École
Polytechnique. L’objectif principal est d’améliorer l’accès aux
données en impliquant les acteurs sur le terrain pour com-
prendre que la décision dans les systèmes complexes est le ré-
sultat d’une grande quantité d’interactions entre acteurs ayant
des rationalités très différentes. La méthode de travail consiste
notamment à retranscrire les observations effectuées sur le ter-
rain et à interagir avec un groupe de réflexion, afin de permettre
une « familiarité distante » (Girin, 1986).
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

La recherche clinique (Schein, 1987) consiste à favoriser la ré-


flexion collective au long d’un processus qui fait interagir les ac-
teurs de l’entreprise et le chercheur. La recherche clinique aide
à relier théorie et pratique en permettant une action réfléchie
et à éviter les réactions émotionnelles et les préjugés. Il s’agit
d’une approche de développement organisationnel qui fait ap-
pel à l’écoute, à la reformulation et à la facilitation du dialogue
afin de permettre aux acteurs de l’entreprise de trouver eux-
mêmes les solutions aux problèmes posés : le chercheur ne se
positionne donc pas en tant qu’expert et il adopte une position
humble d’écoute et de questionnement, contraire à celle de la
« tour d’ivoire » des experts.

Dans le sillage de Kurt Lewin, qui fonda en 1944 le Research Center


for Group Dynamics au Massachusetts Institute of Technology, et
de l’approche socio-technique du Tavistock Institute de Londres,
les recherches-actions participatives (Reason & Bradbury,
2008) consistent à susciter des expérimentations au travers de
processus démocratiques. Elles font participer tous les acteurs
afin de créer une communauté de réflexion, forme d’intelligence
collective. L’objectif recherché est d’améliorer les situations or-
222 ganisationnelles au bénéfice de tous. Les méthodes utilisées
consistent notamment à définir de façon participative les projets
d’actions et à les suivre dans un processus de va et vient entre
changement organisationnel et retours d’expérience au travers
de groupes de réflexion et de proposition.

La recherche-intervention est une approche plus engagée que


les méthodes précédentes dans l’ingéniérie de gestion, car il y a
non seulement accompagnement du processus de changement,
mais introduction d’outils et de dispositifs de gestion. La création
de connaissances se produit alors par interaction entre l’interve-
nant-chercheur et les praticiens qui s’approprient et adaptent les
outils proposés en fonction de leurs objectifs-contraintes. Les
méthodes de recherche-intervention représentent une inflexion
par rapport à d’autres formes de recherche-action en donnant
au chercheur un rôle actif dans la conduite du changement.
Cette évolution peut être comparée au cas de l’introduction de
la médecine expérimentale au XIXe siècle, avec des chercheurs
comme Claude Bernard et Louis Pasteur, qui ont violé les inter-
dits de la communauté scientifique de l’époque en pratiquant des
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

expérimentations : ils justifiaient cette forme de transgression


par la nécessité de soigner des malades et de soulager des souf-
frances. Par rapport à l’introduction de la médecine expérimen-
tale, il aura fallu plus d’un siècle aux sciences de gestion pour
qu’elles commencent à accepter ce type d’approche en trans-
gressant timidement l’interdit wéberien de la coopération avec
les acteurs du terrain d’observation scientifique. Comme pour
la médecine, il est pourtant impératif de contribuer à soulager
les immenses souffrances liées aux difficultés rencontrées dans
les entreprises et organisations, surtout dans un contexte d’évo-
lution rapide du monde économique. La recherche-intervention
a été introduite en France par le Centre de Gestion Scientifique
de l’École des Mines de Paris (Moisdon, 2015 ; Hatchuel & David,
2008) afin d’améliorer l’ingéniérie de l’action et de la conception,
après avoir fait le constat des limites de la recherche opération-
nelle et de la gestion de projet.

1.2. Choix de la méthode de recherche-intervention


qualimétrique
La recherche-intervention qualimétrique apporte aux 223
autres approches de recherche-intervention une dimension
économique qui est quasiment absente dans les méthodes de
recherche-action. La dimension qualimétrique repose sur une
approche ontologique qui intègre les données qualitatives,
quantitives et financières en considérant qu’il s’agit d’un
continuum et non de trois formes différentes de données. Il ne
suffit donc pas de juxtaposer ou de trianguler les données, car
« tout mot nécessite un chiffre et une valeur pour faire sens,
et toute valeur ou chiffre nécessite un mot pour faire sens »
(Savall & Zardet, 2004). L’approche de la recherche-intervention
qualimétrique postule en effet que l’objet analysé en sciences
de gestion en tant que science de l’action est un ensemble
de processus de transformation continue des structures en
interaction avec les comportements dans les organisations.
L’objet analysé est ainsi particulièrement complexe, immatériel
et évolutif. Les caractéristiques de cet objet évanescent rendent
l’observation scientifique encore plus difficile qu’en médecine,
où l’on dispose d’instruments adaptés pour analyser le corps
humain tels que les scanners et les IRM. Les sciences de gestion
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ont donc une bonne excuse pour accuser plus d’un siècle de
retard par rapport à la médecine. Il est malgré tout impératif
de tenter la mise au point de méthodes permettant d’apporter
des améliorations au bénéfice du bien commun et de toutes les
parties prenantes et pour remédier aux souffrances constatées.

La méthode de recherche-intervention qualimétrique repose sur


trois piliers épistémologiques :
–– L’interactivité cognitive : ce sont ceux qui agissent qui
savent, car ils sont les témoins des actions dans leur
complexité. Cependant, les praticiens ne parviennent pas à
formaliser leur savoir en raison d’un manque de réflexivité.
Il faut donc les accompagner dans la formalisation de ce
qu’ils observent par interaction avec les intervenants-
chercheurs.
–– L’inter-subjectivité contradictoire : l’objet est tellement
complexe et polymorphe qu’il est impossible de le décrire
de façon objective. En revanche, on peut créer un savoir ac-
tionnable par expérimentations successives, en mettant en
interaction les différents acteurs ; ceux-ci vont ensemble
224 formaliser une représentation, même imparfaite, du pro-
blème à traiter, avec une image en partie acceptée par tous
les acteurs concernés pour agir de façon collective.
–– La contingence générique : les expérimentations réali-
sées au travers de la recherche-intervention permettent de
progresser dans la connaissance de solutions innovantes
dans les organisations. Toutefois, cet apprentissage est
spécifique et contingent au contexte de l’organisation.
La reproduction des expérimentations au travers de la
recherche-intervention qualimétrique a pour but de per-
mettre une réplicabilité et de dégager des invariants.

Dans le cas des travaux de recherche de l’Institut de Socio-


Économie des Entreprises et Organisations (ISEOR) de Lyon,
la recherche des invariants au cours de plus de 45 ans de re-
cherches menées dans plus de 2000 entreprises et organisa-
tions dans 45 pays a permis de mettre au point progressivement
une théorie et une méthode générique, dénommée management
socio-économique. Cette méthode n’est pas figée, mais elle
constitue un corps de connaissances qui est perfectionné de
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

façon progressive au travers des nouvelles expérimentations.


Par comparaison avec Louis Pasteur lorsqu’il a mis au point le
vaccin contre la rage à partir d’une première expérimentation,
on peut constater que chaque corps humain est unique et réa-
git de façon spécifique, mais que la méthode de vaccination et
d’apprentissage des défenses immunitaires a une vocation uni-
verselle. Il ne s’agit pas d’une recherche à caractère ponctuel,
mais d’un programme de recherche à durée indéfinie, comme
la méthode de vaccination fait toujours toujours l’objet de re-
cherches expérimentales en s’attaquant désormais à des mala-
dies comme le sida ou le paludisme. D’un point de vue épisté-
mologique, la méthode socio-économique, produite au travers
de la recherche-intervention qualimétrique, peut ainsi être rap-
prochée du courant du réalisme critique (Bhaskar, 1989). Ce
processus de création de connaissances correspond en effet à
une tentative de dépassement de l’opposition entre positivisme
et constructivisme au travers d’un « constructivisme générique »
(Savall & Zardet, 2004). Dans le cadre de la recherche-interven-
tion qualimétrique, la production de connaissance est dénom-
mée « contingence générique » : l’entreprise développe un ap-
prentissage organisationnel spécifique et contingent, tandis
225
que l’intervenant(e)-chercheur a pour mission d’identifier ce qui
est générique.

La mise en œuvre de la méthode qualimétrique fait l’objet d’un


contrat de recherche longuement négocié entre le laboratoire
et l’entreprise. Ce contrat prévoit le respect par l’entreprise de
l’ensemble du protocole de recherche-intervention, notamment
en ce qui concerne l’accès aux données et l’engagement dans
un dispositif participatif de projet. La négociation du contrat fait
partie intégrante du processus de recherche-intervention, car
elle consiste à transformer la demande : il s’agit de faire prendre
conscience au dirigeant et au « système client » qu’il ne peut y
avoir de solution mécanique aux problèmes soulevés et qu’il faut
un accompagnement pour stimuler le système organisationnel
et le rendre agile et pro-actif face à un environnement de plus en
plus chaotique.

Dans ce protocole d’intervention, le dirigeant et les acteurs de


l’entreprise adoptent alors un statut de co-chercheurs, puisque
l’intervenant-chercheur initie des expérimentations avec les
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

acteurs de l’entreprise. Le rôle du dirigeant et des acteurs de


l’organisation n’est cependant pas nécessairement d’écrire
des articles dans des revues académiques (sauf lorsque des
dirigeant(e)s font un DBA), mais des colloques sont organisés
pour témoigner des résultats de façon publique. Si les condi-
tions de la recherche-intervention ne sont pas acceptées, la né-
gociation s’arrête ou l’intervention est reportée à une date ul-
térieure. Il faut noter que cette négociation suppose un accord
avec la gouvernance de l’entreprise, ce qui nécessite de ne pas
se limiter à des objectifs de prédation de valeur ou de spécu-
lation à court terme, comme peut l’encourager un capitalisme
financier non responsable socialement (Savall et al., 2016). Le
protocole de recherche-intervention qualimétrique requiert une
observation qui s’appuie à la fois sur des entretiens, des recueils
de documents, des relevés de données, et sur l’observation di-
recte. Il articule trois types d’actions (Savall & Zardet, 1987) : la
stimulation d’un processus de changement et d’apprentissage
organisationnel, la mise en place d’outils de gestion innovants
en concertation avec les acteurs, et la prise de décisions rela-
tives aux orientations politiques et stratégiques.

226 –– Le processus d’apprentissage et de développement orga-


nisationnel s’appuie sur un principe de pilotage négocié
du changement. Il débute par un diagnostic participatif
destiné à mettre en évidence les dysfonctionnements et
coûts cachés qui sont les symptômes des maladies des
organisations. Ce diagnostic s’appuie notamment sur les
phrases-témoins issues des entretiens (approche qualita-
tive) et restituées dans le langage naturel des acteurs, mais
classées selon des thèmes génériques. Il comprend aussi
des données quantitatives sur la fréquence et les impacts
des dysfonctionnements (approche quantitative) et des
calculs des impacts économiques visibles et cachés des
dysfonctionnements sur la performance à court et à long
terme (approche financière). Le diagnostic est présenté à
la direction, puis à l’ensemble des acteurs concernés au
travers d’un « effet miroir » destiné à créer une plateforme
de dialogue entre acteurs. Cet « effet miroir » crée un choc
culturel, en faisant prendre conscience aux acteurs que
ce n’est pas le changement qui est douloureux et coûteux,
mais le non-changement : la croyance dans le phénomène
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

de résistance au changement ne résiste pas à ce phéno-


mène de prise de conscience. L’effet miroir est suivi par la
présentation de l’avis d’experts par les intervenants-cher-
cheurs, de façon à renforcer le choc culturel en exprimant
les non-dits perçus par observation directe. Ces non-dits
sont des souffrances inavouées qui sont dues à trois prin-
cipales causes-racines : le manque de sensibilité aux coûts
de dysfonctionnements, le manque de toilettage régulier
des activités et dysfonctionnements et enfin la désynchro-
nisation des actions de conduite du changement. Par com-
paraison avec la médecine, lorsqu’un système immunitaire
est affaibli, les agents infectieux ne sont pas éliminés, et
les remèdes ne sont pas pris au bon moment, voire les uns
à la suite des autres alors qu’ils devraient être pris de ma-
nière coordonnée : l’infection ou les cellules cancéreuses
risquent alors de se propager.
–– Le diagnostic et l’avis d’experts socio-économiques sont
suivis par la mise en place de groupes de projet destinés
à élaborer des solutions aux dysfonctionnements et à bâtir
un plan d’actions stratégiques internes et externes, impli-
quant une adhésion profonde de l’ensemble des acteurs. 227
Les groupes de travail sont organisés par thèmes pour
aborder à la fois des aspects spécifiques à chaque sec-
teur de l’entreprise ou organisation (approche verticale) et
les problèmes généraux et inter-sectoriels (approche ho-
rizontale). Chaque groupe de travail étudie plusieurs scé-
narios de solutions et élabore des balances socio-écono-
miques, montrant à la fois les coûts et les performances
qualitatives, quantitatives et financières attendues des
plans d’actions. Dans la plupart des cas, ces actions repré-
sentent des investissements immatériels dont le délai de
remboursement est très rapide, ce qui permet d’accélérer la
conduite du changement. Dans d’autres cas, comme celui
des actions relatives à la protection de l’environnement na-
turel, la rentabilité peut être nulle en raison de la production
d’externalités positives non prises en charge par les par-
ties prenantes externes. Toutefois, la direction et le conseil
d’administration peuvent malgré tout décider de les mettre
en œuvre dans le cadre d’une politique de développement
durable et supportable. Cela peut se justifier par la volon-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

té d’assurer une cohérence entre les valeurs affichées de


l’organisation et la stratégie, et renforcer ainsi la légitimité
durable de l’entreprise dans son environnement (Palazzo &
Scherer, 2006). Les plans d’actions sont alors mis en œuvre
et évalués au travers d’indicateurs de performance desti-
nés notamment à montrer les progrès accomplis au travers
d’une accélération de la conversion des coûts cachés en
création de valeur ajoutée.
–– La mise en place d’outils de management socio-écono-
mique : il s’agit de former les dirigeants et managers à des
outils de gestion prenant en compte une performance glo-
bale. Par exemple, le « Plan d’Actions Stratégiques Internes
et Externes » est relié aux indicateurs de performances fi-
nancières au travers de la mesure de la création de poten-
tiel cachée.

L’accumulation de résultats de milliers de recherches-inter-


ventions qualimétriques a permis de montrer que les outils de
gestion utilisés dans les entreprises et organisations sont frag-
mentaires et contradictoires entre eux. Par exemple, les coûts
cachés, qui comprennent à la fois des surcharges et des non
228 – produits actuels et futurs (coûts d’opportunité) représentent
un montant équivalent en moyenne à celui de la masse sala-
riale avec charges (Savall & Zardet, 1987), ce qui n’est pas pris
en compte par l’analyse financière et par les outils de contrôle
de gestion, malgré leur rigueur apparente. Cette fragmentation
des outils de gestion crée une situation d’injonction paradoxale
dans le management, par exemple lorsque les outils de gestion
de ressources humaines et de gestion prévisionnelle des em-
plois et des compétences indiquent la nécessité de recruter,
tandis que la direction financière souhaite au contraire geler les
recrutements.

Les outils de management socio-économiques développés pro-


gressivement au travers des recherches-interventions ont pour
but de créer des interfaces entre les outils de gestion, de façon
à rétablir une harmonie dans les processus de prise de décision.
Par exemple, l’accompagnement des managers pour élaborer
des grilles de compétences les éclaire sur la rentabilité de l’in-
vestissement immatériel requis pour former et recruter, en re-
gard des coûts cachés et des risques qu’il y a à ne pas le faire. La
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

recherche-intervention qualimétrique a ainsi pour but de créer


une intelligence collaborative, en renforçant un dialogue entre
les diverses logiques d’action au sein des organisations. En par-
ticulier, l’élaboration de balances socio-économiques pour tous
les plans d’action au sein de l’organisation amène à formaliser
un bilan et un compte de résultat rénovés montrant aux parties
prenantes de l’entreprise et aux actionnaires la création de va-
leur globale de l’entreprise pour ses parties prenantes, dont font
partie les actionnaires.
–– Les décisions politiques et stratégiques

La recherche-intervention qualimétrique ne consiste pas à don-


ner des conseils aux décideurs, mais elle a pour effet de rendre
les acteurs et décideurs davantage lucides sur les choix qu’ils
font. La recherche les rend aussi conscients des conséquences
de leurs décisions à court et à long terme dans un contexte de
plus grande transparence. Cela amène par exemple dans une
entreprise familiale à mettre en place des règles du jeu sur les
droits et devoirs de chacun, y compris pour les enfants du diri-
geant. Ces décisions concernent les différents domaines de la
stratégie, comportant à la fois les aspects externes (produits et
229
marchés, développement international, etc.) et les aspects in-
ternes (valeurs, modes d’organisations et règles de fonctionne-
ment, choix technologiques, etc.).

2. ILLUSTRATION DE LA MISE EN ŒUVRE DE LA


RECHERCHE-INTERVENTION QUALIMÉTRIQUE
DANS UNE ÉCOLE PRIVÉE DU BÉNIN
La recherche a été réalisée par une doctorante béninoise, avec
l’aide de son directeur de recherche, tous deux auteurs de ce
chapitre. Il est possible de décrire les diverses étapes de mise
en œuvre de la recherche de façon chronologique.

2.1. Négociation de l’intervention


La doctorante avait contacté la directrice d’une école primaire à
Cotonou au Bénin pour lui expliquer l’intérêt d’une recherche-in-
tervention. L’école avait été créée en 1993 et accueillait 690 élèves.
Elle employait 33 personnes, dont 17 enseignants. Lors de la pre-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

mière rencontre pour négocier la recherche-intervention, la di-


rectrice lui avait présenté les belles réalisations de l’école, qui
contribuaient à la qualité de l’éducation des enfants dans un
pays qui avait dérégulé le système d’enseignement depuis les
années 1970. Au cours de l’entretien, la directrice avait aussi fait
part de ses difficultés pour maintenir durablement son équilibre
financier, dans un contexte de développement de la concurrence
et de réglementation contraignante de la part du Ministère pour
les normes des locaux et la qualité pédagogique. Le climat so-
cial se dégradait dans l’école, en raison notamment d’un manque
d’équité perçue par les personnels administratifs, par comparai-
son avec les rétributions des enseignants. Les relations avec les
parents d’élèves étaient difficiles, notamment pour faire payer
les frais de scolarité. Les problèmes financiers se traduisaient
par des arriérés de salaires, des retards de paiement et des dé-
couverts bancaires.

Une deuxième rencontre a permis d’élargir la demande et de pro-


poser une recherche-intervention destinée à améliorer la ges-
tion financière pour réduire les problèmes de recouvrement et
pour améliorer le taux d’acquittement des frais de scolarité par
230 les parents d’élèves. Les actions d’améliorations devaient égale-
ment avoir un impact sur la visibilité et la notoriété de l’école, la
qualité des services aux parents d’élèves ainsi que sur l’encadre-
ment pédagogiques des élèves. Un accent particulier a été mis
sur la gestion financière pour empêcher les manques à gagner
au niveau du recouvrement ainsi que les malversations finan-
cières. Pour atteindre ces objectifs, la doctorante a proposé de
recourir dans une première étape à une partie seulement de la
recherche-intervention, en mettant en œuvre deux éléments de
méthodes : le diagnostic et le projet socio-économiques. Le dis-
positif a été accepté par la directrice après avoir pris en compte
ses contraintes de planning. Il permettait de construire de façon
collaborative une qualité d’observation scientifique, en faisant
participer tous les acteurs de l’école.
–– Le diagnostic socio-économique a nécessité de conduire
des entretiens avec tous les acteurs de l’école, ainsi qu’une
deuxième série d’entretiens avec l’encadrement pour ap-
profondir le calcul des dysfonctionnements. Il était égale-
ment convenu qu’une séance de restitution du diagnostic
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

aurait lieu auprès de la direction, puis auprès de l’ensemble


des personnes interviewées et la direction.
–– La mise en place de groupes de projet socio-économique
sur la base des résultats du diagnostic et de l’avis d’expert.
Ces groupes devaient comprendre les membres de la di-
rection, l’encadrement, ainsi que des enseignants et em-
ployés, avec pour objectif de proposer des solutions pour
bâtir un plan d’action. Ce plan d’action devait être formalisé
avec des outils tels que des balances économiques pour
calculer leur performance à court et à long terme.

Le contrat de recherche a été signé et ne prévoyait pas de ré-


munération directe en raison de l’objectif d’apprentissage de la
recherche-intervention au travers d’un doctorat. Il comprenait
toutefois la prise en charge des frais de déplacements, avec no-
tamment plusieurs voyages entre la France et le Bénin.

2.2. Réalisation du diagnostic socio-économique


Le diagnostic a été réalisé sur la base de 38 entretiens, suivis
par 13 séances de travail avec des membres de l’encadrement 231
et des employés pour compléter le calcul des dysfonctionne-
ments. Les entretiens ont été conduits de façon semi-directive,
en demandant à chaque personne de présenter son rôle, puis les
dysfonctionnements et coûts cachés perçus. Une prise de notes
a été effectuée manuellement par l’intervenant-chercheur, en
demandant aux personnes de bien valider les phrases-témoins
qu’elles voulaient exprimer. Quelques exemples de phrases-té-
moins prononcées lors des entretiens peuvent être donnés, en
indiquant le thème auquel elles ont été rattachées :
–– Exemple sur le thème des conditions de travail : « Il manque
un terrain pour le sport. Cela nous oblige à nous déplacer au loin
avec toute la classe ».
–– Exemple sur le thème de l’organisation du travail : « Il
manque un contrôle à l’entrée et à la sortie de l’école. Cela nous
oblige à revérifier toutes les présences ».
–– Exemple sur le thème de la communication-coordina-
tion-concertation : « Des affinités se créent et des personnes
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

reçoivent des informations et pas d’autres. Cela crée des tensions


dans l’équipe et entraîne aussi des erreurs ».
–– Exemple sur le thème de la gestion du temps : « Des parents
viennent voir leur enfant pendant les heures de cours. Cela per-
turbe la classe et nous fait perdre du temps ».
–– Exemple sur le thème de la formation intégrée : « Des ensei-
gnants ne respectent pas le programme par manque de formation.
Cela entraîne un risque d’échec à l’examen ».
–– Exemple sur le thème de la mise en œuvre stratégique : « Il
manque une politique et des règles claires pour les délais de paie-
ment. Cela se traduit par des impayés qu’on ne pourra jamais ré-
cupérer ».

À la suite de la première série d’entretiens de recueil de don-


nées qualitatives, treize personnes ont été rencontrées une deu-
xième fois pour vérifier et préciser les données recueillies et les
traduire en données financières. Par exemple, la phrase-témoin
relative aux impayés a conduit à évaluer le fait qu’en moyenne
annuelle, les parents de 150 élèves n’avaient pas réglé une par-
232 tie des frais d’inscription et/ou de scolarité, entraînant une perte
financière de 2 000 000 Francs CFA par an pour l’ensemble des
cycles. Une cinquantaine de fiches de coûts cachés de ce type
ont été calculées avec les personnes interviewées, et elles ont
fait l’objet d’une discussion en groupe avec la direction et l’en-
cadrement. Cela a permis le calcul du montant total des coûts
cachés, qui s’élevait à plus de 11 millions de Francs CFA, soit
l’équivalent de 20 % du total du chiffre d’affaire de l’école, davan-
tage que le montant des investissements effectués par l’école
chaque année.

À la suite des deux séries d’entretiens, les données ont été


classées par thèmes et sous-thèmes, et les fiches de calcul de
coûts cachés ont été mises en forme. Une réunion de restitution
dénommée « effet-miroir » a eu lieu, d’abord en présence de la
direction, puis avec la direction et les personnes interviewées.
Cela a été l’occasion de prendre conscience de la nécessité ab-
solue d’élaborer des plans d’action pour remédier aux dysfonc-
tionnements recensés, plutôt que de subir les désagréments et
les coûts cachés induits par le manque d’actions préventives.
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

2.3. Projet socio-économique


Quelques jours après ces restitutions, l’avis d’expert a été pré-
senté par la doctorante aux mêmes personnes que lors de la
présentation du diagnostic, afin de mettre en relief les points
importants du diagnostic et les non-dits perçus par observation
directe de l’intervenant-chercheur lors de la phase de diagnos-
tic. Quelques exemples de non-dits peuvent être donnés :
–– « La culture africaine de respect des personnes âgées est invoquée
comme un prétexte pour ne pas mettre en place de règles d’inter-
férence avec l’école ».
–– « Il y a un sentiment de craintes de représailles par des pratiques
de voudou ou de sorcellerie qui empêchent l’exercice de la rigueur
demandée par les responsables hiérarchiques ».
–– «  Le mode de management paternaliste entraîne des dérives de
liens de familiarité et de favoritisme ».

La présentation de l’avis d’expert a eu un effet de stimulation


pour le passage à l’action. Les propositions de thèmes de travail
pour améliorer le plan stratégique ont été validées, en définis-
sant aussi pour chaque thème la composition des membres des 233
groupes de travail. Parmi les thèmes adoptés, on peut citer les
suivants : règles de discipline dans l’école, amélioration de l’at-
tractivité des locaux, procédures et règles de délégation pour les
dépenses, rigueur du planning d’activité, dispositifs et règles de
communication interne et externe, moyens pédagogiques, etc.

À titre d’exemple, le projet relatif à la discipline dans l’école a


permis aux enseignants et aux administratifs de se mettre d’ac-
cord sur le fait d’interdire l’accès des parents aux classes pen-
dant les heures de cours et de fermer le portail de l’école entre
8 h et 15 h. Dans ce cas, la balance économique du projet mon-
trait que le coût de cette action était infime, mais qu’elle permet-
tait d’éviter près de 1 000 heures de gaspillage de temps pendant
l’année, soit l’équivalent d’un demi-poste de travail.

2.4. Mise en place d’outils de management socio-économiques


En parallèle du diagnostic et du projet socio-économique, une
assistance personnalisée a été apportée à la direction et à l’en-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cadrement pour mettre en place des outils de management so-


cio-économiques. Il s’agissait en particulier de construire le ta-
bleau de bord de pilotage de la direction. Celui-ci comprenait
notamment les indicateurs de performance en termes de création
de potentiel : Les temps passés à mettre en œuvre des actions
d’amélioration, par exemple dans le domaine de la pédagogie,
ne devaient pas être considérées comme des charges, mais plu-
tôt comme des investissements. Des grilles de compétences ont
également été mises en place, afin de faire progresser chaque
membre du personnel et d’éviter les risques de postes non cou-
verts en cas d’absence ou de départ. Par exemple, la grille de
compétence du service administratif comprenait des rubriques
telles que les suivantes : saisie et pointage des écritures, ges-
tion de la paie, recouvrement des frais de scolarité, gestion des
contentieux pour retards de paiement, budget prévisionnel, etc.

2.5. Décisions politiques et stratégiques


Un groupe de pilotage a été mis en place pour clarifier les op-
tions stratégiques, non seulement en ce qui concernait les ac-
234 tions stratégiques externes, comme des projets d’extension,
mais aussi des actions internes, notamment quant aux règles
de management. En particulier, des règles ont été définies pour
passer d’un mode de management paternaliste et informel à des
règles plus équitables. Par exemple, des règles du jeu ont été dé-
finies sur le contrôle du bon déroulement des activités pédago-
giques, la répartition des enseignants dans les différents cours,
l’exécution des sanctions disciplinaires et des récompenses des
collaborateurs, la communication avec les parents, etc.

3. ENSEIGNEMENTS RETIRÉS ET IMPACTS DE LA


RECHERCHE-ACTION
Il est usuel d’évaluer les impacts des recherches-actions à trois
niveaux (Coghlan & Brydon-Miller, 2014) : impact sur le cher-
cheur lui-même, sur l’organisation où la recherche a eu lieu, et
sur la contribution scientifique auprès du monde académique et
des praticiens de la conduite du changement et du développe-
ment organisationnel.
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

3.1. Impacts sur le chercheur


La recherche réalisée a permis à la doctorante d’apprendre le
métier d’accompagnement au développement organisationnel
sur des bases de consulting scientifique, comme dans le cas
d’un interne de Centre Hospitalo-Universitaire qui apprend la
pratique de la médecine au travers des interventions de soins
auprès des patients avec l’aide d’un professeur de médecine
chef de service. En plus de l’obtention d’un diplôme de haut ni-
veau, c’est une contribution importante à l’éducation au manage-
ment, dans un monde des affaires qui a tant souffert des effets
toxiques liés au manque de formation appropriée des consul-
tants (Buono & Poulfelt, 2009). En outre, la formation au travers
de la recherche-intervention qualimétrique a aussi été considéré
comme une préparation à la fonction de direction d’établisse-
ments scolaires en Afrique.

3.2. Impacts sur l’organisation où la recherche-action a


eu lieu
La recherche-intervention qualimétrique a permis d’évaluer les 235
impacts qualitatifs, quantitatifs et financiers de l’action, en pro-
cédant à des entretiens avec les parties prenantes de l’école.
Ces impacts peuvent être illustrés de la façon suivante :
–– Exemples d’impacts qualitatifs : amélioration de l’ambiance
de travail grâce à la diminution des soupçons et des non-
dits ; accroissement des compétences du personnel ; amé-
lioration du développement éducatif des élèves et meilleure
satisfaction des parents, etc.
–– Exemples d’impacts quantitatifs : accroissement du taux
de satisfaction des parents et passage du nombre de de-
mandes d’inscriptions de 690 à 850 inscrits ; augmentation
du nombre de propositions d’amélioration proposées par
les enseignants (passage de deux à trente propositions en
un an) ; réduction des retards de recouvrement de 20 % à
3 % ; Réduction des arriérés de paiement de 5 % à 2 %, etc.
–– Exemples d’impacts financiers : réduction de 2 millions de
Francs CFA du montant des impayés ; réduction du quart
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

des coûts cachés soit 3 millions de Francs CFA ; augmen-


tation de 12 % du chiffre d’affaires à charges constantes.

3.3. Impacts sur le monde académique et sur les


praticiens du management
La recherche a notamment permis de renforcer la position
des critiques à l’encontre des analyses sociologiques des
écoles de la contingence culturelle plaidant pour une approche
purement contingente du management interculturel dans le
contexte africain (Kamdem, 2002 ; Apitsa, 2013) et qui présentent
l’ethnicité comme un élément à mobiliser pour assurer le
succès des entreprises (Kamden & Ongodo, 2007). En effet, la
recherche-intervention a montré qu’il était possible de mettre en
place davantage de formalisme dans le management de l’école, à
condition de faire participer de manière structurée l’ensemble des
acteurs et des parties prenantes de l’organisation. La recherche
réalisée montre aussi l’intérêt de la recherche-intervention
qualimétrique, qui permet de réaliser des améliorations pour
tous dans un contexte de ressources particulièrement limitées,
236 comme dans le cas de nombreuses entreprises et organisations
en Afrique de l’Ouest.

CONCLUSION
La pratique de la recherche-action dans le cadre d’un DBA est
particulièrement féconde pour la théorie et la pratique. L’exemple
présenté suscite la réflexion sur les conditions d’un développe-
ment des recherches de ce type :
–– Ne faut-il pas capitaliser les recherches-actions conduites
au travers des DBA en Afrique, afin de construire des
connaissances génériques sur le développement organisa-
tionnel dans les pays en développement, où le besoin d’un
message d’espoir est particulièrement attendu à l’échelle
du continent ?
–– Comment mieux former les doctorants DBA aux méthodes
de recherche-action et comment développer en sciences
de gestion des instituts qui forment à la recherche-action
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

au travers de processus d’apprentissage alliant théorie et


pratique ?
–– La construction de programmes de recherche de ce type
est particulièrement urgente dans le cas de l’Afrique du
Nord et de l’Ouest, qui représentent avec un demi-milliard
d’habitants une grande part de l’avenir de la recherche fran-
cophone en management.

Références citées
Apitsa, M.S. (2013), L’hybridation des pratiques de GRH à
l’international par le truchement de l’ethnicité en Afrique, Gérer
et Comprendre, vol. 3, no 113, p. 51-61.
Argyris, C., Putnam, R. & McLain Smith, D. (1985), Action Science,
San Francisco, Jossey-Bass.
Atkinson, P. & Hammersley, M. (1994), Ethnography and Participant
Observation, in N. K. Denzin & Y. S. Lincoln (eds.), Handbook of
Qualitative Research, Thousand Oaks, CA, Sage, p. 248-261.
Bhaskar, R. (1989), The Possibility of Naturalism: A Philosophical Critique
of the Contemporary Human Sciences, Hemel Hempstead, England,
Harvester Wheatsheaf.
Boje, D.M. (2001), Narrative Methods for Organizational and 237
Communication Research, London, England, Sage.
Boje, D.M. & Rosile, G.A. (2003), Comparison of socio-economic
and other trans-organizational development methods, Journal of
Organizational Change Management, vol. 16, n° 1, p. 10-20.
Boko, V. (2017), La professionnalisation managériale des responsables
d’établissements scolaires privés au Bénin par le management socio-
économique, Thèse de doctorat sous la direction de M. Bonnet,
Université Jean Moulin Lyon 3.
Bonnet, M. (2015), La recherche-action dans le cadre d’un DBA,
in P. Beaulieu & M. Kalika (dir.), La création de connaissance par
les managers, Caen, Éditions EMS, coll. « Business Science
Institute », Chapitre 13.
Bonnet, M. & Péron, M. (2014), Qualimetrics intervention-research,
in D. Coghlan & M. Brydon-Miller (eds.), The SAGE Encyclopedia of
Action Research, London, Sage, p. 663-666.
Buono, A.F. & Poulfelt, F. (eds.) (2009), Client-Consultant Collaboration:
Coping with Complexity and Change, Charlotte, NC, Information
Age Publishing.
Chrisman, J. J., Chua, J. H., Pearson, A. W. & Barnett, T. (2012),
Family involvement, family influence, and family-centered
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

non-economic goals in small firms, Entrepreneurship Theory and


Practice, vol. 36, p. 267-293.
Coghlan, D. & Brydon-Miller, M. (eds.) (2014), The SAGE Encyclopedia
of Action Research, London, Sage.
Dewey, J. (1910), How We Think, Boston, MA, D.C. Health.
Eikeland, O. (2008), The ways of Aristotle: Aristotelian Phronesis,
Aristetolian Philosophy of Dialogue and Action Research, Berne,
Switzerland, Peter Lang Verlag.
Gephart Jr, R. P. & Smith, R. S. (2009), An invitation to ethnostatistics,
Recherche en Sciences de Gestion, vol. 70, p. 85-102.
Gibbons, M., Limoges, C., Nowotony, H., Schwarzman, S., Scott, P.
& Trow, M. (1994), The New Production of Knowledge: The Dynamics
of Science and Research in Contemporary Societies, London, Sage
Publications.
Girin, J. (1986), L’objectivation des données subjectives. Dans
Actes du colloque ISEOR-FNEGE, Institut de Socio-Économie
des Entreprises et Organisations et Fondation Nationale pour
L’Enseignement de la Gestion des Entreprises, p. 170-186.
Girin, J. (1990), Problèmes du langage dans les organisations, in
J.-F. Chanlat (dir.), L’individu dans l’organisation : les dimensions
oubliées, Québec, Presses de l’Université Laval, éditions ESKA,
coll. « Sciences Administratives », p. 37-77.
238 Golsorkhi, D., Rouleau, L., Seidl, D. & Vaara, E. (eds.) (2015),
Cambridge Handbook of Strategy as Practice, Cambridge University
Press.
Gustavsen, B. (2001), Theory and practice: The mediating discourse,
in P. Reason & H. Bradbury (eds.), Handbook of Action Research,
London, Sage, p.17-26.
Hatchuel, A. & David, A. (2008), From action research to
intervention research in management, in A.B. Shani, S.
Morhman, W. Pasmore, B. Stymne, & N. Adler (eds.), Handbook
of Collaborative Management Research, Thousand Oaks, CA, Sage,
p.143-162.
Hounkou, E. (2006), Les pratiques de GRH des entreprises béninoises
les plus performantes sont-elles contingents au context culturel
béninois ?, Actes du 17e congrès de l’AGRH, Association Francophone
de Gestion de Ressources Humaines, Reims.
Kalika, M. (2017), Comment réussir son DBA ?, Caen, Editions EMS,
coll. « Business Science Institute ».
Kamdem, E. (2002), Management et interculturalité en Afrique, Québec,
Presses de l’Université Laval.
Kamdem, E. & Ongodo, M. F. (2007), Le management Africain,
pratiques et théories – Faits et méfaits de l’ethnicité dans les
P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

pratiques managériales en Afrique, Gestion 2000, vol. 24, no 1,


p. 33-58.
Lewin, K. (1946), Action research and minority problems, Journal of
Social Issues, vol. 2, p.34-36.
Malinowski, B. (1989), A Diary in the Strict Sense of the Term, vol. 235,
Stanford, CA, Stanford University Press.
Mayo, E. (2004/1933), Human Problems of an Industrial Civilization,
London and New York, Routledge.
Moisdon, J.C. (2015), Recherche en gestion et intervention, Revue
Française de Gestion, vol. 253, n° 8, p. 21-39.
Owens, B. P., Walker, A. S. & Waldman, D. A. (2015), Leader
narcissism and follower outcomes: The counterbalancing effect
of leader humility, The Journal of Applied Psychology, vol. 100,
p. 1203-1213.
Palazzo, G. & Scherer, G. (2006), Corporate legitmacy as deliberation:
A communicative framework, Journal of Business Ethics, vol. 66,
p. 71-88.
Reason, P. & Bradbury, H. (eds.) (2008), The SAGE Handbook of Action
Research: Participative Inquiry and Practice, London, Sage.
Revans, R. (1982), The Origins and Growth of Action Learning, Bromley,
England, Charwell-Bratt.
239
Savall, H. & Zardet, V. (1987), Maîtriser les coûts et performances cachés,
Paris, Economica.
Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion : approche
qualimétrique – Observer l’objet complexe, Paris, Economica.
Savall, H., Péron, M., Zardet, V. & Bonnet, M. (2016), Le capitalisme
socialement responsable existe, Caen, Éditions EMS, coll. « Gestion
en liberté ».
Schein, E.H. (1987), The Clinical Perspective in Field Work, London,
Sage Publications.
Schön, D. (1983), The Reflective Practitioner, New York, Basic Books.
Sorensen, P., Yaeger, T., Savall, H., Zardet, V. & Bonnet, M. (2010),
A review of two major global and international approaches to
organizational change: the SEAM (socio-economic approach to
management) and appreciative inquiry, Organization Development
Journal, vol. 28, no 4, p. 31-39.
Tidjani, B. & Kamdem, E. (dir.) (2010), Gérer les ressources humaines en
Afrique, Caen, Éditions EMS.
Van de Ven, A.H. (2007), Engaged Scholarship. A Guide for Organizational
and Social Research, Oxford, Oxford University Press.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Références pour en savoir plus


Coghlan, D. & Brydon-Miller, M. (eds.) (2014), The SAGE Encyclopedia
of Action Research, London, Sage.
Reason, P. & Bradbury, H. (eds.) (2008), The SAGE Handbook of Action
Research : Participative Inquiry and Practice, London, Sage.
Savall, H. & Zardet, V. (1987), Maîtriser les coûts et performances cachés,
Paris, Economica.
Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion : approche
qualimétrique – Observer l’objet complexe, Paris, Economica.

240
CHAPITRE 14.
Les designs quasi-expérimentaux

Jacques Igalens et Claude Roussillon Soyer

Résumé 

Les quasi-expérimentations améliorent la compréhension des


effets de causalité en combinant une bonne validité interne
avec une validité externe élevée. Dans ce chapitre, les auteurs
visent à encourager l’utilisation de la quasi-expérimentation
en identifiant cinq de ses principaux avantages : (1) renforcer 241
l’inférence causale quand l’affectation aléatoire et les mani-
pulations contrôlées ne sont pas possibles, (2) construire de
meilleures théories dans le temps, (3) minimiser ou supprimer
les dilemmes éthiques, l’iniquité, le paternalisme, (4) utiliser le
contexte pour expliquer des résultats contradictoires, (5) fa-
ciliter la collaboration avec la direction. Nous proposons des
exemples illustratifs et des conseils pour guider la recherche
future.

Mots-clés : quasi-expérimentation, méthodologie, inférence


causale, comportement organisationnel.

Les méthodes de recherche du DBA


Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

INTRODUCTION
Le chercheur en gestion ne saurait démentir Virgile lorsqu’il
écrit, dans Les Géorgiques : « Felix qui potuit rerum cognoscere
causas »1. Sans être une voie exclusive, la démonstration de re-
lations causales entre des phénomènes, conformément à des
hypothèses elles-mêmes issues de théories solides, constitue
le Graal que cherchent nombre de doctorants.

Mais lorsque les hypothèses ont été établies, comment obtenir


les données autorisant le chercheur à conclure à l’existence ou
à l’absence de telles relations ? Le chercheur doctoral peut op-
ter pour l’observation, elle est rarement directe, elle est souvent
abordée à travers les traces des comportements. C’est le cas des
chercheurs en finance ou en marketing. Les premiers ont à leur
disposition des données de marchés financiers et les seconds
des données de panel. Le chercheur peut également créer un dis-
positif expérimental qui lui permettra de bien contrôler l’ensemble
des variables explicatives, celles qui sont supposées représen-
ter les causes des phénomènes qu’il ou elle cherche à expliquer.
La finance s’y essaye depuis peu avec son extension comporte-
242 mentale et le marketing le fait depuis beaucoup plus longtemps
concernant le comportement du consommateur (Evrard et al.,
2009). Mais chacune de ces voies, l’observation ou l’expérimenta-
tion, atteint rapidement ses limites. Et peut-être plus rapidement
encore dans le cas d’une recherche doctorale prenant la forme
d’un DBA. L’observation directe est très consommatrice de temps
et l’observation indirecte se heurte parfois à la difficulté de ne
pas avoir « sous la main » les bonnes mesures compte tenu des
concepts que la théorie exige. L’expérimentation, quant à elle, est
souvent un peu « artificielle » car il faut créer des situations qui
sont souvent caricaturales et les « cobayes » de l’expérimentation
ne ressemblent pas toujours aux véritables décideurs. Entre le
Charybde de l’observation et le Scylla de l’expérimentation se si-
tue le passage encore peu pratiqué de la quasi-expérimentation.

Après avoir rappelé rapidement en quoi consiste la quasi-


expérimentation, nous en exposerons les avantages et nous
livrerons quelques clés de succès pour des doctorants en DBA.

1. Heureux qui a pu pénétrer la raison des choses.


L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

1. LA DÉMARCHE QUASI-EXPÉRIMENTALE
La quasi-expérimentation consiste en une étude empirique per-
mettant d’estimer l’impact causal d’un changement sur une po-
pulation cible. La recherche quasi-expérimentale ressemble à la
recherche expérimentale mais elle se situe in vivo et non in vitro,
ce qui veut dire, pour nous chercheurs en sciences sociales, au
sein des organisations et non dans les laboratoires. Les diffé-
rences entre recherche purement expérimentale et recherche
quasi-expérimentale concernent le design et les participants.

Dans une recherche expérimentale le changement dont on étu-


die les effets est « administré » aléatoirement à des personnes
« traitées » ou à des personnes qui ne le sont pas, ces dernières
constituant le(s) groupe(s) de contrôle. On retrouve la démarche
suivie en recherche pharmaceutique lorsqu’on étudie l’effet d’un
médicament en l’administrant aléatoirement à certains cobayes
alors que d’autres reçoivent un placebo, démarche parfois quali-
fiée de « double aveugle » car ni le cobaye, ni celui qui administre
le traitement ne sait « qui prend quoi ». En sciences de gestion,
il est très difficile, dans la vie réelle des entreprises, de faire de
même car le changement dont on cherche à mesurer l’effet est 243
visible, on ne peut le dissimuler dans une capsule… S’il s’agit
d’étudier, par exemple, l’effet d’un aménagement d’horaire sur
la productivité, cela se remarque. De plus, même si, dans cer-
tains cas, on pourrait trouver un stratagème pour le dissimuler,
il est souvent délicat de le faire car l’organisation ne souhaite
pas introduire de disparité. La seconde différence entre les deux
formes de recherches, expérimentale et quasi-expérimentale,
tient à ce qu’on est en présence de « vrais » agents de l’organi-
sation, des employés, des clients, des actionnaires qui ont des
objectifs et des contraintes et non des « cobayes » qui viennent
passer quelques heures dans un laboratoire. Cela n’interdit pas
que l’on dispose de groupes de contrôle mais la répartition aléa-
toire entre agents traités et agents de contrôle est impossible.

La recherche quasi-expérimentale n’a pas la même qualité que


la recherche expérimentale concernant la « validité interne » car
les différences entre groupes ayant été exposés au changement
et groupes de contrôle peuvent avoir d’autres origines que le
changement lui-même. On trouve l’explication de ces origines
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

dans les ouvrages de méthodologie de la recherche (Igalens &


Roussel, 1998). Notre chapitre se limite à explorer la pertinence
de l’approche quasi-expérimentale dans le cas d’une recherche
de type DBA, en mettant en évidence les principaux avantages
de cette démarche puis quatre clés du succès de son application.

2. LES AVANTAGES DE LA DÉMARCHE QUASI-


EXPÉRIMENTALE
À travers leur revue de la littérature sur les quasi-expérimenta-
tions réalisées entre 1982 et 2006, Grant et Wall (2009) identifient
cinq caractéristiques positives des quasi-expérimentations
dans la recherche portant sur la vie dans les organisations2.

Avantage 1 : renforcer l’inférence causale quand l’affectation


aléatoire et les manipulations contrôlées ne sont pas possibles.

Certains chercheurs étudient l’impact de variables qui sont im-


possibles à contrôler ou à manipuler de façon aléatoire car elles
ont des effets (positifs ou négatifs) importants (par exemple
pour le prestige ou la carrière des agents) et en conséquence
244 les attributaires du changement étudié seraient trop avantagés
(ou désavantagés) par rapport à leurs collègues. Que l’on songe
à l’inscription de cadres à un séminaire réservé aux hauts poten-
tiels (dont on cherche à mesurer les effets) : le fait d’être retenu
ou de ne pas l’être n’est pas sans conséquence sur l’agent ou
sur ses collègues. Dans ces conditions seuls ceux qui « naturel-
lement » ont été sélectionnés par l’entreprise seront comparés
à d’autres. Dans le cas inverse, traitement négatif, de nombreux
chercheurs ont étudié l’effet du licenciement sur les salariés qui
demeurent dans l’entreprise (qui sont appelés les « survivants »).
La forte homogénéité du groupe de 21 survivants étudiés chez un
constructeur automobile après un plan social renforce la validité
interne de la recherche car on imagine bien qu’une répartition
aléatoire des personnes partantes ou restantes était impossible
(Jaidi & Thévenet, 2010).

2. Nous avons actualisé cette revue pour la période de 2006 à 2015, portant sur
2 340 articles publiés dans trois revues majeures, Academy of Management Journal,
Journal of Applied Psychology et Personnel Psychology. Sur la totalité des articles re-
censés, seulement 22 articles traitent de quasi-expérimentation soit en moyenne
moins de 1 % des articles publiés.
L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Avantage 2 : construire de meilleures théories dans le temps.

De plus en plus, les chercheurs prêtent attention à l’impact du


temps dans les designs de recherche et dans la construction
de cadre théorique (e.g., Ancona et al., 2001 ; George & Jones,
2000 ; McGrath & Rotchford, 1983 ; Mitchell & James, 2001). En
laboratoire, les chercheurs ont un accès aux participants sur
une courte période de temps ce qui rend difficile l’évaluation
de l’impact du temps dans les études. Dans un vrai dispositif
expérimental en entreprise, les chercheurs auraient beaucoup
de difficultés à poursuivre un changement au-delà de la durée
nécessaire pour des impératifs de gestion. Dans un cas comme
dans l’autre, pour des raisons pratiques ou éthiques, il est donc
très difficile d’évaluer les effets du temps sur les variables d’in-
térêts. À l’inverse, dans une quasi-expérimentation basée sur
des changements qui interviennent naturellement ou des chan-
gements qui sont intégrés par une organisation, il est beaucoup
plus propice d’évaluer l’effet du temps dans les modèles.

À titre d’exemple et en rapport avec l’impact de changements


qui peuvent se produire naturellement, Wagner et al. (2012) me-
surent comment le manque ou la mauvaise qualité du sommeil 245
influence les comportements de flânerie des employés sur in-
ternet suivant des différences individuelles. Concrètement, les
auteurs comparent les comportements de flânerie sur internet
le lundi avant le changement d’heure (perturbateur du cycle du
sommeil) et les deux lundis suivant le changement d’heure du-
rant 6 années pour des citoyens de 203 zones géographiques
des États-Unis. Un autre exemple, celui de Davidson et al. (2010)
concerne des changements intégrés par une organisation. Les
auteurs évaluent l’effet d’un congé sabbatique sur les gains et
pertes de ressources et le bien-être avant, pendant et après le
congé pour des membres du corps professoral.

Avantage 3 : minimiser ou supprimer les dilemmes éthiques,


l’iniquité, le paternalisme.

Le préjudice d’un dilemme éthique fait référence au risque de


prendre des mesures qui causent des douleurs physiques et
morales aux participants (Baumrind, 1971 ; Kelman, 1967). Bien
qu’un chercheur entre souvent dans une organisation pour ré-
aliser une expérimentation avec de bonnes intentions, une ex-
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

périmentation peut causer des dommages physiques ou moraux


aux participants (Baumrind, 1985 ; Fineman, 2006 ; Kelman, 1967 ;
Savin, 1973). Dans une quasi-expérimentation, les éléments fâ-
cheux tels par exemple, une crise ou une grève, ne sont pas la
résultante de l’action du chercheur lui-même. Par contre, ces
évènements peuvent être étudiés par le chercheur lorsqu’ils
adviennent « naturellement ». Dans leur analyse, Grant et Wall
(2009) négligent le fait que le praticien peut s’appuyer sur les re-
commandations du chercheur, ou encore que le praticien peut
être le chercheur. Ce dernier supporte donc une certaine obliga-
tion de résultat, gage d’une « acceptabilité sociale » renforcée.

De plus, le chercheur ou le praticien-chercheur pourra


s’affranchir de l’assignation aléatoire propre à l’expérimentation
et réduire par voie de conséquence les risques d’iniquité. Enfin,
peut apparaître un risque s’apparentant à du paternalisme. En
situation expérimentale, le chercheur intervient en procédant à
des manipulations, en contrôlant et en exerçant une influence sur
les participants. Il est seul « maître à bord » et impose « sa vision
du monde ». Au contraire, en situation de quasi-expérimentation,
les chercheurs conduisent un travail de détective (Mintzberg,
246 1979) pour évaluer et expliquer des changements qui se sont
produits. Ils évoluent sur le terrain de manière collaborative,
en étroite relation avec les décideurs et les participants à la
recherche.

Avantage 4 : utiliser le contexte pour expliquer des résultats


contradictoires.

Le contexte est un élément central dans les recherches organisa-


tionnelles. Il représente les opportunités et contraintes induites
par les facteurs situationnels et environnementaux de l’organi-
sation (Mowday & Sutton, 1993). Johns (2006) met en avant que
le contexte est particulièrement intéressant pour expliquer des
résultats contradictoires. Dans ce cas, un design de recherche
quasi-expérimental montre pleinement son utilité. Considérons
par exemple, l’effet des attitudes au travail sur l’absentéisme.
Pendant longtemps, les chercheurs ont affirmé que les em-
ployés les plus satisfaits étaient moins sujets aux absences.
Cependant, les résultats empiriques varient selon les études.
Smith (1977) va utiliser une quasi-expérimentation pour analy-
L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

ser ces résultats en expliquant que la relation entre attitudes et


absences dépend du contexte et du style de management du su-
perviseur. Lorsque le style de management conduit à sanction-
ner financièrement ou socialement les absences, celles-ci vont
diminuer. Cependant, Smith (1977) va ensuite montrer, grâce à
un design quasi-expérimental mis en place dans un contexte cli-
matique, que lorsque les transports en commun sont perturbés
par la neige ou de mauvaises conditions météorologiques, les
employés satisfaits vont réussir à regagner leur poste de travail
à la différence des autres qui vont utiliser le contexte climatique
pour ne pas venir travailler et justifier leur absence tout en évi-
tant la sanction.

Avantage 5 : faciliter la collaboration avec la direction.

Dans le cadre d’une quasi-expérimentation le chercheur et la


direction vont travailler sur un champ d’étude commun qui va
leur permettre de construire une collaboration étroite. Dans le
cas du DBA, le chercheur est souvent un cadre bénéficiant de
toute la confiance de la direction. Ainsi disparaît la méfiance
traditionnelle (surtout en France) entre direction de l’organisation
et chercheur. À la place de contrôler et manipuler l’organisation 247
avec un assignement aléatoire ou des conditions de traitement,
il revient au chercheur de donner du sens à l’observation et au
changement qui se passe de façon naturelle ou qu’il a mis en
œuvre en accord avec la direction. Par exemple, dans leur quasi-
expérimentation avec des employés d’un centre d’appel, Liu et
Batt (2010) vont mesurer l’impact du coaching du superviseur
et des pratiques de management de groupe sur la performance
des employés. Grant et al. (2014) mesurent l’effet de la création
personnelle de l’intitulé de son poste au travail sur l’épuisement
émotionnel. Certains employés d’une maison de santé inventent
l’intitulé de leur poste de travail et sont comparés à ceux qui
ont un intitulé de poste arbitraire. À la place d’imposer son
propre intérêt théorique à l’organisation, le doctorant en DBA a
l’opportunité de traiter un problème « reconnu » par la direction.
Par exemple, des chercheurs ont utilisé la quasi-expérimentation
pour évaluer les effets d’un changement de management sur des
comportements tels que :
–– La performance au travail (Grant, 2012 ; Haerem & Rau,
2007 ; Liu & Batt, 2010 ; Parker et al., 2013). Parker et al. (2013)
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

réalisent une étude avec des médecins en milieu hospitalier


qui réalisent leur travail avec ou sans support structurel et
mesurent l’effet du support structurel sur la performance
au travail, la surcharge de travail, les comportements
proactifs et l’utilisation des compétences.
–– Les compétences (Eddy et al., 2013 ; Lievens & Sanchez,
2007 ; Noordzij et al., 2013 ; Parker et al., 2013 ; Tews & Tracey,
2008). L’étude d’Eddy et al. (2013) concerne des groupes de
travail d’étudiants en différentes matières avec compte ren-
du non guidé et un compte rendu guidé conçu pour intégrer
les enseignements tirés d’expériences précédentes et me-
sure leur performance.
–– Le turnover des employés. Peterson et Luthans (2006),
avec trois groupes d’employés de franchises de fast-food :
(a) soumis à des primes financières, (b) soumis à des feed-
backs de performance et des reconnaissances positives
des contributions individuelles et de groupes, (c) groupe
de contrôle, mesurent l’impact des primes financières et
non financières sur le profit, le service client et le turnover
248 des employés.
–– Les comportements déviants. Lyons et al. (2016), travaillent
avec des footballeurs de la ligue nationale avant et après
l’adoption d’une politique formelle destinée à réduire les
comportements déviants des footballeurs durant leur
temps libre. Les chercheurs mesurent l’effet de l’adoption
d’une politique de codes de conduite sur la réduction des
comportements déviants des salariés en dehors de leur
temps de travail.
–– L’épuisement professionnel (Le Blanc et al., 2007) ou émo-
tionnel (Grant et al., 2014).
–– La satisfaction des employés au travail, les prévisions de
chiffre d’affaires, et la santé physique (Hammer et al., 2011).
–– Les gains et pertes de ressources et le bien-être au travail
(Davidson et al., 2010).
–– Les comportements pro-sociaux (Grant, 2012).
–– Les comportements proactifs (Parker et al., 2013).
L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Enfin, la quasi-expérimentation va permettre de créer une inter-


dépendance entre le chercheur et le praticien. Souvent, leaders
et managers se sentent exclus par le chercheur qui peut paraître
au-dessus des membres de l’organisation et parfois dissimule
des informations sur la nature de sa recherche ou oublie d’avoir
recours à l’expertise du praticien (Amabile et al., 2001). La qua-
si-expérimentation permet de surpasser cette barrière psycho-
logique pénalisante. Chercheur et praticien se positionnent tous
les deux comme deux experts, à parts égales, chacun apporte
ses connaissances dans le but commun de faire avancer l’in-
vestigation. La recherche psychologique et organisationnelle a
montré que le fait de partager une tâche et un objectif facilite
la collaboration dans le travail et permet d’augmenter la moti-
vation (Kozlowski & Ilgen, 2006 ; Wageman, 1995), et cette évi-
dence s’applique aussi à la collaboration entre chercheurs et
praticiens. Autrement dit, les praticiens ne sont plus des sujets
mais des partenaires qui vont apporter leurs connaissances du
contexte pour compléter les connaissances théoriques, métho-
dologiques et statistiques du chercheur. Cette interdépendance
mise en place par le chercheur et le praticien est une collabora-
tion gagnant-gagnant, dans le sens où les résultats de recherche
auront à la fois des implications pratiques et théoriques. 249

En conclusion, la quasi-expérimentation est à la fois une science


et un art. C’est une science dans le sens où elle implique l’utilisa-
tion de méthodes d’investigation ordonnées et rigoureuses pour
tester des hypothèses et faire avancer la connaissance sur des
problèmes et questions de recherche. C’est aussi un art, dans le
sens où elle nécessite l’utilisation de compétences et d’imagi-
nation pour produire des designs de recherche créatifs (Grant
& Wall, 2009) et orientés vers la production de contributions ma-
nagériales.

3. LES CLÉS DU SUCCES D’UNE QUASI-


EXPÉRIMENTATION ET CONSEILS PRATIQUES
Si nous pouvons regretter le manque actuel de recherches en
management utilisant la quasi-expérimentation, il nous semble
possible de conclure sur un ensemble de préconisations en vue
d’encourager des doctorants en DBA à utiliser ce design de re-
cherche.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Clé n°1 : partager les problématiques de l’entreprise à la fois du


point de vue du chercheur et du praticien3

Le chercheur en management doit avoir suffisamment de recul


et de compétences pour savoir se faire accepter professionnel-
lement et humainement, tout en conservant une neutralité totale.
Si, dans le cas d’un doctorant en DBA effectuant sa recherche
dans l’entreprise qui l’emploie, la première condition va de soi, en
revanche la seconde pose problème car il est perçu en fonction
du poste qu’il occupe et du passé qui est le sien. Dans le cadre
de sa recherche, il doit gagner la confiance de chaque personne
concernée. Il est dans l’obligation d’être transparent sur sa double
position, de communiquer le sujet et les modalités de son travail
doctoral et d’informer régulièrement ses interlocuteurs profes-
sionnels de l’avancement de ses travaux. Dans une recherche en
gestion des ressources humaines (GRH), par exemple, l’informa-
tion des institutions représentatives du personnel peut s’avérer
indispensable. Lorsqu’une administration de questionnaire est
envisagée auprès des employés, cas très fréquent pour les re-
cherches en GRH, le chercheur devra prendre d’autant plus de
précautions pour respecter l’anonymat et la confidentialité des
250 réponses qu’il est lui-même un cadre de l’entreprise.

Clé n°2 : rendre accessible les résultats de la recherche aux pra-


ticiens

Le chercheur doit adapter une communication efficace, avec une


vulgarisation de l’information, adaptée aux modes de communi-
cation propres à l’entreprise et conforme aux attentes des diri-
geants et des salariés. Concrètement, certains résultats peuvent
ne pas avoir d’intérêt pour la recherche mais avoir une impor-
tance pour l’organisation. Lorsque, par exemple, des question-
naires sont administrés, certaines réponses peuvent être sans
intérêt pour la recherche mais intéressantes pour l’organisation.
Le chercheur ne doit pas non plus négliger que le salarié n’est
pas un simple « fournisseur » de réponses mais qu’il est aussi
un agent intéressé par les résultats. Il convient donc de réfléchir
aux modalités de restitution des résultats à tous ceux qui ont
bien voulu accepter de participer à la collecte des informations.

3. Voir étape 2 du schéma n°2 dans la figure 1.


L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Le mode de restitution des résultats aux salariés doit faire l’objet


d’une véritable réflexion car ni les intérêts ni la capacité à com-
prendre des analyses statistiques avancées ne sont forcément
partagés par le chercheur et son public. C’est à lui de s’adapter
lorsqu’il prépare les restitutions.

Clé n°3 : nécessité d’une boucle supplémentaire

Traditionnellement, la recherche en gestion repose sur cinq ou


six étapes qui sont rappelées dans le schéma 1 de la figure 1. La
dernière étape, « Prise de décision et action », est malheureu-
sement assez peu présentée car les membres de l’organisation
ne sont pas toujours convaincus de la pertinence des résultats
obtenus. Pour cette raison, l’introduction d’étapes supplémen-
taires avec un « retour sur le terrain » s’avère très utile (voir sché-
ma 2 de la figure 1). Par exemple, après « la production de résul-
tats », ces derniers doivent être partagés avec l’ensemble des
acteurs concernés (6 e étape du schéma 2 : retour sur le terrain).

Figure 1. Comparaison d’un cadre de recherche


traditionnelle avec un cadre de recherche de type
quasi-expérimental 251
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Clé n°4 : obligation de résultats réguliers

Les informations et les résultats de recherche doivent être com-


muniqués au fur et à mesure de l’étude. Plusieurs objectifs sont
recherchés : maintenir ou renforcer la confiance, motiver à par-
ticiper à chaque enquête (notamment dans le cas fréquent où on
doit interroger plusieurs fois les mêmes personnes), sensibiliser
à répondre avec sérieux aux questionnaires, ajuster les orien-
tations de la politique de ressources humaines de l’entreprise,
etc. L’entreprise doit sentir que l’étude lui permet d’avancer, de
progresser, d’évoluer vers de nouvelles pistes. Les échelles de
temps utilisées par le chercheur et le praticien sont différentes.
Pour un chercheur, obtenir des résultats de recherche à l’issue de
trois années de travail est tout à fait acceptable. Les contraintes
des entreprises sont différentes et dans le cas d’un doctorant
en DBA la conciliation de ces deux logiques est délicate mais
essentielle. Cette contrainte doit être présente dès le choix du
sujet. La solution consiste parfois à trouver des points d’étape
qui satisfont à la fois le directeur de recherche et l’organisation.

En conclusion, ces quatre clés ouvrent un nouveau cadre de re-


252 cherche en gestion. À condition de bien en connaître les limites
épistémologiques (Cook & Campbell, 1979), le recours à des
designs quasi-expérimentaux est vraisemblablement l’un des
mieux adaptés aux doctorants engagés dans un DBA qui tra-
vaillent dans une organisation pour peu qu’ils aient fait le choix
d’un sujet en lien avec cette dernière. Ils se distinguent des étu-
diants doctoraux « standards » par un « aller-retour » permanent
avec le terrain et parviennent à conjuguer la rigueur qu’exige la
recherche en gestion avec la pertinence dont l’organisation a
besoin.

Références citées
Amabile, T. M., Patterson, C., Mueller, J., Wojcik, T., Kramer, S. J.
& Odomirok, P. W. (2001), Academic-practitioner collaboration
in management research: A case of cross-profession
collaboration, Academy of Management Journal, vol. 44, n° 2, p. 418-
431.
Ancona, D. G., Okhuysen, G. A. & Perlow, L. A. (2001), Taking time
to integrate temporal research, Academy of Management Review,
vol. 26, n° 4, p. 512-529.
L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Baumrind, D. (1971), Principles of ethical conduct in the treatment of


subjects: Reaction to the draft report of the committee on ethical
standards in psychological research, American Psychologist,
vol.26, n° 10, p. 887-896.
Baumrind, D. (1985), Research using intentional deception: Ethical
issues revisited, American Psychologist, vol. 40, n° 2, p. 165-174.
Cook, T. D. & Campbell, D. T. (1979), Quasi-Experimentation: Design
and Analysis Issues for Field Settings, Chicago, Rand McNally.
Davidson, O. B., Eden, D., Westman, M., Cohen-Charash, Y.,
Hammer, L. B., Kluger, A. N., Krausz, M., Maslach, C., O’Driscoll,
M., Perrewé, P. L., Quick, J. C., Rosenblatt, Z. & Spector, P. E.
(2010), Sabbatical leave: Who gains and how much ?, Journal of
Applied Psychology, vol. 95, n° 5, p. 953-964.
Eddy, E. R., Tannenbaum, S. I. & Mathieu, J. E. (2013), Helping
teams to help themselves: Comparing two team-led debriefing
methods, Personnel Psychology, vol. 66, n° 4, p. 975-1008.
Evrard, Y., Pras, B. & Roux, E. (2009), Market – fondements et méthodes
des recherches en marketing, 4 e édition, Paris, Dunod.
Fineman, S. (2006), On being positive: Concerns and counterpoints,
Academy of Management Review, vol. 31, n° 2, p. 270-291.
George, J. M. & Jones, G. R. (2000), The role of time in theory and
theory building, Journal of Management, vol. 26, p. 657-684. 253
Grant, A. M. (2012), Leading with meaning: Beneficiary
contact, prosocial impact, and the performance effects of
transformational leadership, Academy of Management Journal,
vol. 55, n° 2, p. 458-476.
Grant, A. M., Berg, J. M. & Cable, D. M. (2014), Job titles as identity
badges: How self-reflective titles can reduce emotional
exhaustion, Academy of Management Journal, vol. 57, n° 4, p. 1201-
1225.
Grant, A. M. & Wall, T. D. (2009), The neglected science and art of
quasi-experimentation: Why-to, when-to, and how-to advice
for organizational researchers, Organizational Research Methods,
vol. 12, n° 4, p. 653-686.
Haerem, T. & Rau, D. (2007), The influence of degree of expertise
and objective task complexity on perceived task complexity and
performance, Journal of Applied Psychology, vol. 92, n° 5, p. 1320-
1331.
Hammer, L. B., Kossek, E. E., Anger, W. K., Bodner, T. & Zimmerman,
K. L. (2011), Clarifying work-family intervention processes: The
roles of work-family conflict and family-supportive supervisor
behaviors, Journal of Applied Psychology, vol. 96, n° 1, p. 134-150.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Igalens, J. & Roussel, P. (1998), Méthode de gestion en ressources


humaines, Paris, Economica.
Jaidi, Y. & Thévenet, M. (2010), GRH en situation de crise : Départ
volontaire et « bienveillance », 21e congrès de l’Association
francophone de Gestion des Ressources Humaines (AGRH), Rennes
et Saint-Malo.
Johns, G. (2006), The essential impact of context on organizational
behavior, Academy of Management Journal Review, vol. 31, n° 2
p. 386-408.
Kelman, H. C. (1967), Human use of human subjects: The problem
of deception in social psychological experiments, Psychological
Bulletin, vol. 67, n° 1, p. 1-11.
Kozlowski, S. W. J. & Ilgen, D. R. (2006), Enhancing the effectiveness
of work groups and teams, Psychological Science in the Public
Interest, vol. 7, n° 3, p. 77-124.
Le Blanc, P. M., Hox, J. J., Schaufeli, W. B., Peeters, M. C. W. & Taris,
T. W. (2007), Take care! The evaluation of a team-based burnout
intervention program for oncology care providers, Journal of
Applied Psychology, vol. 92, n° 1, p. 213-227.
Lievens, F. & Sanchez, J. I. (2007), Can training improve the quality
of inferences made by raters in competency modeling? A quasi-
experiment, Journal of Applied Psychology, vol. 92, n° 3, p. 812-819.
254
Liu, X. & Batt, R. (2010), How supervisors influence performance:
A multilevel study of coaching and group management in
technology-mediated services, Personnel Psychology, vol. 63, n° 2,
p. 265-298.
Lyons, B. D., Hoffman, B. J., Bommer, W. H., Kennedy, C. L. &
Hetrick, A. L. (2016), Off-duty deviance: Organizational policies
and evidence for two prevention strategies, Journal of Applied
Psychology, vol. 101, n° 4, p. 463-483.
McGrath, J. E. & Rotchford, N. L. (1983), Time and behavior in
organizations, Research in Organizational Behavior, vol. 5, p. 57-101.
Mintzberg, H. (1979), An emerging strategy of “direct” research,
Administrative Science Quarterly, vol. 24, n° 4, p. 582-589.
Mitchell, T. R. & James, L. R. (2001), Building better theory: Time and
the specification of when things happen, Academy of Management
Review, vol. 26, n° 4, p. 530-547.
Mowday, R. T. & Sutton, R. I. (1993), Organizational behavior: Linking
individuals and groups to organizational contexts, Annual Review
of Psychology, vol. 44, p. 195-229.
Noordzij, G., Van Hooft, E. A. J., Van Mierlo, H., Van Dam, A. & Born,
M. P. (2013), The effects of a learning-goal orientation training
L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

on self-regulation: A field experiment among unemployed job


seekers, Personnel Psychology, vol. 66, n° 3, p. 723-755.
Parker, S. K., Johnson, A., Collins, C. & Nguyen, H. (2013), Making
the most of structural support: Moderating influence of
employees’ clarity and negative affect, Academy of Management
Journal, vol. 56, n° 3, p. 867-892.
Peterson, S. J. & Luthans, F. (2006), The impact of financial and
nonfinancial incentives on business-unit outcomes over time,
Journal of Applied Psychology, vol. 91, n° 1, p. 156-165.
Savin, H. B. (1973), Professors and psychological researchers:
Conflicting values in conflicting roles, Cognition, vol. 2, n° 1,
p. 147-149.
Smith, F. J. (1977), Work attitudes as predictors of attendance on
a specific day, Journal of Applied Psychology, vol. 62, n° 1, p. 16-19.
Tews, M. J. & Tracey, J. B. (2008), An empirical examination
of posttraining on-the-job supplements for enhancing the
effectiveness of interpersonal skills training, Personnel
Psychology, vol. 61, n° 2, p. 375-401.
Wageman, R. (1995), Interdependence and group effectiveness,
Administrative Science Quarterly, vol. 40, p. 145-180.
Wagner, D. T., Barnes, C. M., Lim, V. K. G. & Ferri, D. L. (2012),
Lost sleep and cyberloafing: Evidence from the laboratory
and a daylight saving time quasi-experiment, Journal of Applied 255
Psychology, vol. 97, n° 5, p. 1068-1076.

Références pour en savoir plus


Grant, A. M., Berg, J. M. & Cable, D. M. (2014), Job titles as identity
badges: How self-reflective titles can reduce emotional
exhaustion, Academy of Management Journal, vol. 57, n° 4, p. 1201-
1225.
Basée sur une quasi-expérimentation, l’étude 2 de cette re-
cherche constate que les employés qui ont créé eux même l’inti-
tulé de leur poste de travail éprouvent moins d’épuisement émo-
tionnel.

Grant, A. M. & Wall, T. D. (2009), The neglected science and art of


quasi-experimentation: Why-to, when-to, and how-to advice
for organizational researchers, Organizational Research Methods,
vol. 12, n° 4, p. 653-686.
Les auteurs encouragent à l’utilisation des quasi-expérimenta-
tions en identifiant ses caractéristiques positives dans les re-
cherches en milieu organisationnel.
Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Igalens, J. & Roussel, P. (1998), Méthode de gestion en ressources


humaines, Paris, Economica.
Cet ouvrage expose et illustre les principales méthodes de re-
cherche, dont la quasi-expérimentation. Les domaines d’ap-
plication sont essentiellement la gestion des ressources hu-
maines, la psychologie sociale, le marketing et la sociologie.

Prévost, P. & Roy, M. (2017), Les approches qualitatives en gestion,


Montréal, Presses de l’Université de Montréal.
Menées en contexte réel, les recherches qui visent à aider les
praticiens et les organisations à résoudre des problèmes de
gestion complexes dans un monde en pleine effervescence sont
des outils précieux et de plus en plus incontournables. Pour gé-
nérer des connaissances à la fois pertinentes sur le plan pra-
tique et probantes sur le plan scientifique, les auteurs donnent
les moyens de maîtrise de diverses approches qualitatives.

Wagner, D. T., Barnes, C. M., Lim, V. K. G. & Ferri, D. L. (2012),


Lost sleep and cyberloafing: Evidence from the laboratory
and a daylight saving time quasi-experiment, Journal of Applied
Psychology, vol. 97, n° 5, p. 1068-1076.

256 À travers une quasi-expérimentation, cette recherche mesure


comment le manque ou la mauvaise qualité du sommeil influence
les comportements de flânerie des employés sur internet et sui-
vant des différences individuelles.
PARTIE III
Analyser les données du terrain

Introduction à la partie III

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev


257

Tout autant que pour le recueil des données du terrain traité à la


partie II, l’analyse des données primaires recueillies du terrain
peut prendre de multiples formes, selon qu’elles sont qualitatives
ou quantitatives, ou mixtes (qualitatives et quantitatives). Cela
exige du doctorant-manager de DBA de mettre en place un cadre
d’analyse empirique de données. En somme, qu’il aille chercher des
rudiments formels, en construisant tout autant des compétences
analytiques et d’utilisation de logiciels dédiés, que des capaci-
tés en gestion de données qualitatives, quantitatives, visuelles à
l’état brut, de l’information disponible, et des connaissances, les
siennes tout autant que celles cumulées dans les corpus de la
littérature d’intérêt. Les chapitres dans cette partie de l’ouvrage,
offrent un panorama, voire une coupe transversale, de possibilités
en matière d’analyse de données du terrain, qu’il s’agisse de les
comprendre ou de les représenter pour mieux les comprendre.

Un des moyens de produire des connaissances, donc d’établir le


lien entre les données et les concepts mobilisés à la compréhen-

Les méthodes de recherche du DBA


A n a l y s e r l e s d o n n é e s d u t e r ra i n

sion de phénomènes, est le codage. Au chapitre 15, Sébastien


Point, soulève avec justesse cette question : Qu’est-ce que le co-
dage ? Ce chapitre présente la mécanique du codage thématique
si étroitement associé à l’analyse qualitative d’abord, pour nous
inviter à faire de nombreuses rencontres lors de ces explorations
de codage. L’auteur place en première partie du chapitre les élé-
ments méthodologiques nécessaires à maîtriser en amont pour
comprendre ce qu’il est, ce qu’il fait et aussi ce qu’il apporte ou
devient. Le chapitre comprend des éléments pratiques à la sec-
tion 2, avant de montrer ce que les codages apportent aux don-
nées en section 3. Sébastien Point explique aussi comment on
doit présenter et faire état des résultats du codage. Ce dernier
élément demeure primordial, puisqu’il sert à bien documenter
la rigueur de production des connaissances, donc les choix qui
justifient comment le sens attribué aux données a été produit,
tout en demeurant conscient qu’il renferme une part de subjecti-
vité, mais que cette dernière est « déclarée ».

Il y a un engouement certain pour l’analyse par logiciel de


contenus qualitatifs, et c’est l’objectif du chapitre 16, prépa-
ré par Jean-Fabrice Lebraty, Katia Lobre-Lebraty et Stéphane
258 Trébucq, de présenter cette méthode de recherche. Ce chapitre
décrit succinctement les motivations de l’utilisation d’un logiciel
d’analyse qualitative dans la réalisation d’études qualitatives
avant de s’attarder plus amplement au processus sous-jacent.
En particulier, les auteurs présentent les étapes de cueillette
des données qualitatives pour ensuite décrire comment elles
peuvent être traitées par le logiciel NVivo. Ensuite, les auteurs
présentent un exemple pour illustrer le processus conduisant à
l’utilisation du logiciel en contexte de codage et d’analyse. Les
auteurs présentent également quelques dilemmes auxquels
doivent s’attarder le chercheur de DBA dans les choix opérés
lors d’analyses de données qualitatives.

Sébastien Liarte et Sarah Maire, au chapitre 17, prennent le flam-


beau analytique dans une autre optique pour nous convaincre, à
l’instar du proverbe de Confucius, du bien-fondé de l’expression :
« une image vaut mille mots » ! Toutefois, ce que l’on comprend
rapidement à la lecture de ce chapitre, c’est-à-dire, ce qui est ca-
pital dans le processus de production de connaissance condui-
sant à des recommandations managériales, est le choix de ces
A n a l y s e r l e s d o n n é e s d u t e r ra i n

mille mots ! En effet, ce chapitre souligne le bien-fondé de s’in-


téresser aux données visuelles comme matériau de recherche
primaire, un matériau visiblement toujours sous-utilisé pour
mieux comprendre les organisations. Mais, la tâche, bien que
fort intéressante, n’est pas de tout repos. En effet, de nombreux
défis d’ordre méthodologique sont au rendez-vous, comme ex-
posé dans la section 1 du chapitre ; la sémiotique, la rhétorique
et l’esthétique sont des éléments constitutifs qui ont pignon sur
rue. Les auteurs s’emploient aussi à décrire les différentes mé-
thodes employées dans ce processus de découverte et d’inter-
prétation de données visuelles. Dans la section 2 du chapitre,
on comprend tout l’intérêt de « rendre visible l’invisible » dans
les organisations et de « matérialiser l’immatériel », ce qui per-
met d’approfondir la compréhension des activités conduites par
les organisations. À travers ce chapitre, les nombreux exemples
illustrent merveilleusement bien les propos des auteurs, et des
recommandations à l’intention de managers-chercheurs consti-
tuent une réelle invitation à s’intéresser davantage aux données
visuelles.

Dans le chapitre 18, Jean Desmazes relève le défi de trans-


mettre son enthousiasme pour l’analyse de données statistiques 259
multidimensionnelles, de manière utile et compréhensible pour
non-spécialistes. En particulier, l’auteur montre l’intérêt de me-
ner des analyses statistiques, celles-ci permettant de synthé-
tiser de riches informations chiffrées pour en extraire le sens.
Les analyses statistiques multivariées dont l’auteur illustre sim-
plement l’utilité en contexte sont : l’Analyse en Composantes
Principales (ACP), l’Analyse Factorielle des Correspondances
(AFC), l’Analyse des Correspondances Multiples (ACM) et la
Classification Ascendante Hiérarchique (CAH). Il est impor-
tant de retenir de ce chapitre que les managers-doctorants
qui s’investiraient dans l’apprentissage de l’analyse statistique
pourraient en tirer une compréhension intime de certains phé-
nomènes, mais il faut aussi retenir que l’emploi en contexte de
ces méthodes statistiques ne se fera pas sans efforts pour en
maîtriser les tenants et aboutissants.

Jean Moscarola traite au chapitre 19 de la visualisation des don-


nées et de l’infographie numérique. C’est à travers des exemples
pratiques que l’auteur nous présente le potentiel et les outils
A n a l y s e r l e s d o n n é e s d u t e r ra i n

logiciels sous-jacents, tels Sphinx et DataViv. En particulier,


ces méthodes sont susceptibles d’enrichir considérablement la
communication des analyses de données, soit l’approche nar-
rative (storytelling, en anglais) numérique ou visuelle ; le proces-
sus de théorisation ou de conceptualisation que confèrent les
approches enracinées ; et la réfutation des contre-arguments.
Mais, ce qui retient véritablement l’attention, et suscitera un
intérêt de la part des doctorants-managers, c’est l’apport de
logiciels, comme autant d’outils employés dans la production
de connaissances. Mais, à l’instar de la maîtrise de méthodes
statistiques, un complément d’effort doit être fait pour acquérir
les compétences requises permettant de mettre à profit la vi-
sualisation des données et l’infographie. Il s’agit d’un domaine
d’analyse des données en plein essor et en cette ère d’accumu-
lation de mégadonnées. Il y a fort à parier que les méthodes et
outils d’analyse dont il est question dans ce chapitre, et les en-
jeux qu’ils soulèvent, tiendront une place encore plus importante
dans la production et la communication de recommandations
managériales dans l’avenir.

La méta-analyse est l’art de synthétiser les résultats de la re-


260 cherche pour en généraliser les résultats, et cette méthode est
le sujet du chapitre 20 offert par Christophe Fournier. L’auteur
aborde les étapes du processus de la méta-analyse en détail,
en soulignant la nature statistique de production des résul-
tats. Quelques références ont été ajoutées en complément de
chapitre pour les doctorants-managers de DBA intéressés de
produire une synthèse de la littérature dans leur champ d’exper-
tise. La méta-analyse apparaît comme un excellent moyen de
construire une expertise robuste ancrée dans les faits.

La créativité est de plus en plus reconnue comme un ingrédient


essentiel de la réussite en recherche, nombreux sont les cher-
cheurs en gestion qui désormais s’y intéressent. Le chapitre 21,
proposé par Gaëtan Mourmant, décrit diverses approches par
lesquelles il est possible de faire intervenir la créativité dans la
recherche en management. L’auteur expose différents résultats
de recherche en neuroscience pour indiquer de quelle manière
il est possible de mobiliser divers éléments, tels le rôle de l’at-
tention interne et externe dans la production de représentations
mentales, le rôle de la méditation et aussi celui des cinq habi-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

tudes des personnes très créatives. Le chapitre comprend de


nombreux exemples et souligne les différents constats à rete-
nir. En conclusion, l’auteur synthétise l’essentiel de ses propos
comme autant de recommandations appropriables pour tirer
avantage de ces techniques pouvant contribuer à faire émerger
des concepts pertinents à travers ces processus de conceptua-
lisation.

En somme, cette partie du livre vient mettre en évidence les


différentes méthodes, outils, logiciels, et même les disciplines
personnelles de conceptualisation, tous utiles à l’analyse de
données primaires qualitatives, quantitatives et visuelles. Pris
individuellement, chacune de ces méthodes ou techniques pré-
sentées dans cette partie, est susceptible de produire la connais-
sance pour comprendre un phénomène ou un objet d’intérêt
dans la réalisation d’un projet de DBA. La manière dont le choix
d’une méthode adaptée à la question terrain, le recueil des don-
nées terrain, et l’analyse de données du terrain, peut s’articuler
en un tout intelligible et cohérent qui fera l’objet de la Partie IV.

261
CHAPITRE 15.
L’analyse des données qualitatives :
voyage au centre du codage

Sébastien Point

Résumé

Qu’est-ce que le codage ? Comment donner du sens aux don-


nées ? Comment lier concepts et données ? Ce chapitre vise
à introduire la notion de codage et susciter une véritable ré-
262
flexion sur ce processus d’analyse des données. Il s’agit donc
de lever le voile sur ce processus de transformation. Si, en
théorie, la démarche de codage reste simple, en pratique ce
n’est pas un processus neutre, puisqu’il mobilise une grande
subjectivité du chercheur à travers la recherche de sens. Reste
au chercheur de faire les bons choix de codages et d’interpré-
tations.

Mots-clés : codage, données qualitatives, concepts, subjec-


tivité, interprétation.

Les méthodes de recherche du DBA


L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

“Coding is fun isn’t it? You never know what you might discover
in a simple encounter.”
Strauss et Corbin (1990, p. 73)

INTRODUCTION1
Les travaux en recherche qualitative visent à comprendre et inter-
préter un phénomène spécifique étudié. Les extrapolations ou gé-
néralisations sont quasiment impossibles. Ce n’est d’ailleurs pas
le but des recherches qualitatives fortement contextualisées et qui
reposent sur des échantillons beaucoup plus restreints que les re-
cherches quantitatives. Pourtant, avoir de petits échantillons et/ou
des problématiques de recherche fortement contextualisées ne veut
pas dire avoir une petite quantité d’information à devoir gérer : ces
dernières années, nous assistons à une véritable mutation des don-
nées qualitatives, et qualifier la recherche qualitative de nuisance
attractive (Miles, 1979) constitue plus que jamais une tautologie,
et ce, pour trois raisons essentielles. En premier lieu, la taille des
échantillons tend à largement augmenter, puisque pour la plupart
des chercheurs, un échantillon de taille plus importante garantirait
la robustesse et la validité de l’analyse – ce qui n’est pas forcément
263
vrai ! Deuxièmement, les données recueillies sont particulièrement
variées : outre les discours et toutes les observations qui conduisent
le chercheur à manipuler du texte, des images, des fichiers audio ou
même vidéo peuvent aujourd’hui venir enrichir la diversité des don-
nées ainsi recueillies par le chercheur2. Troisièmement, la frontière
entre les approches quantitatives et qualitatives devient de plus en
plus floue et conduit parfois le chercheur à opérer toutes sortes
de comptages qui tendent à quantifier les informations obtenues à
partir de données qualitatives. En conséquence, rigueur et flexibilité
sont aujourd’hui devenus les maîtres mots de la méthodologie en
recherche qualitative (Gioia et al., 2013 ; Saldaña, 2013).

1. Ce chapitre ne se veut pas être un inventaire in extenso des techniques de codage
existantes. Nous proposons plutôt ici aux lecteurs une réflexion sur le processus
de codage et plus généralement de l’analyse des données qualitatives. Les recen-
sements effectués ici ne sont que des résumés de la pensée originelle et nous
incitons fortement les chercheurs, intéressés par une méthode particulière, à se
référer aux travaux sources : chacun des auteurs cités possède effectivement une
interprétation bien particulière des concepts soulignés dans ce chapitre et nous
encourageons également les chercheurs non seulement à en prendre connais-
sance, mais également à se faire leur propre appropriation.
2. Nous nous référons ici au dicton « All is data », cher à Glaser (1978).
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Au lieu de parler de méthodologie de recherche qualitative, nous


devrions plutôt évoquer des méthodologies : en effet, tant au ni-
veau de la recherche qualitative que quantitative, la méthodolo-
gie se décline en trois temps distincts : le recueil, l’analyse et la
mesure/validité de la recherche. L’objectif de ce chapitre est de
se focaliser sur la deuxième étape, celle de l’analyse qui passe
par un processus de (dé)codage des données qualitatives. Mais
avant d’évoquer les processus de (dé)codage des données qua-
litatives et de mieux appréhender l’analyse de celles-ci, rappe-
lons l’objectif de toute recherche qualitative.

L’objectif de toute recherche qualitative reste de comprendre


un phénomène par la construction d’un modèle : elle assure
avant tout une visée compréhensive qui conduit généralement
à une construction théorique. La construction théorique peut
être à visée descriptive ou explicative (Snow & Thomas, 1994) :
la première correspond au « quoi » en identifiant les construits
et concepts clés de la recherche ; la seconde répond au « com-
ment » et « pourquoi » en cherchant à établir des relations entre
les concepts et les construits de la recherche. La construction
théorique correspond alors plutôt à un réseau de relations non
264 hiérarchiques, exprimées avec des énoncés définissant les
liens parmi les concepts (Carley, 1991) ou encore à un modèle
prédictif d’événements, pouvant être comparé avec ce qui est
réellement observé (Yin, 2017). Cette construction théorique est
l’aboutissement de l’analyse des données qualitatives opérée
via le codage. En l’occurrence, ce processus appelle à plusieurs
questionnements qui structurent ce chapitre : 1) qu’est-ce que
le codage ? 2) Comment lier concepts et données ? 3) Comment
donner du sens aux données ? 4) Comment rendre compte du
codage ?

1. UN PEU DE THÉORIE : QU’EST-CE QUE


LE CODAGE ?
Commençons par démystifier le processus clé au cœur de l’ana-
lyse des données qualitatives : le codage. Le codage est le ré-
sultat de l’analyse des données et il va même au-delà ; c’est une
démarche captivante, mais aussi chronophage (Ayache & Dumez,
2011). Bon nombre d’auteurs s’accordent à dire que l’analyse
des données qualitatives commence dès le recueil de celles-ci !
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Pourquoi donc coder ? Le codage permet d’identifier les idées is-


sues des données recueillies. Le codage est un instrument (pour
étayer la métaphore de Ayache & Dumez, 2011) : tel un musicien,
le chercheur fait corps avec son instrument pour lire, déchiffrer et
exécuter sa partition. Il s’agit également de relier les idées entre
elles afin de leur donner du sens (Coffey & Atkinson, 1996). C’est
en effet à partir du sens donné au matériau recueilli que le proces-
sus de codage se réalise. Pour cela, le chercheur rassemble entre
eux les codes homogènes puis il va progressivement transformer
ces codes en catégories par un travail successif de codage (en
repensant puis en recodant les codes). « La catégorie est un code
travaillé par le chercheur et renvoie ainsi à l’organisation concep-
tuelle et à la théorisation menée par le chercheur. Elle va alors bien
au-delà de la désignation de contenu » et elle reste apparentée à la
notion de concept (Point & Voynnet-Fourboul, 2006, p. 64).

Il existe autant de définitions du codage que de manières d’ap-


préhender les données qualitatives. Les définitions s’accordent
toutefois toutes sur un point : le codage est un processus de
transformation ; il s’agit de transformer les données pour arriver
à un modèle, une construction théorique. Certaines définitions
mettent en exergue le principe de réduction des données ; le cer- 265
veau humain ayant des capacités limitées, il lui est nécessaire de
procéder à une simplification des données face au volume qu’il
a à traiter. La catégorisation – principe que nous éluderons ulté-
rieurement – appelle justement à une simplification en invitant le
chercheur à classer les informations selon des catégories. Dans
cette perspective, le codage consiste à « découper les données
en unités d’analyse, à définir les catégories qui vont les accueil-
lir, puis à placer les unités dans ces catégories » (Allard-Poesi,
2003, p. 246). Ce procédé est également cher à Miles et Huberman
(1994). D’autres définitions mettent en exergue la cognition et la
capacité du chercheur à penser ses données. Dans cette pers-
pective, le codage implique « un effort explicite d’identifier des
thèmes, de construire des interprétations telles qu’elles émer-
gent des données ainsi que de clarifier le lien entre les données,
les thèmes et les interprétations conséquentes » (Tesch, 1990,
p. 113, traduction de l’auteur). Ce processus fournit au chercheur
des façons de penser les données (un processus d’indexation).
Le chercheur se pose lui-même des questions à propos des don-
nées (voir Coffey & Aktinson, 1996).
A n a l y s e r l e s d o n n é e s d u t e r ra i n

En théorie, la démarche de codage est simple : il suffit de se po-


ser de multiples questions sur le texte lui-même… et au-delà :
bon nombre de chercheurs tendent à se poser uniquement des
questions sur le sens du texte ou le contenu du fichier audio/
vidéo, en oubliant de lire entre les lignes : silences, hésitations,
émotions, métaphores, ton de la voix, gestuelle (en cas de vi-
suel) etc. sont autant d’indices permettant au chercheur d’inter-
préter et de donner du sens à ces données. À l’instar de l’inspec-
teur Columbo, il faut donc méticuleusement trouver des indices
permettant de construire un sens particulier, celui qui amènera
progressivement le chercheur à mobiliser des concepts. Ayache
et Dumez (2011) évoquent à juste titre la multi-dimensionnalité
du codage pour rendre compte : 1) de la multiplicité du sens que
le chercheur peut donner au corpus de données ; 2) de la varié-
té des thématiques auxquelles il peut être fait référence, ou en-
core ; 3) des perspectives multiples (ou angles d’attaques) que
chaque chercheur peut effectuer sur le même corpus de don-
nées, de manière convergente ou divergente.

En pratique, le codage fait vraisemblablement douter le cher-


cheur : le codage n’est pas un processus neutre, il amène une
266
grande subjectivité du chercheur puisque c’est lui qui donne
du sens : mais a-t-il seulement fait les bons choix ? Que faut-il
coder ? En commençant par une codification des données, le
processus de codage amène à une catégorisation. Il ne faut en
effet pas confondre codification des données et catégorisation
des données. En l’occurrence, le premier renvoie à la transfor-
mation des données brutes (issues de faits observés, de pro-
pos et/ou discours recueillis…) en une première formulation qui
relève du sens commun : certains chercheurs appellent cela de
l’étiquetage, soit le fait de mettre des étiquettes sur des mor-
ceaux de textes ou d’images ou encore sur des extraits audios
ou vidéos. La seconde est un processus visant à transformer
des thèmes et/ou idées en concepts clés destinés à un système
plus abstrait de connaissances. La catégorisation « est l’ana-
lyse, la conceptualisation, mise en forme, la théorisation en
progression » (Paillé & Mucchielli, 2005, p. 147). Elle renvoie à
une réorganisation des données et des codes déjà attribués, au
moyen de catégories créées antérieurement ou ultérieurement
par le chercheur.
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Encadré 1. Le codage en pratique :


six pièges à éviter
La paraphrase : de simples citations issues du corpus de données
ne tiennent pas lieu d’analyse. Rappelons que le codage va au-delà
d’une simple description, puisque le chercheur donne du sens à ses
données ; c’est cette recherche de sens qui l’amène progressivement
à faire le lien entre concepts et données empiriques.
Le réductionnisme : travailler uniquement sur les codes et non sur
le corpus de données de base peut amener le chercheur à perdre la
globalité de ses données. Trop de réduction nuit à l’interprétation.
La linéarité des opérations : le codage nécessite des « va-et-vient »
entre le corpus de données étudié et les catégories créées, entre les
concepts identifiés dans la revue de littérature et les données re-
cueillies ; ce n’est pas un processus complètement linéaire qui part
soit des concepts pour les relier aux données, soit des données pour
faire émerger des concepts. Le processus reste itératif.
La technicisation : il s’agit d’une surexploitation du corpus de don-
nées et l’emploi d’outils non nécessaires à l’analyse. Trop d’expertise
peut être contreproductive au chercheur puisqu’il peut facilement se
noyer dans ses propres connaissances et interprétations.
L’enlisement : un enlisement dans l’analyse ou même le recueil des
données peut nuire à la phase d’interprétation. Le processus de
codage reste chronophage mais ne doit pas pour autant nuire aux
autres étapes de la recherche.
267
La détemporisation : le codage nécessite beaucoup de temps, non
négligeable dans la procédure d’analyse. Attention toutefois à limi-
ter le temps consacré au codage.
Inspiré de Point et Voynnet-Fourboul (2006, p. 70).

En l’occurrence, le défi pour tout chercheur est justement de


passer de la codification à la catégorisation, sinon il risque de
rester dans le descriptif, ce qui peut davantage relever d’une
démarche journalistique au lieu d’une démarche scientifique et
académique. Ce procédé reste complexe mais c’est aussi la qua-
lité de ce passage entre codification et catégorisation qui déter-
minera la qualité de l’analyse, et donc celle de la thèse. L’étape
clé est donc de relier concepts et données.

2. UN PEU DE PRATIQUE : COMMENT LIER


CONCEPTS ET DONNÉES ?
Dans sa démarche de recherche, le jeune chercheur se retrouve
très vite avec deux types de matériau : d’une part, avec sa revue
A n a l y s e r l e s d o n n é e s d u t e r ra i n

de littérature, le chercheur amasse un ensemble de connais-


sances, de concepts, de modèles, de théories et de réflexions.
Il s’agit des données théoriques. D’autre part, les données sont
regroupées sous forme de discours, de faits, d’opinions, de blo-
gues, d’attitudes, d’observations…, c’est-à-dire un ensemble
de documents regroupés en données primaires (entretiens) et
données secondaires (observations, documents, sites internet,
etc.) appelées données empiriques. Le défi est de trouver des
passerelles ou des liens entre les données empiriques et les
données théoriques. Deux visions possibles s’offrent ainsi au
chercheur : partir des données empiriques et progressivement
arriver à la théorie ou partir des concepts et trouver l’ancrage
empirique correspondant à la théorie (Figure 1).

Figure 1. Le passage entre les mondes théorique et


empirique

268

Dans le premier cas, à partir de faits, d’observations et de tous


documents dont il dispose, il s’agit de faire émerger des éléments
plus conceptuels. Le fait de passer des données empiriques à la
théorie (et ses concepts) s’appelle l’abstraction3. L’abstraction
est un mécanisme permettant au chercheur de progresser vers
une construction théorique ; il s’agit pour le chercheur de se fo-
caliser sur ce qu’il perçoit comme essentiel pour bâtir un modèle

3. Le terme abstraction vient du latin ab trahere qui veut dire « tirer de ». « La catégorie
fait sens, dans la mesure où elle décrit un phénomène d’un certain point de vue,
dans la mesure où elle donne lieu à une définition, elle a des propriétés synthé-
tique, dénominative et explicative d’un concept » (Paillé & Mucchielli, 2005, p. 149).
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

analytique en relation avec le problème qu’il se pose (Dumez,


2016). Ce principe d’abstraction (ou démarche ascendante, ou
bottom-up, en anglais) consiste donc à coder les données, formu-
ler des indices (au sens de Lazarsfeld, 1967), pour ensuite pro-
gressivement créer des catégories pour faire émerger des élé-
ments plus conceptuels. En d’autres termes, il s’agit de repérer
les concepts dissimulés derrière l’ensemble des données que le
chercheur a recueilli. Ces éléments empiriques ne représentent
jamais directement des concepts et il s’agit justement du travail
du chercheur de trouver – par un jeu de codages successifs – la
signification des concepts théoriques sous-jacents. Par le jeu
de l’induction, le chercheur utilise ses données pour y repérer
des concepts clés. Dans l’exemple ci-dessous (Figure 2), le
chercheur part de toute la richesse du matériau pour le découper
en unités de sens et y attribuer des codes. Aussi, le chercheur
commence par faire un repérage avec un codage très proche du
texte analysé. Lorsque le label du code est identique au texte, il
s’agit d’un codage dit in vivo4. Puis, progressivement, à la lecture
d’autres segments de textes, le chercheur va transformer ses
codes en catégories. Ainsi, dans cet exemple, la concurrence
pourrait se transformer en catégorie « compétition ». L’ensemble
du paragraphe fait aussi référence à la catégorie « ambition ». 269

Figure 2. Exemple de codification

Dans le second cas (c’est-à-dire dans le cas du passage du monde


théorique au monde empirique, démarche descendante (top-
down, en anglais) – généralement plus abordable pour les jeunes
chercheurs – ces derniers s’attachent à repérer, au sein même des
données recueillies, les éléments empiriques qui illustrent le plus
finement possible les concepts identifiés dans la revue de littéra-

4. Le terme in vivo vient du latin « au sens du vivant ». En d’autres termes, il s’agit
d’utiliser au plus près les verbatim des personnes interrogées pour explorer les
différentes dimensions des catégories (voir Saldaña, 2013).
A n a l y s e r l e s d o n n é e s d u t e r ra i n

ture. Il s’agit, par une manœuvre de repérage, d’identifier le ou les


passages du texte, de la bande-son ou de la vidéo au(x) concep-
t(s) identifié(s) préalablement dans la littérature. Dans l’exemple
ci-dessous (Figure 3), les catégories sont données par la théorie
et le chercheur tente de les retrouver dans son matériau. En l’oc-
currence, le chercheur utilise des codes théoriques5, c’est-à-dire
les codes qu’il a identifiés dans la littérature. S’agissant générale-
ment de concepts, ces codes théoriques constituent de véritables
catégories. Dans cet exemple, le codage est clairement à visée
théorique (Point & Voynnet-Fourboul, 2006).

Figure 3. Exemple de catégorisation

Quelle que soit la démarche privilégiée (inductive ou déductive)


le chercheur travaille dans un premier temps sur son corpus de
270 données ou matériau de recherche pour ensuite travailler sur les
codes eux-mêmes. En effet n’oublions pas que l’essence du co-
dage reste de travailler sur les ressemblances/différences d’une
unité de texte (mot, phrase, paragraphe, etc.) à une autre. Le
chercheur va donc adopter le schéma réflexif suivant (Figure 4).
Le passage de la codification à la catégorisation va amener le
chercheur à passer du concret à l’abstraction et du particulier
au général. Le questionnement du chercheur s’articulera alors
autour des interrogations suivantes :
–– Faut-il créer une catégorie à partir des codes utilisés pour
rendre compte de l’idée suscitée à la lecture du texte ?
–– Quelle est la place de cette catégorie par rapport aux
autres ?

5. Le terme « codage théorique » est perçu comme un oxymore par certains auteurs
(Ayache & Dumez, 2011, p. 34). Si le code reste un « label » que le chercheur met sur
un mot – ou groupes de mots – issus d’un verbatim, rappelons que cette étiquette
peut être soit identique au texte, soit provenir des lectures théoriques du chercheur,
ce dernier ayant déjà cheminé sur le sens accordé au code. Nous utilisons le terme
« code théorique » pour montrer que le chercheur est déjà dans une démarche d’abs-
traction au moment où il distribue les étiquettes au sein de ses verbatim.
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

–– Faut-il plutôt aller plus finement dans la catégorisation, en


affinant par des sous-catégories ?

Figure 4. Le processus de construction théorique

Source : Saldaña (2013, p. 13)

Dans un premier temps, le chercheur réalisera un codage dit


« ouvert », phase durant laquelle il va multiplier les codes à at- 271
tribuer aux unités de sens. Puis, progressivement, il va chercher
à regrouper ces codes en catégories, puis identifier des liens
entre codes et catégories ou catégories entre elles. Les caté-
gories peuvent aussi être affinées ; par exemple, la catégorie
« performance » peut être affinée en « performance sociale »,
« performance économique », « efficience », « efficacité », etc.
L’objectif final sera d’identifier les « méta-catégories », c’est-à-
dire les trois ou quatre « super catégories » qui permettront de
« résumer » l’ensemble des codes et des catégories identifiés.
Ces méta-catégories reliées entre elles forment une construc-
tion théorique.

Les démarches de codage inductive et déductive ne sont pas in-


commensurables pour autant. En lisant les détracteurs de l’une
ou l’autre de ces deux démarches, on pourrait croire qu’elles
s’opposent. La présence de codes théoriques amène le cher-
cheur à avoir de nombreuses « préconceptions » (Glaser, 2012). Si
l’absence de préconception reste un des préceptes de la théorie
ancrée (Grounded Theory, Glaser & Strauss, 1967), il est important
A n a l y s e r l e s d o n n é e s d u t e r ra i n

que les codes théoriques ne viennent trop polluer le matériau


de recherche (Dumez, 2016). En l’occurrence, le chercheur peut
être tenté de « forcer » l’apparition de concepts avec lesquels il
est relativement familier au sein de son matériau de recherche.
L’affirmation « pas de préconceptions » (Glaser, 2012) doit rester
à l’esprit du chercheur pour garantir une certaine ouverture et
être au cœur des données, sans véritablement vouloir « trouver »
ce quelque chose que le chercheur souhaite absolument trou-
ver ! À l’inverse, le chercheur ne peut que trop rarement se déta-
cher de sa sensibilité théorique, c’est-à-dire de son expérience
et de sa revue de littérature ; il reste forcément influencé.

Une des grandes tentations est donc de mêler démarches induc-


tive et déductive, c’est-à-dire laisser libre cours à la créativité à
partir du matériau tout en se référant à des codes théoriques
par des allers-retours avec la littérature. Cette démarche de va-
et-vient entre les modes empiriques et théoriques semble ac-
tuellement particulièrement prisée par les chercheurs qui qua-
lifient bien souvent celle-ci de démarche abductive. La notion
d’abduction amène effectivement des oscillations inductives et
déductives mais elle va bien au-delà. Charles Sanders Peirce
272 (1974) – à qui nous devons l’emploi de ce terme – définit l’abduc-
tion comme un processus permettant de former des hypothèses
explicatives. Il s’agit d’une opération logique qui introduit une
nouvelle idée. L’induction ne fait rien d’autre que de déterminer
une valeur, et la déduction extrait les conséquences nécessaires
d’une pure hypothèse. En conséquence, le terme « abduction »
devra être utilisé avec prudence et parcimonie, puisqu’il renvoie
à une véritable démarche de recherche plutôt qu’à une simple
oscillation entre les modes théoriques et empiriques. Quelle que
soit la démarche adoptée, le défi majeur reste de donner du sens
aux données.

3. UN PEU DE RÉFLEXION : COMMENT DONNER


DU SENS AUX DONNÉES ?
La littérature propose au chercheur différents principes de
« classification » des données ; par exemple, les méthodes de
Miles et Huberman (1994) ou encore de Strauss et Corbin (1990)
restent particulièrement mécanisées ce qui permet de rassurer le
chercheur dans son processus de codage. Ces deux démarches
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

constituent un bon exemple d’un protocole particulièrement


précis et détaillé à suivre pour le codage des données ; un tel
protocole pourrait convenir au chercheur soucieux d’exploiter
au mieux ses données, mais pourrait aussi devenir particulière-
ment contraignant pour des chercheurs recherchant davantage
de créativité. En effet, ce ne sont pas les seules démarches exis-
tantes et Saldaña, (2013) propose pas moins d’une trentaine de
méthodes destinées au codage des données qualitatives.

La distinction entre codification et catégorisation nous amène


ici à effectuer une différenciation entre les méthodes de co-
dage de premier ordre (ou de premier niveau) et celles de se-
cond ordre (ou de second niveau). Les codes de premier ordre
renvoient à un codage descriptif ou thématique, ce qui constitue
par essence un codage très proche des données. Les méthodes
de codage les plus utilisées à ce stade restent les codages in
vivo (reprise littérale du verbatim) et thématique (identification
de grands thèmes). A contrario, les codes de second degré sont
davantage tournés vers une démarche d’abstraction ; il s’agit
de développer une organisation plus conceptuelle et théorique
des données à partir des codes de premier ordre (Saldaña,
2013). Pendant cette seconde phase de codage, le chercheur va 273
réorganiser ses codes (les renommer, les fusionner ou encore
les abandonner). Saldaña (2013) recense nombre de techniques
qui peuvent être regroupées en codage de premier et second
ordre (Figure 5).

La figure 5 montre la diversité des codages que le chercheur peut


mobiliser pour l’analyse de ses données. Nombre de chercheurs
se limitent bien souvent à un codage thématique : même si nous
l’avons identifié comme une méthode à part, le codage théma-
tique renvoie à l’ensemble des méthodes de codage de premier
ordre. Le codage thématique reste présenté comme un proces-
sus intéressant pour les premières phases de codage, mais le
chercheur ne saurait se limiter à celui-ci (Boyatsis, 1998). Il est
ici intéressant de souligner l’apport de grilles existantes permet-
tant de créer un codage tiré de quelques théories : ainsi les ap-
proches émotionnelles, narratives ou dramaturgiques renvoient
à des théories existantes permettant au chercheur d’établir une
véritable grille de codage en amont de son travail sur le terrain.
Néanmoins, la multiplication de ces grilles préexistantes amène
A n a l y s e r l e s d o n n é e s d u t e r ra i n

aussi le chercheur à avoir des préconceptions sur son travail de


recherche, et parfois même sur ses résultats.

Figure 5. Exemples de codage de premier ordre et


de second ordre

Codage par
Caractéristiques de la source
Codage de premier

Méthodes attribut
usuelles Codage d’am- Focus sur la fréquence ou
pleur l’intensité
ordre

Codage in vivo Reprise littérale du verbatim


Méthodes
Codage proces- Focus sur les actions
élémen-
suel
taires
Codage ouvert Démultiplication des codes
Codage des Focus sur les émotions
émotions exprimées
Focus sur les valeurs,
Méthodes Codage des
croyances, normes ou visions
affectives valeurs
du monde
Codage d’éva- Focus sur des aspects posi-
Codage de premier ordre

luation tifs et/ou négatifs


Codage drama- Grille fondée sur l’approche
274 turgique théâtrale
Méthodes Codage mytho- Grille fondée sur les légendes
littéraires logique et les mythes
Grille fondée sur la narration
Codage narratif
d’une histoire

Méthodes Codage culturel Approche ethnographique


procédu- Approche fondée sur les
rales Codage causal
causes du phénomène étudié
Codage thé- Approche fondée sur l’identification de thèmes
matique et de descriptions que le chercheur utilise pour
créer toutes sortes de taxinomies autour de son
corpus de données
Codage Identification des catégories les plus saillantes et
second ordre

centré porteuses de sens


Codage de

Codage Identification des liens entre les codes et/ou


axial catégories
Codage
Identification de la ou les catégorie(s) principales
théorique

Source : adapté de Saldaña (2013)


L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Un véritable travail de codage ne pourra pas non plus prendre


place sans la réalisation de mémos. Comparable à un véritable
« journal de bord », le mémo est un mini rapport ou une mini ana-
lyse fondée sur une critique, une interprétation du chercheur
à propos de ce qui émerge de ses données et qui amène à une
théorisation (Saldaña, 2013). En effet, la nature même de la re-
cherche qualitative nécessite une véritable réflexion et inter-
prétation du chercheur sur ses données. Si la rédaction de mé-
mos est principalement associée à une démarche de recherche
de type grounded theory (Glaser & Strauss, 1967 ; Glaser, 1978 ;
Strauss & Corbin, 1990), toute approche de codage peut bénéfi-
cier de l’utilisation de mémos pour aboutir à une véritable abs-
traction. L’utilisation de mémos permet en effet d’améliorer la
réflexivité du chercheur qu’il n’aurait probablement pas atteint
sans la mobilisation de ces derniers.

Le mémo est la véritable « porte d’entrée » entre théorie et don-


nées. Les mémos constituent un mode de conservation et de pro-
gression des pensées du chercheur ; le chercheur va en écrire à
tout moment, du recueil de ses données à la production de son
document final. Le fait de prendre du recul sur le codage et de
« penser » sur le processus amène le chercheur à avoir une pen- 275
sée davantage « critique » sur ses données. Les mémos peuvent
être de véritables résumés des résultats clés de la recherche
ou encore des commentaires ou des réflexions sur des aspects
particuliers de la recherche. Glaser (1978, 2014) insiste sur le fait
de considérer le mémo comme une priorité pour assurer la ré-
tention de ses idées, réflexions et interprétations ; il considère
d’ailleurs le mémo comme une « note conceptuelle ».

Les mémos sont de nature différente et peuvent représenter


quelques lignes, voire parfois des pages entières. Nombre d’au-
teurs proposent des guides de rédaction des mémos (voir par
exemple Glaser, 1978, 2014 ; Strauss & Corbin, 1990 ; Charmaz,
2006). Si ces différentes méthodes peuvent effectivement aider
le chercheur à mieux comprendre l’intérêt des mémos dans sa
recherche et leur construction, nous souscrivons aux propos de
Charmaz (2006), conseillant d’écrire des mémos selon la manière
qui convient le mieux au chercheur. Strauss et Corbin (1990) dis-
tinguent toutefois trois formes essentielles de mémos : opéra-
tionnels, de codage et théoriques. Les mémos opérationnels
A n a l y s e r l e s d o n n é e s d u t e r ra i n

renvoient aux choix du chercheur dans sa recherche. Les mémos


liés au codage renvoient à l’extrapolation du chercheur sur ses
codes, et la progression vers la production de catégories. Enfin,
les codes théoriques – souvent présentés comme une démarche
analytique dans la littérature liée à la grounded theory – amènent à
une plus grande abstraction, en s’interrogeant sur les relations,
les explications et les interprétations émergeant des données
pour arriver à un niveau conceptuel plus élevé et plus abouti.

4. AVANT DE PASSER À L’ACTION :


COMMENT RENDRE COMPTE DU CODAGE ?
La difficulté rencontrée par tout chercheur en recherche quali-
tative est véritablement de « rendre compte » du processus de
codage. Depuis quelques années, un véritable standard est ap-
paru dans les revues académiques de haut niveau. Ce standard,
connu sous le nom de « méthodologie à la Gioia ». Gioia, Corley
et Hamilton (2013) reprennent le principe du codage de premier
ordre et de second ordre pour véritablement montrer au lecteur
la progression de la réflexion dans la recherche. Selon les au-
276 teurs, l’idée de cette approche est de renforcer la rigueur et la
transparence d’une recherche inductive. Si la méthodologie dé-
veloppée par Gioia ces 25 dernières années reste une approche
interprétative fondée sur la grounded theory (Gehman et al., 2017),
la manière de restituer le codage nous semble particulièrement
intéressante et à mobiliser dans de nombreuses recherches
destinées à la construction théorique. Elle se présente en deux
temps.

Dans un premier temps, le chercheur construit sa « structure de


données » (data structure, en anglais) (Figure 6). En commençant
pas être au plus près du terrain, le chercheur travaille sur ces co-
des de premier ordre. Si Gioia parle de « constellation de codes
de premier ordre », il est également fondamental de veiller à gar-
der un nombre gérable de codes selon l’auteur (voir Gehman et
al., 2017). Il est vrai que la tentation dans une opération de codage
ouvert est de démultiplier les codes in vivo et thématiques. Le
codage de second ordre permet ensuite de progresser vers des
catégories. Il peut s’agir de thèmes, mais ces derniers doivent
suggérer des concepts qui expliquent le phénomène observé.
Figure 6. La structure des données ou des codes de premier ordre à l’abstraction
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Source : Corley et Gioia (2004, p. 184)


277
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Lorsque les codes de premier et de second ordre ont été assem-


blés, la base de la structure de données est établie. La struc-
ture des données reste indispensable. Cette étape reste le mo-
ment pivot de la recherche, car elle montre la progression des
données recueillies au codes de premier et de second ordre,
ce qui constitue une étape fondamentale dans la rigueur d’une
recherche qualitative (Gehman et al., 2017). Cependant, si la fi-
gure 6 montre clairement la progression de la recherche dans
une démarche d’abstraction, elle ne montre pas encore les liens
entre les concepts. Or ces derniers demeurent fondamentaux
dans la conceptualisation de la recherche (Dumez, 2016). Aussi
importante que soit la structure des données, elle ne constitue
qu’une photographie statique éditée à un instant t. Aussi, pour
comprendre le phénomène étudié, il reste à articuler les liens
entre les concepts clés. C’est effectivement la relation entre
les concepts émergents qui permettent de générer une théorie
(Corley & Gioia, 2011) ; et c’est justement cette articulation entre
données et théorie que la « méthode Gioia » s’attache à illustrer.
La figure 7 montre le modèle final en montrant les liens entre les
catégories et/ou codes de second degré.

278 L’écriture devient une véritable histoire mettant en exergue le


développement de nouveaux concepts (ou de concepts dans un
nouveau contexte) avec ce que Gioia et al. (2013) appellent « une
découverte théorique ». L’objectif reste bien de montrer aux lec-
teurs l’émergence de ces nouveaux concepts ou de nouvelles
perspectives sur les concepts existants.
Figure 7. Modèle émergent à partir de la structure de données
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Source : Corley et Gioia (2004, p. 185)


279
A n a l y s e r l e s d o n n é e s d u t e r ra i n

CONCLUSION
La qualité d’une recherche qualitative dépend avant tout de la
qualité de son codage. L’analyse des données n’est donc pas
à prendre à la légère et il incombe au chercheur de prendre
conscience de processus comme la catégorisation, l’abstraction
ou encore la production de mémos. Si la phase de codification
permet de générer un grand nombre de codes et/ou de thèmes,
la phase de catégorisation implique de multiples interprétations
de la part du chercheur et favorise inéluctablement l’abstraction.
Le travail du chercheur est donc de rentrer dans un processus
réflexif – notamment à travers la rédaction de mémos – qui lui
permet de prendre progressivement de la distance avec son cor-
pus de données pour arriver à une conceptualisation de sa re-
cherche.

Il existe nombre de méthodes de codage que ce soit de premier


ordre ou de second ordre. Chaque auteur a finalement sa propre
interprétation, et chaque méthode a parfois un lexique qui lui
est propre. L’objectif de ce chapitre n’était pas de proposer une
liste exhaustive de ces méthodes, mais plutôt de proposer un
280 début de réflexion et un éclairage sur la diversité des méthodes
de codage conduisant le chercheur à exercer sa créativité dans
cette étape cruciale de sa recherche. Force est de constater qu’il
n’existe pas de stratégie optimale du codage du matériau de re-
cherche : le type de codage ou encore la combinaison des mé-
thodes de codage dépendent avant tout de la nature et de volume
de matériau de recherche (Ayache & Dumez, 2011). Il convient
donc au chercheur de faire les choix appropriés et surtout… de
revenir aux sources.

Références citées
Allard-Poesi, F. (2003), Coder les données, in Y. Giordano (dir.),
Conduire un projet de recherche : une perspective qualitative, Caen,
Éditions EMS, coll. « Les essentiels de la gestion », p. 245-290.
Ayache, M. & Dumez, H. (2011), Le codage dans la recherche
qualitative une nouvelle perspective ?, Le Libellio d’Aegis, vol. 7,
no 2, p. 33-46.
Boyatsis R. (1998), Transforming Qualitative Information: Thematic
Analysis and Code Development, Thousand Oaks, CA, Sage
Publications.
L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Charmaz, K. (2006), Constructing Grounded Theory: A Practical Guide


Through Qualitative Analysis, Londres, Royaume-Uni, Sage
Publications.
Coffey, A. & Atkinson, P. (1996), Making Sense of Qualitative Data:
Complementary Research Strategies, Thousand Oaks, CA, Sage
Publications.
Carley, K. (1991), A theory of group stability, American Sociological
Review, vol, 56, no 3, p. 331-354.
Corley, K. & Gioia, D. (2004), Identity ambiguity and change in the
wake of a corporate spin-off, Administrative Science Quarterly,
vol. 49, no 2, p. 173-208.
Corley, K. & Gioia, D. (2011), Building theory about theory building:
What constitutes a theoretical contribution ?, Academy of
Management Review, vol. 36, no 1, p. 12-32.
Dumez, H. (2016), Méthodologie de la recherche qualitative : Les questions
clés de la démarche compréhensive, Paris, Vuibert.
Gehman, J., Glaser, V.L., Eisenhardt, K.M., Gioia, D., Langley, A. &
Corley, K. G. (2017), Finding theory-method fit: A comparison
of three qualitative approaches to theory building, Journal of
Management Inquiry, vol. 27, no 3, p. 284-300.
Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2013), Seeking qualitative
rigor in inductive research: Notes on the Gioia methodology, 281
Organizational Research Methods, vol. 16, no 1, p. 15-31.
Glaser, B. (1978), Theoretical Sensitivity: Advances in the Methodology of
Grounded Theory, Mill Valley, CA, Sociology Press.
Glaser, B. (2012), No Preconception: The Dictum, Grounded Theory
Review, vol. 11, no 2, p. 1-6.
Glaser, B. (2014), Memoing: A Vital Grounded Theory Procedure, Mill
Valley, CA, Sociology Press.
Glaser, B. & Strauss, A. (1967), The Discovery of Grounded Theory,
Chicago, IL, Adeline.
Lazarsfeld, P. (1967), The Uses of Sociology, New York, Basic Books.
Miles, M.B. (1979), Qualitative data as an attractive nuisance: The
problem of analysis, Administrative Science Quarterly, vol. 24, no4,
p. 590-601.
Miles, M.B. & Huberman, A.M. (1994), Qualitative Data Analysis: An
Expanded Sourcebook, Thousand Oaks, CA, Sage Publications.
Paillé, P. & Mucchielli, A. (2005), L’analyse qualitative en sciences
humaines et sociales, Paris, Armand Colin.
Peirce, C. S. (1974), Collected Papers of Charles Sanders Peirce, vol. 5,
Harvard, MA, Harvard University Press.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Point, S. & Voynnet-Fourboul, C. (2006), Le codage à visée théorique,


Recherche et Applications en Marketing, vol. 21, no 4, p. 61-78.
Saldaña, J. (2013), The Coding Manual for Qualitative Researchers,
Thousand Oaks, CA, Sage Publications.
Snow, C. & Thomas, J. (1994), Field research methods in strategic
management: Contributions to theory building and testing,
Journal of Management Studies, vol. 31, no 4, p. 457-480.
Strauss, A. & Corbin, J. M. (1990), Basics of Qualitative Research:
Grounded Theory Procedures and Techniques, Thousand Oaks, CA,
Sage Publications.
Tesch, R. (1990), Qualitative Analysis: Analysis Types and Software Tools,
London, Falmer.
Yin, R. (2017), Case Study Research and Applications: Design and
Methods, 6 th edition, Thousand Oaks, CA, Sage Publications.

Références pour en savoir plus


Saldaña, J. (2013), The Coding Manual for Qualitative Researchers,
Thousand Oaks, CA, Sage Publications.
L’ouvrage qui permet d’avoir un aperçu in extenso des techniques
de codages possibles en recherche qualitative.

282 Gehman, J., Glaser, V.L., Eisenhardt, K.M., Gioia, D., Langley, A. &
Corley, K. G. (2017), Finding theory-method fit: A comparison
of three qualitative approaches to theory building, Journal of
Management Inquiry, vol. 27, no 3, p. 284-300.
Un article récent issu d’un séminaire à l’Academy of Management
où se confrontent les plus grands experts en recherche qualita-
tive.
CHAPITRE 16.
Logiciels et analyse de données qualitatives

Jean-Fabrice Lebraty, Katia Lobre-Lebraty et Stéphane Trébucq

Résumé

Ce chapitre vise à faire un point sur la recherche qualitative


en mettant en lumière le soutien essentiel que procure l’uti-
lisation d’un logiciel tel que NVivo dans sa version 11 et 12.
Après avoir rappelé quelques principes fondamentaux de la
recherche qualitative, et plus particulièrement des données 283
selon leur degré de structuration, nous présentons plusieurs
cas originaux d’application de NVivo dans le cadre de la réali-
sation de thèses de doctorat et du plus haut diplôme de l’Uni-
versité : la HDR (habilitation à diriger des recherches).

Mots-clés : données qualitatives, codage, analyse de conte-


nu, logiciel, documents-sources, structure de nœuds, classifi-
cation, requête, matrices, rapports, cartes de nœuds.

Les méthodes de recherche du DBA


A n a l y s e r l e s d o n n é e s d u t e r ra i n

« Un sujet d’une étendue immense et qui, loin de se simplifier et de


s’éclaircir par la méditation, ne fait que devenir plus complexe et plus
trouble à mesure que le regard s’y appuie. »
Paul Valéry (1932, discours sur « la politique de l’esprit »)

INTRODUCTION
S’il est une croyance ancrée dans l’esprit des jeunes chercheurs
en thèse de doctorat ou de DBA, c’est bien celle de la nécessi-
té d’avoir un logiciel de traitement des données puissant pour
analyser des données quantitatives, et seulement l’approxima-
tion et le flair pour traiter des données qualitatives. Dans le meil-
leur des cas, le contenu qualitatif sera transformé en un résultat
quantitatif simpliste pour lequel un traitement basique sera ap-
pliqué. Le but de ce chapitre est de mettre en avant la rigueur et
la scientificité du traitement qualitatif et l’indispensable appui
de logiciels spécifiques pour analyser des données qualitatives.

Rappelons tout d’abord les conditions qui conduisent à mener


une recherche qualitative. Comme l’indique Yin (2011, p. 7-8), les
cinq caractéristiques d’une recherche qualitative peuvent être
284
décrites :
–– Étudier la signification des comportements humains dans
un contexte réel. Un contexte réel diffère du cadre d’une
étude en milieu contrôlé, c’est-à-dire en laboratoire ou si-
tuation expérimentale. En effet, les individus peuvent alors
être plus enclins à partager des sentiments ou adopter des
comportements conduisant à augmenter la compréhension
du chercheur.
–– Narrer les perceptions des individus participants à une
étude. Les études qualitatives constituent un bon moyen
de capter les perceptions des acteurs. Ainsi, dans ce type
d’étude, il conviendra de prendre en compte, non seule-
ment ce qui serait « vrai », mais surtout ce qui est vu et cru
par les acteurs.
–– Décrire les éléments du contexte qui façonnent les percep-
tions des individus. Les études qualitatives se doivent de
tenir compte du contexte qui permet de mieux comprendre
le comportement des acteurs. Cette contextualisation de la
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

recherche conduit d’ailleurs souvent à poser la question de


la représentativité de ces études.
–– Mettre en lumière les éléments clés dans les concepts qui
permettent de mieux comprendre et analyser les compor-
tements humains en société. Par exemple la notion de lea-
dership permet d’expliquer le fonctionnement de groupes
de travail, mais aussi conduit à proposer des pistes d’amé-
lioration pour des leaders (Murphy & Ensher, 2008).
–– Tenter d’utiliser un ensemble varié de sources et ne pas se
contenter que d’une seule source de données. Lors d’une
recherche qualitative, les sources peuvent être très nom-
breuses et variées. Même dans une seule une vidéo prise
sur YouTube, coexistent un ensemble de sources comme
le contenu de ce que disent les protagonistes, mais aussi,
les images entourant ces personnes ou encore les com-
mentaires et les votes positifs ou négatifs concernant leurs
propos.

Ainsi, une recherche qualitative peut conduire à faire émerger


de multiples représentations d’un même évènement, situation,
groupe ou organisation (Walsham, 1995, 2006). 285
Pour mieux comprendre le rôle que peut jouer un logiciel d’appui
à une recherche qualitative, nous rappellerons dans un premier
temps ce qu’une donnée qualitative signifie. Puis nous décrirons
un logiciel particulier d’analyse qualitative, NVivo, et enfin nous
donnerons un exemple de recherche qualitative s’appuyant sur
ce logiciel.

1. LES DONNÉES QUALITATIVES : COLLECTE


ET TRAITEMENT
Tous les ouvrages ou articles traitant de recherche qualitative
mettent en lumière le rôle de « clé de voûte » que constituent les
données (Gioia et al., 2012 ; Silverman, 1998 ; Strauss & Corbin,
1990 ; Willig, 2009 ; Yin, 2011). En général, les données peuvent se
définir comme la transcription d’une réalité à l’aide de symboles
compréhensibles par l’être humain. Les données sont considé-
rées comme indépendantes de cet être humain (Lebraty, 2001).
En revanche, le concept de données qualitatives est plus déli-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

cat. En effet, un des éléments clés de la notion de qualitatif ré-


side dans le concept de mesure. Mesurer une notion qualitative
constitue un paradoxe, car le résultat de la mesure sera lié au
contexte, à l’instrument utilisé pour mesurer et aux caractéris-
tiques de celui qui mesure (Strauss & Corbin, 2008 ; Strauss &
Corbin, 1990). En ce sens, une donnée qualitative doit être ap-
prochée sous l’angle d’une information, c’est-à-dire une donnée
pour laquelle un individu ou un groupe a ajouté du sens.

Ce point est très important, car il a comme implication de rendre


impossible la création d’une base de données qualitatives struc-
turée et formatée, comme le sont par exemple les bases de don-
nées informatiques. En effet, à la différence des bases de don-
nées informatiques classiques qui sont fondées sur des modèles
de données (structure de données relationnelle, multidimen-
sionnelle ou dans une certaine mesure les systèmes de gestion
de bases de données non-standard query language ou NoSQL), il
n’existe pas de modèles abstraits permettant de structurer des
informations qualitatives plutôt que des données. Aussi, utiliser
un logiciel comme NVivo permettra de constituer une base d’in-
formation, mais cette base sera dépendante du contexte et du
286 chercheur et ne sera pas forcément transposable à un autre cas.
Nous dirons donc que les données qualitatives sont constituées
de quelques données quantitatives et surtout d’informations is-
sues du cas que le chercheur étudie. Cet ensemble sera trans-
formé en informations par les chercheurs. Notons d’ailleurs ici
un piège classique de la recherche qualitative : l’interprétation,
c’est-à-dire le fait qu’un chercheur puisse élaborer du sens à
partir du sens apporté par un autre acteur ; apparaît ici le risque
de s’éloigner du fait original ou alors de détourner le sens de
l’acteur initial. Dans tous les cas, le travail sur le sens est délicat
et sa compréhension déterminante pour l’analyse de données
qualitatives (Klein & Myers, 1999).

Les données qualitatives peuvent résulter de quatre grands


types d’activités de collecte. Premièrement, les entretiens
constituent une source importante de données qualitatives.
Bien évidemment, ces entretiens doivent posséder certaines
caractéristiques et notamment ne pas être trop structurés pour
accorder une place à l’imprévu et offrir une certaine liberté à
l’interviewé. Les observations constituent également un mode
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

de collecte répandu dans les recherches qualitatives (Thiétard,


2003). La recherche de documents contenant des données se-
condaires est devenue avec l’internet et les médias sociaux une
source incontournable de toute recherche. Dans ce cadre, les
pages web, les discussions, les images et vidéos tendent à sub-
merger le chercheur qui ne sait comment les stocker et en tirer
des enseignements. Enfin, la prise en compte des sentiments
ressentis est importante aussi. Prenons l’exemple d’un entre-
tien avec un dirigeant. Outre le contenu de la conversation, le
chercheur devra inclure l’atmosphère qui règne dans la pièce et
les éléments de communication non verbale du dirigeant. Ces
« méta-données » qualitatives viendront compléter les données
qualitatives issues de l’entretien.

Une fois collectées, ces données doivent être analysées (trai-


tées) par le chercheur. Le processus de traitement peut être
constitué de cinq phases comme le mentionne Yin (2011, p. 178-
179).
–– La première phase vise à regrouper les données selon un
certain ordre fortement dépendant de son style cognitif.
D’ailleurs, même si Yin (2011) fait référence au terme « da-
tabase », nous préférons le terme de « base de documents » 287
ce qui permet d’éviter la confusion avec des bases infor-
matiques classiques comme Access (un système de gestion
de base de données relationnelle éditée par Microsoft) ou
PostgreSQL (un système libre ou open source de gestion de
base de données relationnelle et objet). En effet, il n’y a pas
de méthode universelle pour structurer les éléments col-
lectés. La forme que prennent les cartes cognitives en est
un bon exemple.
–– Puis il y a une phase de « morcellement » qui peut résul-
ter notamment de l’emploi d’une technique de codage. Ce
codage constituera d’ailleurs un point clé des fonctions de
NVivo. Ainsi l’ensemble des éléments collectés va s’épar-
piller en un grand nombre de nouvelles catégories (les
codes) pour donner de nouveau l’image d’un ensemble
disparate comme celui de la première phase avant son re-
groupement.
–– La troisième phase vise à réorganiser l’ensemble des don-
nées, mais selon un nouvel ordre fondé par exemple sur
A n a l y s e r l e s d o n n é e s d u t e r ra i n

le codage utilisé dans la phase précédente. À partir de


ce nouvel ensemble, le chercheur construira un nouveau
narratif, il proposera donc une nouvelle interprétation de
son stock de données. Cette phase est très importante, car
elle peut conduire à faire émerger de nouvelles idées qui
n’auraient pas été imaginables auparavant. Cette surprise
pour le chercheur constitue d’ailleurs un critère de réussite
d’une recherche qualitative.
–– Enfin, la dernière phase visera à répondre à la question de
recherche qui a conduit à la collecte des données.

Pour épauler la collecte de données, mais surtout pour permettre


l’analyse des données qualitatives, un logiciel s’avère indispen-
sable, surtout comme nous l’avons dit, dans un environnement
numérique pour lequel les sources de données qualitatives sont
nombreuses, variées et accessibles.

2. NVIVO : UN LOGICIEL D’ANALYSE DE CONTENU


DE DONNÉES QUALITATIVES
Depuis une trentaine d’années, une catégorie de logiciel
288
dédié aux méthodologies de recherche qualitative a émergé :
les logiciels d’aide à l’analyse qualitative de données (appelé
computer-assisted qualitative data analysis software, CAQDAS,
ou qualitative data analysis, QDAS, en anglais). Parmi ceux-ci,
plusieurs sont souvent cités, outre NVivo, Atlas.ti1, MaxQDA2
qui existent depuis longtemps, et Aquad3 ou encore Dedoose 4
plus récemment.

Dans ce chapitre, nous avons choisi d’évoquer le logiciel NVivo


car il est largement répandu et de nombreux chercheurs l’uti-
lisent pour leurs recherches. Ainsi, une simple requête dans
EBSCO5 sur les 10 dernières années identifie que plus de
2 500 articles dans des revues emploient le terme NVivo. Aussi, il

1. https://atlasti.com/
2. https://www.maxqda.com/
3. http://www.aquad.de/en/
4. https://www.dedoose.com/
5. h ttps://www.ebsco.com/e/fr-fr, leader mondial de la fourniture de bases de don-
nées bibliographiques de recherche, de services de découverte, d’e-books, de re-
vues scientifiques et de ressources documentaires dans tous les domaines.
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

devient pratique pour un chercheur comme pour un étudiant de


regarder comment d’autres se sont appuyés sur cet outil pour
bâtir leur cadre méthodologique. Pour ce chapitre, nous nous
fonderons sur la version 11 de ce logiciel 6.

D’une manière générale, NVivo permet de gérer trois tâches af-


férentes à une recherche qualitative et une analyse de données
qualitatives comme le montre le tableau 1 :

Tableau 1. Tâches et fonctions supportées par NVivo

Tâches Fonctions dédiées


Organisation • Importation et organisation des données qualita-
des données tives, mémos et annotations
qualitatives • Gestion des données sociodémographiques
Analyse • Codage des nœuds et des relations
• Analyse des cooccurrences, création de matrices
• Automatisation partielle du codage
• Travail en équipe et critère de convergence
Restitution • Édition de modèles et de représentations visuelles
• Édition de rapports

289
Le premier contact avec ce logiciel se fait généralement par
un « exemple type » qui est livré par NVivo et qui représente
une étude sur la qualité de l’eau dans une région américaine.
Composé d’entretiens sous forme de texte, de vidéos et de pho-
tos, cet exemple permet de mieux saisir les forces et limites de
l’outil. Le point probablement le plus déstabilisant pour un no-
vice est l’absence de « bouton magique » permettant immédia-
tement de traiter toutes les données. Le chercheur devra donc
relire tous ses textes, réexaminer toutes ses images ou vidéos,
selon la nature des données recueillies, et patiemment les coder
« manuellement ». En cela, ce type de méthode renvoie bien à la
notion de personnalisation du qualitatif.

Une recherche qualitative est appelée un « projet » et celui-ci


comprend sept types d’éléments :
–– les « sources » qui regroupent tous les fichiers contenant
des données qualitatives ;

6. http://www.qsrinternational.com/nvivo/support-overview/downloads
A n a l y s e r l e s d o n n é e s d u t e r ra i n

–– la « structure des nœuds » qui serviront pour le codage des


données ;
–– les « classifications » qui permettent de prendre en compte
des données sociodémographiques et descriptives du pro-
jet ;
–– les « collections » pour organiser le projet ;
–– les « requêtes » qui sont un moyen de visualiser de manière
quantitative des données qualitatives ;
–– les « rapports » permettant de fournir des états représenta-
tifs des résultats ;
–– les « cartes » qui sont une représentation ergonomique des
constituants du projet comme les nœuds par exemple. Elles
peuvent prendre différentes formes.

La capture d’écran dans la figure 1 illustre ces éléments.

Figure 1. Capture d’écran NVivo : les sept éléments


de l’analyse d’un projet
290

Quand un utilisateur crée un nouveau « projet » (ou recherche


qualitative), la première fonctionnalité qu’il va utiliser consiste à
ajouter du « contenu » à son projet. Quatre catégories sont pré-
vues.
–– Premièrement, l’ensemble des documents « internes »,
c’est-à-dire les documents qui seront stockés numérique-
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

ment dans le fichier du projet. Il peut s’agir de texte, de pho-


tos, de son ou de vidéos, qui peuvent provenir de fichiers
que vous possédez ou bien de données récupérées sur le
web ou des réseaux sociaux comme Twitter. D’ailleurs un
plugin (NCapture7) permet cette récupération de vos don-
nées qualitatives à l’état « brut » à partir de son navigateur
web. Concernant les documents textes issus d’entretiens,
il est tout à fait essentiel d’utiliser des « styles » pour que
le logiciel puisse bien séparer les questions des réponses.
Dans le même ordre d’idée, il est possible d’importer des
références bibliographiques provenant de logiciels de ges-
tion bibliographique destinés à la gestion et au partage de
travaux de recherche, comme Mendeley 8 ou EndNote 9. Il est
important que des doctorants-chercheurs utilisent ces lo-
giciels pour constituer leur bibliographie et ne le fassent
pas manuellement. Cela les limitera inévitablement dans
leur utilisation de logiciels comme NVivo.
–– Deuxièmement, les données « externes » sont quant à elles
des liens vers des sources sur Internet, par exemple des vi-
déos YouTube ou des liens vers des fichiers stockés sur un
ordinateur local, ce qui permet de réduire la taille du fichier
291
contenant le projet NVivo.
–– Troisièmement, une catégorie « mémo » doit être créée. Elle
permet de stocker le « journal de marche » du chercheur,
qui peut inclure les éléments d’ambiance que le chercheur
a ressentis durant ses entretiens ou ses observations, ou
encore ses réflexions sur l’adéquation entre son terrain
et le modèle conceptuel qu’il utilise. Ces mémos sont une
source très importante pour permettre au chercheur de
garder une certaine distance avec son terrain et de ne pas
« objectiver » ses données, c’est-à-dire être conscient de
ses propres biais cognitifs.
–– Enfin, il est possible de créer des matrices qui permettent
de corréler des éléments des données, ce qui est utile no-
tamment pour une approche méthodologique basée sur

7. http://www.qsrinternational.com/nvivo/support-overview/faqs/what-is-ncapture
8. h ttps://www.mendeley.com/, un logiciel de gestion bibliographique, destiné à la
gestion et au partage de travaux de recherche.
9. h ttps://endnote.com/, un logiciel de gestion bibliographique, destiné à la gestion
et au partage de travaux de recherche.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

des cas multiples ou bien pour comparer un nombre d’en-


tretiens ou d’observations. Les études qualitatives se fon-
dant généralement sur des individus agissant en groupe
dans des organisations ou des sociétés, il est important de
tenir compte de données sociodémographiques relatives
au groupe étudié. Ainsi, chaque individu pourra posséder
des attributs (âge, genre, profession, par exemple) ce qui
permettra ensuite de structurer l’analyse. Notons qu’il fau-
dra relier les sources à la « classification ». On voit alors
une structuration commencer à se construire, c’est-à-dire
un réseau de liens entre des sources différentes.

Une fois ces sources insérées dans le projet, l’analyse peut dé-
buter, même si bien souvent de nouvelles sources sont ajoutées
en cours d’analyse.

Le point d’entrée de l’analyse sous NVivo s’effectue au travers


du codage. Il existe trois grandes catégories pour élaborer ce
codage : déductif, inductif, ou abductif. Dans l’approche dé-
ductive, les catégories de code proviennent de concepts trou-
vés dans la littérature, elles sont donc prédéfinies et utilisées
pour le codage des données qualitatives. Elles peuvent être soit
292
assemblées à partir de plusieurs articles dans la littérature ou
même être reprises à partir d’une seule étude. L’approche induc-
tive stipule que les données préexistent au codage et donc que
les catégories émergeront au fur et à mesure de la lecture des
données qualitatives. Enfin l’abduction est une voie médiane qui
s’avère bien souvent la voie la plus empruntée.

Le codage repose sur la création de « nœuds » qui peuvent re-


présenter un concept, un sentiment, une perception, un lieu
ou tout autre élément qui permettra d’analyser et structurer un
document-source. Les nœuds peuvent s’appliquer à un mot ou
un paragraphe de verbatim d’entretiens ou de notes pris durant
des observations de terrain, ou même une zone de photo par
exemple.

Dans l’exemple d’une recherche sur des enseignants et les mé-


thodes pédagogiques basées sur des cas, les liens entre les
nœuds et les verbatim sont illustrés par le tableau 2 :
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Tableau 2. Liens entre nœuds et verbatim dans une


recherche sur des enseignants

Apprendre des « Et parfois il y a effectivement beaucoup plus à ap-


échecs d’autrui prendre sur ces situations que sur les « success sto-
ries » où finalement c’est toujours très difficile de
savoir ce qui a fait que cela a marché réellement ».
« Tout à fait, il faut les deux, bien sûr ».
Créer un lien direct « Et en plus, c’est une méthode qui aujourd’hui, avec
avec la réalité les possibilités technologiques, peut être encore en-
richie avec des cas multimédias, avec les interven-
tions des acteurs du cas, directement ou par télécon-
férence, comme cela se fait dans certains endroits
en fin du cours, cela peut donc devenir donc une
méthode très riche avec l’apport des technologies
nouvelles ».
« On parle de choses passionnantes et… il faut
constamment faire le lien entre ce qu’on enseigne et
ce qui se passe dans la réalité, et je crois que la mé-
thode des cas est pour cela fondamentale et unique ».
Approche moins « J’ai enseigné au Japon, par exemple. La méthode
adaptée dans cer- de cas est très difficile à mettre en œuvre, parce que
taines cultures l’étudiant ou le participant ne va pas challenger son
professeur, ce n’est pas dans sa culture. Il ne va pas
s’exprimer à titre personnel. De la même façon, dans
les pays scandinaves, je me souviens d’un public
d’ingénieurs, en Suède je crois, la méthode des cas
avait du mal à s’appliquer ». 293

Ces nœuds peuvent être hiérarchisés, ce qui permet une cer-


taine granularité et profondeur conceptuelle dans l’analyse. La
capture d’un écran NVivo dans la figure 2 montre la structure
hiérarchique de nœuds provenant de l’analyse de données qua-
litatives d’une recherche en cours sur la coordination entre des
pilotes d’avion.

Il devient alors très intéressant de naviguer entre les nœuds et


les documents-sources pour affiner le codage. La visualisation
NVivo du codage permet, comme le montre la capture d’écran
dans la figure 2, d’enrichir l’analyse et constitue une nette valeur
ajoutée, comparée à l’usage manuel du traditionnel surligneur
fluo pendant la lecture de documents-sources (papier ou élec-
troniques).
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Figure 2. La structure hiérarchique de nœuds dans


une analyse de la coordination entre des pilotes
d’avion

La capture d’un écran NVivo dans la figure 3 illustre le codage


d’un extrait d’entretien avec un pilote d’avion. Le texte surligné à
294 gauche représente les parties codées de l’entretien. Les lignes
verticales à droite représentent les nœuds utilisés pour coder les
idées présentes dans l’entretien. Chaque nœud à un nom et une
couleur pour une meilleure visualisation du codage au fil de l’eau.

Figure 3. Exemple de codage d’un entretien de


pilote d’avion
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Cette phase de codage est la plus délicate. Le codage peut être


réalisé par plusieurs chercheurs, ou par un doctorant-chercheur
et son directeur de thèse DBA par exemple ; on parle alors de
multi-codage, et il est alors possible d’utiliser des critères quan-
titatifs pour tenter de limiter ou du moins de réfléchir à plusieurs
à certains écarts de codage. Dans ce cadre, on dispose d’un outil
de mesure statistique, « l’accord inter-codeurs », ou le kappa de
Cohen10, dans lequel le test du κ (kappa) mesure l’accord entre
observateurs lors d’un codage qualitatif en catégories.

Il est également possible de coder des « relations ». Les types de re-


lations correspondent aux différentes interactions possibles entre
concepts, comme des liens représentant un attachement affectif
réciproque. Il est possible aussi de coder les sentiments à partir
notamment d’un « dictionnaire intégré ». Ce codage permettra d’es-
timer à l’émotion ressentie après un évènement, par exemple.

Enfin, NVivo dispose également d’une fonction de « codage


automatique » qui repose sur une analyse statistique de mots.
Mais ici, le logiciel souffre de la comparaison avec d’autres tech-
niques utilisables, par exemple avec le logiciel R11, et qui conduit
à réaliser une « fouille de données » (data mining en anglais) ap-
295
profondie, ou extraction de connaissances de textes utilisant
des techniques d’intelligence artificielle.

Une fois les données codées, il va s’agir de les manipuler au


travers de requêtes. Comme le montre la capture d’écran NVivo
dans la figure 4, il existe plusieurs types de requêtes.

Figure 4. Les types de requêtes dans NVivo

10. Voir https://www.irdp.ch/institut/coefficient-kappa-cohen-2039.html
11. R est un langage de programmation et un logiciel libre dédié aux statistiques et à
la science des données, voir https://www.r-project.org/foundation/
A n a l y s e r l e s d o n n é e s d u t e r ra i n

De notre point de vue, les requêtes les plus importantes portent


sur l’encodage. Elles permettent d’explorer les intersections, les
associations ou encore les enchaînements de nœuds. Les résul-
tats conduisent à prolonger l’analyse et peuvent permettre de
créer de nouveaux nœuds et surtout de mieux comprendre ses
données qualitatives.

Ainsi, dans le cas d’une recherche matricielle, il sera possible


de croiser deux dimensions de nœuds et d’ensuite analyser les
intersections comme le montre l’écran NVivo dans la figure 5
pour l’exemple de la recherche sur la coordination entre pilotes
d’avion :

Figure 5. Requête croisée dans NVivo

Une fois l’analyse effectuée, il s’agira de présenter les résultats.


Ceux-ci peuvent alors prendre quatre formes :

296 –– Des « cartes de concepts » – la carte dans la figure 6 illustre


les nœuds issus de l’étude portant sur des enseignants.
Ici, l’entretien avec une personne peut être représenté de la
manière suivante : les matrices ou les graphiques associés
à ces matrices.

Figure 6. Écran NVivo avec carte des nœuds issus


d’un entretien
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

–– Des données liées aux documents-sources comme, par


exemple, le taux de couverture de tel code dans tel docu-
ment pour montrer que pour tel individu ce code est impor-
tant.
–– Des « arbres » liant les mots ou les concepts ou des
« grappes » (clusters en anglais) ou groupements logiques
de concepts.
–– Des « nuages de mots » comme illustre la figure 7 – remar-
quons que cette fonctionnalité est plus visuelle que scien-
tifique étant donné qu’il est possible de définir les critères
agissant sur la place ou la taille des mots représentés dans
un but de visualisation esthétique plutôt que scientifique.

Figure 7. Nuage de mots issu d’entretiens sur la


coordination entre pilotes d’avion

297

3. LE PROCESSUS DE DÉCONSTRUCTION-
RECONSTRUCTION : UN EXEMPLE D’UTILISATION
DE NVIVO
S’inscrire en DBA sous-entend une volonté de s’ouvrir au monde
de la recherche afin de progresser dans son activité managé-
riale. Aussi, nous présenterons une utilisation de NVivo dans
un cadre particulier, celui de la réalisation d’une Habilitation à
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Diriger des Recherches (HDR) qui prendra la forme d’un mé-


moire. Ce dernier constitue une réflexion du chercheur sur son
travail et illustre la nécessaire prise de recul qu’il se doit de
prendre. L’obtention du diplôme de HDR conférera à son porteur
le droit de diriger une thèse de doctorat et sera aussi le gage d’un
bon encadrement de DBA.

Katia Lobre-Lebraty (2017) a choisi dans le cadre de son HDR de


développer une méthodologie ad hoc, nommée Deconstruction of
the Past to Build a Future Research Project (DPBP ou déconstruc-
tion du passé pour construire un futur projet de recherche), s’ap-
puyant sur l’utilisation du logiciel NVivo, lui permettant de ré-
pondre à la question suivante : Comment un passé de recherche
peut-il contribuer à la détermination d’investigations futures ?

De manière générale, cette méthode consiste à déconstruire les


travaux passés du chercheur puis à les reconstruire. Ce proces-
sus de déconstruction-reconstruction est envisagé comme un
outil d’actualisation de la pensée. Ainsi la méthode prend ex-
plicitement en compte le chercheur et l’évolution de sa pensée,
pour tracer les frontières d’un espace de recherche, gisement
298
des projets futurs.

Les données utilisées sont donc les travaux du chercheur, et


il convient d’en choisir un échantillon. En effet, une prise en
compte de l’ensemble exhaustif des travaux s’avère difficilement
praticable. Les critères d’échantillonnage dépendent alors des
objectifs poursuivis. Dans le cas exposé, les travaux sont des
écrits, mais comme expliqué précédemment, NVivo aurait per-
mis de traiter toute autre forme de données qualitatives (exposés
oraux, vidéo, photos). Parmi ces écrits ont été retenus ceux qui
paraissaient, compte tenu de la nature de l’épreuve (soutenance
d’une HDR), les plus importants : une thèse de doctorat publiée
sous forme d’ouvrage et cinq articles parus dans des revues à
comité de lecture. Ont naturellement été exclus les articles pro-
duits très récemment (2016 et 2017), pour lesquels l’évolution de
la pensée de l’auteur entre le moment de l’écriture et de la réécri-
ture, n’aurait pas été significative et donc sans intérêt. Compte
tenu du volume des données à traiter, le logiciel d’analyse quali-
tative NVivo a été utilisé.
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

3.1. Déroulement du protocole de recherche


L’échantillon constitué, la méthode comporte trois étapes :
–– Première étape : Codage inductif (Point & Voynnet Fourboul,
2006) de chacune des publications sélectionnées. Ce co-
dage représente une première condensation des idées ex-
primées dans les publications retenues (« nœuds libres »
dans la terminologie NVivo). Rappelons que technique-
ment lorsque l’on code les idées lors de la lecture du texte,
ces idées (nœuds libres) sont au fur et à mesure rassem-
blées sur le même plan et rangées par ordre alphabétique.
Cet ordre aléatoire par rapport au contenu des idées est
donc différent de celui de l’article. La rédaction initiale de
ce dernier a en effet été structurée par le choix d’un titre et
le déroulement d’un plan d’article et ses intitulés choisis.
Métaphoriquement cela revient à « rebattre les cartes », en
vue de procéder à une seconde donne.
–– Deuxième étape : Construction pour chacune des publi-
cations d’une hiérarchisation, à trois paliers, des idées
codées, modélisant une condensation croissante de ces
dernières. Le modèle est représenté par des « foyers » pri-
299
maires d’attention, puis par des foyers focaux d’attention
et enfin par la « racine » de l’arbre. À chacun de ces paliers,
l’idée choisie est celle qui synthétise le mieux l’ensemble
des idées exprimées à ce palier. Ce choix comporte à l’évi-
dence une part de subjectivisme inhérente à l’analyse qua-
litative, comme d’ailleurs à toute forme d’analyse.
–– Troisième étape : « réécriture » du texte originel à partir
d’un plan inspiré de cette modélisation. Ce texte réécrit est
l’aboutissement du processus de déconstruction – recons-
truction. La figure 8 rend compte de ces trois étapes :
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Figure 8. La méthodologie DPBP (Lobre-Lebraty,


2017, p. 21)

300

3.2. Modélisation d’un article à l’aide de NVivo


La figure 9 est une carte, sous forme d’arbre, des nœuds issus
du codage d’un article présent dans l’échantillon des données.
Cette carte permet de visualiser la structuration (modélisation
dans le langage NVivo) des foyers primaires et focaux d’attention
(13+4) ainsi que la racine de l’arbre (1). Il s’agit donc du résultat
de la deuxième étape du protocole de recherche précédemment
exposé. Remarquons que c’est sur la base des foyers d’atten-
tion et des racines des arbres de chacun des documents codés,
qu’une sélection de quatre « concepts directeurs » balisant le
futur espace de recherche du candidat à l’HDR a été déterminé.
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Figure 9. Modélisation de l’article : « Créer de la


valeur par le crowdsourcing : la dyade innovation-
authenticité » (Lebraty & Lobre, 2010, p. 19)

301

3.3. Vers une actualisation de la pensée de l’auteur


Idéalement, pour illustrer la troisième étape du protocole de
recherche, il faudrait pouvoir comparer l’article dans sa forme
originelle avec l’article réécrit. C’est évidemment impossible,
mais la modélisation précédente permet d’en donner un aperçu
en s’en tenant au titre. Dans cet exemple, l’article initial s’inti-
tulait : « Créer de la valeur par le crowdsourcing : la dyade in-
novation-authenticité ». La racine de l’arbre : « Facteurs Clés de
Succès (FCS) du Crowdsourcing (CS) », constitue le titre de la
réécriture de ce même article, sept ans plus tard, à la suite de
la mise en œuvre de la méthode. Cette différence traduit une
évolution des préoccupations du chercheur entre le moment de
l’écriture (créer de la valeur) et celui de la relecture (quels FCS ?)
dénotant le passage du « pourquoi le CS ? », au « comment le
CS ? ». Le changement de ses centres d’intérêt entre le moment
A n a l y s e r l e s d o n n é e s d u t e r ra i n

de l’écriture de l’article et celui de la réécriture reflète son évo-


lution et la révèle. Autrement dit, le chercheur a codé, sans en
être pleinement conscient, sur la base de ses centres d’intérêt
actuels plus que sur la base ses interrogations passées.

Pour résumer : un texte initial est déconstruit, en codant les


idées qu’il contient sans référence à sa structuration, c’est-à-
dire à son titre et à son plan. Puis, cet ensemble d’idées, pré-
senté sans aucun ordre autre qu’alphabétique, est restructuré
par leur hiérarchisation par filtrages. On peut alors considérer
qu’on dispose de deux textes représentant deux visions du même
thème : une vision initiale reflétant l’état des connaissances du
chercheur au moment de l’écriture et une version actuelle ex-
primant l’évolution et l’état de ses connaissances au moment
de la réécriture. Dès lors, la comparaison des deux textes ap-
porte une information intéressante issue du nouveau regard que
le chercheur porte à un même thème à partir de connaissances
actualisées. Bien sûr, on pourrait trouver la mise en évidence de
cette évolution évidente, voire futile, mais l’intérêt de la méthode
n’est pas là. Il est d’en faire prendre conscience au chercheur et
de lui en fournir la trace ; l’intérêt est surtout de lui montrer les
302 regards différents que l’on peut porter sur le même thème, non
seulement parce que la réalité change, mais, et c’est fondamen-
tal, parce que lui aussi a changé. On pourrait presque parler à
propos de cette méthode d’un essai d’objectivation pour le cher-
cheur de sa propre subjectivité (Girard et al., 2015).

CONCLUSION
Dans ce chapitre, nous avons fait un point sur la recherche
qualitative mettant en lumière le soutien essentiel que procure
l’utilisation d’un logiciel comme NVivo. Nos exemples l’ont bien
illustré. Tout chercheur en DBA doit se questionner sur la nature
des données auxquelles il a accès. Si ce sont des données quali-
tatives, il se devra d’emprunter le chemin de ce type de méthode.
Sa manière de voir le monde est également très importante.
Certains chercheurs estiment, par exemple, qu’il existe une ma-
nière optimale de décider. L’emploi du terme « optimale » n’est
pas neutre. Il sous-entend souvent un certain tropisme pour le
quantitatif. Un tel chercheur se sentira alors plus à l’aise avec
des méthodes quantitatives fondées sur des modèles d’hypo-
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

thèses. Ce type de recherche est tout à fait approprié. Toutefois,


d’autres chercheurs adopteront une position plus dubitative sur
les actions qu’ils peuvent mener. La complexité du monde les in-
cite souvent à répondre : « ça dépend ». Dans ce cas, l’approche
qualitative peut être envisagée.

Bien sûr, une recherche qualitative peut comporter des aspects


quantitatifs (Shah & Corley, 2006). Dans le cadre de l’utilisa-
tion de logiciels, il y a alors un choix à faire. Il est possible dans
NVivo de réaliser des traitements quantitatifs, à titre d’exemple,
le comptage des mots ou un graphique issu des données socio-
démographiques. Il est aussi possible d’exporter des données
de NVivo vers un logiciel tiers comme Excel. Cependant, ces
traitements quantitatifs sont en deçà de ce qu’il est possible de
réaliser avec le logiciel R de fouille de données déjà mention-
né plus haut, ou le logiciel IBM SPSS12 (Statistical Package for the
Social Sciences, utilisé pour l’analyse statistique), notamment.
C’est alors que l’hybridité des compétences au sein des coau-
teurs peut conduire à une synergie augmentant à la fois la qualité
et la quantité des articles publiés.

303
Références citées
Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2012), Seeking qualitative
rigor in inductive research: Notes on the Gioia methodology,
Organizational Research Methods, vol. 16, no 1, p. 15-31.
Girard, M., Bréart De Boisanger, F. ,Boisvert, I. & Vachon, M. (2015),
Le chercheur et son expérience de la subjectivité : une sensibilité
partagée, Spécificités, vol. 2, no 8, p. 10-20.
Klein, H. K. & Myers, M. D. (1999), A set of principles for conducting
and evaluating interpretive field studies in information systems,
Management Information Systems Quarterly, vol. 23, no 1, p. 67-94.
Lebraty, J.-F. (2001), Comprendre le concept d’information pour
mieux appréhender les Technologies de l’Information et de
la Communication, Actes du colloque regards croisés gestion et
Information-Communication, Nice, La communication d’entreprise-
CRIC, décembre, Nice, France, p. 84-102.
Lebraty, J.-F. & Lobre, K. (2010), Créer de la valeur par le
crowdsourcing : la dyade Innovation-Authenticité, Systèmes
d’Information et Management, vol. 15, no 3, p. 9-40.

12. https://www.ibm.com/analytics/spss-statistics-software
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Lobre-Lebraty, K. (2017), L’organistion hybride et son contrôle,


Habilitation à Diriger des Recherches, Aix-Marseille Université.
Murphy, S. E. & Ensher, E. A. (2008), A qualitative analysis of
charismatic leadership in creative teams: the case of television
directors, The Leadership Quarterly, vol. 19, no 3, p. 335-352.
Point, S. & Voynnet-Fourboul, C. (2006), Le codage à visée théorique,
Recherche et Applications en Marketing, vol. 21, no 4, p. 1-18.
Romelaer, P. & Kalika, M. (2016), Comment réussir sa thèse, Paris,
Dunod.
Shah, S. K. & Corley, K. G. (2006), Building better theory by bridging
the quantitative-qualitative divide, Journal of Management Studies,
vol. 43, no 8, p. 1821-1835.
Silverman, D. (1998), Qualitative research: meanings or practices?,
Information Systems Journal, vol. 8, n°1, p. 3-20.
Strauss, A. L. & Corbin, J. (1990), Basics of Qualitative Research
Techniques and Procedures for Developing Grounded Theory, London,
Sage Publications.
Strauss, A. & Corbin, J. (2008), Basics of Qualitative Research Techniques
and Procedures for Developing Grounded Theory, 3 rd edition, London,
Sage Publications.
Thiétard, R. A. (2003), Méthodes de recherche en management, 2e
304 edition, Paris, Dunod.
Walsham, G. (1995), Interpretive case studies in IS research: nature
and method, European Journal of Information Systems, vol. 4, no 2,
p. 74-81.
Walsham, G. (2006), Doing interpretive research, European Journal of
Information Systems, vol. 15, no 3, p. 320-330.
Willig, C. (2009), Introducing Qualitative Research in Psychology,
Maidenhead, Berkshire, Royaume-Uni, McGraw-Hill.
Yin, R. K. (2011), Qualitative Research from Start to Finish, New York,
The Guilford Press.

Références pour en savoir plus


Klein, H. K. & Myers, M. D. (1999), A set of principles for conducting
and evaluating interpretive field studies in information systems,
Management Information Systems Quarterly, vol. 23, no 1, p. 67-94.
Cette référence ardue à lire est très importante. Elle propose
7 conseils pour mener une approche interprétative rigoureuse.
D’ailleurs, on retrouve cette référence et la déclinaison de ces
conseils dans de nombreux articles postérieurs.
L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Silverman, D. (1998), Qualitative research: meanings or practices?,


Information Systems Journal, vol. 8, no 1, p. 3-20.
Cet article propose un point de vue clair sur les apports de la
recherche qualitative

Yin, R. K. (2011), Qualitative Research from Start to Finish, New York,


The Guilford Press.
Cet auteur est toujours cité pour ses travaux sur la notion
« d’étude de cas ». Dans cet ouvrage, il englobe l’étude de cas
dans le processus plus large que constitue une recherche qua-
litative. Il est très important de lire cet ouvrage ou du moins de
le télécharger.

Enfin, ajoutons les nombreux tutoriaux sur NVivo que vous trou-
verez sur YouTube notamment. Il est essentiel de comprendre
que pour bien utiliser ce logiciel (ou d’ailleurs tout autre logiciel
de traitement de données), il faut passer de nombreux heures
d’apprentissage.

305
CHAPITRE 17.
L’analyse des données visuelles

Sébastien Liarte et Sarah Maire

Résumé

Les organisations produisent un grand nombre de discours


qui constituent un matériau empirique particulièrement riche
pour les chercheurs en sciences de gestion. Dans cette op-
tique, les chercheurs ont tendance à se concentrer sur les
discours verbaux (documents écrits, discours, entretiens, 306
déclarations, etc.). Mais il existe une autre forme de discours
qui invite les chercheurs à s’intéresser à des données autres,
jusque-là peu utilisées : les données visuelles. L’objectif de
ce chapitre est de présenter ces données visuelles comme
matériau de recherche particulièrement riche, d’en définir les
composantes et de proposer des techniques d’analyse propre
à ce type de données. Il s’agit également de présenter les pro-
blématiques spécifiques aux organisations qui se prêtent tout
particulièrement à une investigation à travers les données vi-
suelles ainsi que les principaux concepts pouvant bénéficier
précisément d’un enrichissement à travers le prisme visuel.

Mots-clés : visuel, rhétorique, sémiotique, méthode, organi-


sations.

Les méthodes de recherche du DBA


L’a n a l y s e d e s d o n n é e s v i s u e l l e s

« Une image vaut 1 000 mots. »


Confucius (551-479 av. J.-C.)

INTRODUCTION
Que cela soit au travers de photographies, de diagrammes, de
schémas, de dessins, de logos, des monuments architectu-
raux, ou de bien d’autres formes, les organisations produisent
un grand nombre d’éléments visuels. Les visuels peuvent être le
fruit d’un travail scrupuleux et d’un choix délibéré de l’entreprise
comme, par exemple, les photographies illustrant les rapports
d’entreprise ou l’aspect général des bâtiments du siège (comme
en témoigne, par exemple, le souci du détail dans l’aspect visuel
du futur siège The Loop d’Apple à Cupertino en Californie). Les
visuels proposés par l’entreprise peuvent également découler
d’un processus plus informel et plus inconscient. Quoi qu’il en
soit, ils constituent une source de données particulièrement
riche et intéressante pour des recherches en gestion (Maire &
Liarte, 2018).

Pourtant, l’utilisation de ce type de données demeure sous-


exploitée dans les recherches en gestion. Plusieurs raisons 307
peuvent expliquer cette situation. Tout d’abord, un effort
considérable a été fourni pour collecter le discours verbal
produit par l’organisation ou ses membres. Que cela soit par
entretiens, questionnaires, analyses des textes produits, etc.,
les chercheurs disposent aujourd’hui d’une multitude d’outils
de plus en plus puissants pour utiliser un corpus textuel de
plus en plus grand. Le texte inclus dans les rapports annuels
des entreprises constitue, par exemple, depuis de nombreuses
années un matériau empirique fréquemment utilisé dans les
recherches. Ensuite, les chercheurs en gestion ont développé un
lien particulier avec le visuel en s’intéressant plutôt aux visuels
produits par le chercheur lui-même pour sa recherche. Dans une
démarche de nature ethnographique, par exemple, le chercheur
peut être conduit à prendre des photos qu’il analyse ensuite dans
un second temps. Cette manière de faire l’a, sans doute, éloigné
des visuels produits par l’entreprise. Enfin, alors que cela est
courant en sciences humaines et sociales (Elkins, 2010), des
efforts de construction, de développement et de renforcement
de méthodes d’analyse d’éléments visuels restent encore à faire
A n a l y s e r l e s d o n n é e s d u t e r ra i n

en sciences de gestion. Plus précisément, il s’agit de chercher


à intégrer un grand nombre de connaissances existantes mais
sous forme éparse afin d’éviter de réinventer constamment la
roue en matière d’analyse visuelle.

L’objectif de ce chapitre est de détailler l’intérêt que peut pré-


senter une analyse des visuels pour un chercheur s’intéressant
à des problématiques en lien avec les organisations. Il s’agit de
redonner au visuel la place centrale qu’il occupe dans la vie or-
ganisationnelle et, donc, de le considérer, à l’instar de données
primaires chiffrées ou de transcriptions d’entretiens pour les
chercheurs, comme un matériau de recherche à part entière.

Dans un premier temps, différentes techniques d’analyses de


données visuelles sont présentées afin d’en saisir les enjeux,
les possibilités ainsi que les limites. Dans un second temps,
quelques exemples de problématiques spécifiques à la gestion
et traités à travers l’étude de visuels sont présentés. Enfin, la
conclusion du chapitre est l’occasion de proposer un certain
nombre de recommandations pour le manager-chercheur en
DBA qui souhaiterait mobiliser des données visuelles produites
par l’organisation en tant que matériau empirique dans le cadre
308
de sa recherche.

1. ANALYSER LE VISUEL : ÉLÉMENTS DE DÉFINITION


ET MÉTHODES ASSOCIÉES
L’analyse visuelle a émergé de manière tardive dans les re-
cherches en gestion. Pourtant, il est clair que le recours à ce
type de données peut conduire à des résultats tout à fait inté-
ressants dans toutes les branches de la gestion. Toutefois, il est
nécessaire de clarifier ce qui est évoqué derrière le terme d’ana-
lyse visuelle et de disposer d’outils méthodologiques adaptés.

1.1. Quelques clarifications définitoires


Les visuels peuvent être matérialisés ou non. En effet, les images
sont immatérielles et elles peuvent demeurer dans l’esprit d’une
personne donnée. L’étude des visuels doit donc porter sur des
images matérialisées. Dans ce cas, les images nous proviennent
à travers un medium qui peut être une photographie, une présen-
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

tation Powerpoint, un site Internet, un bâtiment, un journal, un


rapport, etc. De ce fait, le visuel est constitué d’une image, le
contenu, et d’un élément matériel, le contenant (ou le medium).
Les deux éléments sont liés puisqu’un changement de l’un ou de
l’autre implique un changement sur le sens global et l’interpré-
tation que va en faire l’observateur (McLuhan & Fiore, 1967). Les
deux éléments ne peuvent être étudiés de manière totalement
indépendante. Sans chercher à couvrir la totalité des concepts
évoqués par les théories s’intéressant à l’analyse visuelle, trois
éléments centraux sont présentés ici : la sémiotique, l’esthé-
tique et la rhétorique visuelle.

La sémiotique est l’étude des signes et de leur signification.


Plus précisément, il s’agit d’analyser 1) ce qui est décrit, c’est-à-
dire le dénoté, et 2) ce qui est exprimé et représenté, c’est-à-dire
le connoté. Comme tout moyen d’expression, le visuel n’échappe
pas au champ d’analyse de la sémiotique à travers la sémiotique
visuelle qui étudie l’ensemble des objets de signification se ma-
nifestant par le canal visuel. Il est, par exemple, possible de s’in-
téresser particulièrement aux représentations et aux messages
éventuellement cachés produits par les signes utilisés lors de la
communication visuelle. 309
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Encadré 1. Apple vs IBM


Le sémioticien Jean-Marie Floch a comparé les premiers logos des
entreprises Apple et IBM. Il a montré que les différences les plus
marquantes pouvaient être rendues visibles à travers des associa-
tions d’oppositions binaires (Tableau 1).

Tableau 1. Oppositions binaires entre les logos


Apple et IBM (Chandler, 2007, p. 109, d’après Floch, 1995)
Apple IBM
Logo

Structure Pas de répétition Répétition


Lignes jointes Lignes disjointes
Couleur Polychromatique Monochromatique
Chaude Froide
Formes Contour Substance (en « gras »)
Incurvées Droites

À travers ces oppositions au niveau visuel, ce sont des oppositions


d’identités organisationnelles qui se jouent. L’entreprise libertaire,
hippie, voire psychédélique (symbolisé par l’arc-en-ciel), de la côte
310 ouest-américaine se positionne de manière opposée à l’entreprise
binaire (bleu/blanc), ordonnée et hiérarchisée (formes droites) de
l’entreprise de la côte est-américaine.

Bien qu’associée avec l’appréciation de la beauté, la dimension


esthétique est également en lien avec la question de la produc-
tion de la connaissance au sujet des organisations. La dimension
esthétique apparaît à travers les jeux de lumière, les couleurs,
l’organisation de l’espace, etc. qui constituent une sorte de « me-
ta-message » ou de contexte d’interprétation. L’esthétique peut,
par exemple, être mobilisée pour exprimer une opinion en sus-
citant une émotion collective. Il peut même être considéré que
la dimension esthétique revêt parfois une dimension politique.
C’est à travers cette dimension esthétique que l’observateur et
le créateur du visuel mettent en place une relation.

Par exemple, les visuels apposés sur les paquets de cigarettes


dits « neutres » ont pour fonction de créer une relation forte avec
le fumeur à travers l’esthétique du visuel. En effet, les couleurs,
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

les expressions, la mise en scène, etc., conduisent à générer une


émotion particulièrement forte.

Enfin, la rhétorique visuelle vise à analyser « les aspects sym-


boliques ou communicationnels des artefacts visuels et d’en
comprendre l’impact sur le public » (Foss, 2004, p. 304). Il est
considéré que les éléments de rhétorique visuelle sont le fruit
d’intervention humaine, impliquant des décisions conscientes,
visant à « raconter » une histoire. Afin d’être interprétés correc-
tement par le public, les éléments visuels ont leur propre « gram-
maire », c’est-à-dire un ensemble de règles sur ce qui peut être
représenté et comment, pour que ces visuels puissent être com-
pris. La structuration des éléments visuels se fait à travers le
respect de conventions, de codes visuels pouvant être considé-
rés comme un langage propre. Bien sûr, comme tout langage, le
langage visuel n’est pas universel et reste attaché à des commu-
nautés, chacune disposant de ces propres conventions.

La dimension visuelle de la comptabilité démontre cette impor-


tance de la rhétorique visuelle. En effet, les éléments de visua-
lisation en comptabilité visent à rendre la comptabilité suffi-
samment homogène pour qu’elle puisse être reconnue comme 311
autonome. La standardisation de certains éléments visuels
fondamentaux comme la présentation en partie double relève
de cette recherche d’homogénéité visuelle. Mais, le visuel per-
met également d’offrir une possibilité d’hétérogénéité qui laisse
une place à la diversité à la création de différence (Quattrone,
2009). La représentation visuelle des tableaux de bord offre,
par exemple, une opportunité de différenciation et de créativi-
té. Toutefois, le message reste compréhensible par toute per-
sonne possédant les codes et les conventions de la communau-
té comptable. Une différence de convention (comme séparer
les nombres par des virgules au lieu de points et inversement)
montre comment deux visuels extrêmement proches (des ta-
bleaux de résultats) peuvent s’avérer plus ou moins compréhen-
sibles du fait de ce changement de rhétorique visuelle.

1.2. Les méthodes de recherche associées


Bien qu’utilisée depuis longtemps dans des disciplines de
sciences humaines et sociales comme l’anthropologie ou la so-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

ciologie, le recours à l’analyse visuelle n’est que très récent en


gestion. Si les raisons de cette sous-utilisation sont multiples,
le manque de méthodes établies, reconnues par tous et uni-
fiées, représente sans doute une principale limite de leur emploi.
Trois méthodes complémentaires sont présentées ici. Il s’agit
de montrer différentes techniques, usages et objectifs de l’ana-
lyse visuelle afin d’enrichir la « boîte à outils » méthodologique
du chercheur en gestion. Plutôt que de chercher à distinguer la
« meilleure » méthode, il s’agit plutôt ici de présenter différentes
alternatives afin d’offrir des possibilités apparaissant avant tout
comme complémentaires.

1.2.1. La quantification des visuels

Il s’agit ici de quantifier de manière systématique ce qui appa-


raît sur les visuels. Il s’agit d’être en mesure de quantifier préci-
sément les éléments représentés à travers des tableaux de fré-
quence d’apparition des visuels identifiables (Rose, 2001). Les
chercheurs établissent un code pour chaque élément visuel, que
cela soit pour décrire un objet, une couleur, une lumière, des as-
pects positifs ou négatifs, des représentations d’émotion, etc. Il
312 est également possible de retenir la taille des visuels ainsi que
leur position (premier ou arrière-plan, etc.). À l’instar des re-
cherches qualitatives systématisées (notamment à travers l’uti-
lisation de logiciel d’analyse qualitative comme NVivo qui offre la
possibilité de spécifier l’analyse de visuels), une telle démarche
accroît la reproductibilité de l’analyse par les autres chercheurs
ainsi que la neutralité et l’objectivité du chercheur.

Actuellement, se développent des logiciels d’analyse automa-


tique de visuels (logiciels notamment développés dans le cadre
de l’imagerie médicale) permettant la quantification de manière
précise et automatique d’élément tels que la couleur ou la lumi-
nosité. Cette utilisation n’en est encore qu’à ses prémices en
sciences sociales, mais va, sans nul doute, se développer dans
les années à venir.
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

Encadré 2. Logiques institutionnelles dans le


scoutisme en France
Dans une recherche réalisée à partir de l’étude des calendriers an-
nuels des Scouts et Guides de France de 1936 à 2017, Maire et Liarte
(2017) montrent comment il est possible d’identifier les logiques
institutionnelles présentent dans le champ du scoutisme en France.
Pour cela, ils ont codé l’intégralité des visuels présents sur les calen-
driers en cherchant à catégoriser ce qui est montré.
Ensuite, l’ensemble des codes ont été rassemblés et les fréquences
d’apparition calculées à travers le logiciel Nvivo 11. Le tableau 2 est
alors obtenu.

Tableau 2. Grille d’analyse de contenu des visuels


Code Fréq. Code Fréq.
Petit groupe (deux ou trois) 657 NTIC 82
Groupe (plus de trois) 861 Outils intellectuels 286
Foulards 903 Transmission de connais- 160
sance
Autres signes distinctifs 280 Vente 15
Handicap 63 Argent représenté 5
Multiculturel 81 Levée de fond 35
Jeux collectifs 173 Gestion de l’argent 25
313
Joie 385 Partenaires 20
Lien physique 66 Professions 96
Activités manuelles 314 Pratiques religieuses dans 42
la nature
Outils manuels 229 Pratiques religieuses 26
(autres)
Volontariat 34 Pratiques religieuses 37
(messe)
Groupe en marche 215 Lieux religieux 63
Symboles hiérarchiques 1215 Symboles religieux 71
Supervision 202 Références historiques 2
Contrôle 12 Scènes bibliques 15
Réunions 116 Autres représentations 19
chrétiennes
Activités intellectuelles 244 Autres religions 11

Par regroupement des codes proches, trois grandes logiques insti-


tutionnelles émergent à travers les visuels : la communauté, la reli-
gion et le managérial.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

1.2.2. La déconstruction

La méthode de déconstruction introduite par le philosophe


Jacques Derrida (1983) pour l’étude des discours textuels peut
également être utile pour l’étude de visuels. À l’instar de tout
discours de l’organisation, les images peuvent être considérées
« comme un ambassadeur esthétique de l’organisation [qui]
permet de la visualiser et qui lui donne une valeur » (Campbell,
2012, p. 106). Dans ce cadre, l’objectif de la déconstruction est
de révéler le sens caché dans les images en allant chercher ses
sédiments au plus profond. Plus précisément, la signification du
visuel est le résultat de la différence entre ce qui est visible, plu-
tôt que de la référence aux choses qu’ils représentent. Il s’agit
donc de travailler « en creux » à travers ce qui est représenté et
ce qui n’est pas représenté. Il est à noter qu’il n’existe pas à pro-
prement parler de méthode précise d’analyse de contenu, ce qui
conduit à parler plus d’une pratique que d’une véritable méthode.
Toutefois, la déconstruction peut conduire à des résultats parti-
culièrement riches comme le souligne l’encadré 3.

Encadré 3. Toyota et la famille homosexuelle


314
Steven Kates (1999) s’intéresse à une publicité de Toyota qui montre
un couple d’hommes s’apprêtant à quitter leur domicile en voiture
pour aller pique-niquer avec leurs chiens.
En présentant la voiture comme « la » voiture de la famille, Toyota
semble vouloir associer visuellement le couple homosexuel à une
famille comme une autre. Cela peut apparaître comme une volonté
d’affichage délibérée de l’homosexualité. Mais Steven Kates pro-
pose une relecture de la publicité en exposant des sens alternatifs
au visuel. L’auteur avance que cette publicité n’a rien d’une ouver-
ture puisque plutôt que de montrer l’homosexualité, elle montre une
homosexualité hétérosexuelle. L’homosexualité semble acceptable à
Toyota si elle rentre dans les cadres de la classe moyenne, respec-
table, sexuellement conservatrice, blanche et aisée. Cette décon-
struction du discours visuel de Toyota s’avère particulièrement ef-
ficace pour démontrer ce que Toyota ne veut pas, ne peut pas ou ne
sait pas montrer.

1.2.3. « L’enquête esthétique » (aesthetic inquiry)

Les visuels peuvent permettre la visualisation d’éléments par-


ticulièrement intangibles comme les sentiments, les émotions,
les humeurs, etc. Dans ce contexte, « l’enquête esthétique » vise
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

à analyser les émotions à travers l’examen des sentiments plai-


sants et déplaisants issus de l’examen des visuels (Shrivastava
& Ivanova, 2015). Cette méthode permet également l’exploration
de la dimension esthétique des visuels, de son sens et de son
impact sur les individus et les organisations. Il s’agit ici claire-
ment d’étudier l’impact du visuel sur son auditoire plutôt que son
sens à proprement parler.

Anat Rafaeli et Iris Vilnai-Yavetz (2004) ont, par exemple, étudié


l’émotion suscitée par le choix de repeindre totalement en vert
les bus du réseau public Israélien. Ce changement de couleur,
initialement fait pour symboliser l’écologie, a suscité des émo-
tions différentes, mais souvent négatives de la part d’un grand
nombre de parties prenantes. Les auteurs ont cherché, à travers
une étude qualitative, à appréhender les émotions suscitées par
ce choix esthétique ainsi que les raisons sous-jacentes à l’émo-
tion suscitée. Les chauffeurs et les designers ont une émotion
négative envers cette couleur, car ils considèrent le vert comme
trop sombre pour être vu dans la nuit. De plus, le vert suscite
des émotions négatives, car en Israël, le vert est plus relié à une
dimension militaire qu’écologique.
315

2. LA VISUALISATION EN PRATIQUE DANS


LES RECHERCHES EN SCIENCES DE GESTION
Les éléments visuels issus de l’organisation n’ont pas, pendant
de nombreuses années, suscité d’intérêt particulier de la part
des chercheurs. Ce n’est que depuis récemment que certains
auteurs considèrent que le langage visuel offre des possibilités
multiples pour mettre en relation des phénomènes locaux et des
idées et des concepts théorisés et décontextualisés (Meyer et
al., 2013). Les visuels s’avèrent être un matériau empirique par-
ticulièrement riche à travers lequel il est possible de mener des
recherches inédites.

2.1. Rendre visible l’invisible


Le discours visuel permet de communiquer ce qu’est l’organisa-
tion, ses idées, ses valeurs, ses modèles, et ce, à plusieurs audi-
toires. Que cela soit à travers des publicités (institutionnelles ou
A n a l y s e r l e s d o n n é e s d u t e r ra i n

non), les sites Internet, les logos, les rapports d’entreprises, les
outils de communication (bulletins, journaux, etc.), les organi-
sations laissent transparaître des éléments de leur culture et de
leur identité. L’apport des visuels est d’autant plus important que
ces éléments sont, a priori, immatériels et difficiles à saisir. Les
visuels permettent d’aller plus loin dans l’appréhension d’élé-
ments conceptuels particulièrement difficiles à saisir tels que
la légitimité, les rapports de force ou le pouvoir. Demeure bien
évidemment une question centrale : Les visuels représentent-ils,
dans une démarche volontariste et instrumentale, les éléments
tels que le souhaite l’organisation ? Où sont-ils le simple reflet
d’une réalité qui émerge indépendamment de toute volonté ? Les
recherches mobilisant les visuels peuvent s’intéresser aux deux
possibilités. Munir et Phillips (2005) ont montré, par exemple,
comme l’entreprise Kodak a cherché au début du XXe siècle à
transformer la photographie, activité jusque-là hautement spé-
cialisée réalisée par des professionnels, en une activité acces-
sible à tous à tout moment. Cette transformation a été réalisée
à travers la mise en place d’une campagne d’affichage montrant
des « Kodak moments », c’est-à-dire des moments forts de la vie
quotidienne du grand public. À l’inverse, il est possible d’avan-
316 cer que le groupe Accord a souhaité véhiculer une image d’en-
treprise attentive à l’égalité des sexes en proposant des publici-
tés tant à destination des hommes que des femmes d’affaires.
Pourtant une déconstruction des deux visuels traduit une forte
stéréotypisation du genre masculin et féminin. Pendant son mo-
ment de repos à l’hôtel, la figure masculine se repose, se restaure
et se détend en jouant de manière décontractée. A contrario, la fi-
gure féminine se livre à des activités en lien avec son apparence
(maquillage) ou téléphone. Il apparaît assez clairement que les
représentations de la figure masculine et féminine ne véhiculent
pas les mêmes représentations.

Les visuels produits par l’organisation constituent également un


matériau permettant de déterminer les activités (produits, mar-
chés, concurrents, etc.) que les entreprises considèrent comme
centrales. En effet, les représentations présentes (ou absentes)
des visuels ou à travers le support de diffusion choisi en disent
beaucoup sur les choix fondamentaux des entreprises tant en
matière d’activités que de parties prenantes visées. Après avoir
quasiment disparu, les forges de Laguiole, ce haut lieu his-
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

torique de réalisation du couteau du même nom, a connu une


renaissance du fait de l’engagement d’une nouvelle équipe de
direction. Le but était de recentrer l’ensemble de production
localement pour offrir un couteau à la fois fruit d’une tradition
ancestrale, mais ayant réussi le pari de la modernité et délibé-
rément haut de gamme. Cet objectif est présent visuellement
à travers le nouveau siège des Forges imaginé par l’architecte/
designer Philippe Starck. Bâtiment de verre et d’aluminium, le
siège tend vers le ciel de l’Aubrac une lame de 18 mètres de haut,
le tout symbolisant l’alliance de la tradition et de la modernité
autour du célèbre couteau.

2.2. Matérialiser l’immatériel


Les matériaux empiriques dont dispose le chercheur en gestion
sont nombreux. Le contact direct avec les acteurs à travers les
entretiens ou la collecte de questionnaires est une première
source d’information. L’observation (participante ou non) in situ
en est une autre. Enfin, le recours à des données secondaires,
produites ou non par l’organisation, constitue une troisième
317
source de données traditionnellement utilisée. Dans ce cas, il
s’agit généralement d’étudier le discours verbal (discours, écrits,
biographie, etc.) produit par ou au sujet des organisations.

De manière traditionnelle, il est habituel d’établir une distinction


claire entre les données issues du discours des acteurs (il s’agit
là d’éléments déclaratifs) et de l’observation des acteurs (il s’agit
là d’éléments factuels observés). Le premier type de données
permet de saisir des perceptions, des opinions, des émotions,
etc. Il s’agit d’accepter le fait que les données soient empreintes
de subjectivité et il reste à savoir si les récits ou déclarations
ne sont pas entachés de biais de mémoire, de mensonges ou de
non-dits. La seconde catégorie de données permet d’observer le
plus objectivement possible ce qu’il se fait, c’est-à-dire les pra-
tiques réelles des individus et des organisations. En revanche,
ce type de matériau ne renseignement aucunement sur les mo-
tivations des acteurs. Reste également à savoir si l’observation
est le reflet de la réalité ou le fruit d’un comportement modifié du
fait de la présence d’observateur externe.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Le recours aux visuels peut permettre de favoriser l’observation


de l’activité de l’organisation. D’une part, observer les pratiques,
les manières de faire ou d’être à travers des visuels évitent toute
contamination des « données » par la présence d’un ou plusieurs
observateurs. Il y a peu de chance que les visuels soient pro-
duits par l’organisation dans un but de potentielles futures re-
cherches concernant une problématique non encore définie. Les
photographies d’époque, immortalisant les ouvriers construi-
sant les gratte-ciels de Manhattan au début du XXe siècle, ont
souvent été utilisées pour montrer les conditions de sécurité
sommaires de l’époque sur ce type de chantier. Pourtant, le vi-
suel produit par la photographie d’un groupe d’ouvriers à plus
de 330 mètres de haut sur un immeuble en construction à Los
Angeles en 2016 montre que les pratiques actuelles ne sont pas
si éloignées de celle du début du siècle à New York. Au niveau de
l’activité, le visuel peut également permettre de « montrer » l’ac-
tivité ou la stratégie de l’entreprise. Depuis un certain nombre
d’années, il est, par exemple, admis dans un grand nombre de
secteurs que le visuel orange traduit un modèle d’affaires à bas
prix (low-cost business model, en anglais) de type (Easyjet, Basic
Fit, Le Boncoin, etc.) ou que le jaune est la couleur du leader du
318 marché (McDonald’s, Hertz, Kiloutou, etc.) et le rouge celle du
suiveur (Quick, Avis, Loxam, etc.).

Enfin, contrairement aux méthodes de collecte directe d’infor-


mation, le travail sur le visuel permet de travailler sur l’évolu-
tion et la dynamique de phénomènes. Ces problématiques sont
souvent centrales en gestion mais demeurent généralement
difficiles à mener sur des périodes longues. Or, les organisa-
tions produisent parfois des visuels similaires ou dans des cir-
constances particulières, à intervalles plus ou moins réguliers.
Ces documents permettent alors une étude dans le temps très
riche, car offrant des perspectives d’observation rétrospective.
Les évolutions au niveau des visuels peuvent également tra-
duire des changements, ou du moins des inflexions, au niveau
des choix, des stratégies ou de la culture de l’organisation elle-
même. L’étude de l’évolution du logo du constructeur automobile
Renault de sa création en 1898 à nos jours témoigne de l’impact
des choix de l’entreprise en matière de stratégie (nationalisation,
diversification, etc.), des évolutions des produits (évolution des
capots des voitures) ou d’éléments contextuels (victoire à des
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

courses, participation aux guerres, etc.) sur l’évolution visuelle


du logo de l’entreprise.

CONCLUSION
Les organisations produisent une grande quantité de visuels
à partir desquels les chercheurs en gestion en général et les
doctorants en DBA en particulier peuvent obtenir des résul-
tats plutôt riches. En étant très immergés dans les organisa-
tions et les environnements dans lesquels elles évoluent, les
doctorants-managers sont en mesure de collecter une grande
quantité de visuels tout en variant les sources, de plus en plus
nombreuses. En effet, outre les documents papier, les visuels se
multiplient à travers les sites Internet, les réseaux sociaux, les
applications de photographies spécialisées (Instagram, etc.).

Bien évidemment, un certain de nombre de recommandations


peut s’avérer utile pour que les doctorants-managers tirent le
meilleur profit des visuels en tant que matériau de recherche. En
voici sept :
1. Diversifier les sources de visuels. Publicité, documents 319
de communication interne, architecture, conditionnement,
site Internet, etc. sont quelques exemples de visuels qu’il
est possible de considérer.
2. Distinguer le visuel du média qui le transmet. L’analyse
d’un même visuel sur deux supports différents peut ne pas
conduire aux mêmes résultats. Il est donc fondamental
d’être en mesure de distinguer les effets imputables au vi-
suel lui-même et ceux attribuables au type de médium utili-
sé pour le diffuser.
3. Identifier le public visé par le visuel. Un même visuel peut
produire des effets différents sur des publics différents. Il
est donc essentiel de savoir à qui s’adresse le visuel.
4. Identifier l’auteur du visuel. À l’instar de tout message
issu d’une organisation, il est central de savoir qui en est à
l’origine. S’agit-il d’une communication officielle ou non ?
le visuel a-t-il été produit en interne ou par une agence de
communication ? Est-il le résultat d’un travail collectif ou
individuel ?
A n a l y s e r l e s d o n n é e s d u t e r ra i n

5. Distinguer les visuels intentionnels des visuels non inten-


tionnels. Bien que ce qui est communiqué de manière non
intentionnelle peut véhiculer du sens et de l’information sur
l’organisation et ces acteurs, ce mode de communication
est à distinguer de ce qui relève d’un choix délibéré.
6. Trouver un équilibre entre rigueur et liberté d’analyse en
termes méthodologiques. L’analyse de visuel peut se prê-
ter à des méthodes d’analyse assez libres (comme la dé-
construction) permettant de faire émerger des éléments
particulièrement enfouis dans les matériaux empiriques.
Toutefois, il est nécessaire de garantir la reproductibilité
des résultats et d’éviter une possible surinterprétation à
travers le respect de cadres permettant une certaine systé-
matisation des analyses proposées et des constats établis.
7. Considérer simultanément les autres formes de communi-
cation. Les visuels sont souvent accompagnés de commu-
nication verbale à travers du texte. Or, le texte se trouvant à
proximité donne des indications qui orientent le récepteur.
Il est donc nécessaire d’analyser le visuel conjointement au
texte se trouvant à ses côtés.
320
Références citées
Campbell, N. (2012), Regarding Derrida: The tasks of visual
deconstruction, Qualitative Research in Organizations and
Management: An International Journal, vol. 7, no 1, p. 105-124.
Chandler, D. (2007), Semiotics: The Basics, New York, NY, Routledge.
Derrida, J. (1983), The Time of a Thesis: Punctuations. In Philosophy
in France Today by Montefiore, New York, Cambridge University
Press.
Elkins, J. (2010), Visual Cultures, Bristol, UK, Intellect.
Floch, J.-M. (1995), Identités visuelles, Paris, PUF.
Foss, S. K. (2004), Framing the study of visual rhetoric: Toward a
transformation of rhetorical theory, in C.A. Hill & H.M. Helmers
(eds.), Defining Visual Rhetorics, London, Routledge, p. 303-314.
Kates, S. (1999), Making the ad perfectly queer: Marketing
“normality” to the gay men’s community ?, Journal of Advertising,
vol. 28, no 1, p. 25-37.
Maire, S. & Liarte, S. (2017), Evolution of logics or evolution of
their representations? Characterization of logics’ malleability
through discourses and visualization, 33rd European Group for
L’a n a l y s e d e s d o n n é e s v i s u e l l e s

Organization Studies (EGOS) Colloquium, Copenhagen Business


School.
Maire, S. & Liarte, S. (2018), Building on visuals: Taking stock and
moving ahead, M@n@gement, à paraître.
McLuhan, M. & Fiore, Q. (1967), The Medium is the Massage: An
Inventory of Effects, Berkeley, CA, Gingko Press.
Meyer, R. E., Höllerer, M. A., Jancsary, D. & Van Leeuwen, T.
(2013), The visual dimension in organizing, organization, and
organization research: Core ideas, current developments, and
promising avenues, Academy of Management Annals, vol. 7, no 1,
p. 489-555.
Munir, K. A. & Phillips, N. (2005), The birth of the Kodak moment :
Institutional entrepreneurship and the adoption of new
technologies, Organization Studies, vol. 26, no 11, p. 1665-1687.
Quattrone, P. (2009), Books to be practiced: Memory, the power of the
visual, and the success of accounting, Accounting, Organizations
and Society, vol. 34, no 1, p. 85-118.
Rafaeli, A. & Vilnai-Yavetz, I. (2004), Emotion as a connection of
physical artifacts and organizations, Organization Science, vol. 15,
no 6, p. 671-686.
Rose, G. (2001), Visual Methodologies: An Introduction to the
Interpretation of Visual Methodologies, Thousand Oaks, CA, Sage
321
Publications Ltd.
Shrivastava, P. & Ivanova, O. (2015), Inequality, corporate legitimacy
and the Occupy Wall Street movement, Human Relations, vol. 68,
no 7, p. 1209-1231.

Références pour en savoir plus


Joly, M. (2015), Introduction à l’analyse de l’image, 3 e édition, Paris,
Armand Colin.
Cet ouvrage développe la manière dont les visuels élaborent et
transmettent différents messages en questionnant ce qu’est une
image avant de développer leur utilisation, en particulier dans le
cadre de la publicité.

Margolis, E. & Pauwels, L. (eds.) (2011), The SAGE Handbook of Visual


Research Methods, Thousand Oaks, CA, Sage Publications Ltd.
Dans le cadre des sciences sociales au sens large (sociolo-
gie, anthropologie, géographie, études culturelles, etc.), cet
Handbook développe les méthodes qualitatives et quantitatives
existantes à l’heure actuelle sur l’étude des visuels, autant sta-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

tiques qu’animés, tout en questionnant comment les utiliser et


les diffuser dans le cadre de recherches scientifiques.

Van Leeuwen, T. & Jewitt, C. (eds.) (2001), Handbook of Visual Analysis,


Thousand Oaks, CA, Sage Publications Ltd.
Cet ouvrage se concentre sur les enjeux théoriques des visuels.
Il développe les approches liées à la rhétorique, la sémiotique,
l’iconographie ou encore l’ethnométhodologie, pour présenter
un vaste panel de concepts outils mobilisables pour exploiter et
analyser les visuels.

322
CHAPITRE 18.
Les analyses statistiques multidimensionnelles

Jean Desmazes

Résumé

Ce chapitre veut être accessible à des non-spécialistes des


méthodes statistiques qu’il présente. Il s’applique à faire
comprendre ce que l’on peut attendre de ces méthodes et
convaincre de leur extrême utilité dans les démarches d’étude
et de recherche en management. Les méthodes abordées sont 323
des méthodes multidimensionnelles descriptives (on les qua-
lifie aussi d’exploratoires). Elles correspondent à ce que l’on
nomme aussi « méthodes d’analyse des données de première
génération ». Sont présentées : l’Analyse en Composantes
Principales (ACP), l’Analyse Factorielle des Correspondances
(AFC), l’Analyse des Correspondances Multiples (ACM) et
la Classification Ascendante Hiérarchique (CAH). Après la
lecture de ce chapitre, la prise en main effective de ces mé-
thodes suppose un effort complémentaire accessible à tous,
tant a progressé l’ergonomie des logiciels disponibles pour
les mettre en œuvre.

Mots-clés : statistiques descriptives, statistiques multidi-


mensionnelles, analyse des données, ACP, AFC, ACM, CAH.

Les méthodes de recherche du DBA


A n a l y s e r l e s d o n n é e s d u t e r ra i n

INTRODUCTION
Décrire, « … c’est consentir une perte en information afin d’obtenir un
gain en signification » (Volle, 1981, p. 12). Cette citation de Michel
Volle exprime la philosophie générale des méthodes d’analyse
statistique multidimensionnelle que ce chapitre se propose de
présenter aussi simplement que possible à l’attention du mana-
ger-chercheur de DBA. La présentation veut être simple, mais
elle veut également être une invitation à se saisir sans hésitation
et sans crainte de ces méthodes si, dans le cadre de recherches
qui s’y prêtent, elles s’avèrent pertinentes, voire indispensables.
En effet, au-delà de la compréhension de leurs domaines d’ap-
plication et de ce qu’elles permettent, leur mise en œuvre est au-
jourd’hui accessible à tous grâce aux logiciels d’analyses statis-
tiques disponibles.

Les méthodes présentées ici ont pour noms et acronymes :


Analyse en Composantes Principales (ACP), Analyse Factorielle
des Correspondances (AFC), Analyse des Correspondances
Multiples (ACM), Classification Ascendante Hiérarchique
(CAH). Elles composent ce qu’il est convenu de désigner comme
324 étant les méthodes multidimensionnelles d’analyse des données
de première génération. Elles n’épuisent pas l’ensemble des mé-
thodes statistiques multidimensionnelles. À côté des méthodes
descriptives, existent des méthodes multidimensionnelles ex-
plicatives, anciennes comme la régression linéaire, l’analyse
de variance, l’analyse discriminante ou, plus récentes, et rele-
vant de méthodes dites de deuxième génération, comme à titre
d’exemple, les méthodes d’équations structurelles.

Ce chapitre est donc consacré aux méthodes multidimension-


nelles descriptives nommées ci-dessus. Il s’applique, dans une
première section, à préciser leurs spécificités communes, spé-
cificités qui justifient l’attention que doivent leur accorder les
doctorants de DBA.

Les méthodes présentées peuvent être distinguées en deux


grandes familles. ACP, AFC et ACM sont des méthodes géomé-
triques et appartiennent aux méthodes d’analyses factorielles.
L’aspect remarquable de leurs résultats est qu’elles produisent
des cartes (des mappings, en anglais) sur lesquelles apparaissent
variables, modalités et observations soumises à l’analyse. Pour
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

sa part, la CAH fait partie des méthodes arithmétiques de clas-


sification automatique (cluster analysis, en anglais) et, pour cer-
taines d’entre elles comme la CAH, elles produisent des arbres
qui montrent comment les objets mis à l’étude se regroupent peu
à peu par ressemblance en classes distinctes de plus en plus
étendues (Figure 1).

Figure 1. Mapping et arbre de classification issus


des méthodes d’analyse des données

La deuxième section est consacrée à lever le voile sur les pro-


priétés spécifiques de chacune des méthodes déjà mention-
nées : ACP, AFC, ACM et CAH. 325

1. PROPRIÉTÉS COMMUNES DES MÉTHODES


D’ANALYSE DES DONNÉES DE PREMIÈRE
GÉNÉRATION
Il y a quatre bonnes raisons qui justifient l’intérêt qu’il faut porter
aux méthodes multidimensionnelles d’analyse des données de
première génération. Ces quatre bonnes raisons correspondent
à quatre séries de propriétés centrales qui les caractérisent, pro-
priétés qui s’articulent les unes avec les autres et se renforcent
mutuellement.

1.1. Des méthodes utilisées « partout » et adaptées à


tous les types de tableaux de nombres
Que ce soient dans les champs des sciences de l’homme, où
elles sont nées, dans ceux des sciences sociales, des sciences
de la vie et de la terre, des sciences de l’ingénieur, les méthodes
A n a l y s e r l e s d o n n é e s d u t e r ra i n

considérées ici sont d’usage courant. L’étendue de leur utilisa-


tion tient à ce que la « réalité » à laquelle s’intéressent ces disci-
plines apparaît ou s’exprime souvent sous la forme de tableaux
de nombres et que c’est au « traitement » de ces tableaux que
s’appliquent les méthodes de l’analyse des données. En outre, à
la diversité des types de tableaux rencontrés dans la « nature »1,
les méthodes disponibles offrent une diversité de solutions pour
répondre à chaque cas rencontré. Précisons ce point sans viser
l’exhaustivité.

Tableau de mesures, tableau de contingence, tableau disjonctif


complet sont les types de tableaux de nombres qu’il nous faut
distinguer ici pour faire comprendre la suite. D’autres types
existent mais nous les laissons dans l’ombre.

Le tableau de mesures « tombe sous le sens » : en ligne des ob-


servations issues d’une population (au sens statistique de ces
termes) et, en colonne, des variables quantitatives. À l’intersec-
tion d’une ligne et d’une colonne, on trouve la mesure pour l’ob-
servation indiquée en ligne correspondant à la variable portée en
colonne. Un exemple pour illustrer : en ligne, 500 entreprises (les
326 observations) ; en colonnes, 25 variables quantitatives : nombre
de salariés, chiffre d’affaires, part de la production exportée,
résultat brut d’exploitation, taux d’endettement, âge moyen des
principaux dirigeants, etc.

Le tableau de contingence est le résultat d’une construction plus


élaborée que le tableau de mesures. Il est construit en consi-
dérant une population au regard de deux variables nominales,
l’une portée en ligne et l’autre en colonne. Au croisement d’une
ligne et d’une colonne, on lit le nombre d’observations de la po-
pulation possédant la modalité de la variable portée en ligne et
la modalité de la variable portée en colonne. On parle souvent de
tableau croisé. Prenons un exemple : une population d’étudiants
inscrits dans une université ; on considère deux variables nomi-
nales sur cette population : les filières de formation suivies par
les étudiants, première variable nominale comprenant 10 moda-
lités (droit, économie, sciences de l’ingénieur, mathématiques,

1. La formulation est osée et permet de rappeler ceci : les tableaux de nombres ne
sont pas dans la nature et ne préexistent pas à la production de l’homme. Ils re-
lèvent d’une réalité construite par lui.
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

etc.) et la CSP2 des parents des étudiants comprenant 8 moda-


lités (agriculteurs exploitants, commerçants, artisans et chefs
d’entreprise, cadres et professions intellectuelles supérieures,
etc.). Au croisement d’une ligne et d’une colonne de ce tableau
de contingence, on trouve le nombre d’étudiants qui suivent la
formation indiquée en ligne et qui sont issus d’une famille appar-
tenant à la CSP mentionnée en colonne.

Le tableau disjonctif complet est le résultat d’une construction


encore plus élaborée que le tableau de contingence. Ce dernier,
on le devine, permet de repérer la relation existant entre deux
variables nominales. Le tableau disjonctif complet vise à s’ins-
crire dans une démarche où il s’agit de repérer les relations exis-
tant entre plus de deux variables nominales. Le tableau construit
dans cette perspective est structuré de la manière suivante : les
lignes du tableau correspondent aux observations ; les colonnes
correspondent aux variables nominales et chaque variable no-
minale est éclatée en autant de colonnes qu’elle possède de
modalités ; pour chaque observation, et pour chaque groupe de
colonnes correspondant à une variable nominale, figure un « 1 »
dans la colonne correspondant à la modalité possédée par l’ob- 327
servation et des « 0 » dans les autres modalités qu’elle ne pos-
sède pas3. Le tableau disjonctif complet apparaît ainsi comme
un tableau ne contenant que des « 1 » et des « 0 » (on le qualifie
parfois de tableau logique ou de tableau de présence-absence) 4.

Comme les véhicules 4x4 capables de rouler sur « tous » les


terrains, les méthodes d’analyse des données sont utilisables
« partout » dès lors que la réalité et les phénomènes mis à l’étude
s’expriment sous la forme de tableaux de nombres. Leur intérêt
et leur succès tiennent, en premier lieu, à cela. Mais elles ont
d’autres atouts. Car, si elles sont aptes à « traiter » tableaux de
mesures, tableaux de contingence, tableaux disjonctifs com-
plets et encore bien d’autres types de tableaux, c’est la nature et

2. Catégorie socio-professionnelle.
3. On suppose ici que les modalités des variables nominales sont exclusives (une
observation ne peut en posséder qu’une et une seule).
4. Compte tenu des objectifs visés par ce chapitre, nous ne présentons pas le ta-
bleau de Burt qui prolonge le tableau disjonctif complet et qui peut être utilisé
pour les traitements dont nous allons parler un peu plus loin, comme nous ne pré-
sentons pas plusieurs autres types de tableaux de nombres.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

l’intérêt des « traitements » qu’elles opèrent qu’il faut maintenant


souligner.

1.2. Des méthodes descriptives


L’étape préalable à toute tentative de compréhension, d’expli-
cation, voire de maîtrise, d’un phénomène quelconque, est sa
description. La description n’est pas un acte secondaire dé-
pourvu d’enjeux, ne nécessitant aucune créativité et pour lequel
il suffirait d’appliquer des routines ordinaires insignifiantes. La
description est au fondement de l’explication, l’acte premier de
celle-ci et, en même temps, dans une dialectique fructueuse, les
progrès de l’explication sont en retour source de progrès de la
description. Comme rappelé dans l’entame de ce chapitre, dé-
crire, « … c’est consentir une perte en information afin d’obtenir
un gain en signification » (Volle, 1981, p. 12). Le paradoxe n’est
qu’apparent et l’expérience permet de le dépasser rapidement.

Prenons par exemple une liste des 3 867 revenus annuels des
« actifs »5 d’une petite commune donnée. Ce listing de plus de
328 80 pages est insaisissable au cerveau humain et ne permet pas
d’appréhender la moindre facette des réalités économiques, so-
ciales et autres associées à ces 3 867 nombres. La construction
d’un histogramme commence à faire parler les 3 867 revenus. On
y voit immédiatement la forme de la distribution des revenus, sa
concentration au voisinage d’une classe modale, son étalement
en direction des hauts revenus, etc. L’histogramme conduit à
une perte d’information puisque les 3 867 revenus individuels
n’apparaissent plus. Mais il permet un incontestable gain en si-
gnification et en compréhension. Le calcul d’une moyenne, d’une
médiane, d’un écart-type permet également ce gain en signifi-
cation à la faveur d’une perte en information. Offrir les voies de
cette prouesse subtile sont le propre des méthodes statistiques
dites descriptives.

Les méthodes d’analyse des données objet de ce chapitre ré-


pondent à cet objectif descriptif général. Elles possèdent en cela

5. … au sens de « personnes actives » telles que définies par les nomenclatures sta-
tistiques en vigueur…
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

un intérêt peu contestable. Mais cet intérêt est décuplé du fait


qu’elles permettent de décrire des objets multidimensionnels.

1.3. Des méthodes descriptives d’objets


multidimensionnels
Les méthodes présentées ici sont multidimensionnelles parce
que leurs traitements s’appliquent à des « objets multidimen-
sionnels ». Précisons le vocable.

Dans l’exemple des 3 867 revenus, il y a 3 867 observations, en


l’occurrence les 3 867 actifs de la petite commune considérée.
Chaque observation est caractérisée par une seule variable,
son revenu. L’objet correspondant aux 3 867 observations cor-
respond à un nuage de 3 867 points unidimensionnel. Une droite
(munie d’une origine et d’une graduation adéquate) suffit à le re-
présenter. Si à la caractérisation de chaque actif par son revenu
on ajoute son âge, le nuage des 3 867 points devient bidimension-
nel : les 3 867 points peuvent être représentés sur un plan défini
par deux droites, l’une mesurant le revenu et l’autre mesurant
l’âge. Si l’on ajoute une troisième variable, le nuage de points se
situe dans l’espace à trois dimensions, celui où nous vivons. Il 329
est tridimensionnel et l’on pourrait le modeler pour le donner à
voir sous sa forme exacte. Au-delà de trois variables, le nuage de
points constitue un objet multidimensionnel qui existe dans un
espace multidimensionnel. Le nombre de dimensions d’un ob-
jet, c’est le nombre de nombres nécessaires à sa caractérisation
et à sa localisation dans l’espace auquel il appartient. Dans le
cas des 500 entreprises décrites à l’aide de 25 variables quanti-
tatives, les 500 entreprises constituent un nuage de 500 points
situés dans un espace de dimension 25.

Décrire, c’est-à-dire donner à voir les formes de nuages de points


unidimensionnels et bidimensionnels, voire tridimensionnels,
reste un exercice plutôt aisé. Mais décrire des nuages de points
multidimensionnels apparaît une gageure : comment donner à
voir les formes d’objets qui sont invisibles à l’œil puisqu’ils sont
situés dans des espaces de dimensions supérieures à 3 ? C’est
pourtant ce défi que les méthodes multidimensionnelles d’ana-
lyse des données relèvent avec succès. Comment s’y prennent-
elles ?
A n a l y s e r l e s d o n n é e s d u t e r ra i n

En ayant à l’esprit les méthodes géométriques d’analyse facto-


rielle, on peut comprendre simplement leur « mode opératoire »
par une analogie avec la photographie. Une photo permet de
restituer la forme d’un objet situé dans l’espace de dimension 3
sur un plan de dimension 2. La réduction de dimension de l’objet
que l’on voit sur la photo s’opère par projection de ses « vraies »
formes existant dans l’espace initial de dimension 3. L’algèbre et
la géométrie ont fourni tous les outils nécessaires à la généra-
lisation de la démarche de projection pour donner à voir dans le
plan les formes des objets existant dans des espaces initiaux de
dimensions aussi élevées que l’on veut.

Bien entendu, la forme de l’objet vue sur la photo n’est pas la


« vraie » forme de l’objet dans son espace initial. Il y a entre les
deux, une perte d’information, perte d’information grâce à la-
quelle la forme est apparue sur le plan. Il reste, pour revenir à
l’analogie avec la photographie, que l’angle de prise de vue n’est
pas sans importance pour rendre compte aussi fidèlement que
possible de la « vraie » forme de l’objet. La photo d’un caméli-
dé prise face à l’animal ne permet pas de savoir s’il s’agit d’un
chameau ou d’un dromadaire 6. La photo prise de profil est sur
330 ce point bien plus parlante. Mais alors, comment choisir le bon
angle de prise de vue de la photo ? La question se pose avec
acuité. Le choix de l’angle de prise de vue de la photo est l’équi-
valent de la question du choix des directions des projections des
objets multidimensionnels pour les donner à voir. En poursui-
vant sur ce point, on est conduit à souligner une quatrième pro-
priété centrale des méthodes d’analyse des données.

1.4. Des méthodes descriptives « objectives »


En tant que pratique artistique, la photographie est un art qui
donne toute sa place à l’inspiration du photographe, à sa sensi-
bilité et à sa subjectivité pour le choix de l’angle de prise de vue,
du cadrage, du rendu de la lumière, etc. La visée est esthétique.
Ce n’est pas celle des méthodes d’analyse des données. La visée
de ces dernières est de restituer aussi fidèlement que possible
les formes d’un objet invisible à l’œil parce que situé dans un es-

6. Nous reprenons ici une image qui compose la première de couverture de l’ouvrage
de Fénelon (1981).
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

pace multidimensionnel. « Aussi fidèlement que possible » : pour


les méthodes en question, la traduction de cette exigence prend
la forme de l’utilisation d’algorithmes de calcul qui ne laissent
plus de place, a priori, à la subjectivité du « photographe ». On
peut faire comprendre intuitivement les fondements de cette ob-
jectivité, et ses limites, en recourant au petit exemple suivant.

Figure 2.1 Figure 2.2 Figure 2.3

La figure 2.1 représente un nuage de points situés dans le plan


(dimension 2) et l’on se propose, en procédant par projection de
ces points, de les représenter « aussi fidèlement que possible »
sur une droite (dimension 1). Pour de bonnes raisons que l’on 331
laisse ici dans l’ombre, on peut décider de faire passer la droite
recherchée par le centre de gravité du nuage de points (repré-
senté par le point blanc sur la figure). Quelle est l’orientation qu’il
faut donner à cette droite pour que, une fois les points projetés
sur elle (représentés par des croix), elle respecte l’objectif visé ?
L’orientation de la droite D1 (Figure 2.2) et les projections qui y
sont faites (les croix) sont loin de donner une image fidèle du
nuage de points initial. On n’y voit pas l’opposition entre deux ex-
trêmes autour d’un troupeau central structurant le « vrai » nuage.
Les extrêmes sont confondus dans le troupeau. En revanche, on
comprend que l’orientation de la droite D2 (Figure 2.3) est « aus-
si fidèle que possible » à la forme initiale.

Ce qui vient d’être suggéré correspond à ce qui est formalisé et


généralisé par les méthodes auxquelles on s’intéresse ici. Ce
qu’il faut restituer « aussi fidèlement que possible », c’est la forme
du nuage initial, c’est-à-dire les distances entre les points. Pour
appréhender cette forme, on pense alors spontanément à re-
courir à la notion basique en statistique qu’est la variance (l’éta-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

lement autour de la moyenne). C’est ce que font les méthodes


en question en retenant la notion d’inertie, l’inertie n’étant pas
autre chose qu’une variance calculée sur des points munis de
poids. Une fois choisie la manière de mesurer la distance entre
les points et les poids à leur affecter, une fois calculée l’iner-
tie du nuage, et quelle que soit la dimension de l’espace initiale
dans lequel il se situe, l’algorithme utilisé par les méthodes
factorielles procède par itérations successives. Il calcule en
premier lieu la direction de la droite sur laquelle, en projection,
l’inertie projetée est maximum. Cette droite est appelée premier
axe d’inertie (ou premier axe factoriel). Puis, en deuxième lieu,
l’algorithme recherche la direction d’une droite orthogonale à
la première, sur laquelle, en projection, l’inertie est maximum.
Cette deuxième droite définit le deuxième axe d’inertie (deu-
xième axe factoriel). Puis en troisième lieu, il recherche la direc-
tion de la droite orthogonale aux deux premières, sur laquelle,
en projection, l’inertie est maximum, etc. La photo « aussi fidèle
que possible » de l’objet multidimensionnel étudié est celle qui
apparaît sur le plan défini par les axes factoriels 1 et 2. On va y
découvrir les formes structurantes les plus saillantes (le profil
du camélidé et ses deux bosses permettant d’identifier un cha-
332
meau). Mais rien n’empêche évidemment de considérer aussi
l’objet sous d’autres plans en combinant d’autres axes : axes 1
et 3, axes 2 et 3, axes 2 et 4, etc. comme il est aussi intéressant de
considérer la photo de face du chameau pour apprécier la taille
de ses oreilles…

Les descriptions des objets multidimensionnels invisibles à l’œil


livrées par les méthodes factorielles sont donc « objectives » au
sens où elles sont le résultat d’algorithmes mathématiques qui
optimisent et hiérarchisent les structures et les formes resti-
tuées et données à voir. La subjectivité des choix d’angle de vue
du photographe n’y a pas sa place. C’est le dernier atout de ces
méthodes qu’il est important de comprendre et de souligner.

Mais une fois affirmée « l’objectivité » des descriptions fournies


et des méthodes qui y conduisent, il faut immédiatement mar-
quer les limites de cette objectivité. Ces limites tiennent princi-
palement à l’interprétation des axes factoriels (et des mappings
qui en résultent). Les résultats obtenus ne prennent toute leur
valeur et tout leur intérêt que si l’on donne un sens, une signi-
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

fication aux structures mises au jour, que si l’on pose des mots
sur les synthèses que propose l’algorithme. S’il faut encourager
l’analyste à faire parler les données, il faut en même temps com-
prendre et admettre que cet encouragement conduit à la réappa-
rition de la subjectivité de la description finalement proposée. Le
bilan reste néanmoins largement favorable aux méthodes dont il
est question ici. Les descriptions des objets multidimensionnels
qu’elles permettent repoussent loin les frontières de l’entrée
dans la subjectivité et permettent, pour le moins, de l’encadrer
parce qu’elles offrent des bases objectives rigoureuses qu’au-
cune autre méthode ne permet.

Méthodes passe-partout dès lors que l’on s’intéresse à des phé-


nomènes qui s’expriment à travers des tableaux de nombres,
aussi grands soient-ils, méthodes descriptives « objectives »
d’objets multidimensionnels, les méthodes d’analyse des don-
nées de première génération ont des propriétés générales que
nul chercheur en management ne devrait ignorer. Chacun doit
pouvoir se saisir de ces méthodes si les circonstances de sa re-
cherche s’y prêtent et c’est pour cela que l’on s’est appliqué à les
faire comprendre. L’étape suivante pour le chercheur débutant en
333
analyse des données est de passer de la compréhension de ces
propriétés générales à la mise en œuvre effective des méthodes.
Cette étape suppose un investissement mesuré tant les logiciels
disponibles, comme Le Sphinx (voir le chapitre 19), sont devenus
faciles à maîtriser et à la portée de tous. Investissement mesu-
ré certes, mais investissement minimum quand même. L’espace
manque dans ce chapitre pour accompagner jusqu’au bout dans
cet investissement. Des repères bibliographiques sont donnés
dans la suite du texte. On se contentera de continuer à lever un
peu plus le voile sur chacune des méthodes annoncées : ACP,
AFC, ACM et CAH.

2. PROPRIÉTÉ SPÉCIFIQUES DES PRINCIPALES


MÉTHODES D’ANALYSE DES DONNÉES DE
PREMIÈRE GÉNÉRATION
Les principales spécificités des différentes méthodes considé-
rées ici tiennent aux types de tableaux de nombres qu’elles per-
mettent de traiter.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

2.1. L’Analyse en Composantes Principales (ACP)


L’ACP est tout particulièrement adaptée au traitement des ta-
bleaux de mesures tels qu’ils ont été définis plus haut : en ligne
des observations et en colonne des variables quantitatives7.
Face à de tels tableaux, qui peuvent être de très grande taille
(plusieurs milliers de lignes et plusieurs dizaines de colonnes),
la description de la réalité qu’ils traduisent consiste à offrir des
éclairages dans trois perspectives liées : typologie des lignes,
typologie des colonnes, rapprochement de ces deux typologies.

Par typologie des lignes, on entend le repérage des ressem-


blances et dissemblances entre les observations au regard
de toutes les variables quantitatives figurant en colonne. On
se doute qu’un calcul de distances entre les observations (les
lignes du tableau) permet l’établissement « objectif » de ces res-
semblances/dissemblances.

Quant à la typologie des colonnes, elle revêt deux aspects remar-


quables. En premier lieu, s’agissant de variables quantitatives,
leurs ressemblances/dissemblances s’expriment tout naturel-
lement par leurs relations, ici par leurs corrélations (linéaires).
334 L’ACP offre ainsi un bilan des corrélations entre les variables
du tableau. En second lieu, elle offre la mise à jour de variables
de synthèse résumant, « aussi fidèlement que possible », le jeu des
corrélations des variables du tableau par groupes de variables.
Ces variables de synthèse, combinaisons linéaires des variables
initiales, ne sont pas autre chose que les axes d’inertie présen-
tés plus haut appelés, en la circonstance, « composantes prin-
cipales ».

Le rapprochement des deux typologies, celles des lignes et


des colonnes, s’opère grâce aux propriétés des composantes
principales. Sur les axes de projection qu’elles définissent, se
projettent les variables et les observations. Il est assez naturel
d’interpréter les axes en termes de variables puis de considérer
la position des observations au regard des interprétations don-
nées.

7. Attirons l’attention du lecteur sur le fait que parmi les tableaux de mesures aux-
quels l’ACP s’applique utilement, un cas fréquent rencontré dans les études et les
recherches en gestion est celui des échelles de mesures multi-items construites à
partir d’échelles de Likert (type degré de satisfaction, degré d’accord, etc.).
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

Pour convaincre de l’intérêt de l’ACP et de son accessibilité à


tous, il faut sans doute ajouter à ce qui vient d’être dit que les
trois éclairages fournis par la méthode prennent la forme, pour
l’essentiel, de mappings que l’on apprend aisément à interpréter 8.

2.2. L’Analyse Factorielle des Correspondances (AFC)


L’AFC s’applique aux tableaux de contingence (définis précé-
demment) croisant deux variables nominales, l’une en ligne et
l’autre en colonne, au regard d’une population donnée. Ayons
par exemple à l’esprit le tableau qui, pour les étudiants d’une
université, croise les formations où ils sont inscrits (en ligne)
et la CSP de leurs parents (en colonne) 9. La question que pose
ce tableau est évidemment celle de savoir s’il existe une relation
entre les deux variables nominales, formations suivies et CSP
familiales. Comme dans le cas de l’ACP, cette question consiste
à éclairer trois perspectives : typologie des lignes, typologie des
colonnes et rapprochement des deux typologies.

Les éclairages donnés par l’AFC dans ces trois perspectives


tiennent ici encore aux propriétés des axes d’inertie issus de 335
la méthode sur lesquels se projettent, « aussi fidèlement que
possible  », les modalités des deux variables. Ces axes sont les
mêmes pour les modalités en ligne et pour les modalités en
colonne. Dans les plans définis par deux axes, on peut donc y
voir les ressemblances/dissemblances entre les modalités de la
variable en ligne (typologie des lignes), les ressemblances/dis-
semblances entre les modalités de la variable en colonne (typo-
logie des colonnes) et les relations s’établissant entre modalités
en ligne et modalités en colonne (rapprochement des deux typo-
logies). Là encore, les résultats de l’AFC se lisent, pour l’essen-
tiel, en considérant les mappings produits par l’analyse, mappings
que l’on apprend aisément à interpréter correctement.

8. Les mappings sont incontestablement la forme la plus « spectaculaire » des ré-


sultats de toutes les analyses factorielles et la voie d’accès la plus immédiate à
leur interprétation. Il faut néanmoins ajouter, qu’outre ces mappings, les résultats
prennent aussi la forme de tableaux de nombres, des aides à l’interprétation que
l’on laisse délibérément dans l’ombre dans le cadre de cette présentation.
9. Le tableau a donc autant de lignes que la variable formation a de modalités et au-
tant de colonnes que la variable CSP des parents a de modalités.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Il est fréquent que l’on ait à considérer la relation existant entre


deux variables nominales. La facilité de mise en œuvre de l’AFC
et les vertus heuristiques des résultats qu’elle livre justifient le
succès de cette méthode. Mais plus souvent encore, ce n’est
pas la relation entre deux variables nominales que l’on a à consi-
dérer, mais les relations entre plusieurs dizaines de variables
nominales. C’est habituellement le cas dans les enquêtes par
questionnaires. La multiplication des croisements des variables
prises deux à deux révèle rapidement les limites de l’AFC. Une
généralisation de cette méthode permet de dépasser ces limites.

2.3. L’Analyse des Correspondances Multiples (ACM)


L’ACM peut être comprise comme une extension de l’AFC au
cas de plus de deux variables nominales. Elle s’applique à un
tableau disjonctif complet construit comme on l’a expliqué plus
haut. Dans le cadre d’une enquête par questionnaire conte-
nant de nombreuses variables nominales (aux modalités exclu-
sives), ce tableau traduit fidèlement les réponses données par
les répondants10. La mise au jour des structures que recèle ce
336 tableau passe, comme dans les autres analyses factorielles,
par l’éclairage des trois perspectives que sont la typologie des
lignes, la typologie des colonnes et le rapprochement des deux
typologies. La typologie des lignes est celle des observations,
celle des répondants dans le cas d’une enquête par question-
naire. La typologie des colonnes est celle des modalités des va-
riables et donc des variables elles-mêmes, les ressemblances/
dissemblances correspondent ici aux relations qui s’établissent
à ces deux niveaux, relations entre les modalités des variables
et entre les variables. Le rapprochement entre les deux typolo-
gies s’appuie sur les propriétés des axes d’inertie sur lesquels
se projettent observations et modalités des variables, axes qu’il
est naturel d’interpréter en termes de modalités et de variables
pour comprendre les positions que les observations y occupent.

Les résultats livrés par une ACM sont riches et subtils. Mais
pour en prendre pleinement connaissance, il est souvent néces-

10. Notons au passage qu’en mettant les variables quantitatives en classes, il est


possible de les inclure dans les tableaux disjonctifs complets pour les associer
aux variables nominales dans la réalisation de l’ACM.
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

saire de considérer un grand nombre d’axes d’inertie et donc un


grand nombre de mappings. Leur analyse et leur interprétation
deviennent rapidement longues, difficiles et fastidieuses. Ce
constat, face à un souci d’accès rapide et facile à des synthèses
« objectives », peut conduire, de manière judicieuse, à soumettre
les résultats de l’ACM à une CAH.

2.4. La Classification Ascendante Hiérarchique (CAH)


La CAH est une méthode à part entière qui appartient à la fa-
mille des classifications automatiques, mais elle peut être utili-
sée complémentairement aux analyses factorielles. Les classi-
fications automatiques s’appliquent à des tableaux de nombres
de différents types et servent, le plus souvent, et sans que cela
soit impératif, à faire des classes d’observations au regard d’un
nombre plus ou moins élevé de variables qui peuvent être de types
divers. Elles se situent dans une perspective de construction de
typologies. Les mappings des analyses factorielles répondent à
cette visée en permettant de repérer visuellement des groupes
d’observations qui se ressemblent sans que les contours de ces
groupes soient faciles à tracer « à vue d’œil », d’autant qu’il faut
337
en général prendre en compte plusieurs plans de projection. On
peut considérer que les classifications automatiques « viennent
au secours » des analyses factorielles en leur proposant une
construction calculée et rigoureuse des frontières des classes
d’observations qui se ressemblent. Pour sa part, la CAH opère
de la manière suivante.

Une fois définie la façon de compter la distance entre deux ob-


servations, entre une observation et une classe d’observations,
entre deux classes d’observations, l’algorithme calcule, au re-
gard de toutes les observations et de toutes les variables qui les
caractérisent, les distances entre chacune de ces observations.
Il regroupe dans une première classe les deux observations les
plus proches. Puis il réitère les calculs et regroupe les deux ob-
servations et/ou l’observation et la classe les plus proches. Les
itérations se poursuivent et regroupent peu à peu, de manière
ascendante, les observations et les classes jusqu’à l’itération
finale où toutes les observations sont rangées dans une classe
unique, comme illustré par l’arbre de classification de la figure 1.
Entre le bas de l’arbre et son sommet, une coupure de l’arbre défi-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

nit une partition de classes que l’on nomme aussi classification.


Deux critères permettent d’apprécier la qualité d’une classifica-
tion : l’homogénéité des classes et la séparation des classes. On
se doute que les statisticiens ont su donner à ces deux critères
des définitions permettant de les calculer rigoureusement. En
conséquence, il est possible, pour choisir à quel niveau couper
l’arbre de classification, de prendre appui sur l’évolution de ces
deux indicateurs au fur et à mesure des itérations de regroupe-
ment des observations.

À l’issue d’une analyse factorielle, ACP et ACM, les observa-


tions sont connues par leurs coordonnées sur les axes d’inertie.
Ces coordonnées factorielles définissent un nouveau tableau de
mesures que l’on peut traiter à l’aide d’une CAH. Aux tâtonne-
ments et aux approximations d’une typologie faite « à la main » et
« à vue d’œil » à partir des mappings, on peut ainsi substituer une
typologie rigoureuse et précise.

CONCLUSION
Aucun chercheur ou chargé d’étude dans le domaine du ma-
338 nagement, comme dans bien d’autres domaines, ne devrait au-
jourd’hui ignorer les incomparables propriétés des méthodes
statistiques multidimensionnelles, pour le moins celles qui ap-
partiennent aux méthodes d’analyse des données de première
génération. Il importe d’avoir en tête et de comprendre (1) que
ce sont des méthodes, comme les véhicules 4x4, qui « passent
partout » et que l’on utilise « partout » parce que (2) ce sont des
méthodes descriptives (3) qui permettent de décrire des objets
multidimensionnels « invisibles à l’œil » et (4) de les décrire « ob-
jectivement ». Comprendre ces quatre points est une condition
nécessaire à la mobilisation à bon escient de ces méthodes.
Leur mise en œuvre effective demande un effort complémen-
taire. Mais les progrès de l’ergonomie des logiciels disponibles
pour cette mise en œuvre, et les orientations bibliographiques
conseillées ci-après dans les références pour en savoir plus,
rendent cette mise en œuvre accessible à tous. Le logiciel Le
Sphinx, à la disposition des doctorants de DBA, est l’outil qui
s’impose pour franchir cette dernière étape.
L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

Références citées
Fénelon, J.-P. (1981), Qu’est-ce que l’analyse des données ?, Paris,
Éditions Lefonen.
Volle, M. (1981), Analyse des données, 2e édition, Paris, Économica.

Références pour en savoir plus


Escofier, B. & Pages, J. (2008), Analyses factorielles simples et multiples,
objectifs, méthodes et interprétations, 4 e édition, Paris, Dunod.
Une présentation de base des analyses factorielles qui combine
remarquablement rigueur et accessibilité pour le plus grand
nombre de lecteurs.

Husson, F., Lé, S. & Pages, J. (2009), Analyse de données avec R,


Presses Universitaires de Rennes.
Avec la même alliance réussie de rigueur, de clarté et d’acces-
sibilité pour le plus grand nombre de lecteurs, on trouvera dans
cette référence, outre la présentation des analyses factorielles,
un exposé sur la classification automatique et, en particulier, sur
la CAH.

Lebart, L., Piron, M. & Morineau, A. (2006), Statistique exploratoire 339


multidimensionnelle : visualisation et inférence en fouilles de données,
4 e édition, Paris, Dunod.
Pour aller encore plus loin dans les fondements mathématiques
et statistiques des méthodes exploratoires multidimension-
nelles.

Moscarola, J. (2018), Faire parler les données : méthodologies


quantitatives et qualitatives, Caen, Editions EMS, coll. « Business
Science Institute ».
Un ouvrage désormais incontournable pour les doctorants de
DBA en matière de méthodologie de la recherche qui permet de
resituer les méthodes statistiques présentées dans ce chapitre
parmi l’ensemble des autres méthodes, quantitatives et qualita-
tives, qui sont à leur disposition pour leurs recherches docto-
rales.
CHAPITRE 19.
Visualisation de données et infographie
dynamique : le logiciel Sphinx

Jean Moscarola

Résumé

Les méthodes de l’infographie et de la visualisation de don-


nées sont présentées et illustrées par trois exemples réalisés
avec DataViv, le service web de Sphinx. Ces exemples sont
340
développés sur le site compagnon https://faireparlerles-
donnees.blog/les-techniques/datavisualisation/. Leur intérêt
pour la recherche est enfin discuté.

Mots-clés : analyse de données, données graphiques, ta-


bleau de bord, communication.

Les méthodes de recherche du DBA


Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

“Excellence in statistical graphics consists of complex ideas communi-


cated with clarity, precision, and efficiency. Graphics reveal data.”
Edward R. Tufte

INTRODUCTION
Les connaissances produites en sciences sociales se situent à
l’articulation entre le monde des idées et celui des faits, entre
théories et observations empiriques. Au cœur de ce proces-
sus, les données fondent les conclusions du chercheur autant
qu’elles l’exposent à la critique de ses pairs. Cette force de la
démarche scientifique peut devenir une faiblesse au moment
d’en communiquer les résultats. En effet, l’exigence de rigueur
dans l’exposé des méthodes utilisées pour faire parler les don-
nées ou réfuter une théorie n’est pas toujours compatible avec
les impératifs d’une communication efficace. Le faible impact
des recherches académiques (Kalika et al., 2016) peut s’expliquer
par cette difficulté.

L’infographie et la visualisation des données sont des techniques


de plus en plus utilisées par les journalistes et les consultants.
Leur intégration dans les outils logiciels dont se servent les cher- 341
cheurs pour analyser des données qualitatives ou quantitatives
présente une opportunité de prolonger le travail de recherche
par la mise en forme d’une communication plus efficace.

Après avoir rappelé la nature des techniques, nous examinerons


leur contribution à la production de connaissance tant du point
de vue de l’efficacité de la communication (storytelling) que de
celui du processus de création connaissances proprement dit
par exemple, par la théorie enracinée et l’exposition à la critique
(réfutation). Ces possibilités seront illustrées par des exemples
mis en œuvre avec DataViv, le service web de datavisualisation1
proposé par Sphinx.

1. C’est l’expression utilisée dans le jargon technique. On parle aussi « d’une datavi-
sualisation » ou « d’une infographie » pour qualifier les résultats obtenus par ces
techniques.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

1. LES TECHNIQUES : INFOGRAPHIE,


DATAVISUALISATION ET INTERACTIVITÉ
Le sens des termes « Infographie » et « Datavisualisation » sont
assez voisins. Ils ont en commun l’image et la perception visuelle
présentées comme complément ou alternative à la communica-
tion scripturale de textes éventuellement illustrés. Ils mettent
chacun l’accent sur l’information considérée comme une forme
(graphie) ou un contenu (donnée). Ils reposent sur des tech-
niques informatiques pour les mises en forme (images, icônes,
graphies), des techniques statistiques pour transformer les
données, des techniques de communication et de journalisme
pour raconter une histoire et enfin des sciences du design et de
la cognition pour capter l’attention.

1.1. Infographie
L’infographie définit les techniques informatiques utilisées par
les graphistes. Par extension, une infographie est une infor-
mation présentée grâce à ces techniques. On passe ainsi des
342 techniques aux contenus. De nombreuses études (Borkin et al.,
2013) ont montré l’impact des propriétés infographiques d’un
message sur sa perception, sa mémorisation et sa compréhen-
sion.

L’infographie a une fonction esthétique. Elle agit sur l’attention


grâce à la polysémie de l’image, mais elle est aussi une ressource
pour l’exposé rationnel de conceptions organisées, plans, sché-
mas modèles à l’instar des cartes cognitives (Buzan & Griffiths,
2011).

Pour Dunleavy (2015), une bonne infographie est le gage d’une


communication maîtrisée dans son objectif, son style, ses
preuves et son format. Il convient pour cela d’équilibrer la forme
apportée par les techniques graphiques et le fond qui repose sur
l’information et les données. Pour Krum (2013) l’infographie est
aussi une réponse à la surcharge d’information. Il la présente
comme un support du storytelling. Lorsque l’histoire repose sur
des données, l’infographie met les techniques graphiques au
service des la visualisation des données.
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

1.2. Datavisualisation
La visualisation des données a des origines anciennes que
Friendly (2017) fait remonter aux premiers cartographes. Elle
connaît son âge d’or avec l’essor de la statistique à la fin du XIXe
pour connaître une renaissance avec l’informatique multimé-
dia. Elle se distingue des états comptables, bien plus anciens,
par l’effort de présentation visant à donner du sens en synthéti-
sant, comparant et distinguant. Plus qu’une simple restitution,
Few (2014) la définit comme un art et une science. Elle est une
branche de la statistique descriptive et un outil de stimulation
dans l’esprit de la théorie enracinée (Walsh, 2015). Son but est de
transmettre des idées de manière efficace en associant formes
esthétiques et fonctionnelles pour donner un aperçu de don-
nées éparses ou complexes en faisant percevoir l’essentiel de
leur contenu. Ainsi les infographies doivent trouver l’équilibre
entre la forme et la fonction, pour atteindre l’objectif principal de
la visualisation des données – communiquer des informations.

Des exemples de cet « art statistique » sont produits dans les très
beaux ouvrages2 de Tufte (2001) : comment exposer les données
en une seule vue représentant leur singularité, leur structure ou
343
leur évolution. Ces représentations bénéficient des apports de
la statistique exploratoire et de l’analyse de données multidi-
mensionnelle (Tukey, 1977) qui permettent de réaliser sélections
et synthèses, préalablement à la mise en scène des données.

En France, Bertin (1973) avec son œuvre, Sémiologie graphique.


Les diagrammes, les réseaux, les cartes, donne à la visualisation des
données ses fondements théoriques et ses règles pratiques qui
la constituent. Il a considérablement fait évoluer cette discipline
(Palsky, 2017). En reprenant le schéma de Ferdinand de Saussure
(1857-1913), il définit un langage visuel dont les graphiques sont
les signifiants et les informations les signifiés3. L’efficacité de la
communication est la priorité : donner une représentation pré-
cise et complète en produisant des formes perceptibles dans
l’instant. Cela implique le respect de règles de construction

2. Ces ouvrages ont été écrits comme suite à des cours de statistiques destinés à
des journalistes.
3. Ces notions sont au centre du cours de linguistique générale rédigé par des collè-
gues de Saussure après sa mort.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

(analyse de données), de lisibilité (densité des symboles, seuils


de lecture) et la nécessité d’intégrer le lecteur au processus
(convention graphique couleur…).

Il est enfin précurseur en introduisant la notion de graphique


dynamique « C’est la mobilité interne de l’image qui caractérise le
graphique moderne. On ne “dessine” plus un graphique une fois pour
toutes. On le “construit” et on le reconstruit (on le manipule) jusqu’au
moment où toutes les relations qu’il recèle ont été perçues » (Bertin,
cité dans Palsky, 2017). Cet intérêt accordé aux systèmes de rela-
tions trouve son accomplissement avec l’interactivité des tech-
nologies que nous allons présenter.

1.3. Interactivité : infographie dynamique et


visualisation de données interactives
La généralisation des services web fait entrer l’interactivité
dans le langage de l’infographie et de la data visualisation. Cette
technique longtemps réservée aux concepteurs pour la mise au
point des supports de communication papier est désormais ac-
344 cessible aux lecteurs d’un service web. Ils peuvent interagir avec
ce qu’ils voient pour approfondir à la manière de l’hypertexte ou
simuler en adaptant l’infographie qui leur est présentée.

Cette possibilité modifie le rapport à la connaissance et le sta-


tut de ses supports qui deviennent ainsi immédiatement inter-
rogeables et discutables, flexibles, mais volatiles aussi4. Elles
sont une opportunité pour le chercheur et la communauté scien-
tifique.

1.4. Communication visuelle et connaissances


scientifiques
Les sciences de la nature sont fortement ancrées sur les repré-
sentations imagées du monde qu’elles décrivent et cherchent à
comprendre. Dessins, photographies, spectrographies, images

4. Quelle évolution, des tables de loi gravées immuablement dans le marbre, aux
énoncés présents sur le Web modulables au point d’en produire des versions aus-
si diverses que la diversité de ses lecteurs.
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

de synthèse, la connaissance même la plus abstraite est mise en


images à partir des modèles qui permettent de les concevoir5.

Il en va différemment en sciences sociales où les représenta-


tions graphiques sont plus rares et moins valorisées que les in-
dications chiffrées indiquant la qualité d’un modèle ou les dis-
cours élaborés à l’appui d’une interprétation conceptuelle. Les
diagrammes sont utilisés pour représenter systèmes, modèles
ou processus, mais les tableaux et les chiffres sont souvent pré-
férés aux graphiques. Comme si la connaissance était d’autant
plus sérieuse sans illustrations. Les consultants et les journa-
listes au contraire savent faire appel aux infographies et à la data
visualisation pour capter l’attention de leurs interlocuteurs et
les convaincre.

Et pourtant le chercheur est sensé se distinguer par la clarté de


ses énoncés, l’explicitation de ses sources, le partage de ses
données et l’acceptation de la critique. Une nouvelle génération
de logiciels s’appuyant sur des services web permet de mieux
satisfaire ces exigences en utilisant infographie, data visualisa-
tion et interactivité, comme nous allons le montrer avec le ser-
vice de Datavisualisation proposé par Sphinx.
345

1.5. Outils : Sphinx et DataViv


Les logiciels Sphinx (Ganassali, 2015 ; Boughzala, Hervé &
Moscarola, 2014) offrent un ensemble de ressources de visua-
lisation de données comportant des fonctions statistiques,
lexicales, sémantiques et graphiques. Outre les apports de la
visualisation graphique, la nouveauté réside dans le fait que les
analyses proposées par le chercheur sont interrogeables par le
lecteur grâce à l’interactivité que le web autorise. Il peut ainsi
préciser sa compréhension en revenant aux données, ce qui est
particulièrement utile pour l’analyse de corpus, pour tester la
sensibilité des modèles par simulation, ou pour trianguler dans
le cas d’approches mixtes.

5. On sait montrer les trous noirs sans avoir eu encore l’occasion d’isoler la matière
qui les compose.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

2. LES LANGAGES : USAGES ET EXEMPLES AVEC


SPHINX
Même si le but d’une recherche scientifique est d’apporter
de nouvelles connaissances il peut être utile de les introduire
comme une histoire 6. Non pas l’histoire de la recherche et de
sa progression, mais l’histoire qui situe les résultats obtenus
par rapport à leurs causes et à leurs conséquences. Kosara et
Mackinlay (2013) proposent que ces étapes s’appuient sur la vi-
sualisation des données dont l’aspect graphique ancre la com-
préhension et la mémorisation (Bateman et al., 2010) et que l’in-
teractivité permet d’interroger et de discuter (Moscarola, 2018).

Des données brutes aux éléments visuels, la mise en scène


des données repose sur des méthodes et techniques que nous
présentons dans les exemples qui suivent. Ils sont plus abon-
damment développés sur le site associé (https://faireparlerles-
donnees.blog/les-techniques/datavisualisation/) auquel il est
nécessaire de se référer pour faire l’expérience de l’interactivité
et en comprendre l’efficacité.

346
2.1. Présenter des mesures, établir des relations
Sur la base d’un questionnaire, le chercheur (Boughzala, 2010)
calcule les indicateurs d’un modèle classique en système d’in-
formation. L’infographie de la figure 1 présente le niveau de ces
critères7 et leur distribution. Icônes et couleurs ancrent la per-
ception. En cliquant sur les histogrammes, on constate immé-
diatement que tous ces critères sont reliés. Les filtres situés en
haut à gauche permettent de voir comment les résultats varient
selon le statut des répondants (Acheteurs ou Fournisseurs).

L’infographie de la figure 2 teste le modèle explicatif de l’adop-


tion du système d’information. Sa représentation visuelle est
complétée par les résultats d’une régression linéaire multiple.
L’ajustement du modèle est assez bon et montre que l’utilité per-
çue est le critère qui a le plus d’influence sur l’adoption. Grâce

6. Au sens du storytelling comme technique de communication (Salmon, 2008).


7. Ces valeurs sont établies, conformément à la théorie de la mesure. Chaque critère
repose sur des batteries d’échelles qui définissent les concepts du modèle.
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

à l’interactivité 8 on constate que le modèle est mieux adapté à la


strate des acheteurs…

Figure 1. Mesurer : les critères d’adoption d’un


système d’information pour les achats publics

347
Figure 2. Expliquer : test du modèle de l’adoption

8. Le coefficient de corrélation multiple passe de 0,60 à 0,70 et le poids de la confiance


diminue.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

2.2. Focaliser, hiérarchiser, synthétiser


Considérons l’exemple d’une étude destinée à éclairer des choix
pour le développement d’une région touristique. Le question-
naire décrit les activités, attentes et satisfaction de touristes
présents dans différents types d’hébergement.

Une première vue (Figure 3) présente les informations relatives


aux séjours. Le graphisme attire l’attention sur sa durée et les
dépenses effectuées. L’identité des touristes, leurs activités et
leurs attentes sont présentées de manière hiérarchisée. Enfin
l’intention de retour donne une idée de la satisfaction. Mais c’est
l’interactivité de cette data visualisation qui en fait l’intérêt. En
cliquant sur un mode d’hébergement, on voit varier les infor-
mations caractérisant ceux qui le fréquentent. Par exemple les
patrons et indépendants sont les plus nombreux à l’hôtel où les
séjours sont les plus courts et la dépense la plus élevée, les sa-
lariés en camping séjournent plus longtemps, mais dépensent
moins…

Selon son intérêt ou sa curiosité, le lecteur peut ainsi découvrir


la spécificité de chaque hébergement.
348

Figure 3. Rapprocher focaliser : tableau de bord


d’une population touristique
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Le nombre élevé d’items décrivant les vacances idéales rend


leur perception compliquée. On y remédie en construisant une
typologie 9 qui permet de distinguer trois types de touristes, les
Consommateurs, les Paisibles, les Sportifs. Cet effort de sim-
plification associé à la recherche d’éléments distinctifs per-
met de produire une synthèse indiquant les seuls éléments qui
distinguent les hébergements les uns par rapport aux autres10
(Figure 4). La carte associée11 met en évidence l’opposition nette
entre Hôtel et Camping dont les éléments caractéristiques sont
nettement différenciés (sociologie, activité, type d’attentes)…
Grâce à l’interactivité, on peut vérifier si ces propriétés sont
stables selon la zone géographique considérée.

Figure 4. Synthétiser, distinguer : positionnement


des modes d’hébergements

349

2.3. Explorer des corpus, identifier des thématiques


Infographie et data visualisation ne sont pas réservées aux don-
nées quantitatives. Associées aux ressources de l’analyse lexi-
cale, sémantique et de la navigation hypertextuelle elles sont

9. Par la méthode des k-means qui permet de regrouper les répondants selon la si-
milarité de leurs profils.
10. Les éléments spécifiques de chaque type d’hébergement sont sélectionnés par
des tests du X 2 (khi-deux).
11. Établie grâce à une analyse factorielle des correspondances multiples.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

très utiles pour l’analyse d’interviews, de documents ou de ré-


ponses ouvertes dans les enquêtes.

Par exemple dans la phase exploratoire d’une recherche visant


à situer les usages de la certification en Afrique12, les nuages
de mots de la figure 5 donnent une idée de l’influence exercée
par les questions du chercheur. La taille des mots visualise leur
fréquence d’usage. Grâce à l’interactivité, en cliquant sur les
mots des questions on voit comment ceux-ci se reflètent dans le
contenu des réponses.

Figure 5. Résumé par les mots-clés : l’influence des


questions sur les réponses

350

La figure 6 indique les principales formes grammaticales13


contenues dans les réponses. Le lien interactif avec le nuage
des mots fait ressortir les associations lexicales, précisées par
le verbatim correspondant qui apparaît en cliquant sur les mots.
À la manière de la lecture flottante (Bardin, 1996 ; Moscarola,
2018) le chercheur découvre ainsi son corpus et les citations qu’il
pourra reprendre. Il peut l’aborder globalement ou entretien par
entretien.

12. Ouattara, doctorant Business Science Institute, recherche en cours en 2018, le


corpus est constitué de 37 entretiens non directifs. Un autre exemple tiré de la
thèse de Sfeir (2016) est disponible sur le site.
13. Obtenue grâce à l’analyse morphosyntaxique (Boughzala, 2014).
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Figure 6. Explorer, découvrir : naviguer dans le corpus à la recherche de verbatim

351
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Enfin, en mobilisant l’analyse de données textuelles une procé-


dure de classification14 permet de regrouper les réponses selon
leur proximité lexicale. On obtient ainsi une typologie caractéri-
sée par les univers lexicaux représentés dans la figure 7. Ils ré-
vèlent les thèmes développés et permettent de caractériser les
répondants. À l’analyste de trouver la bonne interprétation pour
définir et nommer ces thèmes. La possibilité de faire apparaître
le verbatim associé aux mots de chaque classe l’aide dans ce
travail et permet au lecteur de contrôler les interprétations du
chercheur15.

Figure 7. Synthétiser et interpréter : découvrir les


thématiques

352

3. PORTÉE ET LIMITES DE LA VISUALISATION DES


DONNÉES
Ces exemples conduisent à plusieurs types de commentaires
selon que l’on considère le point de vue du chercheur qui conçoit
la mise en scène de ses données, celui du lecteur qui en prend
connaissance, ou plus généralement du point de vue de la quali-
té et de l’impact des connaissances produites.

14. Classification hiérarchique descendante fondée sur l’analyse factorielle des cor-


respondances (Boughzala, 2014).
15. Seules les méthodes de visualisation de données permettent de rendre ainsi
compte du travail d’interprétation en l’exposant à la critique du lecteur. Un autre
exemple tiré d’une thèse de DBA (Sfeir & Lebraty, 2016) est disponible sur le site.
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

3.1. Le travail du chercheur


Tout ceci ne peut se concevoir sans logiciels. Le chercheur
doit avoir la capacité de les utiliser et de les contrôler, car ils
affectent aussi la manière de décrire le monde ou de l’expliquer.
Ces moyens sont désormais très accessibles. Ils n’apportent
rien de nouveau sur le fond des techniques d’analyses statis-
tiques ou lexicales, mais permettent de les mettre en œuvre de
manière infiniment plus rapide, flexible et efficace. Ce change-
ment se révèle à l’écran16. La couleur, le graphisme, l’image et
l’interactivité deviennent des moyens d’investigation incompa-
rables en mobilisant un spectre bien plus large de nos capacités
cognitives. Ainsi les couleurs dynamiques variant selon les va-
leurs, ou les graphes visualisant des relations, facilitent l’obser-
vation des données en allant à l’essentiel. Notamment pour faire
ressortir dans l’examen de grands tableaux les données statisti-
quement significatives ou signaler les évolutions. Des exemples
sont fournis sur le site. La possibilité de disposer en vis-à-vis
différents éléments dans un tableau de bord donne une vision
globale en organisant un raisonnement ou en facilitant des com-
paraisons… Enfin l’interactivité fait percevoir les liens entre les 353
données, éclaire la sensibilité des modèles ou permet d’explorer
les corpus à la recherche de verbatim ou de synthèse. Cette per-
ception expérientielle étend les possibilités de la triangulation.
Elle peut aussi révéler des interprétations erronées ou en suggé-
rer de nouvelles. Ainsi le rapport du chercheur aux données se
trouve modifié dans le sens de la théorie enracinée pour laquelle
Walsh (2015) et Kniggle et Cope (2006) montrent que la data vi-
sualisation permet ainsi d’intégrer les données qualitatives et
quantitatives. Demeure le risque que présente l’abus de toute
technologie. Lorsque leur usage devient la finalité (Bateman et
al., 2010 ; Kosara & Mackinlay, 2013) le chercheur peut perdre du
temps en jouant avec la mise en forme ou se perdre dans les simu-
lations au détriment de ce qu’il veut communiquer. Ce n’est pas
la multiplication des vues qui fait la qualité des connaissances
produites, mais la simplicité de l’histoire qu’elles racontent.

16. Lorsque j’ai fait ma thèse il fallait des heures avant d’obtenir le précieux listing et
je me souviens de mon scepticisme lorsque la couleur est apparue sur les écrans
d’ordinateurs. À qui cela pourrait-il servir !
A n a l y s e r l e s d o n n é e s d u t e r ra i n

3.2. Le point de vue du lecteur


Techniques de communication, l’infographie et la data visualisa-
tion s’adressent d’abord au destinataire de la recherche et de se
fait contribuent à son impact et à la diffusion des connaissances.

Dans une conception stricte de la démarche scientifique, seule


la consistance des résultats compte : justifications statistiques
ou illustrations par du verbatim. Mais pour que l’exercice de la
critique qui distingue l’approche scientifique puisse s’exercer, il
faut que les résultats soient clairement mis en évidence, perçus
et compris. L’infographie y contribue en faisant ressortir l’essen-
tiel au risque peut-être de trop simplifier ou d’abuser les lecteurs
par des effets graphiques. Mais la data visualisation et l’interac-
tivité compensent ce risque en donnant la capacité au lecteur de
revenir aux données ou de changer les points de vue. Il peut ainsi
exercer son esprit critique ou poursuivre sa propre curiosité.

CONCLUSION
Il faut se référer au site compagnon de ce chapitre pour faire
354 l’expérience de l’effet de l’interactivité sur la compréhension
des exemples présentés. C’est le principal obstacle pour une
communauté scientifique qui privilégie encore le papier comme
support de la communication. La littérature même sous ses
formes électroniques continue de privilégier les codes de l’écrit
imprimé laissant peu de place aux formes graphiques colorées,
imagées, animées ou interactives. Et pourtant, les pratiques de
recherche ont complètement intégré l’internet et l’ordinateur,
mais la tradition continue d’imposer des normes de communi-
cations d’une autre époque. Il ne s’agit pas ici d’en discuter les
raisons, mais d’inviter les chercheurs à profiter des ressources
que nous avons présentées pour mieux comprendre leurs don-
nées et mieux communiquer ce qu’elles nous apprennent. Plus
que d’autres les managers-chercheurs du DBA devraient pou-
voir trouver le bon compromis entre les impératifs de la connais-
sance scientifique et l’utilité de la communication. Ils peuvent
ainsi contribuer à augmenter l’impact des recherches en gestion
et à faire évoluer les conventions et usages de notre communau-
té scientifique.
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Références citées
Bardin, L. (1996), L’analyse de contenu, 8 e édition, Paris, PUF.
Bateman, S., Mandryk, R.L., Gutwin, C., Genest, A., McDine,
D. & Brooks, C. (2010), Useful junk?: The effects of visual
embellishment on comprehension and memorability of charts,
Proceedings of the SIGCHI Conference on Human Factors in
Computing Systems, ACM, p. 2573-2582.
Bertin, J. (1973), Sémiologie graphique. Les diagrammes, les réseaux, les
cartes, Paris/La Haye, Mouton, Paris, Gauthier-Villars.
Borkin, M., Vo, A.A., Bylinskii, Z., Isola, P., Sunkavalli, A., Oliva, A &
Pfister, H. (2013), What makes a visualization memorable?, IEEE
Transactions on Visualization and Computer Graphics, vol. 19, no 12,
p. 2306-2315.
Boughzala, Y. (2010), Rôle de la confiance dans l’adoption des systèmes
d’information, Thèse, Université de Savoie.
Boughzala, Y., Moscarola, J. & Hervé, M. (2014), Sphinx Quali : un
nouvel outil d’analyses textuelles et sémantiques, in E., Née, J.-
M., Daube, M., Valette & S., Fleury (dir.), JADT 2014 : 12es Journées
Internationales d’Analyse Statistique des Données Textuelles, 3-6 juin,
Paris, p. 91-103.
Buzan, T. & Griffiths, C. (2011), Le mind mapping au service du manager,
Paris, Eyrolles. 355
Dunleavy, D. (2015), Data visualization and infographics, Visual
Communication Quarterly, vol. 22, no 1, p. 66-68.
Few, S. (2014), Data visualization for human perception, in
M. Soegaard, R. Dam (eds.), The Encyclopedia of Human-
Computer Interaction, 2nd edition, Aarhus, The Interaction Design
Foundation.
Friedman, V. (2008), Data Visualization and Infographics, Smashing
Magazine. Disponible à : http://www.smashingmagazine.
com/2008/01/14/monday-inspiration-data-visualization-and-
infographics/
Friendly, M. (2017), A Brief History of Data Visualization, Springer-
Verlag.
Ganassali, S. (2015), Enquête et analyse de données avec Sphinx,
Pearson.
Hullman, J. & Diakopoulos, N. (2011), Visualization Rhetoric:
Framing effects in narrative visualization, IEEE Transactions on
Visualization and Computer Graphics, vol. 17, no 12, p. 2231-2240.
Kalika, M., Liarte, S. & Moscorola, J. (2016), Enquête FNEGE sur
l’impact de la recherche en management, Paris, FNEGE.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Kniggle, L. & Cope, M. (2006), Grounded visualization: Integrating


the analysis of qualitative and quantitative data through
grounded theory and visualization, Environment and Planning A:
Economy and Space, vol. 38, no 11, p. 2021-2037.
Kosara, R. & MacKinlay, J. (2013), Storytelling: The next step for
visualization, Computer, vol. 46, no 5, p. 44-50.
Krum, R. (2013), Cool Infographics: Effective Communication with Data
Visualization and Design, Wiley.
Moscarola, J. (2018), Faire parler les données : méthodologies
quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business
Sciences Institute ».
Moscarola, B. & Moscarola, J. (2018), ADT et visualisation, pour
une nouvelle lecture des corpus. Les débats de 2e tour des
Présidentielles (1974-2017), JADT 2018 : 12es Journées Internationales
d’Analyse Statistique des Données Textuelles, 12-15 juin, Rome, Italie.
Palsky, G. (2017), La sémiologie graphique de Jacques Bertin a cinquante
ans, Visioncarto.
Robertson, G., Fernandez, R., Fisher, D. & Stasko, J. (2008),
Effectiveness of animation in trend visualization, IEEE
Transactions on Visualization and Computer Graphics, vol. 14, no 6,
p. 1325-1332.
356 Salmon C. (2008), Storrytelling, Paris, La Découverte.
Sfeir, R. & Lebraty, J.-F. (2016), Communication de PME en situation
de crise financière, Bulletin de la Société d’Etudes Economiques et
Sociales, vol. 74, n° 1, p. 39-50.
Tufte, E. (2001), The Visual Display of Quantitative Information, 2nd
edition, Cheshire, CT, Graphics Press.
Tukey, J. (1977), Exploratory Data Analysis, Boston, MA, Addison-
Wesley.
Walsh, I. (2015), Découvrir de nouvelles théories, Caen, Éditions EMS,
coll. « Business Sciences Institute ».

Références pour en savoir plus


Moscarola, J. (2018), Faire parler les données : méthodologies
quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business
Sciences Institute ».
Pour approfondir les méthodes d’analyse de données qualitatives
et quantitatives. Cet ouvrage s’appuie sur de nombreux exemples
illustrés dans le site compagnon https://faireparlerlesdonnees.
blog/
Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Tufte, E. (2001), The Visual Display of Quantitative Information, 2nd


edition, Cheshire, CT, Graphics Press.
Ce beau livre explore le pouvoir explicatif de l’image et donne de
nombreux exemples d’une époque où les graphismes étaient ma-
nuels. C’est une source d’inspiration pour l’usage des moyens
contemporains.

357
CHAPITRE 20.
La méta-analyse

Christophe Fournier

Résumé

L’objectif de ce chapitre est de présenter la technique de géné-


ralisation empirique des résultats qu’est la méta-analyse. Si
le processus de mise en œuvre de cette méthode est abordé,
l’essentiel des propos porte sur les conditions d’utilisation
des résultats, les apports et les limites de la méta-analyse 358
pour un travail de recherche, notamment la réalisation d’une
thèse de DBA.

Mots-clés : méta-analyse, généralisation empirique de résul-


tats, réplication, variables modératrices, universalité.

Les méthodes de recherche du DBA


La méta-analyse

« La Science a besoin de réplications, or les rédacteurs en chef de revues


n’aiment pas les réplications. »
Pr Larry Chonko (février 2006, Baylor University)

INTRODUCTION
La citation en exergue est la traduction d’une discussion, que j’ai
eue avec Larry Chonko, professeur, en 2006, à Baylor University,
aujourd’hui en poste à l’Université du Texas à Arlington, titulaire
de la chaire The Thomas McMahon. Le Professeur Chonko, en
plus d’être un chercheur extrêmement prolifique, avait exercé
les fonctions de rédacteur en chef de la revue de référence dans
le domaine du management de la force de vente, à savoir The
Journal of Personal Selling & Sales Mangement.

Ce constat est corroboré par l’appel à contributions du Journal of


Business Research qui prévoit pour 2019 un numéro exclusivement
consacré à cette question de la réplication de recherches, le titre
de ce numéro spécial étant Corroborating Empirical Evidence from
Published Marketing Research1. L’introduction à cet appel est ainsi
formulée “Journals favor ‘originality’ over corroboration, which fosters
359
confidence, or a lack thereof, in previous evidence” (Nosek, Spies &
Motyl, 2012).

Dès les années 2000, les méta-analyses se sont multipliées


notamment dans le domaine du management et des sciences de
gestion. Depuis, le nombre de publications prenant appui sur
les résultats d’une méta-analyse ne cesse de progresser, ce qui
est logique compte tenu de la nature même de cette méthode,
destinée à synthétiser et généraliser des résultats empiriques de
recherche. L’objectif de cet article n’est pas de former le lecteur
à la réalisation d’une méta-analyse à proprement parler, mais
de mettre en lumière cette approche encore assez méconnue
des chercheurs en sciences sociales. Ainsi, les chercheurs-
managers de DBA pourront prendre appui sur les résultats d’une
méta-analyse dans le cadre de leur revue de littérature, pour
étayer et justifier une hypothèse, et seront en mesure, à l’issue

1. Référence du numéro spécial de Journal of Business Research, https://www.jour-


nals.elsevier.com/journal-of-business-research/call-for-papers/corrobora-
ting-empirical-evidence-from-published-marketing
A n a l y s e r l e s d o n n é e s d u t e r ra i n

du travail de recherche, de constater en quoi leurs résultats


peuvent alimenter, enrichir voire susciter d’autres recherches via
une méta-analyse.

Dans ce chapitre nous allons positionner la méta-analyse par


rapport aux autres méthodes de généralisation empiriques des
résultats avant de décrire la procédure proprement dite de cette
approche. Nous verrons ensuite la question des études non
publiées et de leur impact possible sur la fiabilité des résultats
avant de discuter des apports de cette méthode.

1. LA MÉTA-ANALYSE ET LES DIFFÉRENTES


MÉTHODES DE GÉNÉRALISATION DES RÉSULTATS
La méta-analyse est une des techniques de généralisation em-
pirique de résultats de recherche. D’autres méthodes existent,
à savoir, la revue classique de littérature, l’analyse de contenu
ou encore, l’exploration statistique de bases de données. Pour
des discussions approfondies et des exemples sur ces théma-
tiques, il est possible de se référer au numéro spécial de la revue
Marketing Science (1995), « Special issue on empirical generaliza-
360
tion in marketing » (Bass & Wind, 1995).

Au sens strict, une méta-analyse est une « analyse des analyses »


(Wolf, 1986). Pour Farley, Lehmann et Sawyer (1995, p. G37), c’est
une « alternative rigoureuse à l’état de l’art narratif qui caracté-
rise les tentatives menées pour comprendre l’abondante littéra-
ture de recherche ». Enfin pour Bass (1995, p. G7), cette approche
vise à « mettre en évidence la structure qui se répète par-delà
différentes circonstances et qui peut être décrite d’une manière
simple par des méthodes mathématiques ou graphiques ». On se
trouve donc clairement dans des recherches mobilisant des mé-
thodes quantitatives. Pour simplifier, une méta-analyse permet
de synthétiser les résultats obtenus dans le cadre de différentes
études (ou encore, analyse) et ainsi de pouvoir généraliser ce
résultat au travers d’une méthode rigoureuse permettant d’être
certain du résultat final obtenu (la méta-analyse).

Dans le cadre de leurs recherches, les scientifiques vont mener


une étude en respectant une certaine démarche scientifique
aboutissant à un résultat, c’est « l’analyse ». Pour être certain
La méta-analyse

que le résultat obtenu ne soit pas lié à la nature de l’échantillon


mobilisé, à des circonstances quelconques, ces études devraient
idéalement être multipliées, les résultats comparés les uns par
rapport aux autres, en menant une analyse de ces analyses : la
méta-analyse. Les conclusions d’une méta-analyse permettent
de connaître, avec une quasi-certitude, la force d’un résultat.
Dans le domaine du management, très souvent les études
portent sur des hypothèses mettant aux prises une relation
supposée entre deux concepts ou variables, fréquemment
mesurés de façon quantitative. La méta-analyse va permettre
de valider l’existence de cette relation et de quantifier l’intensité
d’une relation, au travers de la production d’un intervalle de
confiance. Un exemple est proposé dans le tableau 1.

Dans le cadre de la réalisation d’une thèse ou d’une recherche, la


méta-analyse est un outil précieux pour synthétiser les résultats
d’une littérature de plus en plus abondante. En effet, au fur et
à mesure du développement de travaux publiés en sciences de
gestion, il devient de plus en plus complexe et laborieux de dé-
velopper une vision globale des résultats publiés. S’appuyer sur
ceux d’une méta-analyse est ainsi un gain de temps conséquent
en accédant à un résultat global et fiable. 361

Tableau 1. Résultats de la méta-analyse sur la


relation « perception des rôles – satisfaction »
(traduit de Brown et Peterson, 1993)
Taille cumulée de
Nombre d’études

Corrélation de r

Corrélation de r

confiance de r

confiance de r
observé (95 %)
Intervalle de

Intervalle de

corrigé (95 %)
l’échantillon

Coefficient

Coefficient

Relations
observé

corrigé

Ambiguïté de rôle -.62<p -.75<p


15 2431 -.36 -.45
– satisfaction < – .10 < – .15
Conflit de rôle – -.62<p -.80<p
17 2641 -.33 -.42
satisfaction < – .04 < – .04
Clarté de rôle – .20 <p .24 <p
6 1153 .40 .49
satisfaction < .60 < .74
A n a l y s e r l e s d o n n é e s d u t e r ra i n

En sciences du management, la question de la généralisation des


résultats n’est pas le souci des seuls chercheurs. Ainsi, un consul-
tant, un responsable d’entreprise qui souhaite prendre des déci-
sions managériales à partir d’études scientifiques doit pouvoir
compter sur des résultats solides et valables en toute circonstance.
D’où encore une fois, la nécessité de s’appuyer, non pas sur un ré-
sultat d’étude, mais sur un ensemble de résultats, la méta-analyse
répond clairement à cet objectif : la collecte des informations.

Encadré 1. Les grandes étapes d’une méta-analyse


La mise en œuvre d’une méta-analyse compte six étapes. La première
vise à recueillir l’ensemble des travaux menés dans le domaine étu-
dié, les étapes 2, 3 et 4 sont des étapes « techniques », visant à prendre
un ensemble de dispositions pour être en mesure de comparer puis
d’agréger des résultats homogènes. Enfin les étapes 5 et 6 visent à
commenter et expliquer les résultats et si nécessaire à considérer de
nouvelles variables, dites modératrices.
Le processus général d’une méta-analyse :

362
La méta-analyse

Compte tenu de la nature même de la méta-analyse, il est né-


cessaire de collecter le maximum de travaux menés dans le
domaine considéré. Internet et les bases de données en ligne
constituent aujourd’hui des outils précieux facilitant grande-
ment cette étape, tant pour identifier l’existence des articles
que pour les collecter. À cela s’ajoute la facilité de contacter les
auteurs pour éventuellement obtenir les résultats d’une com-
munication dont les détails ne paraissent pas dans les actes
de colloque. Imaginons le chemin parcouru depuis les années
1980-1990, période durant laquelle les premières méta-analyses
ont été publiées. Malgré cela, demeure toujours la question des
études non publiées qui par définition échappent aux radars des
bases de données, nous y reviendrons ultérieurement. Pour me-
ner une méta-analyse, a minima il est nécessaire de disposer de
résultats de deux études et de considérer des travaux utilisant
les mêmes concepts, mais pas nécessairement les mêmes opé-
rationnalisations empiriques de ces concepts.

1.1. La correction de l’erreur d’échantillonnage


Pour comparer des résultats, il est impératif de les homogénéi- 363
ser, en corrigeant dans un premier temps, l’erreur d’échantillon-
nage. Il s’agit de voir quelle est la part de variance qui peut être
attribuée à de réelles différences observées dans la population
de celle qui relève de problèmes d’échantillonnage. Gommer ces
fluctuations n’est possible qu’à condition de disposer des corré-
lations inter-construits des variables observées et de la taille de
l’échantillon de chaque étude considérée. On calcule un coeffi-
cient de corrélation moyen pondéré : moyen car réalisé à partir de
corrélations obtenues pour chaque couple de variables au travers
des différentes études ; pondéré, car prennent en considération
les tailles des échantillons considérés. Bien entendu, au préa-
lable, il est nécessaire de procéder à la conversion des différents
résultats (t test, F…) sous forme de coefficient de corrélation.

1.2. La correction de l’erreur de mesure


Dans un grand nombre d’études menées en management les
concepts étudiés sont appréhendés au travers d’échelles d’at-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

titude, les échelles de Likert 2, notamment. Or, ces construits


sont imparfaitement mesurés, ce qui se traduit d’une part, par
des fiabilités différentes de 1 (coefficient alpha de Cronbach3 )
et d’autre part, du fait de différences de fiabilité d’une étude à
l’autre. Par conséquent, cela conduit, selon Hunter et al. (1982,
p. 54), à sous-estimer les relations et à rendre difficile l’agréga-
tion des données du fait de leur hétérogénéité. D’où la nécessité
de corriger ces résultats en suivant l’une de ces deux voies : soit
corriger chaque corrélation si l’on dispose systématiquement
des coefficients de fiabilité, soit réaliser la méta-analyse avec
les coefficients de corrélation publiés, et corriger ensuite globa-
lement le résultat obtenu en calculant un coefficient de fiabilité
moyen obtenu à partir des seuls coefficients disponibles.

1.3. La correction de l’erreur d’étendue


La quatrième étape du processus prend en considération l’erreur
d’étendue (dispersion des résultats), qui fluctue d’une étude à
une autre, et qui peut diminuer la qualité des résultats de la méta-
analyse. Cette correction, très rarement pris en compte dans les
méta-analyses exige de disposer de l’écart-type de l’indicateur
364
considéré (souvent l’écart-type de la corrélation) ce qui est trop
rarement le cas pour être systématiquement pris en compte.

1.4. L’analyse des résultats


Une fois l’ensemble de ces corrections effectuées, il est possible
d’analyser les résultats obtenus (Tableau 1). La généralisation
de résultats ne sera possible que si ces résultats sont globale-
ment homogènes. C’est l’aboutissement de la méta-analyse, le
processus est terminé. Si ces résultats sont hétérogènes, l’es-

2. L’échelle de Likert, destinée à mesurer l’attitude, permet au répondant d’exprimer


son degré d’accord ou de désaccord relatif à une proposition qui lui est faite. Par
exemple, indiquer votre degré d’accord (de pas du tout d’accord = 1 à totalement
d’accord = 7) avec la proposition suivante « le restaurant X propose des plats de
bonne qualité ». Ces échelles peuvent être utilisées à la fois sous sa forme no-
minale mais également sous une forme métrique avec toutes les qualités qui en
découlent (continuité, calcul de moyennes, corrélation…).
3. L’alpha de Cronbach, utilisé en psychométrie s’utilise dans le cadre de mesure de
construits avec des échelles d’attitude. Il permet de s’assurer de la cohérence in-
terne de l’échelle, il varie entre 0 et 1. C’est une sorte de coefficient de corrélation
multiple entre les différents items de l’échelle. Il doit être le plus élevé possible
(au-delà de 0,70 voire à 0,80) suivant que l’échelle est nouvelle ou a déjà été utilisée.
La méta-analyse

sence même de la méta-analyse vise à tenter d’expliquer cette


variance. Deux possibilités sont envisageables. Si dix études
au moins sont considérées sur une relation, il est nécessaire de
déterminer si une étude divergente ne permet pas d’expliquer
cette hétérogénéité. Cette première piste consiste donc à voir
si la suppression d’une étude, et d’une seule, ne permettrait pas
d’obtenir l’homogénéité des résultats permettant alors d’arrêter
le processus. Si tel n’est pas le cas, cela signifie que certes, la
relation existe, mais que son intensité fluctue en fonction de cer-
tains facteurs que l’on va tenter de déterminer en cherchant des
variables, qualifiées de modératrices, c’est la seconde piste.

1.5. La recherche de variables modératrices


Les variables modératrices sont la plupart du temps les variables
signalétiques telles que des variables sociodémographiques (le
genre, le niveau d’éducation…) même si toutes autres variables
descriptives de l’échantillon peuvent être considérées. Par
exemple, dans le domaine du management des commerciaux
il est possible de prendre en considération le type de vendeur
(B to B ou B to C), la nature de l’échantillon (commerciaux pro- 365
venant de la même entreprise ou de différentes entreprises…),
le niveau hiérarchique (commercial ou chef des ventes)…, ou
toutes autres variables pertinentes. Bien entendu, la prise en
compte de telle ou de telle autre variable ne sera possible que si
l’information est disponible dans toutes les études mobilisées.
Cette prise en compte de variables modératrices peut conduire,
non seulement à expliquer l’hétérogénéité de résultats, mais
aussi à suggérer des pistes de recherche.

Voici un exemple de prise en compte de variables modératrice


(Tableau 2). À partir de ce tableau, on voit par exemple que le
type de vendeur (industriel vs non industriel) impacte la relation
« ambiguïté de rôle – satisfaction », la relation étant plus forte
pour les commerciaux en B to B (industriel) que pour les autres
en B to C (non industriel). Différence significative également
pour cette relation selon que la satisfaction soit mesurée glo-
balement ou au travers de différentes facettes. Enfin, le fait que
les résultats de l’étude proviennent d’un échantillon constitué de
commerciaux provenant d’une même entreprise ou de plusieurs
A n a l y s e r l e s d o n n é e s d u t e r ra i n

n’impacte pas les résultats sur cette relation « ambiguïté de rôle


satisfaction ».

Tableau 2. Moyennes pondérées des corrélations


observées en fonction des modalités des variables
modératrices (traduit de Brown et Peterson, 1993)
Modérateur Ambiguïté de rôle – satisfaction
Vente produits techniques vs non -.39 vs – .32 (8 vs 6) *
techniques
Vente B to B vs B to C -.38 vs – .30 (11 vs 3)
Satisfaction mesurée globalement -.27 vs – .41 (5 vs 9) **
ou par facettes
Échantillon provenant d’une seule -.33 vs – .41 (10 vs 4)
entreprise vs multiples entreprises
*
Significatif p< .05 ; ** Significatif p<.01

2. LE FILE DRAWER PROBLEM OU LA


PROBLÉMATIQUE DES ÉTUDES NON PUBLIÉES
366
Une fois la méta-analyse réalisée, le chercheur est alors en
possession de résultats censés être très solides. Cependant,
on peut toujours se poser la question de la robustesse, et donc,
de la réfutation possible de ce résultat. Il est alors légitime de
s’interroger si, du fait de certaines circonstances, malgré les
nombreuses précautions méthodologiques prises, si les résultats
proposés sont réellement exacts. L’une de ces circonstances est
celle des études dites « au fond des tiroirs » (Rosenthal, 1979),
c’est-à-dire le problème des travaux non publiés (file drawer
problem, en anglais). Il convient ici de réaliser un détour par
la sociologie de la recherche, afin de décrire le fonctionnent
les revues scientifiques et de leurs rédacteurs en chef. Deux
problèmes se posent. Comme cela a été mentionné dans la
courte citation d’introduction de ce chapitre, les rédacteurs
en chef souhaitent, pour leurs lecteurs, en priorité, des études
portant sur des sujets innovants, mettant en jeu des concepts
nouveaux et des tests d’hypothèses originaux. Il est donc rare
de voir paraître des articles présentant les résultats d’une
simple réplication de recherche. Au mieux, on observe quelques
La méta-analyse

publications au titre évocateur « réplication et extension ». Par


conséquent, on peut se questionner sur l’existence de résultats
de recherche non publiés, « traînants » au fond des tiroirs de
chercheurs, car traitant de concepts déjà testés, déjà publiés
et ne répondant pas aux diktats de la nouveauté. La seconde
question, qui conduit au même constat, est liée à la soumission
de manuscrits ne présentant que peu d’hypothèses vérifiées et
donc peu de résultats significatifs. Même si en séminaires de
recherche est enseignée la problématique de la preuve et de
sa réfutation, et même s’il est clairement indiqué que l’absence
de lien statistiquement significatif dans une hypothèse est
en soit un résultat très intéressant, il en va tout autrement
lorsque l’on franchit le pas du processus d’évaluation d’un
manuscrit aux fins de publication dans une revue. Il n’est pas
rare qu’un manuscrit soit rejeté sous prétexte que le nombre
d’hypothèses invalidées est vraiment trop important et que par
conséquent on peut se questionner sur la démarche théorique
mobilisée, le cade méthodologique utilisé et surtout le manque
d’intérêt pour le lectorat… avec pour conséquence un refus
de publication du manuscrit. Soit potentiellement autant de
résultats non significatifs passés sous silence. Par conséquent,
la méta-analyse peut ne pas prendre en compte un nombre 367
plus ou moins important de travaux, qui pourraient infléchir
les résultats obtenus : ce qui pose un véritable problème !
D’où la suggestion de Rosenthal (1979) qui propose de calculer
le nombre d’études nécessaires, présentant un résultat non
significatif, pour remettre en cause les résultats de la méta-
analyse. Par exemple, Carrillat, Jaramillo et Mulki (2009), qui ont
réalisé une méta-analyse sur les conséquences de la qualité de
service, montrent qu’il faudrait, selon les relations considérées,
entre 195 et 2496 études non publiées, présentant une absence
de relation significative, pour mettre en doute les résultats de
leur méta-analyse. Dans ce cas, cela est assez peu probable !
Cette approche permet de se rassurer au sujet de la robustesse
du résultat obtenu au travers de la méta-analyse et de lever ainsi
le doute inhérent à ces fameuses études non publiées, stagnant
aux fonds de tiroirs poussiéreux des chercheurs !
A n a l y s e r l e s d o n n é e s d u t e r ra i n

CONCLUSION : APPORTS ET LIMITES D’UNE MÉTA-


ANALYSE
Comme nous venons de le voir, la méta-analyse est un excellent
outil pour synthétiser des résultats de recherche. Mettre en
œuvre une méta-analyse requiert des très bonnes connais-
sances, voire une expertise dans le domaine des statistiques ;
c’est l’étape la plus bloquante de nos jours, le développement
d’internet et des bases de données n’étant plus un véritable frein
pour collecter de façon quasi exhaustive les travaux, ceux pu-
bliés du moins. Par conséquent, dans le cadre d’une thèse de
DBA, il est surtout recommandé de considérer les résultats
d’une méta-analyse comme un élément majeur de la revue de
littérature permettant d’aider à la formulation d’hypothèses.
En effet, les résultats sont des points de départs de ce que l’on
connaît, mais également des manques, des écarts, « des trous »
qu’il serait souhaitable de combler, au travers notamment de la
recherche des variables modératrices. Enfin les résultats obte-
nus dans le cadre d’une thèse viennent à leur tour, alimenter les
bases de résultats permettant le moment venu de procéder à une
méta-analyse.
368
Références citées

Bass, F. & Wind, J. (1995), Introduction to the Special Issue:


Empirical generalizations in marketing, Marketing Science, vol. 14,
n° 3, p. G1-G5.
Brown, S.F. & Peterson, R.A. (1993), Antecedents and consequences
of salesperson, job satisfaction: Meta-analysis and assessment
of causal effects, Journal of Marketing Research, vol. 30, p. 63-77.
Farley, J., Lehmann, D. & Sawyer, A. (1995), Empirical marketing
generalization using meta-analysis, Marketing Science, vol. 14,
no 3, p. 36-46.
Fisher, C.D. & Gitelson, R. (1983), A meta-analysis of the correlates
of role conflict and ambiguity, Journal of Applied Psychology, vol.68,
no 2, p. 320-333.
Hermann, J.L. & Joseph, S. (1999), Discussion et commentaire,
compte rendu « généralisation empiriques », in B. Pras (dir.),
Faire de la recherche en marketing ?, Paris, Vuibert.
Hunter, J.E., Schmidt, F.L. & Jackson, G.B. (1982), Meta-analysis
Cumulating Research Findings Across Studies, Studying in
La méta-analyse

Organizations, Innovations in Methodology, Beverly Hills, Sage


Publications.
Jackson, S. & Schuller, R. (1985), A meta-analysis and conceptual
critique of research on role ambiguity and role conflict in work
system, Organizational Behavior and Human Process, vol. 36, p.16-78.
Nosek, B.A., Spies, J.R. & Motyl, M. (2012), Scientific utopia: II.
Restructuring incentives and practices to promote truth over
publishability, Perspectives on Psychological Science, vol. 7, no 6,
p. 615-631.
Rosenthal, R. (1979), The file drawer problem and tolerance for null
results, Psychological Bulletin, vol. 86, n° 3, p.638-641.
Wolf F. (1986), Meta-Analysis: Quantitative Methods for Research
Synthesis, Beverly Hills, Sage publications.

Références pour en savoir plus


Laroche, P. & Soulez, S. (2012), La méthodologie de la méta-analyse
en marketing, Recherche et applications en marketing, vol. 27, no 1,
p. 79-105.
Bien que dans le champ du marketing, cet article offre un magni-
fique panorama, en français, des apports et de la mise en œuvre
369
d’une méta-analyse, cet écrit est totalement valable dans les
autres domaines des sciences de gestion.

O’Boyle, E.H., Patel, P.C. & Gonzalez-Mulé, E. (2016), Employee


ownership and firm performance: A meta-analysis, Human
Resource Management Journal, vol. 26, no 4, p. 425-448.
Dans cet article est présenté un exemple de méta-analyse à la
frontière de la finance et de la gestion des relations humaines.
Grace à cet article, on voit clairement comment les résultats
d’une telle analyse débouchent sur des implications managé-
riales mais également théoriques.

Geyskens, I., Krishnan, R., Steenkamp, J.B. & Cunha, P.V. (2009), A
review and evaluation of meta-analysis practices in management
research, Journal of Management, vol. 35, no 2, p. 393-419.
Les auteurs font un point sur 69 méta-analyses réalisées en se
centrant sur le processus proprement dit de la méta-analyse et
le suivi des différentes étapes ? Cela donne une idée claire sur le
suivi technique du processus.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Johnson, J.S. & Jaramillo, F. (2017), Meta-analyses in sales


research, Journal of Personal Selling & Sales Management, vol. 37,
no 2, p. 134-152.
Ce papier propose une synthèse des apports des méta-analyses
réalisées dans le champ spécifique du management des com-
merciaux. Cela permet également de voir l’évolution de la re-
cherche dans ce champ du management.

370
CHAPITRE 21.
Outils et méthodes de représentation
conceptuelle et de créativité  :
l’apport des neurosciences

Gaëtan Mourmant

Résumé

Nous situons ce chapitre dans le cadre de l’utilisation de mé-


thodes qualitatives et quantitatives, notamment celles ayant 371
pour but de faire émerger des concepts et des théories. Plus
précisément, nous nous appuyons sur une synthèse de la litté-
rature sur la créativité et les neurosciences pour proposer des
outils de développement des compétences en conceptualisa-
tion. Nous retenons notamment l’importance des différents
stades de la créativité, l’adaptation du mode de pensée par
rapport aux spécificités de la tâche, les trois vues de l’atten-
tion (diffuse, concentrée et flexible) et quand les utiliser, le
rôle de l’attention interne et externe dans la maintenance de
représentations mentales complexes sur une longue période
de temps, le rôle de la méditation et finalement, cinq habitudes
des personnes très créatives. Enfin, nous ouvrons la discus-
sion sur le futur des approches méthodologiques au vu des
récentes avancées technologiques comme l’intelligence artifi-
cielle ou la représentation holographique de pensées.

Mots-clés : conceptualisation, méthodes de recherche,


neurosciences, créativité.

Les méthodes de recherche du DBA


A n a l y s e r l e s d o n n é e s d u t e r ra i n

INTRODUCTION
Quel que soit le type de recueil de données et d’analyse à entre-
prendre, développer ses compétences en conceptualisation est
essentiel pour la réussite d’une recherche ou d’un Doctorate in
Business Administration (DBA). Ces compétences permettent de
faire émerger des données les préoccupations des acteurs du
champ d’étude, les concepts centraux et complémentaires, ain-
si que les propositions et hypothèses permettant d’approfondir
la compréhension des relations entre les concepts. En d’autres
termes, cette conceptualisation permet de faire émerger une
théorie partielle ou complète à partir des données. Cette théo-
rie peut ensuite être utilisée pour comprendre et éclairer des
situations complexes. C’est l’un des objectifs principaux de la
recherche scientifique.

Dans ce chapitre, nous allons tout d’abord présenter quelques


méthodes liées à la conceptualisation, puis nous discuterons
des liens qui existent entre les processus de créativité et les neu-
rosciences. Notamment, quels sont les facteurs qui influencent
la créativité. Cette section sera suivie des implications pratiques
372 de ces résultats pour la conceptualisation. Finalement, nous
discuterons de quelques tendances qui se dessinent quant à
l’avenir de la conceptualisation et du rôle de notre cerveau dans
ce processus.

1. MÉTHODES LIÉES À LA CONCEPTUALISATION


Pour éclairer ce chapitre, nous allons sélectionner quelques
méthodes particulièrement liées à la conceptualisation. Cette
démarche s’inscrit dans la perspective de Walsh (2014) considé-
rant la théorie enracinée comme un « paradigme de recherche »
pouvant inclure des méthodes qualitatives et quantitatives. De
fait, nous allons inclure plusieurs méthodes dans ce paradigme.

Nous considérons ainsi la théorie enracinée (Grounded Theory


Methodology, en anglais) qui vise à faire émerger une théorie à
partir des données, en suivant un processus particulièrement
riche et précis (Glaser, 1978 ; Glaser & Strauss, 1967). Sans entrer
dans des débats qui n’ont pas leur place dans le présent chapitre
(Walsh et al., 2015), nous incluons aussi les méthodes d’analyse
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

descriptive qui n’ont pas pour visée première la conceptualisa-


tion, mais qui sont ouvertes à incorporer une conceptualisation
partielle ou totale lorsque les données s’y prêtent, par exemple
pour compléter un modèle conceptuel déjà existant dans la litté-
rature via une ou plusieurs études de cas (Eisenhardt, 1989 ; Yin,
2008).

Nous considérons aussi des techniques statistiques visant à


conceptualiser en réduisant le nombre de dimensions pour rendre
les données plus faciles à comprendre. Ces techniques sont par
exemple l’analyse en composantes principales (ACP), l’analyse
factorielle des correspondances (AFC) ou encore l’approche ty-
pologique (par exemple, classement, ou clustering, en anglais).
Ainsi, on peut statistiquement réduire des dizaines de variables
liées à des magasins à juste 2 ou 3 dimensions. Par exemple, des
dimensions comme le chiffre d’affaires, le nombre d’employés, la
surface, le profit et le budget marketing pourraient être agrégées
dans un indicateur reflétant l’importance du magasin.

Un autre groupe est composé de méthodes liées à la création de


modèles statistiques mesurant les liens de causalité entre les
variables d’un modèle. En plus des modèles quasi-expérimen- 373
taux basés sur un traitement fait sur un groupe que l’on compare
à un groupe contrôle (relativement difficile à mettre en place en
sciences de gestion), les autres modèles couramment utilisées
sont les modèles d’équations structurelles (SEM). On retrouve
deux grandes catégories de techniques, celles utilisant la cova-
riance (par exemple, LISREL, AMOS) et celles utilisant la régres-
sion des moindres carrés partiels (par exemple, PLS). Bien que
traditionnellement considérés comme des approches quanti-
tatives, la construction des modèles d’équations structurelles
est généralement guidée par la théorie. De fait, le choix des
concepts, relations et modèles à tester résulte souvent d’une
analyse qualitative – plus ou moins consciente – des données et/
ou de la littérature. De plus, selon Jöreskog (l’un des inventeurs
de LISREL), les modèles d’équations structurelles peuvent être
considérés selon trois situations : la confirmation stricte, les mo-
dèles alternatifs et la génération de modèles. Dans la pratique,
d’après Jöreskog (1993, p. 295), « la génération des modèles est
de loin la plus commune. La confirmation stricte est très rare car
peu de chercheurs se contentent de simplement rejeter un mo-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

dèle donné sans suggérer un modèle alternatif. La situation des


modèles alternatifs est aussi peu fréquente car les chercheurs
vont rarement spécifier a priori les modèles alternatifs ». On voit
ainsi que les modèles d’équations structurelles sont depuis
longtemps1 pragmatiquement considérés comme des outils de
générations de modèles, donc, des outils de conceptualisation2.

Ainsi, comme le rappelait Walsh (2015), une lecture préalable


des ouvrages et articles fondateurs des méthodes de recherche
est obligatoire pour comprendre la pensée initiale de ces précur-
seurs. Une fois cette étape effectuée, on peut alors explorer avec
plus d’assurance et de confiance les développements méthodo-
logiques subséquents et apporter des contributions utiles aux
discussions sur ces méthodes.

Ces différentes méthodes permettent d’atteindre une concep-


tualisation enracinée dans les données via les techniques de co-
dage ou d’analyse statistique.

Plus précisément, Glaser (2002, p. 24) explique qu’en théorie


enracinée, un « concept (catégorie) désigne un modèle qui est
soigneusement découvert par la comparaison constante de
374 données théoriquement échantillonnées jusqu’à la saturation
conceptuelle d’indices interchangeables ». De nombreuses
façons de coder existent. Toujours selon Glaser (2002), nous
pouvons reprendre les codes existants directement dans les
données (inVivo code), nous pouvons en créer de nouveaux ou
utiliser des codes ou concepts existants dans la littérature – tout
en évitant l’écueil de forcer un code pour absolument utiliser une
théorie (pollution conceptuelle).

Par exemple, nous pouvons nommer chacun des groupes d’in-


dividus issus d’une classification statistique. Ou encore, nous

1. L’ouvrage date de 1993 et a plus de 2 400 citations sur Google Scholar. L’ouvrage lié
au logiciel LISREL (1993) a plus de 10 000 citations.
2. À titre anecdotique, lors d’une session de recherche, un doctorant présentait son
travail, et durant cette présentation, il manipulait et restructurait à la volée son mo-
dèle structurel en fonction des questions et discussions du groupe de recherche.
Si cette restructuration est guidée par la théorie, ce type d’approche est assez
pertinent pour faire émerger des concepts et des relations à partir des données
quantitatives. Si cette émergence n’est pas guidée par la théorie, on introduit un
facteur chance qui peut être potentiellement hasardeux ou infondé (le concept ou
la relation n’est là que par chance, sans fondement théorique), mais on peut aussi
« tomber » sur des relations ou concepts insoupçonnés pouvant ensuite aboutir à
de nouvelles hypothèses pouvant être testées pour enrichir les corpus théoriques.
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

pouvons nommer les différents axes résultants d’une analyse


en composantes principales, chaque axe regroupant différentes
dimensions. En analysant et en codant ces axes, nous pouvons
ainsi les nommer afin de refléter les concepts sous-jacents.

Bien sûr, le nommage ne s’arrête pas aux données purement


quantitatives et nous pouvons coder des mots, des phrases,
des paragraphes ou encore des textes complets, par extension,
« tout étant données » (all is data) (Glaser & Strauss, 1967), nous
pouvons aussi coder la littérature scientifique, des observations
sur le terrain ou encore des vidéos. Ainsi, Glaser a conceptuali-
sé le livre The SAGE Handbook of Grounded Theory avec la catégo-
rie centrale « Jargonizing » (Glaser, 2009).

On voit ici un lien clair entre créativité et codage. L’analyse des


données va permettre de créer des structures neuronales enraci-
nées dans les données et reflétant leur complexité. Il faut ensuite
nommer ces structures. De fait, cette conceptualisation requiert
une dose importante de créativité – et de persévérance – pour
nommer, générer et sélectionner les bons concepts, les bonnes
relations et les bons modèles. L’apport de la recherche en neu-
roscience de la créativité s’avère particulièrement pertinent pour
375
compléter les méthodes formelles introduites jusqu’ici.

2. PROCESSUS DE CRÉATIVITÉ ET NEURO-IMAGERIE

2.1. Définitions
La créativité est habituellement définie par ses propriétés de gé-
nérations d’idées à la fois nouvelles et utiles (Stein, 1953). Cette
définition est généralement complétée par un troisième critère
de surprise (Simonton, 2018, p. 10). Une telle définition se prête
particulièrement bien à la conceptualisation en sciences de ges-
tion, où l’utilité du modèle revêt une importance plus pertinente
et immédiate que pour des sciences plus fondamentales.

Simonton rappelle aussi que la créativité est un phénomène com-


plexe, que ce soit par rapport à la définition de ce qu’est une idée
créative, au traitement du processus créatif et aux procédures
amenant ces idées (Simonton, 2018, p. 17). Cette complexité a
d’ailleurs initialement ralenti les neurosciences, car elle empê-
A n a l y s e r l e s d o n n é e s d u t e r ra i n

chait une accumulation des résultats en raison d’un manque de


cohérence des définitions.

2.2. Le « neuromythe » du cerveau droit et du cerveau


gauche
La neuroscience utilise des approches expérimentales pour me-
surer l’activité du cerveau via la mesure de l’activité des ondes
alpha, les EEG ou encore les IRMf. Il est intéressant de noter
l’appel de Rex Jung visant à remplacer le « neuromythe »3 du
cerveau gauche et du cerveau droit par une compréhension plus
fine, prenant en compte les interactions internes et externes des
grands réseaux fonctionnels. Ainsi, la méta-analyse de Zabelina
et Andrews-Hanna (2016, p. 86) suggère que « le cerveau hu-
main est organisé en plusieurs réseaux fonctionnels de grandes
tailles ». D’après Zabelina et Andrews-Hanna (2016, p. 86), des
tâches comme la créativité reposent donc sur « les interactions
dynamiques à l’intérieur et entre ces réseaux dynamiques ». Plus
précisément, parmi les résultats relativement constants de la
recherche en neuroscience, il y a un consensus sur le fait que
le réseau du mode par défaut4 est impliqué dans la créativité, et
376
plus spécifiquement dans le processus auto-générée de pensée
constructive (Dixon et al., 2014). D’après la synthèse d’Abraham
(2018), l’autre grand réseau inclus dans les processus de créa-
tivité est le cognitive control ou central-executive network. D’où la
remarque d’Abraham (2018, p. 197) : « contrairement à d’autres
aspects de la fonction psychologique, [la créativité] nécessite
de combiner les opérations de cognition et d’imagination. Ces
deux opérations sont facilitées par ces grands réseaux céré-
braux » (Ellamil et al., 2012). Les relations exactes entre ces deux
grands réseaux ne sont pas encore claires. Ce manque de clarté
est partiellement lié à la difficulté historique de mesurer indé-
pendamment ces réseaux. En effet, d’après Abraham (2018), la
nature de la pensée créative est fondamentalement spontanée.
Or, la génération d’idée est immédiatement et involontairement
accompagnée de l’évaluation de l’idée, ce qui rend plus difficile
la mesure indépendante des processus. Abraham explique aussi

3. h ttp://www.rexjung.com/videos/visualizing-creativity-in-the-brain, 19 min 05.


4. Pour le point de vue anatomique, se référer à l’article fondateur de Buckner et al.
(2008).
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

que cette difficulté de mesure est liée aux nombreuses nuances


des processus de traitement du cerveau : haut/bas, global/local,
automatique/contrôlé, implicite/explicite, intrinsèque/extrin-
sèque et spontané/délibéré.

2.3. Les facteurs influençant la créativité


De nombreux facteurs peuvent influencer la créativité. Voici une
sélection non-exhaustive, mais qui aide à éclairer le processus
de conceptualisation.

2.3.1. Cinq stades de la créativité

Beaty et al. (2015) suggèrent que les interactions entre les ré-
seaux dynamiques du cerveau sont différentes en fonction du
stade de la créativité. Les stades les plus connus sont ceux de
Poincaré (1908) (cité dans Jung & Vartanian, 2018, p. 3) et Wallas
(1926) : préparation, incubation, pressentiment ; chez Poincaré :
illumination et vérification.

À retenir. Cinq (5) stades de la créativité : i) préparation, ii) incu-


bation, iii) pressentiment, iv) illumination, et v) vérification. 377

2.3.2. Mode de pensée divergent et convergent

Deux modes de pensées sont répandues parmi les neuroscien-


tifiques, le mode divergent et le mode convergent. Gabora (2018,
p. 64-66) propose une re-conceptualisation de ces deux modes.
Pour lui, le mode convergent est « caractérisé non pas par la gé-
nération d’une seule solution correcte, mais par la conception de
concepts dans leurs contextes conventionnels ». Par exemple, le
mot « pneu » est conceptualisé dans le contexte d’une « voiture ».
Gabora défend ensuite l’idée que « la pensée divergente est ca-
ractérisée non pas en générant de multiples solutions, mais
en jouant avec le “halo de potentialité” entourant les concepts
[…] pour sélectionner un petit nombre, voir une seule idée ». En
d’autres termes, la pensée divergente permet de « re-voir une
idée à partir de nouvelles perspectives pertinentes au contexte,
en considérant les propriétés partagées des concepts comme
des ponts » (Gabora, 2018, p. 65). Pour reprendre l’idée du pneu,
dans un contexte non-conventionnel, il peut servir de balançoire
A n a l y s e r l e s d o n n é e s d u t e r ra i n

ou bien de refuge pour un animal perdu. Gabora (2018, p. 67) sug-


gère que l’intégration cognitive de ces deux modes de pensée
permet « l’assimilation continue de nouvelles expériences et
l’adaptation du réseau des expériences passées » et conclut que
« la créativité porterait principalement sur le réglage du mode de
pensée dans un contexte spécifique de telle sorte que chaque
halo d’associations potentielles au concept corresponde aux
spécificités de la tâche ».

À retenir. « Régler le mode de pensée de telle sorte que chaque halo


d’associations potentielles au concept corresponde aux spécificités de
la tâche » (Gabora, 2018, p. 67).

2.3.3. L’attention diffuse, concentrée et flexible

Le lien entre attention et créativité est exploré de manière plus


approfondie par Zabelina (2018) qui met en avant trois sortes
d’attentions apparemment contradictoires, mais qui contribuent
toutes au processus de décision. Au cœur de cette contradic-
tion apparente, et comme souvent en recherche, on retrouve un
378 problème de définition de la créativité et à la manière dont elle
est mesurée. Clarifions ces trois modes :
–– L’attention diffuse, liée à la créativité dans la « vie réelle » (me-
surée via des questionnaires). L’attention diffuse intervient
alors comme source d’ouverture perceptuelle (entre autres
via l’ouverture d’esprit). L’attention diffuse produit un ré-
pertoire plus large de stimuli sur lesquels la production
d’idées inhabituelles et créatives peut s’appuyer. Cette at-
tention diffuse est cependant potentiellement dangereuse,
car elle peut se retourner contre le créateur en augmentant
fortement son inattention.
–– L’attention concentrée, caractérisée par la concentration et
la persistance sur une tâche particulière est un facteur de
créativité, notamment au stade de préparation.
–– L’attention flexible, qui permet de passer alternativement
d’une attention diffuse à une attention concentrée. Zabelina
(2018) suggère que l’attention flexible est liée à la créativité
définie via la pensée divergente.
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

De fait, Zabelina (2018) suggère que ces vues ne sont pas en


compétition, mais dépendent des types de mesures de la créati-
vité et de ses stades.

À retenir. Il existe trois vues de l’attention : diffuse, concentrée


et flexible. Ces vues sont à utiliser en fonction du stade et du
type de créativité. D’autres recherches sont nécessaires sur ces
points précis pour affiner les relations entre attention, stade et
type de créativité (Zabelina, 2018).

2.3.4. L’attention interne/externe

L’attention peut aussi être conceptualisée de façon interne ou


externe (Chun et al., 2011) :
–– Interne : l’attention est portée sur les représentations men-
tales auto-générées.
–– Externe : l’attention est portée sur les informations liées
aux sens.

Les capacités limitées du cerveau pour le traitement conscient


des informations entraînent une compétition entre l’attention
379
interne et l’attention externe (Benedek, 2018). Cependant, il est
aisé de passer de l’une à l’autre.

Utilisant la mesure de l’activité des ondes alpha 5, Benedek (2018)


suggère qu’au plus la tâche est créative, au plus les résultats de
ces mesures sont élevées, permettant une absorption mentale
plus élevée durant le processus créatif. De fait, maintenir un tel
état, focalisé sur la tâche en cours, est directement lié au contrôle
exécutif qui est un prédicteur du processus mental de création.
Ainsi, il est nécessaire de faciliter la maintenance d’un niveau
continu d’attention interne durant les processus de génération
d’idées créatives (Benedek, 2018). En d’autres termes, « la pen-
sée créative implique la génération de représentations mentales
complexes qui doivent être maintenues pendant les longues
périodes de temps consacrées aux processus de simulation et
d’élaboration [des idées] » (Benedek, 2018, p. 189). Il continue en

5. Dixon et al. (2014) proposent : (1) le niveau d’activité mesuré par les ondes alpha
(EEG) est un indicateur de la focalisation interne et (2) ce niveau prédit les résul-
tats du processus mental de création.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

suggérant que l’efficacité de ce processus dépend de « la capa-


cité à rester profondément absorbé dans des pensées auto-gé-
nérées, malgré l’exposition constante à une stimulation senso-
rielle potentiellement interférente » (Benedek, 2018, p. 189).

À retenir. Il est capital d’apprendre à générer des représenta-


tions mentales complexes qui seront maintenues pendant de
longues périodes de temps (Dixon et al., 2014).

2.3.5. Pleine conscience et créativité

Les résultats de la recherche sur la méditation de pleine conscience


et la créativité suggèrent un lien positif. Ainsi, Lebuda et al.
(2016, p. 4) mentionne qu’il « y a de bonnes raisons de croire qu’il
n’y a pas seulement corrélation, mais aussi causalité dans le lien
méditation en pleine conscience-créativité. […] Montrer un lien cor-
rélationnel et causal entre la pleine conscience et la créativité
comprise comme potentiel (comprenant des aspects cognitifs et
conceptuels) – peut avoir des conséquences importantes pour
la psychologie éducative de la créativité et pour l’éducation créa-
tive ». Flaherty (2018) précise le sujet en distinguant les médita-
380 tions dont l’attention est concentrée par rapport aux méditations
de pleine conscience. Les premières pouvant favoriser le mode
de pensée convergent, alors que les deuxièmes favoriseraient le
mode de pensée divergent. Flaherty recommande donc d’alter-
ner ces deux types de méditations.

À retenir. La méditation semble liée à la créativité, notamment


en alternant la méditation de pleine conscience avec la médita-
tion dont l’attention est concentrée.

2.3.6. Cinq (5) habitudes des personnes très créatives

Jung 6 – qui a coordonné The Cambridge Handbook of the


Neuroscience of Creativity (Jung & Vartanian, 2018) , a synthétisé
sa recherche en cinq (5) habitudes des personnes très créatives.
Nous avons ajouté entre parenthèses les facteurs vus dans les
sections précédentes et qui semblent pertinents par rapport à
ces habitudes.

6. 
h ttp://www.rexjung.com/videos/visualizing-creativity-in-the-brain
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

i) « Elles expriment leurs idées » (mode de pensée divergent)

ii) « Elles sont ouvertes aux nouvelles idées, mais sont aussi des
personnes (dés)agréables » (attention externe, mode de pensée
divergent, persévérance)

iii) « Elles sont très bonnes pour faire une seule chose » (atten-
tion concentrée, mode de pensée convergent)

iv) « Elles sont très attachées au succès » (attention concentrée,


mode de pensée convergent)

v) « Elles savent quand et comment se relaxer » (méditation, at-


tention diffuse et flexible, attention interne)

2.3.7. Autres facteurs

D’autres facteurs sont aussi étudiés par les neuroscientifiques.


Abraham (2018) cite l’expansion conceptuelle qui nous permet
d’élargir nos concepts. Il mentionne aussi la capacité à surmon-
ter les contraintes des connaissances déjà existantes. Ces der- 381
nières nous distraient dans notre capacité à générer quelque
chose de nouveau.

Dans la partie 3 sont discutées des implications pratiques des


résultats issus de la recherche en neuroscience de la créativité.

3. IMPLICATIONS PRATIQUES DE
LA NEUROSCIENCE DE LA CRÉATIVITÉ

Dans cette partie, nous allons reprendre les cinq (5) stades de
la créativité, ainsi que les cinq (5) habitudes des personnes très
créatives pour voir comment ces résultats peuvent éclairer et
améliorer la conceptualisation dans le cadre des méthodes de
recherche en sciences de gestion. Les autres facteurs (mode
de pensée divergent/convergent, attention diffuse/concentrée/
flexible, attention interne/externe, pleine conscience) seront in-
tégrés dans la discussion sur les cinq habitudes.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

3.1. Cinq (5) stades de la créativité


Notons que ces stades sont itératifs et aussi présents à diffé-
rents stades de la recherche. En effet, il y a nécessité de générer
et de valider des idées pendant tout le processus de recherche.
Par exemple, la catégorie centrale d’une théorie peut émerger
(codage ouvert), puis ce seront d’autres concepts (codage sélec-
tif), et finalement les relations entre ces concepts (codage théo-
rique). Dans des modèles d’équations structurelles, l’émergence
et la validation des modèles statistiques se fait aussi par étape,
souvent par itération. Par exemple, on peut avoir l’idée d’ajouter
ou de retirer une variable du modèle statistique. Discutons main-
tenant des cinq stades de la créativité de Poincaré (1908).

i) Préparation

La collecte de données, le codage et l’analyse de ces don-


nées font partie du stade de préparation, où l’on acquiert une
connaissance approfondie du sujet que l’on étudie. Par exemple,
après avoir mené et codé de nombreux entretiens, on aura beau-
coup mieux préparé son cerveau pour faire émerger de nouvelles
idées.
382
Au niveau des méthodes statistiques, une analyse qualitative
préalable et/ou une lecture préalable de la littérature va contri-
buer à proposer des variables à analyser qui seront probable-
ment plus riches et pertinentes.

ii) Incubation

Pendant cette période, le processus inconscient d’incubation se


met en place et permet de faire émerger de nouveaux concepts,
de nouvelles relations et de nouveaux modèles potentiels.

iii) Pressentiment

Des pressentiments se font sentir, et l’importance d’écrire très


régulièrement des mémos permet de capturer et de renforcer
ces pressentiments.

iv) Illumination

Par rapport à la méthode de la théorie enracinée, après bien des


efforts, la préoccupation principale émerge, on trouve un nom
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

pour la catégorie centrale, les concepts liés et le type de rela-


tions. Finalement, la théorie au complet émerge. C’est la joie de
découvrir un modèle qui permet d’expliquer et de comprendre ce
qui se passe.

Pour des méthodes statistiques, les composantes principales


émergent et permettent de mieux comprendre une population.
Les modèles d’équations structurelles prennent forme et sont
validées globalement. Les hypothèses de départ sont ou ne sont
pas supportées.

v) Vérification

La saturation théorique dans la méthodologie de la théorie en-


racinée permet finalement de vérifier que le modèle est stable.
L’intégration de la littérature permet de vérifier que la théorie est
solide tout en clarifiant sa contribution.

La vérification statistique se fait via le calcul des différents indi-


cateurs de validité des modèles.

Pour toutes les méthodes, la vérification se fait aussi via la pré-


sentation de la recherche à des pairs, mais aussi lors de la sou- 383
mission et de la révision pour publication.

Enfin, on pourrait ajouter un sixième point de créativité, soit


Implémentation et communication des idées. En effet, dans le
contexte d’un DBA et de la recherche en sciences de gestion,
l’implémentation et la communication des idées dans le monde
réel, par exemple lors de la soutenance de la thèse de DBA de-
vant jury, de la publication de la thèse sous forme de livre, ou
encore dans le cadre d’une publication d’un article dans une re-
vue scientifique à comité de lecture, favorisent l’émergence de
nouvelles idées et concepts.

3.2. Cinq (5) habitudes des personnes très créatives


En reprenant les cinq habitudes émises par Jung et Vartanian
(2018)7 et basées sur les facteurs influençant la créativité, on

7. 
h ttp://www.rexjung.com/videos/visualizing-creativity-in-the-brain
A n a l y s e r l e s d o n n é e s d u t e r ra i n

peut voir comment les utiliser pragmatiquement dans le cadre


de la conceptualisation d’un travail de recherche.

i) « Elles expriment leurs idées »

Appliqué à la conceptualisation en recherche en sciences de


gestion, on peut utiliser cette habitude afin de générer et expri-
mer un maximum d’idées. De manière plus détaillée, regardons
les différentes techniques décrites précédemment.

Par exemple, l’utilisation du codage ouvert, les techniques de


tri (sorting) utilisant des logiciels (NVivo, ATLAS.ti) ou simple-
ment des fiches cartonnées, et l’écriture constante de mémos
sont des techniques de la méthodologie de la théorie enracinée
qui permettent d’exprimer un maximum d’idées. La technique de
comparaison constante (constant comparison) permet de générer
de nombreuses idées issues de la comparaison des données,
codes et concepts entre eux.

Lorsqu’on utilise des techniques de réduction des dimensions


comme l’analyse en composantes principales, on peut faire
émerger de nombreuses idées pour nommer ces nouvelles di-
384
mensions. D’autres idées peuvent être liées à l’ajout ou au retrait
de certaines variables, permettant de nouvelles représentations
et visualisations des données.

Enfin, comme le mentionnait Jöreskog (1993), l’utilisation des


modèles d’équations structurelles pour générer de nouveaux
modèles est une excellente application de cette habitude. Par
exemple, on peut émettre des idées de nouvelles variables
latentes, discuter de l’aspect modérateur ou médiateur de cer-
taines variables, ou générer des idées pour de nouvelles rela-
tions.

ii) « Elles sont ouvertes aux nouvelles idées, mais ce sont aussi
des personnes (dés)agréables »

Cette « habitude » permet de faire sortir des idées qui vont par-
fois à l’encontre du statu quo. Bien sûr, nous ne demandons pas
aux chercheurs de devenir désagréables, mais néanmoins, der-
rière cette idée, on retrouve l’humilité, le discernement et la per-
sévérance indispensables pour faire avancer nos idées, quitte
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

à déplaire fortement pour continuer à exprimer une idée, un


concept ou une théorie qui nous semble valide scientifiquement.

En théorie enracinée classique, tenir à distance la littérature


lors de l’émergence de la première occurrence de la théorie, ou
encore se retenir de discuter de cette émergence avec d’autres
chercheurs permet de protéger cette émergence, sans la néces-
sité d’être désagréable et de perdre son énergie ! Nous pouvons
donc suggérer que ce côté « (dés)agréable » permet de rester
enraciné dans les données lors de la conceptualisation, sans
succomber à une possible « pollution conceptuelle » (Glaser,
2002). Une fois le modèle suffisamment solide, il faut alors le
confronter à la littérature existante et aux autres chercheurs.
Garder cette persévérance et cette énergie est essentiel pour
réussir à pousser le modèle et la théorie dans le monde réel et
faire en sorte qu’elle ait un impact.

De la même manière, si le modèle statistique, la typologie ou le


modèle d’équations structurelles viennent remettre en cause
des théories existantes, il est indispensable de garder suffisam-
ment d’énergie et de persévérance pour défendre ses résultats
et les diffuser. 385

iii) « Elles sont très bonnes pour faire une seule chose »

Cette habitude permet d’acquérir l’expertise dans le domaine


de recherche et donc de pousser ces nouvelles conceptualisa-
tions. C’est ainsi l’objectif d’une thèse qui permet de concentrer
énormément d’énergie et d’attention sur un sujet spécifique de
recherche.

Le codage ouvert, sélectif et théorique en méthodologie de la


théorie enracinée permet ainsi une familiarisation très forte
avec son sujet pour devenir un expert de ses données. Il en va de
même de la connaissance de ses données au travers de l’utilisa-
tion de plusieurs modèles statistiques.

Bien sûr, l’utilisation conjointe de ces techniques permet une


compréhension encore plus forte de son domaine, et donc,
le chercheur devient très bon dans ce domaine précis de re-
cherche, et par là-même, d’après Rex Jung, il sera d’autant plus
créatif. On notera ici que des étudiants de DBA sont avantagés
A n a l y s e r l e s d o n n é e s d u t e r ra i n

sur ce point précis, car ils ont déjà une très bonne connaissance
pratique de leurs données.

iv) « Elles sont très attachées au succès »

Cette habitude est aussi liée à la persistance et la persévérance.


Cet attachement au succès va jouer un rôle moteur lorsque la
confusion – liée à la complexité des sujets choisis – commence
à se faire sentir. Ce phénomène normal de confusion se retrouve
aussi bien en théorie enracinée, que pour l’analyse statistique.
Une fois que l’on sort de cette confusion, un sentiment impor-
tant de succès se dégage.

Le succès vient aussi de la défense réussie de ses travaux de re-


cherches, de la publication d’un article après plusieurs révisions
ou encore de la sortie d’un ouvrage issu de la thèse.

v) « Elles savent quand et comment se relaxer »

Ces temps morts pour l’activité consciente du cerveau per-


mettent aux processus inconscients de générer de nouvelles
idées, de nouveaux concepts et de nouvelles relations.
386
Par exemple, se promener dans les bois, prendre un bain chaud
ou encore méditer pour laisser l’esprit « visualiser le monde qui
pourrait exister » (Jung 8 ). Durant cette même intervention, Jung
précise qu’il faut aussi fermer les portables et autres porteurs
d’alertes durant les temps qui sont consacrés aux stades de
l’incubation. Dixon précise que cet aspect est directement lié à
la nécessité de pouvoir rester profondément absorbé dans sa
recherche (Dixon et al., 2014). Flaherty (2018) recommande aussi
d’alterner le sommeil avec l’activité physique. Toujours d’après
Flaherty (2018), ces périodes de sommeil ne doivent être ni trop
longues, ni trop courtes.

Parmi d’autres idées mentionnées par Rex Jung, lire des fic-
tions afin de stimuler l’imagination et permettre de mentalement
voyager ou encore sortir de sa zone de confort. On retrouve ce
type d’approche dans la théorie enracinée. Ainsi, Glaser (2002)
recommande de lire des théories dans des domaines différents.

8. 
h ttp://www.rexjung.com/videos/visualizing-creativity-in-the-brain
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

La combinaison de ces cinq habitudes est bien sur recomman-


dée. Par exemple, Jung mentionne l’importance pour les cher-
cheurs de combiner la détermination, le « grit » avec le fait de
faire sortir les idées. Ceci peut s’exprimer par exemple dans le
fait d’envoyer beaucoup de papiers à de multiples journaux, afin
de faire connaître ses idées, mais aussi de faire preuve de per-
sévérance dans la révision de ces papiers. Dans le cadre d’une
thèse, cela peut se faire aussi en présentant ses travaux à des
réunions de recherche, des conférences ou à des collègues.

DISCUSSION
L’automatisation de l’analyse sémantique de données qualita-
tives ou bien la génération automatisée de modèles statistiques
sont des exemples permettant de libérer le chercheur de cer-
taines tâches répétitives pour refocaliser son attention vers des
tâches à plus haute valeur ajoutée. On peut cependant se de-
mander s’il n’y a pas là un risque de perdre une part du stade
de préparation et d’imprégnation des données. Ainsi, à l’âge de
23 ans, lors de la présentation de mon premier modèle d’équa-
tions structurelles sur les déterminants des performances des 387
PME, un participant ayant plus de 20 ans d’expérience de gestion
d’entreprise fit plusieurs remarques et me posa des questions
précises, pour lesquelles j’avais la réponse statistique, mais ab-
solument pas la maturité nécessaire pour comprendre en pro-
fondeur le sens et l’implication de ces questions et remarques.
Les données statistiques ayant été collectées via un question-
naire basé sur l’analyse de la littérature, il manquait cette com-
préhension fine et ancrée dans la pratique de ces données. C’est
l’une des très grandes forces d’un programme de DBA de capi-
taliser sur cette compréhension, et donc, d’avoir un cerveau déjà
très largement préparé pour la génération de nouvelles idées
pertinentes et utiles.

Les avancées récentes de la recherche, à la fois universitaire et


privée, dans le domaine de la lecture, de la transmission9 et de la
visualisation10 holographique des pensées permettent d’envisa-

9. Faceboo k ,  ht tp : // w w w.busine ssinside r.f r/ us / f acebooks -building - 8 -wor-


king-on-brain-computer-communication-platform-2017-1
10. Openwater, https://www.wired.com/story/ideas-jason-pontin-openwater/
A n a l y s e r l e s d o n n é e s d u t e r ra i n

ger une accélération fondamentale de la génération et de la com-


munication d’idées (télépathiquement ?) et de théories dans un
futur proche. Par exemple, on peut ainsi imaginer un chercheur
codant ses données, tout en visualisant un hologramme des pen-
sées qu’il est en train de générer. Pour reprendre l’expression de
Mary-Lou Jepsen11 lors d’une présentation à EmTech (MIT), un
tel système de représentation holographique des idées pourrait
devenir un « outil personnel de créativité ».

Cette conceptualisation est soutenue par la convergence des


neurosciences, des outils d’analyse sémantique, des données
massives, de l’intelligence artificielle et de la visualisation des
pensées (IRMf, holograms, EEG, etc.), le tout laissant au cher-
cheur la tâche particulière de dialoguer « intelligemment » avec
les résultats générés. Une autre illustration est l’histoire de la
conquête du jeu de Go par l’intelligence artificielle (AI). L’outil
d’AI d’Alphabet (la maison-mère de Google), AlphaGo a ainsi
récemment battu le meilleur joueur humain. Plus récemment en-
core, Silver et al. (2017) ont développé Alphazero. Cette intelli-
gence artificielle plus générale qu’Alphago est à la fois capable
de jouer aux échecs, au jeu de Go et au Shogi. Alphazero a ainsi
388 dépassé Alphago master en 21 jours, sans aucune autre connais-
sance préalable que les règles du jeu. Ceci ouvre dont la porte
à des discussions « intelligentes » entre les joueurs humains et
Alphazéro, afin de comprendre les nouvelles stratégies géné-
rées par l’IA.

Dans un article fondateur de la réflexion sur l’intelligence arti-


ficielle, Hans Moravec (1998) propose un paysage des compé-
tences humaines (landscape of human competence) qui représente
ces compétences en fonction de leurs niveaux d’élévation sur
une carte en relief, prévoyant « la grande inondation » des dif-
férentes terres par l’eau de l’intelligence artificielle. L’élévation
correspond à la difficulté pour les ordinateurs de mener à bien
des tâches spécifiques. Ainsi, l’arithmétique, le jeu d’échec et
récemment le jeu de Go sont maintenant en dessous du niveau
de la mer, alors que l’art ou la science sont au niveau des neiges
éternelles… mais pour combien de temps encore. Cette analogie

11. 
h ttps://events.technologyreview.com/video/watch/mary-lou-jepsen-openwa-
ter-evolution-of-interfaces/, Novembre 2017, 23 :38
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

est reprise par Russell (2017) pour illustrer comment la montée


des eaux (l’intelligence artificielle) va être accélérée lorsque les
machines pourront programmer d’autres machines avec de l’AI
(Turing-universal computers) (Russell, 2017), rendant inondables
les terres élevées de l’art ou de la science. Cette « idée fasci-
nante et controversée » (Russell, 2017) est appelée la singularité
technologique.

Reste bien sûr la question extrêmement importante du rôle du


chercheur dans ce nouveau monde méthodologique où l’intel-
ligence artificielle devient un partenaire incontournable de l’in-
telligence humaine. Revenant à Poincaré (1908), on pourrait re-
prendre sa conclusion : « De sorte que nous arrivons à la conclusion
suivante : les combinaisons utiles, ce sont précisément les plus belles,
je veux dire celles qui peuvent le mieux charmer cette sensibilité spé-
ciale que tous les mathématiciens connaissent, mais que les profanes
ignorent au point qu’ils sont souvent tentés d’en sourire » (Poincaré,
1908, p. 368). Puis, continuant son explication : « parmi les com-
binaisons en très grand nombre que le moi subliminal a aveuglément
formées, presque toutes sont sans intérêt et sans utilité, mais par cela
même elles sont sans action sur la sensibilité esthétique ; la conscience 389
ne les connaîtra jamais ; quelques-unes seulement sont harmonieuses,
et par suite à la fois utiles et belles ; elles seront capables d’émouvoir
cette sensibilité spéciale du géomètre dont je viens de vous parler, et
qui, une fois excitée, appellera sur elles notre attention, et leur donne-
ra ainsi l’occasion de devenir conscientes » (Poincaré, 1908, p. 368).
Rappelons cependant qu’une fois l’inspiration trouvée, le tra-
vail de recherche ne s’arrête pas là, et la phase de vérification
consciente doit être menée, exigeant de « la discipline, l’attention,
la volonté et, par suite, la conscience » (Poincaré, 1908, p. 371).

Poincaré (1908) continue en rappelant que tout ceci n’est qu’hy-


pothétique – même si ce texte est toujours considéré comme
suffisamment utile et pertinent un siècle plus tard pour être
cité dans l’introduction de l’édition 2018 de l’ouvrage collectif
The Cambridge Handbook of the Neuroscience of Creativity (Jung &
Vartanian, 2018), mais il est très intéressant de relire ces écrits
à la lumière du développement de l’intelligence artificielle que
nous voyons actuellement. Et si, dans le domaine de la concep-
tualisation, cette « sensibilité esthétique » était une des clés à
A n a l y s e r l e s d o n n é e s d u t e r ra i n

retenir pour faire coévoluer l’intelligence artificielle avec l’intel-


ligence humaine ?

CONCLUSION

Dans ce chapitre, nous avons synthétisé les résultats de la re-


cherche en neurosciences et créativité pour éclairer les diffé-
rents types de méthodes faisant appel à de la conceptualisation,
mais aussi pour éclairer le processus même de la conceptuali-
sation.

Ce faisant, nous avons fait émerger plusieurs implications pra-


tiques liées aux stades de la créativité, au réglage adéquat du
mode de pensée divergent et convergent, aux trois vues de l’at-
tention (diffuse, concentrée et flexible), à l’importance de gé-
nérer des représentations mentales complexes maintenues sur
de longues périodes de temps, et au rôle complémentaire des
différents types de méditation. Ces résultats ont été synthétisés
de manière plus concrète au travers des cinq habitudes des per-
sonnes très créatives.
390
Finalement, nous avons ouvert la réflexion sur l’implication des
recherches récentes combinant intelligence artificielle, analyse
sémantique, données massives et visualisation des pensées.
Ces combinaisons d’avancées technologiques ouvrent la porte
à de nouvelles manières de conceptualiser et à une collaboration
encore plus étroite entre l’intelligence humaine et l’intelligence
artificielle. Nous concluons sur un rappel historique en propo-
sant – comme Poincaré l’avait souligné en 1908 – que l’une des
clés de la réussite de cette collaboration de ces intelligences
pourrait être la « sensibilité esthétique » du chercheur (Poincaré,
1908).

Synthèse des points à retenir 


–– Cinq (5) stades de la créativité : i) préparation, ii) incuba-
tion, iii) pressentiment, iv) illumination, et v) vérification.
On peut ajouter un sixième : implémentation et communi-
cation des idées.
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

–– « Régler le mode de pensée (divergent ou convergent) de telle


sorte que chaque halo d’associations potentielles au concept cor-
responde aux spécificités de la tâche » (Gabora, 2018, p. 67).
–– Il existe trois vues de l’attention : diffuse, concentrée et
flexible. Ces vues sont à utiliser en fonction du stade et du
type de créativité. D’autres recherches sont nécessaires
sur ces points précis pour affiner les relations entre atten-
tion, stade et type de créativité (Zabelina, 2018).
–– Il est capital d’apprendre à générer des représentations
mentales complexes qui seront maintenues pendant de
longues périodes de temps (Dixon et al., 2014).
–– La méditation semble liée à la créativité, notamment en al-
ternant la méditation de pleine conscience avec la médita-
tion dont l’attention est concentrée.
–– Cinq (5) habitudes des personnes très créatives : i) « Elles
expriment leurs idées », ii) « Elles sont ouvertes aux
nouvelles idées, mais sont aussi des personnes (dés)
agréables », iii)« Elles sont très bonnes pour faire une seule
chose », iv) « Elles sont très attachées au succès », v) « Elles
savent quand et comment se relaxer ». 391
–– Autres facteurs : expansion conceptuelle et capacité à sur-
monter les contraintes des connaissances déjà existantes.
–– Proposition : la sensibilité esthétique du chercheur est
l’une des clés permettant de faire coévoluer l’intelligence
artificielle avec l’intelligence humaine.

Références citées
Abraham, A. (2018), The forest versus the trees: Creativity,
cognition and imagination, in R. E. Jung & O. Vartanian (eds.),
The Cambridge Handbook of the Neuroscience of Creativity, New
York, Cambridge University Press, p. 195-210.
Beaty, R. E., Benedek, M., Kaufman, S. B. & Silvia, P. J. (2015),
Default and executive network coupling supports creative idea
production, Scientific Reports, vol. 5, n° 10964.
Benedek, M. (2018), Internally directed attention in creative
cognition, in R. E. Jung & O. Vartanian (eds.), The Cambridge
Handbook of the Neuroscience of Creativity, New York, Cambridge
University Press, p. 180-194.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Buckner, R. L., Andrews-Hanna, J. R. & Schacter, D. L. (2008),


The brain’s default network, Annals of the New York Academy of
Sciences, vol. 1124, no 1, p. 1-38.
Chun, M. M., Golomb, J. D. & Turk-Browne, N. B. (2011), A taxonomy
of external and internal attention, Annual Review of Psychology,
vol. 62, no 1, p. 73-101.
Dixon, M. L., Fox, K. C. R. & Christoff, K. (2014), A framework for
understanding the relationship between externally and internally
directed cognition, Neuropsychologia, vol. 62, p. 321-330.
Eisenhardt, K. M. (1989), Building theories from case study research,
The Academy of Management Review, vol. 14, no 4, p. 532-550.
Ellamil, M., Dobson, C., Beeman, M. & Christoff, K. (2012), Evaluative
and generative modes of thought during the creative process,
Neuroimage, vol. 59, no 2, p. 1783-1794.
Flaherty, A. (2018), Homeostasis and the control of creative drive, in
R. E. Jung & O. Vartanian (eds.), The Cambridge Handbook of the
Neuroscience of Creativity, New York, Cambridge University Press,
p. 19-49.
Gabora, L. (2018), The neural basis and evolution of divergent and
convergent thought, in R. E. Jung & O. Vartanian (eds.), The
Cambridge Handbook of the Neuroscience of Creativity, New York,
Cambridge University Press, p. 58-70.
392
Glaser, B. G. (1978), Theoretical Sensitivity: Advances in the Methodology
of Grounded Theory, Mill Valley, CA, Sociology Press.
Glaser, B. G. (2002), Conceptualization: On theory and theorizing
using grounded theory, International Journal of Qualitative Methods,
vol. 1, no 2, p. 23-38.
Glaser, B. G. (2002), Basics of Grounded Theory Analysis, Mill Valley,
CA, Sociology Press.
Glaser, B. G. (2009), Jargonzing Using the Grounded Theory Vocabulary,
Mill Valley, CA, Sociology Press.
Glaser, B. G. & Strauss, A. L. (1967), The Discovery of Grounded
Theory : Strategies for Qualitative Research, Chicago, IL, Aldine
Transaction.
Jöreskog, K. G. (1993), Testing structural equation models, in K.S.
Bollen & J.S. Long (eds.), Testing Structural Equation Models,
Newbury Park, CA, Sage, p. 294-316.
Jung, R. E. & Vartanian, O. (2018), The Cambridge Handbook of the
Neuroscience of Creativity, New York, Cambridge University Press.
Lebuda, I., Zabelina, D. L. & Karwowski, M. (2016), Mind full of ideas:
A meta-analysis of the mindfulness-creativity link, Personality
and Individual Differences, vol. 93, p. 22-26.
O u t i l s e t m é t h o d e s d e r e p r é s e nt a t i o n c o n c e p t u e l l e e t d e c r é a t iv i t é

Moravec, H. (1998), When will computer hardware match the human


brain, Journal of Evolution and Technology, vol. 1, no 1, p. 10.
Poincaré, H. (1908), L’enseignement mathématique, Paris, Flammarion.
Russell, S. (2017), Artificial intelligence: The future is
superintelligent, Nature, vol. 548, n° 7669, p. 520-521
Silver, D., Schrittwieser, J., Simonyan, K., Antonoglou, I., Huang,
A., Guez, A., Hubert, T., Baker, L., Lai, M., Bolton, A., Chen, Y.,
Lillicrap, T., Hui, F., Sifre, L., van den Driessche, G., Graepel, T.
& Hassabis, D. (2017), Mastering the game of Go without human
knowledge, Nature, vol. 550, p. 354.
Simonton, D. K. (2018), Creative ideas and the creative process:
Good news and bad news for the neuroscience of creativity, in
R. E. Jung & O. Vartanian (eds.), The Cambridge Handbook of the
Neuroscience of Creativity, New York, Cambridge University Press,
p. 9-18.
Stein, M. I. (1953), Creativity and culture, The Journal of Psychology,
vol. 36, no 2, p. 311-322.
Wallas, G. (1926), The Art of Thought, London, J. Cape.
Walsh, I. (2014), Using quantitative data in mixed-design grounded
theory studies: An enhanced path to formal grounded theory
in information systems, European Journal of Information Systems,
vol. 24, no 5, p. 531-557.
393
Walsh, I., Holton, J. A., Bailyn, L., Fernandez, W., Levina, N. &
Glaser, B. (2015), What grounded theory is… a critically reflective
conversation among scholars, Organizational Research Methods,
vol. 18, no 4, p. 620-628.
Yin, R. K. (2008), Case Study Research: Design and Methods, Sage
Publications, Incorporated.
Zabelina, D. L. (2018), Attention and creativity, in R. Jung &
O. Vartanian (eds.), The Cambridge Handbook of the Neuroscience
of Creativity, New York, Cambridge Unversity Press, p. 161-179.
Zabelina, D. L. & Andrews-Hanna, J. R. (2016), Dynamic network
interactions supporting internally-oriented cognition, Current
Opinion in Neurobiology, vol. 40, p. 86-93.

Références pour en savoir plus


Jung, R. E. & Vartanian, O. (2018), The Cambridge Handbook of the
Neuroscience of Creativity, New York, Cambridge University Press.
Une excellente synthèse des travaux les plus récents en neuro-
sciences de la créativité. Certains articles sont techniques, mais
les conclusions sont généralement compréhensibles.
A n a l y s e r l e s d o n n é e s d u t e r ra i n

Glaser, B.G. (1978), Theoretical Sensitivity: Advances in the Methodology


of Grounded Theory, Mill Valley, CA, Sociology Press.
Glaser, B.G. (2002), Basics of Grounded Theory Analysis, Mill Valley,
CA, Sociology Press.
Glaser, B.G. & Strauss, A.L. (1967), The Discovery of Grounded Theory:
Strategies for Qualitative Research, Chicago, IL, Aldine.
Trois ouvrages essentiels pour comprendre les mécanismes de
conceptualisations en méthodologie de la théorie enracinée.
Idéalement, commencer avec l’ouvrage de 2002, puis celui de
1978 qui est très abouti. L’ouvrage de Glaser and Strauss (1967)
est aussi à lire, car c’est la référence fondamentale en théorie
enracinée.

Walsh, I. (2014), Using quantitative data in mixed-design grounded


theory studies : An enhanced path to formal grounded theory
in information systems, European Journal of Information Systems,
vol. 24, no 5, p. 531-557.
Pour bien comprendre comment la théorie enracinée peut être
considérée comme un « paradigme de recherche ».

394
PARTIE IV
Contextualiser les méthodes

Introduction à la partie IV

Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev


395

La contextualisation des méthodes converge là où l’ensemble de


ce qui a été traité en amont dans cet ouvrage prend corps et vie
par le truchement d’illustrations, de méthodes et d’outils orien-
tés terrain. En effet, il est utile de se rappeler pourquoi une re-
cherche est entreprise et ce qui guide les doctorants-managers
dans cette expédition ; être en mesure de voir poindre la connais-
sance sous forme de recommandations managériales enfin pro-
duites. Dans le domaine des possibilités, quatre chapitres sont
présentés dans cette quatrième et dernière partie de l’ouvrage.
L’occasion d’explorer des terrains selon des contextes précis,
les manières de les aborder, les rôles des doctorants-managers,
et les moyens mis en œuvre pour en extraire et en partager les
connaissances sous forme de recommandations managériales
sont d’importance capitale pour les doctorants de DBA.

Au chapitre 22, Marielle A. Payaud insiste sur le « contexte »,


dans lequel le doctorant-manager vise à s’ancrer pour en ex-
traire les recommandations managériales souhaitées. En parti-

Les méthodes de recherche du DBA


C o nt ex t u a l i s e r l e s m é t h o d e s

culier, le texte illustre les notions de contexte, qu’il met en rela-


tion avec le triptyque « méthodologie – épistémologie – produit
de recherche ». Le texte soulève des questions concernant des
implications épistémologiques et méthodologiques précises,
avec pour exemple la recherche en Afrique. Ainsi, on aborde une
série de questions que le doctorant-manager doit se poser pour
mieux appréhender son contexte de recherche. Bien que d’ordre
fondamentalement pratique du point de vue des méthodes et
outils, les réponses à ces questions sont essentielles pour la
réussite du projet de recherche de DBA, en particulier pour le
doctorant-manager, qui souhaite obtenir des réponses au sujet :
de la nature des spécificités du contexte, du type organisation-
nel, de l’élément permettant de problématiser son projet et aussi
de l’originalité du contexte d’intérêt. Ceci est rendu possible par
une réflexion se rapportant au rôle du chercheur en contexte de
recherche. Ce chapitre fournit des conseils relatifs à la prépa-
ration du design de recherche, mais surtout il met en évidence
qu’il ne faut pas le perdre de vue, car ce dernier fera en sorte
que le lien étroit sera maintenu avec la problématique cadrée
en amont de sa conception. Deux contextes sont analysés sous
forme d’exemples pratiques : le financement bancaire de la PME
396 au Togo, d’une part, et le nouveau management public ainsi que
la performance organisationnelle, d’autre part. Ces exemples
sont utilisés pour illustrer de manière bien concrète la nature
et la portée de la série de questions à se poser et à répondre
lorsque l’on souhaite étudier un contexte dans le but de produire
des recommandations managériales contextualisées.

Aurélie Dudézert, au chapitre 23, propose une réflexion autour


d’une importante mission, source de tensions à équilibrer par le
doctorant-manager, qui doit d’une part produire des connais-
sances sous forme de recommandations en soutien à l’action
managériale en contexte, et d’autre part, produire ces connais-
sances en adhérant aux canons scientifiques de la science de
gestion. Pour illustrer le propos, l’auteure emploie l’analogie
du collier de perles, et met en évidence l’intérêt du fil qui lie les
perles d’un collier, comme autant de résultats de recherche, qui
sont liés par le fil qui se tisse entre les mondes de la pratique et
ceux de la production académique, soit ceux de la recherche. Le
propos est vivement illustré dans la partie 1 du chapitre grâce à
un cas où les questionnements du terrain interpellent les moyens
C o nt ex t u a l i s e r l e s m é t h o d e s

que mettront en œuvre les chercheurs pour les accompagner


dans leur réflexion, ce que Aurélie Dudézert nomme « la théorie
par l’exemple ». Le rôle de l’analogie, grâce au mythe d’Astérix
« Le Gaulois », est par cet exemple, illustré d’une manière on ne
peut plus convaincante. Le texte montre simplement, mais avec
acuité, comment l’entreprise du cas pris pour exemple, grâce à
l’accompagnement des chercheurs, a pu identifier des repères
convergents avec le mythe d’Astérix, pour établir ses propres
points de convergence entre ce mythe et ses connaissances,
son projet collectif, sa démarche d’animation de l’action collec-
tive et sa régulation de l’action collective. Ainsi, cet écrit met en
relief l’intérêt de considérer les étapes à réaliser et les jalons à
atteindre pour le doctorant-manager de DBA dans le dialogue
avec son terrain. Ce chapitre fait un retour vers les bonnes pra-
tiques en matière de construction de fil entre les apprentissages
managériaux produits et mobilisés en contexte, comme autant
de perles d’un collier. Enfin, on retrouve en conclusion les points
précis au sujet desquels il convient de s’interroger pour tisser
une relation productive et sereine entre le doctorant-manager et
le terrain ; comme autant de conseils pratiques pour découvrir et
mobiliser ses propres mythes porteurs et utiles à la production
de recommandations en soutien à l’action managériale. 397

Dans le chapitre 24, Laurent Renard et L. Martin Cloutier


brossent un portrait de la science du design comme perspective
de recherche en management. Elle présente un intérêt particu-
lier pour des doctorants-managers de DBA, car elle est orien-
tée vers la recherche de solutions à des problèmes de terrain.
En effet, le chercheur menant une recherche en science du de-
sign est immergé dans son objet et terrain de recherche, avec
pour objectif de modifier la réalité, c’est-à-dire de « changer le
monde » pour le mieux. Les auteurs donnent d’abord un exemple
de recherche sur le choix d’une stratégie de changement organi-
sationnel afin d’en illustrer l’utilité et les grands principes. Ces
chercheurs ont dans un premier temps examiné la littérature
scientifique et professionnelle pour identifier les différentes
stratégies de changement organisationnel ; puis ils ont étudié
les caractéristiques du contexte organisationnel ; ils ont fait dix
propositions de design correspondant à dix stratégies, qu’ils ont
ensuite testées et évaluées dans deux organisations afin d’en
établir une validité pragmatique. Dans une deuxième partie, les
C o nt ex t u a l i s e r l e s m é t h o d e s

principaux fondements, concepts et activités de la science du


design sont détaillés : comment développer des solutions gé-
nériques à des classes de problèmes ; comment les formuler en
propositions de design ; comment les mettre en œuvre pour ré-
pondre à un problème de terrain ; et comment les évaluer. Les
auteurs distinguent quatre grandes activités qu’ils décrivent en
détail, enfin ils font un nombre de recommandations pratiques
pour des managers-chercheurs qui opteraient pour une re-
cherche en science du design dans la construction d’un cadre
méthodologique.

Enfin, le trio composé de L. Martin Cloutier, David Larivière, et


Gabriel Tremblay nous plonge, au chapitre 25, dans l’univers
du cadre méthodologique mixte, soit qualitatif et quantitatif,
ascendant et participatif de la cartographie des concepts en
groupe (CCG). Le cadre méthodologique de la CCG est assi-
milable à une démarche, voire à un dialogue qui s’installe sur la
durée souhaitée entre les chercheurs-accompagnateurs et les
participants du terrain. Lorsque bien ancrée dans son contexte,
sa mise en application comprend un certain nombre d’étapes
incontournables dont chacune d’entre elles est productrice de
398 connaissances mobilisables in situ. En contraste à d’autres ap-
proches de cartographie ad hoc, ou tracée à main levée par le
chercheur isolé dans son bureau, la CCG est résolument an-
crée par, pour et avec le terrain. Les modalités de production en
connaissance s’appuient à la fois sur les faits souvent teintés
de nuances et de subtilités qualitatives ancrée-terrain que sur
les avantages que procure la robustesse d’analyses statistiques
fiables. Les extrants de la CCG permettent justement de repré-
senter spatialement sur des cartes des concepts les concep-
tions au sujet d’initiatives ou d’actions que des groupes ou
des collectifs souhaitent mettre en place, d’en produire le sens
partagé et partageable en contexte, et de contraster les percep-
tions avec la réalité connaissable. Cette possibilité de traiter des
contenus qualitatifs de manière quantitative pour un retour vers
la production de connaissances porteuses de recommandations
managériales avec le terrain a de quoi surprendre ! L’intérêt du
chapitre réside également dans les deux conversations où des
managers-chercheurs, ayant pris du recul depuis l’exécution
d’un travail de thèse dans lequel la CCG a été mise à contribu-
tion, reviennent sur le lieu de production de recommandations
C o nt ex t u a l i s e r l e s m é t h o d e s

managériales. Ils en présentent l’envers du décor et apportent


des réponses au sujet de questionnements méthodologiques,
mais après-coup. Ces conversations sont susceptibles d’inté-
resser tout doctorant-manager de DBA, et ce, même au-delà de
ceux qui envisagent des cadres méthodologiques tout autres
que celui faisant l’objet de ce chapitre.

Les écrits de la partie 4 de l’ouvrage soulignent éloquemment les


potentialités méthodologiques à travers leurs productions de
connaissances managériales respectives en contexte. Au terme
de ces lectures, le doctorant-manager de DBA est invité à son
tour à mobiliser l’ensemble des connaissances se rapportant
aux méthodes et outils, et ainsi à esquisser les étapes du projet
de DBA envisagé. Ces quelques exemples visent à inspirer de
quelles manières ces potentialités prennent corps et vie.

399
CHAPITRE 22.
Le «  contexte  » et la recherche en terre
africaine : implications épistémologiques et
méthodologiques

Marielle A. Payaud

Résumé

Le « contexte » est le plus souvent un oublié de la recherche.


Et pourtant… demander à des doctorants-managers de produire 400
des implications managériales revient à attendre de leur re-
cherche une connaissance située, contextualisée et non « hors-
sol ». À partir de la définition de « contexte » et de la manière dont
il faut s’en saisir, à partir également de nombreux exemples, et
d’un retour aux fondamentaux en rappelant la nécessaire cohé-
rence du triptyque « méthodologie – épistémologie – produit de
recherche », ce chapitre tente de démontrer pourquoi et com-
ment le doctorant-manager d’Executive DBA qui doit produire
une recherche à visée opératoire et située peut s’engager dans
une épistémologie pragmatiste et une méthodologie qualitative.

Mots-clés : contexte, visée prescriptive, épistémologie prag-


matiste, méthode qualitative.

Les méthodes de recherche du DBA


L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

« Concevez toujours une chose en la considérant dans un contexte plus


large – une chaise dans une pièce, une pièce dans une maison, une mai-
son dans un quartier, un quartier dans une ville. »
Eliel Saarinen, architecte, artiste (1873 – 1950)

« La mondialisation des activités accroît mécaniquement l’éventail des


risques et complexifie leur détection en confrontant l’entreprise à des
contextes nouveaux et beaucoup plus hétérogènes que ne le perçoit ou le
souhaite le management universaliste. »
Suzanne Berger, historienne et politologue américaine (2006)

INTRODUCTION
La prise en considération de la notion de « contexte » s’applique
notamment lorsque l’objectif des projets de recherche suit non
pas une logique de vérification, mais une logique de découverte
que présuppose une « génération de théorie ». Selon cette lo-
gique, la préexistence de lois scientifiques fondamentales à
vérifier ne peut être postulée, et le projet impose de décrire le
phénomène, et de comprendre l’objet étudié dans son contexte,
dans son idiosyncrasie. Ainsi, la recherche de causalité ou de
relations est nécessaire, mais non suffisante et doit être com- 401
plétée par le « En vue de quoi ? Comment ? Dans quel but ? »,
questions qui permettent l’interprétation de la structure et de
l’évolution d’un phénomène. La connaissance devient un phé-
nomène construit socialement, dans son contexte, le monde un
construit social, l’« objet » est posé comme un construit social.

Pourquoi la recherche en Afrique aurait-elle des implications


épistémologiques et/ou méthodologiques spécifiques ?

Le premier implicite du titre de ce chapitre est capital, il concerne


le contexte de l’ouvrage, lequel est destiné à des doctorants-
managers inscrits en Executive DBA en contexte africain. Il est
attendu de ces doctorants-managers que le produit de recherche
soit opérationnel, qu’il présente des implications managériales,
qu’il ait un impact sur l’organisation, sur le territoire, sur la
société et ses problèmes. Bref, que ces recherches conduites
dans le cadre d’un Executive DBA aient une visée actionnable, au
sens d’Avenier (2007, p. 149) « un savoir actionnable générique se
présente donc comme un ensemble cohérent de propositions et/
C o nt ex t u a l i s e r l e s m é t h o d e s

ou de principes d’action générique susceptible d’être mobilisé


pour éclairer la réflexion et susciter l’action créative ».

Le deuxième implicite, mais pourtant présent dans l’intitulé est


le poids du mot « recherche ». La recherche présuppose qu’il y
ait des résultats constituant des connaissances « valables » au
sens de Piaget. Valables selon quels critères ? Pour qui ? Que
faire de ces résultats ? À qui s’adressent-ils ? Depuis la nais-
sance des sciences de gestion, des questions taraudent les
« vrais » scientifiques et traversent les décennies : à quoi servent
les recherches en sciences de gestion ? Quid de la réplicabilité
des résultats ? Certains pourraient répondre est-elle possible ?
nécessaire ? indispensable ? justifiée ?

Le troisième implicite réside dans les conséquences de la notion


de « contexte ». Pourquoi lors de recherche en terre africaine, le
contexte prend-il une dimension particulière au point où il faille
prendre des précautions ? Pourquoi ce contexte crée-t-il des im-
plications épistémologiques et méthodologiques ?

Ce chapitre souhaite apporter des réponses qui sont autant de


pistes de réflexion qui méritent d’être poursuivies, dont l’objectif
402 principal est d’éclairer une préoccupation : Pourquoi la notion
de « contexte » mérite-t-elle d’être davantage soulignée lors de
recherches en Afrique actuellement ?

Pour ce faire, nous avons essayé tout au long de ce chapitre


d’une part de formuler des questions/questionnements que
pourra se poser le doctorant-manager, les réponses sont comme
une boussole, elles orienteront le doctorant-manager sur une
voie ou sur une autre, d’autre part nous avons autant que faire
se peut, utilisé des exemples de thèse pour illustrer nos propos.
Une première partie s’appesantit sur la notion de contexte en re-
cherche, une deuxième évoque la réplicabilité des produits de
recherche issus de recherches dans un contexte spécifique et
enfin une troisième partie explicite le triptyque « méthodologie –
épistémologie – produit de recherche » dès lors que le produit de
recherche, demandé dans le cadre de l’Executive DBA, doit avoir
une visée opérationnelle.
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

1. QU’EST-CE QU’UN CONTEXTE EN RECHERCHE ?


Définir le terme « contexte » n’est pas aisé mais certains se sont
attelés à cette tâche (1.1). L’identification du contexte, quant à
elle, n’est pas plus aisée, car elle est sous-jacente à la probléma-
tique de recherche, le contexte crée la spécificité et l’intérêt de
poser telle ou telle problématique. La description du contexte,
enfin, n’est méthodologiquement pas plus claire, car elle dépend
évidemment de son identification, et surtout elle démontre et
justifie l’intérêt de la problématique et constitue le socle de sa
compréhension par les autres (lecteur, évaluateur, destinataires
de la recherche, etc.) et, à l’issue de la recherche, de la perti-
nence des résultats (1.2.).

1.1. Définir le « contexte » pour pouvoir l’identifier


Consulter un dictionnaire, premier réflexe de l’apprenti-cher-
cheur, comme du chercheur confirmé. Compte tenu de notre
réflexion, retenons deux acceptions du dictionnaire Larousse :
« Ensemble des conditions naturelles, sociales, culturelles dans
lesquelles se situe un énoncé, un discours » et « Ensemble des
403
circonstances dans lesquelles se produit un événement, se si-
tue une action ». Les deux définitions font état de dimensions
qui seraient un ensemble de données/faits qui serait en lien, qui
justifierait, qui expliquerait, qui conditionnerait un événement,
un énoncé, une action.

Au-delà de ces définitions générales, le statut que l’on donne


au contexte constitue un problème fondamental de théorie de
la connaissance. La philosophie occidentale et l’épistémologie
positiviste le considèrent de façon dominante comme un ar-
rière-plan dont il faut s’extraire pour dégager des vérités stables.
Le pragmatisme, comme nombre de philosophies orientales et
africaines posent au contraire que l’humain est encastré dans
son contexte sans en être captif. Tout acteur peut l’analyser, et
imaginer des solutions différentes de celles qu’il vit actuelle-
ment (Martinet, 2015).

Les spécificités du contexte peuvent concerner : la géographie


(par exemple, la pluralité des reliefs, les vallées, les plaines,
etc.), l’urbanité/la ruralité (par exemple, la difficulté de circula-
C o nt ex t u a l i s e r l e s m é t h o d e s

tion dans des grandes villes et/ou agglomérations, la dispersion


des clients en campagne), la proportion des zones industrielles/
des zones résidentielles, les types de clients (par exemple,
B to B ou B to C).

Cette fragmentation du territoire, traduite par des spécificités à


la fois géographiques, économiques, politiques, culturelles, etc.
fait naître la problématique et les identifier permet de justifier et
comprendre l’intérêt de la problématique.

On sait combien la recherche en finance, en gouvernance et


même en management stratégique a soutenu ou accepté l’hy-
pothèse du modèle unique de capitalisme financier et contri-
bué à la relative convergence des régimes concrets malgré les
grandes disparités historiques, culturelles, socio-économiques
et institutionnelles. Et ce malgré les travaux approfondis tendant
à montrer la subsistance de différences structurelles (Amable,
2003 ; Boyer, 2004). La contextualisation de la gouvernance et du
management stratégique, défendu par quelques-uns (Martinet,
2007) découle épistémologiquement et axiologiquement de ces
différences. Donner un statut fort au contexte dans une re-
404 cherche va inéluctablement conduire à le travailler et à faire jouer
différents plans de contexte selon la question traitée et le mo-
ment de l’enquête. On pourra par exemple analyser le contexte
dans lequel évoluent Danone ou Nestlé au Sénégal ou au Gabon
puis, au moment d’élaborer des propositions génériques pour
les stratégies BoP des FMN agro-alimentaires en Afrique, rete-
nir en le stylisant le contexte de l’Afrique de l’Ouest francophone
dont l’histoire institutionnelle, sociale, politique, économique…
est fort différente de l’Afrique de l’Est anglophone, ce qui peut
conditionner l’efficacité des voies et moyens proposés par la re-
cherche.

1.2. Décrire pour styliser le contexte


De la description du contexte par le doctorant-manager dépend
la compréhension de ses spécificités et donc de l’intérêt de la
problématique.

Il peut paraître trivial de conseiller aux doctorants-managers


de devoir expliquer le contexte dans lequel leur problématique
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

s’inscrit. C’est le cas pour toutes les thèses, pour toutes les pro-
blématiques, pour toutes les recherches. Toutefois, il est des
contextes peu connus, mal connus ou méconnus, en tout cas
peu défrichés où les similitudes sont peu nombreuses, difficiles,
voire impossibles à imaginer et où l’implicite ne peut être qu’un
ennemi à la compréhension de ceux qui sont hors contexte.
L’explicitation est la priorité.

Décrire le plus finement possible ce qui fait problématique en ce


contexte, le doctorant-manager doit rendre compte, faire com-
prendre le contexte. Littéralement, le doctorant manager doit
mettre en valeur son contexte afin de justifier l’intérêt de sa pro-
blématique. Il peut s’appuyer sur des comparaisons de contextes
davantage connus afin de comparer les dimensions qui créent la
problématique, de montrer l’écart et surtout la non-similitude.

Prenons deux exemples.

Le premier concerne les stratégies de traitement des déchets


des produits consommés de l’entreprise par l’entreprise… le
cas de Nestlé au Cameroun. Dans de nombreux pays en voie
de développement, Nestlé a conçu des produits en petit condi- 405
tionnement, à prix adapté aux plus démunis, parfois palliant les
carences nutritionnelles locales, à usage unique. La grande
consommation de ces produits a le défaut de multiplier les em-
ballages, et ainsi les déchets. Qui y a-t-il de si spécifique ? Les
produits de grande consommation génèrent des déchets. Les
industriels cherchent à réduire les emballages, travaillent sur
des emballages recyclables, ceux-ci sont parfois fabriqués à
partir de matières recyclées. À l’issu du processus de consom-
mation, ils sont pris en charge par le consommateur qui trie
ses ordures ménagères, les services de la ville emploient des
éboueurs qui nettoient les rues, une infrastructure publique ou
privée collecte les déchets ménagers. Désormais, de nombreux
groupes se partagent le marché de collecte, traitement et va-
lorisation des déchets. Or, qu’en est-il dans des pays dont les
habitants ne sont pas suffisamment éduqués aux enjeux des dé-
chets ? Dont aucun service communal ne nettoie les rues ? Dont
aucune infrastructure ne se saisit de l’enjeu ? Quand un groupe
international soumis à des obligations légales, à des normes,
à la responsabilité sociale des entreprises voit des emballages
C o nt ex t u a l i s e r l e s m é t h o d e s

à son effigie parcourir les rues, les caniveaux, les décharges à


ciel ouvert, le traitement des déchets issus de leur production
ne suffit plus, il se tourne vers les déchets de leurs consom-
mateurs. Ainsi, des entreprises, telles que Nestlé, mettent
en œuvre des actions localement pour atteindre des objectifs
d’affaires et répondre à la logique globale. La problématique
s’oriente donc vers le management stratégique responsable
de la gestion des déchets des produits consommés de et par
l’entreprise ; comment les entreprises peuvent-elles gérer les
déchets de leurs produits par les consommateurs dans les pays
en voie de développement ?

Le deuxième exemple traite de l’accès aux soins des populations


démunies et isolées. Le terrain est réalisé au Brésil et en Afrique
du Sud. Dans ces deux pays, un système de santé publique défail-
lant fait état de manque de moyens (équipements, médicaments,
personnels), d’une surpopulation des hôpitaux et cliniques (le
Brésil dispose de 2,3 lits pour 1 000 habitants, la France dispose
de 6,4 lits pour 1 000 habitants, en 2012), d’un temps d’attente
long, d’une absence de couverture sociale pour tous (comme la
406 Couverture Maladie Universelle en France (CMU)). Les cliniques
privées sont coûteuses et inaccessibles aux plus démunis (le
prix d’une consultation chez un médecin au Brésil est supérieur
à 100 €, contre 24 € en France). L’accès aux soins est d’autant
plus difficile pour les populations reculées, isolées. Utilisons
encore des données chiffrées pour illustrer la notion de popu-
lation reculée. En Afrique du Sud, 21 % des routes sont pavées
(160 000/750 000 km) et 33 % de la population est rurale. Au Brésil,
13 % des routes sont pavées (212 800/1 581 000 km) et 14 % de la
population est rurale. En France, 100 % des routes sont bitumées,
20 % de la population est rurale. La problématique s’oriente vers
les modèles d’affaires (business model, en anglais) inclusifs d’ac-
cès à la santé dans les pays en développement.

Sans la comparaison d’infrastructures et de pratiques, sans le


contraste de situations, il est difficile de se saisir du contexte
et d’en comprendre les enjeux. Si des problématiques peuvent
être proches d’un contexte à l’autre, la situation excessive des
éléments de contexte amplifie les conséquences.
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

Encadré 1. Questions pour le doctorant-manager :


Quelles sont les spécificités de mon contexte ? L’organisation ? Le
type organisationnel ? Le pays ? etc.
En quoi le contexte dans lequel j’évolue est-il différent d’un autre ?
En quoi le contexte auquel je m’intéresse est-il original ? spécifique ?
Quels sont les éléments du contexte que je vais pouvoir comparer et
mettre en valeur ?
Quels sont les éléments du contexte qui font naître la probléma-
tique ?
La problématique est-elle inhérente au contexte ?

Expliciter le contexte génère la contextualisation de la re-


cherche, autrement dit les conditions d’application du produit
de recherche opératoire, et les conditions d’application des
contextes dans lesquels pourront s’appliquer ces produits de
recherche opératoires. L’explicitation va, en effet, permettre de
générer la stylisation du contexte, c’est-à-dire d’identifier les
critères de pertinence afin de pouvoir utiliser le produit de re-
cherche dans d’autres contextes qui présentent les caractéris-
tiques/dimensions identiques. 407

2. CONTEXTE ET CONTEXTUALISATION :
CONDITIONS DE GÉNÉRALISATION SITUÉE
L’intérêt et la nécessité de la contextualisation des projets de
recherche en management stratégique naissent d’une réflexion
sur le rôle du chercheur en sciences de gestion dans la socié-
té. Nombreux sont les rôles qui lui incombent : la révélation, la
traduction de phénomènes, la mise en problématique, l’explica-
tion, la prescription, etc. Retenons, ici, celui de la prescription,
eu égard aux objectifs de l’Executive DBA, et donc des sciences
de gestion comme de la science de l’aide à la décision. L’on peut
imaginer qu’une problématique contextualisée dans le cadre
d’une recherche à visée ingénierique permet de produire une
connaissance contextualisée à savoir, propre à un contexte.
C o nt ex t u a l i s e r l e s m é t h o d e s

2.1. Contextualisation de la problématisation


(Payaud, 2010)1
La contextualisation concerne d’abord la problématique de la
recherche, laquelle implique ensuite la construction d’un cadre
théorique situé, une méthodologie et une épistémologie appro-
priées, car construite par et pour l’objet et le projet. La contex-
tualisation permet d’élaborer des outils d’aide à la décision et
donc à l’action pertinents au contexte. L’intérêt d’une contex-
tualisation apparaît alors dans toute la problématisation, c’est-
à-dire de l’identification de la problématique à la production de
connaissances appropriées. Contextualiser une problématique
consiste à la situer dans un espace spatio-temporel, ce qui si-
gnifie qu’une problématique placée dans un temps et un lieu
peut ne pas avoir le même traitement ou les mêmes résultats se-
lon que l’on modifie ce temps et/ou ce lieu.

La contextualisation concerne également l’identification de cri-


tères de pertinence dans le choix de l’objet. Il s’agit de se de-
mander quels critères pourraient définir le choix des cas afin
d’éliminer des dimensions qui freineraient la compréhension de
408 la recherche pour mettre en lumière celles qui la favoriseraient.
Cela peut être : un type d’activités, une structure organisation-
nelle, une situation concurrentielle, etc.

Identifier ces critères peut d’abord paraître trivial, mais les pré-
ciser permet une formalisation du cadre méthodologique de la
recherche et un cadrage pour choisir les entreprises focales.
La stylisation ou l’identification de ces critères de pertinence
ne constitue qu’une étape intermédiaire dans la production de
connaissances, car ils reposent sur un présupposé formel, ils
ont un statut davantage empirique que théorique, s’ils résistent
à l’étude, ils ont vocation à devenir des facteurs de contingence.
La contextualisation consiste donc également à identifier les
facteurs de contingence d’une problématique. Ils n’ont ni un
statut théorique, ni un statut empirique, mais un statut heuris-
tique, ils n’ont donc pas un caractère de validation empirique
au sens de l’épistémologie positiviste. Par exemple, Mintzberg

1. Les deux paragraphes suivants sont issus de notre mémoire de HDR, soutenue en
2010 (Payaud, 2010).
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

(1982) identifie quatre groupes de facteurs de contingence (âge


et taille, système technique, environnement, pouvoir) qui sont
autant de conditions permettant de comprendre pourquoi les
organisations se structurent comme elles le font. Ou encore Van
de Ven et al. (1989) affirment que la performance de l’entreprise
est la conséquence de la combinaison de deux facteurs au moins
(la stratégie, la structure, l’environnement, le style de manage-
ment ou la culture).

Morin (1999, p. 259) écrit à propos de l’économie qui « est la


science sociale mathématiquement la plus avancée, est la
science socialement et humainement la plus arriérée, car elle
s’est abstraite des conditions sociales, historiques, politiques,
psychologiques, écologiques inséparables des activités éco-
nomiques. C’est pourquoi ses experts sont de plus en plus in-
capables de prévoir et de prédire le cours économique même à
court terme ». Veillons à ce que l’expérience des sciences écono-
miques serve aux sciences de gestion et plus particulièrement
au management stratégique, si l’on ne veut pas qu’il se détache
du monde qu’il prétend étudier. Morin (1999, p. 259) ajoute : « la
connaissance doit certes utiliser l’abstraction, mais en cher-
chant à se construire par référence au contexte ». L’intérêt de la 409
contextualisation est donc de pouvoir construire des outils ajus-
tés aux contingences des situations, et ainsi de faire fonctionner
la production de connaissance adéquate.

2.2. Contextualisation, généralisation située et


connaissance générique (Payaud, 2010)
Nous faisions remarquer (Martinet & Payaud, 2009) que l’un
des traits majeurs de l’épistémologie positiviste est, sous l’exi-
gence de généralisation et d’accumulation des « résultats », de
refuser l’historicité du domaine. Méthodologiquement, en ré-
duisant les contextes et les espaces-temps à des variables de
contingence. Épistémologiquement, parce que la fragmentation
des questions de recherche et la spécialisation des chercheurs
interdisent et réputent non-scientifiques les vues de synthèse et
la saisie holiste des changements de portraits de phase comme
des rythmes lents. Ainsi, la recherche en management straté-
gique, en ne donnant pas au temps un rôle central – un temps
épais et irréversible bien sûr et non celui de la mécanique –,
C o nt ex t u a l i s e r l e s m é t h o d e s

contribue insuffisamment à la compréhension des changements


longs alors qu’ils sont de plus en plus façonnés par les activités
économiques et les entreprises et, plus encore, peine à les inté-
grer dans ses conceptualisations et ses théorisations.

Elles ne peuvent donc rien faire d’autre que du « postnormatif »


(Desreumaux, 2008), dépourvu tout à la fois de pouvoir prédic-
tif pratique et d’épaisseur historique puisque la décontextuali-
sation y est vue comme un gage de scientificité. Le stratégiste
peut-il se contenter d’expliquer des relations simples, stables
et moyennes ex post, dont il est héroïque de penser qu’elles
puissent caractériser ex ante une organisation spécifique dans
une situation inexorablement singulière, complexe et évolutive ?

Nous prenons donc le contre-pied de ce trait caractéristique des


recherches positivistes.

La contextualisation, (espace-temps et critère de pertinence)


permet d’intégrer l’historicité, la périodicité, une épaisseur, une
limitation géographique, un lieu, des hommes en ces lieux et
donc une culture, une sociologie, une anthropologie. Au plus la
réflexion est cadrée, contextualisée, au plus il est possible de
410
produire une connaissance spécifique et pratique.

Mais, le contexte renvoie à des caractéristiques génériques


qui se présentent comme des invariants qui sont autant de clés
transposables au sein d’une catégorie à construire (par exemple,
la grande entreprise de services de réseau dont on a présupposé
qu’elle présente une forme particulière). Ce caractère de trans-
position permet la réutilisation de l’outil générique dans une si-
tuation similaire aux intentions similaires. Avenier (2007, p. 148)
précise que « le qualificatif générique a été choisi pour signifier
que le couplage du travail épistémique avec le travail empirique
effectué en vue de la légitimation de ce savoir confère à ce savoir
un certain degré de généralité, ou plutôt de généricité, puisque
(…) dans les constructivismes, la généralisation ne vise pas tant
l’élaboration de théories universelles que la conceptualisation
de relations entre genres ».

Les propos de David (2005) permettent de comprendre l’enjeu


de la mise en relation contexte/transposition : « Il faut donc
pour généraliser les résultats d’une étude de cas, être capable
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

non pas seulement de décrire précisément le contexte (telle en-


treprise, tel projet, etc.) mais aussi et surtout, de dire de quel
genre de contexte il s’agit. Le fait que ce type de résultat soit
éventuellement plus conjectural que celui d’une approche quan-
titative ne change pas grand-chose : un résultat, quel qu’il soit,
n’est généralisable que s’il s’accompagne d’un certain nombre
de clés permettant de maîtriser un processus de transposition
qui reste, en son point de départ, au moins partiellement conjec-
tural » (David, 2005, p. 12).

3. RETOUR AUX FONDAMENTAUX


En réalité, nous nous retrouvons face au triptyque bien connu de
« méthodologie – épistémologie – produit de recherche », qui se
décline ici en : une épistémologie pragmatiste – une méthodolo-
gie où l’ancrage des données prévaut – un produit de recherche
à visée ingénierique.

Chaque élément de ce triptyque est interdépendant de l’autre,


et renforcé dans le contexte africain qui produit notamment un
apprentissage situé (Lane & Wenger, 1991).
411

3.1. Le triptyque théorique

3.1.1. Conséquences d’une épistémologie pragmatiste

Pour l’épistémologie positiviste adoptée aujourd’hui majoritai-


rement par le « mainstream » de la recherche académique en
gestion, le produit de la recherche va de soi : il s’agit d’établir
une relation de causalité – Si A alors B ou Plus A augmente plus
B diminue. Cette relation, si elle est validée statistiquement sur
des données empiriques réputées représentatives, est alors gé-
néralisée et donc extraite de son contexte initial pour devenir loi
générale.

Si le chercheur ne se satisfait pas de ce projet explicatif – dire le


monde tel qu’il se présente – mais poursuit une visée transfor-
matrice – comprendre une situation complexe faisant problème
et proposer des voies et moyens scientifiquement élaborés pour
la faire évoluer –, son produit de recherche devient instrumen-
C o nt ex t u a l i s e r l e s m é t h o d e s

tal et peut prendre diverses formes : un outil, un dispositif, une


démarche, une typologie, une taxonomie, un système cohérent
de propositions-guides… bref, tout « instrument cognitif » sus-
ceptible de donner davantage de sûreté intellectuelle à un dé-
cideur confronté à une situation semblable ou approchante de
la ou des situations empiriques que le chercheur a analysées et
structurées selon des dimensions explicites et un jeu approprié
de concepts.

C’est donc la visée de connaissance qui est première – appe-


lons-la ingénierique pour mettre en avant son côté conception,
design, ingenium…–. D’évidence, elle est plus praxéologique
que purement technique puisqu’elle concerne des facteurs,
mais aussi des acteurs sur lesquels elle ne sera jamais neutre.
Pour le chercheur en management, adopter une visée ingénie-
rique suppose donc qu’il explicite les valeurs fondamentales qui
sous-tendent ses propositions, par exemple une gouvernance
partenariale plutôt qu’actionnariale, un management participatif
plutôt qu’autoritaire, un développement des capacités humaines
plutôt que la seule exploitation de la force de travail des em-
ployés…
412
L’épistémologie positiviste privilégie des connaissances théo-
riques et réputées valables de façon générale, c’est-à-dire in-
dépendamment du contexte dont il convient de s’abstraire pour
faire science. L’épistémologie pragmatiste, au contraire, part
d’une situation faisant particulièrement problème dans certains
contextes qui sont donc déterminants, l’analyse, la structure, la
rend cognitivement saisissable, l’actualise puis fait l’effort d’éla-
borer des clés pour la changer, la transformer, la faire évoluer en
respectant les valeurs affichées.

Si l’épistémologie positiviste cherche à passer du particulier au


général, l’épistémologie pragmatiste travaille sur l’actuel d’une
situation pour proposer son changement, le virtuel. La première
cherche donc des explications générales à ce qui est ; la se-
conde propose une structuration de ce qui est mais sous une
forme empirique et peu saisissable et fournit des instruments
pour le changer.

On voit tout de suite combien le troisième volet du triptyque –


la méthodologie – se trouve affecté. Le positivisme part de la
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

théorie – l’analyse de la littérature – pour dégager une hypothèse


nouvelle, confronte celle-ci à des données empiriques, et si ces
dernières valident l’hypothèse, verse celle-ci à la littérature sous
forme de contribution théorique. La démarche est donc : théorie,
empirie, théorie.

L’épistémologie pragmatiste part d’une situation à problèmes,


l’analyse empiriquement, la structure de façon critique eu égard
aux dimensions retenues et aux valeurs affichées et propose des
voies et moyens en s’appuyant sur des concepts appropriés is-
sus de champs de littérature appropriés, pour obtenir virtuelle-
ment une situation améliorée.

La démarche est donc : situation faisant problème mais mal


structurée, enquête empirique et conceptuelle pour la structurer
de façon critique, propositions instrumentales susceptibles de
la faire évoluer de façon cohérente.

3.1.2. Apprentissage situé et pragmatisme

Le triptyque de cette épistémologie pragmatiste renvoie à


l’« apprentissage situé » (situated learning en anglais) de Lave 413
et Wenger (1991) qui a connu un engouement certain dans les
années 1990. Ces derniers présentent une critique radicale
des théories cognitivistes de l’apprentissage et défendent
l’idée selon laquelle la construction de la cognition ne s’envi-
sage que « située ». Situés dans une culture, dans des forma-
tions sociales, dans un contexte défini, l’apprentissage comme
la construction des connaissances ne sont pas le seul fruit du
chercheur. L’acquisition de capacités, de savoir ne se réalisent
plus lors d’un processus passif, il ne s’agit pas d’une connais-
sance abstraite et décontextualisée où les contextes culturels et
institutionnels sont négligés (Rogoff, 1990), mais dans un pro-
cessus participatif et en contexte. L’idée est donc qu’on ne peut
ignorer le contexte.

Ainsi, « à une conception de l’apprentissage et de la connais-


sance qui résulterait de l’expérience de sujets solitaires dans
un monde stable et objectif, [l’approche de la cognition située]
substitue celle d’un apprentissage et de savoirs résultant de la
participation active des sujets apprenants aux contextes sociaux
C o nt ex t u a l i s e r l e s m é t h o d e s

et matériels qui les entourent, la personne et le monde étant en-


tendus comme mutuellement constitutifs » (Moro, 2001, p. 494).

Toutes les activités humaines sont situées, c’est-à-dire que les


connaissances et les compétences qu’elles mobilisent sont
structurées dans un contexte social et culturel. Le triptyque dé-
crit en 3.1.1, en privilégiant une épistémologie pragmatiste, un
ancrage des données et un projet à visée opératoire, permet un
apprentissage situé où les connaissances ne sont pas créées
hors-sol, ne sont pas décontextualisés mais construite en inte-
raction avec son contexte et les éléments (acteurs et facteurs)
qui le constituent.

3.2. Les tâtonnements de l’apprenti chercheur


Il est aisé de s’égarer dans le triptyque, le formaliser et l’expliciter
permet l’identification des choix, leur justification et de contrô-
ler sa pertinence et sa cohérence tout le long du processus de
thèse. Autrement dit, une fois fixé, le doctorant-manager ne doit
pas perdre de vue son triptyque.

414
3.2.1. Ne pas perdre de vue le design

Lors de sa candidature à l’Executive DBA, et bien souvent en


début de première année, il est demandé au doctorant-manager
un projet de thèse. Derrière cette demande de projet de thèse, il
est attendu qu’il soumette, consciemment ou inconsciemment,
son design de la recherche. Ce document permet au directeur de
recherche de, certes, faire connaissance avec le doctorant-ma-
nager (ses préoccupations, son expérience professionnelle, ses
compétences), de découvrir le sujet, son intérêt potentiel, etc.
mais aussi de prendre connaissance du dispositif que le docto-
rant-manager souhaite mettre en place pour répondre à sa/ses
questions.

Ce dispositif appelé « canevas » (Huberman & Miles, 1991), « de-


sign » de la recherche (Marshall & Rossman, 1989) ou architec-
ture de la recherche, est « la trame qui permet d’articuler les dif-
férents éléments d’une recherche : problématique, littérature,
données, analyse et résultat » (Royer & Zarlowski, 1999, p. 139)
et, ajoutons, méthodologie et épistémologie, car selon nous le
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

design inclut le triptyque évoqué ci-dessus. Le design est donc


un document formel qui présente la démarche retenue : la visée
de connaissance, le cadre théorique, les choix méthodologiques
(méthodes de recueil, méthodes d’analyse), les choix épisté-
mologiques, et qui justifie l’ensemble des choix au regard de la
problématique, du projet. Il va sans dire que la formulation de la
problématique a des conséquences sur la démarche à suivre, sur
le projet et sur le produit et réciproquement (Figure 1).

Figure 1. Le design de la recherche

415

Ainsi, la qualité d’un design repose sur la logique de l’ensemble


de la démarche et sur la cohérence des éléments qui la consti-
tuent.

Le doctorant-manager connaît bien souvent le thème qu’il sou-


haite traiter et l’exprime sous forme de titre, mais lorsqu’il lui
est demandé de formuler la question à laquelle il souhaite ré-
pondre, plusieurs émergent, chacune implique parfois un projet
fortement différent des uns des autres. Le doctorant-manager
doit veiller à dégager une seule question à laquelle la thèse s’at-
tachera de répondre, celle-ci peut ensuite se décomposer en
deux ou trois sous-questions de recherche. Les réponses à ces
sous-questions de recherche sont comme des produits inter-
médiaires qui permettent de répondre à la question principale,
comme des réponses d’étape.
C o nt ex t u a l i s e r l e s m é t h o d e s

Le processus de thèse est long, les lectures sont nombreuses,


les occasions de présenter son travail, son avancement, ses ré-
sultats sont nombreuses, la tentation et/ou la nécessité d’ajou-
ter un concept, une question de recherche, un objectif peuvent
alors émerger. Le doctorant-manager doit alors veiller aux
conséquences sur le design et se demander sans cesse si le
« tout » reste cohérent et logique.

Encadré 2. Questions pour le doctorant-manager :


Ma question entraine-t-elle des implications managériales comme
réponses ?
Ma méthode permet-elle de répondre à la problématique ?
Ma méthode permet-elle d’arriver au type de résultats souhaité ?
Quelles sont les autres méthodes possibles ? Existe-t-il une mé-
thode complémentaire pour l’améliorer ?
En quoi la méthode retenue est-elle plus adaptée que les autres ?
Est-elle compatible ?
Ajouter une question de recherche permet-il de répondre à ma pro-
blématique ? ou de formuler une autre problématique ?

416 Le produit de recherche souhaité est-il en adéquation avec la métho-


dologie ?
Etc.

3.2.2. Questions et réflexions : des boussoles pour les docto-


rants-managers d’Executive DBA

L’ouvrage étant destiné à des doctorants-managers, les ques-


tionnements et réflexions qui peuvent être conduits autour de
certaines problématiques soumises sont autant de réflexes que
les doctorants-managers peuvent acquérir.

Exemple 1. « Financement bancaire de la PME au


Togo »
De nombreuses problématiques de recherche peuvent découler d’un
thème aussi large, avec des projets variés.
Constat/question : Quel est le constat ? Pourquoi s’intéresser à cela ?
Qu’est-ce qui pose problème aujourd’hui ? Quelle est l’entrave au-
jourd’hui ?
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

Quelle est la nature du projet (explorer, décrire, comprendre, expli-


quer, prescrire) ? Dans le cadre du Executive DBA : À qui va s’adres-
ser la visée prescriptive ? à qui vont s’adresser les implications mana-
gériales : Aux banques ? Aux PME ?
La compréhension du contexte : Quelles sont les spécificités du
contexte qui justifie un tel sujet ?
Où se trouvent la ou les spécificités du contexte ? Les PME ont-elles
des difficultés à obtenir des financements ? Les banques ont-elles
des produits (non) adaptés aux PME ? Le Togo présente-t-il des ré-
glementations (dé)favorables au financement des PME ?
Allez-vous interroger des banques ou des PME ? Les deux ?
Autant de questions (non exhaustives) dont les réponses peuvent
orienter la problématique.
Un élément de contexte qui ne peut être ignoré est la position du doc-
torant-manager. En effet, l’orientation implicite de la problématique
est bien souvent liée à la situation du doctorant, celui-ci n’aura pas
le même projet selon qu’il travaille dans une banque ou dans une
PME, ainsi les orientations managériales ne seront pas destinées aux
mêmes personnes.
Autre élément de contexte capital : Le Togo. Quel est le statut du
pays, ici ? Porte-t-il une spécificité contextuelle ? ou est-il seulement
un lieu d’illustration ? Si les financements offerts par les banques
togolaises sont spécifiques aussi à celles des pays voisins, ou diffé-
rents de celles pratiquées dans d’autres zones, alors le Togo peut être 417
un élément de contexte.
Si, en revanche, le Togo ne présente pas de spécificités dans la régle-
mentation, les pratiques, l’octroi des financements, etc. Il tient lieu
d’exemple parmi d’autres possibles, de cas. Et, probablement que le
sous-titre de la thèse sera : le cas des banques au Togo, ou le cas des
PME au Togo (selon le destinataire des implications managériales).
Le doctorant-manager s’appuiera alors sur des organisations au
Togo, le pays n’aura pas vocation à être élément de contexte.

Exemple 2. Nouveau management public et


performance organisationnelle – Réalités et
perspectives
Il s’agit d’un thème qui, d’un point de vue théorique, a déjà fait couler
beaucoup d’encre. En l’état, il peut s’agir du titre d’un ouvrage qui fe-
rait une revue de la littérature sur le nouveau management public et
qui dégagerait les évolutions possibles.
Constat/question : À quelle(s) question(s) répondra la thèse ? Quel
est le problème (à partir d’un constat) qui fera problématique ? S’agit-
il pour le doctorant-manager de mettre en place un nouveau manage-
ment public pour pallier les dysfonctionnements du ministère dans
lequel il travaille ?
C o nt ex t u a l i s e r l e s m é t h o d e s

Ici, le contexte n’est pas évoqué. Le contexte est-il un pays ? Est-il


un ministère ? Plusieurs ministères qui rencontreraient les mêmes
dysfonctionnements ? Le contexte concerne-t-il des services au sein
d’un ministère ? En quoi ce contexte contraste-t-il avec d’autres ?
Ces premières interrogations sont déterminantes parce qu’elles
vont justifier les destinataires des implications managériales. À qui
s’adressent-elles ? Les implications managériales, produit de re-
cherche de la thèse, doivent préciser la catégorie d’acteurs auxquels
elles s’adressent. Autrement dit qui mettra en place les implications
managériales ?
Un premier travail sera probablement la réalisation d’un bilan/dia-
gnostic de la mise en œuvre du « management public », puis de s’in-
terroger sur l’intérêt, la possibilité, la pertinence qu’un « nouveau ma-
nagement public » puisse être mis en place compte tenu du contexte…

CONCLUSION
Pour conclure, l’épistémologie pragmatiste qui doit conduire
à une approche plus intégratrice, notamment en management
stratégique, davantage liée à l’éthique et aux humanités, qui s’in-
téresse à la satisfaction de projets humains, qui souligne les di-
mensions morales et la valeur pratique de la recherche (Wicks
& Freeman, 1998) a des implications méthodologiques : une re-
418 lation avec le terrain, proche du terrain, et entraîne le chercheur
vers des outils discursifs, de l’échange, des conversations, des
interactions, etc. et a des implications épistémiques : Est vrai ce
qui est utile, opératoire, efficace, adéquat, correcte à une situa-
tion donnée, nommée « vérité-adéquation » par cette épistémo-
logie (Nonaka & Zhu, 2012).

Ainsi, le doctorant-manager d’Executive DBA qui doit produire


une recherche à visée opératoire et située, c’est-à-dire contex-
tualisée, propre à une catégorie de contexte, peut s’engager
dans une épistémologie pragmatiste, où une méthodologie qua-
litative peut le conduire à construire des études de cas via, par
exemple, des recherches-actions ou des recherches-interven-
tion. Triptyque qui paraît particulièrement adapté au regard des
différents objectifs de l’Executive DBA.
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

Références citées
Amable, B. (2003), The Diversity of Modern Capitalism, Oxford, Oxford
University Press. Trad. française (2005), Les cinq capitalismes,
Paris, Le Seuil.
Avenier, M.-J. (2007), Repères pour la transformation d’expérience
en science avec conscience, in M.-J. Avenier & C. Schmitt (dir.),
La Construction de savoirs pour l’action, Paris, L’Harmattan, p. 139-
169.
Berger, S. (2006), Made in Monde, Paris, Le Seuil.
Billett, S. (1996), Situated learning: Bridging sociocultural and
cognitive theorising, Learning and instruction, vol. 6, no 3, p. 263-
280.
Boyer, R. (2004), Une théorie du capitalisme est-elle possible ?, Paris,
Odile Jacob.
David, A. (2005), Des rapports entre généralisation et actionnabilité :
le statut des connaissances dans les études de cas, Revue
Sciences de Gestion, n°39, p. 139-166.
Desreumaux, A. (2008), Refaire de la stratégie, Finance-Contrôle-
Stratégie, n°Hors Série, p. 67-108.
Huberman, A. M. & Miles, M. B. (1991), Analyse des données
qualitatives : recueil de nouvelles méthodes, Éditions du Renouveau
pédagogique, De Boeck.
419
Lave, J. & Wenger, E. (1991), Situated Learning: Legitimate Peripheral
Participation, New York, Cambridge University Press.
Marshall, C. & Rossman, G. (1989), How to Conduct the Study:
Designing the Research. Designing Qualitative Research, Maryland,
Sage publications.
Martinet, A.C. (2007), Gouvernance et management stratégique : fin
de l’histoire ou régénération du politique, in A.C. Martinet (dir.)
Sciences du management : épistémique, pragmatique et éthique, Paris,
Vuibert-Fnege, p. 85-112.
Martinet, A.C. (2015), La recherche en management : une
épistémologie pragmatiste, in P. Beaulieu & M. Kalika (dir.), La
création de connaissance par les managers, Caen, Éditions EMS, coll.
« Business Science Institute », p. 25-52.
Martinet, A.C. & Payaud, M. A. (2009), L’insuffisance de l’histoire
dans la recherche francophone en management stratégique.
Chantier archéologique et implications épistémiques, Revue
entreprises et histoire, n°55, p. 24-36.
Martinet, A.C. & Pesqueux, Y. (2013), Épistémologie des sciences de
gestion, Paris, Vuibert-Fnege.
C o nt ex t u a l i s e r l e s m é t h o d e s

Morin, E. (1999), La pensée complexe, une pensée qui se pense,


in E. Morin & J.-L. Le Moigne (dir.), L’intelligence de la complexité,
Paris, L’Harmattan, p. 247-267.
Moro, C. (2001), La cognition située sous le regard du paradigme
historico-culturel vygotskien, Schweizerische Zeitschrift fur
Bildungswissenschaften, p. 493-512.
Mintzberg, H. (1982), Structure et dynamique des organisations, Paris,
Éditions d’Organisation.
Nonaka, I. & Zhu, Z. (2012), Pragmatic Strategy: Eastern Wisdom, Global
Success, New York, Cambridge University Press.
Payaud. M.A. (2010), Parce que des hommes ont faim…, Mémoire
de HDR, soutenue le 3 novembre 2010, Lyon3, 122 pages,
publié Stratégies BoP – L’entreprise contre les pauvretés, Éditions
Universitaires Européennes.
Rogoff, B. (1990), Apprenticeship in Thinking: Cognitive Development in
Social Context, Oxford, Royaume-Uni, Oxford University Press.
Royer, I., Zarlowski, P. & Thietart, R. A. (1999), Méthodes de recherche
en management, Paris, Dunod, p. 139-168.
Van de Ven, A.H., Harold, L.A. & Marshall, S.P. (1989), Research on
the Management of Innovation: The Minnesota Studies, New York,
Harper and Row.
420 Wicks, A. C. & Freeman, R. E. (1998), Organization studies and the
new pragmatism: Positivism, anti-positivism, and the search for
ethics, Organization science, vol. 9, no 2, p, 123-140.

Références pour en savoir plus


Martinet, A.C. & Pesqueux, Y. (2013), Épistémologie des sciences de
gestion, Paris, Vuibert-Fnege.
Comprendre les enjeux du triptyque, se forger des connais-
sances en épistémologies des sciences de gestion, et trouver
les arguments de l’épistémologie de votre recherche

Martinet, A.C. (2015), La recherche en management : une


épistémologie pragmatiste, in P. Beaulieu & M. Kalika (dir.), La
création de connaissance par les managers, Caen, Éditions EMS, coll.
« Business Science Institute », p. 25-52.
Le duo improbable fonde toute la légitimité de cet ouvrage dédié
à la conception d’une stratégie pragmatique.

Nonaka, I. & Zhu, Z. (2012), Pragmatic Strategy : Eastern Wisdom, Global


Success, New York, Cambridge University Press.
L e «   c o nt ex t e   » e t l a r e c h e r c h e e n t e r r e a f r i c a i n e

Sciences de la décision et de l’action, les sciences de gestion


peuvent suivre une épistémologie pragmatiste, en voici la dé-
monstration.

Wicks, A. C. & Freeman, R. E. (1998), Organization studies and the


new pragmatism: Positivism, anti-positivism, and the search for
ethics, Organization Science, vol. 9, no 2, p, 123-140.
Des arguments pour des recherches éthiques et responsables
parce qu’elles sont des recherches en sciences humaines.

421
CHAPITRE 23.
Mener une recherche ancrée sur le terrain :
la dynamique du collier de perles1

Aurélie Dudézert

Résumé

Le doctorant-manager a un double objectif : créer des


connaissances scientifiquement reconnues et créer des
connaissances directement utiles pour l’action managériale.
422
Il est alors dans une posture d’équilibriste entre le monde de la
pratique managériale et celui de la science. En prenant la mé-
taphore de la recherche comme collier de perles, ce chapitre
décrit comment tisser ce fil entre deux mondes dans le cadre
d’un projet de recherche en Management. À travers l’analyse
d’un projet de recherche mené en collaboration avec l’entre-
prise Bouygues Construction, il décrit la dynamique à l’œuvre
et liste des recommandations pour mener sereinement ces re-
cherches ancrées.

Mots-clés : collaboration entreprise, recherche-intervention,


posture de chercheur, intuition.

1. Ce texte est dédié à mon collègue et ami Eric Juin, ancien CKO de Bouygues
Construction, trop tôt disparu.

Les méthodes de recherche du DBA


M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

« Les perles composent le collier, mais c’est le fil qui fait le collier. »
Gustave Flaubert (Lettres à Louise Collet, 1853)

INTRODUCTION
Comment accompagner les acteurs d’une entreprise dans leurs
problématiques managériales tout en produisant des savoirs
scientifiques qui pourront être utilisés par d’autres chercheurs
et d’autres entreprises ? C’est la question à laquelle sont
confrontés de nombreux chercheurs en management et tout
particulièrement les doctorants-managers. La réponse peut
se faire en se référant à des protocoles de recherche comme
l’observation participante, la recherche-action ou la recherche-
intervention. Dans leurs présentations de ces méthodes de
recherche en relation avec un terrain, les chercheurs focalisent
souvent sur la manière de collecter les données terrain, de les
analyser et sur les résultats de cette analyse. Si la recherche était
un collier de perles, nous pourrions dire que ces présentations
mettent surtout l’accent sur les « perles » de la recherche.
Toutefois la présentation de ces démarches ne suffit pas toujours
à comprendre dans le détail la pratique de la construction de la 423
recherche en collaboration étroite avec l’entreprise.

Mener une recherche ancrée sur le terrain est un exercice diffi-


cile. Cela nécessite tout à la fois un travail de co-construction
avec les acteurs du terrain et une confrontation régulière avec
d’autres chercheurs pour parvenir à produire des connaissances
scientifiques. Cette pratique met le chercheur dans une position
d’équilibriste. Il est comme sur un fil entre deux mondes : celui
de la pratique managériale et celui de la science. Tisser ce fil
permet de monter ce collier de perles qu’est la recherche.

L’objectif de ce chapitre est de vous présenter le fil de ce


collier. Comment se construit ce fil entre les mondes de la
pratique managériale et celui de la recherche académique
en management pour produire le collier de perles ?

La section 1 présente la dynamique du collier de perles. En s’ap-


puyant sur l’exemple d’un projet de recherche mené avec l’entre-
prise Bouygues Construction, cette section explique comment
enfiler les perles. Les différentes étapes du dialogue entre le
C o nt ex t u a l i s e r l e s m é t h o d e s

monde de la pratique managériale et celui de la recherche aca-


démique sont développées.

La section 2 propose quelques recommandations pour mettre


en œuvre ce dialogue de façon sereine. Elle met en évidence les
points sur lesquels le doctorant-manager doit être tout particu-
lièrement vigilant lorsqu’il mène une recherche ancrée. Elle liste
des bonnes pratiques pour nouer une relation durable et profi-
table avec les praticiens.

1. LECTURE, ACTION, DISCUSSION, INTUITION,


ÉCRITURE : LA DYNAMIQUE DU « COLLIER DE
PERLES »
L’exemple d’un projet de recherche sur le management des
connaissances permet de présenter comment le chercheur peut
mettre en œuvre une démarche de recherche conciliant accom-
pagnement des acteurs de l’entreprise dans la résolution d’un
problème et création de connaissances scientifiques. À la lu-
mière de cet exemple, la dynamique de la construction du lien
entre pratique managériale et recherche académique pour pro-
424
duire des connaissances scientifiques est dégagée.

1.1. La théorie par l’exemple : le cas d’un projet de


recherche sur le management des connaissances
En Février 2013, le Chief Knowledge Officer (CKO) de Bouygues
Construction me contacte, car il souhaite être accompagné dans
la construction de sa démarche de management des connais-
sances. Je connais l’équipe responsable du management des
connaissances chez Bouygues Construction depuis plusieurs
années. Nous échangeons informellement dans le cadre d’un
club de praticiens. Nous avons déjà travaillé ensemble pédago-
giquement et scientifiquement sur différents projets. Ils savent
que je travaille sur le management des connaissances, sur ses
effets et sur les modalités de sa performance. L’ancien CKO,
avec qui j’ai échangé jusque-là, doit quitter sa fonction dans
quelques mois. Un des membres de son équipe, un proche col-
laborateur, va lui succéder. Le contexte de l’entreprise évolue
et la stratégie de management des connaissances doit évoluer.
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

L’ancien et le nouveau CKO souhaitent que la transition se passe


bien et ils voudraient avoir un regard extérieur pour définir plus
précisément les nouvelles orientations stratégiques. Ils vou-
draient notamment mieux comprendre certains blocages liés
à l’utilisation des technologies de management des connais-
sances dans leur entreprise. Ils me soumettent leur problème :
accroître l’efficacité du management des connaissances de
Bouygues Construction (Situation).

Après en avoir discuté en détail avec eux lors d’un entretien où


ils m’ont présenté les pratiques qui ont été développées jusque-
là et les technologies déployées, je me replonge dans mes tra-
vaux (Lecture) et je leur propose une expérimentation. Avec
deux autres collègues, nous allons déployer chez Bouygues
Construction la méthode de diagnostic du Management des
Connaissances que j’ai développée dans un travail antérieur –
méthode KM2P, Knowledge Management Performance Metrics
(Dudézert & Lancini, 2005 ; Dudézert, Prével & Sellin, 2016). Dans
le cadre d’une activité pédagogique à destination d’un groupe
d’étudiants de Master 2, j’organise une vingtaine d’entretiens
auprès de collaborateurs de Bouygues Construction. Puis nous
analysons ces entretiens et des documents sur le sujet fournis 425
par l’entreprise. Nous rédigeons un document synthétisant nos
analyses et nous présentons aux CKO nos résultats et recom-
mandations pour améliorer la stratégie de management des
connaissances de Bouygues Construction (Action). Les résul-
tats satisfont les deux CKO. Toutefois, les échanges avec l’en-
treprise révèlent des éléments qui me surprennent. Un question-
nement émerge pour moi autour de ces points d’étonnement. Je
vois en ces étonnements l’amorce d’une réflexion scientifique
(Intuition). Je décide donc d’approfondir le questionnement
émergeant en en discutant avec des collègues du Laboratoire
(Discussion). Je leur présente le cas en évoquant la perspective
d’en tirer des enseignements scientifiques dans le cadre d’une
publication. Nous échangeons à bâtons rompus et décidons de
poursuivre ensemble la compréhension de ce contexte.

Au même moment sort en France le nouvel album d’Astérix.


Cette sortie est un évènement, car pour la première fois l’album
n’est plus écrit et dessiné par Albert Uderzo, créateur de la série
avec René Goscinny, mais par Didier Conrad et Jean-Yves Ferri.
C o nt ex t u a l i s e r l e s m é t h o d e s

La sortie de ce livre s’accompagne d’une série de numéros spé-


ciaux et d’hommages dans la presse. Un cycle de conférences
est organisé sur le sujet à Paris. Ces évènements font écho,
pour moi, à des éléments perçus chez Bouygues Construction.
Intuitivement, je sens un lien que je ne parviens pas à formaliser.
Je me mets à relire les albums d’Astérix. Je lis les numéros spé-
ciaux sortis dans la presse, des études sur les Celtes, La guerre
des Gaules de Jules César, des analyses de l’œuvre d’Uderzo et
Goscinny et je réalise qu’Astérix est un véritable mythe. Je me
plonge alors dans des lectures sur les mythes et je cherche à
comprendre le lien avec le cas Bouygues Construction (Intuition).

Au fil de mes lectures, j’échange avec mes collègues (Discussion).


Ils rejoignent mon intuition et peu à peu émerge une idée : l’ap-
propriation des technologies de management des connais-
sances chez Bouygues Construction est influencée par le mythe
d’Astérix. Nous décidons d’écrire un article autour de cette idée
pour un colloque (Écriture). Pour cela, nous complétons nos lec-
tures et nous analysons de nouveau les données du cas. Nous
arrivons à la conclusion que la représentation des connais-
sances et du management des connaissances chez Bouygues
426 Construction est fortement influencée par une représentation
des connaissances et du management des connaissances spé-
cifiquement français, perceptible dans les albums d’Astérix
(Dudézert, Fayard & Oiry, 2014). Notre article est favorablement
accueilli par nos collègues universitaires. Nous recevons le prix
du meilleur article de la conférence pour cette production scien-
tifique.

Pour aller plus loin, nous décidons de revenir sur le terrain. Nous
présentons l’analyse au nouveau CKO de Bouygues Construction
et à un groupe de praticiens en management des connaissances
(Action). Le cas Bouygues Construction est présenté et l’analyse
du cas avec le mythe d’Astérix est ouverte à la discussion. Le dé-
bat s’enclenche immédiatement. Le recours au mythe d’Astérix
pour comprendre les blocages liés à l’appropriation des techno-
logies de management des connaissances dans les entreprises
françaises est jugé pertinent par les participants à cette réunion.
Chacun évoque une situation qu’il vit ou a vécue et qui lui permet
de comprendre cette analyse. Plusieurs disent que cette analyse
est « très vraie ». Un débat s’enclenche sur les technologies et
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

les pratiques de management des connaissances dans les or-


ganisations. L’analyse avec Astérix remporte l’enthousiasme et
nous avons plusieurs demandes d’écrits sur notre travail ou de
présentations de ces travaux dans des entreprises. Nous dé-
cidons alors de repartir sur un cycle de discussion et d’écriture
pour améliorer encore la connaissance développée. Ce nouveau
cycle donne lieu à une nouvelle publication (Dudézert, Fayard &
Oiry, 2015).

Encadré 1. Le mythe d’Astérix pour comprendre les


dynamiques organisationnelles du management
des connaissances
Astérix naît en 1959 sous la plume de René Goscinny et Albert
Uderzo. La série trouve rapidement son lectorat car elle répond aux
aspirations des Français de l’après-guerre. En incarnant l’idéal de la
résistance du petit contre le fort, contre les impérialismes (l’Empire
Romain) et les totalitarismes (les Goths et Normands) mais aussi la
défense des libertés individuelles contre toute forme d’uniformisa-
tion ou d’oppression, Astérix alimente un nouveau mythe français :
non plus celui d’une France souveraine dans son Empire d’Outre-
Mer, mais celui d’une nation indépendante non-alignée, anti colonia-
liste et anti impérialiste (Rouvière, 2008 ; 2013). Il véhicule également
des repères fondamentaux qui structurent les schémas culturels 427
français, et en particulier la « logique de l’honneur » mis en avant par
d’Iribarne (1989). Le mythe d’Astérix met en exergue l’image d’un gal-
lo-français à la franche gaieté, volontiers frondeur et susceptible, et
qui exprime son goût pour la convivialité à travers les plaisirs de la
table et de l’amour (Rouvière, 2013). Le succès d’Astérix à travers les
années en BD comme au cinéma montre qu’Astérix reste un mythe
fortement créateur de sens en France. C’est à ce titre qu’il contribue
à un cadre d’analyse pour explorer le rapport à la connaissance et à
sa gestion dans les entreprises françaises.
Les organisations, comme toute communauté humaine, véhiculent
des récits imaginaires, des formes symboliques imprégnées de réfé-
rences mythiques (Cabin, 1999). Construits au fil du temps, transmis
par les contes et récits, les mythes « historiques » (Burkert, 2013) ou
nationaux jouent en particulier un rôle structurant (Fayard, 2006).
En décrivant le passé spécifique de grandes familles et de nations,
ces mythes contribuent à la reproduction d’un univers fictionnel
dans lequel un groupe social se reconnaît. Pour ce groupe social,
ces mythes contribuent à interpréter et à donner du sens au réel.
Par ricochet, ces mythes structurent aussi le réel de ce groupe et
construisent les structures de significations qui orientent l’action
collective. Structurés autour d’un méta-langage et de chaînes de
symboles et de représentations, ces mythes sont identifiables et leur
analyse permet de décrypter le rapport de ce groupe social aux ar-
tefacts qui les entourent. Dans une organisation où un mythe « his-
C o nt ex t u a l i s e r l e s m é t h o d e s

torique » joue un rôle important, analyser le mythe permet de mieux


comprendre les dynamiques sociales à l’œuvre dans l’organisation.
Dans le cas de notre projet de recherche, nous proposons une com-
paraison entre les attentes des habitants du village d’Astérix quant
au management des connaissances au sein du village et les attentes
des salariés de Bouygues Construction quant au management des
connaissances au sein de leur entreprise. Cette comparaison est
présentée dans le tableau ci-dessous. Elle met en évidence une
convergence de points de vue.

Bouygues Construction Mythe d’Astérix


Connais- Issues des individus Issues des villageois et
sances et des routines collec- des routines collec-
tives : connaissances tives : connaissances
collectives, techniques propres des individus,
et procédurales. L’indi- respectées dans leurs
vidu ne doit pas trop se spécificités et toutes
mettre en avant. considérées comme
égales (anti-élitisme)
mais aussi connais-
sances collectives
structurantes.
Projet col- Projet porté par des Projet porté par tout le
lectif liens entre acteurs village sur le long terme,
construits sur du fondé sur des valeurs
long terme structuré profondes.
autour de fortes valeurs Structuré autour de la
428 communes (travail en communauté mais non
équipe, le « bel » ou- hermétiquement fermé
vrage…). (« ambassadeurs »).
Ce n’est pas la struc-
ture qui compte mais
les liens entre acteurs
pour construire le projet
collectif. Le projet peut
évoluer mais en conser-
vant les valeurs et le
mode de fonctionne-
ment de Constructor.
Animation Animation par la su- Animation par un chef
de l’action pervision hiérarchique élu démocratiquement
collective respectée. assumant responsabili-
té, autorité et unité.
Régulation Procédures : forme de Démocratie : règles
de l’action construction démocra- explicites, démocrati-
collective tique de la décision et de quement construites +
l’action. convivialité et bien-vivre
Règles souhaitées expli- ensemble.
cites, contrôlables, voire Sinon : Système D.
opposables.
Sinon : Système D.
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

1.2. Enfiler les perles : de situation en situation


Dans l’exemple présenté, on constate qu’une succession
d’étapes de dialogue entre le terrain et le monde académique est
à l’origine d’un résultat de recherche. Le résultat de recherche
prend ici la forme d’un article de recherche. L’écriture d’un article
ou d’un livre est effectivement un bon moyen de formaliser le ré-
sultat d’un travail en relation avec un terrain. L’écriture permet
de mettre le chercheur dans une dynamique d’aller-retour entre
le terrain et la recherche académique qui facilite le tissage du fil
du collier. Il permet aussi de rendre visibles les « perles » de la
recherche : un article devient une perle du projet de recherche.

La dynamique d’aller-retour pour tisser le fil alterne des phases


de Lecture, Action, Discussion, Écriture et Intuition. On peut re-
présenter l’alternance de ces phases comme dans la figure 1.

Figure 1. Une perle et son fil

429

Lorsqu’il présente son projet de recherche, le chercheur men-


tionne peu le rôle que joue l’intuition dans sa pratique. Mobiliser
l’intuition fait pourtant partie intégrante du projet de recherche.
L’intuition est comme le caillou dans la chaussure du marcheur.
Elle signale au chercheur que quelque chose pose un problème
et qu’il faut l’approfondir. Souvent, elle manifeste une connais-
sance tacite que le chercheur doit prendre le temps de formaliser.
C’est dans le temps de la discussion avec d’autres chercheurs
C o nt ex t u a l i s e r l e s m é t h o d e s

et dans le temps de l’écriture que cette connaissance tacite est


progressivement rendue explicite. Au fil du projet, on découvre
alors souvent que cette connaissance tacite est le rouage clé du
raisonnement scientifique mené par le chercheur.

Dans cette perspective, comme montré à la figure 2, construire


un projet de recherche en relation avec le terrain consiste à « en-
filer les perles », c’est-à-dire à tirer le fil de situation en situation.
Chaque situation vient enrichir la compréhension de la précé-
dente. Chaque résultat (perle) complète et enrichit le résultat
précédent. Au fur et à mesure, un collier est fabriqué. Un projet
de thèse de DBA peut ainsi être vu comme un collier. Le docto-
rant-manager se heurte à diverses situations managériales sur
son terrain, en prise avec le même projet de recherche. L’analyse
et la résolution de ces situations (Intuition, Action) par confron-
tation au monde académique (Lecture, Discussion, Écriture)
construisent peu à peu les résultats de la thèse.

Figure 2. Le collier de perles

430

2. PASSER DE LA FICELLE AU FIL DE PÊCHE :


COMMENT ASSURER UNE DÉMARCHE DE
RECHERCHE SEREINE AVEC LE TERRAIN ?
Lorsque l’on souhaite mener un projet de recherche utile pour
la pratique comme pour la recherche, il est important de por-
ter attention à deux points particuliers que sont le jeu des ac-
teurs impliqués par la recherche et la subjectivité du chercheur.
Quelques bonnes pratiques permettent aussi de cadrer le projet
et de consolider cette position d’équilibriste entre deux mondes,
nécessaire au projet.
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

2.1. Les points d’attention


Dans tout projet de recherche en étroite collaboration avec les
praticiens, le chercheur va être amené à s’engager sur le ter-
rain. Qu’il soit observateur-participant ou chercheur-acteur, le
chercheur va se trouver confronté à des jeux d’acteurs au sein
de l’entreprise et les acteurs lui affecteront nécessairement une
place « dans leur système de relations et d’action » (Girin, 1990).
Par exemple, le commanditaire de la recherche a un avis sur le
problème que doit aider à résoudre le chercheur. Il va chercher
à l’orienter pour qu’il rejoigne son avis. Les autres acteurs de
l’entreprise sont conscients de cette situation et verront alors
le chercheur comme un relais du commanditaire. Ils ne livreront
que les informations qu’ils livreraient au commanditaire s’il ve-
nait lui-même les consulter. Il est important que le chercheur
analyse et explicite la place qu’il occupe afin d’identifier ces jeux
d’acteurs et l’influence qu’ils peuvent avoir sur sa démarche de
recherche.

Second point d’attention : la subjectivité du chercheur lui-


même. Le chercheur n’est pas neutre dans sa relation avec le ter-
rain. Le chercheur est affecté lui-même dans ses observations 431
par ses propres valeurs, histoires, principes. Il y a une interfé-
rence inévitable entre la subjectivité du chercheur et le terrain.
Par exemple, un chercheur comprend que sa démarche de re-
cherche va conduire naturellement à licencier du personnel. Cet
acte de management affecte profondément ses valeurs. Pour lui,
la recherche doit conduire au progrès social et pas au malheur
des salariés. Son résultat de recherche va naturellement être im-
pacté par sa compréhension de cette situation. Comme l’évoque
Philippe Baumard, un chercheur n’est jamais neutre dans son
rapport au terrain. Toutefois, il doit travailler à être conscient de
la place que tient sa subjectivité dans sa relation au terrain et in
fine son résultat (Baumard, 2003).

2.2. Quelques bonnes pratiques


Pour tisser un fil solide et travailler en bonne intelligence avec
une entreprise, il est tout d’abord important de comprendre
pourquoi l’entreprise s’intéresse à votre recherche. Il est rare
que des praticiens s’intéressent uniquement à la contribution
C o nt ex t u a l i s e r l e s m é t h o d e s

de votre travail à la science. Généralement les acteurs de l’en-


treprise soutiennent votre projet parce qu’ils en attendent un
bénéfice. Une étape de votre travail consiste à répondre à cette
attente. Identifier l’origine de la motivation des acteurs de l’en-
treprise à mener ce projet de recherche avec vous, vous permet
de fournir des résultats adaptés à l’entreprise et de nouer une
relation fructueuse pour la durée du projet de recherche. Ainsi
une entreprise peut choisir d’entamer un projet de recherche
avec vous parce que celui-ci lui permet à terme de développer
une nouvelle compétence ou une nouvelle méthode/outil utile
pour son business. Certains commanditaires de la recherche
peuvent aussi être intéressés par une prise de recul sur l’activité
courante pour mieux organiser le travail par exemple. D’autres
cherchent une légitimité ou une caution scientifique pour justi-
fier des décisions managériales. Enfin certains se lancent dans
ce type de projet pour développer une image de marque d’ouver-
ture et d’innovation.

Une fois les motivations de l’entreprise identifiées, il est impor-


tant de définir le cadre de la recherche. Il convient en particulier
de définir strictement les modalités de votre intervention et les
432 livrables que vous remettrez à l’entreprise dans un document/
convention de recherche. Si vous n’êtes pas salarié de cette en-
treprise, il est nécessaire d’établir un tarif à votre intervention.
Votre travail bénéficie à l’entreprise sur un des volets mention-
nés précédemment. Ce travail a donc une valeur. Il est utile d’ex-
pliciter cette valeur. La formulation de votre démarche en pres-
tation et tarif est aussi une garantie pour l’entreprise. Cela vous
engage à vous positionner dans le même référentiel de valeurs
et de principes d’action que l’entreprise. L’enjeu est pour vous de
faire comprendre à l’entreprise la différence de votre interven-
tion en tant que chercheur en management et d’une intervention
classique de consultant. Vous pourrez indiquer en particulier
à l’entreprise que vous ne fournissez pas de solutions toutes
faites. Vous proposez des analyses et prises de recul qui s’ap-
puient sur d’autres cas que vous avez traités, mais aussi toute
une littérature, des expérimentations et des résultats validés
scientifiquement sur ces sujets.

Au quotidien, lors du projet, il est essentiel de travailler en toute


transparence avec le terrain. Établir un dialogue constructif et
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

pédagogique avec le commanditaire de la recherche et expliquer


à chaque étape vos objectifs et votre rôle permet de construire
la confiance et d’associer étroitement les acteurs de l’entreprise
à votre démarche. Pour cela, il convient d’être curieux, humble
et ouvert d’esprit. Chaque entreprise et métier est différent.
Travailler avec une entreprise sur un projet de recherche néces-
site d’avoir envie de découvrir son métier et la manière dont elle
le met en œuvre. Par ailleurs, comme chercheur et de par votre
connaissance de la littérature, vous êtes souvent confrontés à
des situations déjà connues. Toutefois, il ne faut jamais oublier
que ces situations ne sont pas toujours tout à fait les mêmes en
contexte. Par ailleurs, seuls les praticiens connaissent vraiment
leur pratique de travail. Dans ce dialogue quotidien avec le ter-
rain, le jugement de valeur et la prétention sont les ennemis du
chercheur. Pour être au plus près du terrain dans le quotidien
du projet de recherche, il est aussi avantageux d’apprendre le
vocabulaire, les codes, les métiers et les mythes de l’entreprise.
Ces connaissances permettent de développer les capacités
d’écoute. Un salarié vous parlera d’autant mieux de sa pratique
de travail que vous parlerez sa « langue ».

Un des risques d’un travail étroit avec le terrain pour un cher- 433
cheur est d’être « happé » par le terrain, c’est-à-dire de ne
plus parvenir à prendre le recul nécessaire pour produire une
connaissance scientifique. Pour éviter cela, plusieurs disposi-
tifs peuvent vous aider. Tout d’abord, il convient de travailler à
développer votre réflexivité sur la pratique managériale au quo-
tidien. La tenue d’un carnet de bord décrivant ce que vous avez
fait, avec qui vous avez travaillé, ce que vous avez observé, ce qui
vous étonne, ce qui vous intéresse dans le travail avec le terrain,
contribue à une prise de recul régulière, utile pour tirer le fil de
la réflexion. La transcription des entretiens conduits et des ob-
servations que vous aurez notées, à l’instar de comptes-rendus
de réunion auxquelles vous avez participé, vous aideront aussi.
À ces outils du quotidien, il est utile d’associer des « instances
de contrôle » (Girin, 1990) du côté des institutions de recherche.
Dans le cadre d’un DBA, ces instances sont souvent structurées
par la formation. Ainsi, les étapes de présentation des travaux
constituent ces instances de gestion. Elles ont pour objectif de
confronter régulièrement le chercheur à la controverse scienti-
fique. Le travail est discuté et challengé par d’autres chercheurs
C o nt ex t u a l i s e r l e s m é t h o d e s

afin de l’éclairer le mieux possible et de faire émerger des perles


progressivement. Le travail avec d’autres chercheurs est tout
particulièrement nécessaire pour un chercheur qui souhaite me-
ner une recherche ancrée.

Encadré 2. Le fil de la collaboration avec Bouygues


Construction
Motivation du commanditaire : nous identifions que le CKO
s’intéresse à nos travaux car il souhaite prendre du recul sur son
activité courante pour mieux organiser le travail.
Cadre de l’intervention : nous proposons au CKO une collaboration
structurée autour d’une activité pédagogique. Pour lui, c’est l’occa-
sion de bénéficier de notre expertise. Pour nous, c’est l’opportuni-
té de faire découvrir aux étudiants la pratique de management des
connaissances dans l’entreprise. Nous écrivons un document syn-
thétisant les modalités de l’activité pédagogique, son contexte, son
déroulement et ses livrables.
Dialogue avec l’entreprise : en amont de l’étude dans le cadre de
l’activité pédagogique, nous sommes allées rencontrer le com-
manditaire sur son lieu de travail pour observer les habitudes et les
postures des acteurs. Nous nous faisons expliquer le métier, les
termes et les mots que nous ne comprenons pas. Nous avons été
434 impressionnées et marquées par l’esthétique et l’architecture du
siège social à Guyancourt qui rappelle la magnificence du château
de Versailles. Nous comprenons la fierté des membres de cette en-
treprise quant à leur métier, leurs origines françaises et la place de
la famille Bouygues dans le projet de l’entreprise. Nous lisons aussi
des articles de presse sur l’entreprise Bouygues Construction pour
nous imprégner du contexte de travail. Au cours de l’étude, nous
échangeons régulièrement avec le commanditaire sur les avancées
du travail, les difficultés que nous rencontrons ou les étonnements
que nous avons pour l’informer et pour susciter ses réactions.
Réflexivité : Nous travaillons à 3 collègues avec les étudiants sur ce
projet. Nous allons mener les entretiens avec les étudiants et puis
nous échangeons toutes les trois sur nos observations, nos intui-
tions, nos ressentis. Par la suite, je poursuis la réflexivité en confron-
tant mes premières analyses à des lectures et à des avis de collègues
chercheurs en Laboratoire.

CONCLUSION
Mener une recherche ancrée est comme tirer un fil entre le terrain
(analyse et résolution de situations par l’intuition et l’action) et
le monde académique (lecture, discussion, écriture). Il ne s’agit
M e n e r u n e r e c h e r c h e a n c r é e s u r l e t e r ra i n

pas de confronter le terrain et la pratique comme deux mondes


qui s’opposent mais plutôt de faire naître de nouvelles perles de
la rencontre entre les deux univers.

Pour parvenir à cela et nouer une relation sereine avec un terrain


dans le cadre d’un projet de recherche, je vous conseille de tra-
vailler sur quatre points particuliers :
–– en amont du projet, identifier la motivation qui conduit l’en-
treprise et le commanditaire à s’intéresser à votre recherche ;
–– définir le cadre de la collaboration de recherche (modali-
tés de l’intervention/interaction avec l’entreprise, livrables,
éventuellement tarifs…) ;
–– en cours de projet, établir un dialogue constructif avec l’en-
treprise fondée sur la curiosité, l’écoute, l’humilité et le res-
pect mutuel ;
–– développer votre réflexivité sur vos observations et actions
à l’aide d’outils comme le carnet de bord ; la présentation
de vos travaux en séminaire, en formation, en conférence ;
la discussion à bâtons rompus avec d’autres doctorants-
managers ou des chercheurs que vous côtoyez dans les cours.
435

Références citées
Baumard, P. & Ibert, J. (2003), Quelles approches avec quelles
données ?, in R.-A. Thiétart (dir.), Méthodes de recherche en
Management, 2e édition, Paris, Dunod, p. 82-103.
Burkert, W. (2013), Qu’est-ce qu’un mythe, Les grands mythes de
l’humanité, Le Monde des Religions, Hors Série n°21, p. 6-9.
Cabin, P. (1999), Les mythes de l’entreprise, in Les organisations,
Paris, Éditions Sciences Humaines, p. 279-284.
Dudézert, A. & Lancini, A. (2005), Quelle mesure de la performance
pour les démarches de Gestion des Connaissances ?, Actes
de la 10e Conférence Internationale de l’Association Information et
Management (AIM), 22-23 septembre, Toulouse, France.
Dudézert, A., Fayard, P. & Oiry, E. (2014), Astérix et la Gestion des
Connaissances 2.0, Une exploration de l’appropriation des
SGC 2.0 par le mythe du Village Gaulois, Actes de la 19e Conférence
Internationale de l’Association Information et Management (AIM), 20-
21 mai, Aix-en-Provence, France.
Dudézert, A., Fayard, P. & Oiry, E. (2015), Astérix et la gestion des
connaissances 2.0 : une exploration de l’appropriation des
C o nt ex t u a l i s e r l e s m é t h o d e s

SGC 2.0 par le mythe du Village Gaulois, Systèmes d’information &


management, vol. 20, no 1, p. 31-59.
Dudézert, A., Prével, P. & Sellin, K. (2016), Manager avec efficacité
les connaissances de votre entreprise, Paris, Éditions Ellipses, coll.
« Kit Pratique ».
Fayard, P. (2006), Le réveil du samouraï : Culture et stratégie japonaise
dans la société de la connaissance, Paris, Dunod/Polia Ed.
Girin, J. (1990), L’analyse empirique des situations de gestion :
éléments de théorie et de méthode, in A.-C. Martinet (dir.),
Épistémologies et sciences de gestion, Paris, Economica, p. 141-182.
D’Iribarne, P. (1989), La logique de l’honneur : Gestion des entreprises et
traditions nationales, Paris, Éditions du Seuil.
Rouvière, N. (2008), Astérix ou la parodie des identités, Paris,
Flammarion, coll. « Champs ».
Rouvière, N. (2013), La France des Lumières est tout entière dans
Astérix, Astérix, Notre Héros : la Saga, Le Point, Hors Série,
novembre-décembre, p. 42-47.

Références pour en savoir plus


Berry, M. (2000), Diriger des thèses de terrain, Gérer et comprendre,
vol. 12, n°62. http://www.annales.org/gc/2000/gc12-2000/88-97.
436 pdf
Dans cet article Michel Berry partage son expérience de directeur
de thèse privilégiant les recherches ancrées. Il décrit l’ensemble
du processus de thèse vécu par le doctorant (recherche du ter-
rain, atterrissage, socialisation, arrachement du terrain, rédac-
tion de thèse, soutenance). Il met en lumière le rôle du directeur
de thèse à chaque étape et précise la manière dont le doctorant
construit le dialogue entre terrain et monde académique.

Maizeray, L. & Janand, A. (2017), Projecteur sur l’imagination dans la


découverte scientifique selon une perspective bachelardienne :
le cas de deux recherches en gestion des ressources humaines,
Revue Qualitative, vol. 36, no 1, p. 45-66. Disponible à : http://www.
recherche-qualitative.qc.ca/documents/files/revue/edition_
reguliere/numero36/rq-36-1-maizeray-janand(1).pdf
Dans cet article, les auteures soulignent le rôle joué par l’in-
tuition et l’imagination dans la pratique de la recherche en
Sciences de Gestion. Elles illustrent cette analyse en décrivant
le rôle qu’ont joué l’intuition et l’imagination dans deux de leurs
projets de recherche.
CHAPITRE 24.
L’émergence de la science du design en
management comme approche de recherche

Laurent Renard et L. Martin Cloutier

Résumé

Dans ce chapitre est présenté un bref survol de l’approche


de recherche en science du design (RSD) dans la discipline
du management. Cette approche de recherche est orientée
437
vers la recherche de solutions à des problèmes de terrain
qui auront été convertis en une classe de problème par le
manager-chercheur. Ce dernier se donne pour objectif de
développer des solutions génériques basées sur l’élaboration
de propositions de design qui pourront être mobilisées dans
une organisation pour élaborer des solutions précises qui se
rapportent à la même classe de problème. Le processus de RSD
exige de réaliser quatre grands types d’activités à savoir : 1.
L’explicitation de la situation posant problème et sa conversion
en une classe de problème générique  ; 2. Réalisation d’un
état de la connaissance systématique  ; 3. Le développement
de la solution générique (les propositions de design) ; et 4.
L’évaluation de la solution générique (les propositions de
design).

Mots-clés : science du design, recherche en science du de-


sign, management, activités de recherche.

Les méthodes de recherche du DBA


C o nt ex t u a l i s e r l e s m é t h o d e s

“We spend a lot time designing the bridge, but not enough time
thinking about the people who are crossing it.”
Dr. Prabhjot Singh,
Director of Systems Design at the Earth Institute

« Le design ce n’est pas l’apparence et le ressenti.


C’est comment cela fonctionne. »
Steve Jobs (1955-2011)

INTRODUCTION
Le domaine des sciences de la gestion est soumis depuis plu-
sieurs années à une réflexion de fond portant sur la rigueur et la
pertinence des travaux qui y sont menés. Pour assoir la légitimi-
té scientifique de ce domaine, les chercheurs ont eu tendance à
mettre l’emphase sur la rigueur méthodologique afin de produire
des connaissances valides et robustes. En conséquence, le
questionnement sur la pertinence des recherches, menées pour
les milieux de pratiques ou de l’enseignement de la gestion, a
souvent été mis de côté (Benbasat, 1999  ; Davenport & Markus,
438 1999  ; Lee, 1999). Une avenue de réponse à ce questionnement,
consiste à considérer la recherche en gestion selon la pers-
pective des travaux de Herbert Simon consacrés aux sciences
de l’artificiel. En effet, Simon (1996) envisage les organisations
comme des objets artificiels conçus et développés par des indi-
vidus et des groupes pour répondre à des besoins et buts parti-
culiers. À l’intérieur des sciences de l’artificiel que Simon (1996)
distingue des sciences naturelles – essentiellement du point de
vue des paradigmes et méthodes de recherche et non des ob-
jets de recherche propres aux sciences de la gestion – il propose
d’établir une science du design dont l’objectif consiste à pro-
duire des connaissances portant sur la conception d’objets ar-
tificiels. Dans le domaine des sciences de la gestion, des disci-
plines comme le management ou les systèmes d’information se
sont approprié les idées de Simon pour proposer des approches
de recherche en science du design (RSD).

Dans la discipline des systèmes d’information, la RSD connaît


un certain engouement depuis près d’une vingtaine d’années
environ avec les travaux précurseurs de March et Smith (1995)
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

suivis par ceux de Hevner et al. (2004) qui ont été publiés dans la
revue MIS Quarterly. En 2008 et 2013 cette revue publia également
deux numéros thématiques portant précisément sur la RSD. Ces
écrits ont tôt fait de légitimer la RSD et la manière de la position-
ner et d’en communiquer les résultats de recherche (Gregor &
Hevner, 2013)  ; voire la manière de la présenter comme une ap-
proche de recherche permettant de produire des connaissances
pertinentes et rigoureuses pour la discipline des systèmes
d’information. Parallèlement à la pénétration de la RSD dans la
discipline des systèmes d’information, des avancées souvent
moins en évidence dans la littérature se sont produites dans la
discipline du management plus généralement (Romme, 2003  ;
van Acken, 2004  ; numéro thématique de la revue Organization
Studies en 2008).

Dans ce chapitre est présenté un bref portrait de l’approche de


RSD dans la discipline du management. Afin d’éclairer tout cher-
cheur intéressé à mobiliser ce type d’approche de recherche,
dans une première partie, un exemple de recherche menée dans
la discipline du management est présenté. Dans une deuxième
partie, les principaux postulats concepts et activités d’une RSD
sont précisés. Une conclusion sous la forme d’un ensemble de 439
directives à suivre à l’attention du manager-chercheur pour me-
ner une RSD clôt ce chapitre.

1. PRÉSENTATION D’UN EXEMPLE DE RSD


Pries-Heje et Baskerville (2008, 2010) présentent un exemple de
RSD dans la discipline du management qui porte sur le choix
d’une stratégie de changement organisationnel. En effet, plu-
sieurs stratégies de changement organisationnel ont été pro-
posées par des consultants ou des chercheurs (Autissier et al.,
2018), ce qui pose un problème de choix pour les organisations.
Le problème de terrain à résoudre (la situation posant problème)
peut s’exprimer de la manière suivante : comment choisir la stra-
tégie de changement organisationnel qui soit la mieux alignée
avec les besoins et le contexte de l’organisation  ? Pour répondre
à ce problème de terrain, les chercheurs ont dans un premier
temps réalisé une recension des différentes stratégies de chan-
gements organisationnels que l’on retrouve dans la littérature
scientifique et professionnelle. Ils ont dans un deuxième temps
C o nt ex t u a l i s e r l e s m é t h o d e s

étudié les caractéristiques les plus significatives du contexte or-


ganisationnel qui sont à considérer dans le choix d’un type de
stratégie de changement organisationnel. Dans un troisième
temps, ils ont cerné dix stratégies de changement organisation-
nel qu’ils ont présenté sous la forme de propositions de design.
Chacune de ces dix stratégies de changement organisationnel
est associée à des caractéristiques particulières du contexte or-
ganisationnel, et à des raisons et des objectifs de changement
précis. Voici un exemple de proposition de design : Si vous vou-
lez mettre en œuvre un changement organisationnel dans la si-
tuation ou vous croyez que :
–– les structures formelles nécessitent un changement  ; et
–– le changement est nécessaire rapidement.

Alors vous devez choisir une approche de changement organi-


sationnel de type « commandement » où le changement est gui-
dé et dicté par la haute direction  ; et où la haute direction tient
les rôles de propriétaire, de commanditaire et d’agent de chan-
gement (Pries-Heje & Baskerville, 2010, p. 289).

Les chercheurs ont par la suite testé ces dix propositions de


440 design auprès de deux organisations qui désiraient choisir une
stratégie de changement organisationnel. Un questionnaire a été
élaboré et a été administré auprès de la haute direction qui devait
exprimer son degré d’accord ou de désaccord sur une échelle
avec les dix propositions de design qui représentent les dix stra-
tégies de changement possibles. Un score est alors calculé pour
ordonnancer ces dix propositions de design afin de choisir celle
qui est la mieux adaptée au contexte organisationnel, aux rai-
sons et aux objectifs de changement de l’organisation.

À la fin de la recherche, dix stratégies de changement organisa-


tionnel qui se différencient les unes des autres selon les carac-
téristiques du contexte organisationnel, les raisons et les objec-
tifs de changement souhaités de l’organisation ont été définis.
Ces dix stratégies ont été présentées sous la forme de propo-
sitions de design. Un questionnaire a été élaboré pour détermi-
ner parmi ces dix stratégies celles qui convient le mieux à une
organisation particulière. Tant les propositions de design que le
questionnaire ont été évalués auprès de deux organisations afin
d’en assurer une validité pragmatique.
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

À partir de cet exemple, trois principales caractéristiques d’une


RSD sont dégagées :
–– le chercheur qui s’engage dans une RSD a pour volonté
de modifier une situation posant problème (un problème
de terrain)  ; il s’engage dans le monde et est un acteur de
changement de celui-ci  ;
–– une RSD vise le développement d’une solution innovante
et générique qui se veut être une réponse possible à une
classe de problème qui est dérivée d’un problème de terrain
dans une organisation  ;
–– une RSD vise le développement de connaissances pres-
criptives prenant la forme de propositions de design qui
pourront être employées par la suite par des spécialistes
du management dans différents contextes organisation-
nels où se présente une même classe de problème.

2. PRINCIPAUX FONDEMENTS, CONCEPTS ET


ACTIVITÉS DE LA RSD
Van Aken et Berends (2018) définissent la RSD comme un type 441
de stratégie de recherche dont le but est de développer des
solutions génériques à des classes de problèmes. Les termes
« classe de problème » et « solution générique » signifient que,
si le point de départ est un problème de terrain spécifique à une
organisation devant lequel les spécialistes du management
sont dépourvus des connaissances nécessaires à la mise en
œuvre d’une solution satisfaisante permettant de le résoudre, le
chercheur devra démontrer que ce problème est généralisable
et qu’une solution générique pourra être conçue et dévelop-
pée. Une solution générique est exprimée sous la forme d’un
ensemble de propositions de design. Cette solution générique
devra cependant être adaptée au contexte particulier d’une orga-
nisation lorsqu’elle sera mise en œuvre pour répondre à un pro-
blème de terrain : elle deviendra alors une solution spécifique
à un problème de terrain. Une solution spécifique peut prendre
la forme d’une méthode ou de manière plus générale d’une in-
tervention. Une méthode se définit par un ensemble d’attributs
(Braun et al., 2005) qui sont : 1) une orientation vers un but à at-
teindre en suivant un ensemble de règles ou de procédures  ;
C o nt ex t u a l i s e r l e s m é t h o d e s

2) une approche systématique pour permettre la déduction des


étapes ou des activités à accomplir pour atteindre ce but  ; 3) des
principes de construction ou des stratégies  ; et 4) une reproduc-
tibilité qui assure sa réutilisation en d’autres contextes où elle
serait adaptée ou adaptable.

Dans une RSD une organisation est envisagée comme un sys-


tème sociotechnique (Carlsson et al., 2010  ; van Aken, 2018).
Comme système sociotechnique particulier produisant un bien
ou un service, l’organisation possède un caractère dual, car
elle est à la fois produite par les actions et interventions de ses
propriétaires, gestionnaires, et autres parties prenantes – elle
est donc designée, et de l’autre, elle émerge et se développe à
travers les interactions de ses acteurs, leurs expérimentations
et leurs apprentissages – elle est aussi émergente. Cette carac-
téristique est importante, car cela indique que lors de l’implé-
mentation d’une solution définie dans une organisation, le ré-
sultat ne sera jamais déterminé d’avance, mais reposera sur la
capacité des membres de l’organisation de se l’approprier et de
la mettre en œuvre.

442 Dans une RSD, le chercheur occupe une position particulière.


Face à son objet de recherche, il ne se place pas comme un ob-
servateur extérieur cherchant à élaborer des connaissances
nouvelles visant l’explication ou la compréhension (Romme,
2003). Sa finalité n’est donc pas la connaissance vraie comme
une fin en soi. À l’inverse, le chercheur menant une RSD est im-
mergé dans son objet de recherche, il se donne pour objectif de
modifier la réalité, c’est-à-dire de « changer le monde » pour le
mieux – au sens qu’il aura conçu et développé une solution gé-
nérique répondant à une classe de problème de manière satisfai-
sante. La connaissance est un moyen mobilisé par le chercheur
pour arriver à l’élaboration d’une solution générique (Romme,
2003). Plus précisément, la finalité de son travail de recherche
sera constituée de deux grands types de résultats. D’un côté, on
trouvera la solution générique proprement dite qui pourra être
instanciée sous la forme d’une solution spécifique dans une or-
ganisation. De l’autre, un ensemble de propositions de design
bien documentées et testées, c’est-à-dire qui auront été validées
pragmatiquement (Romme, 2003  ; van Aken, 2004, 2005, 2007 ;
van Aken & Berends, 2018).
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

Plusieurs modèles détaillant les activités à accomplir dans le


cadre d’une recherche en science du design existent (Romme,
2003 ; van Aken & Romme, 2009). Si ces modèles peuvent dif-
férer sur la terminologie ou le nombre d’activités ou d’étapes à
réaliser, il est quand même possible de proposer un modèle gé-
nérique composé de boucles de rétroaction itératives à partir de
ces propositions. Il est important aussi de rappeler, à l’instar de
van Aken (2005), que le chercheur devra au moment de la plani-
fication et de la conception de sa recherche définir clairement
la manière dont il compte s’y prendre pour mener sa recherche.
Généralement, la présentation du processus de design de la re-
cherche se retrouve dans une partie distincte d’un document de
recherche. Dans le modèle proposé à la figure 1, quatre grandes
activités ont été établies.

Figure 1. Activités d’une RSD dans la discipline du


management

443

1. L’explicitation de la situation posant problème (problème spéci-


fique au terrain de recherche) est la première activité à me-
ner. Le résultat de cette première activité est central, car il
C o nt ex t u a l i s e r l e s m é t h o d e s

va orienter le type et la nature de la solution générique qui


sera conçue et développée. La plupart du temps, les infor-
mations recueillies par le chercheur sont confuses ; car les
parties prenantes en ont une représentation qui peut diffé-
rer dans la mesure où elles portent des valeurs qui entrent
en conflit les unes avec les autres. De plus, le système so-
ciotechnique même sur lequel le chercheur intervient pos-
sède une étendue et une profondeur aux contours flous.
2. La réalisation d’un état de la connaissance systématique est la
deuxième activité à mener. Le chercheur doit consulter
les différentes bases de données disponibles dans son
institution pour répertorier les écrits scientifiques et pro-
fessionnels qui ont déjà traité du problème à l’étude. Les
études de cas sont très souvent des sources d’information
de première importance dans la recherche (Denyer et al.,
2008). Cet état de la connaissance permettra deux choses.
Premièrement, de vérifier l’existence ou non de solutions
à ce type de problème, et le cas échéant, d’en comprendre
leurs limites. Deuxièmement, d’identifier une contribution
de recherche qui est exprimée sous la forme d’une classe
444 de problème pour laquelle une solution générique devra
être développée.
3. Le développement de la solution générique (les propositions de
design) est la troisième activité à réaliser. Une proposition
de design est un ensemble de connaissances prescrip-
tives et générales – une heuristique – reliant une solution
générique proposée à un résultat désiré ou à un niveau de
performance attendu dans un certain domaine d’applica-
tion (van Aken, 2004  ; Romme & Endenburg, 2006  ; Romme &
Damen, 2007  ; van Aken & Romme, 2009). Elle suit la logique
suivante – même si on précise que ce n’est pas nécessaire-
ment la forme finale dans laquelle elle est présentée : si l’on
veut atteindre le résultat Y dans la situation Z, alors il faut
réaliser l’action X. Au cœur de cette règle est X, que van
Aken (2005) nomme le concept de « solution générique »
pour ce type de situation posant problème. Plsek et al. (2007)
présentent, quant à eux, quatre méthodes pour extraire des
propositions de design à partir de l’examen de programmes
de changement organisationnels : 1) à partir de la revue de
la documentation écrite  ; 2) avec des groupes d’experts  ;
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

3) avec des histoires de changement documentées par des


experts ; et 4) avec l’emploi de scénarios hypothétiques de
changement. Lorsque ces méthodes ne peuvent être em-
ployées, l’alternative consiste à en formuler une de toute
pièce (van Aken, 2004). En résumé, on retiendra qu’une
proposition de design contient des informations sur « quoi
faire », « dans quelle situation le faire », « pour produire
quel type de résultat ». Des informations supplémentaires
portant sur une explication du « pourquoi on arrive à un tel
résultat » sont également présentées (Denyer et al., 2008).
Ces explications reposent sur des théories existantes qui
permettent de fonder théoriquement la proposition de de-
sign.
4. L’évaluation de la solution générique (les propositions de design)
est la quatrième activité à réaliser. Cette évaluation vise à
démontrer la validité pragmatique de la solution générique
composée d’un ensemble des propositions de design.
Cependant, pour évaluer des propositions de design, il est
nécessaire de les instancier dans une solution spécifique
à un problème de terrain. L’objectif est double. D’une part,
il s’agit de vérifier que la solution spécifique apporte une 445
réponse «  satisfaisante » à la situation posant problème.
D’autre part, de valider les différentes propositions de de-
sign élaborées lors de sa conception par l’application (va-
lidité pragmatique) ou la mise à l’épreuve de solutions spé-
cifiques à un contexte organisationnel. Le chercheur doit
élaborer pour réaliser l’évaluation un cadre méthodolo-
gique rigoureux répondant aux critères scientifiques. Plus
le chercheur est capable de multiplier les terrains de re-
cherche pour évaluer les propositions de design et ainsi ar-
river à une forme de saturation des résultats de recherche,
plus forte sera la validité pragmatique de la solution géné-
rique. Dans le cas où la solution testée sur le terrain n’est
pas couronnée de succès, le chercheur devra la modifier et
retourner à l’activité de développement.

CONCLUSION
Au terme de cette présentation de la RSD, on en rappelle les ca-
ractéristiques générales. La RSD est une approche de recherche
C o nt ex t u a l i s e r l e s m é t h o d e s

qui prend pour point de départ un problème de terrain spécifique


à une organisation, qui le transforme en une classe de problème
et qui se donne pour objectif de développer une solution géné-
rique et rigoureusement produite à cette classe de problème. Le
chercheur agit en véritable designer de solutions génériques qui
se présentent sous la forme de propositions de design qui se-
ront évaluées en contexte d’utilisation.

Dans ce qui suit, un certain nombre de recommandations sont


proposées aux managers-chercheurs qui souhaitent s’engager
dans une RSD dans la discipline du management. Cette liste,
assurément incomplète, vise essentiellement à sensibiliser les
managers-chercheurs intéressés par les dimensions pratiques
associées à la réalisation d’une RSD.
–– S’approprier les textes fondateurs au sujet des activités de
réalisation d’une RSD comme moyen utile d’acquérir : les
fondements terminologiques  ; les tenants et aboutissants
des activités de réalisation d’une RSD. Quelques sugges-
tions de lectures seraient : van Aken (2004, 2005  ; van Aken
& Berends, 2018) ou Romme (2003), Romme et Endenburg
446 (2006), van Aken et Romme (2009), et Romme et Damen
(2007).
–– Connaître quelques textes fondateurs qui permettent de si-
tuer une RSD dans un contexte épistémologique plus large
s’avérera essentiel. À cet effet, l’ouvrage de Simon (1996)
est utile pour situer l’origine de la science du design et éta-
blir les justificatifs philosophiques et épistémologiques
rudimentaires en contexte d’élaboration de thèse, notam-
ment.
–– Identifier rapidement un problème de terrain spécifique à
une organisation qui pourra être résolu à l’aide d’une solu-
tion et apporter un justificatif. Il est important pour réaliser
ceci d’éviter de travailler en « vase clos » et de consulter des
gens d’affaires, des concepteurs, la littérature grise pour
s’informer des besoins identifiés dans l’industrie. Pour cir-
conscrire la problématique, de manière précise, il peut être
important de mobiliser des outils tels que ceux proposés
par Johannesson et Perjons (2014) qui visent à analyser ou
à diagnostiquer un problème.
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

–– Planifier, en guise de canevas d’aide à la réflexion, les acti-


vités de conception, de développement, de démonstration
et d’évaluation de la solution générique, quelle que soit son
type.
–– Identifier les connaissances de nature scientifique et de
design qui sont essentielles à la solution générique, de ma-
nière à anticiper les connaissances prescriptives pouvant
être produites lors de la réalisation des activités de RSD.
–– Présenter à des collègues et à des mentors le fruit des ré-
flexions qui permettent d’une part de justifier de manière
crédible la solution générique, et d’autre part, les activités
de réalisation éventuelles d’une solution spécifique. Ne
pas hésiter à suivre les consignes de communication. Elles
constituent en quelque sorte un guide pratique de la com-
munication des résultats de travaux de RSD (van Aken et
al., 2016). Ceci peut être mis en pratique lors des premières
communications avec des collègues ou des mentors.
–– Poursuivre la lecture de travaux de RSD qui contribuent au
développement et à l’actualisation des connaissances au
sujet des meilleures pratiques en matière de RSD et se lais-
ser inspirer  ! 447

Références citées
Autissier, D., Vandangeon-Derumez, I., Vas, A. & Johnson, K.
(2018), Conduite du changement : concepts-clés, 60 ans de pratiques
héritées des auteurs fondateurs, 3 e édition, Paris, Dunod.
Benbasat, I. & Zmud, R.W. (1999), Empirical research in information
systems: The practice of relevance, MIS Quarterly, vol. 23, n° 1,
p. 3-16.
Braun, C., Wortmann, F., Hafner, M. & Winter, R. (2005), Method
construction – A core approach to organizational engineering,
The 2005 ACM Symposium, New York, ACM Press, p. 1295-1299.
Carlsson, S. A., Henningsson, S., Hrastinski, S. & Keller, C. (2010),
Socio-technical IS design science research: Developing design
theory for IS integration management, Information Systems and
e-Business Management, vol. 9, no 1, p. 109-131.
Davenport, T.H. & Markus, M.L. (1999), Rigor vs. relevance revisited:
Response to Benbasat and Zmud, MIS Quarterly, vol. 23, n° 1, p. 19.
Denyer, D., Tranfield, D. & van Aken, J.E. (2008), Management
research based on the paradigm of the design sciences: The
C o nt ex t u a l i s e r l e s m é t h o d e s

quest for field-tested and grounded technological rules,


Organization Studies, vol. 29, no 3, p. 393-413.
Gregor, S. & Hevner, A.R. (2013), Positioning and presenting design
science research for maximum impact, MIS Quarterly, vol. 37, no 2,
p. 337-355.
Hevner, A.R., March, S.T, Park, J. & Ram, S. (2004), Design science
in information systems research, MIS Quarterly, vol. 28, n° 1, p. 75-
105.
Johannesson, P. & Perjons, E. (2014), Explicate problem, in
P. Johannesson & E. Perjons (eds.), An Introduction to Design
Science, Switzerland, Springer International Publishing, p. 91-
102.
Lee, A.S. (1999), Rigor and relevance in MIS research: Beyond the
approach of positivism alone, MIS Quarterly, vol. 23, n° 1, p. 29-33.
March, S.T. & Smith, G.F. (1995), Design and natural science
research on information technology, Decision Support Systems,
vol. 15, n° 4, p. 251-266.
Plsek, P., Bibby, J. & Whitby, E. (2007), Practical methods for
extracting explicit design rules in the experience of organizational
managers, The Journal of Applied Behavioral Science, vol. 43, no 1,
p. 153-170.
Pries-Heje, J. & Baskerville, R. (2008), The design theory nexus, MIS
448 Quarterly, vol. 32, no 4, p.732-755.
Pries-Heje, J. & Baskerville, R. (2010), Management design theories,
in J. Pries-Heje, J. Venable, D. Bunker, N. Russo, J.I. DeGross
(eds.), Human Benefit through the Diffusion of Information Systems
Design Science Research, Springer, p. 263-281.
Romme, A.G.L. (2003), Making a difference: Organization as design,
Organization Science, vol. 14, no 5, p. 558-573.
Romme, A.G.L. (2006), Construction principles and design rules
in the case of circular design, Organization Science, vol. 17, no 2,
p. 287-297.
Romme, A.G.L. & Damen, I.C.M. (2007), Toward science-based
design in organization development codifying the process, The
Journal of Applied Behavioral Science, vol. 43, no 1, p. 108-121.
Romme, A.G.L. & Endenburg, G. (2006), Construction principles and
design rules in the case of circular design, Organization Science,
vol. 17, no 2, p. 287-297.
Sein, M.K., Henfridsson, O., Purao, S., Rossi, M. & Lindgren, R.
(2011), Action design research, MIS Quarterly, vol. 35, no 1, p. 37-
56.
Simon, H.A. (1996), The Sciences of the Artificial, Cambridge, MA, The
MIT Press.
L’é m e rg e n c e d e l a s c i e n c e d u d e s i g n e n m a n a g e m e nt …

van Aken, J.E. (2004), Management research based on the paradigm


of the design sciences: The quest for field-tested and grounded
technological rules, Journal of Management Studies, vol. 41, no 2,
p. 219-246.
van Aken, J.E. (2005), Management research as a design science:
Articulating the research products of Mode 2 knowledge
production in management, British Journal of Management, vol. 16,
no 1, p. 19-36.
van Aken, J.E. (2007), Design science and organization: Development
interventions, The Journal of Applied Behavioral Science, vol. 43,
no 1, p. 67-88.
van Aken, J.E. & Berends, H. (2018), Problem Solving in Organizations,
Cambridge, Royaume-Uni, Cambridge University Press.
van Aken, J., Chandrasekaran, A. & Halman, J. (2016), Conducting
and publishing design science research, Journal of Operations
Management, vol. 47-48, p. 1-8.
van Aken, J.E. & Romme, A.G.L. (2009), Reinventing the future:
Adding design science to the repertoire of organization and
management studies, Organization Management Journal, vol. 6,
no 1, p. 2-12.

Références pour en savoir plus 449

Pascal, A. (2012), Le design science dans le domaine des systèmes


d’information : mise en débat et perspectives, Systèmes
d’information & management, vol. 17, no 3, p. 7-31.
Référence en français portant sur les principes de la RSD en
systèmes d’information, excellente synthèse et cadrage de la
terminologie et des principes fondamentaux « classiques ».

Romme, A.G.L. (2003), Making a difference: Organization as design,


Organization Science, vol. 14, no 5, p. 558-573.
Il s’agit d’un texte fondateur dont la lecture devient indispen-
sable pour quiconque s’intéressant aux potentialités de la RSD
en management. L’auteur remet en question l’hégémonie de
l’approche dite sciences humaines et sociales en management
et présente les prémisses de la recherche en design comme un
idéaltype.

Simon, H.A. (1996), The Sciences of the Artificial, Cambridge, MA, The
MIT Press.
C o nt ex t u a l i s e r l e s m é t h o d e s

Il s’agit d’une lecture incontournable pour tout manager-cher-


cheur dans un programme de DBA qui souhaite approfondir ses
réflexions sur les sciences de l’artificiel. Il fournit une réflexion
toujours pertinente sur la pensée en management en cette ère
où les avancées de l’intelligence artificielle suscite de nombreux
débats dans l’ensemble des champs de connaissances (philo-
sophie, éthique, sociologie, anthropologie, économie, manage-
ment, etc.).

van Aken, J.E. (2004), Management research based on the paradigm


of the design sciences: The quest for field-tested and grounded
technological rules, Journal of Management Studies, vol. 41, no 2,
p. 219-246.
Cet écrit présente la RSD comme un paradigme en réponse au
besoin d’utilisation des résultats de recherche en management.
L’intérêt de s’ouvrir à une recherche en management qui privilé-
gie l’appropriation de « prescriptions managériales » y est mis
en évidence.

450
CHAPITRE 25.
La cartographie des concepts en groupe (CCG) :
étapes de réalisation et conversations orientées
terrain

L. Martin Cloutier, David Larivière et Gabriel Tremblay

Résumé

Ce chapitre a deux finalités. Premièrement, celle de trans- 451


mettre de manière accessible et synoptique les rudiments au
sujet des étapes devant être mises en place dans la réalisa-
tion d’un projet faisant usage des méthodes de la cartographie
des concepts en groupe (CCG). Il s’agit d’un cadre méthodo-
logique mixte, qualitatif et quantitatif, ascendant et participa-
tif, qui permet de produire et de partager un cadre conceptuel
complexe d’une thématique d’intérêt entre parties prenantes
formant un groupe de participants. Deuxièmement, celle de
donner une voix à des managers-chercheurs qui ont choisi la
CCG comme cadre méthodologique dans la réalisation d’une
thèse de DBA. Il s’agit alors de présenter succinctement des
éléments d’une réflexion que doivent mener les candidats de
DBA pour justifier le choix de la CCG comme approche de re-
cherche. Ces éléments sont exposés et décrits sous format
questions-réponses permettant à des managers-chercheurs
de mettre au jour ce que les manuels de méthodes ne pré-
sentent que trop peu et rarement : l’envers du décor de ques-
tionnements reliés au terrain, d’une part, et les diverses com-
posantes de choix méthodologiques, d’autre part, à la lumière
du recul de projets réalisés en contexte.

Les méthodes de recherche du DBA


C o nt ex t u a l i s e r l e s m é t h o d e s

Mots-clés : cartographie des concepts en groupe, méthode


mixte, valeur en santé, transformation des organisations, éva-
luation de programme.

« Chaque application de CCG, qu’elle soit destinée à développer de nou-


veaux modèles ou à prendre en compte des besoins humains universels,
est une interaction de la connaissance humaine et un dessein potentiel. »
Kane et Rosas (2018, p. 162)

INTRODUCTION
La cartographie des concepts en groupe (CCG) fut introduite
dans la littérature spécialisée en évaluation de programme par
Trochim et Linton (1986) et Trochim (1989a, 1989b, 1989c), comme
moyen de conceptualisation pour tout groupe intéressé par un
objet ou un enjeu commun. Elle a depuis été employée pour
l’étude de tout problème ou sujet se prêtant à une conceptuali-
sation complexe et systémique, et nécessaire pour améliorer la
performance, dans un sens précis ou large, et l’allocation des
ressources dans les programmes, les entreprises, les organisa-
452 tions et la société en général. Des applications de la CCG sont
possibles dans de nombreuses sphères de l’activité humaine :
santé publique, soins de santé, travail social, technologie,
éducation, entrepreneuriat, politiques publiques, etc. (Kane &
Rosas, 2018).

La CCG se distingue d’autres approches, en ce qu’elle s’inscrit


dans une démarche collective ou collaborative de production de
connaissance en groupe. La CCG est basée sur une production
statistique de connaissances à partir de contenus essentielle-
ment qualitatifs : il ne s’agit donc pas de « cartographies » pro-
duites « à main levée » par un individu seul, en quête de sens,
mais elle nécessite un ancrage terrain et un contexte précis.

La littérature scientifique en management distingue désormais


nettement les différences entre les représentations concep-
tuelles et cognitives, et les perceptions qu’entretiennent les
individus relativement à leurs représentations (Cloutier et al.,
2016 ; Danks, 2014 ; Schmitt, 2015). Les capacités actuelles de
produire des représentations sous forme de connaissances vi-
suellement appropriables sont de plus en plus reconnues, mais
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

les méthodes pour les produire comme partie intégrante d’un


processus le sont moins. Une des propriétés que confèrent un
groupe et ses interactions est la multitude de conceptions ou
de rationalités possibles qui le compose (Tremblay & Cloutier,
2015), ce défi ayant été souvent décrit comme celui qui consiste
à distinguer le produit, la représentation, de son processus de
production (Denis, 1989, 1993). Cet écrit présente un survol du
cadre méthodologique de la CCG grâce à laquelle il est possible
de produire des représentations conceptuelles et aussi de me-
surer les perceptions qu’entretiennent les participants d’une dé-
marche à leur sujet.

L’organisation du chapitre se présente comme suit. Les étapes


et rudiments de la CCG sont présentés dans la partie 1. La par-
tie 2 est consacrée à la présentation de deux conversations, sous
format questions-réponses, relatives au contexte de réalisation
d’une thèse de DBA. Une conclusion présente quelques pistes
de réflexions utiles à tout candidat(e) de DBA intéressé par l’em-
ploi de la CCG dans la réalisation d’un projet de thèse ou au-delà.

1. LA CARTOGRAPHIE DES CONCEPTS EN GROUPE


453
(CCG) : ÉTAPES D’EXÉCUTION
Plusieurs étapes doivent être préparées et exécutées dans la ré-
alisation d’un projet de CCG et dans cette partie les indications
transmises s’appuient essentiellement sur les ouvrages de Kane
et Trochim (2007) et Kane et Rosas (2018). Les étapes peuvent
inclure des prises de données en groupe ou individuelles et des
analyses de données par le manager-chercheur. Mais, typique-
ment, selon l’étendue du travail à réaliser, les étapes principales
incluent une série de travaux, de la préparation à la production
de recommandations managériales. L’intérêt de la CCG sur
les plans conceptuels et pratiques est que la production et la
transmission des connaissances résultantes sont intégrées aux
étapes de réalisation : il ne s’agit pas d’aspects devant être ré-
fléchis une fois les travaux exécutés, mais elles sont construites
par, avec et pour le terrain, en cours de réalisation de la re-
cherche. Les étapes de réalisation d’un projet de CCG sont pré-
sentées en ordre séquentiel dans la figure 1.
C o nt ex t u a l i s e r l e s m é t h o d e s

Figure 1. Étapes de réalisation d’un projet de CCG

Étape 1. Préparer le projet de CCG

454 Un des facteurs de succès d’un cadre méthodologique qui s’ap-


puie sur les étapes de la CCG est la préparation en amont de
l’ensemble du projet. Cette étape a pour objectif de préparer l’ar-
rivée sur le terrain et certaines de ces sous-étapes.

Premièrement, la préparation débute pour le manager-chercheur


par une compréhension intime de l’objet de la démarche. Il existe
de nombreux moyens de se « former » sur l’objet de recherche,
mais typiquement, cela consiste d’abord par une compréhen-
sion intime des enjeux du terrain et du contexte précis. Ensuite,
il faut se renseigner et s’informer, voire demeurer au fait des
évolutions relatives à l’objet de recherche, telles les tendances,
les données descriptives, les informations tirées de revues de
presse, de blogues, de discours. Il est impératif de consulter les
corpus de littératures grise et scientifique, et de documenter par
écrit les contenus pertinents.

Deuxièmement, il faut mettre sur pied un comité de pilotage


du projet, typiquement composé : de la direction de recherche,
de la personne qui appuie le déroulement d’une démarche de
CCG sur un terrain choisi, et potentiellement de participants
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

dont les profils sont complémentaires. Par la suite, il est requis


de déterminer le calendrier du déroulement de l’ensemble des
étapes, celle-ci, et les subséquentes. Il y a une dimension logis-
tique conséquente qui doit être prise en charge, et il convient
de traiter des détails (lieu(x), heure(s), préparation d’une lettre
d’invitation, l’envoi de l’invitation aux participants, collations,
équipements (projecteur, ordinateur portable, tablette, etc.)) et
d’effectuer les relances nécessaires au recrutement des partici-
pants aux différentes étapes du projet de CCG. Il faut préciser et
distribuer les rôles selon la nature du projet.

Troisièmement, en se basant sur l’ensemble des données et in-


formations recueillies, ainsi que sur les consultations menées, il
faut préparer un plan du déroulement du groupe de discussion
(GD) qui comprend une liste des thèmes devant être abordés
avec les participants. En effet, il importe pour le manager-cher-
cheur de préparer une liste de thèmes ou de notions devant être
abordés par les participants durant le GD. Il ne s’agit pas d’un
entretien, mais d’une discussion, elle doit toutefois être bien
préparée. La forme est souple, mais les contenus doivent être
déterminés, tout en laissant la possibilité pour des idées non
anticipées d’émerger de l’interaction des participants, et de se 455
greffer à une compréhension partagée.

Quatrièmement, il est utile de préparer une présentation orale


formelle de dix à quinze minutes pour présenter aux participants
lors de l’étape de génération des idées, les objectifs, les étapes
du projet, le rôle des participants, et enfin, la phrase d’accent
ou la question faisant l’objet du groupe de discussion et qu’on
laissera à l’écran.

Étape 2. Générer des idées


L’objectif de cette étape consiste à recueillir des idées de la part
de groupes de participants. Typiquement, cela se traduit par
l’organisation d’un ou de plusieurs groupes de discussion du-
rant lesquels les participants sont invités à échanger des idées
relatives à une phrase d’accent ou à une question. La phrase
d’accent est en quelque sorte la thématique centrale, la question
qui transcende l’objet de la recherche et qui guide les membres
du comité de pilotage et les participants à toutes les étapes de
C o nt ex t u a l i s e r l e s m é t h o d e s

la réalisation de la démarche de CCG. Une phrase d’accent ou


une question typique peut prendre la forme suivante : « Une ac-
tion précise me permettant de mieux faire croître mon entreprise
serait de… », ou « Une initiative permettant d’améliorer la per-
formance de l’organisation serait de… », ou « Quelle serait une
dimension à prendre en compte dans le développement de la re-
cherche et développement de nouveaux produits ? ». Il faut noter
que la phrase d’accent fait référence à « une » action, initiative,
ou dimension, car les idées sont discutées en groupe « une » à la
fois. Le GD est reconnu comme une méthode riche et élaborée
permettant de produire des échanges entre les participants dont
les contenus peuvent ensuite être formalisés pour une prise de
données quantitatives, par exemple (Geoffrion, 2009). Un GD
d’une durée de 60-75 minutes peut générer une centaine d’idées.
Le nombre de participants peut varier d’un GD à l’autre, selon le
contexte de réalisation. Un GD composé de 6-12 personnes est
potentiellement optimal. Mais, un GD composé de 20 personnes
réunies dans un contexte précis pourrait très bien fonctionner, si
cela fournit la possibilité d’obtenir des contenus riches et satu-
rés de la part des participants.

456 Le GD est animé de manière souple, les participants discutent


entre eux, et une seule personne s’exprime à la fois. Le rôle du
manager-chercheur, qui agit souvent à titre de modérateur,
consiste à faire connaître les objectifs ciblés par la démarche,
et à amener les participants à s’investir dans la discussion et à
échanger entre eux relativement à la phrase d’accent ou la ques-
tion, à demander des précisions sur certains points abordés et
à relancer les discussions vers une autre dimension devant être
abordée selon le plan de déroulement établi. Le GD peut être en-
registré, avec l’accord des participants, mais il est impératif de
prendre des notes.

Toutefois, l’organisation d’un GD en présence de participants


n’est pas toujours une mince tâche, voire même parfois irréali-
sable en contexte. Il est possible alors de générer des idées à
partir d’entretiens conduits auprès d’un certain nombre d’ex-
perts, ou encore de les extraire de la littérature. Mais, cette ma-
nière de faire restreint la production d’idées en groupe, une qua-
lité que le GD assure. Elle peut aussi limiter l’aspect ascendant
de la démarche.
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

Étape 3. Structurer les items (énoncés)


L’objectif de cette étape consiste en une série de sous-étapes
permettant de formaliser les idées recueillies de manière induc-
tive, ou non structurée, à l’étape précédente en un ensemble co-
hérent de données structurées. Il s’agit donc, ni plus ni moins,
que de transformer les contenus qualitatifs en données quanti-
tatives pouvant faire l’objet de traitements statistiques.

Premièrement, les idées recueillies sont formalisées en items.


Ces items doivent avoir une forme qui est la plus semblable pos-
sible entre eux. Pour la production d’une liste d’items perfor-
mante, il est conseillé : d’éviter les redondances de contenus,
d’uniformiser la terminologie, d’avoir une idée par item, de don-
ner des exemples pour éviter toute ambiguïté. De nombreuses
techniques de réduction des idées et de préparation des items
sont possibles : l’emploi d’un codage thématique ; l’utilisation de
logiciels d’analyse de contenus qualitatifs (ex. : Sphinx, NVivo,
etc.) ; l’utilisation d’un chiffrier Excel, etc. Il est alors suggéré de
partager la liste d’items établie entre les membres du comité de
pilotage afin de confronter les perspectives et d’éviter les oublis.
Plusieurs rondes sont nécessaires pour établir une liste finale
457
d’items. Une fois la liste d’items établie, ils sont placés dans un
ordre aléatoire et un numéro d’identification est attribué à cha-
cun. L’encadré 1 montre à titre d’exemple, à quoi pourrait corres-
pondre quelques items qui complèteraient une phrase d’accent.

Encadré 1. Exemple de phrase d’accent et d’items


lui correspondant
« Un facteur qui m’encouragerait à utiliser l’entrepôt de données de l’orga-
nisation serait… »
C o nt ex t u a l i s e r l e s m é t h o d e s

Deuxièmement, les matériaux de collecte de données sont pré-


parés. Les participants devront effectuer trois tâches, mais cette
fois par écrit et individuellement :
–– Tâche 1. Remplir un court questionnaire contextuel. Par
exemple : poste occupé, années d’expérience, domaine
d’activité, temps consacré à certaines activités en lien avec
l’objet de la recherche, etc. Ces données peuvent être utili-
sées pour mener des analyses de sous-groupe autour d’un
même objet.
–– Tâche 2. Trier ou classer les items. Il s’agit de remettre aux par-
ticipants un jeu de cartes, format cartes de visites ou cartes
d’affaires, sur lesquelles sont imprimés les items et leur
numéro d’identification. Les participants sont alors invités
selon un certain nombre de consignes à former des piles
d’items semblables selon une logique qui leur est propre.
Les numéros des énoncés seront ensuite consignés sur un
formulaire prévu à cette fin et un nom est attribué par le par-
ticipant à chaque pile pour identifier le thème. Ce travail ré-
sulte en un codage thématique. Le nombre élevé de partici-
pants qui réalise cette étape confère le caractère ascendant
458 (bottom-up, en anglais) de la démarche, puisqu’il s’agit d’un
codage réalisé par un large nombre de participants, ce qui
est différent d’un codage qualitatif, de nature descendante
(top-down, en anglais) qui relèverait d’un seul ou de quelques
codeurs (Jackson & Trochim, 2002). Ce sont les calculs ef-
fectués à partir de ces tris de cartes qui sont employés dans
l’estimation de la représentation de groupe : il s’agit d’une
représentation de groupe ou collective estimée statistique-
ment de représentations individuelles (tris d’items).
–– Tâche 3. Évaluer les énoncés sur les échelles perceptuelles. Il
s’agit pour les participants d’évaluer des échelles per-
ceptuelles de type Likert, par exemple, de cinq modalités
(1 = pas du tout ____ ; 2 = peu ____ ; 3 = moyennement ____ ;
4 = très ____ ; 5 = extrêmement ____), pour mesurer l’im-
portance relative ; la faisabilité relative ; la pertinence re-
lative ; l’utilité relative ; la valeur relative, etc. Typiquement,
une ou plusieurs échelles peuvent être employées, selon
les objectifs poursuivis. Ces évaluations permettent d’ob-
tenir des mesures de perception des participants relative-
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

ment à leurs représentations, selon ces critères, et de les


employer dans des processus stratégiques, de planifica-
tions, décisionnels, d’évaluation, etc.

Il existe un logiciel dédié de CCG disponible sous licence


propriétaire sur plateforme web offert par l’éditeur Concept
Systems, Inc. (www.conceptsystems.com/home). Ce logiciel
intègre l’ensemble des étapes requises, et ce, du GD à la pro-
duction de résultats. Le logiciel CS Global MAX® a une capacité
maximale de 125 items. Mais, il faut éviter la fatigue ou l’aban-
don de participants lorsque les tâches sont trop longues ou
fastidieuses. Il faut résister à la tentation d’inclure toutes les
idées, mais plutôt déterminer l’équilibre entre l’exhaustivité et
la pertinence au projet. Une liste de 50 à 85 items est générale-
ment adéquate. Il faut connaître le potentiel d’investissement en
temps des participants lors des tâches de prise de données in-
dividuelles, mais viser selon le contexte et le profil, entre 30 et 60
minutes pour réaliser les trois tâches. Dans certains contextes,
la prise de données, si effectuée sur un portail en ligne, devrait
limiter le nombre d’énoncés autour de 50 ou 60. Finalement, il
ne faut jamais sous-estimer l’effort de recrutement et de mobili-
sation requis auprès de participants, le niveau d’abandon ou de 459
non-persévérance pouvant s’avérer élevé en certains contextes.

Étape 4. Analyser les cartes et les résultats


La production des cartes des concepts nécessite du travail de la
part du manager-chercheur. Il y a deux étapes principales dans
la production des résultats ou des cartes des représentations
(sous forme de cartes des concepts).

Premièrement, les données recueillies auprès des participants


sont saisies dans le logiciel dédié aux fins d’analyse. Les données
de tri des participants sont ainsi organisées en matrices carrées
binaires de similitudes – similitudes du croisement des items
entre eux. En supposant que l’on compte 65 items dans un jeu (k =
65), la matrice sera de dimension k × k, soit de 65 × 65. La somme
des matrices carrées de similitudes individuelles forme la matrice
carrée totale des similitudes de l’ensemble des participants. En
supposant, que l’on compte n = 30 participants ayant effectué le
tri de cartes (tâche 2, étape 3), on obtient la matrice de la figure 2.
C o nt ex t u a l i s e r l e s m é t h o d e s

Figure 2. Matrice carrée totale des similitudes


(k = 65 ; n = 30)

Cette matrice est alors utilisée pour effectuer l’analyse de posi-


tionnement multidimensionnel (Mutidimensional Scaling Analysis
460 (MDS), en anglais) (Kruskal & Wish, 1978). La MDS produit alors
les coordonnées X-Y, représentées par une carte de points dans
l’espace euclidien bidimensionnel comme montré en exemple à
la figure 3.

Figure 3. Cartes de points : résultats de la MDS,


allocation spatiale des items
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

En l’état, cette carte de points est peu appropriable par les cher-
cheurs ou les participants. Les résultats de la MDS, grâce aux
coordonnées produites, fournissent des informations de dis-
tance euclidienne entre les points de la carte, ce qui permet de
calculer un indice d’ancrage-chevauchement (IAC) selon la fré-
quence de tri ou de classement des items entre eux par les par-
ticipants. Un IAC près de « 0 » signifie un accord élevé entre les
participants sur le fait que certains items soient triés ensemble
pour leur proximité conceptuelle, alors qu’un IAC près de « 1 »
signifie que les participants sont peu d’accord sur le fait que cer-
tains items soient triés ensemble (Kane & Trochim, 2007).

Deuxièmement, une analyse de classement ascendant hiérar-


chique (CAH) agglomérée (Agglomerated Hierarchical Cluster
Analysis, en anglais), est employée pour déterminer les caté-
gories représentées par les participants lors du tri de cartes.
L’algorithme de Ward (Everitt et al., 2011) est employé à cette fin.
Il importe de retenir que le classement proposé par la CAH est
une estimation statistique de distance, entre barycentres de
classes d’items, mais que le jugement humain est requis en com-
plément pour déterminer le nombre de catégories à retenir sur
une carte des concepts. Divers moyens existent pour parvenir 461
à cette détermination. Une façon courante dans la pratique de
la CCG est de convier des participants à un GD pour une ren-
contre-bilan. Si réunir des participants pour cette étape n’est
pas possible, alors il est possible de se rabattre sur les membres
du comité de pilotage qui devraient d’office participer à cette
étape. Il s’agit alors de présenter les classements générés par la
CAH aux membres du comité de pilotage. Les résultats de CAH
sont préparés pour des cartes des concepts comportant de 15 à
5 groupements. Ces participants examinent minutieusement et
successivement chaque classement proposé par la CAH, et en
particulier, les classements les plus spatialement rapprochés
entre deux groupements d’une même carte des concepts, et ce,
de manière successive, par exemple de 15 à 5 groupements, pour
le sens des contenus. Lorsque les participants s’entendent ou
votent en majorité pour ne pas joindre deux groupements dont
les items sont déterminés « distincts » relativement au sens
qu’ils portent et apportent à la représentation de l’objet à l’étude,
alors le nombre de groupements d’items ainsi retenu compose la
carte des concepts résultante. Les participants sont aussi appe-
C o nt ex t u a l i s e r l e s m é t h o d e s

lés à proposer un nom pour chaque groupement de la carte. La


carte des concepts, telle celle de la figure 4, constitue le cadre
conceptuel partagé et partageable du groupe de participants.
Les participants sont alors invités à exprimer leurs interpréta-
tions de la carte des concepts, afin d’en produire le sens collectif
(sensemaking, en anglais) (Weick, 1979 ; Weick et al., 2005).

Figure 4. Carte des concepts : résultat de la CAH et


heuristique des participants

462

C’est souvent à cette étape que se posent les questions de fia-


bilité statistique et de validité interne. Trochim (1993), et Rosas
et Kane (2012), ont établi un certain nombre de tests permettant
d’établir la validité interne (valeur de stress ; valeur de stress de-
mi-échantillon ; similarité configurationnelle ; fiabilité moyenne
entre participants ; fiabilité moyenne des participants au total
des participants ; fiabilité moyenne des participants à la carte
des concepts ; accord interparticipant moyen pour la fiabilité
des échelles).

Étape 5. Interpréter les cartes et les résultats


L’objectif de l’étape 5 consiste à produire à l’aide du logiciel une
série de graphes permettant d’analyser les résultats, soit de
mieux comprendre comment les participants perçoivent leurs
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

représentations par l’utilisation des données obtenues lors de


la tâche 3, étape 3 (évaluation des échelles perceptuelles de cinq
modalités). Il est possible de produire les schémas des corres-
pondances (Figure 5) pour l’ensemble des groupements, afin
de comprendre l’arrimage, à titre d’exemple entre l’importance
relative et la faisabilité relative de chaque groupement pris in-
dividuellement ; d’analyser chaque item sur son groupement
thématique afin de déterminer la zone d’action pertinente, par
exemple pour le groupement H, à partir des graphes « zones
d’action / réflexion stratégique » (Figure 6). Il est possible de
tester statistiquement dans quelle mesure il y a des différences
significatives entre les groupements, selon les profils de parti-
cipants, ou autres critères. Les résultats sont ensuite préparés
pour diffusion auprès des participants, aux fins de rétroaction.

Figure 5. Schéma des correspondances

463
C o nt ex t u a l i s e r l e s m é t h o d e s

Figure 6. Zones d’action / réflexion stratégique

Étape 6. Mobiliser les résultats


464 Sur le volet méthodologique, la mobilisation des résultats exige
la fiabilité externe, établie plutôt par la confrontation des re-
présentations conceptuelles produites et de leurs perceptions
avec : les expertises et connaissances qu’apportent les parti-
cipants (groupe de discussion bilan), l’application de notions
théoriques émergeant des résultats ; les connaissances dans
la littérature ; ou par l’identification de conjecture permettant,
grâce à une inférence d’abduction ou de rétroduction, de déter-
miner ou d’extraire des demi-régularités empiriques permettant
de théoriser (Trochim & Cabrera, 2005 ; Wheeldon, 2010 ; Mantere
& Ketokivi, 2013 ; Cloutier, 2017).

Logiquement, selon la finalité des travaux de CCG réalisés, les


questions de recherche soulevées, et la problématique managé-
riale à résoudre, il sera d’intérêt de proposer des recommanda-
tions managériales. Les recommandations managériales sont
alors extraites de l’ensemble du corpus de résultats, traduites en
connaissances, par les étapes de recherche du cadre méthodo-
logique mixte basé sur la CCG. Souvent, sans nécessairement
guider de bout en bout une mise en œuvre stratégique, les résul-
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

tats de la CCG peuvent enrichir les réflexions des participants


sur les volets opérationnels, tactiques et stratégiques..

D’autres possibilités de poursuivre des travaux à partir des


résultats existent, à titre d’exemple : l’allocation spatiale des
items sur les cartes des concepts peut être employée dans le
développement d’échelles de mesure permettant d’effectuer
des tests d’hypothèse de type hypothético-déductif (Rosas &
Camphausen, 2007).

2. CONVERSATIONS SUR L’EMPLOI DE LA CCG EN


CONTEXTE
À travers une série de questions-réponses, cette section pré-
sente deux conversations permettant d’illustrer les choix mé-
thodologiques réalisés par deux candidats de DBA lors de la
définition du projet de thèse, et de mettre en évidence quelques
réflexions que permet un certain recul depuis la réalisation des
différentes étapes de recherche. Le format et les sujets abor-
dés de cette conversation s’inspirent de ceux traités par Kane et
Rosas (2018), qui ont conduit des entretiens avec des chercheurs,
afin justement de faire le pont entre les notions méthodologiques 465
et leur applications en contexte. L’intérêt des deux cas présentés
est que le premier a été exécuté quasiment entièrement de ma-
nière virtuelle, avec des participants internationaux, aux profils
professionnels variés, et qui partagent un enjeu transversal (par-
tie 2.1) ; alors que le second a été réalisé en terrain hospitalier
et en contexte de transformation organisationnelle (partie 2.2).
La réalisation de ces deux études a permis de mettre au jour des
connaissances utiles pour nourrir les réflexions et les actions
des participants et des managers-chercheurs, de même que la
production de recommandations managériales.

2.1. Cas 1. Dimensions de la valeur en santé


(par Gabriel Tremblay)
Une des cartes des concepts et informations relatives au cas 1
sont présentées dans l’encadré 2.
C o nt ex t u a l i s e r l e s m é t h o d e s

Encadré 2. Cartes des concepts : valeur en santé


(source : Tremblay et Cloutier, 2015)
Phrase d’accent : « Une dimension précise permettant d’évaluer la
valeur des interventions en santé serait… »
Participants tri d’items : n = 35
Participants classement d’items : n = 94
Valeur de stress : 0,25 ; 16 itérations
Échelle : NEI, niveau d’exposition à l’information

466

Quels étaient le CONTEXTE et le TERRAIN du projet de thèse ?

Lorsqu’une nouvelle technologie apparaît dans le domaine de la


santé, soit un médicament ou une technologie médicale, le pro-
cessus de décision pour l’approuver et rembourser cette tech-
nologie à un prestataire est complexe, coûteux et souvent très
long. La recherche et le développement de la technologie sont
typiquement suivis d’une série d’études cliniques onéreuses
(par exemple, cela s’inscrit sur la durée, possiblement 10 ans, et
en coûts, possiblement un milliard de dollars). Cette technolo-
gie doit ensuite être approuvée auprès des régulateurs publics
de chaque pays qui établit le niveau de sécurité et d’efficacité
des produits pour traiter une maladie. Une fois ces étapes ter-
minées, l’accès au marché commence, mais il est souvent rempli
de surprises, car les assureurs publics et privés exigent souvent
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

l’application de critères de décision supplémentaires pour rem-


bourser les technologies médicales. Ces critères de décision
peuvent varier d’un pays à l’autre, ou entre types d’assureurs, et
vont prendre en compte les effets sur la santé et la sécurité des
patients, le prix, les impacts sur les autres coûts médicaux, l’im-
pact budgétaire ou le ratio coût-efficacité en comparaison aux
autres traitements déjà disponibles.

Cette étude avait pour objectif principal de mieux comprendre la


définition de la valeur en santé en établissant ses dimensions,
d’une part, et en évaluant leur importance relative, d’autre part.
L’importance des dimensions de la valeur en santé fut ensuite
évaluée selon le type d’expertise détenu par les répondants
(quatre profils : professionnel de la santé ; expert en accès au
marché ; économiste de la santé ; expert en évaluation des tech-
nologies de la santé) et de secteurs spécialisés en santé (trois
secteurs : médecine moderne ; maladies orphelines ; génomique
et médecine personnalisée). L’étude avait aussi pour objectif se-
condaire d’analyser, pour mieux la positionner, l’évaluation éco-
nomique de la santé dans le concept de la valeur en santé.

Quelles RECHERCHES ont été nécessaires de votre part pour décou- 467
vrir et arrimer les objectifs du projet afin d’en assurer un cadre métho-
dologique optimal ?

Premièrement, une recherche de la documentation scientifique


fut effectuée pour bien comprendre les techniques utilisées
dans le passé pour évaluer le concept de la valeur en santé.
Plusieurs sondages et techniques quantitatives furent retrou-
vés dans la littérature historique, de plus, certains auteurs uti-
lisaient des notions de philosophie morale ou d’analyse quali-
tative, mais avec très peu de données. Cette étape a permis de
comprendre que l’analyse quantitative seule, qui est souvent la
solution ultime en santé, et ce, tout autant pour les économistes
de la santé, ne serait pas suffisante pour creuser le concept de
la valeur. De plus, l’analyse qualitative sans utiliser de riches
données empiriques quantitatives est peu susceptible de faire
avancer les processus de décision dans le domaine de la san-
té ; un domaine faisant un usage intensif de données quantita-
tives. Le constat fut que le cadre méthodologique de recherche
à mettre au point, devait être une méthode mixte qui permettrait
C o nt ex t u a l i s e r l e s m é t h o d e s

d’utiliser des données quantitatives probantes tout en générant


des recommandations profondes pouvant puiser leurs forces de
l’analyse qualitative.

Quelles étaient les PRINCIPALES CARACTÉRISTIQUES DE LA


CCG qui ont été déterminantes dans votre décision d’utiliser cette
approche dans votre recherche ?

Le choix de la CCG s’est imposé comme idéal, puisqu’elle permet


l’utilisation de techniques quantitatives robustes tout en illus-
trant le résultat visuellement sur une carte des concepts. Avoir
une carte des multiples dimensions du concept de la valeur en
santé est une première dans le domaine de l’évaluation des tech-
nologies de la santé et permet une visualisation de la dispersion
et de l’importance des dimensions d’un seul coup d’œil. La CCG
permet également à l’expert d’apporter un raffinement qualitatif
aux résultats, et ainsi d’obtenir des regroupements de dimen-
sions plus pertinents et basés sur une connaissance approfon-
die du domaine, sans nécessairement ajouter un biais d’opinion.

Quelles étaient les principales caractéristiques de votre/vos groupe(s)


de participants ? Qu’avez-vous identifié comme la meilleure approche
468
pour INVITER ET ENCOURAGER la participation dans le processus ?
Quelles ont été les capacités et les limites de la participation ?

Les quatre profils de participants étaient : professionnel de la


santé, expert en accès au marché, économiste de la santé, et
expert en évaluation des technologies de la santé. Les partici-
pants provenaient de plusieurs pays, mais plus particulièrement
des États-Unis, du Canada et d’Angleterre. Cette variété de pro-
fils, voire d’expertise, et de provenance a permis d’étudier si le
concept de la valeur en santé variait entre profils et entre pays.
De plus, l’importance relative des dimensions à l’étude devait
être indiquée pour trois sous-secteurs de la santé : la médecine
moderne, les maladies orphelines, et la génomique et médecine
personnalisée. Pour susciter l’intérêt des participants à s’inves-
tir dans la cueillette de données, une somme de 20 dollars a été
versée à un organisme de bienfaisance au choix du participant
pour chaque sondage rempli.

Comment les objectifs, les résultats escomptés du projet de DBA et l’UTI-


LISATION POTENTIELLE DES RÉSULTATS ont-ils été déterminés ?
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

Les objectifs de la recherche ont été développés en formulant


l’hypothèse de travail que le concept de valeur pourrait varier par
pays et selon le secteur de la médecine, mais surtout par profil
d’expertise. Plus précisément, l’hypothèse de travail était que
les économistes de la santé évalueraient les dimensions écono-
miques, tandis que les professionnels de la santé évalueraient
les aspects médicaux, comme relativement plus importants, res-
pectivement. Dans les faits, l’étude nous a permis de constater
que la perception de la valeur chez les différents profils d’ex-
perts n’était pas très distincte. Effectivement, la perception de
l’importance des valeurs était plutôt différenciée entre les pays,
mais convergente entre les types de profession. Les résultats
montrent que les valeurs en santé sont plus influencées par la
culture des individus ou la structure des institutions locales plu-
tôt que par un biais professionnel.

La méthode a permis de déterminer la source de cette hétérogé-


néité des valeurs en fournissant des résultats par profil profes-
sionnel et par pays. De plus, des cartes des concepts par profil
professionnel et par pays ont permis de mesurer l’importance
relative des concepts de la valeur de manière visuelle. L’impact
du résultat de la recherche est significatif, car il permet de mieux 469
comprendre la source de différences d’opinions dans les co-
mités de décision en santé. Effectivement, plusieurs comités
d’évaluation ont tendance à être composés de membres inter-
nationaux, ce qui pourrait accentuer la divergence des valeurs
sur le comité. La convergence des valeurs étant relativement
forte entre les profils professionnels de manière générale, les
divergences observées dans les comités de décision seraient
plus liées à la compréhension ou au besoin d’une meilleure dé-
monstration de la valeur plutôt qu’à une variation importante de
la perspective des acteurs sur le concept de valeur.

Lorsque vous pensez aux résultats de la recherche, comment le pro-


jet de recherche était-il fondé sur l’UTILISATION DES RÉSULTATS ?
Comment et par quels moyens les RÉSULTATS de la CCG ont-ils été
utilisés ou entrevoyez-vous qu’ils puissent être utilisés dans des activi-
tés d’affaires, celles des organisations concernées, vos activités ?

La publication des résultats sous forme d’articles de recherche


est importante pour ce type de recherche, étant donné que le
C o nt ex t u a l i s e r l e s m é t h o d e s

secteur de l’évaluation des technologies en santé est fortement


influencé par les publications qui paraissent dans les revues
scientifiques spécialisées. L’étude permet de tirer des constats
et d’évaluer la convergence entre le concept de valeur par profil
d’expert pour ainsi améliorer les processus décisionnels en san-
té. Les résultats pourraient également servir à améliorer les mé-
thodes et les dimensions des évaluations de la valeur en santé et
les techniques d’aide à la décision qui s’y rapportent.

Toute recherche comporte un certain nombre de limites, que feriez-vous


différemment si vous aviez la possibilité de refaire cette recherche ?

La principale limite de l’étude est la taille des sous-groupes éven-


tuels parmi la population de participants visée par rapport au
nombre de pays et de professions. En effet, les échantillons par
sous-groupes sont devenus relativement petits lorsque la coupe
d’analyse incluait à la fois un pays et une profession. Le cadre
d’échantillonnage n’avait pas été planifié au départ pour de telles
analyses. De plus, certains types de professions sont plus rares
dans les pays étudiés, ce qui a rendu le recueil des données plus
laborieux.
470 Il serait utile de mener plus de tests en amont afin de s’assurer
que le portail de cueillette de données utilisé puisse traiter une
telle quantité de données. Malgré les efforts apportés lors de la re-
cherche, limiter le nombre de questions serait également à envisa-
ger, car le nombre de réponses incomplètes fut relativement élevé.

2.2. Cas 2. Facteurs de résilience et transformation


organisationnelle en centre hospitalier
(par David Larivière)
Une des cartes des concepts du cas 2 et informations relatives
au projet sont présentées dans l’encadré 3.
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

Encadré 3. Cartes des concepts : résilience et


transformation organisationnelle
(source : Larivière, en préparation)
Phrase d’accent : « Un lien entre la prise de conscience de la dispari-
tion possible / transformation nécessaire de l’organisation et la ca-
pacité de ses membres à faire preuve de résilience serait déterminé
par… »
Organisation A. Participants tri/classement d’items : n = 14 ; valeur
de stress = 0,31 ; 14 itérations
Organisation B. Participants tri/classement d’items : n = 8 ; valeur de
stress 0.30, 10 itérations
Échelle : PERT : pertinence de l’item dans la survie de l’établissement
/ service

471

Quels étaient le TERRAIN et le CONTEXTE du projet de thèse ?

La recherche avec un cadre méthodologique basé sur les étapes


de la CCG avait pour objectif d’évaluer auprès de managers hos-
pitaliers, publics (organisation A) et privés (organisation B), si
la prise de conscience par ses membres du risque de disparition
d’une organisation avait la capacité d’influencer leur comporte-
ment en les conduisant à s’impliquer davantage dans un proces-
sus de transformation.

En effet, dans un contexte empreint de turbulences voire de


crises au sein du secteur hospitalier français, l’évaluation de
la capacité réelle des hôpitaux à conduire des transformations
C o nt ex t u a l i s e r l e s m é t h o d e s

s’est imposée et a conduit au choix la CCG pour réaliser ce projet


de recherche.

La problématique managériale à la base de cette réflexion se


pose avec d’autant plus d’acuité sur le terrain qu’il convient
sans doute d’en comprendre les leviers et d’en tirer des impli-
cations managériales opérationnelles, qui pourraient aider les
directeurs d’hôpitaux à capitaliser sur les expériences et les
démarches réussies pour conduire leur propre transformation.
Cette recherche permet de répondre aux deux questions sui-
vantes : L’action de la Direction est-elle structurée pour faire
prendre conscience aux équipes d’un risque de disparition ?
Dans quelle mesure la prise de conscience du risque de dispari-
tion de l’organisation constitue-t-elle un levier de résilience in-
dividuelle et collective ?

Mené dans le cadre d’une étude de cas comparée entre deux


établissements de santé, un public et un privé sans but lucratif,
l’objectif de recherche a consisté à comprendre la mise en œuvre
des facteurs de la résilience à l’hôpital, à évaluer les éventuelles
différences selon les établissements, et à mesurer si la simple
472 prise de conscience du risque de disparition de la structure peut
constituer un facteur fondamental, si ce n’est originel, de la rési-
lience organisationnelle.

Quelles RECHERCHES ont été nécessaires de votre part pour décou-


vrir et arrimer les objectifs du projet afin d’en assurer un cadre métho-
dologique optimal ?

Le choix de la méthode de CCG s’est fondé sur une volonté de


guider la recherche sur la base d’une étude de terrain, en vue de
tirer des enseignements de la pratique managériale et de l’expé-
rience de managers hospitaliers, qu’ils soient directeurs, méde-
cins ou cadres de santé. L’un des facteurs importants du choix
de cette méthode aura résidé dans l’importance supposée de la
perception des managers du terrain sur les résultats attendus
de la recherche. Cette méthode mixte ascendante constitue un
réel levier de prise de conscience de réalités de terrain et guide
les chercheurs vers des implications pratiques.

Le second levier de cette méthode réside sans doute dans la


capacité à tirer profit de résultats théoriques de la recherche
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

pour en dégager des implications managériales qui nourriront


la réflexion des managers pour faire évoluer leurs pratiques. La
CCG a pour vocation d’apporter des résultats statistiques de ré-
sultats qualitatifs. Sur cette base, il est plus aisé de démontrer
le sens du chemin à suivre, sans rester sur des interprétations
théoriques parfois discutables. À travers des résultats concrets
et issus de la perception et de la pratique du terrain, le cher-
cheur-manager apporte de potentiels matériaux de réflexion aux
managers en quête de renouveau.

Quelles étaient les PRINCIPALES CARACTERISTIQUES DE LA CCG


qui ont été déterminantes dans votre décision d’utiliser cette approche
dans votre recherche ?

La CCG apporte un regard issu du terrain et permet une réelle


mise en perspective de l’expérience de chaque professionnel
membre du panel de participants. En outre, cette méthode, qui
peut être considérée aussi comme un « prétexte » à l’animation
de débats sur un sujet de recherche, permet d’aboutir au partage
de représentations et de perceptions individuelles riches d’en-
seignements sur les pratiques managériales. Enfin, le caractère
quantitatif de résultats fondés sur une analyse de perceptions 473
qualitatives apparaît original et permet sans doute d’aller plus
loin dans l’analyse des implications managériales.

Quelles étaient les principales caractéristiques de votre/vos groupe(s)


de participants ? Qu’avez-vous identifié comme la meilleure approche
pour INVITER et ENCOURAGER la participation dans le processus ?
Quelles ont été les capacités et les limites de la participation ?

Les membres du panel ayant contribué à la démarche de CCG


en milieu hospitalier étaient des directeurs et directeurs ad-
joints, des médecins en situation de responsabilité managériale
ainsi que des cadres supérieurs de santé, responsables de la
conduite de projets de transformation. Le choix du périmètre
des membres du panel constitue une étape importante, car cela
guide l’analyse finale des résultats, et s’appuie sur l’évaluation
et la mise en perspective de perceptions individuelles et collec-
tives.

En conséquence, deux principaux biais peuvent être envisagés


dans cette démarche :
C o nt ex t u a l i s e r l e s m é t h o d e s

–– Le risque de la pensée unique : choisir des membres dont


la vision et la pratique professionnelle sont trop proches,
risque de limiter l’intérêt du croisement des perceptions
individuelles en vue d’en déterminer des implications ma-
nagériales.
–– La charge de la contribution des membres aux étapes de
la démarche : alors que la CCG comporte plusieurs étapes
associant les participants, la charge de travail induite peut
contribuer à constater le retrait de plusieurs membres déjà
recrutés du groupe de travail. Selon le nombre et la qualité
des retraits, les résultats de l’étude pourraient être plus ou
moins confirmés empiriquement sur le plan de la fiabilité
interne.

Comment les objectifs, les résultats escomptés du projet de DBA et


l’UTILISATION POTENTIELLE DES RESULTATS ont-ils été détermi-
nés ?

Les potentialités du logiciel d’analyse des données de la CCG


permettent d’envisager de nombreux croisements de données,
en tenant compte du profil du membre du panel, par exemple,
474 de son expérience ou de son métier, ce qui conduit à orienter
l’analyse selon les axes que le manager-chercheur souhaite ap-
profondir. Les nombreuses cartes des concepts, schémas des
correspondances, zones de réflexions stratégiques, extraits
du logiciel donnent une réelle diversité de résultats. Elles per-
mettent au manager-chercheur de tirer des enseignements em-
piriques objectifs et de formuler des implications managériales
concrètes et fondées sur l’expérience croisée de nombreux ma-
nagers.

Selon les étapes du cadre méthodologique et les hypothèses ou


sous-questions à traiter, le manager-chercheur peut exploiter
les données de base (d’où la criticité de la phase de cueillette de
données) et ainsi envisager les solutions qu’il convient de valo-
riser et de traduire à travers des processus managériaux exploi-
tables et reproductibles.

Lorsque vous pensez aux résultats de la recherche, comment le pro-


jet de recherche était-il fondé sur l’UTILISATION DES RESULTATS ?
Comment et par quels moyens les RESULTATS de la CCG ont-ils été
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

utilisés ou entrevoyez-vous qu’ils puissent être utilisés dans des activi-


tés d’affaires, celles des organisations concernées, vos activités ?

Les résultats issus de la recherche en CCG sont exploitables à


la fois au sein de l’organisation ayant fait l’objet d’étude, mais
ils peuvent aisément être exportés dans des secteurs d’activité
différents, qu’ils soient privés ou publics. In fine, ces résultats
retracent la représentation et la perception managériale d’un pa-
nel soigneusement sélectionné, et compte tenu de la taille et de
la diversité du panel, la CCG réunit autour d’un objet d’étude des
représentations et des perceptions universalisables, qu’il est
possible de retranscrire dans presque tous les secteurs d’acti-
vité où les notions de management à l’étude sont pertinentes.

Toute recherche comporte un certain nombre de limites, que feriez-vous


différemment si vous aviez la possibilité de refaire cette recherche ?

Après plusieurs mois de mise en pratique de la méthode CCG,


deux principales évolutions pourraient sans doute être envisa-
gées, particulièrement autour de l’étape de cueillette des don-
nées écrites : 475
–– Si les groupes de discussion doivent être animés par le
manager-chercheur autour d’un temps de discussion phy-
sique, source d’échanges et partages des expériences et
des perceptions individuelles, l’étape de prises de données
écrites, relatives au classement des énoncés et à l’évalua-
tion des échelles de perception, gagnerait sans doute à
être davantage informatisée, à travers un accès direct des
participants au site de la CCG pour un remplissage en ligne
de leurs réponses.
–– Au terme de la recherche, et après analyse des résul-
tats, une nouvelle étape pourrait consister en un dernier
échange avec les membres du panel sur les résultats et im-
plications managériales, au-delà du groupe de discussion
de la séance-bilan. Cette étape permettrait sans doute de
fonder de façon plus collective les orientations finales re-
tenues par le manager-chercheur dans une étude de type
CCG.
C o nt ex t u a l i s e r l e s m é t h o d e s

CONCLUSION
Il convient maintenant de s’intéresser à ce que doit faire un(e)
candidat(e) de DBA qui s’interroge sur la pertinence de choisir
la CCG comme cadre méthodologique dans la réalisation d’une
thèse. Quelques questions ci-après présentées peuvent guider
les candidats dans leurs réflexions :
–– Existe-t-il un enjeu de management pour un collectif, un
groupe, un département dans une organisation, une com-
munauté au sens large, ou des sous-groupes présents
dans les ensembles susmentionnés ?
–– Existe-t-il un « champion » avec qui dialoguer sur la com-
plexité de l’objet, qui comprend la valeur managériale ou
qui a besoin des connaissances de ce que produisent les
extrants de la CCG, et qui est en mesure de mobiliser des
participants aux différentes étapes ?
–– Est-ce que vous détenez des connaissances pointues et
systématiques relativement à l’objet de la recherche ? Êtes-
vous en mesure de rédiger quelques pages documentées et
justifiées à ce sujet ?
476
–– Maîtrisez-vous des rudiments d’analyse qualitative et quan-
titative, les logiciels dédiés, ou avez-vous accès aux logi-
ciels, à de la formation ou de l’enseignement à ce sujet ?
–– Détenez-vous des habiletés communicationnelles vous
permettant d’animer un GD de génération d’idées et de
rencontre-bilan ? Quid de conduire des entretiens semi-di-
rigés ?
–– Êtes-vous capable d’abstractions théorique et concep-
tuelle en contexte complexe ?
–– Êtes-vous capable d’abstraction conceptuelle permettant
d’analyser des rétroactions d’ordre systémique pour en dé-
gager des implications managériales actionnables ?

Références citées
Cloutier, L.M. (2017), Problématiser ou déterminer l’objet de la
recherche en contexte managérial, in P. Beaulieu & M. Kalika
(dir.), Le projet de thèse de DBA, Caen, Editions EMS, coll.
« Business Science Institute », p. 95-110.
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

Cloutier, L. M., Cueille, S. & Recasens, G. (2016), Les mécanismes


d’orchestration des ressources et la croissance de la jeune TPE
accompagnée, Revue Internationale PME., vol. 29, no 3-4, p. 291-
334.
Danks, D. (2014), Unifying the Mind: Cognitive Representations as
Graphical Models, Cambridge, MA, The MIT Press.
Denis, M. (1989), Image et cognition, Paris, PUF.
Denis, M. (1993), Pour les représentations, in M. Denis & G. Sabah
(dir.), Modèles et concepts pour la science cognitive, Grenoble, PUG,
p. 95-107.
Everitt, B.S., Landau, S., Leese, M. & Stahl, D. (2011), Cluster Analysis,
5th Edition, Chichester, Royaune-Uni, John Wiley & Sons.
Geoffrion, P. (2009), Le groupe de discussion, in B. Gauthier (dir.),
Recherche sociale : de la problématique à la collecte des données,
5 e édition, Québec, Presses de l’Université du Québec, p. 391-
414.
Jackson, K.M. & Trochim, W.M.K. (2002), Concept mapping as an
alternative approach for the analysis of open-ended survey
responses, Organizational Research Methods, vol. 5, no 4, p. 307-336.
Kane, M. & Rosas, S.R. (2018), Conversations about Group Concept
Mapping: Applications, Examples, and Enhancements, Thousand
Oaks, CA, Sage Publications.
477
Kane, M. & Trochim, W.M.K. (2007), Concept Mapping for Planning and
Evaluation, Thousand Oaks, CA, Sage Publications.
Kruskal, J.B. & Wish, M. (1978), Multidimensional Scaling, Beverly
Hills, CA, Sage Publications.
Mantere, S. & Ketokivi, M. (2013), Reasoning in organization science,
Academy of Management Review, vol. 39, no 1, p. 70-89.
Rosas, S.R. (2017), Group concept mapping methodology: Toward
an epistemology of group conceptualization, complexity, and
emergence, Quality and Quantity, vol. 51, no 3, p. 1403-1416.
Rosas, S.R. & Camphausen, L.C. (2007), The use of concept mapping
for scale development and validation in evaluation, Evaluation and
Program Planning, vol. 30, no 2, p.125-135.
Rosas, S.R. & Kane, M. (2012), Quality and rigor in the concept
mapping methodology: A pooled study analysis, Evaluation and
Program Planning, vol. 35, no 2, p. 236-245.
Schmitt, C. (2015), L’agir entrepreneurial, repenser l’action des
entrepreneurs, Québec, Presses de l’Université du Québec.
Tremblay, G. & Cloutier, L.M. (2015), La démonstration de la valeur
des interventions en santé : la multirationalité des décideurs,
in P. Beaulieu & M. Kalika (dir.), La création de connaissance par
C o nt ex t u a l i s e r l e s m é t h o d e s

les managers, Caen, Editions EMS, coll. « Business Science


Institute », p. 389-408.
Trochim, W.M.K. (1989a), Special issue: Concept mapping for
evaluation and planning, Evaluation and Program Planning, vol. 12,
n°1, p. 1-111.
Trochim, W.M.K. (1989b), An introduction to concept mapping for
planning and evaluation, Evaluation and Program Planning, vol. 12,
no 1, p. 1-16.
Trochim, W.M.K. (1989c), Concept mapping: Soft science or hard
art ?, Evaluation and Program Planning, vol. 12, no 1, p. 87-110.
Trochim, W.M.K. (1993), The reliability of concept mapping, Annual
Conference of the American Evaluation Association, novembre,
Dallas, TX.
Trochim, W.M.K. & Cabrera, D. (2005), The complexity of concept
mapping, Emergence: Complexity and Organization, vol. 7, no 1, p. 11-
22.
Trochim, W.M.K. & Linton, R. (1986), Conceptualization for planning
and evaluation, Evaluation and Program Planning, vol. 9, n°4, p. 289-
308.
Weick, K. (1979), The Social Psychology of Organizing, Reading, MA,
Addison-Wesley.
478 Weick, K.E., Sutcliffe, K.M. & Obstfeld, D. (2005), Organizing and the
process of sensemaking, Organization Science, vol. 16, no 4, p. 409-
421.
Wheeldon, J. (2010), Mapping mixed methods research: Methods,
measures, and meaning, Journal of Mixed Methods Research, vol. 4,
no 2, p. 87-102.

Références pour en savoir plus


Kane, M. & Trochim, W.M.K. (2007), Concept Mapping for Planning and
Evaluation, Thousand Oaks, CA, Sage Publications.
Ce livre est le premier qui a présenté la méthode de la CCG de
manière intégrée avec de nombreux exemples se rapportant à la
manière de conduire des travaux avec cette approche. Les rai-
sonnements devant être appliqués à chaque étape et sous-étape
sont présentés en détail et des conseils pratiques sont transmis
aux lecteurs.

Kane, M. & Rosas, S.R. (2018), Conversations about Group Concept


Mapping: Applications, Examples, and Enhancements, Thousand
Oaks, CA, Sage Publications.
L a c a r t o g ra p h i e d e s c o n c e p t s e n g ro u p e (C C G )

Ce livre met en évidence la pratique de la CCG pour toute per-


sonne souhaitant mieux comprendre ses tenants et aboutissants
de manière concrète et accessible pour les néophytes. Les rudi-
ments, les étapes, les exemples, et la terminologie permettant de
s’approprier les notions y sont présentés. Le livre contient quatre
conversations sous format de questions-réponses, à l’instar de
celles de la partie 2 du présent texte, menées auprès de cher-
cheurs faisant usage de la CCG (dont Martin Cloutier, coauteur
du présent chapitre). Un gabarit de planification et d’exécution
d’un projet de CCG pouvant être complété par tout modérateur
de projet est inséré en annexe.

Trochim, W.M.K. (1999), The Evaluator as Cartographer: Technology


for Mapping Where We’re Going and Where We’ve Been,
Conference of the Oregon Program Evaluators Network, “Evaluation
and Technology: Tools for the 21st Century”, Portland, Oregon, 8
octobre. Disponible à : https://www.socialresearchmethods.
net/research/OPEN/The%20Evaluator%20as%20Cartographer.
pdf, consulté le 2 juin 2018.
Ce texte est un véritable joyau qui contient l’ensemble des ré-
flexions de W.M.K. Trochim relativement à l’apport de la CCG
dans la production de représentations conceptuelles et des 479
connaissances, et sur la valeur de la démarche et des réflexions
qu’elle suscite de par ses extrants visuels tels les cartes des
concepts et schémas des correspondances.

Cloutier, L.M., Arcand, S., Laviolette, E.M. & Renard, L. (2017),


Collective economic conceptualization of strategic actions by
Québec cidermakers: A mixed methods-based approach, Journal
of Wine Economics, vol. 12, no 4, p. 405-415.
Cloutier, L.M. & Spooner, M. (2016), Closing gaps in professional
service delivery processes: A mixed method-based analysis of
clinical research project budget management, in C., Di Mauro,
A., Ancarani, G., Vastag (eds.), Research in the Decision Sciences
for the Service Economy. Best Papers from the 2015 Conference, New
York, Pearson Education Inc, p. 33-52.
Cloutier, L. M., Cueille, S. & Recasens, G. (2016), Les mécanismes
d’orchestration des ressources et la croissance de la jeune TPE
accompagnée, Revue Internationale PME., vol. 29, no 3-4, p. 291-
334.
Ces trois références présentent des exemples récents de l’uti-
lisation de la CCG en divers contextes de recherche : coordina-
C o nt ex t u a l i s e r l e s m é t h o d e s

tion collective en contexte associatif (producteurs de cidre) ;


identifications en besoins informationnels et en infrastructure
TI en santé ; et cas comparés entre deux groupes d’entrepre-
neurs-dirigeants, l’un en France l’autre au Québec, d’actions
entrepreneuriales de croissance devant être entreprises, illus-
tration de théorisation des résultats pratiques de CCG dans un
positionnement épistémologique ancré dans le réalisme critique
(en français).

480
C O N C LU S I O N
Bien entendu, la conclusion de cet ouvrage collectif, ne vise
pas à le résumer pour reprendre l’ensemble des contributions
de ce livre, car par où faudrait-il commencer ? Il faut souligner
que c’est grâce à la ligne éditoriale établie dès le départ pour
cet ouvrage, que vingt-cinq chapitres, rédigés par trente-cinq
auteurs, ont été produits pour rendre manifeste et intelligible le
potentiel des méthodes et outils méthodologiques offerts aux
doctorants-managers de DBA. Les parties du livre forment un
ensemble cohérent visant à mobiliser les connaissances des 481
membres de la communauté du Business Science Institute pour
entreprendre un certain nombre de conversations d’ordre mé-
thodologique se rapportant à des thématiques fondamentales
vouées à la production de recommandations managériales. En
somme, cet effort collectif a traité du choix d’une méthode de
recherche, et de ses multiples facettes, adaptée à la question du
terrain, au recueil des données du terrain, à l’analyse des don-
nées du terrain, et à la contextualisation des méthodes orientées
terrain.

Ce livre, pris en tout ou en partie, se veut une référence


incontournable destinée à accompagner le doctorant-manager
de DBA, dans l’acquisition et la compréhension de rudiments,
d’outils et de méthodes de recherche, et ce, de manière éclairante
et stimulante ! En particulier, c’est le souhait le plus cher des au-
teurs de cet ouvrage que bon nombre de perspectives, d’outils,
de méthodes et de réflexions méthodologiques, puissent en
temps opportun encourager et motiver les doctorants de DBA
à en explorer les tenants et aboutissants. C’est aussi le souhait

Les méthodes de recherche du DBA


Conclusion

des auteurs que la facture éditoriale relativement simplifiée, non


technique et se voulant des plus accessibles, permette au plus
grand nombre de s’initier d’abord, et d’explorer ensuite, les pers-
pectives présentées de manière plus approfondie, voire de se les
approprier en temps opportun.

Il apparaît vivement que cet ouvrage est ancré et cadré pour ses
étendues et profondeurs conceptuelles et appliquées dans les
expériences terrain qu’apportent les doctorants-managers de
DBA à la communauté du Business Science Institute. D’où la
pertinence de réunir des textes pour offrir des rudiments aux
méthodes et à des outils qui incitent à la réflexion et conduisent
les doctorants-managers de DBA à saisir avec quoi et comment
ils peuvent envisager, réaliser et mener à bon port un projet de
thèse avec profondeur, recul et créativité, afin d’en extraire les
recommandations managériales pertinentes pour leurs béné-
fices et ceux des organisations où ils évoluent et évolueront.

À l’instar d’un manager-doctorant de DBA qui amorce son che-


minement, il faut aussi comprendre que la rédaction de ce livre
ne constitue que le début d’un parcours évolutif de réflexions
méthodologiques au sein du conseil scientifique et du corps
482
professoral du Business Science Institute, auquel est convié
l’ensemble de cette communauté. En effet malgré, mais aussi
surtout grâce à un effort de structuration de l’ouvrage dans les
parties principales qui ont été proposées, de multiples perspec-
tives, méthodes et outils y ont trouvé place ; mais une place est
déjà réservée à d’autres perspectives, méthodes et outils, pour
enrichir au cours des prochaines saisons ce livre de référence.
Ce livre a résolument un bel avenir devant lui : il viendra s’y gref-
fer de nouvelles explorations de perspectives, d’outils et de mé-
thodes, et sous peu déjà, dans une version revue, augmentée et
enrichie qui paraîtra au profit de doctorants-managers de DBA
qui produiront des recommandations managériales dans la
langue de Shakespeare !
P R É S E N TAT I O N
D E S AU T E U R S
Pierre-Jean BARLATIER est chercheur au Luxembourg
Institute of Science and Technology (LIST) au Grand-Duché
de Luxembourg. Il est titulaire d’une HDR de l’Université de
Strasbourg et d’un doctorat de l’Université de Nice Sophia
Antipolis. Il est chercheur associé au Laboratoire BETA (Bureau
d’Économie Théorique et Appliquée) Unité Mixte de Recherche
Université de Strasbourg-CNRS 7522 et a été Marie Curie Fellow
483
à la Copenhagen Business School (Danemark) et Visiting Fellow
à l’University of Technology Sydney (Australie). Ses thèmes de
recherche actuels sont le management stratégique et l’organisa-
tion pour l’innovation.

Paul BEAULIEU est Professeur à l’École des Sciences de la


Gestion de l’Université du Québec à Montréal au Canada. Son
enseignement se concentre au sein de programmes EMBA/
EDBA et son expertise de recherche porte sur le développement
de la capacité des organisations, ainsi que sur l’intelligence
stratégique des écosystèmes d’affaires. Au plan de la réflexion
sur les fondements de la gestion, il s’intéresse particulièrement
aux problématiques touchant l’épistémologie du pragmatisme et
la pratique du développement des connaissances en situation
de gestion. Il est l’auteur d’ouvrages sur la gestion des systèmes
universitaires et sur le développement international.

Jean-Christophe BOGAERT est vice-président mondial de


Galactic S.A., une société de biotechnologie active dans 65 pays
au sein de laquelle il a occupé différentes fonctions de direction,

Les méthodes de recherche du DBA


P r é s e nt a t i o n d e s a u t e u r s

notamment en production et en R&D. Titulaire d’un diplôme d’in-


génieur en biochimie, de maîtrises en sciences commerciales
et en finance, il a soutenu une thèse (Business Science Institute/
Lyon 3) sur l’ambidextrie organisationnelle dans les entreprises
de taille moyenne dans les environnements turbulents en 2017.

Violette BOKO est Docteur en sciences de gestion, chercheuse


associée à l’ISEOR (Institut de Socio-Économie des Entreprises
et Organisations) Magellan, iaelyon School of Management,
Université Jean Moulin. Elle a été consultante et a réalisé des
recherches-interventions qualimétriques dans des entreprises
et organisations en Afrique de l’Ouest.

Marc BONNET est Professeur de sciences de gestion à


l’iaelyon School of Management, Université Jean Moulin
Lyon 3 et à l’ISEOR (Institut de Socio-Économie des Entreprises
et Organisations). Il est également co-président du Practice
Theme Committee de l’Academy of Management des États-Unis.

Françoise CHEVALIER, Docteur HEC et HDR, est Professeur


associée à HEC Paris. Menant des enquêtes de terrain, Françoise
est spécialisée dans les méthodes de recherche qualitatives et
484 longitudinales. Ses thèmes de recherches portent sur les inno-
vations managériales et la conduite du changement, la pédago-
gie et la créativité. Parmi ses derniers ouvrages en collabora-
tion figurent Des PME aux ETI – Réussir la croissance, Questions de
Dirigeants et Réponses Pratiques (Éditions De Boeck, 2014, 2018),
Gestao Dos Recursos Humanos (Editions Piaget, 2014). Membre
du Comité de rédaction de Gérer et Comprendre, Françoise a pu-
blié plus de 50 articles, 18 chapitres d’ouvrages collectifs, dirigé
plusieurs ouvrages à la fois dans les domaines académique et
professionnel.

L. Martin CLOUTIER, Ph.D., détenteur d’un doctorat conjoint


en management stratégique et en économie appliquée de l’Uni-
versity of Illinois at Urbana-Champaign, est Professeur titulaire à
l’École des Science de Gestion (ESG) de l’Université du Québec
à Montréal où il enseigne la méthodologie et les méthodes de
recherche. Il a publié plus d’une trentaine d’articles dans des
revues à comité de pairs internationales et une trentaine de
chapitres de livres, et coordonné quatre ouvrages collectifs. Il
se spécialise dans la mise au point de cadres méthodologiques
P r é s e nt a t i o n d e s a u t e u r s

mixtes (dynamique des systèmes, cartographie des concepts


en groupe (CCG), exécuté une vingtaine de projets de CCG au
Canada, aux États-Unis, aux Caraïbes, en Europe. Il s’intéresse
aux technologies de l’information d’aide à la collaboration et à
la décision en groupe ; aux méthodes de recherche mixtes ; à
la science du design. Ses objets de recherche : transformation
numérique de TPE/PME ; accompagnement entrepreneurial de
TPE/PME technologiques ; prospective d’innovation technolo-
gique.

Jean DESMAZES est Professeur des Universités à l’IAE de


l’Université de La Rochelle. Diplômé de l’École Nationale de la
Statistique et de l’Administration Économique, Docteur de troi-
sième cycle en Économie et Finance Internationales, Docteur
d’État en Sciences de Gestion, agrégé de l’enseignement supé-
rieur, son domaine de recherche est le management public et il
porte aujourd’hui sur le management public du Développement
Durable. Il est rédacteur en chef de la revue Politiques et
Management Public. Il fut directeur de l’IAE de Tours et de l’IAE La
Rochelle. Outre le management public, il enseigne les méthodes
quantitatives et la méthodologie de la recherche.
485
Fatou DIOP SALL est Professeur de Marketing à l’École
Supérieure Polytechnique de l’Université Cheikh Anta Diop
de Dakar (Sénégal), elle dirige le Laboratoire de Recherche en
Marketing et Stratégie (LARMS). Elle a publié dans les revues
comme : International Business Research, Revue Internationale des
Sciences Commerciales : Marketing & Communication, La Revue des
Sciences de Gestion, Management & Avenir, Recherche et Applications
en Marketing, etc. Elle est coauteur de chapitres d’ouvrages en
management.

Pierre-Louis DUBOIS est Docteur d’État et agrégé en sciences


de gestion, Professeur émérite à l’Université de Montpellier. Il
a été Délégué Général de la FNEGE (Fondation Nationale pour
l’Enseignement de la Gestion des Entreprises). Auteur de nom-
breux ouvrages et publications scientifiques, il a été président
de l’Association Française du Marketing, premier rédacteur en
chef de Recherche et Applications en Marketing. Il a également été
président du Concours d’agrégation des professeurs d’Uni-
versité en sciences de gestion, Directeur des IAE de Paris et
P r é s e nt a t i o n d e s a u t e u r s

de Montpellier, Directeur de l’École Doctorale de Sciences


Economiques et Gestion de Paris 2 et a dirigé de nombreuses
thèses.

Aurélie DUDÉZERT, diplômée de l’Institut d’Études Politiques


de Bordeaux et de Paris et Docteur de l’École Centrale Paris, est
Professeur des Universités en Sciences de Gestion à l’Université
Paris Sud/Paris Saclay. Directrice de Recherche en Management
des Systèmes d’Information, elle est spécialiste du Management
des Connaissances et de la transformation digitale des organi-
sations. Elle enseigne en Master et en Executive Education dans
différents établissements. Dans le cadre de conférences profes-
sionnelles, elle forme régulièrement des responsables d’entre-
prises. Membre de l’association COP-1 KM et collaboration, elle
anime également le Club Digitalisation et Organisation de l’ANVIE
commandité par la FDJ et ORANGE (http://club-do.fr/).

Christophe FOURNIER est Professeur agrégé des Universités


à l’IAE de Montpellier. Son champ de recherche principal est le
management des forces de vente. Ses résultats sont publiés
dans différentes revues internationales classées dans le « top
486 tier » parmi lesquelles The Journal of Business Research ou The
Journal of Personal Selling & Sales Management. Il intervient dans
différents programmes de DBA en France comme à l’étranger et
à ce titre encadre des thèses de Ph.D. et de DBA.

Jean-Pierre HELFER, Professeur à l’IAE de Paris a dirigé l’Ins-


titut de 1990 à 2001 puis de 2013 à 2016. Il a été directeur général
d’Audencia École de Commerce de Nantes de 2004 à 2010. Jean-
Pierre Helfer a publié de nombreux ouvrages dans les domaines
du marketing et du management stratégique ainsi que plusieurs
articles en marketing, en stratégie et sur les évolutions de l’en-
seignement supérieur en management. Il est consultant auprès
de plusieurs entreprises et organismes de formation. Il est direc-
teur de la recherche à EDC Paris Business School et au Groupe
sup de Co La Rochelle.

Jacques IGALENS est Professeur à l’Université de Toulouse-


Capitole, Toulouse School of Management. Il est spécialisé en
Gestion des Ressources Humaines (GRH) et en Responsabilité
Sociale de l’Entreprise. Il est Président d’Honneur de l’AG-
RH (Association Francophone de GRH) et de l’IAS (Institut
P r é s e nt a t i o n d e s a u t e u r s

International de l’Audit Social). Il a créé la Revue de l’Organisa-


tion Responsable et publie régulièrement dans des revues scienti-
fiques (Journal of Management, Journal of Business Ethics, Journal of
Organizational Behavior, Revue Française de Gestion, etc.).

Michel KALIKA est créateur et Président du Business


Science Institute. Professeur émérite à l’iaelyon School of
Management, Université Jean Moulin, il a été directeur de l’École
de Management Strasbourg et a créé et dirigé de nombreux pro-
grammes de formation de MBA pour managers ainsi que le pre-
mier Executive DBA dans une université française. Auteur ou
coauteur de plus de vingt-cinq ouvrages en management (dont
Management Stratégique, l’ouvrage français de stratégie le plus ré-
édité), d’une centaine d’articles, de communications, chapitres
d’ouvrages et cas sur la stratégie et les systèmes d’information,
ses recherches portent actuellement sur la surcharge informa-
tionnelle (la « théorie du millefeuille ») et l’impact des business
schools. Michel Kalika a fait soutenir une soixantaine de thèses
de doctorat.

David LARIVIÈRE est Directeur d’hôpital au CHU de


Strasbourg, en France. Fort d’une quinzaine d’années dans des 487
fonctions de Direction, il a exercé dans plusieurs établisse-
ments publics de santé où il a été responsable de la stratégie,
des finances, des achats ou encore des investissements. D’un
profil plutôt économiste et financier, il est diplômé de l’École des
hautes études en santé publique et finalise son parcours univer-
sitaire à travers un doctorat au Business Science Institute.

Jean-Fabrice LEBRATY est Professeur de Sciences de


Gestion à l’iaelyon School of Management, Université Jean
Moulin. Il est membre du laboratoire de recherche Magellan.
Spécialisé en management des systèmes d’information, ses
travaux portent sur la prise de décision en situations extrême et
sur les opportunités offertes par le numérique, notamment les
réseaux sociaux, le crowdsourcing et la blockchain. Il est en outre
responsable des relations internationales de la FNEGE.

Jean-François LEMOINE est Professeur des Universités à


l’Université Paris 1 Panthéon – Sorbonne et à l’ESSCA School of
Management. Il est directeur de l’École Doctorale de Management
Panthéon-Sorbonne (EDMPS) et responsable du M2 Études
P r é s e nt a t i o n d e s a u t e u r s

de Marché et Prise de Décision Marketing et du M2 Métiers du


Conseil et de la Recherche en Marketing de l’Université Paris 1
Panthéon-Sorbonne. Ses travaux portent sur le marketing digital
et notamment sur la e-shopping experience, l’influence des compo-
santes atmosphériques des sites web sur le comportement des
internautes, la privacy et le crowdsourcing. Ils ont été publiés dans
Administrative Science Quarterly, Décisions Marketing, International
Journal of Retail and Distribution Management, Journal of Marketing
Management, la Revue Française de Gestion, Management et Avenir,
Recherche et Applications en Marketing.

Sébastien LIARTE est Professeur des Universités à l’Univer-


sité de Lorraine (ISAM-IAE de Nancy) et chercheur au Bureau
d’Économie Théorique et Appliquée (BETA UMR CNRS 7522).
Ses recherches en stratégie d’entreprise et théories des organi-
sations s’inscrivent principalement dans le champ de la théorie
néo-institutionnelle, en particulier sur le concept de logiques
institutionnelles. Il s’intéresse également aux questions de mé-
thodologie de la recherche que ce soit à travers la simulation
informatique, les techniques de fouille textuelle ou l’analyse de
visuel. Sébastien Liarte a été rédacteur en chef de la revue aca-
488 démique M@n@gement de 2014 à 2016.

Yves-Frédéric LIVIAN est Docteur en sociologie et Professeur


honoraire à l’iaelyon School of Management, Université Jean
Moulin, chercheur au Centre Magellan. Il a publié une vingtaine
d’ouvrages, seul ou en collaboration sur la gestion des res-
sources humaines, les approches critiques en management et
le management interculturel. Il a animé de nombreuses sessions
en matière de méthodologie de la recherche en gestion, orien-
tées vers le croisement avec les sciences sociales, et intervient
dans ce domaine au sein d’une association lyonnaise d’aide
aux étudiants internationaux. Il enseigne actuellement dans le
cadre d’écoles doctorales en sciences de gestion en Afrique de
l’Ouest.

Katia LOBRE-LEBRATY est Maître de Conférences Habilitée


à Diriger des Recherches à l’iaelyon School of Management,
Université Jean Moulin. Elle est membre du laboratoire de re-
cherche Magellan. Spécialisée en gestion des systèmes d’infor-
mation et de contrôle, ses recherches portent sur l’organisation,
P r é s e nt a t i o n d e s a u t e u r s

le contrôle et la gouvernance des organisations hybrides d’une


part et sur les relations entre foule des internautes et technolo-
gie de l’information (crowdsourcing / crowdfunding / open data par
exemple) d’autre part.

Sarah MAIRE est doctorante à l’Université de Lorraine (ISAM-


IAE de Nancy) et chercheuse au Centre Européen de Recherche
en Économie FInancière et Gestion des Entreprises (CEREFIGE).
Son travail porte sur la question de l’identification des logiques
institutionnelles, autant de manière visuelle que textuelle, et de
l’étude d’organisations hybrides.

Vincent MEYER, Enseignant-chercheur en gestion des res-


sources humaines et théorie des organisations, a commencé sa
carrière comme Responsable des Ressources Humaines pen-
dant 7 ans dans les secteurs de la Chimie en Chine et de la Finance
en France. Sa thèse de doctorat Performance Management. An
American Technology in a French Multinational Enterprise Established
in China, dirigée par le Professeur Françoise Chevalier, a été sou-
tenue à HEC Paris en 2018 et a reçu le prix du meilleur article quali-
tatif en Management international de l’Academy of Management
en 2016. Vincent est aujourd’hui Professeur Assistant à l’EM 489
Normandie et Directeur Académique du Master 2 Management
des Ressources Humaines. Ses travaux de recherche se
concentrent sur la gestion de la performance, la sociologie des
outils de gestion et la digitalisation des pratiques RH.

Nathalie MITEV est chercheuse invitée à l’école de manage-


ment de King’s College London University. Elle était Professeure
associée au département de management de la London School
of Economics pendant 17 ans, et elle a également travaillé à l’uni-
versité de Salford à Manchester et à la City University Business
School à Londres. Ses travaux de recherche utilisent les mé-
thodes qualitatives pour étudier les aspects sociaux et organi-
sationnels des technologies de l’information. Ses ouvrages in-
cluent quatre volumes sur la matérialité dans les organisations
publiés par Palgrave Macmillan, basés sur les colloques inter-
nationaux intitulés Organizations, Artefacts and Practices dont elle
est la co-fondatrice. Elle est chercheuse associée à l’université
Paris-Dauphine et professeur invitée dans diverses universités
en France, Allemagne, Danemark et au Brésil. Elle enseigne les
P r é s e nt a t i o n d e s a u t e u r s

techniques d’écriture de la thèse et d’articles scientifiques, et les


méthodes de recherche qualitative dans plusieurs formations
doctorales dont le DBA au Business Science Institute.

Jean MOSCAROLA est Professeur émérite de l’Université


Savoie Mont Blanc. Il a fondé la société des logiciels Sphinx qu’il
dirige jusqu’en 2015. Depuis, il accompagne les chercheurs du
Business Science Institute dans leurs choix méthodologiques et
conseille de nombreuses équipes de recherches en les faisant
profiter de son expertise en matière de marketing, méthodologie
et statistiques.

Caroline MOTHE est Professeur des Universités à l’Ins-


titut d’Administration des Entreprises Savoie Mont Blanc.
S’intéressant aux coopérations inter-firmes et aux organisations
innovantes, elle coordonne plusieurs projets de recherche sur
les processus d’innovation intra et inter-organisationnels. Elle
intervient en management stratégique et de l’innovation et en
design de la recherche au sein du Business Science Institute.

Gaëtan MOURMANT a obtenu son doctorat à l’université Paris


Dauphine et Georgia State University. Sa recherche porte prin-
490 cipalement sur l’entrepreneuriat et la méthodologie de la théorie
enracinée. En plus de nombreuses conférences, ses travaux ont
été publié dans l’European Journal of Information System, la revue
Systèmes d’Information et Management ou encore dans The Data
Base for Advances in Information Systems. Gaëtan a enseigné au
Business Science Institute, à l’EDHEC, l’Iéseg, l’université Paris
Dauphine, Geogia State University et l’EM Strasbourg. En paral-
lèle à ses activités de chercheur, M. Mourmant a fondé sa propre
entreprise en 2004 dans le domaine du développement informa-
tique (www.xlerateur.com).

Marielle A. PAYAUD est Professeur des Universités à l’iaelyon


School of Management et directrice de l’Institut International
pour la Francophonie, Université Jean Moulin, Lyon. Auteur et
coauteur de nombreux articles et ouvrages dont les 100 Fiches
pour comprendre la stratégie d’entreprise (7e édition en 2018). Elle
a notamment créé la revue électronique Revue Internationale des
Francophonies (www.rifrancophonies.com) dont elle est rédac-
trice en chef. Ses recherches portent actuellement sur les pro-
cessus de stratégisation, la responsabilité sociale des entre-
P r é s e nt a t i o n d e s a u t e u r s

prises, les partenariats ONG-FMN, les stratégies BoP destinées


et intégrant les plus démunies.

Sébastien POINT est Professeur des Universités en sciences


de gestion à l’École de Management Strasbourg, Université de
Strasbourg. Il y enseigne la gestion des ressources humaines
et le management international. Depuis les deux dernières dé-
cennies, il a développé une véritable expertise sur le logiciel
d’aide à l’analyse des données qualitatives NVivo. Ses travaux
de recherche se concentrent sur l’analyse des discours et les
méthodes de recherche qualitative ; auteur et co-auteur d’une
quarantaine de publications dans des revues académiques na-
tionales et internationales, il a dernièrement publié sur la re-
cherche qualitative dans les revues European Management Review
et Organizational Research Methods.

Laurent RENARD, Ph.D., détient un doctorat en administra-


tion avec une spécialisation en système d’information. Il est
Professeur au département de management et technologie à
l’École des Sciences de la Gestion de l’Université du Québec à
Montréal (ESG UQAM). Ses travaux de recherche portent plus
spécifiquement sur l’étude des capacités organisationnelles, les 491
transformations induites par les technologies de l’information et
de la communication dans différents secteurs de l’économie et
les approches de recherche en science du design. De manière
générale, la question de la transformation organisationnelle est
au cœur de ses réflexions.

Claude ROUSSILLON SOYER est enseignant-chercheur


à l’Université de Toulouse-Capitole, Toulouse School of
Management. Elle est Ingénieur en agriculture et Docteur
en science de gestion. Elle enseigne à l’Université Toulouse
Capitole la communication et le management. Ses recherches
portent sur la gestion de ressources humaines et le manage-
ment dans les coopératives agricoles. À partir d’un design qua-
si-expérimental, elle mobilise des travaux sur les rémunérations,
les performances individuelles ainsi que sur les théories de l’au-
todétermination, de l’engagement et du soutien organisationnel
perçu.

Sébastien STENGER, titulaire d’un doctorat d’HEC Paris, est


enseignant-chercheur à l’Institut Supérieur de Gestion (ISG).
P r é s e nt a t i o n d e s a u t e u r s

Ses travaux de recherche portent principalement sur les mé-


thodes de management des cabinets d’audit et de conseil.
Sa thèse de doctorat, soutenue à HEC Paris et dirigée par le
Professeur Françoise Chevalier, a été publiée aux Presses
Universitaires de France (2017) sous le titre Au cœur des cabinets
d’audit et de conseil. Pour ses travaux de recherche, Sébastien a
reçu le Prix de la Recherche Universitaire du journal Le Monde
(2016) et le Prix du meilleur ouvrage de management de la FNEGE
(2018).

Stéphane TRÉBUCQ est Professeur des Universités en


sciences de gestion à l’Université de Bordeaux et l’IAE Bordeaux.
Il est membre de l’IRGO, Institut de recherche en gestion des or-
ganisations, et titulaire de la chaire capital humain, auprès de
la fondation Bordeaux Université, avec le soutien de l’Observa-
toire de l’Immatériel et du groupe Altrad. Ses recherches sont
consacrées aux nouveaux systèmes d’information comptable,
de contrôle de gestion, et aux nouvelles formes de reporting fi-
nancier et extra-financier. Dans le cadre du baromètre FNEGE, il
coanime le groupe dédié à la thématique de la performance glo-
bale.
492
Gabriel TREMBLAY est un économiste spécialisé en évalua-
tion économique de la santé. Il a travaillé à l’international pour
différentes compagnies pharmaceutiques et à titre de consul-
tant. Il a un intérêt particulier pour les évaluations économiques
dans les secteurs complexes de la santé que sont les maladies
orphelines et la génomique. Au cours des années, il a produit
plus de 140 études économiques et études de démonstration de
la valeur en santé. Son profil académique inclut un baccalauréat
en économie de l’université Laval et une maîtrise en économie
appliquée de HEC Montréal avec une spécialisation en économie
de la santé. Il est titulaire d’un doctorat en administration des
affaires du Business Science Institute et de l’iaelyon School of
Management.

Julia VINCENT-PONROY titulaire d’un doctorat d’HEC Paris


et d’un Master en Lettres Modernes (Paris IV Sorbonne) et di-
plômée d’HEC Grande École, est enseignant-chercheur à l’IPAG
Business School. Sa thèse de doctorat Les employés non-fami-
liaux dans l’entreprise familiale : l’identité organisationnelle en ques-
P r é s e nt a t i o n d e s a u t e u r s

tion, une étude de cas, soutenue à HEC Paris et dirigée par le


Professeur Françoise Chevalier, a obtenu le prix FNEGE-AGRH
2017. Julia vient également d’obtenir le Family Firm Institute Best
Qualitative Paper Award (Euram 2018). Les travaux de recherche
de Julia portent sur l’identité des entreprises familiales.

493
Dans la même collection

DA N S L A M Ê M E
COLLECTION

La création de
connaissance par
les managers

Dir. par Paul BEAULIEU


et Michel KALIKA

494 Cet ouvrage, riche de la


diversité des points de vue
abordés et de la qualité
de son collectif d’auteurs,
vise à engager un débat
pour le développement et
le progrès de la création
de connaissance par les
managers-chercheurs.

ISBN: 978-2-84769-818-3
472 p. / 29 €
Dans la même collection

DA N S L A M Ê M E
COLLECTION

Comment réussir son


DBA ?

Michel KALIKA
L’ouvrage Comment réussir
son DBA ? (Doctorate in
Business Administration)
495
vise à répondre aux questions
que se posent les managers
qui ont envie de prendre du
recul, de soutenir et publier
une thèse ancrée dans leur
expérience managériale, et
de créer de la connaissance.

ISBN: 978-2-84769-860-2
112 p. / 15 €

Vous aimerez peut-être aussi