Vous êtes sur la page 1sur 424

Université de Nice Sophia Antipolis – IAE de Nice

Groupe de Recherche en Droit, Economie et Gestion (GREDEG)


UMR 6227 CNRS-UNS
250 Rue Albert Einstein - 06750 - Valbonne - France

THESE
pour l’obtention du titre de
Docteur ès Sciences de Gestion
présentée et soutenue publiquement le 19 juin 2008
par

Alexandre Perrin

Les pratiques des gestionnaires des connaissances en


entreprise : études de cas chez Lafarge.

JURY
Directrice de thèse Yvonne Giordano
Professeure à l’Université de Nice Sophia Antipolis

Rapporteurs Isabelle Huault


Professeure à l’Université de Paris Dauphine
Gérard Koenig
Professeur à l’Université Paris XII

Suffragants Mathieu Detchessahar


Professeur à l’Université de Nantes
Bertrand Moingeon
Professeur à HEC Paris

Numéro attribué par la bibliothèque : _______________________

0
L’Université de Nice Sophia Antipolis n’entend donner aucune approbation ni
improbation aux opinions émises dans les thèses.
Ces opinions doivent être considérées comme propres à leurs auteurs.

Pour des raisons de confidentialité les noms des personnes évoquées dans ce
travail ont été remplacés par des noms fictifs. Pour les mêmes raisons, ce document
n’est pas accompagné de ses annexes.

1
A André et Andréa.
A ma famille.
A Sylvia.

2
REMERCIEMENTS

Ponctué de moments de doutes, de remises en questions, de nuits blanches et de


cogitations diverses, ce travail n’aurait pu voir le jour sans l’aide et le soutien d’un grand
nombre de personnes. Je veux les remercier ici.

Ma première pensée est pour ma directrice de thèse. Elle a su guider ma recherche


doctorale tout en me laissant ma liberté intellectuelle et mon autonomie. J’ai toujours
apprécié les différents conseils méthodologiques qu’elle a pu me prodiguer au cours de ces
cinq années. Démarrée lors du Master Recherche à l’IAE de Nice, cette relation a été, je
pense, le moteur de mon travail doctoral. Chaque rencontre a été l’occasion
d’éclaircissements pour moi, alors noyé dans les nombreuses couches de brumes
intellectuelles. Je lui transmets donc toute ma gratitude pour la qualité de ses conseils et pour
sa gentillesse sans cesse renouvelée.

Je remercie les Professeurs Gérard Koenig et Isabelle Huault qui m’ont fait l’honneur
d’être les rapporteurs de cette thèse. Je remercie également les Professeurs Michel Moingeon
et Mathieu Detchessahar de faire partie de mon jury.

Cette thèse n’aurait pu démarrer sans la participation active et l’implication de


professionnels qui m’ont fait confiance pour mener à bien mes études empiriques. Je rends
tout d’abord hommage à l’ancienne Corporate Knowledge Manager du groupe Lafarge. Elle
a toujours soutenu mon projet en m’ouvrant un maximum de portes pour mener à bien mes
recherches au sein d’une entreprise riche d’enseignements: Lafarge. Qu’elle soit ici
infiniment remerciée pour son professionnalisme et sa sympathie. Je profite de cette occasion
pour remercier également son supérieur hiérarchique et toute l’équipe Direction des
Systèmes d’Information. J’ai une pensée particulière pour l’assistante de direction qui a
grandement contribué à mon intégration au sein de cette équipe.

Ce travail a également été influencé par mon parcours initiatique dans le monde
académique et universitaire. Je souhaite donc ici saluer les enseignants-chercheurs de
différentes institutions avec lesquels j’ai pu entretenir des liens professionnels et amicaux.
En premier lieu, les membres du Groupe de Recherche en Droit Economie et Gestion
(GREDEG) de l’Université de Nice Sophia-Antipolis dont Audrey Missonier, Sabrina

3
Loufrani et Cécile Ayerbe. Les différents échanges informels que nous avons pu avoir au
laboratoire ont enrichi ma compréhension du fonctionnement universitaire.
Puis, les Professeurs du CERAM Sophia-Antipolis, Alice Guilhon et Pascal Vidal,
respectivement Directrice de l’école et Doyen du corps professoral, mais surtout Nicolas
Rolland, avec qui j’ai « écumé » de nombreuses conférences internationales et qui n’a cessé
de m’apporter de précieux conseils sur la rédaction de la thèse.
Enfin, un remerciement tout particulier au réseau doctoral EUDOKMA mené par
Mett Monsted de Copenhagen Business School et plus précisément à l’ESADE Business
School qui m’a ouvert son laboratoire de recherche, le GRACO, pendant un an à Barcelone.
Ce « visiting » n’aurait pu se faire sans l’accord des Professeurs Alfons Sauquet et Eduard
Bonet. Leurs conseils m’ont permis d’améliorer ma revue de la littérature mais également de
vivre une année très riche dans cette ville fascinante qu’est Barcelone.

La FNEGE a contribué au soutien financier de ma période d’échange à l’ESADE. A ce


propos, je tiens à remercier la FNEGE pour l’organisation du CEFAG et par là même la
promotion 2005 dont Audrey Rouzies, Pierre Roy et Charlotte Fillol qui sont non seulement
devenus des amis mais également des collègues attachants. Un remerciement tout particulier
aux organisateurs de ce séminaire riche en enseignements et remises en question : les
Professeurs Frank Bournois et Jacques Thépot. Ces remerciements s’accompagnent de ceux
que je souhaite formuler au Cercle Doctoral Européen de Gestion.

La réalisation de cette thèse a été grandement facilitée par le soutien indéfectible de


mon institution actuelle : Audencia Nantes. Je tiens à remercier Monsieur Jean-Pierre Helfer
qui m’a accordé sa confiance et à Jacques Hermant, responsable de mon département qui n’a
eu de cesse de m’encourager à « boucler mon travail de thèse ». Je veux également remercier
mes collègues du département, notamment Valérie et Frédéric, qui sont à l’origine de ma
venue dans cette école et les personnes en charge de la Direction de la Recherche et plus
particulièrement Annick Bertolotti. Une pensée également à la Grande Martine.

Enfin, cette liste ne saurait être exhaustive sans mentionner le soutien indéfectible de
mes proches, de mon frère, de ma sœur, de mes parents et, surtout, celui de Sylvia. Je la
remercie du fond du cœur pour sa patience, son intelligence et son amour.

4
SOMMAIRE

Genèse de la thèse p.6

INTRODUCTION GENERALE p.7

PREMIERE PARTIE : Analyse de la littérature sur le gestionnaire des connaissances


en entreprise.

Chapitre 1. L’approche technique de la gestion des connaissances p.21

Chapitre 2. L’approche sociale de la gestion des connaissances p.86

-> Intention de recherche p.133

Chapitre 3. Proposition d’un modèle d’étude des pratiques des p.135


gestionnaires des connaissances

-> Questions de recherche p.158

DEUXIEME PARTIE : Etude des pratiques des gestionnaires des connaissances :


méthodologie, analyse et résultats.

Chapitre 4. Choix méthodologiques et démarche générale de recherche p.165

Chapitre 5. Analyse des cas p.221

Chapitre 6. Synthèse et perspectives p.346

CONCLUSION GENERALE p.400

Bibliographie p.404

Table des matières détaillée p.415

Table des illustrations p.420

5
Genèse de la thèse : une histoire professionnelle, un questionnement personnel.

Mon travail de recherche s’est amorcé à partir d’un constat simple et récurrent :
pourquoi les entreprises nomment-elles des gestionnaires des connaissances ?
La réponse la plus évidente serait la suivante : « pour gérer ses connaissances ».

Mon expérience professionnelle m’a montré qu’elle est infiniment plus complexe.
Jeune consultant dans un cabinet de conseil commercialisant des « solutions collaboratives
pour gérer les connaissances des employés » (dixit la plaquette du cabinet), j’ai été amené à
rencontrer quelques-uns de ces responsables de politique de gestion des connaissances. La
réalité de leur travail m’a semblé alors très éloignée de celle que la littérature académique
avait pu me relayer.
A leur côté, je constatais également le décalage entre les théories développées dans les
travaux académiques et la réalité de l’usage. Ces managers étaient quelque peu déçus des
résultats des projets qu’ils avaient menés jusqu’alors. Cette déception était liée, selon eux, à
la difficulté d’impliquer les employés, à la complexité et la lourdeur des outils informatiques
et à la pauvreté des connaissances capitalisées.
Enfin, j’ai été particulièrement surpris par le discours ambiant des consultants censés
aider ces personnes qui remplaçaient systématiquement le mot « information » par celui de
« connaissance » dans leurs présentations PowerPoint ou leur offre de service.
C’est pourquoi j’ai décidé d’aborder cette question dans le cadre d’une recherche
doctorale et de l’approfondir de manière scientifique et rigoureuse. Que « fait » un
gestionnaire des connaissances ? Quel est son rôle dans l’entreprise ? Quelles sont ses tâches
quotidiennes ? Pour répondre à ces questions, je devais les rencontrer, les observer, les
côtoyer et les comparer. Au cours de mon travail de recherche, deux problématiques
majeures ont alors émergé : celle de leur rôle véritable dans la structure organisationnelle et
celle de leur légitimité au cours des prochaines années.

La thèse que je défendais avant ce travail, qui s’est étalé sur cinq années d’étude, était
que la réutilisation continue des connaissances détenues par une entreprise n’était possible
que grâce à l’existence de ces « relais organisationnels » que sont les gestionnaires des
connaissances. Nous allons voir si cette thèse a été étayée par la réalité.

6
INTRODUCTION GENERALE

Angleterre, début du vingtième siècle. Deux espèces d’oiseaux prolifèrent sur le

territoire anglais : la mésange et le rouge-gorge. Grâce aux bouteilles de lait livrées sur le
seuil de la porte des maisons anglaises, elles ont chacune réussi à se développer de manière
spectaculaire. On compte alors un million d’oiseaux de chaque espèce dans ce pays. Le
système de livraison de lait à domicile en vigueur en ce temps leur a permis de se nourrir
facilement, cette ressource n’étant pas protégée par un couvercle. Petit à petit, ces oiseaux ont
appris à aspirer le lait et à maîtriser cette source d’alimentation avant que l’habitant ne
vienne chercher son lait sur le pas de la porte. Cet apprentissage était déjà en soi un exploit
mais il était à double tranchant. Habitués à consommer ce lait si riche en calories, les deux
espèces ont modifié peu à peu leur mode de digestion à tel point qu’elles ne pouvaient plus
se passer de cet aliment.
Entre les deux guerres mondiales, elles ont été confrontées l’une et l’autre au progrès
technique : afin d’améliorer la conservation du lait, les producteurs anglais décidèrent de
poser un sceau en aluminium sur chaque bouteille de lait. Ce changement allait avoir une
répercussion tragique pour le rouge-gorge dont l’espèce a aujourd’hui quasiment disparu
des campagnes anglaises. Inversement, la mésange britannique a continué à proliférer pour
une raison simple : elle avait appris comment percer ce sceau en aluminium pour continuer à
avoir accès à cette ressource. Confrontée à un environnement changeant, la première espèce
a donc réussi à développer et à transférer une meilleure pratique que la seconde.
Individuellement, le rouge-gorge a, lui aussi, réussi à percer le sceau en aluminium, mais il a
préféré garder pour lui-même sa connaissance. La bonne pratique qu’il avait réussi à
développer ne s’était pas transmise à ses congénères.
Ainsi, la mésange a mis en place un processus d’apprentissage organisationnel alors
que le rouge-gorge s’est limité à un processus d’apprentissage individuel. Pourtant, les deux
espèces possèdent intrinsèquement les mêmes moyens de communication : le chant, la
couleur des plumes et les mouvements du corps. L’explication de l’évolution des deux
espèces est donc à trouver ailleurs. Selon l’anthropologue anglais Wilson, le processus de
propagation de la bonne pratique a été facilité par la richesse de la vie communautaire des
mésanges, ces dernières vivant par groupe de huit à dix individus. Au contraire, les rouges-
gorges sont des oiseaux territoriaux qui refusent l’accès aux autres membres de l’espèce s’ils
se sentent menacés.

7
Cette histoire tirée du livre « The Living Company » d’Arie de Geus (1997 : 131-141)
illustre les problèmes récurrents que soulève l’existence des connaissances au sein d’un
collectif d’individus : l’innovation (comment l’organisation peut-elle faire émerger de
nouvelles connaissances ?), la propagation sociale et institutionnelle des connaissances
(comment celles-ci sont-elles réutilisées ?), la mobilité des individus (comment capturer leurs
connaissances avant leur départ ?) ou encore le pouvoir (pourquoi partager son savoir avec
ses congénères ?). Ces différents enjeux sont l’objet d’étude d’un nouveau courant de
recherche en sciences de gestion, celui du management des connaissances. 1
Ces interrogations diverses suscitent, en effet, un engouement important sur le plan
académique depuis ces quinze dernières années. Les numéros spéciaux de revues
scientifiques de premier plan2 et l’apparition de revues consacrées entièrement à ce sujet 3

sont l’illustration de la vitalité de ce champ de recherche qui demeure encore difficile à


délimiter. La notion de management des connaissances désigne en effet à la fois un corps de
pratiques éprouvées en entreprise mais également un ensemble de préoccupations et
d’expériences diverses qui s’inscrivent dans l’économie du savoir.

Un nouvel environnement pour les entreprises : l’économie du savoir.

Les systèmes économiques dans lesquels évoluent les entreprises se sont constitués
sur un enchevêtrement historique de connaissances et de savoir-faire développés au cours
des siècles. Mais aujourd’hui la place de ces derniers est devenue centrale comparativement
aux ressources travail et capital, à tel point que l’on désigne aujourd’hui l’économie comme
celle du savoir. Selon Dominique Foray (2000), l’économie du savoir est un scénario de
développement de l’économie basé sur un double phénomène : d’une part, une tendance
séculaire relative à l’accroissement de la part du capital intangible (éducation, formation,
etc.) et, d’autre part, l’irruption et la diffusion spectaculaire des NTIC4. Ce scénario s’appuie
sur une analyse « post-capitaliste » (Drucker, 2000) du fonctionnement économique.

1
Tout au long de notre travail, nous utiliserons uniformément les termes de « management des connaissances », « gestion des
connaissances », « gestion des savoirs » et « knowledge management ».
2
On peut citer les numéros spéciaux de la Revue Française de Gestion (1995 et 2004), de Strategic Management Journal
(1996), de California Management Review (1998), de Management Science (2001), d’Organization Science (1991 et 2002) et
d’Academy of Management Executive (2005).
3
On peut citer les journaux académiques intitulés Journal of Knowledge Management, Knowledge & Process Management
ou encore Journal of Intellectual Capital and Organizational Learning.
4
Les NTIC regroupent un ensemble de ressources nécessaires pour manipuler de l'information, et particulièrement des
ordinateurs et programmes nécessaires pour la convertir, la stocker, la gérer, la transmettre et la retrouver. Dans le langage
commun, les NTIC désignent aujourd’hui tout ce qui est relatif aux télécommunications et réseaux informatiques, à Internet,
au multimédia aux services informatiques et logiciels, au commerce électronique à la microélectronique et à l'équipement
informatique.

8
Confrontés à une démographie trop faible et à un coût du travail trop élevé, les pays
industrialisés doivent aujourd’hui se différencier en formant massivement des « travailleurs
du savoir » et en favorisant la croissance d’entreprises innovantes, c’est-à-dire d’entreprises
capables de générer de nouvelles connaissances (Nonaka et Takeuchi, 1995). Les auteurs du
rapport du Commissariat Général au Plan intitulé « La France dans l’économie du savoir »
(2002) avancent ainsi que « la principale source de création de richesses pour la France réside
désormais dans les savoirs et les compétences, davantage que dans les ressources matérielles.
La compétitivité des entreprises et, au-delà, celle des nations repose fondamentalement sur
les capacités à créer et à utiliser les connaissances. Ces capacités conditionnent donc
largement les performances en termes de croissance, de revenus et de création
d’emplois » (Charpin, 2002 : 2).
Cela dit, les savoirs de l’organisation et ses compétences sont avant tout détenus par
les individus qui y travaillent. L’enjeu des théoriciens comme des praticiens est précisément
de dépasser cette limite. La compréhension des mécanismes constituant ces capacités est
donc un sujet de première importance pour s’assurer que les entreprises aient un
développement plus proche de celui des mésanges que celui des rouges-gorges. Cette
compréhension est d’autant plus cruciale que les entreprises évoluent dans un
environnement économique de plus en plus incertain où la planification de leur action est
devenue émergente (Mintzberg et Lampel, 1999). C’est désormais leur portefeuille de
ressources (Barney, 1991, 1995) ou l’enchevêtrement de compétences clés qui déterminent
leur compétitivité (Hamel et Prahalad, 1994). Le management des connaissances est donc une
nécessité pour faire fructifier les ressources immatérielles de l’entreprise.

Un nouvel impératif pour les entreprises : la gestion des savoirs.

Concevoir l’entreprise comme un portefeuille de ressources nécessite de nouveaux


outils de gestion, de nouvelles compétences de la part des managers et de nouvelles
orientations stratégiques. Ces orientations se sont alors traduites dans la mise en place de
programmes de management des savoirs, c’est-à-dire un ensemble d’initiatives et de projets
ayant pour fil conducteur la gestion active des ressources immatérielles (informations et
connaissances) détenues par l’entreprise. A la base de tous les programmes de management
des savoirs figure la prise de conscience ou la revendication du fait que l’information et le
savoir sont des ressources stratégiques et qu’il est impératif de disposer d’outils, de
techniques et de méthodes pour les gérer en tant que telles (Mbengue, 2004 : 15).

9
Les dirigeants d’entreprise cherchent aujourd’hui à améliorer l’utilisation de leur
portefeuille de connaissances. Comme l’avait noté Peter Drucker (2000 : 23), les entreprises
essayent « d’user du savoir pour déterminer comment le savoir existant peut être mis en
œuvre pour obtenir des résultats ». Mais au fur et à mesure que la taille et la complexité de
ces organisations augmentent, leur besoin de mettre en commun ce que savent leurs
employés est devenu de plus en plus difficile à satisfaire. Qu'il s'agisse de transfert vertical
entre un maître et un apprenti ou de transfert horizontal entre experts, les responsables
d’entreprises se sont rendu compte qu’ils ne pouvaient désormais plus s'appuyer sur des
réseaux sociaux simples et peu coûteux (Foray, 2000). La globalisation et la dématérialisation
de leurs activités ont été des facteurs aggravants en raison de l’approfondissement de la
distribution spatiale de leurs activités (éparpillement des sites de production et de
commercialisation) et de la hausse des coûts de coordination de ces activités (équipes
multiculturelles et multilingues). Les dirigeants d’entreprises sont donc aujourd’hui tous
concernés par cette question dans une optique de productivité et d’efficacité (Charpin, 2002).

Les pratiques de gestion des savoirs en question.

On remarque ainsi que depuis une quinzaine d’années, bon nombre d’entreprises ont
commencé à structurer leur démarche de gestion des connaissances (Ruggles, 1998). Chacune
tente de traiter un problème en particulier : le départ en retraite de cadres qui détiennent une
connaissance critique, le partage de bonnes pratiques développées par une unité de
production, la stimulation de l’innovation d’un centre de recherche, etc. Dans la réalité, la
mise en place effective de ces initiatives soulève de nombreux problèmes liés à la nature
tacite de la connaissance (Davenport et Prusak, 2000), à l’existence de barrières culturelles
(O’Dell et Grayson, 1998) ou à l’adoption d’un système de gestion des connaissances
(Lancini, 2003).
Ainsi, les dirigeants d’entreprise ont beau être de plus en plus convaincus du bien-
fondé de cette démarche, ils sont souvent déçus par l’impact de celle-ci. Selon une enquête
réalisée en 2007 par le cabinet de conseil en stratégie Bain & Company, sur 960 dirigeants
d’entreprises ou managers5 à travers le monde, 54% d’entre eux déclarent avoir mis en place
un programme de management de leurs connaissances mais seulement 19% d’entre eux sont
satisfaits du résultat (Rigby, 2007 :13).

5
Cette étude menée tous les deux ans par le consultant Darrell Rigby détaille l’utilisation de 25 outils de gestion
par des entreprises depuis 1993. Le knowledge management est présenté comme un de ces outils.

10
En France, on constate également une implantation croissante des démarches de
management des connaissances dans les entreprises, favorisée par les technologies de
l’information et de la communication, mais celles-ci ont bien du mal à s’ancrer réellement
dans les pratiques quotidiennes des employés (Beyou, 2002 : 13). L’étude menée en 2002 par
la Cegos et l’Université Paris-Dauphine est révélatrice du nombre croissant d’entreprises
ayant déjà mis en oeuvre des démarches de ce type tout en soulignant leur portée limitée6.
Alors que 47% des entreprises interrogées disposent de bases de connaissances, les managers
recherchent en priorité des connaissances auprès d’un collaborateur (86%), mais également
sur ces bases de connaissances internes (62%) et sur des sites Internet externes (59%).
L’annuaire électronique d’experts est, lui, très peu utilisé (14%) (Kalika et al, 2002).

Un nouvel impératif pour le chercheur : l’étude de la fonction gestion des connaissances

Concevoir l’entreprise comme un portefeuille de connaissances nécessite également


de nouvelles structures d’accompagnement. Pour faire face aux difficultés de mise en place
de ces programmes, on assiste à l’émergence d’une nouvelle fonction dédiée à plein temps à
la gestion des connaissances organisationnelles. Ces gestionnaires sont « des cadres
d’entreprise chargés d’articuler une politique de management des connaissances en fonction
des besoins et du contexte dans lequel elle s’inscrit » (Awazu et Desouza, 2004 : 339). On a
ainsi vu apparaître les fonctions de « Chief Learning Officer », « Chief Knowledge Officer », «
Directeur du Capital Intellectuel » ou « Knowledge Managers » dans des entreprises
industrielles et des entreprises de services (Davenport et Prusak, 2000 ; Earl et Scott, 1999 ;
Awazu et Desouza, 2004). Hubert Saint-Onge (Clarica Life Insurance), Steve Denning
(Banque Mondiale), Dave Snowden (IBM), Karl-Erik Sveiby et Leif Edvinsson (Skandia),
David Smith (Unilever), John Brown (BP), Susan Welch (Mosanto) ont été ainsi les premiers
responsables officiels en charge d’une démarche de gestion des connaissances.
En France, on peut citer la société Cofinoga qui a créé, dès le début de l’année 1999,
un poste de Knowledge Manager, et le bureau Veritas qui a fait apparaître une fonction de
Knowledge Management dans son organigramme à la fin de l’année 1999 (Grundstein, 2001 :
31). Plus récemment, le directeur du service des ressources humaines de Danone a mis en
place en 2004 un projet d’entreprise intitulé « Networking Attitude » encouragé par un

6
La CEGOS et l’Université Paris-Dauphine se sont associées pour créer l’Observatoire de l’e-management qui a
mené pendant plusieurs années une enquête auprès d’un large échantillon d’entreprises (505 en 2002) et de
salariés répondant en leur nom propre (2577 en 2002). Cette enquête porte sur l’impact de l’usage des NTIC sur
le lieu de travail.

11
Knowledge Manager, pour inciter les salariés à échanger les bonnes pratiques éparpillées au
sein des filiales dans le monde entier.
La gestion des savoirs s’est donc institutionnalisée et matérialisée par l’existence
d’une fonction dans l’organigramme. Dans un sens structurel, on définit par fonction
« l’ensemble des opérations permettant d’atteindre un type d’objectifs » (Louart, 1999: 409).
Le mot ‘fonction’ caractérise donc l’exercice d’un emploi ou d’une charge (une mission ou
une occupation). Par extension, il désigne une profession ou un métier contribuant à la vie
d’une organisation. Le concept de fonction soulève donc la question du rôle ou de l’utilité
d’un sous-ensemble (l’individu en charge de la fonction) dans un système (l’organisation).
Dans les entreprises, les fonctions sont également appelées des « services ». On peut
alors distinguer les services dits fonctionnels des services opérationnels. Les services
fonctionnels (ou support) sont ceux qui aident les services opérationnels à mieux gérer leurs
activités. Mintzberg (1982) oppose, lui, les technostructures (qui fournissent des principes,
des méthodes ou des moyens de contrôle) aux supports logistiques (qui assistent les
opérationnels dans leurs besoins d’intendance ou d’assistance matérielle). Cette séparation
est aujourd’hui en plein bouleversement puisque ces deux sortes de tâches peuvent être
tenues par les mêmes services. Drucker (1999) observe cette évolution en expliquant qu’une
troisième vague affecte aujourd’hui les structures fonctionnelles des entreprises (Encadré 1).

Encadré 1. La troisième mutation des fonctions (Drucker, 1999 : 59)


« Depuis l’apparition de l’entreprise moderne, c’est-à-dire depuis la fin de la deuxième
guerre civile aux États-Unis et la fin de la guerre franco-prusienne en Europe, le
concept et la structure des organisations ont enregistré deux évolutions majeures.
La première se déroula de 1895 à 1905. Elle distingua direction et propriété et donna à
la première tous ses droits en tant que travail à part entière [...]
La seconde évolution eut lieu vingt ans plus tard. Le développement de ce que nous
considérons encore actuellement comme l’entreprise moderne commença avec la
restructuration que Pierre S. Du Pont fit subir à son entreprise familiale au début des
années vingt, et se poursuivit quelques années plus tard avec la recomposition de
General Motors [...] C’était la mise en orbite de l’organisation “commande et contrôle”
d’aujourd’hui, caractérisée par l’importance donnée à la centralisation, aux services
centraux, à la gestion des ressources humaines, à l’ensemble de l’appareil planification-
contrôle, ainsi que par la distinction très nette entre élaboration des politiques et
opérations [...]
Nous sommes à la veille d’une troisième période de mutation : le passage de
l’organisation “commande et contrôle”, structurée en divisions et en départements, à
l’organisation fondée sur l’information, celle du savoir et des experts. Nous
discernerons déjà, quoique encore faiblement peut-être, à quoi cette nouvelle
organisation ressemblera ; nous sommes capables d’identifier quelques-unes de ses
caractéristiques et conditions préalables essentielles ; nous pouvons mettre le doigt sur
certains problèmes fondamentaux de valeurs, de structures et de comportements. Mais
la tâche concrète de l’édification de l’organisation fondée sur l’information est
encore devant nous – c’est le défi qui attend les chefs d’entreprise du futur. »

12
La fonction « knowledge management » est au cœur de la troisième période de
mutation décrite par Peter Drucker. Cette question de la mutation est pourtant absente dans
les travaux de recherche en sciences de gestion consacrés à ce thème.

Les enjeux académiques de notre recherche : étudier le travail du knowledge manager.

Très peu de travaux académiques ont étudié la fonction gestion des connaissances.
Pour s’en convaincre, une simple recherche sur une base d’articles scientifiques (EBSCO)
suffit à montrer le décalage important entre les travaux traitant du « knowledge management »
et ceux sur le « knowledge manager » (Figure 1).

Figure 1. Evolution du nombre de travaux académiques de 1991 à 2007 (Source: EBSCO)


800

700

600
Nombre de publications

500

400

300

200

100

0
1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007
"Knowledge Management" 14 37 30 44 35 62 68 133 193 256 316 316 480 596 591 599 736
"Organizational Knowledge" 1 5 1 5 4 14 7 12 20 25 23 24 33 25 28 32 49
"Knowledge Manager" 0 0 0 0 0 0 1 1 1 2 2 4 6 6 2 4 3

Années

On remarque sur la Figure 1 que la littérature consacrée au knowledge management a


connu une croissance exponentielle : 736 articles ont été publiés sur EBSCO en 2007 alors que
ce nombre était deux fois moins élevé cinq ans avant. Il existe ainsi de plus en plus d’études
empiriques disponibles sur le rôle stratégique du savoir dans l’organisation, sur les
retombées de projets de knowledge management ou sur les limites des communautés de
pratique.
Pour autant, cette littérature parcellaire et fragmentée contribue à opacifier les
pratiques déployées en entreprise en oubliant l’acteur principal : le chef de projet. Les actions

13
des gestionnaires de connaissances, en charge d’appliquer les concepts ou de développer
eux-mêmes ces concepts, sont ainsi totalement oubliés par les chercheurs en sciences de
gestion. Nous aboutissons au paradoxe suivant : les auteurs se réclamant du knowledge
management, qui ont pourtant mis en lumière le rôles des pratiques sociales dans le
fonctionnement des organisations, n’étudient pas les pratiques de ceux chargés de « faire »
du knowledge management. Il nous semble donc salvateur de réinterroger les concepts à
partir des actions des personnes qui « font » du knowledge management.
C’est pourquoi notre travail s’inscrit dans les sciences de gestion au sein de la
perspective dite « pratique ». Cette orientation a récemment donné lieu à la publication d’un
numéro spécial de la Revue Française de Gestion en mai 2007 (Volume 33, Numéro 177). Même
si la manière de désigner cette perspective fait encore l’objet de nombreux débats, il s’agit
avant tout de faire état de l’activité des gestionnaires, c’est-à-dire de « décrire dans le détail
les activités qui sont au cœur des processus auxquels ils participent » (Rouleau et al, 2007 :
17). Cette perspective permet ainsi de mesurer et de comprendre comment les acteurs
utilisent les outils, les méthodes et les modèles et de faire ressortir les décalages entre ce que
les dirigeants d’entreprise attendent d’eux et ce qu’ils font réellement en entreprise. En
s’éloignant des théories et des modèles relatifs à la gestion des savoirs, nous souhaitons ainsi
mettre en lumière les dimensions cachées de l’action du gestionnaire des connaissances.

Les enjeux managériaux de notre recherche : faut-il créer une fonction « gestion des
connaissances » en entreprise?

Gérer les connaissances semble devenir un métier à part entière puisque, sur la
période 1995-2003, 76 offres d’emploi relatives à cette fonction ont été publiées en Amérique
du Nord et en Europe (Awazu et Desouza, 2004 : 340). Comme tous les services de
l’entreprise, la fonction gestion des connaissances présente des spécificités d’organisation et
de fonctionnement qui sont liées à leur place dans l’organisation économique et au poids des
missions que la Direction Générale leur assigne. Nous sommes alors amenés à nous
demander si ces gestionnaires des connaissances sont des spécialistes ou des généralistes. Par
exemple, des consultants comme Karl-Erik Sveiby ou Richard McDermott se sont spécialisés
dans l’offre de services de knowledge management.
Pour assurer la pérennité et la pertinence de cette logique, certains responsables
d’entreprises peuvent être tentés de créer une fonction dédiée à la gestion des connaissances.
Dans une entreprise engagée dans une démarche de knowledge management, les missions et

14
les responsabilités de chaque acteur doivent, en théorie, évoluer pour intégrer une nouvelle
distribution des rôles. Mais est-ce véritablement le cas ? Le gestionnaire des connaissances a-
t-il le pouvoir nécessaire pour mener à bien sa mission ?
L’enjeu managérial que nous allons dégager se situe au niveau de la pertinence de
nommer ou non un pilote en charge de la gestion des connaissances. Car la question sous-
jacente à la nomination d’un gestionnaire des connaissances est la suivante : apporte-t-elle de
la valeur pour l’organisation ? Est-il nécessaire pour un responsable d’entreprise de nommer
un employé en charge de la gestion des connaissances ? Si oui, quelles compétences doit-il
avoir ?

L’importance des enjeux mérite donc que l’on consacre un travail approfondi sur le
gestionnaire des connaissances. Profession ignorée de la recherche académique, comment
cette fonction est-elle perçue au sein des entreprises ? Comment est-elle vécue par les
responsables eux-mêmes ?

En conclusion de cette introduction, notre recherche ne vise pas à comparer le travail d’un
manager des connaissances à celui d’un manager traditionnel mais elle entreprend
d’interroger ses pratiques et sa capacité à mettre en place des concepts souvent flous et
équivoques. Notre ambition est de décrire le plus fidèlement possible les actions des
managers dans leur contexte et d’alimenter les réflexions théoriques sur le knowledge
management.

C’est pourquoi nous définissons notre problématique de recherche par la question


suivante :

Que font les cadres d’entreprise chargés de gérer


les connaissances dans l’organisation ?

15
Notre démarche générale se décompose en deux grandes parties (Figure 2).

La première partie de notre travail consiste à étudier dans le détail la littérature


consacrée aux connaissances dans l’organisation, aux méthodes et outils de management et
au gestionnaire des connaissances. Cette analyse nous permet d’identifier les limites de la
littérature et de proposer un modèle d’étude des pratiques des gestionnaires des
connaissances.

La deuxième partie met en œuvre une étude empirique réalisée dans une entreprise
française (Lafarge). Nous y défendons notre démarche méthodologique, nous analysons le
travail de quatre gestionnaires des connaissances selon une perspective « pratique » et nous
en tirons une synthèse et des implications managériales, théoriques et organisationnelles.

Enfin, nous concluons ce document par une mise en perspective de notre recherche
au sein de la littérature en sciences de gestion afin d’en comprendre ses apports et ses
limites.

Figure 2. Démarche générale de la recherche

Première Partie : Analyse de la littérature

1. L’approche technique de la gestion des connaissances


2. L’approche sociale de la gestion des connaissances

3. Proposition d’un modèle d’étude

Bouclage
théorique
Deuxième Partie : Etude empirique

4. Choix méthodologiques et démarche de recherche


5. L’analyse des cas enchâssés
6. Synthèse et perspectives

Conclusion de la recherche : apports et limites

16
17
PREMIERE PARTIE

UNE ANALYSE DE LA LITTERATURE SUR LE


GESTIONNAIRE DES CONNAISSANCES
EN ENTREPRISE

18
Introduction de la première partie.

Dans les sciences de gestion, les recherches sur la connaissance dans les organisations
cherchent à comprendre la nature des connaissances organisationnelles (avec une orientation
théorique voire philosophique) ou à étudier l’utilisation de celles-ci dans des politiques de
management des connaissances (avec une orientation pratique voire managériale).
Conformément à notre problématique de recherche, nous allons traiter principalement le
second ensemble. Cette orientation nécessite tout de même d’étudier les mécanismes de
constitution des connaissances organisationnelles pour aborder avec acuité leurs modes de
gestion. Il est en effet difficile, selon nous, d’étudier le knowledge management en faisant
l’économie d’un examen approfondi de son objet de gestion (les connaissances).
Devant l’impossibilité de traiter uniformément tous les aspects des connaissances
dans l’organisation, Scott Cook et John Seely Brown (1999) proposent de distinguer deux
approches dans la littérature : celle de la « possession » et celle de la « pratique ». La
première réduit la connaissance organisationnelle à un objet codifiable et malléable. La
seconde insiste sur le caractère socialement construit de la connaissance et sur le phénomène
d’apprentissage. Les tenants de la seconde approche vont insister sur les modalités
complexes de l’élaboration des connaissances organisationnelles alors que les tenants de la
première approche vont proposer des modèles normatifs pour utiliser efficacement cette
ressource renouvelable. Nous verrons que ces considérations théoriques ont une implication
directe sur les outils et les méthodes du knowledge management ainsi que sur les profils des
gestionnaires des connaissances (ou les knowledge managers).

Cette première partie est une analyse de la littérature consacrée aux connaissances
organisationnelles, aux outils du knowledge management et aux knowledge managers.
Dans un premier chapitre nous mettons en lumière l’existence de connaissances
possédées par l’organisation sous forme de capital. Dans ce cas, le gestionnaire peut
s’appuyer sur des outils issus de technologie de l’information et de la communication afin de
codifier les formes les plus verbalisables des savoirs.
Dans un deuxième chapitre nous examinons les connaissances construites par
l’organisation au cours de processus d’apprentissage. Il doit alors favoriser
l’institutionnalisation de communautés sociales auto entretenues.
A partir de notre intention de recherche, nous identifions, dans le dernier chapitre, les
limites de la littérature consacrée au gestionnaire et nous proposons un modèle d’étude de
ses pratiques. Nous concluons cette revue de la littérature par nos questions de recherche.

19
20
Chapitre 1.
L’approche technique de la gestion des connaissances

« Le vrai succès de la science et de la technologie modernes consiste à prendre des hommes ordinaires,
à les informer minutieusement, puis au moyen d’une organisation appropriée, à faire en sorte que
leurs connaissances se combinent avec celles des autres hommes spécialisés, mais également
ordinaires. Cela dispense du besoin de génies.»

John Kenneth Galbraith (1974 : 32)

1.1. Les connaissances possédées par 1.2. Les outils d’ancrage des
l’organisation connaissances organisationnelles

1.1.1 Les connaissances individuelles 1.2.1 Le processus de gestion active


des connaissances

1.1.2 Le processus de codification 1.2.2 Les nouveaux outils de


codification

1.1.3 Le capital connaissances 1.2.3 Les freins à l’approche


technique

1.3 La fonction knowledge management dans une approche technique

1.3.1 Le Chief Knowledge Officer

1.3.2 Le Chief Privacy Officer

1.3.3 Les apports et les limites de la littérature consacrée à ces fonctions

21
Introduction du Chapitre 1.

Comment faire en sorte que l’entreprise ne voit pas partir une parcelle de son savoir à
chaque fois qu’un salarié la quitte ? Comment atténuer la fragilité d’une entreprise qui
dépendrait du savoir d’un individu ou d’une équipe de travail ? Depuis son origine, la
gestion des connaissances répond à ces questions par la mise en place d’un processus de
recueil, d’organisation, de création, de diffusion et d’exploitation des savoirs utiles à
l’entreprise. Ces questions ne sont pas nouvelles pour les organisations. Le compagnonnage,
le tutorat, les cercles de qualité ou encore la communication interne offrent depuis longtemps
la possibilité aux employés de partager ce qu’ils savent ou de réutiliser ce qui a déjà été
établi.

Devant la complexification des processus ou l’éparpillement des unités


organisationnelles, les dirigeants d’entreprises ont aujourd’hui largement recours aux NTIC
telles que les bases de données, les annuaires d’experts ou encore les espaces collaboratifs.
Ces outils offrent l’avantage de garder une trace des savoirs individuels et collectifs dans les
murs de l’entreprise. Mais nous allons voir, dans ce premier chapitre, que la nature et la
distribution des connaissances rendent difficile cette mise à disposition. Il est, en effet, de
plus en plus ardu d’exiger des employés des transferts de savoir étant donné que leur
présence se fait de moins en moins durable. Certains ont le sentiment d’avoir été dépossédés
d’une partie de leur pouvoir en donnant un peu de ce qu’ils ont appris ou de ce qu’ils savent.

Ce premier chapitre se décompose en trois grandes sections. La première est


consacrée à l’étude de la littérature théorique sur les connaissances possédées par une
organisation (1.1). La seconde est orientée sur les applications pratiques à travers l’examen
des différents outils de codification des connaissances et des difficultés d’appropriation par
les membres de l’organisation (1.2). La troisième s’interroge sur le rôle attendu du
gestionnaire des connaissances par l’entreprise à travers l’examen de deux profils de poste
qui s’inscrivent dans la démarche technique : le « Corporate Knowledge Officer » et le
« Chief Privacy Officer » (1.3).

22
1.1 Les connaissances possédées par l’organisation

Dans cette première section, nous décrivons les différentes formes de connaissances
détenues par une organisation. Littéralement la possession peut se définir comme le fait de
jouir d’un bien sans en avoir nécessairement la propriété. Partir de l’idée de « possession »
permet d’expliquer la nécessité de mettre en place des mécanismes de conversion des
connaissances individuelles en connaissances organisationnelles, mécanismes que nous
étudierons dans la partie suivante. L’objet de cette première section est d’exposer les raisons
qui ont poussé les gestionnaires des connaissances à considérer les savoirs comme des objets.
L’organisation est ici décrite comme une structure constituée de connaissances
individuelles dont les formes les plus verbalisables (1.1.1.) sont susceptibles d’être placées
sur un support selon un processus de codification (1.1.2.) afin de mettre à disposition des
autres membres de l’organisation le savoir de chacun sous forme de capital (1.1.3.).

1.1.1 Les connaissances individuelles

Le point de départ à toute réflexion concernant les connaissances organisationnelles


est l’individu. Dans cette sous-section, nous présentons la nature duale des connaissances
indviduelles (1.1.1.1). Ceci est l’occasion de revenir succintement sur les premiers travaux
philosophiques et cognitifs tant leurs apports vont influencer les premiers modèles de la
gestion des connaissances. L’analyse de l’architecture des connaissances individuelles
(1.1.1.2) nous permet de comprendre la distinction entre les connaissances codifiables et non
codifiables (1.1.1.3).

1.1.1.1 La nature duale de la connaissance individuelle

Le débat sur les origines de la connaissance individuelle remonte aux origines de la


philosophie. L’analyse philosphique repose sur la séparation du sujet et de l’objet : comment
peut-on en tant que sujet acquérir des connaissances sur un objet ? Deux idées permettent
alors de préciser ce qu’est la connaissance individuelle : une réflexion et une action7. Cette
distinction est à la base de la vision duale de la connaissance individuelle.

7 Ludwig Wittgenstein (1958) rappelle à ce propos que le terme de « connaissance » renvoie à la fois à la
capacité à agir et à comprendre. Cette distinction se retrouve dans les termes allemands « wissen » et « können » : le
premier désigne la capacité de connaître alors que le second souligne le pouvoir de comprendre et d’agir.

23
Les analyses des philosophes reposent principalement sur la question de la
séparation du sujet et de l’objet : comment peut-on en tant que sujet acquérir des
connaissances sur un objet ? Comment les Hommes peuvent-ils comprendre la réalité ?
La connaissance individuelle est d’abord considérée dans la philosophie comme étant
le produit d’une réflexion. Pour les tenants de l’approche rationaliste, défendue par des
philosophes comme Platon ou Descartes, on considère la connaissance comme un produit de
la raison humaine. Cette position est résumée par la célèbre formule de Descartes « cogito
ergo sum » (je pense donc je suis). L’essentiel de la connaissance individuelle provient d’un
« moi pensant » rationnel qui doit « douter » de ses sens. Au contraire, l’empirisme défendu
par Aristote, Locke ou Berkeley se base sur une connaissance issue uniquement de
l’expérience des sens. L’expérience est alors définie comme tout ce qui est appréhendé par les
sens et seule l’observation de la réalité permet d’accéder à la connaissance.
Une première synthèse de ces deux approches est réalisée par le philosophe
Emmanuel Kant (1781) dans sa Critique de la raison pure. Ce dernier admet que les
connaissances humaines proviennent avant tout de l’expérience mais que le phénomène de
création et d’acquisition de celles-ci s’accompagne d’un traitement de notre raison de
l’expérience vécue. Ainsi, la connaissance individuelle « apparaît » dans notre esprit si et
seulement si notre raison et nos sens fonctionnent en même temps.
Les philosophes du courant existentialiste, représenté par Jean-Paul Sartre ou
Maurice Merleau-Ponty, vont, eux, considérer les connaissances individuelles comme le
produit de l’action. Ces connaissances se construisent dans la réalité et elles sont déterminées
par un contexte donné : « je pense donc je suis » est remplaçé par « je pense donc je peux ».
La séparation classique entre le sujet et l’objet est abolie comme le conceptualise Martin
Heidegger avec son concept « d’être dans le monde » (le Dasein).
Dans le prolongement des réflexions précédentes Michael Polanyi considère que les
individus (le sujet) acquièrent des connaissances par une intégration (« indwelling ») de la
réalité (l’objet) : « knowing is an indwelling» (Polanyi, 1961: 468). L’argumentation de Polanyi
sur l’importance de la connaissance tacite dans la cognition humaine repose sur le fait qu’il
prétend que les êtres humains créent de la connaissance en s’impliquant eux-mêmes dans les
objets. C’est cette « habitation » du sujet par l’objet qui l’incite à décrire la connaissance
individuelle comme à la fois tacite et explicite. La connaissance tacite est personnelle,
spécifique au contexte et de ce fait, il est difficile de la formaliser puisqu’elle « habite »
l’individu. La connaissance explicite, elle, est transmissible dans un langage formel. L’image
qui va ressortir de cette conception de la connaissance est celle de l’iceberg : la partie visible

24
(la connaissance explicite) est infiniment plus petite que la partie invisible (la connaissance
tacite). L’individu ne possède donc pas une forme unique de connaissance mais différents
types (tacites et explicites). Nous allons maintenant constater que cette dualité a également
été soulignée par la science cognitive.

1.1.1.2 L’architecture des connaissances individuelles

Comment la connaissance est représentée dans l’esprit de l’individu et quels sont les
types de traitements menés à partir de ces représentations qui permettent les activités
mentales telles que se rappeler, percevoir, raisonner, résoudre un problème et prendre une
décision, sont les principaux axes de recherche explorés par la science cognitive (Anderson,
1983). Dans son livre, The Architecture of Cognition, John Anderson (1983) propose un modèle
(ACT-R) censé répondre à ces différentes questions. Dans ces travaux, il constate surtout que
la connaissance individuelle se décompose en deux éléments : les connaissances déclaratives
et les connaissances procédurales.
Les connaissances déclaratives sont formées à partir de données encodées par les
individus alors que les connaissances procédurales sont issues des actions de l’individu :
« declarative knowledge corresponds to things we are aware we know and can usually describe to
others. Declarative knowledge in ACT-R is represented in terms of chunks which are configurations of
elements that encode various things that we know. Examples of declarative knowledge include "George
Washington was the GOAL president of the United States" and "Three plus four is seven."
Procedural knowledge is knowledge that we display in our behavior but we are not conscious of.
Procedural knowledge basically specifies how to bring declarative knowledge to bear in solving
problems » (Anderson, 1983: 56). A ces deux composantes s’ajoute la mémoire de travail, qui
stocke des connaissances en fonction de leur nature. L’individu peut alors mobiliser ces
connaissances selon ses besoins.

Fort de ces apports cognitifs la recherche en management stratégique assimile la


connaissance tacite aux connaissances procédurales, et la connaissance explicite au
traitement de l’information. Sur ce dernier point, la question de l’encodage va amener les
auteurs à définir une hiérarchie entre les données (i), les informations (ii) et les connaissances
individuelles (iii). Les connaissances individuelles se constituent à partir d’informations qui
elles-mêmes se créent à partir de données (Davenport et Prusak, 2000).

25
i) Selon Manfred Mack (1995 : 44) les données sont « la matière brute qui révèle aux
individus l’existence des choses ». Les données sont des faits objectifs. Ce sont des
différences vérifiables entre deux états qui sont générées par des événements (par exemple,
le fait qu’il fasse 5°C est une donnée). Les données peuvent être des chiffres, des mots, des
signes, des sons, des odeurs, etc. Elles sont donc issues de l’environnement dans lequel
évoluent les individus.
ii) A partir de ces données, un individu peut créer du sens. L’information peut alors
être définie comme « une collection de données organisées pour constituer un message : c’est
une donnée qui a pris du sens » (Davenport et Prusak, 2000 ; Drucker, 2000). L’information
est donc porteuse de sens, un sens que les individus créent individuellement ou
collectivement. Sans interprétation humaine, l’information n’a donc aucun sens. Elle est une
matière première qui génère la connaissance.
iii) Dans cette vision hiérarchique, la connaissance est le dernier maillon de la chaîne.
Elle reflète la capacité à traiter une information pour la transformer en action afin de
résoudre une tâche ou un problème. Davenport et al. (1998) définissent ainsi la connaissance
comme de : « l’information altérée par l’expérience, le contexte, l’interprétation et la réflexion
[…] c’est une forme d’information à forte valeur ajoutée facilitant la prise de décision et
l’action » (Davenport et al., 1998 : 324). Pour Leonard-Barton et Sensiper (1998 : 113) la
connaissance est une « information utile, utilisable et partiellement basée sur l’expérience ».
La connaissance résulte donc du travail de transformation que l’individu exerce sur
l’information reçue. Dans cette optique, l’individu prend une partie active au processus de
constitution de ses connaissances et il choisit si oui ou non il désire améliorer son niveau de
connaissances en fonction des problèmes qu’il rencontre ou des buts poursuivis.
Nous allons maintenant voir que les apports de la cognition permettent de définir
deux formes de connaissances individuelles : les connaissances codifiables et non codifiables.

1.1.1.3 Les connaissances individuelles codifiables et non codifiables

Distinguer les connaissances codifiables des connaissances non codifiables a une


implication majeure pour les entreprises : les premières peuvent être placées sur un support
(par exemple, un livre ou un document) car elles sont constituées d’une collection
d’information, alors que les secondes sont « engluées » (« sticky ») dans les individus (Von
Hippel, 1994 ; Szulanski, 1996) et par conséquent elles sont difficilement transférables.

26
Les connaissances individuelles codifiables sont facilement transférables et
permettent une multiplication de « copies » au sein de l’organisation. En les plaçant sur un
support, elles peuvent être décrites et spécifiées, en termes de contenu et de propriété
intellectuelle (Foray, 2000 : 48). Elles peuvent être transformées en brevets, vendues ou
achetées. Cela autorise les entreprises à acquérir des quantités de connaissance sans
nécessairement la créer elle-même.
Au contraire les connaissances non verbalisables (ou tacites) sont difficiles à
transmettre (Polanyi, 1983 ; Nonaka et Takeuchi, 1995) et peuvent paradoxalement
constituer la ressource la plus stratégique pour une organisation (Baumard, 1996). Cette
difficulté peut être résumée par la formule de Polanyi (1983 : 4) : « nous en savons plus que
nous pouvons en dire ». Comme il le décrit lui-même à travers un exemple simple « si je sais
comment faire du vélo ou comment nager, cela ne veut pas dire que je peux expliquer
comment réussir à garder mon équilibre sur le vélo ou à ne pas couler » (Polanyi et al., 1969 :
141). Les connaissances non codifiables sont alors constituées par la pratique (d’un sport ou
d’un instrument par exemple). Les pratiques correspondent au modus operandi (savoir-faire)
que Bourdieu distingue de l’opus operatum (défini dans un langage formel) : « l’essentiel du
modus operandi qui définit le maîtrise pratique se transmet dans la pratique, à l’état pratique,
sans accéder au niveau du discours » (Bourdieu, 1980 : 136).
Les connaissances tacites sont donc non exprimables hors de l’action de celui qui les
détient, d’autant plus que celles-ci peuvent être ignorées ou négligées par leur détenteur
(puisque tout individu en sait plus que ce qu’il ne peut en dire). En conséquence le transfert
spatial d’une connaissance peut poser des difficultés dues à l’irréductibilité de la dimension
tacite des connaissances. Le Tableau 1 résume la nature duale des connaissances
individuelles.

Tableau 1. La nature duale des connaissances individuelles


Les connaissances tacites Les connaissances explicites
Exemples Les connaissances procédurales : Les connaissances déclaratives :
savoir-faire, pratique d’un instrument ou principes universels, formules
d’un sport… scientifiques, informations…
Propriétés Elles s’expriment par l’action Elles s’expriment par le langage
Elles sont difficiles à exprimer par des mots Elles sont faciles à décrire
Elles sont difficiles à codifier Elles sont faciles à codifier

En conclusion, si on admet qu’il existe une forme verbalisable des connaissances


individuelles (sous forme de mots), il est alors possible de les placer sur un support, de la
libérer de son rattachement à une personne et de la transformer en commodité.

27
Le processus de détachement des connaissances individuelles déclaratives est appelé
la « codification ». Ce processus est à la base de l’approche technique du knowledge
management car il permet de transférer ces connaissances vers l’entreprise et de constituer
des connaissances organisationnelles grâce à des outils issus des NTIC.

1.1.2 Le processus de codification

La codification est l’acte de codifier, c'est-à-dire de transformer un élément selon un


système conventionnel structuré. La codification des connaissances désigne le processus de
conversion d'une connaissance en un message, qui peut être ensuite manipulé comme de
l'information (Foray, 2000 : 48). Elle consiste à placer cette dernière sur un support et à la
réduire en objet malléable et aisément transportable. Elle permet de placer la mémoire de
l’individu en dehors de lui-même et de mettre à disposition les connaissances individuelles.
La codification suit également une logique de rationalisation des connaissances visant à
décrire le détail de chaque expertise. La valeur de cette mise à disposition est alors facilement
calculable : les coûts fixes sont élevés mais le coût marginal de sa réutilisation est très faible.
Ce mode de création de valeur suit alors une loi des rendements croissants : plus on investit
pour accroître l'efficacité de la connaissance codifiée, plus on obtient d'effet marginal (une
fois qu'on a atteint un certain seuil de bascule).

Selon cette perspective, la performance d’une entreprise reflète sa capacité à réutiliser


de manière répétée ses connaissances codifiées plus vite que ses concurrents. Cette exigence
peut, par exemple, surgir suite à un processus de délocalisation qui augmente
l’éparpillement des sites de production de l’entreprise et qui nécessite la mise à niveau d’un
site par rapport à l’autre. Le différentiel de performance d’une entité organisationnelle par
rapport à une autre peut alors s’expliquer par l’utilisation effective et évolutive d’une
connaissance codifiée supérieure non détenue par l’autre entité (Szulanski, 2003 : 16).

Dans cette deuxième sous-section nous montrons que ce type de bénéfices ne peut
être obtenu sans maîtriser le processus de transformation de la connaissance en information
(1.1.2.1). Nous verrons ensuite que ce mouvement de codification est ancien puisqu’il
remonte aux systèmes experts voire au taylorisme (1.1.2.2).

28
1.1.2.1 La transformation des connaissances en information

Selon Cowan et Foray (1998), la transformation des connaissances en information


revêt trois aspects principaux : la technique d’impression (a), la modélisation des
connaissances individuelles (b) et le développement du langage (c).
a) La technique d’impression. La codification suppose la réduction de la connaissance
verbalisable en un message imprimé sur un support. L’impression est ici entendue comme le
fait de reporter sur un support des caractères graphiques, des mots, des phrases. L’écriture
est le procédé d’impression le plus couramment utilisé. Elle consiste à placer ses
connaissances verbalisables sur un support papier. L’oral, au contraire, ne se fixe pas car la
parole est un flux. L’écriture permet de fixer sa mémoire et pallier les capacités cognitives
limitées de l’individu (Simon, 1991). Aujourd’hui, avec les NTIC, l’individu peut codifier sa
connaissance grâce à un clavier d’ordinateur et numériser le contenu de son message. Cette
première phase suppose donc la mobilisation d’outils et de techniques permettant
d’imprimer le savoir.
b) La modélisation de la connaissance individuelle. La codification suppose
également la décomposition et la modélisation de la connaissance. Cela signifie que
l’individu doit être capable de découper sa connaissance en différentes parties, voire de la
recomposer pour l’expliciter. Cette nécessité avait été soulignée par Michael Polanyi quand il
s’interrogeait sur sa capacité à décrire comment il savait nager. Cette tâche est difficile
puisque selon les psychologues cogniticiens un expert possède de l’ordre de 50 000 segments
de connaissances pertinents dans son domaine d’expertise (Simon, 1991 : 129). Ceci signifie
que le travail de codification n’est pas simplement un travail de transfert mais aussi un
travail de création, qui suppose de procéder à de nouveaux découpages et recompositions
des savoirs (Foray, 2000 : 50).
Cette observation a également été formulée par Hatchuel et Weil (1992 : 63) durant
leur étude des systèmes experts quand ils avancent que « l’imitation de l’expertise, parce
qu’elle est un processus d’automatisation de la connaissance, n’est possible qu’au prix d’une
transformation « active » de cette connaissance ; elle est en elle-même créateur d’expertise ».
De ce fait, le travail d'extériorisation se révèle souvent très imparfait : il ne peut se réaliser
qu'en transformant ce qu'il souhaite objectiver, l'implicite n'étant pas structuré préalablement
à son extraction (Vinck, 1997 : 87).

29
c) Le développement du langage. Enfin, le processus de codification repose sur la
création ou l’accord autour d’un langage commun. Pour pouvoir déchiffrer le message
disposé sur un papier ou une base de données, il convient de maîtriser le langage utilisé.
Deux exemples simples permettent d’illustrer cette question : la musique et
l’alphabet. Dans le cas de la musique, un individu n’ayant pas acquis la maîtrise du solfège
sera incapable de déchiffrer une partition musicale et de la jouer sur son instrument. Dans le
cas de l’écriture, l’alphabet grec permet de construire et de comprendre le sens des mots, ce
qu’un analphabète sera incapable de faire. En d’autres termes, la connaissance sera plus
facile à codifier et à diffuser au sein d’une communauté de personnes qui maîtrisent le
langage utilisé. La diffusion et l’usage des connaissances codifiées reposent donc sur des
investissements initiaux requis pour construire une communauté d’agents, dont les membres
peuvent « lire » le code (Arrow, 1974). Le code est alors entendu comme un système
conventionnel de signes et de règles intégré dans le processus de communication.
L’assimilation du vocabulaire propre à une profession, une communauté d’individus ou à
une entreprise est donc nécessaire pour aboutir à une transformation de la connaissance en
information.
Une conséquence néfaste de la codification est la rigidité voire l’uniformisation des
comportements qui peut, à terme, empêcher toute création de savoir au sein de
l’organisation. Ce constat avait été établi par Kenneth Arrow (1974) dans le passage suivant:
« the need for codes mutually understandable within an organization imposes a uniformity
requirement on the behaviour of participants. They are specialized in the information capable of being
transmitted by the codes, so that they learn more in the direction of their activity and beceom less
efficient in acquiring and transmitting information not easily fitted into the code » (Arrow, 1974 :
56). Connaître les codes peut donc amener l’individu à rejeter toute connaissance nouvelle
puisqu’elle ne peut être décodée. Or, l’apparition d’un nouveau savoir entraîne
nécessairement l’utilisation d’un code connu uniquement de son créateur.

La question de la formalisation des codes et des savoirs n’est pas récente. Son origine
remonte bien avant les travaux d’Arrow puisque l’on peut la situer au début du 20ème siècle.
A cette époque, l’accélération du progrès technique et le développement de la qualification
des ouvriers ont obligé les dirigeants d’entreprises à s’interroger sur l’évolution des
méthodes de travail et sur la codification des savoirs. C’est alors qu’un consultant nommé
Frederick Taylor leur proposa de « déposséder » le savoir-faire des ouvriers et de le
remplacer par des méthodes éprouvées.

30
1.1.2.2 Le taylorisme et les systèmes-experts : premières expériences de
codification des connaissances

Dans la logique de codification des savoirs, le taylorisme propose un modèle


scientifique de l’organisation du travail où le savoir de l’employé est remplacé par celui du
management (a). Cette démarche a été prolongée à la fin du siècle par les systèmes-experts
dont l’objectif est d’offrir la possibilité d’informatiser les connaissances, et par ce biais de
pouvoir les conserver, les faire évoluer, ou les distribuer de façon plus contrôlée (b).
a) Le taylorisme : la rationalisation du temps et du savoir-faire. Par l'organisation
scientifique du travail, Taylor entreprend de codifier les « modes opératoires » des ouvriers
au profit de la direction de l’entreprise. Pour lui, l'existence d’un savoir individuel constitue
un obstacle majeur au contrôle des tâches par la direction : « elle [la direction] doit s'attacher
à rassembler cette grande masse de connaissances traditionnelles, l'enregistrer, la classer et
dans de nombreux cas, la réduire finalement en lois et règles exprimées même par des
formules mathématiques et assumées volontairement par les directeurs scientifiques »
(Taylor, 19118).
Il entend ainsi substituer des méthodes de travail très strictes et codifiées (sous forme
écrite) à l'expérience et au métier des ouvriers, considérés comme inacceptables car non
scientifiques : « l’encadrement met au point une science pour chaque élément d’un travail
donné, science qui remplace les vieilles méthodes empiriques » (Taylor, 1911). Ces « vieilles
méthodes empiriques » sont jugées comme trop nombreuses pour la réalisation d’une tâche,
« parce que dans toutes les spécialités, les ouvriers ont appris les éléments de leur travail par
l’observation de leur entourage immédiat » (Taylor, 1911). Pour Taylor, l’entreprise ne peut
fonctionner de manière empirique en raison de la variété des expériences acquises par les
ouvriers, expériences qui se transfèrent par compagnonnage. Cette appropriation du travail
par les dirigeants (l’encadrement), renforcée par le développement du pouvoir des experts
(qu’il nomme les « GOAL-class men ») et l'avènement de méthodes de gestion scientifiques
représentent le début de l’histoire du concept de « bonne pratique » que nous aborderons un
peu plus loin dans notre réflexion.
L’idée de « possession » présentée en introduction prend alors tout son sens :
l’organisation doit faire en sorte de codifier les connaissances individuelles pour en
déposséder les détenteurs et les mettre à disposition de l’encadrement de l’entreprise.

8
Il nous impossible de citer la page exacte de la citation étant donné que nous nous sommes appuyés sur une
version électronique simplifiée de l’ouvrage de Taylor disponible à l’adresse suivante :
http://melbecon.unimelb.edu.au/het/taylor/sciman.htm.

31
Pour Taylor, c’est même la tâche principale du manager : « au lieu d’avoir une façon de faire
qui est généralement acceptée comme un standard, il existe dans la réalité quotidienne entre
cinquante ou cent façons de faire chaque élément d’un travail […] Cette masse de principes
de base (rule-of-thumb) et de connaissances traditionnelles sont, il faut le reconnaître, la
principale ressource ou compétence de l’ouvrier. Maintenant, les managers doivent prendre
en considération que les 500 ou 1 000 ouvriers qui sont sous leur responsabilité, incluant
vingt à trente métiers différents, possèdent cette masse de connaissance traditionnelle et
qu’une grande partie de cette dernière n’est pas en leur possession » (Taylor, 1911). Ce qui
légitime, aux yeux de Taylor, l’autorité de l’encadrement c’est donc son savoir et sa capacité
à le rendre plus efficace. Sa vision mécaniste de l’organisation, qui doit fonctionner « comme
une machine à l’allure régulière » (Taylor, 1911), provient du pouvoir détenu par
l’encadrement d’organiser le travail des autres.

b) Les systèmes-experts : la modélisation des connaissances en objets de gestion.


Dans une logique assez proche de celle de Taylor, les systèmes-experts sont des outils
inspirés de l’intelligence artificielle capables de reproduire les mécanismes cognitifs d’un
expert. Le terme d’expert peut désigner des acteurs très divers : un agent de méthodes dans
une entreprise industrielle ; un homme de l’art (médecin, géologue…) ; un consultant, etc…
Un individu est considéré comme un expert dès lors qu’il maîtrise les connaissances relatives
à son domaine.
Pour illustrer ce qu’est un expert, Herbert Simon (1991) prend l’exemple d’un
médecin. Ce dernier a fait de longues études par acquérir un savoir théorique sur le corps
humain, les symptômes des maladies, etc. Lors d’un diagnostic médical, le médecin connecte
ces symptômes perçus à son catalogue mémorisé. Il associe alors les traitements possibles, les
examens à opérer. Cette expertise individuelle est d’un accès difficile pour l’organisation
(comme par exemple l’hôpital) qui emploie le médecin. Les connaissances de ce médecin
disparaissent avec le départ de l’individu. Le rôle du système-expert est d’éviter cette
déperdition.
Les systèmes-experts visent à piéger les connaissances déclaratives détenues par des
experts humains sous la forme la plus proche de son expression par l’expert ; celle-ci captée,
le système peut imiter les raisonnements de certains individus pour résoudre
informatiquement certains problèmes. Ils ont donc pour objectif final d’assister l’individu
dans la production d’une connaissance explicite, diffusable, réutilisable, évolutive, venant
enrichir une mémoire organisationnelle en transformant les savoirs en « objets de gestion » :

32
« ils constituent les savoirs en objets d’une rationalisation possible au même titre par
exemple que le taylorisme a fait du temps de travail un objet d’investigation et de maîtrise »
(Hatchuel et Weil, 1992 : 17). Cette démarche de formalisation peut se représenter par une
pyramide d’abstraction (Figure 3) pour le producteur d’information, qui va :
- exprimer la situation vécue ;
- resituer cette situation;
- élaborer un « archétype », c’est-à-dire une représentation générique de cette
situation ;
- construire un modèle conceptuel ou agréger l’archétype à un modèle existant ;
- formaliser ce modèle au sein d’une bibliothèque utilisable par une application, pour
diffusion (Prax, 2000 : 74).

Figure 3. La méthodologie de formalisation des savoirs vue comme une pyramide d'abstractions
(Prax, 2000 : 75)

Diffusion Accès

Producteur Utilisateur
Bibliothèque Outil de gestion

Modèle Méthode

Adaptation Procédure

Représentation Application au cas

Dans l’autre sens, un utilisateur pourra chercher dans la bibliothèque de modèles et


l’appliquer à son propre cas. Hatchuel et Weil montrent alors que la mise à disposition de ce
savoir codifié que l’on cherche à automatiser est « un ensemble systématisé de réponses à un
champ de problèmes » (Hatchuel et Weil, 1992 : 151). En conséquence, le savoir doit être
réinterprété puisqu’il ne sera utile que dans le contexte de son ré-utilisateur.
Armand Hatchuel et Benoît Weil, dans leur ouvrage L’expert et le système, ont mis à
l’épreuve des faits cette méthodologie de formalisation (Figure 4). A travers quatre histoires
de systèmes-experts (Totem, Cornélius, Gespi et Naval), ils étudient la codification du savoir
d’un agent des méthodes, d’un agent de maintenance, d’un graphiqueur et d’un
planificateur. Pour les auteurs, trois grands types de savoirs sont mobilisés dans le cours de

33
la vie industrielle : des savoir-faire, des savoir-comprendre et des savoir-combiner. Chacun
des trois types de savoirs cités se distingue par un mode spécifique d’organisation et
d’utilisation des connaissances, il correspond à un type de situation, ils sont toujours
présents à des degrés divers dans toute forme d’expertise. Les “savoir-faire” sont
modélisables sous forme de règles de production, les “savoir-comprendre” permettent la
résolution de problèmes complexes, et les “savoir-combiner” est celui du stratège ou du
négociateur.
A la fin du récit des quatre systèmes-experts, on comprend alors que l’automatisation
des recettes d’un expert se heurte à la complexité du fonctionnement des entreprises
d’aujourd’hui (que les auteurs nomment « l’économie de variété ») : « dès qu’une
organisation devient trop complexe pour être totalement pensable par un seul homme, les
transformations à conduire ne peuvent plus être décrites dans le détail de chaque acte
élémentaire » (Hatchuel et Weil, 1992 : 151). En d’autres termes, les savoirs d’un expert sont
trop complexes, instables et évolutifs pour être codifiés : « l’automatisation ne pourra
concerner qu’une part de ces savoirs, et les entreprises auront à résister par des moyens plus
créateurs aux conséquences de cette complexité et de cette hétérogénéité sur les
fonctionnements » (Hatchuel et Weil, 1992 : 152). Ces premières limites ont amené les
chercheurs à s’interroger sur le degré de difficulté de codification par les entreprises et à
envisager les connaissances dans l’organisation comme des objets infiniment plus complexes.

La codification permet de « déposséder » le détenteur des connaissances et de les mettre à


disposition de l’organisation sous forme d’information. Mais le domaine de codifiabilité
est fortement dépendant de leur tacité et seules les connaissances verbalisables sont
susceptibles d’être codifiées, en témoignent les difficultés inhérentes des systèmes
experts. D’autres formes de connaissances présentes dans l’organisation peuvent
également constituer le capital immatériel de l’entreprise.

L’approche technique du knowledge management va être complétée par une


approche économique de la connaissance : la codification permet non seulement de placer les
savoirs sur un support mais également de constituer le capital immatériel de l’organisation.
Ce capital n’est pas uniquement composé de savoirs codifiés mais également de compétences
individuelles, de procédures et de routines organisationnelles.

34
1.1.3 Le capital connaissances

En codifiant ses savoirs, l’organisation parvient à se doter d’un portefeuille de


ressources immatérielles qui peut lui assurer un avantage concurrentiel durable. C’est le
postulat de départ de la théorie des ressources : « l’obtention d’un avantage compétitif
nécessite des ressources qui sont idiosyncrasiques (et donc rares) et non facilement
transférables ou réplicables hors de l’entreprise» (Grant, 1991 : 114). L’identification, la
protection, l’exploitation et la création de connaissances devient dès lors un enjeu
stratégique. Les travaux de recherche décrivent ici les connaissances organisationnelles
comme une ressource stratégique au développement de la firme (Grant, 1996) ou comme une
mémoire à la fois officielle et souterraine (Girod, 1995). C’est ce que nous désignons par le
« capital connaissances ».

Ce capital est un héritage qui joue un rôle important dans le fonctionnement formel et
informel de l’entreprise. Il est composé de routines qui constituent la mémoire
organisationnelle (1.1.3.1), mémoire qui évolue selon un processus d’apprentissage
organisationnel (1.1.3.2). Ces éléments sont des ressources dynamiques stratégiques au
développement de l’entreprise (1.1.3.3).

1.1.3.1 La mémoire organisationnelle : informations et routines

Dans le prolongement des travaux sur la codification des connaissances et sur la


cognition, certains auteurs mettent en exergue l’existence d’une mémoire organisationnelle
(Walsh et Ungson, 1991). Ces travaux montrent que les organisations apprennent mais elles
peuvent également oublier. Martine Girod (1995) insiste ainsi sur le caractère dual de la
mémoire organisationnelle. Elle la définit comme « un ensemble de connaissances
pertinentes pour les activités de l’entreprise à tous les niveaux et portant sur les concurrents,
le marché, la technologie, le contexte interne de l’entreprise ou les relations de causalité entre
les actions et les résultats » (Girod, 1995 : 30). Elle est à la fois un stock de connaissances et
une structure de rétention se constituant selon trois phases (acquisition, stockage et
restauration). Elle est composée de divers sous-systèmes en interaction qui reposent sur des
mécanismes d’acquisition de rétention et de restauration spécifiques (Girod, 1995 : 31). La
constitution d’une mémoire organisationnelle passe donc par un processus de codification
des connaissances.

35
L’auteur distingue la mémoire de court terme de la mémoire de long terme, la
mémoire déclarative de la mémoire procédurale, la mémoire prospective de la mémoire
rétrospective et la mémoire épisodique de la mémoire sémantique (Tableau 2). Nous allons
porter notre analyse sur la mémoire déclarative, proche de l’information (a), sur la mémoire
procédurale que l’on peut assimiler à des routines organisationnelles (b) et sur l’existence
d’une mémoire officieuse (c).

Tableau 2. La mémoire organisationnelle (Girod, 1995 : 37)


Niveau de traitement Déclarative Procédurale De jugement
Individuel Savoirs détenus par Savoir-faire de chaque Mémoire prospective
chaque individu individu (dans son des individus qui
(cerveau et documents) cerveau repose sur son
et mis au service de essentiellement) mis au expérience mise au
l’organisation service de service de
l’organisation l’organisation
Collectif non centralisé Acquisition de savoirs Création d’un savoir- Création d’une
auprès d’un autre faire commun par un interprétation
individu ou création travail en commun commune
d’un nouveau par
interaction
Centralisé Savoirs contenus dans Procédures inscrites Culture légitime
les banques de données dans les manuels formalisée sous forme
centralisées de documents

a) Les informations dans l’organisation. La mémoire déclarative est une mémoire qui
porte sur les connaissances que possède l’individu sur les faits, les choses et les événements.
Son contenu est verbalisable puisque, par définition, les connaissances stockées dans cette
mémoire peuvent être déclarées sous forme d’information. C’est une mémoire écrite. La
mémoire « de jugement » est, au contraire, une mémoire prospective que les individus
partagent entre eux pour aborder tel ou tel problème. L’existence d’une mémoire écrite
permet alors de créer une cognition collective.
La cognition collective est définie dans la littérature9 comme « un processus de
groupe impliquant l’acquisition, le stockage, la transmission, la manipulation et l’usage de
l’information » (Gibson, 2001 : 123). La métaphore retenue pour décrire l’organisation est
celle du cerveau (Morgan, 1997 : 70) constitué de synapses qui sont autant d’individus.
Chaque individu apporte sa propre capacité cognitive et son stock de connaissances aux
autres membres de l’organisation. L’organisation devient donc le lieu d’un « brainstorming »
géant. Cela explique pourquoi les entreprises cherchent à accumuler le plus d’informations
possibles pour traiter un problème. Cela peut se traduire par la multiplication de la

9
Un numéro spécial de Journal of Organizational Behaviour, Volume 22 (Issue 2) traite particulièrement de
cette question de la cognition collective.

36
documentation disponible qui peut être contreproductive s’il entraîne une perte de temps si
ce dernier est consacré à trouver de l’information dans cette documention.
b) Les routines organisationnelles. Au-delà de l’information dont elle dispose,
l’organisation peut également détenir une autre forme de ressource intellectuelle : les
routines organisationnelles. Les routines rassemblent la mémoire opérationnelle de
l’organisation : « la constitution de routines représente la forme de stockage la plus
importante des savoirs opérationnels spécifiques à une organisation » (Nelson et Winter,
1982 : 99). Pour Girod (1995) les routines organisationnelles renvoient à un ensemble de
règles ou de procédures qui guident le traitement de l’information et qui sont beaucoup plus
proches des connaissances déclaratives que les savoir-faire.
En d’autres termes, les routines contiennent des connaissances sur la façon de faire les
choses au sein de l’organisation et ce savoir est un signe distinctif. Ces routines évoluent avec
le temps. Elles prennent forme dans la répétition et sont le résultat d’un processus émergeant
d’apprentissage expérimental. L’apprentissage à l’origine de la mémoire procédurale est
beaucoup plus incrémental et progressif que celui permettant la constitution de la mémoire
déclarative, plus direct et plus abrupt (Girod, 1995). Cet apprentissage est implicite car la
restauration des connaissances procédurales se fait de façon inconsciente sans référence aux
événements à l’origine de leur encodage dans la mémoire organisationnelle.
Davenport et Prusak (1998) évoquent ainsi ce lien entre connaissance et contexte, qui
a pour conséquence organisationnelle un encastrement de la connaissance « non seulement
dans des documents mais aussi dans des routines organisationnelles, des processus, des
pratiques et des normes » (Davenport et Prusak, 2000 : 5). Dans la théorie économique «
évolutionniste » de Nelson et Winter (1982), les organisations sont analysées comme un
ensemble de routines : « nous utilisons de terme de routine de manière très flexible, en fait
cela désigne plus un programme, comme un programme informatique. Une routine désigne
des activités régulières et répétées dans une organisation » (Nelson et Winter, 1982 : 92). Ces
dernières sont le programme, les gènes de l’organisation qui permettent à l’entreprise de se
souvenir de son passé. L’existence de ces routines conditionne donc sa survie.

c) L’existence d’une mémoire officieuse. Une implication importante de cette approche


est que les systèmes de stockage de la mémoire organisationnelle vont être différents en
fonction du niveau de traitement. Le fonctionnement de la mémoire organisationnelle
semble ainsi reposer sur l’interaction permanente de deux sous-systèmes mnésiques : une
mémoire officielle, de long terme très explicite, et une mémoire souterraine de court terme

37
beaucoup plus implicite (Girod, 1995 : 37). Girod (1995) a également constaté que les
mémoires déclaratives procédurales et « de jugement de niveau centralisé » (voir Tableau 2)
sont peu utilisées dans le cadre d’un fonctionnement courant de l’organisation. C’est
pourtant la mémoire que l’entreprise essaie de promouvoir dans ses livres de procédures, ses
bonnes pratiques ou ses principes d’action.
Dans la partie suivante, nous allons voir que la mémoire organisationnelle joue un
rôle déterminant dans le processus d’apprentissage organisationnel.

1.1.3.2 L’apprentissage organisationnel : évolution du capital

L’existence de routines organisationnelles et de connaissances déclaratives pose la


question du passage de l’individuel au collectif. En effet, ce que l’individu possède évolue en
fonction du temps, selon son niveau d’expérience et selon ce qu’il a appris. Or ce qu’un
individu apprend dans une organisation dépend de ce qui est déjà connu des autres
membres de l’organisation et de l’information qui y est disponible (Simon, 1991 : 125). Ce
problème avait été soulevé par Herbert Simon quand il écrivait que « le processus
d’apprentissage dans lequel la compréhension progressive et la restructuration successive
des problèmes se traduit dans les éléments structurels de l’organisation elle-même » (Simon,
1953 : 34). En d’autres termes, l’organisation serait elle-même le produit de ses
apprentissages et de ses résolutions de problèmes.

On doit à l’économiste Kenneth Arrow une étude fondatrice sur « l’apprentissage par
le faire » (learning by doing) publiée en 1962. Arrow constate que plus une firme « fait », plus
elle apprend à faire par des ajustements successifs. Les entreprises, comme les individus,
apprennent donc en faisant. Cette notion avait déjà été appréhendée dès 1936 par Wright
dans son étude sur la production d’avions. En traçant la quantité de travail nécessaire à la
production d’un avion en fonction du nombre d’avions produits depuis le démarrage de la
ligne de fabrication, il est parvenu à dessiner une courbe allant de haut en bas.
L’« apprentissage par le faire » est alors représenté par la courbe d’expérience
associant le coût du travail à la production cumulée. Cette courbe est le résultat d’une loi
reliant, pour un produit donné, la diminution de son coût de revient unitaire avec
l’accroissement des volumes cumulés de production. Mathématiquement, la courbe
d’expérience a la forme suivante :
C t1 = Ct0 (Pt1/Pt0)-x

38
avec C = le coût unitaire à t0 et t1 ; P= le volume cumulé de production à t0 et t1 et x =
la constante mesurant l’effet d’expérience.

Selon cette loi, le coût unitaire d’un produit décroît d’un pourcentage constant
chaque fois que la production cumulée de ce produit dans une entrepris double. Ainsi
l’entreprise qui accumule la production la plus forte aura les coûts les plus faibles si elle sait
maîtriser les mécanismes d’apprentissage collectifs. Néanmoins, même si selon le mots d’
Argyris et Schön (1996 : 25) « d’un point de vue normatif, l’apprentissage instrumental par
les courbes d’expérience sert de point de départ à la théorie de l’apprentissage
organisationnel », ces courbes ne répondent pas à la question du passage de l’individuel au
collectif et inversement. En d’autres termes, comment cet « apprentissage par le faire » se
diffuse-t-il aux individus ?

Pour répondre à cette questions, nous allons mobiliser la théorie de l’apprentissage


organisationnel et étudier, au sein de ces travaux, deux formes d’apprentissage : celui réalisé
à partir du comportement (a) et celui réalisé à partir d’information (b). L’étude de ces deux
formes d’apprentissage nous permet d’avancer des pistes de réflexion à propos du passage
de la connaissance individuelle vers l’organisation et inversement (c).

a) L’apprentissage comportemental. Un apprentissage sera caractérisé comme


comportemental s’il se traduit par un changement visible dans l’action. Cette adaptation est
plus on moins longue en raison de la présence de routines. Dans cette perspective,
l’apprentissage organisationnel est dépendant du passé et de la mémoire accumulée par
l’entreprise. Dès lors, il peut être légitime de comprendre les routines comme résultant d’un
apprentissage dont elles constituent le point d’aboutissement organisationnel. Levitt et
March (1988) s’interrogent par exemple sur la conformité des individus aux routines en
place. Dans ce cas, les routines sont des « séquences apprises d’actions configurées
impliquant des acteurs multiples liés par des relations de communication et/ou d’autorité »
(Cohen et Bacdayan, 1994 : 555) qui vont déterminer le bon fonctionnement de l’organisation.
L’apprentissage est organisationnel quand ses membres modifient les routines à partir de
leur expérience ou s’il constate qu’elles ne répondent pas à l’objectif poursuivi.
Mais les routines peuvent également être un obstacle à l’apprentissage puisque elles
restreignent l’éventail des réponses (Leonard-Barton, 1992) et peuvent se transformer en
œillères. Pour Argyris (1995), ces routines qu’il qualifie de « défensives» sont avant tout

39
cognitives et non comportementales car elles sont des attitudes ou des manières d’aborder
les problèmes de façon biaisée.
b) L’apprentissage cognitif. L’apprentissage organisationnel a également été abordé
sous l’angle des cogniticiens étudiés précédemment. Dans cette perspective, l’apprentissage
au niveau de l’organisation est compris comme un changement cognitif (Fiol, 1994) et
comme une réponse à un décalage entre les résultats attendus et les résultats observés
(Argyris et Schön, 1978). Argyris et Schön définissent ainsi l’apprentissage à la fois comme
« un produit (quelque chose que l’on a appris) et un processus permettant d’obtenir ce
produit » (Argyris et Schön, 1996 : 24). Le traitement de la connaissance se situe avant tout au
niveau individuel et la question du passage de l’individu à l’organisation est centrale dans ce
champs théorique (voir Argyris et Schön, 1978 ; Kim, 1993 ; Fillol, 2006).
Au contraire de l’apprentissage comportemental, les auteurs comme Argyris et Schön
font ici l’hypothèse que ce traitement est conditionné par les savoirs de l’individu et que ces
savoirs guident leur action. Les savoirs inviduels sont ici considérés comme des schémas
mentaux, des représentations qui justifient l’action. Les auteurs insistent également sur le fait
que ces savoirs sont rarement exprimables. Ainsi, si l’on interroge un individu sur les raisons
qui ont motivé telle ou telle action, il exposera un raisonnement que les auteurs appellent la
« théorie épousée » (Argyris et Schön, 1996). Cette théorie n’est pas nécessairement le
processus réel (theory-in-use) qu’il a suivi et dont il n’a pas forcément conscience.
Pour apprendre, les individus doivent donc avoir une attitude réflexive c'est-à-dire
avoir la volonté d’agir pour apprendre ou être curieux d’apprendre. Dans cette approche de
l’apprentissage l’accent est donc également mis sur le rôle de l’action dans l’apprentissage.
Les travaux du psychologue Jean Piaget (1959) sont représentatifs de cette conception de
l’apprentissage. Selon Piaget, l’origine des connaissances individuelles ne repose ni sur
l’observation, ni sur un savoir inné mais elle se construit grâce à des contacts répétés avec le
réel. Les connaissances prennent alors la forme de schèmes (ou schémas mentaux) qui sont
un ensemble organisé de mouvements (tirer, pousser...) ou d'opérations (classer, mesurer...)
dont l'individu acquiert petit à petit. Il va alors étudier le processus de formation de ces
schémas chez l’enfant et aboutir à un vision duale de l’apprentissage individuel :
l’assimilation et l’accommodation.
A chaque fois que l'enfant perçoit un objet (matériel ou immatériel), il essaie de
l'assimiler. Le processus d’assimilation désigne ici l’intégration d’une information par
l’enfant à propos de cet objet. Elle enrichie les schémas de pensée, sans les remettre en cause.
Il s’agit donc d’un phénomène d’imitation : l’enfant assimile ce qu’il observe. A l’opposé,

40
l’accommodation suppose un changement des connaissances mémorisées par l’enfant. Ce
processus intervient uniquement lorsque ses schémas mentaux ne permettent pas à l’enfant
de désigner l’objet.

Ainsi l’apprentissage correspond à un changement des schémas mentaux de


l’individu. Ce phénomène se déroule au niveau de l’organisation si ses membres doivent
apporter des réponses à des changements dans son environnement. Ces changements sont
repérés lorsqu’un décalage est observé entre les résultats attendus et les résultats observés.
S’engage alors un processus de correction de cet écart. Comme les enfants étudiés par Piaget,
les membres de l’organisation doivent alors rechercher les causes de ce décalage, apporter
une solution et l’inscrire dans la mémoire de l’organisation. Le passage du traitement
individuel de l’information à celui du traitement organisationnel pose pourtant un certain
nombre de problèmes (Fillol, 2006).

c) De l’individuel à l’organisationnel. Argyris et Schön (1996 : 32) avancent que


« l’apprentissage individuel fonde l’apprentissage organisationnel qui à son tour nourrit
l’apprentissage individuel ». Dans cette acception, toutes les organisations apprennent, dans
leur intérêt ou non, toutes les fois qu’elles « ajoutent un élément à leur stock d’informations
quel que soit le mode d’acquisition » (Argyris et Schön, 1996 : 24). L’individu est donc le
vecteur de l’apprentissage organisationnel. Pour Peter Senge (1990), c’est également
l’individu qui est au centre de la problématique quand il introduit la notion de « maîtrise
personnelle », qu’il définit comme une « discipline d’apprentissage et de développement
personnel qui trouve sa source dans la compétence et le talent » (Senge, 1990 : 21). Sans cette
« maîtrise personnelle » l’apprentissage organisationnel devient difficile à mettre en place.
Toute la difficulté consiste à savoir comment utiliser ce vecteur. Dans de nombreux
cas, lorsque le savoir détenu par un individu ne se diffuse pas à d’autres membres,
l’organisation sait moins que les membres qui la composent. Il existe ainsi des organisations
qui semblent incapables d’apprendre ce que tous les membres savent (Argyris et Schön,
1996 : 28). D’autres doivent réaliser un « désapprentissage » et surpasser leurs routines
défensives. Cela signifie également qu’il faut savoir apprendre à apprendre et apprendre à
désapprendre (Hedberg, 1981). Dans leur étude sur la mémoire organisationnelle, Walsh et
Ungson (1991) insistent sur les phénomènes d’oubli qui sont, selon eux, essentiels au bon
fonctionnement de l’organisation.

41
Mais la réponse théorique la plus convaincante à propos du passage des
connaissances individuelles aux connaissances organisationnelles a été apportée par Nonaka
et Takeuchi (1995). Pour ces auteurs, le passage de l’un à l’autre dépend d’un processus en
spirale (Figure 4).

Figure 4. La spirale de création des connaissances (Nonaka et Takeuchi, 1995 : 36)


Dimension
Epistémologique Externalisation

Combinaison

Explicite

Tacite

Socialisation Intériorisation

Individu Groupe Organisation Inter-Organisations

Dimension Ontologique

Cette spirale est obtenue par le passage ininterrompu de connaissances explicites en


connaissances tacites et ainsi de suite. Les étapes du processus de création de connaissance
organisationnelle commencent par l’élargissement de la connaissance individuelle grâce à
une accumulation d’expériences. Par la suite, la connaissance tacite individuelle est partagée
grâce à l’établissement d’une équipe auto-organisée dans laquelle les individus collaborent
pour créer un nouveau concept. L’existence d’une équipe facilite la construction d’une
confiance mutuelle entre les membres et elle permet ensuite la conceptualisation de
perspectives tacites par le dialogue continu entre les membres.

Plus précisément, ce mouvement de spirale a été modélisé selon quatre modes de


passage décrits dans leur célèbre modèle « SECI » (pour Socialisation-Externalisation-
Combinaison-Internalisation) (Figure 5).

42
Figure 5. Les modes de conversion des connaissances (adapté de Nonaka et Takeuchi, 1995)

La connaissance tacite est acquise au Requiert l ’expression de la


travers d ’observations, d ’imitations, connaissance tacite en une forme
de pratique. La clé de l ’acquisition compréhensive. L ’individu
de la connaissance tacite est essaye de se confondre avec le
l ’expérience et / ou l ’apprentissage groupe. Cette conversion
par la pratique. implique des techniques qui
Le face-à-face physique est la clé de aident les individus à exprimer
la conversion du tacite en tacite. Dans Connaissance Tacite les idées (concepts, métaphores,
cet espace commence le processus de analogies).
création. Il s’agit d’une place d ’interactions
et consciencieusement construite.
Socialisation Externalisation La sélection des personnes avec

Connaissance Explicite
Connaissance Tacite
des connaissances spécifiques est
I I
I I
essentielle. Les individus
G I partagent les modèles mentaux
I autres mais se questionnent sur le
I I leur. La clé est le dialogue.

En intégrant des règles, l’individu O G Utilisation de processus sociaux


teste les savoirs codifiés. La
G G pour combiner les différents corps
connaissance tacite doit donc être O G
de la connaissance explicite. Les
enfouie dans les actions pratiques. I
G individus échangent et combinent
Cette place d ’apprentissage où les leurs connaissances au travers de
individus s ’exercent facilite la
conversion. Ce processus est Interiorisation Combinaison mécanismes comme les réunions,
les conversations téléphoniques.
amplifié par l ’utilisation de La place (ba) est cybernétique. Elle
connaissances formelles dans la vie s’établit en collectant des savoirs
réelle. et combine les données puis les
Connaissance Explicite diffuse en réunions. Cette place
est dominée par une logique
cartésienne. La combinaison est
plus efficace dans un
environnement collaboratif. Il est
accéléré par le développement de
Systèmes d ’Information.

Dans le modèle SECI (Figure 5), le premier mode de passage est la socialisation
(tacite-tacite). La socialisation est le processus de partage d’expériences dans un collectif. Un
exemple est le cas de l’apprentissage d’un métier par la pratique et non par le langage.
L’observation d’un expert est ici nécessaire pour accéder à la connaissance. Le savoir est
transmis sans qu’il y ait nécessairement une formalisation du savoir.
L’externalisation (tacite-explicite) permet d’articuler les connaissances tacites et de les
expliciter. C’est le processus de codification tel que nous l’avons défini. Elle requiert un effort
de structuration pour l’exprimer en une forme compréhensible pour les autres (par exemple,
une image, une métaphore). En conséquence, l’individu écrit pour les autres ce qu’il a appris.
La combinaison (explicite-explicite) implique l’utilisation d’informations pour
catégoriser la nouvelle connaissance. La combinaison de différents éléments informationnels
(bases de données, notes de synthèses, articles de journal...) par les membres d’une équipe
permet ainsi de créer un sens partagé.
L’intériorisation des connaissances est l’aboutissement des processus précédents.
C’est l’étape la plus importante pour l’entreprise puisqu’elle modifie les comportements des
individus en leur inculquant des connaissances grâce à des formations et des exercices qui

43
permettent aux individus d’accéder à la connaissance du groupe. Elle entraîne l’adoption de
certaines règles et d’un comportement nouveau dans l’organisation.
La capacité créatrice de l’entreprise va donc dépendre de la mise en place d’un
contexte favorable aux conversions de connaissances. Qu’est ce que les auteurs désignent par
« contexte favorable ? ». Nonaka et Konno (1998) le désigne par le concept japonais du « ba »
(désigné par « place » sur la Figure 5). Inspiré par un philosophe japonais, Kitaro Nishida, le
ba est un lieu dans lequel se déroulent les échanges d’information et les relations entre les
personnes, les groupes et l’organisation. Cet espace est une place commune de conversion,
une « base d’apprentissage » à part entière, lieu d’interactions interindividuelles créatrices de
nouvelles connaissances que l’on peut traduire littéralement du japonais par le « lieu ».
Nonaka et Takeuchi (1995) concluent d’ailleurs leur analyse en indiquant que les entreprises
japonaises sont beaucoup plus propices à ces modes de conversion que les entreprises
occidentales.

Un apprentissage peut être considéré comme organisationnel si la connaissance nouvelle


est généralisée à toute l’organisation et réutilisée par ses membres. Les connaissances
organisationnelles sont à la fois le produit et le contenu de l’apprentissage. Le modèle de
Nonaka et Takeuchi montre que les conversions de connaissances individuelles avec les
connaissances organisationnelles sont le moteur de cet apprentissage.

Les travaux sur l’apprentissage organisationnel présentent des apports essentiels. Ils
insistent sur l’importance des savoirs tacites mais également du rôle de l’organisation dans la
constitution d’un savoir collectif qui prend la forme de routines. Certaines de ces ressources
sont plus ou moins dynamiques, ce qui peut expliquer les difficultés des entreprises à
apprendre et entraîner la mise en place d’outils et de méthodes inspirées du knowledge
management.

1.1.3.3 Les ressources stratégiques : statiques et dynamiques

Les parties précédentes nous ont permis de montrer que la codification des
connaissances permet de transformer les connaissances individuelles en ressources
mobilisables et que l’entreprise pouvait également transférer certaines de ces ressources aux
individus qui la composent. Nous allons voir dans cette partie comment les recherches en
management stratégique se sont focalisées sur la gestion de ces ressources et, de ce fait,
légitimer des démarches de knowledge management.

44
D’une manière générale, les ressources sont des moyens qu’on utilise pour réaliser
une activité. Les ressources d’une entreprise à l’instant t peuvent donc être définies comme
« les actifs (tangibles et intangibles) associés de manière semi permanente à la firme »
(Wernerfelt, 1984 : 4). Ces ressources comprennent à la fois « des actifs tangibles (les
équipements, les employés, le capital) facilement mesurables et des actifs intangibles (les
informations, les brevets, les compétences) difficilement mesurables » (Grant, 1991 : 118). Ces
actifs -c’est-à-dire ce que possède l’organisation- doivent être utilisés de manière la plus
efficace possible par les responsables de l’entreprise en fonction de leurs capacités. Cette
dernière est définie comme « une aptitude à mobiliser les ressources pour accomplir une
tâche ou une activité » (Grant, 1991 : 114).
En complément à l’analyse concurrentielle classique selon laquelle une entreprise crée
un avantage concurrentiel en fonction de son positionnement sur un secteur, la théorie des
ressources s’intéresse aux modes de création d’un avantage concurrentiel défendable.
Renouant avec certains travaux plus anciens comme ceux d’Edith Penrose (1959), cette
approche s’appuie sur des hypothèses relatives à la notion de rentes, différentes de celles
utilisées généralement par les approches les plus diffusées de la stratégie. Dans The theory of
growth of the firm, Edith Penrose (1959) analyse la performance des firmes en fonction de
l’agencement des ressources : « la croissance de la firme est à la fois encouragée et limitée par
le processus véritablement dynamique et interactif qui apparaît lorsque le management
recherche le meilleur usage possible des ressources disponibles » (Penrose, 1959 : 5). Elle met
également en avant l’importance des ressources rares dont dispose une organisation dans la
réflexion stratégique et le développement des entreprises (Arrègle, 1996). La distinction
concurrentielle est ici déterminée par l’identification, la protection, l’exploitation et la
création de ressources valorisables, rares, non imitables et non substituables (Tableau 3).

Tableau 3. Le management des ressources (adapté d'Arrègle, 1996)


Identification Protection Exploitation Création
Identification des Défendre les Retirer un maximum Adapter les
ressources qui ressources contre les de résultat des ressources aux
assurent un avantage manœuvres des ressources pour évolutions de
concurrentiel en concurrents. s’assurer des rentes. l’environnement.
fonction de
caractéristiques
précises.

L’objectif est, bien entendu, d’utiliser des ressources distinctives que le concurrent ne
peut copier (Barney, 1991). Il est important de noter que la théorie des ressources ne prétend
pas que celles-ci doivent être totalement inimitables mais elle considère que leurs avantages

45
sont plus ou moins défendables et plus ou moins difficiles à imiter en fonction des
caractéristiques des ressources (Arrègle, 1996)10. Nous allons étudier deux ressources
stratégiques dont dispose l’entreprise : les compétences individuelles et collectives (a) et les
capacités dynamiques (b).

a) Les compétences individuelles et collectives. Pour les tenants de la théorie des


ressources, les notions de compétence et de ressources sont liées : les compétences sont une
combinaison de ressources qui permet de rendre performante une activité (Grant, 1991;
Barney, 1991). Hamel et Heene (1994) proposent ainsi de compléter la théorie des ressources
(‘resource-based view of the firm’) par celle des compétences (‘competence-based view of the firm’).
Au niveau collectif, ces dernières sont une combinaison de ressources mise en œuvre dans
une situation de travail. Elles désignent ainsi une aptitude propre à la firme. Parmi celles-ci,
certaines, dites « compétences clés » (core competence), sont considérées comme critiques pour
la survie de l’entreprise : « les savoir-faire qui constituent ensemble une compétence
cardinale doivent coaguler autour d’individus dont les efforts sont suffisamment diversifiés
pour reconnaître les opportunités de fusionner leur expérience fonctionnelle avec celles des
autres de manière nouvelle et intéressante. Puisque la compétence est un savoir-faire en
action, elle ne diminue pas à l’usage […] mais est enrichie à mesure qu’elle est utilisée et
partagée. Mais les compétences requièrent néanmoins d’être entretenues et protégées : la
connaissance s’estompe si elle reste inutilisée » (Hamel et Prahalad, 1990 : 82).
Les compétences désignent ainsi la mise en œuvre des connaissances détenues par un
individu (un savoir-faire en action). On peut donc distinguer les ressources, les facteurs ou
actifs stratégiques discrets (un savoir-faire individuel), des compétences, c’est-à-dire les
facteurs stratégiques permettant la mise en oeuvre intégrée d’autres facteurs (le savoir-faire
collectif). L’objectif de l’entreprise est alors d’organiser des savoirs fragmentés : « la
compétence organisationnelle est essentiellement une intégration de savoirs spécialisés afin
de réaliser une tâche productive discrète. La réalisation répétitive de ces tâches productives
est liée, directement ou indirectement, à la capacité de création de valeur de la firme, par la
transformation de facteurs en produits » (Grant, 1996 : 377). Cette intégration va, entre autre,
dépendre de ses capacités dynamiques.
10
Notons que cette théorie s'inscrit dans un contexte historique particulier. A la fin des années quatre-vingts les
chercheurs en économie et en gestion s'interrogeaient alors sur les raisons du dynamisme de l'économie japonaise
vis-à-vis des économies occidentales. Pour Nonaka et Takeuchi la raison de ce succès s'explique alors par la
capacité d'innovation mais également de reproduction des connaissances de la part des entreprises japonaises.
Cette capacité provient de la facilité de conversion des connaissances tacites en connaissances explicites de ces
entreprises. Les connaissances tacites sont également analysées par Philippe Baumard comme la ressource
stratégique de l’organisation car elles sont difficilement imitables puisque difficiles à convertir.

46
b) Les capacités dynamiques. La théorie des ressources introduit également les
notions de rentes ricardiennes et de quasi-rentes. Les premières désignent des actifs
stratégiques rares dont l’offre est limitée. C’est le cas des connaissances tacites ou des
routines organisationnelles étudiées précédemment. Les quasi-rentes sont obtenues grâce à
des ressources mieux utilisées comparativement aux concurrents. Si l’on se réfère à la théorie
des ressources, faciliter l’accès à un savoir peut sembler paradoxal puisqu’il devient imitable.
C’est pourquoi Eisenhardt et Martin (2000) proposent d’étudier les routines comme des «
capacités dynamiques », terme originellement introduit dans la littérature par Teece et
Pisano (1997) et que l’on peut définir comme « des routines organisationnelles et stratégiques
grâce auxquelles la firme parvient à reconfigurer de nouvelles ressources en fonction de
l’évolution du marché » (Eisenhardt et Martin, 2000 : 1105). Si l’on suit ce raisonnement, les
routines organisationnelles deviennent des facteurs de performance si elles se modifient au
cours du temps et évoluent en fonction du contexte organisationnel.
La valorisation des connaissances de la firme repose alors sur différentes capacités
stratégiques. Un premier exemple est la capacité d’absorption (Cohen et Levinthal, 1990),
c’est-à-dire sa capacité à absorber et appliquer des connaissances nouvelles. Un deuxième est
sa capacité combinatoire (Kogut et Zander, 1992) dont l’objectif est de stimuler les
interactions sociales nécessaires à la création de connaissances nouvelles et à la mise en
commun de poches de connaissances par la fertilisation croisée des savoirs individuels.

La théorie des ressources-compétences montre la nécessité d’agir volontairement sur les


ressources immatérielles pour les valoriser ou les défendre. Mais ces ressources sont
difficiles à mobiliser en raison de la complexité et de l’hétérogénéité des savoirs. Les
processus d’apprentissage, l’existence de compétences individuelles et collectives, la
présence de routines organisationnelles et d’informations diverses conduisent à un
encastrement multiple des connaissances dans l’organisation. C’est toute la difficulté de la
tâche du gestionnaire des connaissances que d’identifier ces lieux et de réussir à trouver
des mécanismes pour déposséder les détenteurs des connaissances afin de les mettre à
disposition du collectif tout en faisant admettre que cette démarche est limitée par la
nature des savoirs codifiés.

Nous allons étudier dans la partie suivant les outils à disposition du gestionnaire des
connaissances pour ancrer ces savoirs dans l’entreprise et faire fructifier ce capital
connaissances.

47
1.2 Les outils d’ancrage des connaissances organisationnelles

Si nous pouvons accepter l’idée que les connaissances organisationnelles sont


possédées à la fois par les individus et par un collectif d’individus sur divers supports
comme les routines, les compétences ou la mémoire, et qu’elles sont décomposables en
éléments verbalisables et non-verbalisables, alors le management des connaissances relève
principalement d’une technique de gestion. Le terme « technique » désigne ici « un ensemble
de moyens mis en œuvre, de concepts, d’instruments, de procédures et de modèles
opératoires à portée cognitive dont le but est de résoudre des problèmes concrets dans les
organisations » (Louart, 1999 : 1199).
Dans cette approche technique, les outils de gestion ont vocation à formaliser les
actions, conformer les comportements et accompagner les évolutions de l’entreprise (David,
1998). Les outils informatiques sont aujourd’hui les outils de gestion les plus visibles dans les
entreprises même si ce concept recouvre une réalité très hétérogène comme les tableaux de
bord ou les systèmes de rémunération. L’outil est créé, façonné et formalisé par
l’organisation qui l’implémente afin de faciliter l’action collective. Les outils de gestion
peuvent donc différer d’une entreprise à une autre.
L’approche technique vise ainsi à transformer les connaissances possédées par
l’entreprise en des objets de gestion. Elle propose au gestionnaire des connaissances de
suivre un processus consistant à identifier la création des connaissances, à les retenir et à les
transférer (2.1.1). Ce processus est aujourd’hui facilité par les NTIC qui représentent des
moyens simples et souples de codifier les connaissances en transformant l’individu en un
acteur du partage de ses connaissances (2.1.2). Ces outils ont alors mis en exergue les freins
et les leviers organisationnels pour transformer les connaissances en objets de gestion (2.1.3).

1.2.1 Le processus de gestion des connaissances

Dans son Guide du Knowledge Management (2000), le consultant Jean-Yves Prax définit
la gestion des connaissances comme « un processus de création, d’enrichissement, de
capitalisation et de diffusion des savoirs qui implique tous les acteurs de l’organisation, en
tant que consommateurs et producteurs » (Prax, 2000 : 17). Le processus est ici entendu
comme « une succession d’évènements et une progression, avec un cheminement d’étapes
qui inclut des retours en arrière, des interactions de causes et d’effets » (Louart, 1999 : 959).

48
Au contraire des « procédés » (les savoir-faire techniques et scientifiques) et des
« procédures » (les règles que l’on applique avec rigueur), le déroulement d’un processus est
aléatoire et flexible. C’est pourquoi la définition du nombre d’étapes nécessaires au
processus de gestion des connaissances n’est pas stabilisée. A titre d’illustration Shin et al.
(2001) ont catalogué une dizaine de modèles différents dans la littérature.
Nous avons choisi de retenir celui proposé par Argote et al. (2003) car il est
aujourd’hui reconnu dans la littérature spécialisée sur le knowledge management comme le
plus synthétique. A travers un cadre intégrateur, les auteurs décomposent le processus de
gestion des connaissances en trois étapes : l’identification des connaissances générées par la
firme (1.2.1.1), la rétention des connaissances par la firme (1.2.1.2) et le transfert des
connaissances au sein de la firme (1.2.1.3).

1.2.1.1 L’identification des connaissances.

L’identification des connaissances correspond à un repérage et à une analyse des


connaissances de l’entreprise. Il convient tout d’abord de souligner la difficulté que
représente l’identification des connaissances disponibles (O’Dell et Grayson, 1998). Cette
difficulté est liée à la génération de nouvelles connaissances que l’entreprise doit choisir de
codifier ou non. L’expression « si mon entreprise savait ce qu’elle sait » est fréquemment utilisée
par les dirigeants qui appellent de leurs vœux une meilleure « connaissance des
connaissances », un repérage précis et fiable du patrimoine existant. Cette difficulté a pour
conséquence son gaspillage de connaissances par non-utilisation. A la différence d’autres
ressources, l’utilisation d’un savoir n’a pas pour effet d’en diminuer la qualité ou quantité.
Bien au contraire, elle peut conduire à la création de nouvelles connaissances. Mais à
l’inverse, leur non-utilisation peut entraîner une diminution du patrimoine disponible.
Dans une entreprise, cette identification s’appuie généralement sur un processus
d’étalonnage (le « benchmarking »), défini par Camp (1992) comme « un processus continu
d’amélioration des performances des organisations en vue d’obtenir une supériorité face à la
concurrence » (Camp, 1992 : 12). Il s’agit donc de monter un véritable système de veille
stratégique qui passe aussi bien par l’étude d’informations externes que par le recueil de
données internes.
Le benchmarking interne porte sur un ensemble d’entités appartenant à une même
organisation réalisant des activités comparables, avec le même type de contraintes, et
disposant de ressources (humaines, matérielles, financières, etc.) de même nature, dont on

49
évalue les performances comparativement aux meilleures. Cela nécessite de définir un
ensemble de référents c’est-à-dire les meilleures pratiques managériales (the best-in-class),
définissant la frontière d’efficience (à partir de quel seuil l’organisation juge qu’elle est
efficace). Toute la difficulté consiste alors à comparer des unités comparables et de ne pas
créer un sentiment de frustration de la part des personnes ou des services concernées.

Au contraire, le benchmarking externe porte sur un ensemble d’entités appartenant à


différentes organisations (concurrentes dans la plupart des cas) réalisant des activités
comparables, avec le même type de contraintes et disposant de ressources de même nature,
dont on évaluera les performances comparativement aux meilleures. Les bonnes pratiques
peuvent alors devenir des « meilleures » pratiques car ce sont celles qui sont partagées par
toute une industrie ou un secteur donné. La compagnie pétrolière Chevron est une des rares
organisations qui a explicitement défini ces différences (O’Dell et Grayson, 1998). Quatre
catégories de bonnes pratiques y sont distinguées :
- La bonne idée : elle ne repose sur aucune donnée pouvant la valider. Elle est
donc mise de côté pour un examen ultérieur.
- La bonne pratique : processus ou méthode qui a été mise en oeuvre avec
succès. Elle est étayée de données empiriques qui prouvent sa valeur.
- La meilleure pratique locale : c’est une bonne pratique qui s’est avérée être la
plus profitable dans l’entreprise selon un benchmarking interne.
- La meilleure pratique industrielle : c’est la meilleure pratique dans et hors de
l’entreprise selon un benchmarking externe.

L’intérêt de l’étalonnage interne réside dans l’identification de différentiels de


performance et va inciter l’entreprise à fournir l’effort de codification. Par ce biais,
l’entreprise peut alors réaliser un retour d’expérience en interrogeant, par exemple, une
équipe de vente plus performante qu’une autre sur un secteur comparable. L’American
Productivity and Quality Council (APQC) propose une définition formelle de la bonne
pratique: « toute pratique ou expérience qui a prouvé sa valeur ou qui est utilisée de façon
efficiente dans une organisation, et pouvant trouver une application dans d’autres
organisations ». La notion de connaissance supérieure suppose ainsi que l’entreprise a repéré
en son sein une connaissance efficace qu’elle souhaite reproduire en différents endroits pour
améliorer la compétitivité de l’ensemble de l’organisation. En effet, Szulanski (1996) la définit
comme « une pratique interne utilisée efficacement dans l’organisation, et qui s’avère

50
nettement supérieure à d’autres pratiques internes ou alternatives connues en dehors de
l’organisation » (Szulanski, 1996 : 27).
Ces difficultés d’identification des connaissances internes sont au cœur du modèle de
l’entreprise créatrice de connaissances de Nonaka et Takeuchi (1995). Pour les auteurs, ceci
est dû aux phénomènes de conversion opérés selon le modèle socialisation-externalisation-
combinaison-internalisation qu’il représente sous forme de spirale (Figure 4). La
combinaison et la socialisation seront des processus de création de connaissances présents au
niveau d’une équipe alors que l’externalisation et l’intériorisation des connaissances
interviennent au niveau de l’organisation tout entière (Nonaka et Konno, 1998). Se pose alors
le problème de la rétention des connaissances dans l’organisation.

1.2.1.2 La rétention des connaissances.

Retenir les connaissances dans l’organisation consiste à les inscrire dans leurs lieux
d’ancrage et à les mémoriser (Argote et al, 2003 : 572). Trois mécanismes de rétention peuvent
être mis en place par le gestionnaire des connaissances : la documentation ou l’ingénierie de
l’écrit – (a), l’interview d’expert ou l’ingénierie de la mémoire) (b) et le brevet ou l’ingénierie
juridique (c).

a) L’ingénierie de l’écrit. Comme nous l’avons vu précédemment, tout individu peut


placer ses connaissances sur un support pour les manipuler comme de l’information selon
un processus de codification. L’écriture est le moyen le plus courant pour exprimer les
connaissances verbalisables tant au niveau individuel qu’au niveau collectif. Dans le premier
cas, un individu sélectionne et encode ses informations sous la forme de mots selon des
formes graphiques conventionnelles (l’alphabet)11. Dans le second cas, une équipe s’attachera
à rédiger des documents retraçant le déroulement d’un projet.
Il existe ainsi de nombreuses méthodes (Merex, Rex, Information Mapping, etc.)
permettant de capitaliser les connaissances acquises et produites au cours de la réalisation de
projet (Dieng et al., 2005). Par exemple, les démarches qualité permettent d’institutionnaliser
des références communes écrites (Drucker, 2000). Ainsi, les normes ISO 9000 constituent un
outil de rétention des connaissances qui conduit à une codification des savoirs et à leur
formalisation sous la forme du système documentaire de la qualité (Mayère, 1995). Le
gestionnaire des connaissances doit alors choisir un outil de gestion électronique des

11
C’est le processus que je suis en train d’opérer moi-même en écrivant cette thèse…

51
documents (GED) permettant de mettre en place un système documentaire numérique et
évolutif (choix de la version du document, suivi des modifications, etc.). L’objectif est alors
de transformer ces connaissances codifiées en bonnes pratiques organisationnelles
(Szulanski, 1996 ; O’Dell et Grayson, 1998). Nous verrons dans la partie suivante que ce
mode de rétention des connaissances a été facilité par l’utilisation des NTIC.

b) L’ingénierie de la mémoire. Si l’individu ne souhaite pas lui-même codifier ses


savoirs, le gestionnaire des connaissances peut alors faire appel à une tierce personne qui
organise un entretien. Cette personne peut être un consultant externe à l’entreprise. Son
objectif est alors de rédiger, en accord avec l’expert, un livre modélisant les connaissances
des interviewés. La méthode MKSM de Jean-Louis Ermine a par exemple été utilisée par le
Commissariat à l’Energie Atomique (CEA) pour conserver les savoirs de chercheurs
approchant l’âge de la retraite dans trois domaines : les essais nucléaires, les neutrons
rapides et l’enrichissement de l’uranium par laser (Prax, 2000 : 99). Un consultant s’attache à
observer et à interviewer ces experts afin de modéliser leur savoir sous la forme d’un
système complexe. Les résultats des observations et des entretiens sont consignés dans un
livre des connaissances du domaine d’expertise selon cinq phases : la modélisation du
système de référence des experts, la modélisation du domaine d’expertise, la modélisation
du domaine d’activité, la modélisation des concepts et celle des tâches.
D’autres méthodes comme CommonKads proposent à un auditeur d’analyser les
savoirs des experts à travers un modèle d’expertise (ce que sait l’expert), un modèle
d’organisation (comment il s’organise) et un modèle de tâche (comment ils utilisent leur
savoir). Ces méthodes permettent de pallier la difficile extériorisation du savoir par
l’individu.

c) L’ingénierie juridique. La protection juridique des savoirs sous forme de brevets est
le dernier mécanisme qui peut être utilisé par le manager des connaissances. Ce dernier ne
cherche plus uniquement à documenter le savoir mais à le protéger juridiquement. Dans ce
cas, le savoir-faire est défini comme « informations techniques, secrètes, substantielles et
écrites » (Calvo et Couret, 1995 : 96). La question de la propriété intellectuelle doit alors être
soulevée : à qui appartient le savoir ?
Selon le juriste Pierre Breese, trois hypothèses sont envisageables. Si la connaissance
est une propriété inaliénable du sachant, cela signifie que l’entreprise doit verser des droit
d’auteur au créateur du brevet. Les principes du droit d'auteur, au moins dans son acception

52
française, considèrent ainsi que les créations de salariés restent la propriété de l'auteur, et ne
peuvent être transmises que par un acte de cession. Si la connaissance est la propriété de
l’entreprise qui emploie l’individu selon une période déterminée (le temps de sa présence en
entreprise), il est alors nécessaire de mettre en place les mécanismes présentés
précédemment (la documentation et l’interview). Enfin, une troisième hypothèse est
envisageable : le savoir est un res nullus. Ainsi personne ne peut se prétendre propriétaire des
connaissances, et chacun pourrait les employer, sous réserve de respecter des dispositions
d'ordre public (Breese, 2002). Dans le prolongement de la théorie ressources-compétences, le
brevet peut être considéré comme un actif immatériel que l’entreprise peut échanger sur un
marché, soit en le vendant, soit en l’achetant (Teece et Pisano, 1997).
L’effort consenti par les individus ou par l’entreprise pour codifier et protéger les
savoirs représente un coût (à la fois cognitif et financier). L’individu qui consacre du temps à
rédiger une fiche de retour d’expérience peut alors avoir le sentiment de réaliser un effort
supplémentaire. Cet effort est inutile si l’organisation n’assure pas une réutilisation continue
de ce savoir en le transférant auprès des autres unités.

1.2.1.3 Le transfert des connaissances.

Une fois les savoirs identifiés et protégés, le gestionnaire des connaissances doit
s’assurer de leur transfert. Littéralement le terme transfert désigne l’action de déplacer
quelque chose. Il suppose la mise en relation entre deux éléments : un émetteur et un
récepteur. Dans une organisation, le transfert des connaissances désigne le processus selon
lequel « l’expérience d’une unité (un individu ou une équipe) est affectée par l’expérience
d’une autre » (Argote et Ingram, 2000 : 151). Dans le prolongement de la théorie ressources-
compétences, de nombreux auteurs tendent à faire du transfert de connaissances l’élément
fondamental d’explication de l’existence même d’une organisation : « les firmes sont des
communautés sociales qui utilisent leur structure relationnelle et leurs schémas partagés
pour améliorer le transfert et la communication de nouvelles compétences et de nouvelles
capacités en son sein » (Zander et Kogut, 1995 : 76).
Le transfert y est analysé comme un processus dyadique, instrumental et délibéré
entre une source et un récepteur (Gupta et Govindarajan, 1991 ; Szulanski, 1996 ; O’Dell et
Grayson, 1998 ; Berthon, 2001). L’organisation sélectionne et réutilise les plus utiles en
fonction de sa capacité d’absorption, définie par les auteurs comme « l’aptitude d’une
entreprise à reconnaître, assimiler et utiliser la connaissance externe pour l’appliquer à des

53
fins commerciales » (Cohen et Levinthal, 1990 : 128). Mais les caractéristiques des unités
réceptrices et des unités émettrices peuvent influencer cette capacité : une unité plus grande
(ex. une grande usine) aura une capacité d’émission et d’absorption des pratiques plus
importante qu’une unité plus petite. La viscosité (‘stickiness’) des connaissances est alors
présentée comme la variable la plus importante pour déterminer son transfert (Szulanski,
1996) puisque la circulation et l’usage des connaissances sont affectés par divers coûts
d’accès, d’acquisition et d’intégration. Le concept de viscosité englobe ainsi toutes ces
barrières au transfert des connaissances intra-organisationnelles qui en ralentissent le
processus. La capacité d’absorption est considérée comme le facteur majeur de viscosité des
connaissances.
Dans son étude des barrières au transfert intra-organisationnel des bonnes pratiques,
Gabriel Szulanski (1996 ; 2003) distingue un processus d’adoption en quatre étapes (Figure
6) : l’initialisation (initiation), la mise en place (implementation), l’accélération (ramp-up) et
l’appropriation (integration).

Figure 6. Le processus de transfert des bonnes pratiques (Szulanski, 2003)

Savoir
Emetteur codifié Récepteur

Identification Décision de Début Obtention


des besoins et mise en place d’utilisation d’une
de la pratique de la pratique par le performance
récepteur satisfaisante

Initialisation Mise en place Accélération Appropriation

L’initialisation consiste à étudier la faisabilité du transfert entre l’unité émettrice et


l’unité réceptrice. Une fois la pratique identifiée selon un processus d’étalonnage, le
processus s’enclenche entre ces deux unités. La deuxième phase consiste alors à adapter la
pratique pour faciliter son utilisation par l’unité réceptrice. Un dialogue s’engage entre les
unités pour savoir jusqu’à quel point la pratique doit être changée : la connaissance doit-elle
être répliquée telle quelle ? Se pose donc le problème du degré de réplication des

54
connaissances (Teece et Pisano, 1997). Sylvia Gherardi et David Nicolini (2000) remarquent
ainsi que tout processus de transfert s’accompagne nécessairement d’un processus de
transformation des connaissances (« to transfer is to transform »). Lors des premiers jours
d’utilisation, le récepteur va devoir fournir des efforts d’adaptation qui peuvent rendre la
pratique inefficace.
Avant son appropriation, des problèmes inattendus doivent être réglés pour s’assurer
qu’il n’existe plus « d’incompatibilité de langage, de code et de culture au sein de l’unité
réceptrice » (Szulanski, 2003 : 36). Cette phase commence dès lors que cette unité obtient une
performance satisfaisante au regard de celle obtenue dans l’unité émettrice. Le transfert des
connaissances organisationnelles consiste donc en une réplication exacte ou partielle du
réseau de relations entre l’émetteur et le récepteur, de sorte que les connaissances transférées
deviennent des routines organisationnelles (Szulanski, 1996).

L’intérêt de ce modèle est de montrer qu’il existe différentes barrières à différentes


étapes du processus. Lors de la première étape, des difficultés d’identification des
connaissances peuvent se produire en l’absence de liens entre les unités. Lors de
l’adaptation, la mise en doute de la part du récepteur de la qualité de la bonne pratique ou
de la légitimité de son émetteur peut également bloquer le transfert. Ce manque de confiance
peut aussi se traduire par le célèbre syndrome du « ça n’a pas été inventé ici, donc je ne
l’utilise pas », popularisé par Katz et Allen (1982) sous le terme de « NIH Syndrome » (Not
Invented Here). Ce syndrome conduit les individus à refuser toute forme de connaissance
provenant hors des frontières de l’organisation voire de l’équipe de travail. Katz et Allen
(1982) ont constaté que ce type d’attitude peut avoir des conséquences néfastes sur la
performance de projets de recherche et développement. Enfin, l’assimilation de la
connaissance reçue peut se heurter à la faible capacité d’absorption de l’unité réceptrice. En
raison de moyens financiers limités ou par manque de temps, le récepteur peut éprouver des
difficultés ignorées de l’émetteur.

Le modèle de Gabriel Szulanski permet de conclure sur l’interaction évidente entre


les trois étapes du processus de gestion des connaissances : sans identification des
connaissances leur rétention et leur transfert sont impossibles. L’auteur a donc résumé
l’intérêt du processus de gestion des connaissances dans un schéma très simple illustrant
comment une connaissance supérieure (la bonne pratique) permettait d’améliorer la
performance d’une unité par sa rétention et son transfert à d’autres unités (Figure 7).

55
Figure 7. La réduction des différentiels de performance (Szulanski, 2003 : 23)

Organisation Organisation Organisation

1 2 2

Identification Rétention Transfert

1 1 2

1 1 2

Performance = 3 Performance = 4 Performance = 6

Temps
1 Connaissance Standard 2 Connaissance Améliorée

En conclusion, le processus de gestion des connaissances consiste à mettre en place des


mécanismes visant à identifier, retenir et transférer les connaissances jugées comme les
plus efficaces par l’organisation. Sans transfert des connaissances, sa rétention n’a que
peu de valeur. Sans rétention, les connaissances créées quittent l’entreprise et ne
s’inscrivent pas dans la mémoire organisationnelle.

Pour faciliter le processus de knowledge management (identification-rétention-


transfert) les dirigeants d’entreprise peuvent faire appel aux outils de codification apparus
avec les NTIC.

1.2.2 Les nouveaux outils de codification

L’identification, la rétention et le transfert des connaissances nécessitent une


codification des savoirs. Avant l’apparition des NTIC, cette codification reposait surtout sur
l’ingénierie de l’écrit (les documents et les brevets) ou sur celle de la mémoire (les systèmes
experts). Les possibilités de codification des NTIC ont ouvert de nouvelles perspectives pour
mettre en place un processus de gestion des connaissances (McDermott, 1999 : 131).

Le début des années 1990 a ainsi vu naître les documents électroniques multimédias,
les mémoires optiques, les outils de communication interactifs et la généralisation de
l’informatisation des entreprises. Ces nouveaux outils permettent aujourd’hui aux individus

56
de mieux diffuser leurs connaissances verbalisables en produisant des informations qui sont
utiles à d’autres individus qui se fabriqueront eux-mêmes leurs propres connaissances.
Autrefois passifs, les employés peuvent devenir des acteurs de la gestion du savoir via des
bases de données, des forums électroniques de discussion, des messengers ou encore des
blogs.

Ces différents outils forment un système de gestion des connaissances défini par
Alavi et Leidner comme « des systèmes d’information dédiés à la gestion des connaissances
[…] fondés sur des technologies de l’information développées pour supporter et améliorer le
processus de création, stockage, recherche et identification, transfert et intégration des
connaissances (Alavi et Leidner, 2001 : 108). Au-delà de cette définition, Alavi et Leidner
(2001) proposent une classification des outils issus des NTIC en fonction des étapes du
processus de gestion des connaissances (Tableau 4).

Tableau 4. Les outils de management des connaissances (adapté d’Alavi et Leidner, 2001 : 125)
Etape du processus Identification Rétention Transfert
- Moteur de - Bases de données - Espaces
recherche - GED collaboratifs
Outil utilisé
- Annuaire de - Messengers
compétences
- Combiner des - Codifier la mémoire - Réutiliser les
nouvelles sources de individuelle et connaissances dans
connaissances organisationnelle d’autres unités
Objectif
- Trouver les - Accès à la - Accès rapide aux
détenteurs des connaissance inter- détenteurs des
connaissances groupe savoirs
Plateforme
Groupware / Intranets / Weblogs
technologique

A partir de cette classification, nous allons étudier dans le détail trois outils issus des
NTIC : ceux permettant d’identifier les connaissances codifiées (1.2.2.1), ceux permettant de
sauvegarder les connaissances codifiées (1.2.2.2) et ceux facilitant leur transfert (1.2.2.3).
Nous verrons que leur mise en place dans les entreprises nécessite des arbitrages entre une
codification intensive ou minimale (1.2.2.4).

57
1.2.2.1 Les nouveaux outils d’identification des connaissances codifiées.

Les annuaires de compétences (a) et les moteurs de recherche (b) sont aujourd’hui les
outils les plus utilisés pour identifier les connaissances au sein de l’entreprise. Ces outils
permettent de réaliser une cartographie des détenteurs du savoir (Earl, 2001).

a) Un annuaire de compétences rassemble tous les membres de l’entreprise sur une


liste et offre à son utilisateur des informations à propos d’une personne sensée détenir des
connaissances susceptibles de l’intéresser. Un annuaire de compétences propose ainsi de
créer un véritable « who’s who » dont les informations sont plus précises que le simple
annuaire d’entreprise ou l’organigramme. Dans un version améliorée, ce type d’annuaire
permet par une simple requête sur un moteur de recherche d’avoir le contact (son numéro de
téléphone, son e-mail, ses expériences passées, etc.) d’une personne compétente sur un
domaine précis. L’idée est ici de minimiser les efforts de codification et de faciliter la mise en
relation entre deux individus (Hansen et al., 1999). Ce type de système suppose que le
« sachant » a, au préalable, déclaré et codifié ses compétences pour qu’elles soient accessibles
et compréhensibles aux autres membres de l’organisation.

b) Le moteur de recherche permet de trouver des connaissances codifiées dans des


documents électroniques ou des données brutes en fonction de leur indexation par ce même
moteur. Des « métadonnées » (des données inscrites dans le document) telles que le titre, le
sujet, l’auteur et les mots clés permettent ainsi de retrouver plus facilement le contenu à
partir de la requête d’un utilisateur. Ces mots clés deviennent des indicateurs de
connaissance (Prax, 2000 : 156). Il est également possible de créer un agent de recherche (une
« alerte ») qui va repérer les documents ou les données nouvellement accessibles. Ce mode
de recherche continu et incrémental permet à l’utilisateur de réaliser une veille sur un
domaine de connaissances. L’utilité d’un moteur de recherche dépend donc de son taux de
pertinence (les résultats de la recherche sont-ils en accord avec ma requête ?) mais également
du taux de découverte fortuite, des résultats concomitants pouvant être suggérés à un
utilisateur qui n’aurait pas immédiatement pensé à telle ou telle information (c’est le cas du
moteur de recherche Google). L’utilisateur peut alors combiner ses connaissances existantes
avec les informations qu’il vient de trouver.

58
Les moteurs de recherche et les annuaires de compétence sont utilisables uniquement
s’il existe un stock protégé et actualisé de connaissances codifiées. C’est pourquoi il est
également nécessaire d’utiliser des systèmes de sauvegarde.

1.2.2.2 Les nouveaux outils de sauvegarde des connaissances codifiées.

La codification des connaissances s’opère dès lors qu’un individu ou une équipe
rédige un document. Les NTIC permettent aujourd’hui de numériser le contenu de ces
documents grâce aux outils de GED et aux bases de données (a). Ces deux outils permettent
également de sécuriser les informations disponibles en fonction de critères précis. Des outils
plus souples comme les blogs sont récemment apparus dans les entreprises pour codifier
plus souplement et sauvegarder plus simplement le savoir des employés (b).

a) La gestion électronique de documents (GED) consiste à numériser des documents


papiers ou à restreindre l’accès à des documents électroniques. Dans ce cas, le système de
GED met en place un ‘workflow’, c'est-à-dire un « flux de travail » précisant les droits d’accès
et de modification des documents en fonction du profil de l’utilisateur. Ce type d’outil
permet de définir et de répartir les tâches entre les individus tout en assurant une mise à jour
et une sauvegarde du document électronique. Il est intéressant de constater que ce type de
mémorisation est aujourd’hui une obligation légale pour les entreprises engagées dans la loi
Sarbanes-Oxley. Il s’agit ici de créer une mémoire organisationnelle déclarative censée
perdurer au-delà des acteurs et des contextes : « la GED crée un langage d’indexation
généralement au travers d’un thesaurus, c'est-à-dire un répertoire alphabétique de termes
propre à l’organisation, qui est à la fois suffisamment générique pour être partagé par tout le
monde, et suffisamment spécifique pour que le moteur de recherche soit précis et pertinent »
(Prax, 2000 : 140).

En complément à la gestion électronique de documents sont également apparues les


bases de données. Ces dernières y sont organisées de façon rationnelle et permettent à
l’utilisateur de réaliser des recherches, des opérations de calcul ou encore des classements.
Dans le prolongement des bases de données, les entreprises ont mis en place des bases de
bonnes pratiques où sont codifiés des retours d’expérience. Une fiche de bonne pratique est
alors rédigée selon un format précis et mise à disposition sur la base électronique. Ainsi la
Banque Mondiale a développé une banque de connaissances contenant les retours

59
d’expérience de ses consultants. A leur retour de mission, ces derniers sont priés d’alimenter
la base de bonnes pratiques en remplissant une fiche électronique détaillant le problème
qu’ils ont rencontré et la solution qu’ils ont apportée.

b) Les weblogs sont des journaux intimes électroniques et interactifs : « un weblog est
un site web composé essentiellement d’actualités (ou billets) publiés au fil de l’eau et
apparaissant selon un ordre anté-chronologique (les plus récents en haut de page), le plus
souvent enrichies de liens hypertextes externes » (Fievet et Turrettini, 2004 : 10). Des
entreprises comme SAP, Microsoft ou IBM équipent de plus en plus leurs consultants d’un
weblog afin que ceux-ci puissent réaliser des retours d’expérience le plus facilement et le
plus rapidement possible. Leur succès réside donc dans la rapidité de codification des
connaissances permettant à son utilisateur de réaliser un travail permanent de codification.
La structure technique étant pré-formatée, le contributeur peut alors se concentrer sur le
contenu. Ce dernier, une fois publié sur le weblog, peut être commenté par un lecteur. Au fil
du temps une boucle de feedbacks entre l’auteur et le lecteur peut se constituer. L’auteur
peut alors constituer un réseau de contributeurs et de lecteurs partageant un même domaine
de connaissances. Le ‘blogging’ semble donc pouvoir conduire à une dynamique
d’apprentissage (Dudezert, 2006) entre une communauté d’émetteurs et une communauté de
récepteurs des connaissances. 12

Ces outils de sauvegarde permettent de constituer et de pérenniser la mémoire


organisationnelle déclarative à partir de fonds documentaires électroniques et des données
stockées. Mais ce stock doit évoluer pour garder son utilité, c’est pourquoi des outils
facilitant leur transfert doivent s’y intégrer.

1.2.2.3 Les nouveaux outils de transfert des connaissances codifiées.

Au contraire des logiciels de gestion des connaissances permettant d’exploiter les


fonds documentaires disponibles, les espaces collaboratifs doivent permettre d’explorer de
nouvelles connaissances en offrant un espace virtuel de combinaison de l’information (a).
D’autres outils de communication comme les « messengers » permettent également de
transférer rapidement des connaissances codifiées (b).

12
Nous en sommes d’ailleurs un fervent utilisateur puisque nos travaux de recherche y ont été publiés pour nourrir des
discussions avec des praticiens de la gestion des connaissances. L’adresse de notre site est www.km.typepad.com

60
a) Les espaces collaboratifs sont les versions les plus récentes du groupware, défini
lors de son apparition par Johnson-Lentz en 1981 comme « un concept qui désigne à la fois le
processus humain et organisationnel du travail en groupe et les outils techniques nécessaires
à l’accomplissement de ce travail » (Johnson-Lentz, 1981, cité par Prax, 1997). Un groupware,
tel que Lotus Notes, est aujourd’hui un espace de travail virtuel qui regroupe la messagerie
électronique de l’employé, l’agenda de son équipe, des bases de données de l’entreprise ou
encore des forums de discussion permettant de collaborer à distance de manière synchrone
(en temps réel) ou asynchrone.
La messagerie électronique est l’outil le plus couramment utilisé aujourd’hui pour
codifier une question ou apporter une réponse. L’auteur du message peut joindre un
document électronique et doit connaître l’adresse de son destinataire pour le lui faire
parvenir. Le forum électronique de discussion est une messagerie cumulative (les messages
apparaissent par ordre chronologique) qui ne nécessite pas de connaître son destinataire.
Selon les cas, il peut être public ou fermé. Dans le premier cas, tout utilisateur peut poser une
question ou apporter une réponse en fonction d’un domaine déterminé à l’avance. Dans le
second cas l’accès est réservé à quelques utilisateurs. Au contraire de la messagerie
électronique, l’échange de documents est visible par les membres du forum. Ainsi avec un
forum par thème ou par projet, il y a un début de capitalisation collective et de traçabilité des
échanges informationnels (Prax, 2000 : 136).
En regroupant les différents outils habituels de communication autour d’un même
espace, les espaces collaboratifs visent à recréer un environnement de travail virtuel dans
lequel les employés sont censés collaborer plus rapidement.

b) Les « messengers » sont des outils de communication synchrones (en temps réel).
Au contraire de la messagerie électronique ou des forums, ils permettent de fonctionner
comme un téléphone. Le logiciel établit une liste de contacts susceptibles d’être disponibles
ou non pour une conversation écrite. Cet outil nécessite un faible effort de codification
puisque son utilisateur n’a pas besoin de suivre des procédures de mise en forme de son
savoir (au contraire d’une base de données ou d’un système-experts). Les messengers sont de
plus en plus implantés dans les entreprises multinationales soucieuses de baisser leurs coûts
de téléphonie.

61
1.2.2.4 Le choix entre une politique de codification intensive ou minimale.

Mettre en place un système de gestion des connaissances nécessite de choisir entre


des outils de codification intensive ou minimale. Dans le premier cas l’effort de codification
est très important. Dans un second cas, il sera plus faible et consistera à codifier un minimum
de connaissances à propos de son détenteur. Ce choix est conditionné par la nature de
l’activité de l’entreprise et son modèle économique : les entreprises offrant des produits ou
services relativement standardisés s’appuyant sur une codification intensive, celles qui sont
innovantes et qui font évoluer fréquemment leur offre préférant une codification minimale
(Hansen et al, 1999).
Si l’entreprise cherche à mettre en place une politique de codification intensive de ses
savoirs, les moteurs de recherche, les bases de données et les espaces collaboratifs sont les
outils les plus adéquats. Au contraire si l’entreprise cherche à codifier un minimum ses
connaissances, les annuaires des compétences, les blogs et les messengers sont des outils à
privilégier (Figure 8).

Figure 8. Cartographie des nouveaux outils de codification des connaissances

Identification Rétention Transfert


Codification

Moteur de GED et Espaces


massive

recherche Bases de Collaboratifs


données

Temps
Codification
minimale

Annuaire
des Blogs Messenger
compétences

Ce choix n’est pas exclusif. Il s’agit avant tout d’un « dosage » que le gestionnaire des
connaissances doit opérer. Cette cartographie des outils de codification n’est pas exhaustive.
En effet, les outils se réclamant du management des connaissances sont de plus en plus
nombreux et des technologies existantes sont remplacées de nouvelles (par exemple le

62
langage HTML s’efface au profit du XML qui permet une indexation plus précise des
métadonnées).

En conclusion, les NTIC permettent aujourd’hui de transformer l’individu en un acteur


de la gestion des connaissances. Au lieu de chercher à gérer les données, les NTIC font
figure de facilitateurs pour identifier, sauvegarder et transférer les connaissances
individuelles et collectives. Autrefois à sens unique, le processus de codification est
devenu interactif. Les employés sont donc censés être à la fois des consommateurs et des
producteurs d’information (c’est-à-dire de connaissances verbalisables codifiées). A
charge du gestionnaire des connaissances de fixer une ligne de conduite entre une
codification intensive ou une codification minimale au sein de l’organisation.

Trouver le bon dosage ne suffit pas pour mettre en place une démarche de
knowledge management. Il est également nécessaire de s’attaquer aux différents freins qui
peuvent ralentir le déploiement de cette démarche.

1.2.3 Les freins à l’approche technique

En réduisant les connaissances en objets de gestion, l’approche technique propose de


les limiter à leur plus simple expression ce qui soulève naturellement de nouvelles difficultés
déjà entrevues par Hatchuel et Weil (1992) dans leur étude des systèmes experts. La mise en
place d’un processus de gestion des connaissances engendre des coûts de codification, de
mise à disposition et de réactualisation des savoirs stockés. Les coûts et bénéfices de la
codification vont ainsi dépendre de la nature de la connaissance à codifier, de la qualité des
outils employés et du contexte stratégique dans lequel évolue l’entreprise.
A partir du modèle d’Argote et al. (2003), nous étudions maintenant quatre facteurs
susceptibles d’influencer le processus de gestion des connaissances : les médias employés
pour la codification (1.2.3.1), leur appropriation de la part des utilisateurs (1.2.3.2), la nature
des unités impliquées (1.2.3.3) et les mécanismes compensatoires à mettre en place (1.2.3.4).

1.2.3.1 Les médias utilisés.

Comme nous l’avons vu, la codification des connaissances suppose l’utilisation d’un
support pour véhiculer son contenu. Ce véhicule est plus couramment désigné par le terme

63
de média. Mais le média par lequel est transmise l’information influence fortement la
compréhension du message par son récepteur. Subordonnant le message au média, cette
difficulté avait été résumée par Marshall McLuhan (1968, 1977) dans sa formule « the medium
is the message ». Ce n'est pas le contenu qui affecte la qualité de la diffusion d’une
information, mais le canal de transmission lui-même.
Comme nous l’avons vu précédemment, il existe différents médias pour codifier ses
connaissances : l’écriture manuelle ou l’impression numérique. Au niveau de la société toute
entière, McLuhan (1968, 1977) considère qu’il existe deux sortes de médias : les « chauds » et
les « froids ». D'un côté, les médias « chauds » ne demandent la participation que d'un seul
de nos sens. L'information reçue par nos sens étant très « riche », la difficulté de
compréhension est faible. De l'autre côté, les médias « froids » s'adressent à plusieurs sens et
sont plutôt pauvres. Ils demandent de la part du récepteur une réflexion très importante
pour compenser cette pauvreté.
En ce qui concerne l’entreprise, Daft et Lengel (1984) proposent également de
différencier les médias « pauvres » des médias « riches », c'est-à-dire des médias capables de
véhiculer peu de quantité d’information opposé à des médias capables de transmettre une
quantité importante d’information. Les limitations techniques inhérentes à un media pauvre
comme l’écriture vont ainsi influencer à la fois le format mais également le contenu du
message puisque le récepteur va le réduire pour qu’il puisse être véhiculé. Ce n’est pas le cas
avec la discussion en face-à-face (Tableau 5).

Tableau 5. La richesse des médias pour transférer l'information (Daft et Lengel, 1984)
Média Richesse de l’information transférée
Discussion face à face Très élevé
Conversation, Visioconférence Elevé
Lettre écrite, note de synthèse, mémo Moyenne
Document écrit (rapport, bulletin, rapport) Faible
Document numérique (bases de données) Très faible

En réduisant la richesse de l’information transmise, le processus de codification des


connaissances oblige ainsi le récepteur d’une connaissance à réaliser un effort de
« décodification » et de recomposition : « une fois que la connaissance est codifiée par un
agent économique, l’autre doit mobiliser des connaissances supplémentaires pour
l'exploiter » (Foray, 2000 : 49). Une base de données ne permet donc pas de résoudre un
problème mais elle en soulève de nouveaux puisqu’elle incite son utilisateur à construire de
nouveaux ensembles de connaissances.

64
Hatchuel et Weil (1992) considèrent ainsi que le travail de codification est avant tout
un travail de recomposition des connaissances : « l’imitation de l'expertise parce qu'elle est
un processus d'automatisation de la connaissance, n'est possible qu'au prix d'une
transformation active de cette connaissance ; elle est en elle-même un créateur d'expertise ».
Les connaissances, même codifiées, demeurent ainsi « engluées » dans les personnes (Von
Hippel, 1994 ; Szulanski, 1996, 2003), ce qui représente la partie la plus importante du savoir
individuel (Nonaka et Takeuchi, 1995).
Ainsi, l’organisation pourrait être moins compétitive si elle cherche à rendre ses
connaissances imitables et facilement transférables (Barney, 1991 ; Kogut et Zander, 1992).
C’est précisément ce que démontre Philippe Baumard (1995, 1996). Selon lui, l’excès
d’explicitation des connaissances peut être source de blocage : les connaissances codifiées
peuvent présenter des obstacles pour les entreprises confrontées à des situations
déconcertantes ou ambiguës. Selon l’auteur la performance cognitive d’une organisation ne
réside pas dans un cheminement normé entre différentes formes de connaissances, mais dans
l’habileté à effectuer des transformations rapides entre ces formes (du tacite individuel au
tacite collectif, de l’explicite collectif au tacite individuel, etc.) (Baumard, 1995).

1.2.3.2 L’appropriation des outils.

L’investissement consenti dans les nouveaux outils de codification des connaissances


se heurte à une nouvelle difficulté : celle de leur utilisation effective par les membres de
l’entreprise. Des recherches quantitatives et qualitatives ont donc été menées pour identifier
les facteurs clés de succès de l’adoption des systèmes de gestion des connaissances (Becerra-
Fernandez et Sabherwal, 2001 ; Lancini, 2003). Dans ce cas, la barrière à la gestion des
connaissances n’est pas causée par l’incapacité des individus à identifier les connaissances
mais par leur inaptitude à utiliser les répertoires de connaissances (Cross and Parker, 2004).
Agnès Lancini s’interroge donc sur le rôle ‘support’ des technologies de l’information telles
que Lotus Notes. En mobilisant la théorie de la structuration adaptative (Desanctis et Poole,
1994) et celle de la théorie de la diffusion des innovations (Rogers, 1983, 2003), elle constate
que l’appropriation d’un système de gestion des connaissances est déterminée par deux
facteurs principaux : les facteurs individuels et les facteurs technologiques.
Le profil des utilisateurs et l’implication des dirigeants de l’entreprise vont par
exemple influencer fortement le degré d’adoption de Lotus Notes par les employés de
l’entreprise étudiée (un groupe d’assurances mutualiste) : « les utilisateurs ayant de bonnes

65
connaissances en technologie de l’information et qui, par ailleurs, apprécient les
changements et le travail en équipe, favorisent une adoption réussie du système de gestion
des connaissances dans l’organisation » (Lancini, 2003 : 29). Les caractéristiques techniques
vont également influencer le succès. L’outil doit être perçu comme facile d’utilisation et les
utilisateurs formés sont susceptibles de se l’approprier plus efficacement : « la bonne
maturité du système et l’existence d’une communication efficace entre le service
informatique et les utilisateurs vont favoriser une adoption réussie » (Lancini, 2003 : 29).
On peut en conclure que l’adoption d’un système de gestion des connaissances
dépend avant tout d’une conduite de changement réussie : explication des bénéfices
attendus, implication des employés, formation des utilisateurs, etc. Ces efforts sont ainsi
sous-estimés par la plupart des entreprises engagées dans la mise en place d’un système de
gestion des connaissances (Davenport et Prusak, 2000). Le consultant Richard McDermott
arrive donc à la conclusion que « le piège le plus important est de mobiliser des concepts et
des outils issus du management de l’information pour mettre en place un système de gestion
des connaissances » (McDermott, 1999 : 104).

1.2.3.3 La nature des unités impliquées.

En codifiant les connaissances, une unité organisationnelle (une équipe, un service,


une filiale) est susceptible d'identifier et de réutiliser des connaissances développées ici ou là
au sein de l'organisation. Cette relation entre deux unités peut être dyadique (Szulanski,
1996). Mais dans les faits, « l’infime espoir qu’une entité puisse apprendre quelque chose
d’utile à partir de l’expérience d’une autre est très souvent un espoir non réalisé » (Porter,
1985 : 352). Szulanski (2003) a, par exemple, montré que deux unités organisationnelles d’une
même entreprise ont mis en moyenne dix huit mois à transférer une connaissance codifiée
entre deux sites de production pourtant spatialement très proches. Menon et Pfeffer (2003)
ont constaté que les membres d’une unité organisationnelle ont tendance à privilégier les
connaissances externes à leur frontière au lieu de celle « disponible » en leur sein car cela
reviendrait à reconnaître la supériorité de l’unité émettrice par rapport à l’unité demandeuse.
Le processus de gestion des connaissances peut donc être altéré par des relations de
pouvoir entre les unités. Gupta et Govindarajan (1991) avancent ainsi que le mode de
contrôle opéré par la société mère vis-à-vis de ses filiales va influencer les connaissances qui
y sont transférées (« intracorporate knowledge flow » (Gupta et Govindarajan, 1991 : 773)). Les
gérer, c’est donc accepter des compromis, transiger sur le contrôle complet de la

66
connaissance produite au sein de l’organisation (Carlile, 2002 ; Bechky, 2003). L’autonomie
laissée aux directeurs d’unités, leur nationalité d’origine et la communication entre ces
directeurs vont également modifier leur offre et leur demande de connaissances. Ces unités
possèdent nécessairement des caractéristiques différentes en termes de taille, de contexte
local, de fonctionnement.
L’entreprise doit donc établir des arbitrages entre les connaissances susceptibles
d’être contrôlées et celles qui ne doivent pas l’être : « quand il existe des conflits d’intérêt
entre deux unités, la connaissance développée par l’une peut avoir des conséquences
négatives sur l’autre » (Carlile, 2004 : 559). En raison du caractère ambigu de la connaissance
(Szulanski, 1996), son émetteur doit fournir des efforts d’adaptation pour que celle-ci soit
compréhensible par les autres unités. Cet effort peut alors réduire la volonté d’un acteur à
partager avec un autre…d’où la nécessité de mettre en place des mécanismes de motivation
vis-à-vis de ces acteurs.

1.2.3.4 Les mécanismes compensatoires.

La possession des connaissances par des individus ou un collectif d’individus et le


pouvoir qu’il(s) exerce(nt) à partir de celui-ci posent le problème des mécanismes
compensatoires à mettre en œuvre. Dans le cas d’une démarche de codification des
connaissances, l’individu peut avoir l’impression de perdre du temps à codifier un savoir
complexe. Cet effort est perçu sur le plan individuel comme un coût, une charge
supplémentaire de travail (Prax, 1997 : 85). C’est donc le collectif, l’entreprise tout entière,
qui doit valoriser cet élément d’expériences et mettre en place une logique « gagnant-
gagnant ».
Dans cette logique, l’organisation doit trouver des mécanismes de compensation pour
« déposséder » le détenteur de la connaissance et éviter des comportements opportunistes
(Ghoshal et Moran, 1996). Selon Nickerson et Zenger (2004), « il existe dans les entreprises
des comportements opportunistes et calculateurs qui découragent les acteurs à partager leur
savoir ; ce dernier n’est donc pas entre les mains de ceux qui estiment avoir de la valeur. Au
lieu de cela, l’intérêt personnel encourage les employés à thésauriser leur savoir » (Nickerson
et Zenger, 2004 : 622). L’entreprise doit donc faire des arbitrages entre « la carotte » et « le
batôn », entre des récompenses et des sanctions : «favoriser la gestion des savoirs implique
des arrangements institutionnels permettant de mettre en place des mécanismes artificiels »
(Jones, 1983 : 455). C’est pourquoi, nous assistons aujourd’hui à l’émergence de travaux

67
empiriques portant sur les outils de mesure de la valeur des connaissances (Dudezert, 2003),
pour calculer cet arbitrage, ou sur la pertinence des « incentifs » utilisés pour inciter au
partage des connaissances (Christensn, 2003).

Christensen (2003) distingue alors deux formes de mécanismes compensatoires :


financiers et sociaux. Les mécanismes financiers consistent à rétribuer financièrement les
émetteurs et les récepteurs. A chaque contribution à la base de connaissances, son auteur
reçoit par exemple une prime, un cadeau ou une promotion (Foss et Mahnke, 2003). Ces
mécanismes sont, par nature, une forme dangereuse de compensation comme le constatait
plus généralement Herbert Simon : « bien que les récompenses économiques (salaire, primes)
jouent un rôle important pour s’assurer de l’adhésion des employés aux objectifs de
l’entreprise et à son autorité, son efficacité est limitée. Les organisations seraient des
systèmes bien moins efficaces si elles s’appuyaient uniquement sur des récompenses
économiques» (Simon, 1991 : 34). D’autres mécanismes peuvent alors motiver les individus
comme la reconnaissance des collègues. La reconnaissance sociale est ainsi présentée comme
un moteur du partage des connaissances (Christensen, 2003). Des normes sociales communes
assurent également la cohésion entre l’émetteur et le récepteur puisqu’elles développent un
sentiment de confiance entre les individus (Reagans et McEvily, 2003).

Ainsi deux formes de compensation sont possibles dans l’entreprise : celles


s’appuyant sur les motivations intrinsèques et celle sur les motivations extrinsèques
(Osterloh et Frey, 2000). Les motivations extrinsèques sont littéralement celles « qui viennent
du dehors », elles sont insufflées par une structure d’autorité ou de contrôle. Par opposition,
la motivation intrinsèque est naturelle et ne s’obtient pas par l’influence d’un élément
extérieur (Lindenberg, 2001). Cette forme de motivation est jugée comme la plus performante
pour la gestion des connaissances, parce qu’il s’agit « d’activités qui sont à la fois
stimulantes, agréables, responsabilisantes et permettant d’apprendre individuellement et
collectivement sans pression de la part du management » (Lindenberg, 2001 : 332). Une
logique de réciprocité naturelle est alors possible entre l’émetteur et le récepteur si ces deux
acteurs ont développé des liens sociaux (Hansen, 2002).

68
Ainsi les freins à l’approche technique peuvent se résumer en trois catégories
résumées dans le Tableau ci-dessous.

Tableau 6. Nature des freins à la gestion des connaissances dans une perspective technique
Nature Freins Auteurs
Technologique La nature des médias employés Davenport et Prusak, 2000 ;
et leur appropriation par les Alavi et Leidner, 2001 ;
utilisateurs peuvent limiter la Lancini, 2003 ;
gestion des connaissances Cross et Parker, 2004.
Economique La dépossession des Osterloh et Frey, 2000 ;
connaissances entraîne un refus Christensen, 2003;
de codification de la part des Carlile, 2004 ;
individus Nickerson et Zenger, 2004.
Sociale L’absence de liens sociaux entre Hansen et al, 1999 ;
les unités entraîne des lenteurs à Szulanski, 1996, 2003 ;
identifier, stocker et transférer les Gupta et Govindarajan, 2000.
connaissances Kostova et Roth 2002 ;

La première catégorie est technologique et renvoie aux limites inhérentes à la


codification des savoirs. La connaissance identifiée, stockée et transférée est supposée avoir
la même signification à la fois pour la source (individu, groupe, organisation) émettrice que
pour le récepteur. Mais les recherches en management stratégique ont montré que même si la
connaissance est explicitée au travers d’une routine codifiée, d’un document, d’une fiche de
bonne pratique, lorsqu’elle est communiquée à différents groupes certains membres peuvent
ne pas la comprendre parce qu’ils l’interprètent et l’appliquent dans des contextes différents.
Ces difficultés s’expliquent par une mauvaise appropriation des systèmes de gestion des
connaissances par les individus (Lancini, 2003 ; Cross et Parker, 2004) ou par une mauvaise
communication entre l’émetteur et le récepteur (Szulanski, 1996 ; Kostova et Roth, 2002).
L’approche économique et rationaliste du transfert a ainsi négligé l’encastrement social,
culturel et situationnel de l’individu, qui pourtant influe sur ses capacités cognitives et par
conséquent ses interprétations (Berthon, 2004).
La seconde catégorie est économique et renvoie aux logiques de dépossession des
connaissances de l’individu au profit de l’organisation (Cook et Brown, 1999). Le processus
de gestion des connaissances étant déterminé, planifié et découpé en différentes étapes par
son applicateur, des mécanismes de contrôle et de compensation doivent être imaginés. Les
employés peuvent être démotivés à l’idée de consacrer du temps à partager ce qui semble
être pour eux un bien inaliénable (leur connaissance). L’organisation est alors confrontée à
des résistances de la part des individus ou des unités organisationnelles puisque rechercher

69
des solutions pour régler les problèmes des autres consomme du temps, de l’énergie et de
l’argent.
La troisième catégorie est sociale et renvoie aux motivations intrinsèques des
individus à partager ce qu’ils savent. Ceux-ci vont alors avoir tendance à refuser la
connaissance provenant hors de leur cellule de travail. Ce refus est d’autant plus important
s’il n’existe pas une relation de confiance entre l’unité réceptrice et l’unité émettrice (Kostova
et Roth, 2002). L’étude de cette dynamique a longtemps été oubliée des travaux académiques
(Zander et Kogut, 1995 : 87) alors que l’aspect social du processus de transfert de
connaissances apparaît comme un des principaux facteurs d’échec (Szulanski, 1996). Des
travaux récents ont ainsi montré l’impact des liens sociaux sur la réussite du transfert de
connaissance (Hansen, 1999).

Alors que le capital connaissances apparaît comme stratégique au développement de


l’entreprise, celui-ci est difficile à mobiliser pour des raisons technologiques,
économiques et sociales. Les attentes vis-à-vis du gestionnaire des connaissances se
précisent : il doit comprendre la nature des freins à l’approche technique et trouver des
mécanismes ou des leviers permettant de les réduire.

Nous allons étudier, dans une dernière partie, les travaux spécifiquement consacrés
aux gestionnaires des connaissances : qu’est censé faire un gestionnaire des connaissances
dans cette approche que l’on a qualifié de « technique » ? Quels mécanismes doit-il mettre en
place pour piloter le capital connaissances ?

1.3 La fonction knowledge management dans une approche


technique

Nous allons voir dans cette troisième partie que le travail du gestionnaire des
connaissances s’apparente à celui d’un responsable de système d’information (Earl, 2001) ou
à celui d’un expert juridique (Awazu et Desouza, 2004). Dans le premier cas, sa fonction est
intitulée « Chief Knowledge Officer » (CKO) (1.3.1). Dans le second cas, elle est intitulée
« Chief Privacy Officer » (CPO) (1.3.2). Vis-à-vis des deux parties précédentes, cette dernière
partie nous permet de dresser le portait de deux types de gestionnaires des connaissances en
entreprise. Nous concluons cette troisième partie en mettant en exergue les apports et les
limites de la littérature consacrée à la fonction knowledge management dans une approche
technique (1.3.3).

70
1.3.1 Le Corporate Knowledge Officer

Nous allons étudier la fonction de Chief Knowledge Officer en axant notre analyse
sur quatre éléments : son rôle (1.3.1.1), son profil (1.3.1.2), son positionnement dans
l’organisation (1.3.1.3) et les tâches (1.3.1.4) telles qu’elles ont été définies par les entreprises
étudiées par Earl et Scott (1999) et Awazu et Desouza (2004).

1.3.1.1 Son rôle

Le Chief Knowledge Officer (CKO) doit définir, mettre en place, accompagner et


mesurer une politique de gestion des savoirs (Earl et Scott, 1999 ; Prax, 2000 ; Ballay, 2002 ;
Awazu et Desouza, 2003).

Il « personnifie » à lui seul la politique knowledge management de l’entreprise (Foot


et al., 2001). Ce rôle est difficile à tenir puisqu’il doit savoir « vendre le concept même de
gestion des connaissances à ses interlocuteurs » (Earl et Scott, 1999 : 31) tout en arrivant à
obtenir des ressources de financement pour les projets relatifs à la gestion des savoirs
(Davenport et Prusak, 2000). Une fois les ressources obtenues, les CKOs sont en charge de
coordonner différentes initiatives qui se rapportent directement ou indirectement à tout ce
qui touche à l’information et aux connaissances.
Ceci nécessite de définir un mode de fonctionnement au sein d’une équipe de
knowledge management. Il va distribuer les tâches auprès de collaborateurs et mettre en
place des règles permettant de gérer efficacement les processus de gestion des connaissances
et les différents projets dans lesquels ils s’inscrivent. Le CKO doit donc avoir des
compétences en matière de gestion de projet (Davenport et Prusak, 2000) et de gestion
d’équipe (Beyou, 2003).
Des managers opérationnels dédiés au knowledge management (des knowledge
managers), des documentalistes et des responsables techniques peuvent alors être inclus dans
l’équipe du CKO (Prax, 2000). Le documentaliste gère la politique d’acquisition des
documents et oriente les différents services à offrir aux employés en matière de contenus et
de consultations de documents. Le responsable technique, lui, a en charge les outils du
knowledge management tels que nous les avons définis dans la partie précédente. Enfin, le
knowledge manager doit être son relais local au sein d’une branche d’activité de l’entreprise.
Ce dernier peut être en relation directe avec les détenteurs de la connaissance pour connaître

71
leurs besoins en matière de partage des connaissances, ce travail n’étant pas dévolu aux
services Systèmes d’Information.

Selon Earl et Scott (1999), le CKO doit également interagir avec quatre collaborateurs :
les « knowledge champions », les « knowledge skeptics », les « knowledge sponsors » et les
« knowledge partners » (Earl et Scott, 1999 : 32). Les premiers sont des personnes naturellement
enthousiastes à l’idée de codifier ou de partager leur savoir. Les seconds sont l’opposé des
premiers. Les troisièmes sont des hauts responsables de l’entreprise sur lequel le CKO peut
s’appuyer pour faire passer un message clé. Enfin les derniers sont des services connexes
(Ressources Humaines, services supports, etc.) sur lequel le gestionnaire des connaissances
peut s’appuyer. Son travail peut, par exemple, le conduire à coopérer avec la Direction de la
Qualité. C’est le cas dans les entreprises industrielles où les connaissances codifiées sont
majoritairement considérées comme des bonnes pratiques, elles-mêmes faisant parties du
processus de gestion de la qualité (O’Dell et Grayson, 1998).

A la fois expert et consultant interne, le CKO tisse des liens avec la communauté
scientifique, des consultants issus des cabinets de conseil en organisation mais également
avec des pairs (d’autres CKOs). L’histoire de CoP-1, la communauté des knowledge
managers francophones, est tout à fait exemplaire (voir Encadré 2).

Encadré 2. Exemple de partie prenante externe : la communauté CoP-1 (source : www.cop-1.net)


La communauté CoP-1 regroupe des knowledge managers francophones de grandes
entreprises européennes. Elle compte 37 membres issus de 27 entreprises. Les fondateurs de
cette communauté se sont grandement inspirés du fonctionnement du club IKO (Institute for
the Knowledge-Centric Organization) d’IBM créé à la fin des année 90. L’activité de CoP-1
combine études approfondies sur des thématiques diverses et organisation de rencontres et
de partage entre entreprises membres. Son admission est gratuite et se fait par cooptation.
En novembre 2002, un noyau dur de cinq personnes décide de lancer des réunions régulières
d’échange. Les sociétés fondatrices sont alors Schlumberger (Jean-Claude Hujeux), Total
(Christophe Binot), CNES (Jean-Jacques Régnier), Schneider Electric (Martin Roulleaux
Dugage), Bureau Veritas (François Aubry) et Eurodoc (Elizabeth Bila). La première rencontre
a lieu chez Total à La Défense en janvier 2003. En février 2003, un site de collaboration est
ouvert (www.cop-1.net) sur un serveur Internet hébergé chez Schneider Electric. En mars
2003, CoP-1 atteint une dizaine de membres, avec notamment Valeo (Louis-Pierre Lamy),
Saint-Gobain (XueYun Lin), Airbus (René Peltier), IFP (Patrick Boisserpe) et Lafarge (Joanna
Stuart). Nicolas Rolland, professeur au CERAM à Sophia-Antipolis rejoint alors la
communauté CoP-1. Comme il n’est pas dans la cible de recrutement, son admission donne
lieu à un vote. Il est accueilli car les membres pensent utile de bénéficier de son carnet
d’adresses et de la capacité d’organisation événementielle d’une école de management. Au
contraire, la discussion portant sur l’admission ou non de consultants au sein de CoP-1, très
animée, a conclu par un vote négatif.

72
A partir de ce moment et jusqu’à ce jour, des réunions ont lieu mensuellement, en général le
troisième jeudi de chaque mois. L’ordre du jour classique consiste en un exposé par un
membre d’un de ses projets KM, pour donner aux autres l’opportunité de réagir, de poser
des questions et de donner éventuellement des recommandations fondées sur leur
expérience. Un ordre du jour plus élaboré consiste à restituer le résultat d’un petit groupe de
travail de deux ou trois membres sur un thème donné comme « la métrique des projets de
KM » (Airbus, IFP, Schneider), « les annuaires d’entreprise » (Schneider) ou « comment
encourager le partage des connaissances » (Renault). Les réunions durent en principe deux
heures.

Le refus d’accepter des consultants au sein de la communauté des knowledge


managers s’explique par les besoins d’objectivité et de partage de pratiques communes. Les
consultants sont pourtant des collaborateurs de premier plan pour les CKOs. Ils peuvent
apporter une ressource temporaire ou fournir une expertise sur un outil de codification
(Davenport et Prusak, 2000). Les CKOs doivent en effet choisir des outils et des solutions
auprès d’un nombre croissant de fournisseurs techniques. A titre d’illustration, plus de 1800
logiciels différents portent l’étiquette « management des connaissances » (Beyou, 2003).

1.3.1.2 Son profil

En principe, le knowledge management doit être « confié à des gens qui soient
suffisamment visionnaires pour anticiper et conduire l’impact du knowledge management
sur l’organisation » (Prax, 2000 : 191). Pour définir le CKO idéal, Earl et Scott (1999)
proposent un profil basé sur quatre qualités principales : entrepreneur, consultant,
technologue et environnementaliste.
Le Chief Knowledge Officer doit être capable de définir une vision à long terme du
knowledge management et être motivé à l’idée de développer cette vision malgré les
barrières au knowledge management. Son aptitude à gérer les collaborateurs est un atout
important. C’est un consultant13 qui n’a pas de réel pouvoir opérationnel (Earl et Scott, 1999 ;
Prax, 2000). Il doit donc être capable d’écouter les points de vue des collaborateurs, stimuler
la discussion et considérer les besoins de ceux qui souhaitent partager les connaissances. Il
opère par persuasion, consentement et exemplarité (Denning, 2001) tout en fournissant un
service aux employés de l’entreprise.
Mais le CKO est également un technologue. Il doit avoir une connaissance suffisante
des outils de codification puisqu’il est amené à travailler avec les Directions des Systèmes

13
L’Association américaine des consultants en management définissent le conseil comme : « un service fourni en échange
d’honoraires par des personnes extérieures et objectives qui aident les dirigeants à améliorer le management, les opérations et la
performance économique des institutions ».

73
d’Information (Davenport et Prusak, 2000). Au contraire du Directeur des Systèmes
d’Information, le CKO apporte une vision « utilisateur » des outils. Son travail s’oriente sur
leurs usages et leur appropriation (Prax, 2000).
Enfin, il doit savoir considérer les limites de l’approche technique telles que nous les
avons présentées dans le chapitre précédent. Le CKO doit mettre en place des mécanismes
facilitant le dialogue entre les employés. Cela passe, par exemple, par l’organisation de
rencontres autour d’un thème précis, par des bureaux en open space ou par des séminaires
d’études (Denning, 2000).
En conséquence, ce qui caractérise la personnalité des CKOs est leur attitude très
« ouverte » dans et hors de l’organisation (Earl et Scott, 1999). Censés promouvoir eux-
mêmes ce partage des savoirs, ils se doivent d’être exemplaires en la matière, ce qui les
distingue des spécialistes de l’Intelligence Economique comme les Chief Privacy Officers,
chargés, eux, de veiller à la protection des savoirs.

1.3.1.3 Son positionnement organisationnel

Le CKO se situe à un niveau élevé dans la hiérarchie d’une entreprise. Rattaché le


plus souvent à la Direction Générale ou la Direction des Systèmes d’Information, le CKO va
naturellement collaborer avec les Directeurs Généraux ou les services informatiques. Pour
Earl et Scott (1999), le travail du CKO est très complémentaire à celui du Directeur des
Services Informatiques (DSI) puisque « les DSI ont des responsabilités distinctes telles que la
stratégie en matière de systèmes d’information au niveau du groupe, le pilotage des projets
opérationnels et la gestion du service informatique ; donc ils ne prennent pas en charge la
politique de gestion des savoirs ni celle des capacités d’apprentissage » (Earl et Scott, 1999 :
30). Son aptitude à gérer les relations entre des personnes de différents bords et niveaux
hiérarchiques est donc un élément important de sa fonction.
C’est pourquoi son niveau de formation est également très élevé. Une grande majorité
des CKOs étudiés par Awazu et Desouza (2004) possède un diplôme tel qu’un Master en
Business Administration (MBA). Cette formation est complétée par une longue expérience en
entreprise (dix ans en moyenne). Earl et Scott (1999) ont constaté que ce niveau d’expérience
élevé est nécessaire vis-à-vis des salariés de l’entreprise pour assurer la crédibilité du
manager. Le CKO doit donc apparaître comme un expert reconnu dans son domaine
(Davenport et Prusak, 2000).

74
1.3.1.4 Ses tâches

Dans leur article « What is a CKO ? », Michael Earl et Ian Scott (1999) délimitent les
tâches des gestionnaires en trois grandes catégories : celles relatives à la prise de décision (a),
les tâches opérationnelles (b) et celles relatives au conseil (c).

a) Les tâches décisionnelles. Le CKO doit avant tout définir une stratégie de knowledge
management. Mais quelle autorité a le CKO ? Que peut-il décider ? En théorie, les
knowledge managers peuvent exercer cette autorité en définissant des règles de
fonctionnement et mettre en place des principes de knowledge management qui s’appliquent
à une partie de l’entreprise ou à l’ensemble de l’organisation (Davenport et Prusak, 2000 ;
Foot et al., 2003).
Ces décisions doivent donc être soutenues par la Direction Générale : « c’est au
dirigeant que revient la charge d’impulser le rythme de son développement, de définir la
cible de changement, d’aligner les structures et les outils sur la stratégie » (Prax, 2000 : 191).
Cela implique de conduire des projets risqués tout en ayant la capacité de traduire la
politique de knowledge management en résultats tangibles. Il doit donc, en premier lieu,
décider des projets à mener et faire face aux résistances de certaines collaborateurs.
Le CKO joue donc un rôle d’arbitre et tranche en matière de politique générale. Ce
sont qu’ont constaté Hansen et al. (1999) dans leur étude des politiques de knowledge
management dans les cabinets de conseil. Dans une vision plus opérationnelle de leur
fonction les CKOs définissent les modes de fonctionnement des bases de connaissances : « sa
tâche secondaire consiste à mettre en place une logique de codification, une structure des
bases de connaissances et des règles d’utilisation d’un point de vue rationnel » (Awazu et
Desouza, 2004 : 341).

b) Les tâches opérationnelles. Quelle est la marge de manœuvre des CKOs ? Sur quoi
peuvent-ils agir ? Dans leur étude de 20 knowledge managers en Amérique du Nord, Earl et
Scott (1999) ont noté qu’ils n’avaient pas de réel pouvoir opérationnel ou hiérarchique en
raison du caractère transversal de leur rôle. Définir le périmètre d’activité du knowledge
management est déjà une difficulté importante à surmonter pour le CKO.
Outre le déploiement de sa politique de knowledge management, la tâche la plus
courante pour le CKO est de mettre en place une infrastructure technique telle que des outils
de codification des connaissances. Il est donc impliqué dans la mise en place de systèmes

75
comme l’intranet ou un groupware : « sa connaissance n’est pas technique, mais il
s’approprie complètement les usages qui peuvent être faits des différentes technologies, et
peut ainsi en juger les bénéfices et évaluer les obstacles » (Prax, 2000 : 193). A ce titre il doit
développer des métriques pour s’assurer que les différents outils sont utilisés efficacement
par les employés. La mise en place d’outils de mesure est donc une problématique récurrente
pour les CKOs (CIGREF, 2000).

c) Les tâches consultatives. Les knowledge managers apparaissent aux yeux des
membres de l’entreprise comme des experts que l’on consulte (Earl et Scott, 1999). Au
contraire des prestataires externes, le Corporate Knowledge Manager est un consultant
interne. Ils sont réputés posséder un savoir précieux sur le fonctionnement de l’organisation
et sur les outils et techniques se réclamant du knowledge management. Les unités attendent
du CKO une méthodologie pour « faire du knowledge management » à leur propre niveau.
La définition d’une méthode de gestion des connaissances doit permettre au CKO de
véhiculer son plan d’action auprès des collaborateurs. Les managers des unités désireux de
mener un projet de gestion des savoirs s’appuie donc sur l’expertise méthodologique du
CKO : « il doit apporter des idées aux collaborateurs mais également écouter celles des autres
et les soutenir tout en les intégrant à la méthodologie qu’il développe » (Earl et Scott, 1999 :
34). Ce dernier peut alors s’appuyer sur des exemples comparatifs, des bonnes pratiques en
la matière et sur un étalonnage avec des entreprises concurrentes (Davenport et Prusak,
2000).

En conclusion, le Corporate Knowledge Officer (CKO) se situe principalement au niveau


de la Direction des Systèmes d’Information. Il est le plus souvent mandaté par la
Direction Générale puisqu’il doit définir, mettre en place, accompagner et mesurer une
politique de knowledge management. Le CKO apparaît comme un manager capable de
définir lui-même ses propres tâches et les distribuer à d’autres membres de son service.
Paradoxalement, il possède peu de poids hiérarchique en raison de la transversalité de la
démarche et de la difficulté à définir un périmètre stable à son action. Il doit donc
convaincre les collaborateurs du bien-fondé de sa démarche. Le Knowledge Manager, lui,
a en charge de relayer cette politique au niveau hiérarchique inférieur.

Après le Corporate Knowledge Manager, examinons la deuxième fonction étudiée


dans la littérature : le Chief Privacy Officer.

76
1.3.2 Le Chief Privacy Officer

En complément du CKO, le Chief Privacy Officer (CPO) est un cadre d’entreprise qui
a pour objectif de protéger les connaissances détenues par l’organisation. C’est le poste le
plus souvent publié dans les offres d’emploi analysées par les Awazu et Desouza (2004).
Nous allons étudier la fonction de Chief Privacy Officer en axant notre analyse sur quatre
éléments : son rôle (1.3.2.1), son profil (1.3.2.2), son positionnement dans l’organisation
(1.3.2.3) et ses tâches (1.3.2.4)

1.3.2.1 Son rôle

Le CPO doit avant tout s’attacher à « préserver et défendre les savoirs détenus par
l’organisation » (Awazu et Desouza, 2004 : 342). En ce sens il doit éviter les fuites de
connaissances. C’est, en quelque sorte, un « gendarme » qui doit protéger le capital
connaissances.
Son rôle est à mi-chemin entre l’Intelligence Economique et le conseil juridique.
L’Intelligence Economique14 regroupe l'ensemble des pratiques de veille (technologique,
stratégique), des pratiques de diffusion et de protection de la connaissance externe en
interne, voire sa manipulation vis-à-vis d'un tiers. Cette démarche est complémentaire au
Knowledge Management qui vise à la cohérence et à la disponibilité de la connaissance
produite en interne. Pour la protéger, le CPO doit inciter les employés à s’interroger sur le
mode de partage et de codification en vigueur dans l’entreprise. On peut donc attendre du
CPO qu’il mette en place une démarche de protection de la propriété intellectuelle via des
brevets.

1.3.2.2 Son profil

Sans surprise, la quasi-totalité des CPOs étudiés par Awazu et Desouza (2004)
possède un diplôme de juriste avec pour spécialité la propriété intellectuelle. Les CPOs sont
des cadres d’entreprise moins expérimentés que les CKOs mais ils possèdent également un
niveau élevé de formation. Ainsi un tiers des CPOs étudiés par Awazu et Desouza (2004)

14
L’Intelligence Economique a été définie par le Commissariat Général au Plan comme « l’ensemble des actions coordonnées de
recherche, traitement et distribution en vue de son exploitation, de l’information utile aux acteurs économiques. L’information
utile est celle dont ont besoin les différents niveaux de décision pour élaborer et mettre en œuvre de façon cohérente la stratégie
et les tactiques nécessaire à l’atteinte des objectifs définis dans le but d’améliorer la position de l’entreprise dans
l’environnement concurrentiel ».

77
possèdent un doctorat dans le domaine du management ou dans le secteur d’activité de
l’entreprise (chimie, santé, etc.). Ils possèdent tous une grande expertise dans la gestion des
actifs immatériels tels que les brevets ou les licences. Les quelques CPOs qui ne possèdent
pas ce diplôme sont des informaticiens spécialisés dans la sécurité des réseaux.
A l’inverse du CKO, le CPO a davantage un rôle de contrôleur que d’entrepreneur. Il
doit définir des règles de protection vis-à-vis des bases de données ou des brevets. La
sécurité étant son enjeu principal, son profil est plutôt celui d’un policier et non d’un
pédagogue. En revanche, il doit être curieux et mener une veille permanente sur les
questions juridiques. Il est naturellement tourné vers l’environnement économique et
juridique dans lequel évolue l’entreprise même si Awazu et Desouza (2004) ont constaté que
certains CPO peuvent avoir un rôle limité à la sécurité des réseaux informatiques.
Contrairement au CKO, le CPO n’est ni un leader, ni un chef d’équipe. Il opère
souvent seul et possède peu de relais dans l’organisation (Awazu et Desouza, 2004). Ses
compétences sont avant tout dans le domaine juridique. Il doit connaître les législations en
vigueur en matière de protection des actifs immatériels, dépôt de brevets et propriété
intellectuelle. Les législations étant complexes et évolutives, il doit mener une veille
permanente sur l’environnement économique et juridique dans et hors de l’entreprise. Enfin,
il doit savoir décider ce qui doit être protégé et ce qui ne doit pas l’être dans le capital
connaissances.

1.3.2.3 Son positionnement organisationnel

Les services qui interagissent avec le CPO sont d’une autre nature que ceux du CKO.
Les CPOs collaborent avant tout avec des services juridiques mais sa mission peut également
le conduire à travailler avec les services d’Intelligence Economique voire avec le service de
Documentation.

Il est vrai que les cellules de veille ou d’Intelligence Economique (IE) sont souvent en
relation avec celles de Knowledge Management (KM) (Knip, 2004). Mais comme l’ont
constaté Blondel et al. (2006), « les deux démarches divergent amplement sur le plan humain
et organisationnel: leurs fonctions et leurs pratiques diffèrent, elles interviennent à des
phases différentes du processus de gestion de la connaissance et mobilisent des acteurs
différents » (Blondel et al., 2006 : 21). Le CPO partage avec le responsable de l’Intelligence

78
Economique le souci de défendre le patrimoine de connaissances vis-à-vis de
l’environnement de l’entreprise.
Dans certains cas, le CPO peut directement faire partie d’un département
indépendant consacré à la valorisation des brevets. Ainsi certains CPO sont appelés
« Directeur du Capital Intellectuel » ou « Responsable des Actifs Immatériels » ou encore
« Directeur des Brevets ». Il doit alors s’attacher à stimuler l’innovation par l’augmentation
du nombre de brevets déposés par les employés. Ayerbe et Mitkova (2005) ont ainsi montré
l’importance de ces managers dans le processus d’innovation : « les grands groupes ont,
depuis une dizaine d’années, accordé une place croissante à la gestion interne de leurs
brevets et modifié profondément leur organisation en ce sens » (Ayerbe et Mitkova, 2005 :
98). Ainsi, le CPO fait partie d’une unité multifonctionnelle composée et de spécialistes de
formations différentes : juridique, technique et gestionnaire.
Comme le CKO, le CPO peut faire appel à des consultants externes. Il peut s’agir
d’avocats spécialisés dans le dépôt de brevets15. Il peut également acquérir des savoirs non
détenus par son entreprise en achetant des brevets ou des licences d’exploitation, voire aider
à conclure des alliances avec d’autres entreprises. Cela peut conduire à des échanges de
brevet, de techniciens ou au développement d’innovations communes. Le CPO doit donc
intégrer un réseau d’acteurs susceptibles de fournir des brevets ou des licences à l’entreprise
(Awazu et Desouza, 2004).

1.3.2.4 Ses tâches

Comme le CKO, les tâches des gestionnaires sont divisées en trois grandes
catégories : celles relatives à la prise de décision (a), les tâches opérationnelles (b) et celles
relatives au conseil (c).

a) Les tâches décisionnelles. La tâche décisionnelle principale du CPO est de définir les
règles d’utilisation des actifs immatériels et d’aider tous les membres de l’entreprise à
répondre à la question cruciale du partage des savoirs (Awazu et Desouza, 2004). Le CPO est
censé aider les différents services à trancher s’ils ont le droit ou non à partager telle ou telle
information avec les collaborateurs de l’entreprise (les clients, les fournisseurs, les
partenaires voire les actionnaires). Le CPO apparaît ici comme « un gardien du temple ».

15
On peut citer le cabinet Bredema de Pierre Breese et Marc Majerowicz.

79
b) Les tâches opérationnelles. Le rôle du CPO est de mettre en place ce processus de
codification des connaissances. Cela passe par la formalisation d’un processus de décision de
dépôt de connaissances et de sa réutilisation. Elle trouve son expression dans l’établissement
de procédures, de règles et de critères qui aident la prise de décision sur les brevets (Millier,
1975, cité par Ayerbe et Mitkova, 2005 : 83).
Ce rôle est d’autant plus important depuis la loi Sarbanes-Oxley qui oblige les
entreprises côtés sur la bourse américaine à conserver tous les documents légaux et fiscaux
sous un format électronique. Il doit donc mettre en place un processus de gestion de vie des
documents et des brevets : « l’activité d’invention n’est pas réduite à la recherche puis à la
protection juridique, mais dépend largement de la capacité de la firme à valoriser en interne
l’ensemble des activités liées à la mise au point d’un brevet » (Ayerbe et Mitkova, 2005 : 82).
c) Les tâches consultatives. Le CPO doit aider le dirigeant et les services concernés à
gérer leur portefeuille de connaissances. Il est capable de déterminer l’offre et la demande de
connaissances au sein de l’entreprise. Il conseille donc les collaborateurs sur le degré
d’ouverture vis-à-vis de partenaires potentiels (Awazu et Desouza, 2004). Une entreprise
concurrente peut, par exemple, souhaiter nouer une alliance dans le but d’apprendre de son
concurrent (Garrette et Dussauge, 2000). Le CPO apporte son expertise en matière de
protection de la propriété intellectuelle pour verrouiller juridiquement les termes de
l’alliance.

Ainsi le capital connaissances est défendu par une fonction précise dans l’entreprise : le
Chief Privacy Officer. Manager opérationnel, il est un expert de la question de la propriété
intellectuelle. Son rôle est la protection des savoirs codifiés (telles que les bases de bonnes
pratiques ou les brevets) et des documents contenant des informations cruciales pour
l’entreprise.

Dans le tableau ci-dessous nous avons résumé les différentes caractéristiques des
deux fonctions étudiées.

80
Tableau 7. Les deux fonctions les plus courantes dans l’approche technique du knowledge
management.
Chief Knowledge Officer Chief Privacy Officer
Rôle Définir, mettre en place et Définir des règles pour partager le
mesurer une politique de gestion savoir afin d’éviter des fuites de
des savoirs. connaissances.
Profil - Cadre confirmé - Cadre intermédiaire
- Manager reconnu - Profil académique
- 10 ans d’expérience
Compétences - Systèmes d’Information - Règles juridiques
requises - Pilotage de projet - Décision
- Leadership - Veille
Positionnement Direction des Systèmes Direction Juridique
dans d’Information En relation avec l’Intelligence
l’organigramme En relation avec la Direction Economique
Générale
Tâches assignées - Définir une politique de - Définir des règles de protection du
knowledge management portefeuille des connaissances
- Mettre en place l’infrastructure - Mettre en place une ingénierie
technique et une structure juridique (brevets)
d’accompagnement - Aider les unités à gérer leur
- Aider les unités à mettre en portefeuille de connaissances
place des projets de knowledge
management

A partir de cette synthèse, nous allons conclure ce premier chapitre en dégageant les
apports et les limites des études empiriques consacrées à la fonction knowledge
management.

1.3.3 Les apports et les limites de la littérature consacrée à ces


fonctions

A partir des freins définis dans la partie précédente, nous nous interrogeons ici sur les
leviers employés par les knowledge managers tels qu’ils ont été étudiés dans la littérature
consacrée à cette fonction (Tableau 8).
Au niveau des barrières de nature technologique, le CKO apparaît comme le profil le
plus à même de trouver une solution aux difficultés rencontrées par les entreprises. Il est un
technologue qui doit savoir identifier, choisir et mettre en place les outils de codification des
connaissances les plus appropriés à l’entreprise qui l’emploie.
Au niveau des barrières de nature économique, le CPO est le profil de gestionnaire le
plus à même de trouver les leviers adéquats. Mais il apparaît de l’étude d’Awazu et Desouza

81
(2004) qu’il n’a pas en charge de mettre en place des incentifs susceptibles de réduire le
sentiment de refus des individus à codifier leur savoir.
Au niveau des barrières de nature sociale, le CKO semble à nouveau comme la
personne la plus à même de régler la question du manque d’intimité entre les émetteurs et
les récepteurs des connaissances. Qualifié d’« environnementaliste », il est censée selon Earl
et Scott (1999) amener différents groupes d’individus, normalement séparés par leur métier
ou leur position hiérarchique et géographique, à coopérer et échanger des connaissances.
Cette aptitude à créer un environnement professionnel propice au partage des connaissances
n’est pour autant pas étudiée dans les études empiriques. L’arbitrage entre une codification
minimale ou intensive est pourtant une question importante pour les entreprises engagées
dans une politique de knowledge management (Hansen et al., 1999).

Tableau 8. Apports et limites de la littérature consacrée aux knowledge managers dans une
approche technique.
Nature Freins Apports de la littérature Limites de la littérature
Technologique La nature des Le CKO est un Aucune étude sur les
médias employés et technologue qui doit difficultés rencontrées
leur appropriation rationaliser l’usage des par les CKOs.
par les utilisateurs outils de codification des
peuvent limiter la connaissances.
gestion des
connaissances
Economique La dépossession Le CPO doit mettre en Aucune étude sur les
des connaissances place des règles de incentifs utilisés par les
entraîne un refus protection des CPOs ou les CKOs.
de codification de connaissances.
la part des
individus
Sociale L’absence de liens Le CKO doit considérer Aucune étude sur les
sociaux entre les les limites de l’approche arbitrages réalisés par les
unités entraîne des technique et être un CKOs entre une
lenteurs à environnementaliste. Il approche sociale et une
identifier, stocker et doit développer le approche technique.
transférer les dialogue entre employés.
connaissances

Notre travail est destiné à combler les limites de cette littérature consacrée à la
fonction knowledge management. Il est donc temps de conclure ce premier chapitre.

82
Conclusion du Chapitre 1: les tenants et les aboutissants de l’approche technique

L’approche technique présente la gestion des connaissances comme un processus


d’identification, de rétention et de transfert des connaissances organisationnelles. Basée sur
la transformation des connaissances en information (la codification), une démarche de
knowledge management permet à l’entreprise d’ancrer les expériences individuelles sur un
support et de les mettre à disposition des autres membres. Les plus faciles à convertir en
mots sont alors diffusées sous forme de documents. Les plus tacites s’inscrivent dans des
routines et des compétences qui constituent le capital le plus immatériel de l’entreprise.

En transformant les employés en acteurs de la codification du savoir, les outils de


codification ont permis d’augmenter la taille et la vélocité de la mémoire organisationnelle.
Mais en réduisant le coût de stockage de la connaissance codifiée, les sources ont été
multipliées et leur abondance pose des problèmes de localisation. Ces problèmes peuvent
être partiellement traités par l’utilisation de nouveaux outils tels que les moteurs de
recherche (où se trouve tel document ?) ou les annuaires de compétences (qui fait/sait
quoi ?).

Dans ce contexte, le gestionnaire des connaissances est un planificateur. Il doit


s’assurer du bon déroulement du processus et opérer les adaptations nécessaires. Il doit
également fixer une ligne de conduite entre une codification intensive ou minimale des
savoirs détenus par l’entreprise. Il doit enfin s’attaquer à de nombreuses difficultés pratiques
qui ralentissent la mise en place d’un processus de gestion des connaissances.
- La première difficulté est d’ordre technologique : les employés de l’entreprise ne
doivent pas éprouver de difficultés à codifier leur savoir. Le choix des outils de codification
est donc primordial.
- La seconde est d’ordre économique : le détenteur d’un savoir peut avoir le sentiment
de perdre une partie de son pouvoir en se laissant déposséder de celui-ci. A charge du
gestionnaire des connaissances de définir un système de sanctions-récompenses.
- La troisième est d’ordre social : l’absence d’intimité entre les émetteurs et les
récepteurs de connaissances inhibe l’identification, la rétention et le transfert des savoirs. Le
gestionnaire des connaissances doit donc trouver des formes de socialisation pour réduire
cette inhibition.

83
Paradoxalement, la littérature consacrée aux gestionnaires des connaissances se
contente de relater les difficultés rencontrées par les gestionnaires sans décrire dans le détail
les mécanismes d’appropriation des solutions qu’il met en place.

Au contraire de l’approche technique (résumée dans le Tableau 9), nous allons voir
dans le chapitre suivant que de nombreuses pratiques de gestion des connaissances
consistent à piloter à distance des réseaux sociaux entretenues : les communautés de
pratique.

Tableau 9. Résumé de l’approche technique de la gestion des connaissances


Définition de la «Les connaissances sont des flux composés d’expérience, de
connaissance valeurs, d’informations contextuelles et d’expertise qui
permettent d’assimiler et d’évaluer les nouvelles expériences
vécues et l’information reçue. Elles sont encastrées non
seulement dans des documents mais aussi dans des routines
organisationnelles, des processus, des pratiques et des
normes» (Davenport et Prusak, 2000 : 5).
Lieux d’ancrage Connaissances Individuelles Connaissances Collectives
Les compétences Les documents
L’expérience Les routines
Théories mobilisées Economique et Systémique
Processus Identification – Rétention – Transfert
Outils Systèmes de gestion des connaissances
Profil du gestionnaire des Un responsable informatique ou propriété intellectuelle
connaissances

84
85
Chapitre 2. L’approche sociale de la gestion des connaissances

« L'important dans une grande entreprise est de séparer la gestion des connaissances des systèmes de
contrôle hiérarchiques créés pour des raisons comptables ou légales. La connaissance doit appartenir
aux gens qui ont besoin de la mettre en pratique et ces derniers ne sont pas nécessairement en haut de
la hiérarchie. »

Lou Gerstner (ancien PDG d’IBM)

2.1 Les connaissances construites par 2.2 Les outils de construction des
l’organisation connaissances organisationnelles

2.1.1 Les connaissances en action 2.2.1 Les réseaux sociaux, lieux de la


gestion passive des savoirs

2.1.2 Le processus de socialisation 2.2.2 Les nouvelles structures de


socialisation

2.1.3 Les lieux de construction 2.2.3 Les difficultés de l’approche


sociale

2.3 La fonction knowledge management dans une approche sociale

2.3.1 Le Chief Learning Officer

2.3.2 Le Community Coordinator

2.3.3 Les apports et limites de la littérature consacrée à ces fonctions

86
Introduction du Chapitre 2.

A l’inverse de l’approche décrite dans le premier chapitre, d’autres travaux ont mis
l’accent sur le caractère socialement construit des connaissances organisationnelles.
L’hypothèse de la connaissance et de l’apprentissage comme étant essentiellement le fruit de
processus mentaux et individuels est ici remplacé par l’idée que ces processus relèvent
davantage de phénomènes sociaux, culturels et identitaires (Brown et Duguid, 1991 ; Lave et
Wenger, 1991 ; Blackler, 1995 ; Tsoukas, 1996 ; Gherardi, 2000 ; Berthon, 2004 ; Soenen, 2006).

Cette perspective s’est construite à partir de travaux sur le décalage entre les
pratiques réelles et les procédures prescrivant le travail et sur les modes de construction des
connaissances au sein d’un collectif : Brown et Duguid (1991) étudient les pratiques
émergentes des réparateurs de photocopieurs de Xerox grâce à l’ethnographie réalisée par
Julian Orr ; Lave et Wenger (1991) étudient les modes d’apprentissage de garçons bouchers,
de maîtres de timonerie dans l’armée et de sages-femmes dans les hôpitaux. Leurs niveaux
d’observation et d’analyse ne portent ni sur l’individu, ni sur l’organisation mais sur des
réseaux sociaux et plus précisément sur des « communautés de pratique » (Lave et Wenger,
1991 ; Brown et Duguid, 1991). Leurs résultats constituent néanmoins une ressource pour
comprendre des situations de travail dans l’entreprise.

Dans ce chapitre, le knowledge management n’apparaît plus comme un processus


d’identification, de rétention et de transfert des connaissances entre l’individu et
l’organisation mais comme la création et l’organisation de collectifs susceptible de faire vivre
ces outils : les communautés de pratique. De ce point de vue, les communautés constituent
dans le knowledge management le pendant indispensable sur le plan social et humain aux
technologies de l’information. Le rôle du gestionnaire des connaissances est alors
radicalement différent puisqu’il ne doit plus choisir des outils informatiques mais il doit
cultiver des réseaux sociaux.

Ce deuxième chapitre se décompose en trois grandes sections. La première est


consacrée à l’étude de la littérature sur les connaissances construites par une organisation
(2.1). La seconde examine les outils de socialisation telles que les réseaux sociaux et plus
particulièrement les communautés de pratique (2.2). La troisième s’interroge sur le pilotage
de ces réseaux par le knowledge manager (2.3).

87
2.1 Les connaissances construites par l’organisation

Les travaux présentés dans cette seconde partie ne s’appuient plus sur des théories
économiques ou des théories de l’information mais sur des résultats empruntés à
l’ethnographie et à la sociologie. Pour Sylvia Gherardi, choisir entre les deux précédents
champs théoriques revient à « choisir entre Charybde et Scylla, tant elles représentent le
fonctionnement de l’organisation comme mécanique ou technocratique, représentations
tellement éloignées de la réalité» (Gherardi, 2000 : 211). Par un glissement sémantique propre
à la langue anglaise, les auteurs n’analysent plus les connaissances (‘knowledge’) mais les
processus cognitifs, c'est-à-dire l’acte de connaître (‘knowing’). L’emploi du gérondif est un
signal fort donné par les auteurs : l’intérêt est porté sur le processus de construction des
connaissances et non sur le résultat de ce processus.
Pour ces auteurs, le savoir n’est ni une accumulation d’information, ni un bien
personnel. Il ne peut donc être « possédé » par un individu et codifié pour une organisation
car il émerge au cours de l’action. On peut résumer cette seconde perspective par le point de
vue de Gergen (1991 : 270) quand il écrit que « la connaissance n’est pas quelque chose que
les individus possèdent mais, plutôt, quelque chose que les individus font ensemble ». Dans
cette logique, il existe un cadre social propice à ce type de connaissances sur lequel va porter
la majeure partie des travaux de recherche. Les connaissances se font et se défont en fonction
d’un contexte social : celui de la communauté, et plus précisément de la communauté de
pratique dans laquelle la cognition est contextuelle (Lave et Wenger, 1991).

C’est pourquoi dans cette deuxième sous-section, nous présentons les connaissances
organisationnelles comme des co-constructions entre individus (2.1.1.) selon un processus de
participation-réification (2.1.2.) qui s’opère dans un cadre social défini (2.1.3).

2.1.1 Les connaissances en action

A l’inverse de l’approche précédente, il s’agit ici d’envisager les pratiques comme la


matière première des connaissances. Reprenant la distinction entre connaissances tacites et
connaissances explicites, une nouvelle taxinomie va apparaître dans la littérature : celle
opposant les connaissances théoriques (« canoniques » ou « officielles ») aux connaissances
pratiques (« non canoniques » ou « officieuses »). Ceci conduit des auteurs comme Brown et

88
Duguid (1991) à considérer l’apprentissage organisationnel comme un apprentissage « dans
le faire » (« learning in doing »), plutôt que par l’acquisition de savoirs à posséder.
Cette approche est basée sur une vision connexionniste de la connaissance
individuelle (2.1.1.1) dans laquelle la cognition est analysée dans son contexte (2.1.1.2). A
partir de ce contexte, ce sont les pratiques sociales (2.1.1.3) qui vont permettre de construire
des connaissances organisationnelles.

2.1.1.1 L’approche connexionniste.

Rejetant l’idée d’une connaissance structurée par le traitement de l’environnement,


l’approche connexionniste porte son analyse sur le phénomène de construction active de la
réalité par l’individu. Ce dernier n’est plus un « sachant » mais il devient un « acteur ». Le
traitement de l’information n’est plus déterminé par sa mémoire mais par des interactions
que nous pouvons résumer dans la formule suivante : « nous pouvons agir ensemble car
nous créons et transférons des connaissances communes » (Gherardi, 2000 : 212). Ainsi la
connaissance n’est plus une substance fixe, quel que soit son degré de tacité, mais un élément
qui émerge en fonction de l’interaction entre des individus. Ce n’est plus la capacité
cognitive de l’individu qui est en cause mais celle de la structure censée les mettre en
relation. Edwin Hutchins (1991) montre ainsi que la connaissance nécessaire pour faire
naviguer un navire est non seulement répartie entre les membres de l’équipage mais
également organisée selon une hiérarchie précise mais évolutive, permettant à celle-ci de
s’adapter en cas d’un changement non prévu comme une avarie.

Cette interaction s’accompagne également d’une négociation sur le sens donné par les
acteurs que Karl Weick désigne par le terme de « sensemaking » (que l’on peut traduire
littéralement par « élaboration du sens »). Le sensemaking est le processus par lequel à partir
d’un ensemble d’informations, d’observations et d’actions, un acteur se construit une
compréhension qui va sous-tendre son action. Lorsque deux personnes agissent ensemble,
Weick constate qu’il s’opère le phénomène suivant : « l’action de l’un provoque une réponse
de l’autre, ces deux éléments constituent une interaction (‘interact’). La réponse que fait l’un à
la réaction de l’autre complète la séquence (‘double interact’) » (Weick, 1979 : 89). Le
phénomène d’élaboration de sens peut donc s’apparenter à un cycle basé sur un processus
d’interaction sociale (Tableau 10).

89
Tableau 10. Exemples de cycles d'élaboration du sens (Weick, 1979 : 115)
Action Interaction Interaction double
Action de l’un Réponse de l’autre Ajustement de l’un
Qui isole un phénomène et le Qui accepte, rejette ou modifie Qui abandonne, révise ou
porte à l’attention de l’autre cette mise en exergue maintient son choix
Qui propose une interprétation Qui accepte, rejette ou modifie Qui abandonne, révise ou
cette interprétation maintient son interprétation

Reprenant l’idée du navire, Weick et Roberts (1993) ont analysé ce phénomène au sein
des équipages d’avion. Ils ont constaté l’existence d’une conscience collective. Contrairement
à leurs attentes, ils sont arrivés à la conclusion que des groupes d’individus peuvent
accomplir des activités tout en donnant l’impression que chacun partage les mêmes
croyances ou les mêmes connaissances. Ce qu’ils partagent, c’est un ensemble de règles qui
se construisent au fur et à mesure de l’action et qui peuvent être informelles : « une fois que
les gens agissent (enactment) ils produisent des résultats tangibles (cues) dans un contexte
social et cela les aide à découvrir rétrospectivement (retrospect) ce qui se passe et ce qui doit
être fait par la suite (identity enhancement) » (Weick, 1995 : 55).
Ces travaux nous permettent donc de comprendre que les connaissances se
constituent à partir d’actions collectives, elles-mêmes construites à partir d’un processus
d’élaboration de sens. Les connaissances se construisent « au fil de l’eau » dans un contexte
particulier. D’autres analyses vont se centrer sur ce collectif à travers l’étude de la « cognition
située ».

2.1.1.2 La cognition située.

Dans la perspective connexionniste, les connaissances émergent à partir des actes et


des comportements des individus. C’est une approche non « égocéphalocentrée » de la
cognition (Brassac et Grégori, 2003) qui remet en question la séparation entre l’objet et le
sujet, c’est-à-dire entre celui qui sait et ce qui est su. Pour Weick, les travaux en sciences
cognitives ont négligé l’influence qu’exerce le sujet sur l’objet : « il existe une influence
réciproque entre les sujets et les objets et non une influence à sens unique comme le laisse
entendre le modèle stimulus-réponse » (Weick, 1979 : 166). C’est pourquoi il est nécessaire de
comprendre cette influence mutuelle pour analyser avec finesse la nature des connaissances
organisationnelles.
Traiter la cognition organisationnelle du point de vue de son contexte socio-culturel
va ainsi permettre de préciser les relations entre les acteurs et l’organisation (Brown et
Duguid, 1991). Dans son ouvrage Cognition in Practice (1988), Jean Lave pose les bases de ce

90
principe de « cognition située » : « cognition observed in everyday practice is distributed –stretched
over and not divide among – mind, body, activity and culturally organized settings (which includes
other actors) » (Lave, 1988 : 1). Pour l’auteur, la connaissance n’est pas duale puisqu’elle est
encastrée dans un lieu d’apprentissage16. Dans son ouvrage, elle étudie comment les
pratiques des mathématiques et du calcul arithmétique s’opèrent de manière fort différente
entre un gérant de supermarché et des étudiants dans une salle d’école. La connaissance est
donc provisoire car attachée à ce lieu.
L’argument principal qui est alors avancé est que le savoir est inscrit au sein d’un
système culturel. Ce dernier va le contraindre dans ses pensées et dans ses actes : le contexte
et l’action sont donc concomitants. En conséquence, l’apprentissage est une compréhension
socialement construite qui émerge à la fois de la collaboration et de la structure dans lequel il
s’opère (Lave et Wenger, 1991). L’apprentissage organisationnel n’est plus analysé comme
une réponse à une information nouvelle mais comme une exploration de la pratique : c’est
un « apprentissage en organisant » (learning-in-organizing) (Gherardi et Nicolini, 2000).

2.1.1.3 Le rôle des pratiques sociales.

Dans cette logique, l’apprentissage et l’acte de connaître se comprennent comme la


participation à une pratique (Wenger, 1999 : 137). Morin définit la « pratique » comme «un
ensemble d’activités qui effectuent transformations, productions, performances, à partir
d’une compétence » (Morin, 1977 : 157). En d’autres termes, la pratique est ce que font les
individus dans leur travail quotidien. Cook et Brown définissent ainsi les pratiques comme
« les activités coordonnées des individus et des groupes d’individu dans leurs tâches
quotidiennes (‘real work’) telles qu’elles sont communiquées selon un contexte particulier »
(Cook et Brown, 1999 : 386-387).
Selon cette perspective, l’acte de connaître est inséparable de l’action : « practice
connects ‘knowing’ with ‘doing’ » (Gardner et al., 2000: 18). Ce qui signifie que les pratiques ne
peuvent être codifiées et réduites à des objets de connaissance : « quand les pratiques sont
définies comme des activités récurrentes et situées, elles ne peuvent pas être simplement
diffusées comme si elles étaient des objets statiques et stables » (Orlikowski, 2002: 253).
Puisque l’acte de connaître est inscrit dans les actions de l’individu, il est nécessaire
d’étudier ce dernier dans son quotidien, à la façon d’un anthropologue. C’est précisément ce

16
Notons que derrière cette conceptualisation de l’apprentissage se cache, selon nous, une position militante de la
part de Jean Lave qui souhaite « sortir des visions claustrophobes de la cognition en laboratoire » et étudier la
cognition dans la « vraie vie ».

91
que préconisent des auteurs comme Etienne Wenger ou Julian Orr. Dans son ouvrage Talking
about machines, an ethnography of a modern job (1996), Orr décrit avec une grande minutie le
travail des réparateurs de photocopieurs de l’entreprise Xerox. Il constate alors une
opposition perpétuelle entre les pratiques que les techniciens développent en réparant la
machine (la pratique non-canonique) et les connaissances codifiées à leur disposition dans le
manuel de réparation (la pratique canonique). Il en conclut que le savoir-faire du technicien
est ici plus utile pour réparer la machine que celui de l’ingénieur qui a pourtant mis au point
la machine. Ceci peut s’expliquer par les dégradations naturelles que subit le photocopieur
(soleil, humidité, poussière), altérations qui n’avaient pas été modélisées par les experts
chargés de rédiger le manuel de réparation. On comprend ici les limites inhérentes de la
codification des connaissances qui obligent le réparateur « à faire des arbitrages entre ses
représentations du problème et l’exigence de la situation » (Brown et Duguid, 1991 : 42).
Orr constate également que le réparateur est partie intégrante d’un contexte social : la
communauté professionnelle (‘occupational community’). Les réparateurs s’échangent des
trucs et astuces au cours de rassemblements et de rencontres. La connaissance
organisationnelle est donc socialement distribuée au travers du temps et de l’espace. Julian
Orr s’appuie ici sur la définition de la communauté professionnelle donnée par Van Maanen
et Barley (1984: 314-315): « les communautés professionnelles représentent des cultures de
travail dont les frontières sont déterminées par des individus qui partagent des identités et
des valeurs qui transcendent le cadre organisationnel classique ».
Ces communautés constituent peu à peu un ensemble d’artefacts permettant de
véhiculer les pratiques accumulées : « l’action quotidienne est basée sur l’utilisation
d’artefacts discursifs et symboliques qui incarnent non seulement la pratique mais également
l’histoire et les relations sociales qui ont permis la création de cet artefact » (Ciborra and
Lanzara, 1990 : 231). Du latin artis facta, effets de l'art, l’artefact peut se définir comme « un
ensemble d’éléments ayant une forme matérielle durable contenant des connaissances »
(Groleau, 2002 : 21). Nous verrons que l’artefact joue un rôle important dans la communauté.

En axant leur analyse sur la pratique sociale, les auteurs ne font pas de séparation entre le
sujet et l’objet. La pratique implique de savoir comment être compétent dans une action
ancrée dans un contexte bien défini. La connaissance apparaît alors comme dynamique,
relationnelle, socialement enracinée et provisoire.

Dans la partie suivante, nous allons étudier le processus de socialisation à l’œuvre


dans un lieu particulier : la communauté de pratique.

92
2.1.2 Le processus de socialisation : participation et réification

Pour construire des connaissances, les individus doivent interagir dans un lieu qui s’y
prête. Les organisations sont alors analysées comme le lieu d’une cognition en construction
et peuvent alors apparaître comme « une collection de communautés de travailleurs
spécialisés » (Wenger, 1999 : 127).
A partir de l’étude d’un service de gestion des dossiers de remboursement dans une
entreprise américaine d’assurance maladie, Etienne Wenger (1999) constate que les employés
doivent construire en permanence des solutions locales aux problèmes rencontrés. En
surface, le travail semble routinier et perpétuellement identique mais il observe que les
agents résolvent le plus souvent des situations ambiguës et complexes (comment traiter telle
demande, où classer tel dossier, etc.) en s’engageant dans des interactions informelles avec
leurs collègues, c’est-à-dire dans une pratique sociale. La pratique est donc le lieu où se
négocient les significations liées à l’action, une signification étant « ce qui n’existe ni en nous,
ni dans le monde mais qui est inclus dans notre relation au monde » (Wenger, 1999 : 54).
Cette négociation va se constituer en deux temps : la participation (2.1.2.1) et la
réification (2.1.2.2). La participation va consister à impliquer les acteurs dans la vie sociale.
La réification va permettre de créer des points de focalisation autour desquels la négociation
de sens peut s’organiser. L’examen de ce processus de socialisation nous semble essentiel
pour comprendre avec acuité les mécanismes générant des connaissances organisationnelles.

2.1.2.1 La participation.

Si la connaissance est inextricablement liée à l’action dans un contexte socio-culturel,


la participation de l’individu est obligatoire. Participer à une pratique revient à apprendre la
logique de la pratique. La participation est liée à la réflexivité, c'est-à-dire le lien entre l’acte
de connaître dans la pratique et l’acte de connaître une pratique (Gherardi et Nicolini, 2000).
Prendre part à une pratique est le moyen d’acquérir la connaissance en action, mais
également de changer et perpétuer cette connaissance (Orlikowski, 2002 ; Berthon, 2004). Elle
est étroitement liée à la construction de l’identité de l’acteur : « un des attributs de la
participation est « l’identité participante », une identité constituée à travers des relations
d’échange » (Wenger, 1999 : 56). C’est en ‘participant’ que l’on accède à la fois à la pratique

93
mais également en adoptant l’attitude à avoir dans la communauté17 : l’apprenant assimile
les codes de la communauté et ils se comportent comme les autres membres.
Cette participation est décrite comme « périphérique et légitime » (Lave et Wenger,
1991 : 53). Elle englobe l’activité de l’apprenant, reconnu comme légitime par ses pairs, mais
dont la particularité est qu’elle est moins intensive qu’un expert. L’apprentissage se
manifeste par un changement de participation, qui devient progressivement plus centrale.
Cette participation est alors considérée par Lave et Wenger (1991 : 35) comme « un
descripteur de l’engagement dans la pratique sociale ».
Pour Etienne Wenger, le terme de « participation » (littéralement le fait de prendre
part à quelque chose) décrit l’expérience des acteurs qui s’engagent activement dans des
projets sociaux. Cette participation est jugée comme « périphérique » puisque les individus
ne viennent pas dans une entreprise pour échanger des connaissances mais pour y travailler
et gagner leur vie (Wenger, 1999).
Ce principe de participation nous permet de comprendre que plus la pratique est
partagée (tant quantitativement que qualitativement), plus la connaissance circulera et se
modifiera. Une implication forte est la suivante : la fluidité d’un réseau social dépend du
degré d’acceptation de la pratique, c'est-à-dire de la capacité des acteurs à en négocier le
sens. Cela requiert donc une certaine forme de volonté ou d’envie de passer du temps avec
les autres membres de la communauté. Mais cette volonté peut s’étioler voire disparaître si le
processus de réification est absent.

2.1.2.2 La réification.

La réification est un processus qui consiste à donner forme à l’expérience en


produisant des artefacts qui la figent. En d’autres termes, la réification permet d’incarner les
significations négociées par les acteurs dans des objets, des documents ou des règles. Sans
une pause, sans un point de focalisation, la négociation de sens ne peut se faire puisqu’elle
aura tendance à être oubliée (Wenger, 1999). Orr (1996) a constaté que le moyen de réification
le plus courant était le discours. Le récit, c'est-à-dire un discours organisé selon des règles
précises, permet non seulement de véhiculer et de réifier les connaissances mais également
de glorifier ses propres compétences de technicien : « les techniciens sont à la fois une

17
« C’est en forgeant que l’on devient forgeron » indique un proverbe populaire français. Dans la logique de la
communauté de pratique, c’est en « forgeant avec des forgerons que l’on devient forgeron ».

94
communauté et une collection d’individus et leurs histoires permettent de célébrer les actes
de ces individus, leur travail et leurs identités personnelles et collectives » (Orr, 1996 : 143).
Ces histoires circulent alors très rapidement entre les membres de la communauté et
constituent le « répertoire commun » (Brown et Duguid, 1991 : 44). Ce répertoire contribue à
construire une identité propre à la communauté : les techniciens sont à la fois les
pourvoyeurs d’histoires mais ils sont également les seuls à pouvoir en saisir toute la
signification (Orr, 1996). Ce constat est également relayé par Bechky (2003) quand il désigne
ces récits comme des « objets frontières » qui permettent d’intégrer ou non les individus à la
communauté. Carlile (2002) considère que ces « objets frontières » sont d’une triple nature :
syntactique, sémantique et pragmatique. Ces objets constituent un terrain cognitif qui peut à
la fois exclure et inclure des membres dans la communauté.

Il existe donc un équilibre entre la participation et la réification (Figure 9).

Figure 9. La dualité de la participation et de la réification (Wenger, 1999 : 63)

Signification

PARTICIPATION Formes
Documents
Agir
Expérience Instruments Monde
Interagir
Projection
Vivre
Appartenir REIFICATION

Négociation

L’intérêt de ce modèle est de montrer que la participation et la réification permettent


de construire des connaissances. Cette dualité crée une tension dynamique et
complémentaire : les limites de la réification sont compensées par les avantages de la
participation et vice-versa (Chanal, 2000). L’Encadré 3 présente une illustration de ce
processus inspirée de notre expérience personnelle.

95
Encadré 3. Exemple de participation-réification
Prenons un exemple simple : la participation à une réunion avec des collègues. Au cours de
ce rassemblement, des discussions ont lieu pour négocier le partage des tâches. Pour se
remémorer le contenu des échanges lors de la réunion, nous pouvons nous appuyer sur nos
notes prises au fil de l’eau. Ces notes ne représenteront qu’une infime partie du contenu des
discussions mais en cas de problème à propos d’un sujet abordé lors la réunion, et qui peut
apparaître ultérieurement, elles seront utiles pour résoudre le conflit et renégocier les
significations données lors de la réunion. En cas de non-participation à cette réunion, cette
renégociation est d’autant plus difficile.

Un bon équilibrage est donc nécessaire : si la participation l’emporte sur la réification,


il peut manquer de matériel de référence ; si c’est la réification qui prévaut, il peut manquer
d’opportunités de construire de nouvelles significations (Chanal, 2000).

En conclusion, le processus de socialisation (participation-réification) permet de


comprendre l’enchevêtrement entre la connaissance et l’apprentissage, reflété par la
notion de pratique. Cet enchevêtrement est illustré dans le modèle de Wenger selon
lequel la participation et la réification fonctionnent de pair. La pratique permet donc à la
fois d’agir (compétence) mais également d’être (identité). C’est une explication
complémentaire et pertinente des difficultés inhérentes à la codification du savoir.

Ce processus de socialisation s’opère dans des lieux précis qui permettent à la


pratique d’être mémorisée et transférée entre les individus.

2.1.3 Les lieux de construction

Nous avons vu que les connaissances organisationnelles peuvent avoir une durée de
vie limitée à l’action de l’individu : une pratique peut se détruire. Il existe des lieux
permettant aux individus de construire et de préserver leur savoir à plus ou moins long
terme. Ces lieux peuvent être temporaires. Nous en étudions deux en particulier : l’équipe
projet (2.1.3.1) et la communauté (2.1.3.2).

2.1.3.1 L’équipe projet.

On appelle « projet » l'ensemble des actions à entreprendre afin de répondre à un


besoin défini dans des délais fixés. Le mot « projet » trouve ses racines dans le mot latin
projectum, « jeter quelque chose vers l'avant » dont le préfixe pro- signifie « qui précède dans

96
le temps » et le radical jacere signifie « jeter ». Ainsi, le mot «projet» voulait initialement dire
« quelque chose qui vient avant que le reste ne soit fait ».

Le projet représente aujourd’hui un mode d’organisation généralisé dans les


entreprises, un mode qui peut être qualifié de transversal (Allouche et Huault, 1998) dans la
mesure où l’objectif est de mettre en contact direct et en situation de responsabilité conjointe
toutes les compétences qui, dans le système « traditionnel », interviendraient séparément ou
successivement (Segrestin, 2004). En rassemblant des compétences complémentaires, le
projet permet à la fois la diffusion de connaissances explicites, faciles à partager car aisément
codifiables, mais il constitue aussi l’un des moyens les plus efficaces pour diffuser de la
connaissance fortement tacite car il permet d’établir une relation plus proche et plus
interactive avec celui qui la possède (von Krogh et Roos, 1996).
Pour établir une proximité entre les membres du projet, il est nécessaire de créer une
équipe. L'équipe peut être considérée comme un système où l'ensemble des membres
collabore à un même travail et est lié par une interdépendance. De manière encore plus
significative, ce qui distingue l'équipe de tout autre groupe, c'est la dimension de l'action où
plusieurs individus collaborent à la poursuite d'objectifs communs sous la direction d'un
leadership (Schein, 1971). Lors du déroulement d’un projet, des objectifs et des délais sont
assignés aux membres de l’équipe. Le projet émerge sur base d’une initiative hiérarchique
(un directeur ou un manager) et existe pour une durée restreinte connue à l’avance (six mois,
un an, trois ans, etc.).

Mettre en place une équipe projet consiste donc à valoriser toute la diversité des
connaissances, des compétences et des idées qui se trouvent dans une collectivité et
d'organiser cette diversité. Les relations coopératives qui s’y développent représentent une
opportunité temporaire de diffusion, de création et de capitalisation de connaissances (von
Krogh et Roos, 1996). Dans une équipe projet, la performance n’est plus seulement liée au
niveau de compétences de chaque individu, elle dépendrait étroitement de la manière dont
les équipes arrivent à se coordonner (Aubret et al, 2005). La définition des rôles est ici
primordiale puisqu'elle répond à un besoin de reconnaissance, de respect, de valorisation du
métier et de positionnement de chacun au sein de l'équipe de travail afin d'être motivé. Cette
définition permet de savoir « qui fait quoi » et de valoriser les individualités : « appartenir à
une équipe projet, c’est aussi éprouver le sentiment que ceux qui n’en font pas partie
considèrent que vous en êtes bien membre » (Garel, 2003 : 79).

97
Mais cette répartition est temporaire : « un projet est un système social créé à partir de
rien, avec des gens pris ici et là et mis dans une “bulle” : ils savent bien que leur avenir ne
sera pas là, et très vite, il faut que le management organise de la solidarité et de la confiance »
(Midler, 1995 : 75). Cela est problématique en raison des jeux de pouvoir entre les acteurs du
projet : « la gestion de projet tient donc à un judicieux équilibre entre deux principes :
rechercher les compromis entre les acteurs et accepter de ce fait que le projet évolue sous
leurs pressions, mais d’un autre côté, pouvoir affirmer une identité autonome, pour que le
projet ne devienne pas l’otage des stratégies des intervenants » (Midler, 1995 : 83).

Dans son ouvrage Lost Knowledge (2004), David DeLong montre que le projet peut être
destructeur de savoir en raison d’un manque de réification. En axant son analyse sur les
départs en retraite des experts de la NASA (l’agence spatiale américaine), il estime que les
pertes de savoir vont coûter des dizaines de milliards de dollars à cette organisation si elle
souhaite renvoyer un homme sur la lune. Il cite la confession d’un responsable de
l’entreprise : « si nous voulons y retourner [sur la lune], nous devrons tout recommencer à
zéro parce que toute la connaissance accumulée a disparu. On a mis neuf ans à envoyer un
homme sur la lune dans les années soixante. Cela nous prendrait aujourd’hui autant de
temps et nous coûterait encore plus cher » (DeLong, 2004 : 11-12).
L’auteur avance deux explications : le départ à la retraite de la totalité des experts qui
ont travaillé sur le lanceur Saturn 5, la seule fusée jamais conçue pour un module lunaire et
dont la production a été abandonnée à la fin du projet Apollo, et l’absence totale de
réification de cette communauté d’experts dans des documents, des récits ou du tutorat. Ce
passage de témoin est d’autant plus compliqué que le projet s’articule autour de la mise en
commun de compétences différentes : « les problèmes de communication entre
professionnels ne viennent pas de ce que chacun ne connaît pas le métier de l’autre, mais très
généralement des limites rencontrées dans la rationalisation de son propre point de vue »
(Midler, 1995 : 77). C’est pourquoi la réification des connaissances développées au cours d’un
projet représente un enjeu majeur, enjeu qui se heurte à l’irréductibilité des savoirs collectifs
qui y sont mobilisés.

2.1.3.2 La communauté

Au contraire du projet, la communauté est garante de l’existence et de la perpétuation


de la pratique. Une communauté peut se définir comme « un groupe de personnes vivant

98
ensemble et poursuivant des buts communs » et comme « un groupe social ayant une
identité et des caractères communs » (Le Robert, 2007). Ce mot vient également du latin
communitas où il signifie déjà « communauté, relation, sociabilité ».

Dans une entreprise, il peut exister différentes communautés : une communauté


épistémique où les connaissances sont construites volontairement (Knorr-Cetina, 1981), une
communauté de pratique où les connaissances le sont involontairement (Brown et Duguid,
1991 ; Lave et Wenger, 1991 ; Wenger, 1999) ou encore une communauté professionnelle
(Van Maanen et Barley, 1996 ; Orr, 1996 ; Bechky, 2003). Celle qui nous intéresse ici est la
communauté de pratique dans la mesure où elle devenue un véritable « outil » de
management des connaissances (Fox, 2000 ; Vaast, 2001). La communauté de pratique est
définie comme « un groupe de personnes qui partagent une préoccupation, un ensemble de
problèmes, ou une passion à propos d’un sujet et qui approfondissent leur connaissance et
leur expertise dans ce domaine en interagissant de manière durable » (Wenger et al, 2002 : 4).

Dans une entreprise, l’existence d’une communauté de pratique soulève des


problèmes pour le management. Leurs membres peuvent faire preuve de
“communautarisme” et exclure une population non désirée, voire l’organisation toute
entière. Comme le constate Orr : « la communauté professionnelle partage quelques valeurs
avec l’entreprise [Xerox]; mais les techniciens vont avant tout partager avec un autre
technicien à l’autre bout du pays plutôt qu’avec un commercial de son district » (Orr, 1996:
76). Il conclut ses observations des communautés professionnelles sur ce constat : « les
communautés professionnelles peuvent représenter des barrières aux évolutions du travail
exigées par le management, en particulier si ce dernier cherche à déqualifier les tâches que
les praticiens accomplissent » (Orr, 1996 : 151). Il s’agit donc de lieux interstitiels
d’apprentissage (Lave et Wenger, 1991) qui se développent en marge de l’organisation
puisque les membres qui la composent ne travaillent pas nécessairement ensemble, dans la
même équipe (Wenger, 1999).

Les communautés de pratique sont différentes des communautés


professionnelles puisqu’elles sont censées être des lieux de négociation des pratiques
organisationnelles si elles répondent aux trois critères énoncés par Wenger (1999) :
engagement mutuel, entreprise commune et répertoire partagé. L’entreprise commune est le
résultat de l’engagement mutuel. Le fait de négocier des actions communes crée des relations

99
de responsabilité mutuelle entre les personnes impliquées. Cette approche n’est pas sans
rappeler le mécanisme du don/contre-don analysé par l’ethnologue français Marcel Mauss :
faire un don, c’est créer un lien social dont l’intérêt est d’entretenir la relation avec celui qui
reçoit le don et d’échanger avec une certaine confiance.

Pour Wenger, l’engagement commun provient de la complémentarité des


compétences des individus qui la composent, et sur leur capacité à “connecter” efficacement
leurs connaissances avec celles des autres. L’appartenance à une communauté n’est utile que
si une complémentarité existe. Il peut s’agir d’une personne sans expérience (autrement dit
un apprenti) qui va apprendre d’une autre plus expérimentée. La légitimité de l’un par
rapport à l’entre provient de sa maîtrise de la pratique en question. Ce sont les pairs (c'est-à-
dire les membres censés maîtriser le mieux la pratique) qui vont alors déterminer les règles à
suivre.

Enfin l’existence d’un répertoire partagé va permettre la négociation de significations.


Ce répertoire perpétue le fonctionnement de la communauté et représente une ressource
importante sur laquelle les membres peuvent s’appuyer. Il peut s’agir de mots, de concepts,
d’histoires, de routines, d’images, en somme tout ce qui a été réifié par les membres de la
communauté. Conformément au processus de réification-participation, ces éléments ne sont
pas stabilisés et évoluent en même temps que la structure : « dire que l’apprentissage est ce
qui donne naissance à une communauté de pratique revient à dire que l’apprentissage est
une source de structure sociale. Mais c’est une structure émergente » (Wenger, 1999 : 96).

En conclusion, les connaissances se construisent temporairement dans le cadre d’équipes


projet ou se perpétuent au sein d’une communauté. Ces deux formes organisationnelles
peuvent constituer des lieux privilégiés pour construire des connaissances entre individus
et en faire bénéficier l’organisation sous certaines conditions : l’existence d’un répertoire
partagé, d’un engagement mutuel et d’une entreprise commune. La gestion des
connaissances va alors consister à piloter ce réseau social.

Le fait de pouvoir piloter cette construction des connaissances est une question de
première importance pour le management. C’est pourquoi certains dirigeants d’entreprise
vont « outiller » et « cultiver » des réseaux sociaux auto-entretenus. Nous allons, dans la
partie suivante, étudier ces nouveaux outils de socialisation.

100
2.2 Les outils de construction des connaissances
organisationnelles

Si nous adoptons l’idée selon laquelle les connaissances organisationnelles sont


construites dans des relations sociales où s’opèrent des ajustements complexes et
ininterrompus (Berthon, 2004), les questions structurelles et culturelles deviennent
essentielles pour les praticiens. Au contraire de l’approche précédente, d’autres recherches
en sciences de gestion mettent en avant le changement des comportements au sein d'une
culture (Ruggles, 1998 ; McDermott, 1999 ; Gupta & Govindarajan, 2000 ; Soenen, 2006) et
d'une structure (Grant, 1996 ; Wenger et al., 2002) favorables à la gestion des connaissances.

Avec un point de vue constructiviste sur les connaissances organisationnelles, les


auteurs mettent ici en exergue l’importance des réseaux sociaux. Les consultants et les
praticiens se réclamant de la gestion des connaissances présentent alors les communautés de
pratique comme la réponse la plus adéquate aux difficultés rencontrées par les entreprises
déjà engagées dans la mise en place de systèmes de gestion des connaissances. Cette forme
particulière et institutionnalisée de réseaux intra-organisationnels s’est donc développée au
sein de nombreuses entreprises telles que Siemens, DaimlerChrysler, IBM, etc.

Dans cette partie, nous abordons différentes formes de réseaux intra-organisationnels


(2.2.1) pour aboutir à l’étude de nouvelles structures de socialisation : les communautés de
pratique (2.2.2). Nous concluons sur les facteurs de succès ou d’échecs permettant leur
déploiement et leur pilotage dans l’entreprise (2.2.3).

2.2.1 Les réseaux sociaux, lieux de la gestion passive des connaissances

Inversement à l’approche basée sur les systèmes de gestion des connaissances, les
réseaux sociaux permettent à une entreprise de laisser son management des savoirs
s’autogérer : « les organisations qui dépendent fortement du savoir qu’elles génèrent doivent
abandonner les formes classiques de coordination basée sur les règles et la hiérarchie et créer
des systèmes de collaboration auto-entretenue » (Blackler et al., 1999 : 80). Ainsi, dans un
réseau social intra-organisationnel, les employés partagent un contexte social et

101
organisationnel, créant de manière informelle des liens personnels qui favorisent l’échange
entre les unités (Tsai, 2001).
Un réseau social est une structure définie par des relations entre des individus. Le
terme « réseau » provient du latin « retis » signifiant un entrelacement de lignes, c'est-à-dire
un tissu. Les réseaux sont à la fois un mode de gouvernance (une forme hybride, un maillage
entre le marché et la hiérarchie) et une logique d’organisation (un tissu reliant les individus)
(Ferrary et Pesqueux, 2006). Il s’agit alors de considérer davantage l’interaction sociale, la
façon dont les acteurs vivent l’échange, plutôt que la spécificité du cadre institutionnel sous-
tendant ces échanges (Josserand, 2007 : 96).
Le réseau qualifie alors la nature de la relation entre les individus en fonction du
nombre de liens qui y sont développés. Cette problématique a largement été abordée par le
sociologue Mark Granovetter (1973, 1985) dans son étude des liens interpersonnels : « la
force des liens est une combinaison (probablement linéaire) de la quantité de temps, de
l’intensité émotionnelle, de l’intimité (la confiance mutuelle) et des services réciproques qui
caractérisent ce lien » (Granovetter et Swedberg, 1992 : 46).

Cette analyse part de l’idée que les individus entretiennent une multitude de liens
mais qu’ils ne sont pas tous de la même nature et n’apportent pas les mêmes bénéfices. Ces
liens peuvent être forts ou faibles. Les liens forts autour d’un individu forment un réseau
dense (ex. les amis, la famille) et les liens faibles un réseau lâche (ex. une personne rencontrée
une ou deux fois). Liens forts et liens faibles sont complémentaires. Alors que les liens faibles
donnent accès aux connaissances disponibles en dehors du cercle social familier, les liens
forts sont sources de confiance et procurent une forme de sécurité. L’intensité des liens au
sein du réseau social modifie donc la capacité des individus à partager leur savoir (Tsai,
2001).

Nous allons voir dans cette partie que différents réseaux sociaux peuvent exister au
sein d’une entreprise : le réseau social de collaboration (2.2.1.1), le réseau social aléatoire
(2.2.1.2) et le réseau social par attachement préférentiel (2.2.1.3).

2.2.1.1 Le réseau social de collaboration.

Si l’on considère que les liens entre personnes sont denses et que tout le monde
connaît tout le monde, alors le nombre de liens sociaux qui s’établit entre une personne et les
autres est égal au nombre total de personnes moins une (Figure 10).

102
Figure 10. Le réseau social de collaboration

Nombre de
personnes

Nombre de
liens par
personne

Dans ce cas, la hiérarchie est totalement absente. Il s’agit d’un réseau de liens forts.
Les liens forts sont des liens interactifs nécessaires pour l’échange des connaissances : un
individu A ayant un lien fort avec un individu B aura nécessairement un lien avec C si le lien
entre B et C est fort. Le réseau social de collaboration le plus naturel est celui de la famille,
chaque membre se sentant solidaire par rapport à l’autre. Ceci est dû à l’existence d’un
capital social affectif agissant comme une « colle sociologique » (Putnam, 2000). Le sentiment
de confiance agit alors comme un « lubrifiant des rapports sociaux » (Arrow, 1974).
L’inconvénient est que le réseau est relativement fermé. Dans le cas d’une entreprise,
ce type de réseau est très difficile à obtenir en raison de l’existence d’une hiérarchie entre ses
membres. Une autre difficulté est l’absence de lien social a priori : les membres d’une
entreprise ne se connaissent pas avant de collaborer, ce qui n’est pas le cas pour la famille où
des liens sociaux se développent avec l’âge.
Néanmoins, ce type de réseau peut se développer naturellement et former une
« clique » (Burt, 1992) en raison de l’encastrement des acteurs dans certaines pratiques
(Granovetter, 1973, 1985 ; Brown et Duguid, 1991). La transitivité des liens forts (A connaît B,
B connaît C donc A et C se connaissent) justifie alors la constitution d’une communauté de
pratique au sein de l’entreprise. Cette dernière forme alors un groupe d’individus reliés par
des liens forts où la confiance et la réciprocité permettent de maintenir le processus de
socialisation (participation/réification).

103
2.2.1.2 Le réseau social aléatoire.

Si l’on considère maintenant que les liens entre les personnes sont inexistants a priori
et qu’ils s’établissent au hasard des rencontres et des discussions dans un environnement
stable, le nombre de liens établis entre les personnes suivra une distribution normale : la loi
de Poisson (Figure 11). Dans ce cas, le nombre de liens s’établit autour d’une moyenne (le
centre de la courbe) : certains individus vont beaucoup échanger, d’autres peu. Il y a
coexistence de liens faibles et de liens forts. Ainsi, en accroissant la potentialité de rencontre
entre deux personnes, on augmente la chance que ces deux personnes créent des liens entre
elles.

Figure 11. Le réseau social aléatoire

Nombre de
personnes

Nombre de
liens par
personne

Ces personnes développent alors leur capital social individuel (Burt, 1992, Portes,
1998) mais également le capital social collectif (Nahapiet et Ghoshal, 1998). Le capital social
se compose des aspects d’une structure sociale qui facilitent les interventions des acteurs au
sein de cette structure (Coleman, 1988). Le sociologue américain James Coleman (1988)
identifie plusieurs formes de capital social18 : la confiance, les obligations et les attentes, les
normes et les sanctions, le potentiel de l’information, les rapports d’autorité, les

18
Le sociologue français Pierre Bourdieu le définit lui comme « un ensemble de ressources actuelles ou
potentielles liées à la possession d’un réseau durable de relations plus ou moins institutionnalisées
d’interconnaissance ou d’inter reconnaissance ; ou en d’autres termes, à l’appartenance à un groupe, comme
ensemble d’agents qui ne sont pas seulement dotés de propriétés communes (susceptibles d’être perçues par
l’observateur, par les autres ou par eux-mêmes) mais aussi unis par des liaisons permanentes et utiles »
(Bourdieu, 1980 : 2).

104
organisations sociales et les réseaux sociaux. Il apporte deux bénéfices majeurs à son
détenteur : l’amélioration de la circulation de l’information et la bienveillance des autres à
l’égard du détenteur.
Ainsi, le capital social est un actif pour les individus : plus ils connaissent de
personnes, plus ils sont utiles au réseau (Putnam, 2000). Il s’agit alors d’un capital social non
plus affectif mais relationnel. C’est pourquoi Nahapiet et Ghoshal définissent le capital social
comme « la somme des ressources actuelles et potentielles encastrées dans un réseau,
disponible au travers et dérivées du réseau de relations possédées par un individu ou unité
sociale […] permettant la combinaison et l’échange du capital intellectuel » (Nahapiet et
Ghoshal, 1998 : 250).
Le réseau social aléatoire peut donc s’auto-entretenir si ses membres partagent un
intérêt commun. C’est le cas des communautés épistémiques, définies comme un groupe
d’agents partageant un ensemble commun de sujets, concepts, problèmes et partageant un
but commun de création de connaissance (Haas, 1992). Dans ce cas, la transitivité des liens
sociaux est plus difficile à obtenir. Si les liens qui unissent A et B, d’une part, et B et C d’autre
part, sont faibles alors, il se peut que le lien interpersonnel entre A et C ne se matérialise pas.
La mise en relation entre A et C dépend donc de la bonne volonté de B ou de l’intérêt
commun perçu entre A et C par B. C’est précisément ce que démontre Morten Hansen (1999 ;
2002) dans ses études sur la relation entre le transfert de connaissances et la performance
d’équipes. Cette dernière augmente au fur et à mesure que les liens sociaux s’affermissent et
que des connaissances tacites s’échangent. Il constate également que les liens forts facilitent
le transfert des connaissances tacites plus qu’ils ne facilitent le transfert des connaissances
codifiées.
Selon Hansen (2002), dans un réseau social intra-organisationnel les liens faibles
doivent être mobilisés pour transférer des connaissances codifiées et les liens forts doivent
être réservés à des transferts plus complexes. Reagans et McEvily (2003) ont nuancé ces
résultats en montrant que la cohérence du réseau et la diversité des connaissances
disponibles augmentent les flux de transfert. Cela signifie que l’entreprise doit peser son
investissement dans le développement de liens forts entre les personnes : elle doit mettre en
rapport le type de connaissances transférées avec le type de liens mobilisées. Les
connaissances codifiées doivent être mobilisées au sein de réseaux sociaux à liens faibles
(peu de liens)19 car ils exigent moins d’efforts entre A et B alors que les connaissances non

19
Vers la gauche de la Figure 11.

105
codifiables doivent l’être dans des réseaux à liens forts20 car ils exigent plus d’efforts entre A
et B (Reagans et McEvily, 2003).
Dans le cas d’un réseau social aléatoire, différentes communautés peuvent également
coexister sans pour autant rentrer en contact (Figure 12). Sur le schéma ci-dessous, A, B et C
se connaissent et échangent des savoirs. D, E et F également. Pour autant C et D se
connaissent vaguement et ils ont développé des liens faibles. Ces liens faibles vont alors
permettre de mettre en relation les deux réseaux et favoriser l’émergence de la diversité entre
les deux réseaux : « les liens faibles ont plus de chance d’unir les membres de différentes
cliques que les liens forts que l’on trouve en général à l’intérieur de ces cliques »
(Granovetter, 1985 : 481).

Figure 12. Le trou structurel : coexistence de différentes communautés

A B

C D E

Les liens faibles permettent donc d’avoir accès à des savoirs qui sont différents de
ceux échangés dans le « réseau à portée de main » (Hansen, 2002). L’absence de pont entre
deux réseaux sociaux a donné lieu à de nombreuses études de Ronald Burt (1992) sur ce qu’il
appelle les « trous structuraux ». Plus les trous structuraux sont nombreux, plus la diversité
des savoirs est importante. Etre le point de passage entre deux trous structuraux (C et D sur
le schéma) permet de bénéficier d’informations plus nombreuses et plus variées. Etre ce
point de passage permet également d’acquérir ces informations plus rapidement que les
autres membres (A, B, E et F). Ainsi, plus il existe de trous structuraux, plus la nécessité de
connecter les différentes communautés est importante.
On peut en conclure que le gestionnaire des connaissances doit donc s’attacher à créer
des ponts entre les différentes communautés pour assurer la variété et le renouvellement des
pratiques.

20
Vers la droite de la Figure 12.

106
2.2.1.3 Le réseau social par attachement préférentiel.

Dans le cas du réseau social par attachement préférentiel (Barabasi et Albert, 1999),
les individus créent des liens avec ceux qu’ils affectionnent. Formellement, l’attachement
préférentiel est la « propension pour un agent de participer à une interaction avec un autre
agent en fonction de certaines des propriétés de cet agent» (Barabasi et Albert, 1999 : 509). Le
nombre de liens décroît en fonction du nombre de personnes présentes dans leur réseau
(Figure 13). Inversement, le nombre de liens par personne augmente au fur et à mesure que
le nombre de personnes diminue. Ce mouvement peut se résumer par le célèbre dicton « qui
se ressemble s’assemble » (en anglais « bird of a feather flocks together »).

Figure 13. Le réseau social par attachement préférentiel

Nombre de
personnes

Nombre de
liens par
personne

Les individus fonctionnent ici par « homophilie » (« homophily ») (McPherson et al.,


2001) : « les réseaux personnels sont homogènes du fait de facteurs sociologiques,
démographiques, comportementaux et personnels. L’homophilie limite les réseaux sociaux
des individus et détermine les connaissances qu’ils vont partager, les attitudes qu’ils vont
avoir et les interactions qu’ils vont vivre» (McPherson et al., 2001 : 415). C’est donc le
sentiment de partager une même identité qui fonde le réseau social (Soenen, 2006).

107
Dans le cas du réseau social par attachement préférentiel, la variété des savoirs est
difficile à obtenir : dans l’entreprise les personnes confrontées à un problème vont avoir
tendance à contacter toujours les mêmes personnes. Ceci peut conduire à un
appauvrissement du capital social. Les liens sont ici très forts mais en très petit nombre. Les
liens faibles, en revanche, sont inexistants ce qui a pour effet de réduire la coordination entre
différents réseaux sociaux. Le phénomène de clique est ici porté à son paroxysme et le
communautarisme peut alors se produire. L’exigence d’assimilation des membres suit des
règles et un modèle équivalent pour tous. Les individus participant au réseau sont alors
sélectionnés ou exclus en fonction des règles du réseau social. C’est le cas des clubs ou des
cercles où les membres doivent faire leur preuve pour accéder à la communauté.

En conclusion, les entreprises sont caractérisées par l’existence de réseaux sociaux


informels porteurs de connaissances. L’enjeu pour les praticiens de la gestion des
connaissances est de reconnaître le rôle de ces réseaux dans la circulation des savoirs et de
favoriser leur émergence. Ainsi, une communauté de pratique est constituée par
l’existence de liens sociaux entre des individus exerçant une même pratique autour d’un
système commun de valeurs. Ces liens doivent à la fois être forts (confiance mutuelle,
pratique partagée) et faibles (intérêts communs) pour assurer la richesse des échanges au
sein du réseau social.
L’existence ou l’absence de liens a pour effet la déconnexion entre différents réseaux voire
l’exclusion de membres non affiliés. Ces réseaux sociaux posent donc la question de leur
pilotage par l’entreprise. C’est pourquoi une nouvelle structure de socialisation telle que
la communauté de pratique apparaît aujourd’hui comme une solution aux différents
enjeux de la gestion des connaissances.

Après avoir affirmé l’existence de différents réseaux sociaux et mis en lumière leurs
apports et leurs limites, nous allons étudier une forme spécifique de réseau : la communauté
de pratique.

2.2.2 Les nouvelles structures de socialisation

Le passage de l’identification d’un groupe d’individus isolés ayant des pratiques


similaires à une communauté de pratique relève de la responsabilité du management. En
écho aux travaux de Brown et Duguid (1991) et surtout à ceux du consultant Etienne Wenger

108
(1999), la communauté de pratique est apparue comme un outil de socialisation idéal pour
les praticiens censés gérer le savoir de leur entreprise.
Elle correspond en effet à un espace émergent où l’échange des connaissances peut
s’effectuer en dehors des contraintes organisationnelles (Wenger, 1999). Il existe donc divers
niveaux de relations entre la communauté et l’organisation à laquelle elle est rattachée
(Tableau 11).

Tableau 11. Les relations entre la communauté et l'organisation officielle (Wenger et al., 2002 : 28)
Niveau d’acceptation Définition Problématique pour le management
Non reconnue Elle est invisible aux yeux de Elle est difficile à identifier, à contrôler
l’organisation et à valoriser
En marge Elle est visible à un cercle d’initiés Elle est difficile à légitimer car elle
reste cachée par ses membres
Légitimée Elle est considérée comme une Elle suscite des interrogations et
entité visible développe la curiosité des non-
membres
Aidée Elle reçoit des ressources de la part Elle doit être encadrée et les ressources
de l’entreprise allouées doivent être contrôlées
Institutionnalisée Elle est totalement intégrée dans le Les objectifs de la communauté sont
fonctionnement de l’entreprise clairs et correspondent à ceux de
l’entreprise

Toute la difficulté consiste alors à piloter un réseau social : comment cultiver ces
communautés sans les tuer (Wenger et al., 2002) ? Etienne Wenger, en collaboration avec
William Snyder et Richard McDermott, tente d’apporter une réponse à cette question
cruciale dans un guide managérial à l’attention des praticiens : « Cultivating Communities of
Practice » (2002). La publication d’un tel ouvrage nous fait penser que les communautés de
pratique s’instrumentalisent (Fox, 2000 ; Soenen, 2006) et qu’elles deviennent elles-mêmes
des objets de gestion.

Elles soulèvent donc des difficultés pratiques pour les mettre en place dans les
entreprises (Josserand et Saint-Léger, 2004 ; Dameron et Josserand, 2007). Dès lors, la
question que se posent les praticiens de la gestion des connaissances est la suivante :
comment développer une communauté de pratique ? Nous allons étudier ici deux
dimensions permettant de répondre à cette question : une dimension structurelle (2.2.2.1) et
une dimension temporelle (2.2.2.2).

109
2.2.2.1 L’architecture d’une communauté de pratique.

Une communauté de pratique, au contraire d’un réseau social (qui n’est pas une
structure formalisée), est une structure à la marge de l’organigramme de l’entreprise qui
regroupe des individus liés à leur pratique professionnelle (Wenger, 1999). Qu’elle soit
formelle ou pas, une communauté de pratique est auto-organisée et ses membres sont
recrutés par cooptation (Wenger et Snyder, 2000). Elle possède donc une architecture qui lui
est propre et qui évolue (nous le verrons par la suite) : non seulement sa structure évolue
mais également son contenu. Par un processus de participation-réification se constituent
progressivement un répertoire d’actions commun et un sens de l’action partagé. La
constitution de ce répertoire conduit à l’identification graduelle des membres de leur
communauté qui devient un élément de leur identité sociale (Soenen, 2006).

Pour le salarié, l’intérêt de partager son savoir au sein d’une communauté est de
s’inscrire dans un cercle vertueux dans lequel sa contribution lui permet d’accéder aux
connaissances apportées par les autres membres de la communauté. La densité des réseaux
sociaux que constitue la communauté permet le développement d’une logique d’échange de
l’information fondée sur le don réciproque (Ferrary et Pesqueux, 2006). C’est pourquoi les
membres d’une communauté sont sélectionnés (a) et les pratiques doivent évoluer (b).

a) La sélection des membres de la communauté. Selon Wenger et al. (2002), la structure de


la communauté doit prendre en compte différents niveaux de participation (Figure 14). Dans
une telle structure, les praticiens les plus aguerris (le noyau) doivent transmettre leur savoir
aux apprentis (les membres actifs). Ces derniers apprennent la pratique et accèdent à la
reconnaissance de leurs pairs en participant à la vie de la communauté, ce qui leur assure
progressivement une légitimité. Dans ce processus, la légitimité peut être obtenue par la
« participation périphérique légitime» (Lave et Wenger, 1991) des apprentis.

110
Figure 14. Les degrés de participation dans la communauté de pratique (Wenger et al., 2002 : 57)

. Etranger (Outsider)
. .
.
. .
. . . .. Noyau
Coordinateur
Membres de la
Actifs communauté
.
. Périphérie

Selon Wenger et al. (2002), le noyau doit représenter 10 à 15% des membres et les
membres actifs 15 à 20%. Les membres dits « périphériques » constituent donc la majorité. Ils
sont avant tout des observateurs et peuvent participer à la vie de la communauté s’ils jugent
qu’ils sont aptes à le faire. La participation à la communauté implique le passage perpétuel
d’un niveau à l’autre : un acteur périphérique peut devenir actif voire rejoindre le noyau s’il
est compétent dans la pratique et qu’il contribue à modifier le répertoire commun (Wenger et
al., 2002).

Si les activités liées à la communauté sont trop contraignantes pour ses membres, ces
derniers se sentent accablés et perdent leur motivation à y participer. A l’inverse, si la
participation est trop espacée dans le temps, les membres peuvent se désintéresser de la
communauté. Le processus de socialisation est alors interrompu. Il est alors nécessaire que la
personne coordinatrice de la communauté de pratique et celles qui y contribuent soient
convaincues que leur participation en tant que demandeur et/ou contributeur constituera un
facteur d’amélioration de leur performance individuelle à court terme et de promotion
professionnelle à moyen terme.

b) L’évolution des pratiques. Si une communauté de pratique n’offre pas la possibilité


aux membres d’échanger des pratiques plus performantes, ces derniers cessent rapidement
d’y participer (McDermott, 2001). L’architecture de la communauté doit donc permettre à ses

111
membres de faire évoluer les pratiques de ses membres. Entre les praticiens et les apprentis
s’opère un double mouvement de reproduction des pratiques et de modification de ces
pratiques. Les membres les plus anciens seront tentés de reproduire les pratiques alors que
les membres les plus récents chercheront à les modifier (Wenger et al., 2002).
Le coordinateur peut alors jouer un rôle d’arbitre en établissant des règles de
fonctionnement. Soenen (2006) considère ainsi que les communautés de pratique servent
avant tout à pallier des difficultés de prescription des pratiques formelles professées par
l’organisation : « c’est un groupe d’individus qui, alors qu’il est confronté à une faille de la
prescription, met en place une réponse collective se caractérisant par des échanges de
connaissances, la création de nouvelles connaissances et l’identification graduelle des
membres de la communauté (Soenen, 2006 : 140). Le décalage entre les pratiques opérées par
la communauté et celles exigées par l’organisation sert alors de moteur à leur évolution.
Cette dernière va également modifier la structure de la communauté.

2.2.2.2 La maturation d’une communauté de pratique.

Le développement des communautés de pratique a été examiné à partir d’un modèle


de cycle de vie. Sa structure évolue en fonction du nombre de membres, du soutien apporté
par l’entreprise ou des pratiques elles-mêmes. Au contraire de l’équipe projet, elle n’a pas de
date de fin : elle perdure aussi longtemps que le thème est pertinent et qu’il y a un intérêt
pour ses membres à apprendre ensemble.
Les différents auteurs qui ont étudié les communautés de pratique ne sont pas
d’accord sur le processus de maturation et sur le nombre d’étapes. McDermott (2000)
identifie cinq étapes qu’il décrit à travers des actions (planifier, lancer, croître, soutenir,
arrêter). Dameron et Josserand (2007) en trouvent trois (l’enthousiasme et les premières
difficultés, la crise et la participation distante menant à une dé-réification, la stabilisation et le
déterminisme structurel des « survivants ») et Castro-Goncalves (2007) trois également
(l’émergence, l’évolution et la quasi-dissolution). Ces différents modèles proposent une
lecture complémentaire à celle de Wenger et al. (2002) qui distinguent, eux, cinq étapes : la
potentialité, le mélange (ou regroupement), l’affinage (ou maturation), l’organisation et la
transformation (Figure 15).

112
Figure 15. Les étapes du développement de la communauté de pratique (Wenger et al., 2002 : 69)
Organisation
Niveau
d’énergie
nécessaire

Affinage

Mélange

Transformation
Détection du
potentiel

Temps
FAIRE EMERGER COUVER OUVRIR INTERVENTION SUPPRIMER
VS VS VS VS VS
CREER PRESSER FERMER INDEPENDANCE PERPETUER

Ce cycle de vie permet d’évaluer les efforts à fournir de la part du management pour
cultiver la communauté de pratique et de comprendre « les tensions internes qui s’opèrent
au sein de la communauté » (Wenger et al., 2002 : 69). Pour Soenen (2006), le management
peut alors adopter trois postures en fonction du cycle du vie : elle peut l’ignorer, la soutenir
et finir par la contrôler voire la faire disparaître (voir le Tableau 11 - page 107).
Dans la première phase (détection du potentiel) la communauté n’existe pas encore
véritablement. Elle peut soit émerger ou être créée par le management. Son existence ne tient
qu’aux liens sociaux entre différents individus : « il s’agit soit d’un réseau assez souple de
personnes qui partagent un même intérêt pour un sujet quelconque, soit d’individus qui se
voient déjà comme une communauté restreinte ; ce sont ces personnes qui vont former le
noyau » (Wenger et al., 2002 : 70). A ce stade, la plus grande difficulté est la conjonction des
trois facteurs constitutifs d’une communauté de pratique : un domaine (d’intérêts communs,
de problèmes à régler vis-à-vis de prescription, etc.), un réseau social (identifier les
personnes susceptibles de développer des liens forts et faibles) et la pratique partagée
(l’exercice d’un savoir) (Wenger, 1999). La détection de ces trois facteurs est dévolue au
management de l’entreprise ou au leader de la communauté.
Une fois les trois conditions rassemblées, le processus peut ensuite s’accélérer : le
groupe est créé, il définit les premiers objectifs de la communauté et les interactions entre ses
membres se multiplient. Dans la phase d’affinage (ou de maturation), le niveau d’énergie

113
nécessaire au développement de la part du management augmente considérablement. La
communauté précise son domaine de connaissances, elle définit les pratiques sur lesquelles
elle souhaite apprendre et de nouveaux participants sont cooptés ou exclus. Dans la
quatrième phase, la communauté se concentre sur l’amélioration ou le transfert des pratiques
entre ses membres. S’opère ici le processus de participation-réification qui oblige le
management à consacrer une énergie variable à la communauté. Vient enfin la dernière
phase durant laquelle la communauté se transforme en association, devient un service à part
entière dans l’entreprise (ex. innovation ou veille) ou disparaît purement et simplement.
De nombreux auteurs ont critiqué cette vision mécaniste et déterministe (Dameron et
Josserand, 2007 ; Castro Goncalves, 2007). Gongla et Rizzuto ont, par exemple, étudié plus de
60 communautés au sein d’IBM en concluant que leur dynamique n’était pas linéaire : « les
communautés peuvent avancer ou reculer d’une phase à l’autre ; elles stagnent pendant un
certain temps à une étape donnée, puis évoluent soudainement à une autre phase » (Gongla
et Rizzuto, 2001 : 846). Nous reviendrons sur ces critiques dans notre Chapitre 6.

Nous pouvons en conclure que les communautés de pratique se développent à partir d’un
processus de socialisation complexe et difficile à piloter. Elles se structurent avant tout
grâce à son coordinateur dont le leadership permet de négocier des règles de
fonctionnement (réification) et d’inciter les membres à prendre part aux activités de la
communauté (participation). La dynamique de maturation de la communauté est non
linéaire et subit des accélérations et des ralentissements en raison de l’existence de freins.

Dans la partie suivante, nous étudions dans les détails les éléments qui peuvent
empêcher une communauté de pratique de se développer.

2.2.3 Les freins à l’approche sociale

Les communautés de pratique sont devenues des instruments de gestion des savoirs
(Fox, 2000 ; Soenen, 2006). Mais prétendre au pilotage d’un réseau social c’est prendre le
risque de se placer en situation de pilotage en eaux troubles : le pilote se retrouve presque
nécessairement projeté dans une situation où il doit émettre une injonction paradoxale qui
vise à organiser une coopération non hiérarchique (Josserand, 2007 : 98). On estime que le
succès de ce pilotage se mesure lorsque les membres s’échangent sur une base continue du
savoir précis, ou des expériences, qui contribuent au développent d’une pratique dans un

114
domaine spécifique (McDermott, 2004). Il existe donc une combinaison de facteurs qui peut
conduire au ralentissement du développement de la communauté, voire à son échec.
A partir des résultats de Dameron et Josserand (2007), nous étudions trois facteurs
susceptibles de freiner le développement d’un réseau social : les relations identitaires
(2.2.3.1), les relations affectives (2.2.3.2) et les relations fonctionnelles (2.2.3.3).

2.2.3.1 Les relations identitaires.

Dans un réseau social ou une communauté, un lien identitaire se constitue à partir


d’un double phénomène : l’autocatégorisation et la comparaison (Hogg et Terry, 2000). Le
premier consiste à définir les groupes auxquels un individu souhaite appartenir (les
outgroups) à partir des références de son groupe d’appartenance (l’ingroup). La comparaison
consiste à peser les avantages et les inconvénients à s’intégrer dans un autre groupe.
L’identité est donc construite socialement par les membres d’une organisation (Gioia et al.,
2000).
Selon Soenen et Moingeon (2002), cette construction comporte cinq facettes dans une
communauté de pratique. D’abord professée et vécue, l’identité communautaire est bientôt
manifestée dans des comportements individuels et collectifs spécifiques qui renforcent le
sentiment d’appartenance. Ce système se renforce encore lorsque la communauté organise
une communication systématique pour projeter son identité, qu’elle obtient la
reconnaissance de l’organisation, et que l’identité « communautaire » lui est largement
attribuée par les membres de l’organisation (Soenen, 2006 : 141). La communauté de pratique
permet donc de fournir des repères qui participent à la reconstruction de l’identité des
membres. Cette construction va de pair avec celle des pratiques : les membres de la
communauté ne font pas qu’échanger des connaissances, ils modifient leur comportement
pour être en accord avec l’identité en vigueur dans la réseau social. Un langage commun
peut émerger et sa maîtrise devient un élément essentiel d’assimilation (Brown et Duguid,
1991).
Le risque est de rester bloqué dans la construction de l’identité de la communauté et
de tomber dans le « piège identitaire » (Dameron et Josserand, 2007). Concrètement, les
membres de la communauté peuvent passer la totalité de leur temps à produire des
représentations réifiées (logos, photos, slogan, jargon). La dialectique
participation/réification tourne alors à vide et bloque la capacité du collectif à rentrer dans
des actions concrètes (Dameron et Josserand, 2007). Les membres de la communauté en

115
viennent à oublier ce pour quoi ils sont là : la construction de pratiques. Le risque pour
l’entreprise est alors de cultiver une communauté qui n’apporte aucun bénéfice puisqu’elle
devient un simple club de rencontres.
Toute la difficulté consiste donc à construire une identité apprenante. Cette identité
modifie le comportement des membres du réseau. Comme nous l’avons décrit
précédemment, les salariés peuvent présenter le syndrome du « non inventé ici » sans en
avoir conscience. Ceci va les conduire à refuser toute connaissance externe à leur réseau
social. Ce syndrome peut être lié à une trop forte valorisation de la pratique qui rend
difficilement acceptable la reconnaissance d’une expertise extérieure. L’identité
communautaire peut alors conduire au communautarisme en raison de relations affectives.

2.2.3.2 Les relations affectives.

Le lien affectif est fondé sur un composant irrationnel. Styhre la définit comme « une
relation entre deux individus fondée sur l’ouverture, l’investissement réciproque et qui n’a
pas pour objectif d’en tirer un bénéfice personnel au détriment d’autrui » (Styhre, 2000 : 416).
L’amitié joue un rôle important dans la constitution de la communauté (la phase potentialité
décrite par Wenger et al., 2002). Les membres acceptent de dégager du temps en participant
au lancement de la communauté par attachement à un des membres ou pour le plaisir de se
rencontrer et d’échanger autour des pratiques : « l’amitié s’avère être une dimension
structurante pour prévoir la persévérance de ses membres, que ce soit en termes de nombre
d’amis, de densité du réseau amical ou de la capacité des membres à être des intermédiaires
au sein de la communauté de pratique » (Dameron et Josserand, 2007 : 145).
La confiance et la cohésion au sein des communautés de pratique accroissent la
satisfaction, le plaisir et la relaxation que les membres tirent de leur collaboration, et les
incitent à revenir régulièrement dans le groupe (Wenger, 1999). Pour autant, cette dimension
affective est complètement absente des travaux sur le transfert des pratiques
organisationnelles (Szulanski, 1996 ; Kostova et Roth, 2002) et des réseaux de transfert des
connaissances (Tsai, 2001 ; Hansen, 1999). Ces travaux amènent à penser les réseaux sociaux
comme des conduits (Reagans et McEvily, 2003) servant à véhiculer de la connaissance. Or
les échanges au sein de ces tuyaux -et les tuyaux eux-mêmes- sont modifiés par la nature
affective des relations interpersonnelles.
Cela signifie qu’une communauté de pratique ne se décrète pas. Elle ne peut être
imposée par l’entreprise. Elle est nécessairement émergente (bottom-up). Probst et Borzillo

116
(2007) nuancent cette position puisqu’ils avancent la coexistence de trois formes de
communautés de pratique dans les entreprises : une est top-down (ou vectorisée), la
« communauté stratégique innovante » en vigueur chez Siemens, IBM ou Mitsubishi pour
développer des pratiques voulues par la direction de l’entreprise ; les deux autres sont
émergentes, la « communauté d’excellence opérationnelle » (initiée par des experts) et
« l’espace social productif » (initiée par des employés).
Dans les cas où les relations affectives sont absentes dans la communauté, le
coordinateur de la communauté joue un rôle prépondérant (McDermott, 2001). Ces derniers
participent à la communauté, non pour des raisons affectives, mais pour se libérer de leur
anxiété et de leur insécurité et peuvent ainsi échanger un flot d’idées et d’expériences dans
un environnement sécurisant. Pour aboutir à cet environnement sécurisant, Wenger et
Snyder (2000) préconisent le soutien d’un sponsor officiel de la part du top management
(Direction Générale) qui doit collaborer avec le coordinateur et lui fournir les ressources
nécessaires en temps et en argent : mettre en place une infrastructure technologique,
organiser des meetings et couvrir les frais de déplacement des membres (Büchel et Raub,
2002).

2.2.3.3 Les relations fonctionnelles.

La dimension fonctionnelle met en lumière les relations de pouvoir et les stratégies


opportunistes dans les réseaux sociaux. Le philosophe français Michel Foucault avait, dans
ses très nombreux travaux, souligné la relation mutuelle entre connaissance et pouvoir: « il
n’existe pas de relation de pouvoir sans la constitution d’un domaine de connaissance, de
même qu’il n’existe pas de savoir sans qu’il n’y ait de pouvoir » (1976: 27). La réduction du
lien social à de purs et simples jeux d’intérêt ou jeux affectifs devient dès lors problématique.
Etant non obligatoire, la participation à une communauté est dépendante des gains
potentiels perçus par ses membres. Le réseau social permet d’obtenir de l’information, de
l’influence et du pouvoir, voire, augmente la productivité et la rentabilité (Baret et al., 2006 :
100). Il existe donc une « face noire » aux réseaux sociaux et aux communautés de pratique
(Vaast, 2002) qui peut être à l’origine d’externalités négatives (Portes, 1998).
Ce phénomène de jeux de pouvoir a été finement étudié par Luciana Castro
Goncalves (2007) dans son observation des conflits entre les membres d’une communauté
d’informaticiens de PSA Peugeot Citroën. Analysant la dynamique de fonctionnement de
cette communauté au sein de la Direction des Services Informatiques, elle constate que les

117
chefs de projet Internet de cette communauté ont tendance à détourner les règles formelles
au profit du fonctionnement de la communauté pour mettre en place des « règles opératoires
déviantes » (Alter, 1990). Ceci a des conséquences positives comme l’accélération du rythme
de travail (ex. le nombre d’étapes de validation est raccourci) et la résolution de situations
ambiguës. Mais ces effets positifs sont dépendantes de l’autonomie des chefs de projet :
« sans ce facteur, les règles et les ressources qui circulent de manière privilégiée au sein de la
communauté de pratique peuvent créer des conflits dans l’organisation formelle du travail »
(Castro Goncalves, 2007 : 162) (voir l’Encadré 4).

Encadré 4. Un exemple de conflit créé par la communauté de pratique dans l'organisation (Castro
Goncalves, 2007: 162)
C’est la première fois que Marie pilote un projet informatique de grande ampleur. Elle ne détient
pas encore les connaissances suffisantes sur les technologies et sur le métier du client de projet. Le
projet prend alors six mois de retard et dépasse le budget alloué. Marie réussit à accélérer le
rythme du projet en mobilisant les connaissances de Christian, un expert informatique membre
périphérique de la communauté de pratique. En effet, ces échanges lui ont permis de choisir un
prestataire extérieur, de préciser les besoins des utilisateurs, de faire un choix technologique, de
redéfinir les paramètres du projet. Convaincue de l’apport de cette mobilisation informelle de
ressources en connaissances et en gain de temps pour le déploiement du projet, Marie décide de
ne pas formaliser de façon détaillée ses actions et d’éviter certaines phases de validation imposées
par la démarche projet. Cette logique est acceptée par Roberto qui est non seulement membre de
la CP mais aussi son responsable hiérarchique. Cependant, au lieu d’apaiser les tensions auprès
du client du projet cette initiative a pour conséquence non intentionnelle de créer d’autres conflits.
Le client, peu convaincu par la performance de l’équipe, a finalement remis en cause le processus
de déploiement du projet. Pour sanctionner la chef du projet, le client l’a « dénoncée » aux plus
hautes instances de la DSI. Marie ne détient pas l’autonomie nécessaire à la libre mobilisation des
connaissances au sein de la communauté de pratique.

L’exemple de Marie montre bien que la communauté de pratique peut difficilement


s’affranchir de la hiérarchie formelle en vigueur dans l’entreprise. Dans le cas présent,
Roberto partage le triple statut de chef de projet, de coordinateur de la communauté et de
responsable du service où travaille Marie. Roberto détient un pouvoir important au sein de
la communauté mais il exerce ce pouvoir uniquement au sein de la communauté. L’absence
de formalisation de la part de Marie se heurte aux règles formelles de l’organisation tout
entière, ce que Roberto ne peut contester. Ce contournement des règles prescrites par
l’organisation formelle est pourtant le fondement même du fonctionnement communautaire
(Soenen, 2006). L’apport de la communauté de pratique est donc paradoxal : en même temps
qu’elle ouvre la voie à la « déviance » (Vaast, 2002) par rapport à la rationalisation de la
Direction des Systèmes d’Information, elle contribue à répondre aux critères économiques
(rapidité et efficacité) des projets informatiques (Castro Goncalves, 2007).

118
Les règles informelles en vigueur dans la communauté peuvent également exclure
certains acteurs pouvant avoir une contribution potentielle (les « outsiders » sur la Figure 14
– page 109). Cela peut conduire à une forte ambiguïté des règles d’adhésion à la
communauté. L’assimilation des outsiders est alors un jeu de pouvoir, source de conflits et
de ressentiments pour ceux qui s’en sentent exclus : « ceci peut favoriser les interprétations
divergentes des règles sociales sur lesquelles une communauté de pratique se construit et
générer des conflits entre les membres qui contournent ces règles, ou pour une raison ou une
autre, ne les partagent pas » (Castro Goncalves, 2007 : 166).

Les différents freins à l’approche sociale du knowledge management sont résumés


dans le Tableau 12.

Tableau 12. Nature des freins dans une perspective sociale


Nature Freins Auteurs
Identitaire Les comportements des membres Gioia et al (2000)
de la communauté sont en Soenen et Moingeon (2002)
décalage avec l’identité qui y est Soenen (2006)
véhiculée, d’où la difficulté à Dameron et Josserand (2006)
définir leurs motivations.
Affective L’absence de relations affectives McDermott (1999)
et de plaisir lié aux activités de la Styhre (2000)
communauté conduit à son échec Wenger et Snyder (2000)
si le coordinateur ne fait pas Josserand et Dameron (2007)
preuve de leadership. Probst et Borzillo (2007)
Fonctionnelle Les relations de pouvoir au sein Alter (1990)
du réseau social peuvent générer Vaast (2002)
des conflits et conduire au Josserand et Dameron (2007)
communautarisme. Castro Goncalves (2007)

En conclusion, les dimensions identitaires, affectives et fonctionnelles ont pour


conséquence un isolement de la communauté vis-à-vis du reste de l’entreprise : la
communauté fonctionne en « vase clos », elle ne lui diffuse pas son savoir et elle a
tendance à exclure des membres en fonction de ses propres règles. C’est pourquoi un
méta-pilotage est nécessaire de la part d’un knowledge manager.

Nous allons maintenant nous interroger sur la littérature consacrée au gestionnaire


des connaissances dans une perspective sociale et étudier la question de ce méta-pilotage.

119
2.3 La fonction knowledge management dans une approche
sociale

Dans le cadre d’une approche sociale du knowledge management, le pilotage des


réseaux sociaux et des communautés de pratiques a été dévolu à des cadres d’entreprise
différents de ceux étudiés dans le chapitre précédent.
Deux fonctions ont été étudiées dans la littérature : le Chief Learning Officer par Awazu
et Desouza (2004) et le Community Coordinator par McDermott (2004) et Wenger et al. (2002).
Nous allons commencer par étudier la première fonction dans la partie 2.3.1. Puis nous
analysons le rôle du coordinateur de communauté dans la partie suivante (2.3.2.). Nous
concluons cette partie par une analyse des apports et des limites de la littérature sur la
question du pilotage des communautés de pratique (2.3.3.).

2.3.1 Le Chief Learning Officer

Selon Awazu et Desouza (2004), le Chief Learning Officer (CLO) a pour objectif de
développer la capacité d’apprentissage des différentes unités de l’entreprise.

2.3.1.1 Son rôle

Le rôle du CLO est de transférer les savoirs détenus par l’entreprise au niveau des
employés. Il agit sur leur capacité d’absorption des connaissances et permet de réduire les
ambiguïtés causales entre l’émetteur de la connaissance et son récepteur (Szulanski, 2003).
Dans la plupart des cas, le CLO doit mettre en place une politique de formation basée
sur les savoir-faire de l’entreprise, et plus particulièrement via des dispositifs de formation à
distance appelés e-learning (Awazu et Desouza, 2004). Ce type de politique est très courant
dans les cabinets de conseil qui recrutent chaque année un grand nombre de jeunes diplômés
et qui doivent être formés aux méthodes « maisons ».
Dans de rares cas, le rôle de CLO peut consister à mettre en place des lieux d’échange
des connaissances tels que des séminaires, des « knowledge cafés » et des conventions
d’échanges de bonnes pratiques.

120
2.3.1.2 Son profil

Le profil du CLO est à mi-chemin entre l’enseignant-chercheur et le responsable des


ressources humaines.
Les CLO sont des cadres d’entreprise aussi expérimentés que les CKO (voir le
chapitre précédent) à la différence qu’ils possèdent, pour la plupart d’entre eux, une
expérience dans le domaine de l’enseignement. La moitié des CLO étudiés par Awazu et
Desouza (2004) détient un doctorat. Ils se considèrent comme des chercheurs et publient des
articles dans des revues scientifiques ou des livres à orientation managériale.
Plus d’un tiers des CLO étudiés par les auteurs a développé des compétences en
matière de e-learning (formation à distance). Ces dispositifs s’intègrent le plus souvent aux
plans de formation des employés. Le CLO est donc en interaction avec le Directeur des
Ressources Humaines à ce sujet.

2.3.1.3 Son positionnement organisationnel

Souvent rattaché à la Direction des Ressources Humaines de l’entreprise (Awazu et


Desouza, 2004), le CLO doit posséder des compétences en matière d’audit des compétences
et de formation. En charge de l’intégration du savoir au niveau des employés, il doit être
capable de connaître leurs besoins de formation en la matière.
Des notions de pédagogie lui sont donc nécessaires pour faciliter le transfert des
savoirs. Selon le secteur d’activité de l’entreprise, la mobilisation d’outils de formation à
distance va également nécessiter de sa part des compétences informatiques.

2.3.1.4 Ses tâches

Comme le CKO, les tâches des CLOs sont divisées en trois grandes catégories : celles
relatives à la prise de décision (a), les tâches opérationnelles (b) et celles relatives au conseil
(c).
a) Les tâches décisionnelles. Le CLO doit choisir des outils permettant d’améliorer la
capacité d’apprentissage des employés (Awazu et Desouza, 2004). C’est pourquoi une
expérience en matière de projets e-learning est nécessaire pour devenir un CLO. Grâce au e-
learning, le CPO permet à l’entreprise de diminuer les coûts de formation en les mutualisant
via un outil d’apprentissage virtuel. Dans une orientation plus sociale, il doit décider des

121
prestataires de services capables de l’aider à créer un environnement propice au dialogue à
travers des réunions formelles, informelles ou des formations.
b) Les tâches opérationnelles. La rédaction d’un plan de formation et sa mise en
application sont donc les tâches opérationnelles les plus courantes pour le CLO (Awazu et
Desouza, 2004). Au contraire du CPO, le CLO réalise une véritable ingénierie sociale. C’est
également un « environnementaliste » (Earl et Scott, 1999) chargé de cultiver des lieux
propices à l’échange des savoirs et de réaliser des audits de compétences. Pour ajuster les
besoins en matière de formation, il est nécessaire de connaître le niveau de compétence
détenu par les employés. De même, pour cultiver les communautés il doit en connaître
l’existence (Wenger et al., 2002).
c) Les tâches consultatives. Le CLO est censé être un expert de la capacité
d’apprentissage. Il conseille donc les unités de l’entreprise sur les modes d’apprentissage
susceptibles d’être les plus efficaces en fonction de leur contexte (Awazu et Desouza, 2004).
Le recours à des communautés de pratique peut alors s’avérer être une solution envisageable
pour le CLO s’il s’appuie sur un coordinateur de communauté (voir la sous-partie suivante).

En conclusion, le Chief Learning Officer est un manager spécialisé dans les mécanismes
d’apprentissage. Le plus souvent, il va mettre en place des dispositifs de formation à
distance (e-learning) et, plus rarement, axer son action sur l’organisation d’évènements
permettant l’échanges de savoirs (les cafés, les séminaires).

En complément à la fonction de CLO, les entreprises peuvent également « faire » du


knowledge management en cultivant des communautés de pratique et en nommant des
coordinateurs de ces communautés.

2.3.2 Le Community Coordinator

A l’origine, la communauté de pratique avait été définie par Lave et Wenger (1991 :
98) comme « un système de relations entre les individus, les activités et le monde, système
qui se développe avec le temps et en relation avec d’autres communautés ». Une
communauté de pratique ne peut pas être créée ex-nihilo (Soenen, 2006 : 151). Elle doit être
cultivée. C’est pourquoi la question de l’identification du coordinateur de la communauté est
de première importance. Cette fonction qui s’inscrit dans une approche sociale du
knowledge management a été intitulée par Wenger et al. (2002) le « Community
Coordinator ».

122
Dès lors que les entreprises reconnaissent l’existence des communautés de pratique,
elles peuvent soutenir leur développement en nommant des responsables en charge de
l’animation du réseau social. Mais comment identifier ce responsable ? Doit-il faire partie de
la communauté ? Qu’est-il censé faire pour piloter cette communauté ?

2.3.2.1 Son rôle

L’objectif du Community Coordinator est « d’aider les membres de la communauté à


se concentrer sur son domaine de connaissances, à maintenir des relations entre eux et à
développer des pratiques » (Wenger et al., 2002 : 80). En théorie il doit passer 20 à 50% de son
temps à animer la communauté en organisant des réunions entre les membres de la
communauté ou en répondant aux requêtes des membres de la communauté (McDermott,
2001). La fonction de coordinateur est donc une fonction réalisée à mi-temps et plus rarement
à plein temps.
Son rôle consiste ainsi à mettre en place le processus de réification-participation décrit
précédemment en « reliant les individus les uns aux autres » (Wenger et al., 81). Pour
développer la participation à l’intérieur de la communauté, il est censé identifier les
problèmes les plus importants pour le domaine d’activité de la communauté, organiser des
rencontres entre les membres de la communauté et des évènements permettant la création de
liens entre les membres qui ne se connaissent pas encore. Pour faciliter la réification, il doit
offrir des outils de codification tels que des sites collaboratifs permettant aux membres de la
communauté de garder le contact.
Il doit également gérer la relation externe entre la communauté et l’entreprise dans
laquelle elle se trouve : « il gère la frontière entre la communauté et l’organisation formelle
telle que les équipes projets et les unités organisationnelles » (Wenger et al., 2002 : 80). Il doit
donc expliciter les objectifs de la communauté et définir les règles d’adhésion et de
fonctionnement de la communauté.
Enfin, il est possible que le coordinateur recrute lui-même les membres de la
communauté. Le recrutement peut se faire en contactant personnellement les volontaires
jugés les plus intéressants par le coordinateur. Pour recruter ces volontaires, Lesser et Everest
(2001) suggèrent de communiquer l’existence et les succès de la communauté afin de montrer
clairement les bénéfices que les individus peuvent tirer de leur participation à ce groupe.
Cela signifie que le coordinateur doit savoir mesurer la valeur ajoutée de la communauté.

123
En conclusion, le coordinateur a un rôle déterminant dans le choix des questions à
étudier, le partage des idées, la recherche de consensus, le débat, la résolution de problèmes
soumis par les membres, et l’animation du réseau (Laferrière, Campos et Benoit, 2004).

2.3.2.2 Son profil

Le coordinateur est nommé par cooptation puisqu’il fait partie de la communauté. A


titre d’exemple, l’entreprise Schlumberger organise des élections de coordinateurs des
communautés : «les coordinateurs souhaitant être élus écrivent leur programme électoral sur
l’intranet et des débats contradictoires sont organisés » (Wenger et al., 2002 : 86). Le
coordinateur élu est naturellement un membre du noyau de la communauté (voir la Figure
14 – page 109). Il est jugé très actif par ses pairs : « les coordinateurs les plus efficaces sont
généralement ceux qui sont les plus respectés car ils connaissent parfaitement le domaine
d’expertise de la communauté, les membres de la communauté (qui sait quoi) et voient dans
l’organisation de ce réseau un moyen d’exercer leur capacité de leadership » (Wenger et al.,
2002 : 80-81). Les coordinateurs sont, en général, des employés en milieu de carrière qui
souhaitent faire évoluer leur fonction grâce au partage des savoirs qui vont se réaliser au
sein de la communauté.
Le coordinateur ne doit pas nécessairement être un expert dans le domaine de la
communauté même s’il doit posséder le savoir nécessaire pour comprendre les pratiques. Sa
légitimité est fondée sur sa capacité à motiver les individus à échanger et à définir des
thèmes d’échange. Par exemple, un informaticien chevronné, possédant une dizaine
d’années d’expérience et sachant utiliser parfaitement le langage XML ne sera pas forcément
plus légitime pour être le coordinateur de la communauté qu’un membre moins expérimenté
si ce dernier est très actif et pousse sans cesse les autres membres à échanger des pratiques
ou des histoires à propos de ces pratiques.
Le coordinateur doit donc faire preuve de leadership (Wenger et al., 2002 ; Soenen,
2006). Une étude de l’APQC (American Productivity and Quality Council) sur douze
entreprises nord-américaines ayant mis en place des communautés de pratique a montré que
le principal facteur clé de succès de ces communautés est la capacité d’entraînement et de
leadership du coordinateur de la communauté (APQC, 1999). Il doit prendre les
responsabilités du degré de participation des membres (Lesser et Everest, 2001) tout en les
aidant à développer leurs pratiques en mettant son savoir à disposition (McDermott, 2001).

124
Autrement dit, le coordinateur est à la fois un participant actif de la communauté et
un leader censé canaliser l’activité de la communauté. L’Encadré ci-dessous résume les
différentes difficultés à surmonter pour le coordinateur.

Encadré 5. Les quatre échecs les plus courants rencontrés par les
coordinateurs de communautés (Wenger et al., 2002 : 83)
1. Le manque de temps. Le coordinateur ne prend pas le temps nécessaire
pour tenir son rôle même si l’entreprise lui a dégagé une partie de son
temps de travail à cet effet. Le coordinateur laisse alors d’autres dossiers
prendre le pas sur son travail pour la communauté de pratique.
2. L’espace public développé au détriment de l’espace privé. Le
coordinateur fournit des efforts à organiser des réunions et des lieux
d’échange mais il oublie de développer des liens personnels avec les
membres de la communauté. Ce manque d’intimité peut alors l’empêcher
d’identifier les thèmes de travail les plus utiles à la communauté.
3. La capacité à nouer des contacts. Le coordinateur est incapable en raison
de son manque de dynamisme et d’allant. Il ne sait pas faire le premier pas
envers les membres de la communauté. Ces derniers vont alors se
désintéresser du coordinateur et considérer qu’il n’est pas actif.
4. La connaissance technique. Le coordinateur qui ne possède pas les
connaissances suffisantes pour appréhender les pratiques échangées dans
la communauté sera vite inutile. Comme l’a déclaré l’un des
coordinateurs : « je me sens comme un étranger. Comment puis-je leur
demander de faire telle ou telle chose si je n’ai même pas la connaissance pour faire
cette chose là ? ».

2.3.2.3 Son positionnement organisationnel

Au sein de l’organisation formelle de l’entreprise, la communauté de pratique est un


lieu d’apprentissage interstitiel. Elle est donc transversale et regroupe des membres issus de
différents services, de différentes unités et de différents pays (dans le cas d’entreprises
multinationales). Cela signifie qu’il est très difficile de rattacher une communauté à un
structure particulière de l’entreprise.
Au sein de la communauté elle-même, nous avons vu, dans la partie précédente, que
la hiérarchie est fondée sur l’expertise. Son architecture est structurée par le niveau de
participation de ses membres : les membres les plus actifs constituent le noyau de la
communauté et les moins actifs la périphérie. Le coordinateur se situe dans le noyau.
A travers l’histoire d’Emile, coordinateur d’une communauté d’experts en essuie-
glaces chez DaimlerChrysler, l’Encadré ci-dessous permet de montrer la transversalité de
cette fonction.

125
Encadré 6.
L'histoire d'un coordinateur d'une communauté chez DaimlerChrysler (Wenger et al., 2002 : 81)
Emile est un coordinateur à plein temps d’une communauté de pratique au sein de
DaimlerChrysler. Avant de devenir coordinateur, Emile était un responsable ingénierie.
Emile a commencé à organiser des réunions mensuelles entre les ingénieurs travaillant sur
les essuie-glaces. Il a regroupé une trentaine d’entre eux de cinq plateformes différentes. Il
invita les fournisseurs d’essuie-glaces à venir discuter avec les ingénieurs de l’entreprise et à
présenter leurs nouveaux produits. Il dirigea l’activité de la communauté pour l’amener à
définir des standards en matière de sélection des fournisseurs et des composants et à
proposer des améliorations susceptibles d’être intégrées dans le développement des
véhicules. Par exemple, il a mené à bien le développement d’un simulateur permettant de
tester l’efficacité des essuie-glaces en fonction de chaque modèle de DaimlerChrysler et de
conditions climatiques diverses.
La communauté d’Emile est l’une des plus efficace de l’entreprise. Ce succès se
mesure en nombre de participants à la communauté, en terme d’innovations produites
(comme le simulateur) et de sa réputation acquise auprès des autres employés. Ce succès est
en grande partie du à la capacité de leader d’Emile qui organise les rendez-vous, identifie
des experts hors de la communauté et sélectionne les thèmes à aborder par la communauté.
En fin de compte, Emile passe la plupart de son temps de travail au téléphone avec les
membres de la communauté.

Les interactions du coordinateur de la communauté ne sont donc pas fondées sur des
préoccupations hiérarchiques mais sur l’expertise que les individus sont susceptibles
d’apporter à sa communauté et à l’objectif poursuivi.

2.3.2.4 Ses tâches

Comme le CLO, les tâches des coordinateurs des communautés sont divisées en trois
grandes catégories : celles relatives à la prise de décision (a), les tâches opérationnelles (b) et
celles relatives au conseil (c).

a) Les tâches décisionnelles. La décision la plus importante du coordinateur est l’accès


ou le refus des individus (les outsiders) à la communauté de pratique. Ceci est difficile
puisque le coordinateur doit définir des règles de fonctionnement et d’adhésion à la
communauté. Cela est d’autant plus difficile que la communauté fonctionne sur un mode
égalitaire : le pouvoir est distribué au sein de la communauté et personne n’est censé prendre
le pas sur les autres. Fox (2000 : 860) avait d’ailleurs remarqué, dans sa critique des
communautés de pratique, que le conflit était à la source de l’évolution de la communauté:
« l’apprentissage est le résultat d’un processus d’échanges contradictoires [‘struggle’]
impliquant à la fois ses propres réflexions, celles des autres et celles à propos du monde

126
extérieur à la communauté ». Le coordinateur ne doit donc pas réduire ces conflits mais les
réguler pour permettre à la communauté de faire évoluer son domaine d’activité.
b) Les tâches opérationnelles. Comme nous l’a montré l’histoire d’Emile (Encadré 6), le
coordinateur passe la plupart de son temps à motiver les individus à participer à la
communauté. Il discute, il échange des idées avec les praticiens tout en leur rappelant qu’une
réunion est prévue à telle ou telle date. Concrètement, il doit organiser des workshops,
définir des rites sociaux permettant d’ancrer les pratiques dans des habitudes partagées par
les membres de la communauté : « les meilleurs coordinateurs sont ceux qui arrivent à
utiliser le déjeuner de travail comme un lieu d’échange des savoirs ; ils organisent des
conférences téléphoniques ou des réunions juste après le déjeuner pour réifier les échanges et
créer un rythme régulier dans la construction du savoir » (Wenger et al, 2002 : 87).
Les conversations représentent l’essentiel de l’activité de la communauté : « par des
discussions soutenues, où trouvent leur place à la fois les envolées spontanées et les
expositions rigoureuses, la connaissance individuelle se transforme en thèmes disponibles
aux autres. Chaque participant peut explorer de nouvelles idées et réfléchir aux points de
vue des autres. Et cet échange mutuel d’idées, de points de vue et d’impressions enclenche la
première et la plus essentielle des étapes dans la création de nouvelles connaissances : le
partage des connaissances tacites au sein d’une communauté » (Von Krogh, Ichijo et Nonaka,
2000 : 125). L’essentiel de l’activité opérationnelle du coordinateur consiste donc à fluidifier
ce dialogue en trouvant les outils adéquats.
Selon une étude réalisée par le CEFRIO (2002), les outils les plus couramment utilisés
par les coordinateurs de communauté sont les logiciels collaboratifs : « en plus du logiciel de
collaboration, plusieurs autres médias de communication en soutien aux activités de leur
communauté sont utilisés tels que les réunions face-à-face (une par trimestre), le téléphone et
la vidéo conférence » (CEFRIO, 2002 : 64).

c) Les tâches consultatives. Les coordinateurs les plus aguerris peuvent devenir des
consultants pour cultiver les communautés de pratique (McDermott, 2001). Il peut alors
diffuser un guide de bonnes pratiques en matière d’animation de communauté21. Des
consultants spécialisés22 dans l’animation de communautés de pratique proposent
aujourd’hui des offres de formation à l’attention des animateurs de communautés. Il s’agit
21
A ce titre, le lecteur peut être intéressé par la lecture du guide édité par le centre de recherche d’HEC
Montréal, le CEFRIO, intitulé « Guide de mise en place et d'animation de communautés de pratique
intentionnelles » et publié en janvier 2002.
22
L’américain Richard McDermott (McDermottConsulting) et l’anglais David Gurteen (Gurteen Knowledge)
sont les deux consultants les plus actifs sur cette question.

127
d’anciens coordinateurs qui revendent leur expertise dans le déploiement graduel d’un
réseau social.

En conclusion, pour éviter un isolement de la communauté vis-à-vis du reste de


l’entreprise, un méta-pilotage est nécessaire de la part d’un coordinateur. Celui-ci doit être
coopté par ses pairs. Il a en charge l’animation du réseau et doit faire preuve de leadership
à cet égard en entretenant les liens sociaux entre les membres de la communauté et en
identifiant les pratiques que les individus souhaitent développer. Il est censé stimuler la
réflexion tout en définissant des règles d’adhésion et de fonctionnement de la
communauté.

Dans le tableau ci-dessous nous avons résumé les différentes caractéristiques des
deux fonctions étudiées (Tableau 13).

Tableau 13. Les deux fonctions les plus courantes dans une approche technique.
Chief Learning Officer Community Coordinator
Rôle Développer la capacité Animer la communauté de pratique
d’apprentissage des employés. et réguler son évolution.
Profil - Cadre confirmé - Cadre intermédiaire
- Profil très académique (ancien - Leader ayant une personnalité et
enseignant) un engagement reconnu par ses
pairs
Compétences - Audit des compétences - Leadership
requises - Pédagogie - Animation
- Formation - Connaissance minimale du
domaine d’activité de la
communauté
Positionnement - Direction des Ressources - Dépend du rattachement de la
dans Humaines communauté
l’organigramme - Noyau de la communauté
Tâches assignées - Définir les dispositifs de - Expliciter les règles d’adhésion et
formation virtuelle (de type e- de fonctionnement de la
learning) communauté
- Réaliser un audit des - Définir les thèmes à étudier et les
compétences des employés pratiques à partage
- Choisir les médias les plus
appropriés à la communauté

A partir de cette synthèse, nous allons conclure ce deuxième chapitre en dégageant


les apports et les limites des études empiriques consacrées à Chief Learning Officer et au
Community Coordinator.

128
2.3.3 Les apports et les limites de la littérature consacrée aux fonctions

Les travaux consacrés au Chief Learning Officer et au Community Coordinateur ont


les mêmes défauts que ceux consacrés au Corporate Knowledge Manager et Chief Privacy
Officer (voir Chapitre 1).

En mettant en exergue ce que ces deux fonctions sont censées faire, les travaux se
concentrent sur leur rôle attendu et ni sur les pratiques réelles ni sur les ressources à leur
disposition. Rédigé sous forme de « guide d’animation des communautés », l’ouvrage de
Wenger et al. (2002) est le plus emblématique de cette logique managériale. Le Tableau 14
résume les apports et les limites dans ce champ littéraire. Notons que la fonction de Chief
Learning Officer ne semble pas répondre aux freins étudiés dans les travaux sur
l’apprentissage situé.

Tableau 14. Les apports et les limites de la littérature consacrée aux gestionnaires des
connaissances dans une approche sociale.
Nature Freins Apports de la littérature Limites de la littérature
Identitaire Les comportements Le coordinateur est censé Les travaux ne montrent
des membres de la animer la communauté pas comment le
communauté sont et motiver les volontaires coordinateur créé une
en décalage avec à participer (Wenger et al., identité partagée par les
l’identité qui y est 2002) participants.
véhiculée, d’où la
difficulté à définir
leurs motivations.
Affective L’absence de La capacité d’animation Aucune étude sur les
relations affectives du coordinateur de la modes de création de
et de plaisir lié aux communauté est un liens affectifs par le
activités de la facteur clé de succès coordinateur de la
communauté (CEFRIO, 2002 ; Wenger communauté.
conduit à son échec et al., 2002).
si le coordinateur
ne fait pas preuve
de leadership.
Fonctionnelle Les relations de Les conflits sont à Aucune étude sur les
pouvoir au sein du l’origine des discussions moyens employés par les
réseau social entre les membres et ils coordinateurs pour
peuvent générer ne doivent pas réguler les discussions
des conflits et nécessairement être contradictoires sur les
conduire au évités par le pratiques.
communautarisme. coordinateur (Wenger et
al., 2002)

129
Conclusion du Chapitre 2 : les tenants et les aboutissants de l’approche sociale.

L’approche sociale de la gestion des connaissances s’appuie une instrumentalisation


des réseaux d’individus. Basée sur la dynamique de la participation et de la réification, elle
permet à l’entreprise d’ancrer les expériences individuelles dans un contexte social. Les
connaissances sont ici considérées comme des processus en construction, évolutifs et
contextuels. S’appuyant sur les limites des systèmes de gestion des connaissances, les
auteurs et les consultants se réclamant du knowledge management proposent ici aux
responsables d’entreprise de mettre en place des structures sociales auto-entretenues
permettant à leurs employés d’échanger ponctuellement leurs pratiques.

En intégrant les employés dans des communautés de pratique, les entreprises


peuvent parvenir à cultiver des liens interpersonnels faibles et forts entre les employés. Les
liens forts sont susceptibles de les aider à construire des pratiques (difficilement
verbalisables) alors que les liens faibles leur permettent d’acquérir de l’information auprès
d’autres membres de l’entreprise. La participation à ces communautés étant majoritairement
périphérique, les employés sont plus enclins à y prendre part que de renseigner une base de
connaissances informatisée. Mais en impliquant des individus dans ces structures en marge
de l’organisation formelle, l’entreprise est confrontée à de nouvelles difficultés. Les
recherches les plus récentes sur ces communautés ont ainsi montré qu’un pilotage distant (ou
méta-pilotage) de ces réseaux est possible et nécessaire.

Dans ce contexte, le rôle du gestionnaire est de les cultiver mais également de


canaliser leur fonctionnement et de clarifier leur relation vis-à-vis du reste de l’entreprise. Il
doit enfin s’attaquer à de nombreuses difficultés pratiques qui ralentissent la mise en place
d’une communauté de pratique.
- La première est d’ordre identitaire : les employés de l’entreprise doivent construire
peu à peu l’identité de leur réseau social. Ce processus est ambiguë et exige du temps.
- La seconde est d’ordre affectif : la communauté s’appuie en partie sur des liens
affectifs et sur le plaisir à partager son savoir avec les personnes que l’on a choisi. En absence
de ce lien, le rôle du coordinateur de la communauté est primordial.
- La troisième est d’ordre politique : en marge de l’organisation officielle, la
communauté elle-même peut faire l’objet de jeux de pouvoir entre ses membres. A charge du

130
gestionnaire des connaissances, et plus précisément du coordinateur de la communauté, de
fixer certaines règles de fonctionnement.

La littérature consacrée aux pilotes de ces réseaux sociaux reste très évasive
concernant leurs pratiques quotidiennes. Comme dans le chapitre précédent, elle reste
concentrée sur ce que ces pilotes sont censés faire et non sur ce qu’ils font réellement.

L’approche sociale (résumée dans le Tableau 15), nous permet ainsi de conclure sur
une vision émergente du knowledge management : celle où le contrôle des connaissances ne
se fait pas par la Direction Générale mais par les pairs.

Tableau 15. Tableau récapitulatif de la littérature sur l'approche sociale


Définition de la La connaissance est dans l’action – knowing – (architecture
connaissance connexionniste) au travers de la participation des individus à
une pratique. Elle est toujours ancrée dans un contexte
physique et social dans lequel s’opère une activité collective –
cognition distribuée et située (Lave et Wenger, 1991 ; Brown
& Duguid, 1991 ; Gherardi & Nicolini, 2000).
Lieux de construction Connaissances Individuelles Connaissances Collectives
Les apprentissages Les équipes projet
Les pratiques Les communautés
Théories mobilisées Sociologique et Ethnographique
Processus Participation-Réification
Outils Structures de gestion des connaissances
- Réseaux Sociaux
- Communautés de pratique
Profil du gestionnaire des Un expert de la formation ou un coordinateur de réseau
connaissances social

131
132
Notre intention de recherche

L’étude de la littérature nous permet maintenant de définir notre intention de


recherche. Cette intention va déterminer le choix du modèle théorique présenté dans le
chapitre suivant.

Les deux chapitres précédents nous ont permis de comprendre les différents
arbitrages qu’un gestionnaire des connaissances doit réaliser. Deux orientations générales
sont possibles : celle de la codification et celle de la socialisation. Dans le premier cas, le
gestionnaire doit se concentrer sur les outils permettant de transformer les connaissances en
informations. Dans le deuxième cas, il doit s’attacher à organiser des lieux d’apprentissage
en axant son travail sur le processus de socialisation entre les individus. Le Tableau 16
résume ainsi les objets, les méthodes et les praticiens du knowledge management.

Tableau 16. Objets, méthodes et applicateurs de la gestion des connaissances en entreprise.


Objets Méthodes Profil des
gestionnaires
Approche Des connaissances Codification des Cadres d’entreprise
technologique possédées par des connaissances issus du département
individus ou un verbalisables sur un systèmes
collectif d’individus support informatisé. d’information ayant
sous forme de capital des compétences en
ou de mémoire. informatique.
Approche Des connaissances Socialisation des Cadres d’entreprise
sociale actionnables situées individus au sein issus du département
dans des lieux d’une communauté de ressources humaines
interstitiels pratique. ayant des compétences
d’apprentissage. en formation.
Cadres opérationnels
devenus coordinateurs
de communauté.

Sachant que notre problématique de recherche consiste à analyser ce « que font » les
gestionnaires des connaissances et que la littérature consacrée à ces fonctions se concentre
sur ce que ces gestionnaires « doivent » faire, notre intention de recherche est désormais
précisée. Elle consiste à observer et à analyser les actions des gestionnaires des
connaissances en les inscrivant dans leur contexte d’action pour en faire ressortir leurs
pratiques réelles et les difficultés rencontrées. Nous allons présenter dans le chapitre
suivant le modèle permettant de répondre à cette intention de recherche.

133
134
Chapitre 3.
L’étude des pratiques des gestionnaires
des connaissances par le modèle du système d’activité

« En tant que gestionnaire des connaissances,


j’ai l’honneur de porter le titre le plus prétentieux de toute mon entreprise ! »

Témoignage recueilli par Michael Earl et Ian Scott (1999: 32)

3.1 Les raisons du choix d’une 3.2 Le modèle du système d’activité


perspective de la « pratique » appliqué au knowledge manager

3.1.1 Des méthodologies de recherche 3.2.1 Les raisons du choix du modèle


critiquables du système d’activité

3.1.2 Des praticiens difficiles à 3.2.2 Les fondements théoriques du


étudier modèle du système d’activité

3.1.3 Des pratiques évolutives 3.2.3 Le modèle adapté aux


gestionnaires des connaissances

Questions de recherche

135
Introduction du Chapitre 3.

Après avoir montré les apports et les limites de la littérature consacrée aux différentes
fonctions knowledge management, la question qui nous anime dans ce troisième chapitre est
la suivante: comment mettre au jour l’activité d’un gestionnaire des connaissances tout en
étudiant les dynamiques d’appropriation du knowledge management par les employés
d’une entreprise ? Cette question est notre problématique de recherche formulée de manière
plus précise.

Pour tenter de répondre à cette problématique, nous nous sommes appuyé sur les
travaux relatifs au système d’activité d’Yrjö Engeström (1987, 2000, 2001) ; travaux qui ont
été mis en valeur par ceux de Franck Blackler (1995). Ce modèle répond à notre « intention
de recherche » : décrire les actions des gestionnaires des connaissances en les inscrivant
dans leur contexte d’action.

D’une manière générale, on peut définir le modèle du système d’activité comme un


cadre théorique permettant l’étude de l’individu par la prise en compte du contexte social
et historique dans lequel son action est ancrée. La notion de système d’activité permet
également de mettre en valeur les tensions inhérentes dans tout travail inscrit dans un
contexte organisationnel. Conformément aux mutations des fonctions décrites par Peter
Drucker (voir l’Encadré 1 – page 13), ce modèle offre un cadre d’analyse du travail du
gestionnaire (le sous-ensemble) qui englobe ses relations de travail avec les autres services de
l’entreprise (l’ensemble).

Dans une première section nous expliquons les raisons qui nous poussent à adopter
une perspective théorique qualifiée de « pratique » sur les gestionnaires des connaissances
(3.1). Dans la deuxième section nous présentons dans le détail le modèle du système
d’activité (3.2). Sur cette base, nous sommes à même de définir des questions de recherche
qui guideront notre étude empirique.

136
3.1 Les raisons du choix d’une perspective de la « pratique »

La perspective de la pratique est une perspective intellectuelle spécifique dans les


sciences de gestion qui met l’accent sur ce que les individus « font » et comment ils le « font »
au quotidien dans les entreprises. Elle n’a pas de définition stabilisée puisque c’est une
perspective émergente qui « prend forme au gré des interactions entre chercheurs23 qui s’y
intéressent » (Rouleau et al., 2007 : 191). Tout au plus peut-on parler d’une « activity-based
view24 » (Johnson et al., 2003) qui invite le chercheur à analyser le fonctionnement des
organisations non plus au niveau macro mais au niveau micro, c'est-à-dire au niveau de
l’individu. Cette invitation s’inscrit dans les travaux présentés dans le chapitre précédent
puisqu’ils reprennent la distinction de Cook et Brown (1999) distinguant la possession de la
pratique : « this perspective [activity-based-view] is essentially concerned with strategy as activity in
organizations, typically the interactions of people, rather than strategy as the property of
organizations » (Johnson et al., 2007 : 3).
Cette perspective est censée mettre les (nouvelles) théories à l’épreuve des faits. A
titre d’exemple, Johnson et al. (2003) constatent que la « resource-based view » (voir Chapitre 1 -
page 44) en management stratégique postule au niveau macro que les ressources sont des
facteurs essentiels à l’amélioration de la performance de la firme, alors que les travaux de ce
courant n’étudient pas leur utilisation par les managers au niveau micro. Johnson et al. (2003)
exhortent donc les chercheurs à s’intéresser un peu plus aux praticiens et aux interactions
qu’ils entretiennent avec les concepts afin de renouveler les théories existantes : « progress on
many 'content' issues in strategy will rely increasingly on taking a micro perspective […] We argue
that a more micro perspective on strategy and strategizing can take forward existing questions at the
same time as opening up new » (Johnson et al., 2003 : 6).
La perspective micro s’est principalement développée dans le management
stratégique et plus précisément dans l’étude de la « fabrique de la stratégie » (Golsorkhi,
2006). A ce titre, il est essentiel d’étudier non plus les processus mais les pratiques. Pour
Whittington (1996), les processus se situent au niveau d’une problématique organisationnelle
(macro) alors que les pratiques des managers concernent la mise en œuvre d’une politique
d’entreprise (Figure 16). C’est précisément le niveau d’analyse que nous souhaitons avoir du

23
Dans le champ du management stratégique, on peut citer des chercheurs comme Richard Whittington, Ann
Langley, Paula Jarzabkowski, Linda Roulea, Valérie Chanal, Damien Golsorkhi, Silvia Gherardi…etc Mais le
précurseur de cette approche reste, d’une certaine manière, Henry Mintzberg.
24
Le numéro spécial de Journal of Management Studies (Janvier 2003, Vol 40 : 1) offre un résumé complet des
travaux s’inscrivant dans cette « activity-based view », relayée par le site web www.strategy-as-practice.org et par
une track spécifique à EGOS administrée par Silvia Gherardi.

137
knowledge management : étudier les pratiques des gestionnaires et non les politiques et les
processus.

Figure 16. Les quatre perspectives sur la stratégie (Whittington, 1996 : 732)

Niveau d’analyse

Organisation Managers

Quoi ?
Politique Planification

Problématique

Comment ? Processus Pratiques

S’interroger sur les pratiques des gestionnaires nécessite une analyse globale,
inscrivant celles-ci dans leur contexte : « it means studying what people do in relation to strategy
and how this is influenced by and influences organizational and institutional context » (Johnson et
al., 2007 : 4). Cette globalité a été représentée dans différents modèles proposés par
Jarzabkowski et al. (2007) ou par Richard Whittington (2006) dans lesquels trois éléments
sont indissociables : la pratique, la praxis et le praticien.
Les définitions données de chaque terme varient d’un auteur à l’autre et celles-ci ne
sont pas encore tout à fait stabilisées25. Si on essaye de synthétiser les différents points de
vue, on peut désigner la praxis comme l’ensemble des éléments produits et utilisés par le
praticien (comme les discours, les artefacts ou les outils de gestion) ; la pratique comme
l’expression de son savoir dans son activité quotidienne en fonction du contexte
organisationnel et social ; et le praticien comme l’acteur cherchant à atteindre un objectif
selon les ressources à sa disposition (Tableau 17). Il existe donc un « champ de forces » entre
ce que fait le gestionnaire, ce que l’organisation exige de lui et ce dont il dispose pour exercer
son action.

25
A ce propos voir le numéro spécial de la revue Human Relations (Janvier 2007, Vol. 60 Issue 1) où Paula
Jarzabkowski emploie le terme de « praxis » alors que l’année précédente elle employait le terme de « practice »
(au singulier).

138
Tableau 17. Exemples d’éléments d’analyse de la pratique, de la praxis et du praticien.
La pratique La praxis Le praticien
- L’activité quotidienne - Les discours - Son profil
- Le contexte organisationnel - Les artefacts ou outils - Ses ressources

Jarzabkowski et al. (2007) considèrent ainsi que la spécificité de cette démarche se


trouve dans les liens entre les pratiques, les praxis et les praticiens. L’étude des interactions
et des décalages entre ces trois éléments est un des fondements principaux de cette
perspective : « par exemple, en observant la praxis des managers, on capte essentiellement
des discours qui, lorsqu’on les interprète nous fournissent des indices sur la rationalité des
managers. Le concept de pratique renvoie au caractère social de la praxis et donc permet
d’englober les questions de structure, d’institutions et d’apprentissage collectif » (Chanal,
2007 : 202). En alliant les concepts de pratique et de praxis on parvient ainsi à étudier les
actions des gestionnaires dans leur contexte historique, organisationnel et culturel.
L’organisation, elle, est « appréhendée au travers des pratiques et du sens pratique de l’agir
humain […] et elle apparaît non plus comme une entité unique et abstraite » (Golsorkhi,
2007 : 198).

A partir de l’analyse de la littérature consacrée au gestionnaire des connaissances


nous avançons trois raisons qui nous poussent à adopter cette perspective « pratique » :
- la première est de nature méthodologique : il n’existe pas d’études empiriques
sur le décalage entre la praxis et la pratique des gestionnaires des
connaissances (3.1.1) ;
- la seconde est d’ordre empirique : les « praticiens » étant rares, la faible
généralisation de la fonction knowledge management en entreprise rend
difficile l’étude de ses pratiques (3.2.2) ;
- la troisième est d’ordre théorique : le caractère émergent des pratiques de
knowledge management nécessite d’adopter un point de vue original sur ces
« praticiens » (3.2.3).

Nous allons commencer par constater l’absence d’études empiriques sur les pratiques
et les praxis des knowledge managers.

139
3.1.1 Des méthodologies de recherche critiquables.

La littérature consacrée au gestionnaire des connaissances est très limitée : quelques


articles ont été publiés durant ces quinze dernières années (voir Figure 1 – page 13). Deux
contributions majeures sont néanmoins identifiables dans la littérature : celle de Michael Earl
et Ian Scott (1999) et celle de Yukika Awazu et Kevin Desouza (2004). Si l’on considère le
modèle de Jarzabkowksi et al. (2007), ces deux contributions portent uniquement sur un seul
élément: le profil et le rôle des praticiens.
A titre d’illustration, Awazu et Desouza (2004) proposent de classifier les profils des
knowledge managers en trois types : le Chief Knowledge Officer, principalement en charge de
gérer les conditions de recueil et d’accès des connaissances dans l’organisation, le Chief
Privacy Officer qui doit protéger les connaissances existantes et le Chief Learning Officer dont
l’objectif est d’encourager l’apprentissage entre les équipes et accompagner le changement
via des formations. Nathaniel Foote, Eric Matson et Nicholas Rudd (2001) du cabinet de
conseil McKinsey, s’interrogent sur le profil du Chief Knowledge Officer et sur l’interaction
entre l’entreprise et le praticien. Quant à Earl et Scott (1999) leur objet d’étude est, à ce titre,
sans équivoque puisque leur article s’intitule « What is a Chief Knowledge Officer ? ».
Les travaux qui ont été publiés jusqu’ici ont donc le mérite de présenter au grand jour
celles et ceux qui exercent cette fonction. Nous avons d’ailleurs utilisé les résultats de ces
travaux dans les chapitres précédents. D’un point de vue méthodologique, ces travaux sont
basés sur une approche qualitative ou mixte. Earl et Scott (1999) ont mené des entretiens
semi-directifs en face à face, complétés avec des questionnaires de personnalité. Awazu et
Desouza (2004), ont « analysé une dizaine d’offres d’emploi de gestionnaire des
connaissances sur Internet et mené des entretiens semi-directifs par téléphone » (Awazu et
Desouza, 2004 : 340).
Dans une perspective « pratique », cette méthodologie est critiquable dans la mesure
où les auteurs se contentent de décrire les praticiens sans observer ni les pratiques ni les
praxis. Les résultats sont donc stylisés afin de dégager des profils génériques et de rédiger
des fiches de poste. Les difficultés rencontrées par les knowledge managers sont
mentionnées par les auteurs, en particulier par Earl et Scott (1999), mais le décalage entre la
pratique et la praxis n’est jamais abordé.
En d’autres termes, la méthodologie employée dans ces travaux ne permet pas
d’avoir des résultats satisfaisants à propos des pratiques des gestionnaires des
connaissances : les conflits ne sont pas observés, les actions décrites par les auteurs ne sont

140
pas replacées dans leur contexte et les relations entre les praticiens et le reste de
l’organisation sont rapidement mentionnées. A la lumière de ces travaux, rien ne nous
permet de répondre à notre problématique de recherche et d’affirmer qu’il existe des
décalages entre les pratiques attendues et les pratiques réelles.
Pour paraphraser Whittington et al. (2003 : 14) « il est temps de modifier l’agenda de
la recherche en [knowledge management], et pour cela il faut commencer par étudier les
activités des individus, des équipes et des réseaux d’individus desquels dépendent les
processus et les pratiques en entreprise ». Les différents apports et limites méthodologiques
de la littérature ont été synthétisés dans le tableau ci-dessous.

Tableau 18.
Les apports et les limites de la littérature sur les fonctions knowledge management.
Apports de la littérature Méthodologie Limites
Employée
Existence de quatre postes de - Etude d’offres d’emploi publiées - Aucune observation du
gestionnaires : CKO, CLO, sur Internet. praticien dans son contexte
CPO et Community - Entretiens semi-directifs par d’action.
Coordinator. téléphone (Awazu et Desouza, - Le lien entre pratique et praxis
2004 : 340). n’est pas fait.
Traits de personnalité - Entretiens semi-directifs en face à - L’influence de l’organisation
nécessaires à l’exercice de la face. sur les pratiques n’est pas
fonction - Questionnaire de personnalité étudiée.
(Earl et Scott, 1999 : 30).

Partage des tâches entre - Entretiens semi-directifs par - Aucune observation de la


décision, opération et conseil. téléphone et en face à face (Awazu praxis des knowledge
et Desouza, 2004 ; Earl et Scott, managers.
1999).
Existence de « stakeholders » - Entretiens semi-directifs par - Aucune analyse des conflits
tels que le sponsor exécutif, téléphone et en face à face (Awazu entre le praticien et
l’utilisateur actif et passif. et Desouza, 2004 ; Earl et Scott, l’organisation.
1999).

A la lumière des nombreuses limites mises au jour par le Tableau 18, nous sommes
convaincu qu’il est aujourd’hui nécessaire d’aller d’observer ces praticiens dans leur contexte
d’action. Ceci est d’autant plus difficile que le nombre de praticiens est assez limité.

3.1.2 Des praticiens difficiles à étudier

Très peu de postes dédiés au knowledge management ont été formalisés par les
responsables d’entreprises. Cette démarche s’inscrivant dans une perspective volontariste,
elle suppose une implication forte de la Direction Générale qui doit investir des ressources

141
financières et humaines plus ou moins importantes. Dans une étude réalisée par le CIGREF
en 2000 en France, le knowledge management apparaissait aux yeux des responsables
d’entreprise davantage comme un pari qu’un investissement réfléchi (CIGREF, 2000). Cette
absence de formalisation rend donc difficile l’observation des praticiens et des ressources à
leur disposition.
D’autant plus que si la Direction Générale décide de créer une fonction dédiée, la
taille de l’équipe est restreinte, ce qui réduit les possibilités d’observation des pratiques.
Dans leur étude des CKOs, Earl et Scott (1999) ont constaté que « les budgets et la taille des
équipes de knowledge management sont restés modestes dans les entreprises engagées dans
une démarche de gestion des connaissances. […] Ces responsables gèrent entre trois et douze
personnes qui sont souvent des spécialistes fonctionnels.» (Earl et Scott, 1999 : 36). Le
montant des ressources financières et humaines alloué aux gestionnaires des connaissances
est dépendant de l’image et de la valeur ajoutée que les dirigeants ont du knowledge
management. Il est ici intéressant d’aborder la question de la relation entre les pratiques de
knowledge management et les praticiens : les knowledge managers améliorent-ils l’image
qu’ont les dirigeants d’entreprise du knowledge management ?
Les travaux actuels ne permettent pas de répondre à cette question. Ils soulignent les
besoins de légitimité de la part des knowledge managers auprès de la Direction Générale
(Earl et Scott, 1999 ; Davenport et Prusak, 2000) mais ils ne montrent pas comment cette
légitimité se construit. D’autant plus que cette légitimité est liée aux questions du retour sur
investissement et de l’impact sur la performance, deux problématiques très difficiles à
aborder. Il nous semble donc nécessaire de nous interroger sur le financement du knowledge
management : comment le knowledge manager obtient-il des ressources financières et
humaines ? Quels sont les conflits susceptibles d’apparaître à cette occasion ?

La dernière raison qui nous incite à adopter une perspective « pratique » de la


fonction gestion des connaissances est le caractère évolutif de leurs pratiques.

3.1.3 Des pratiques évolutives

Une des nécessités de la fonction knowledge management est de définir son propre
agenda et de le faire évoluer au rythme des projets de l’entreprise : « les knowledge
managers sont en train de découvrir qu’un programme de knowledge management est très
large et que le mettre en place nécessite des apprentissages et du temps » (Earl et Scott, 1999 :

142
37). Cela signifie que les gestionnaires des connaissances doivent apprendre à se comporter
comme un gestionnaire des connaissances, d’autant plus qu’il n’existe pas une formation
universitaire ou un diplôme formant à ce métier (Foot et al., 2001).
Ce processus d’apprentissage n’a jamais été abordé dans les recherches consacrées au
gestionnaire des connaissances. Cet apprentissage peut pourtant conduire à l’apparition de
pratiques émergentes (Blackler et McDonald, 2000) qui n’apparaissent pas dans les entretiens
ou dans les documents de l’entreprise. D’autant plus que les différents projets de KM mis en
place par les knowledge managers s’inspirent le plus souvent d’autres cas d’entreprises dont
ils ont eu connaissance (Davenport et Prusak, 2000). Il existe donc un lien entre les pratiques
des autres entreprises avec celles conduites par le praticien dans l’entreprise.
Leur principale difficulté consiste à adapter des concepts théoriques (comme la
codification des savoirs ou les communautés de pratique) ou des projets menés dans au
contexte organisationnel dans lequel ils évoluent : « d’un côté les knowledge managers ont
peu de temps pour la conceptualisation de leur action, de l’autre ils prennent en charge toute
initiative dans l’entreprise qui se rapporte de près ou de loin à du knowledge management,
ce qui rend le périmètre de leur action très flou » (Earl et Scott, 1999 : 37).
Les pratiques sont donc très contextuelles et influencées par la volonté de la Direction
Générale : « un programme de knowledge management n’est pas une fin en soi, il est fait
pour optimiser la productivité de processus industriels ou pour favoriser l’innovation, deux
logiques totalement différentes » (Prax, 2000 : 34). Dès lors, il semble nécessaire d’étudier
l’influence des services (comme la Direction Générale) ou les personnes (comme les experts
dans l’entreprise) susceptibles d’influencer les pratiques des knowledge managers.

En conclusion de cette section, il apparaît nécessaire d’observer l’activité des gestionnaires


dans leur contexte. Les travaux publiés jusqu’ici ne reflètent pas suffisamment, selon
nous, les difficultés rencontrées par les managers ainsi que les conflits susceptibles d’être
générés par l’exercice de la fonction ou encore les apprentissages réalisés par les
praticiens. Il existe pourtant un lien entre pratiques et praxis puisque la plupart des
projets de knowledge management sont issus d’innovations réalisées par des praticiens.
Le lien entre practice et praxis serait donc intéressant à étudier pour répondre à notre
problématique de recherche. Le tableau ci-dessous résume les raisons qui nous poussent à
adopter une approche dite « pratique » (Tableau 19).

143
Tableau 19. Tableau récapitulatif des raisons qui nous poussent à adopter une approche "pratique"
Apports de la Limites de la Problématique pour
littérature littérature le chercheur
Raison La fonction gestion - Aucune observation Observer les actions
méthodologique des connaissances est des praticiens. des knowledge
nouvelle dans les - Aucune étude du managers et les
entreprises et mérite décalage entre les interroger sur le sens
d’être étudiée (Earl et praxis et les pratiques. qu’ils donnent à leurs
Scott, 1999). pratiques.
Raison Il existe différents - Aucune étude sur les Etudier les conflits
empirique profils de difficultés à légitimer entraînés par l’exercice
gestionnaires des la fonction knowledge de cette fonction au
connaissances management et à sein d’une
(Awazu et Desouza, obtenir des ressources organisation pour
2004) et chacun tente pour son exercice. l’obtention et la
de légitimer sa - Aucune observation mobilisation des
fonction en obtenant des conflits générés ressources.
des ressources à par l’exercice de cette
l’exercice de cette fonction.
fonction (Earl et
Scott, 1999 ; Foote et
al., 2001).
Raison La nouveauté de la - Aucune étude sur les Etudier les pratiques
théorique fonction nécessite la apprentissages réalisés émergentes des
définition des tâches par les praticiens. gestionnaires des
par le gestionnaire et - Aucune étude sur le connaissances.
un apprentissage contexte
rapide de sa part organisationnel dans
(Earl et Scott, 1999). lequel évolue le
Ses pratiques sont knowledge manager.
donc évolutives et
changeantes.

C’est pourquoi nous proposons dans la seconde section de mobiliser un modèle


s’inscrivant dans la perspective « pratique » et permettant de réaliser des liens entre les
praticiens, leurs activités et les ressources à leur disposition.

144
3.2 Le modèle du système d’activité appliqué aux
knowledge managers

Conformément au modèle théorique défini par Engeström (1987, 2000, 2001), nous
proposons d’analyser l’activité des gestionnaires des connaissances en différents éléments : le
sujet, l’objet et la communauté ; ses artefacts médiateurs, ses règles de fonctionnement et la
division du travail au sein de son service.

Dans cette seconde section, nous motivons notre choix pour ce modèle (3.2.1) puis
nous en rappelons les fondements théoriques (3.2.2) et nous décrivons les différentes
composantes du modèle (3.2.3). Ce modèle nous permet de définir des questions de
recherche en accord avec notre intention de recherche.

3.2.1 Les raisons du choix du modèle du système d’activité

Pour adopter une perspective « pratique », le chercheur doit disposer de « modèles


d’interprétation des données suffisamment robustes et innovants pour aller plus loin qu’une
simple restitution des pratiques observées […] or nous avons déjà trop de modélisations
proposées pour en rajouter encore de nouvelles » (Chanal, 2007 : 204). Dès lors, comment
choisir un modèle plutôt qu’un autre ?

Lors du lancement de notre projet de recherche (en 2003), la notion de « pratique » en


gestion était principalement étudiée par des auteurs travaillant sur les communautés de
pratique (Lave et Wenger, 1991 ; Brown et Duguid, 1991), sur la pratique de la stratégie
(Whittington, 1996 ; Johnson et al., 2003 ; Jarzabkowski, 2003) ou sur la construction de
pratiques de gestion (Blackler, 1995 ; Gherardi, 2000). Cette notion de « pratique » est alors
plus ou moins confondue avec celle d’activité. L’activité est considérée comme une notion
englobant celle de « pratique » : « the activity based approach consists in analyzing the activity
defined as the day to day stuff of management: it is what managers do and what they manage »
(Johnson et al., 2003 : 15). Cette notion d’activité désigne tout ce que le manager produit au
quotidien, ses discours mais également son attitude vis-à-vis de ses collègues : « actitivity is
all the meeting, the talking, the form-filling and the number crunching by which a domain gets
formulated and implemented » (Whittington, 1996 : 732).

145
L’analyse de l’activité permet de faire ressortir des pratiques émergentes, par
opposition aux pratiques codifiées facilement identifiables (Blackler et McDonald, 2000). Un
modèle d’explication de l’activité appelé le « système d’activité » est établi par Yrjö
Engeström (1987, 2000, 2001). L’auteur propose de relier les différents éléments mentionnés
dans l’approche pratique : les individus, les ressources et les artefacts tout en inscrivant cette
activité dans une dimension historique.
En étudiant les différents modèles proposés dans la littérature sur les « pratiques »,
trois d’entre eux ont retenu notre attention : celui de Whittington (1996), celui de
Jarzabkowski (2003) et celui d’Engeström (2000). Le modèle de Whittington (1996) propose
d’étudier le décalage entre pratique et praxis en axant son analyse sur les différences entre
processus et pratiques (voir la Figure 16 – page 138). Si ce modèle a le mérite d’interroger au
niveau micro la mise en place du processus, il ne ne nous renseigne pas sur les phénomènes
d’apprentissage du praticien. C’est également l’écueil du modèle de Jarzabkowski qui étudie
les interactions entre les artefacts utilisés par les top-managers (les pratiques), les origines
des ces top-managers (les praticiens) et les structures dans lesquels évoluent ces managers.
Ces interactions sont représentées sous forme d’un système triangulaire. Le modèle est plus
complet que celui de Whittington mais il ne permet d’étudier les apprentissages réalisés par
les managers. De plus, ce modèle est largement inspiré – tant sur le fond que sur la forme -
de celui d’Engeström publié en (2000) et adapté à l’étude des pratiques de la stratégie.
C’est pourquoi nous avons choisi de remonter à la source de ce modèle et de
mobiliser le modèle d’Engeström publié en 1987 dans son ouvrage « Learning by Expanding »
et republié dans son article « Activity theory as a framework for analyzing and redesigning work ».
Le modèle répond aux différents objectifs de recherche que nous avons définis
précédemment (Tableau ci-dessous).

Tableau 20. Comparatif des modèles théorique sur l'activité.


Nos objectifs de recherche Modèle de Modèle de Modèle
Whittington Jarzabkowski d’Engeström
(1996) (2003) (2000)
Etudier les actions des knowledge
managers et les interroger sur le sens Oui Oui Oui
qu’ils donnent à leurs pratiques.
Etudier les conflits entraînés par
l’exercice de cette fonction au sein d’une Non Oui Oui
organisation.
Etudier les pratiques émergentes des
gestionnaires des connaissances dans Non Non Oui
leur contexte d’action.

Nous allons maintenant rappeler ses fondements théoriques.

146
3.2.2 Les fondements théoriques du modèle du système d’activité

La théorie de l’activité considère que les actions des individus ne sont pas
uniquement régies par un ensemble de processus cognitifs (la prise de décision, la
rationalisation, la mémorisation) mais que l’action est ancrée dans la pratique quotidienne.
Cette conception de l’action peut se résumer dans la phrase suivante : « vous êtes ce que
vous faites » (Nardi, 1996 : 7). La prise en compte du contexte dans la compréhension d'une
activité est donc une caractéristique fondamentale de la théorie de l'activité.
A l’origine, la théorie de l’activité est apparue dans l’Union Soviétique au début des
années 1920 pour étudier les phénomènes d’apprentissage. Depuis, cette théorie s’est
consolidée à travers trois générations de travaux de recherche (Engeström, 1996). La
première génération est l’œuvre de Lev Vygotski, la deuxième celle d’Alexei Leontiev et la
troisième celle d’Yrjö Engeström. La première introduit la notion d’artefact médiateur
(3.2.2.1), la seconde présente les niveaux d’analyse de l’activité (3.2.2.2) et la troisième a
consolidé l’ensemble des travaux dans un modèle intégrant la communauté sociale (3.2.2.3).

3.2.2.1 La relation sujet-objet : l’introduction de l’artefact médiateur

Afin de comprendre la nature de l’apprentissage chez l’enfant, le psychologue Lev


Vygotski (1985) propose de dépasser l’analyse classique sujet-objet ou stimulus-réponse.
Dans son modèle du triangle (voir Figure 17), il introduit une troisième dimension, celle de
l’artefact médiateur.

Figure 17. Le modèle du triangle (Vygotski, 1985)

Artefact médiateur

Sujet Objet

Cet artefact médiateur modifie la relation entre le stimulus et la réponse car il englobe
les valeurs culturelles et les pratiques sociales de l’individu. Vygotski insiste sur le contenu
« discipliné » de cet artefact, c’est-à-dire mis en forme pour devenir enseignable, et sur les

147
concepts de médiation symbolique et de médiation sociale. Il introduit le concept de « zone
de proche développement » : ce que peut faire l’enfant avec l’aide d’un artefact médiateur et
ce qu’il ne pourrait pas faire tout seul (Vygotski, 1985). Vygotski considère donc que
l’analyse de l’apprentissage ne doit pas se limiter à l’étude du phénomène stimulus-réponse ;
elle doit intégrer les différents objets produits par l’individu (un document, un discours, une
pratique, etc.).
En introduisant ce troisième élément dans l’étude de l’apprentissage individuel,
Vygotski propose d’étudier le contexte dans lequel l’individu est encastré. Ses travaux
serviront de base aux théories relatives aux pratiques sociales et plus précisément à ceux
centrés sur les communautés de pratique (Brown et Duguid, 1991 ; Lave et Wenger, 1991).
Cette approche était alors totalement novatrice : « la prise en compte des artefacts culturels
dans les actions humaines était révolutionnaire dans le sens où l’unité d’analyse dépassait la
séparation entre l’individu et l’inatteignable structure sociale» (Engeström, 2000 : 134).

3.2.1.2 Les différents niveaux d’analyse de l’activité

Centré sur l’analyse de l’apprentissage individuel, le modèle de Vygotsky sera


ensuite complété par les travaux d’un de ses disciples, Alexei Leontiev. Ce dernier propose
de comparer le système d’activité individuel (sujet-artefact-objet) avec celui d’un collectif
d’individus (sujets-artefacts-objets). Leontiev (1981) distingue trois niveaux d'activité : les
activités (a), les actions (b) et les opérations (c). Une activité est nécessairement associée à un
motif (a), une action à des opérations conscientes ou non (b) et une opération à des
conditions nécessaires à son exécution (c).
a) Les activités sont en relation étroite avec une motivation et peuvent donner lieu à une
multiplicité d'actions. Une activité est une façon de faire quelque chose en fonction de
l’objet poursuivi. Les activités se différencient en fonction du but poursuivi.
b) Les actions, elles, s'effectuent par des opérations qui sont des procédures compilées et
inconscientes. Une action peut servir plusieurs activités (par exemple, faire cuire de
l'eau peut servir à plusieurs choses à la fois comme faire du thé, faire cuire des œufs,
faire de la vapeur, etc.) : les actions ont donc à la fois une intention, une orientation
(ce qui doit être fait) et un aspect instrumental (comment le faire).
c) L’opération est une action inconsciente. A force de répétition, le but est oublié et
l’action devient « naturelle ». On est ici assez proche du concept de routine
individuelle en management stratégique.

148
3.2.1.3 L’introduction de la communauté et du système de ressources

Comparativement aux auteurs précédents, Engeström (1987 ; 2000) propose une


version plus complète du modèle d’activité en intégrant le système de ressources de
l’individu (ce qu’il peut mobiliser dans son travail quotidien). Ce système de ressources
inclut les règles, les outils et la division des tâches que l’individu peut utiliser pour agir dans
son environnement (Figure 18).

Figure 18. Le modèle du système d'activité (Engeström, 1987; 2000)

Artefacts médiateurs
(instruments, concepts)

Sujet Objet Résultats

Division du
Règles Communauté travail

Il y introduit également un nouvel élément : la communauté. Elle est définie comme


l'ensemble des individus qui partagent le même objet (le même motif). Elle intervient dès
lors que l'individu n'est pas seul à exercer son activité. Dans ce modèle, un acteur de
l’activité est un membre d’une communauté d’acteurs travaillant sur un même objet pour
obtenir un résultat. L’activité est donc déterminée par l’objet poursuivi. La relation de
l’individu à sa communauté est médiatisée par un ensemble de règles et d’outils mis à
disposition de la communauté (les artefacts). La relation de la communauté à l’objet est
également médiatisée par la division du travail. Si l’objet poursuivi diffère entre l’individu et
la communauté ou si les outils ne sont pas les mêmes, alors il peut se produire des conflits
que l’auteur nomme « perturbations » ou « tensions ». Lorsque ces dernières sont trop vives,
il s’opère un changement dans le système. Cette évolution est le signe d’un processus
d’apprentissage qu’Engeström qualifie « d’expansif » (1987) et qui prend une forme cyclique
(Figure 19).

149
Figure 19. L'apprentissage expansif (adapté d'Engeström, 2000 : 970)

6. Changement
dans le système 1. Perturbation
d’activité dans le système
d’activité

5. Evaluation de la
nouvelle pratique
par les praticiens

2. Recherche de la
cause
4. Mise en oeuvre
de la solution par
le praticien

3. Négociation
d’une solution

L’apprentissage se produit dès lors qu’il existe une incohérence dans le système
d’activité qu’Engeström nomme « disturbance » (que l’on peut traduire par « perturbation »).
Cette perturbation apparaît quand l’individu réalise des actions différentes de celles qui sont
admises dans la communauté, actions désignées par le terme « script » : « the continuity of
actions is accounted for by the existence of standardized or habitual scripts that dictate the expected
normal order of actions » (Engeström, 2000 : 964). Les scripts sont donc très proches du concept
de routines organisationnelles (voir Chapitre 1 - page 37). Ce changement va obliger
l’individu à modifier le système d’activité de la communauté et amener l’individu à proposer
une solution à ses collègues (étape 3 sur la Figure 19). L’individu doit motiver sa
proposition : pourquoi faire différemment comparativement à d’habitude ? Pourquoi
changer la manière de faire alors que l’on a toujours fait comme cela ici ? Cette solution sera
validée ou non par ses pairs pour résoudre le conflit et intégrer la nouvelle pratique dans la
communauté.

L’objectif du modèle proposé par Yrjö Engeström est donc de faire émerger les
tensions au sein du système d’activité afin d’améliorer sa compréhension du phénomène
d’apprentissage et d’analyser des pratiques émergentes. Dans ses travaux, il utilisera ce
modèle pour étudier les pratiques de soin dans un hôpital par un médecin peu expérimenté
et leur évolution au fil du temps. Les actions de ce dernier sont décrites avec minutie en

150
fonction de son modèle. Il constate par exemple que le docteur (le sujet) interagit avec son
patient (l’objet) mais également avec d’autres docteurs (la communauté) pour formuler son
diagnostic. Les interactions sont modifiées par les règles, les outils et concepts (le
stéthoscope, les questions qu’il pose dans tel cas) et la division du travail en vigueur au sein
de l’hôpital. On comprend alors que tout système d’activité comporte des éléments formels
et informels dans l’exercice du métier de docteur. La relation sociale entre le sujet et l’objet
est modifiée par l’utilisation d’artefacts médiateurs ; elle se fait sous la contrainte de règles
(que doit-il faire dans ce cas ?), au sein d’une communauté (que font ses collègues dans ce
cas ?) et en respectant une division du travail (qui fait quoi dans ce cas ?).

Dans un autre article publié en 2001, Engeström énonce les cinq principes (Tableau
21) de son modèle : l’unité d’analyse est le système collectif, source des pratiques observables
dans ses réseaux de relation intra et inter systèmes d’activité (a) ; plus les systèmes d’activité
interagissent, plus ils deviennent sources de points de vue, d’innovation mais également de
conflits (« disturbances ») (b) ; ces systèmes permettent d’accumuler des pratiques
transférables à ceux qui l’intègrent (c) ; ces systèmes génèrent des tensions entre les pratiques
développées et les pratiques historiques (d) ; enfin ces systèmes évoluent en fonction de la
prise de conscience des praticiens (e).

Tableau 21. Les cinq principes pour comparer des systèmes d'activité (adapté d’Engeström, 2001)
a) Unité d’analyse Le système d’activité
b) Points de vue exprimés Des voix multiples s’expriment et peuvent
entraîner des perturbations ou des conflits
c) Historicité Les pratiques s’accumulent au sein du
système et se transforment sur le long terme
d) Déclencheur de l’apprentissage Les contradictions inter et intra systèmes
sont la source de l’apprentissage
e) Transformation Les systèmes évoluent grâce aux acteurs qui
tentent de modifier les règles formelles

Ce modèle offre donc un cadre d’analyse du travail d’un individu (le sous-ensemble)
tout en englobant ses relations de travail avec les autres services de l’organisation
(l’ensemble). Ce cadre théorique permet donc de répondre aux différents objectifs de
recherche soulevés dans la partie précédente, à savoir l’étude des apprentissages du
gestionnaire, l’étude des conflits dans l’exercice de la fonction et l’étude du contexte dans
lequel évolue le praticien.
Dans la partie suivante, nous allons décrire dans le détail les différents éléments du
modèle du système d’activité.

151
3.2.3 Le modèle appliqué aux gestionnaires des connaissances

Comme nous l’avons vu, le système d’activité se décompose en six éléments


distincts : le sujet, l’objet, la communauté, l’artefact médiateur, les règles et la division du
travail. Chaque sous-section s’achève par une question guidant notre étude empirique sur les
pratiques des gestionnaires des connaissances.

3.2.3.1 Le sujet

Dans le modèle du système d’activité (Figure 18 – page 149), le « sujet » est la


personne que l’on souhaite étudier dans son contexte d’action. Nous concernant, il s’agit du
gestionnaire des connaissances.
Les questions de son profil, de sa formation et de son histoire doivent être abordées
quand on étudie le sujet (Engeström, 1987). D’où vient-il ? Quelle profession a-t-il exercé
avant ? Quel(s) diplôme(s) a-t-il obtenu ? Le praticien (le sujet) doit alors être étudié en
prenant en compte son histoire personnelle pour que le chercheur l’intègre dans son analyse
de l’activité.
Le sujet est employé dans une organisation pour une mission précise : le médecin est
engagé dans l’hôpital pour soigner des patients au même titre que le gestionnaire des
connaissances est engagé pour gérer les savoirs de l’entreprise. A ce titre, la mission diffère
de l’objet (Engeström, 2000) dans le sens où l’objet présente les pratiques réelles alors que le
sujet a été engagé selon un profil de compétences, un poste précis. Cette mission dépend des
résultats attendus par les membres de l’organisation.

Æ Quels sont les profils des knowledge managers ? Quelle est la mission attribuée par
l’organisation ?

3.2.3.2 L’objet

L’objet est « ce sur quoi porte l’activité du praticien » (Engeström, 1987). L’objet est ce
qui dirige l’activité et il donne lieu à un résultat : la création d’un produit, la mise en place
d’un processus, etc. Le sujet n’est pas en relation directe avec l’objet, mais indirectement par
l’utilisation d’outils. Il peut s’agir d’un autre individu (un patient dans le cas du docteur
étudié par Engeström), d’un projet, d’un produit ou d’un processus. En ce sens, objet et
objectif peuvent être considérés comme synonymes même s’il existe un décalage entre

152
l’objectif assigné par l’organisation et celui qui peut être effectivement celui du praticien
(Engeström, 2000).

Æ Qu’est-ce que les knowledge managers font réellement en réponse à leur mission ?

3.2.3.3 La communauté

La communauté regroupe l'ensemble des individus qui partagent un même objet


(Engeström, 1987). L’étude de la relation entre le sujet, l’objet et la communauté est
primordiale puisqu’elle va modifier les relations de l’acteur à son environnement et
influencer ses actions et ses interprétations. Au sens d’Engeström, cette communauté englobe
des collaborateurs au sein de l’organisation et ceux avec qui il peut entretenir des liens hors
de celle-ci. C’est pourquoi la communauté du gestionnaire des connaissances comprend des
collaborateurs internes et les collaborateurs externes.
Les collaborateurs internes comprennent toutes les personnes dans l’organisation
susceptibles d’être en interaction avec les gestionnaires des connaissances. Les collaborateurs
externes rassemblent toutes les personnes hors de l’organisation susceptibles de collaborer
avec les gestionnaires des connaissances. Il est ici intéressant d’étudier l’influence que peut
avoir la communauté sur l’activité du praticien (Engeström, 2003) et, en retour, étudier
l’influence du praticien sur ces collaborateurs.

Æ Avec qui les knowledge managers collaborent-ils ? Comment les membres de


l’organisation « font » du knowledge management grâce aux knowledge managers ?

3.2.3.4 L’artefact médiateur

Pour transmettre les principes de knowledge management aux collaborateurs, le


knowledge manager doit utiliser des outils, des documents ou des discours. Un outil se
définit alors comme un élément d’une activité utilisée comme un moyen (Engeström, 2000).
L’activité est médiatisée par des outils cognitifs ou organisationnels : l’artefact médiateur.
Groleau (2002 : 21) définit les artefacts comme « des éléments ayant une forme matérielle
durable contenant des connaissances ». Par exemple, un outil technologique comme Lotus
Notes ou encore l’email peut être considéré comme un artefact parmi d’autres capable de
créer, transformer et propager une représentation (Groleau, 2002). Le docteur étudié par
Engeström (2000) va ainsi utiliser son stéthoscope, le dossier du patient et son téléphone

153
pour établir le diagnostic à propos de la maladie d’un enfant. Les médias employés par les
individus peuvent également être considérés comme des artefacts : le téléphone, le fax, la
vidéo, etc.
Dans ce sens, « l’outil » et « l’instrument » sont synonymes (par exemple les
statistiques sont un outil d’aide à la décision). Dans les sciences de gestion, son vocable
provient de la notion « d’outillage administratif » inventée par Fayol (1916). Dans
l’entreprise un outil de gestion est considéré comme un «dispositif formalisé qui permet
l’action organisée» (David, 1996) et recouvre une réalité très hétérogène : des tableaux de
bord, des systèmes experts, des systèmes d’information ou encore des systèmes de
rémunération. Hatchuel et Weil (1992 : 122-126) considèrent, eux, les outils de gestion comme
un conglomérat singulier constitué d’un « substrat formel » porteur d’une « philosophie
gestionnaire » et « d’une vision simplifiée des relations organisationnelles ». Le substrat
formel de l’outil est sa représentation visuelle (tableau, affiche, etc.). Sa philosophie
correspond au comportement que l’employé doit adopter grâce à l’outil (amélioration de la
performance, changement d’habitude, retour d’expérience, etc.). La vision de l’outil est la
représentation du fonctionnement du collectif (qui fait quoi ?) ; fonctionnement aujourd’hui
symbolisé par des workflows (partage de tâches).
Detchessahar et Journé (2007) considèrent ces outils de gestion comme des artefacts
textuels, dont l’étude est essentielle dans l’analyse du fonctionnement des organisations :
« les chaînes d’écriture et de lecture qui se nouent autour des outils de gestion constituent
bien le lien entre le discours stratégique de l’entreprise (l’intention que l’outil est censé
porter) et le discours organisationnel (la stratégie avérée, c’est-à-dire la façon dont les acteurs
se sont appropriés cette intention) » (Detchessahar et Journé, 2007 : 90).

Æ Quels sont les outils de gestion utilisés par les gestionnaires des connaissances ?

3.2.3.5 Les règles

Dans le modèle du système d’activité, les « règles » sont les prescriptions informelles
qui permettent à l’individu d’exercer son activité avec sa communauté (Engeström, 1987).
Les règles sont considérées par Engeström comme des « scripts », terme que l’on peut
rapprocher à celui de « routine organisationnelle », à la différence que certaines règles
peuvent être explicitées par les individus (ce qui est plus difficile pour les routines). Une fois
la règle formalisée, la question qui se pose est celle du respect ou non des règles par
l’individu. Un individu peut ainsi chercher à contourner les règles définies par l’organisation

154
pour poursuivre un objectif pourtant en conformité avec celui de l’organisation. Le non-
respect des règles peut ainsi avoir pour conséquence une modification des pratiques du sujet
puisque ce dernier va adapter son action en fonction du but poursuivi (Engeström, 2000).
Cette conception des règles n’est pas sans rappeler celle de Jean-Daniel Reynaud
(1993) qui oppose « les règles autonomes », produites par le collectif, aux « règles de
contrôle » produites par la direction. Dans cette optique, la caractérisation des règles
formelles renvoie aux règles de contrôle tandis que les règles informelles sont en rapport
avec l’autonomie des exécutants. Ainsi, les individus situés dans un même espace de travail
produisent des règles collectives qui sont, en quelque sorte, des « réponses » aux règles
produites par ceux qui ont la charge de les encadrer. Ces règles fonctionnent « l’une contre
l’autre » (Reynaud, 1993 : 112) mais elles peuvent donner lieu à des négociations entre le
collectif et la direction. On parle alors de régulation conjointe entre les deux parties.

Æ Les gestionnaires des connaissances sont-ils également producteurs de règles ? Si oui,


quelle est la nature des règles définies par les gestionnaires des connaissances ? Dans quelle
mesure les règles sont respectées par les membres de l’entreprise ?

3.2.3.6 La division du travail

Dans un système d’activité, l’objet poursuivi par les individus est identique mais les
moyens pour y parvenir diffèrent en fonction des membres (Engeström, 1987). Chaque
individu possède des compétences différentes mais complémentaires et dans le système
d’activité cette compétence fait partie d’un tout, d’une histoire personnelle : « the division of
labor in an activity creates different positions for the participants, the participants carry their own
diverse histories, and the activity system itself carries multiple layers and strands of history engraved
in its artifacts, rules and conventions » (Engeström, 2001 : 136). La division du travail permet
donc de savoir « qui fait quoi ?» selon le but poursuivi.
Cette division du travail est fondée sur les savoirs des individus. Par exemple,
l’apprenti docteur étudié par Engeström est nécessairement aidé par une infirmière pour
certaines activités alors qu’un docteur plus expérimenté ne l’est pas. Les questions de
coopération et de coordination sont ici abordées par l’auteur. Dans la coordination, chacun
exécute son propre rôle en fonction du « script » et les actions sont déterminées entre les
individus. La coopération concerne un problème commun où chacun essaye de trouver des
façons mutuellement acceptables de conceptualiser ce problème.

Æ Comment se répartissent les activités dans un service de knowledge management ?

155
Nous avons défini chacun des éléments du modèle du système d’activité. Six
questions doivent être abordées par le chercheur pour étudier les pratiques des gestionnaires
des connaissances. Ces questions ont des implications en ce qui concerne le recueil de
données pour le chercheur engagé dans une étude empirique (Tableau 22), implications que
nous allons discuter dans le chapitre suivant.

Tableau 22. Les questions guidant le chercheur dans l'analyse des pratiques des gestionnaires des
connaissances.
Dimension du Question guidant le Implication pour le recueil de
système chercheur données
Sujet Qui est le gestionnaire des Etudier le profil du gestionnaire et sa
connaissances et que doit-il mission assignée par l’entreprise.
d’activité

faire ?
Système

Objet Que fait-il ? Etudier les actions au quotidien du


gestionnaire.
Communauté Avec qui collabore-t-il ? Etudier les collaborateurs internes et
externes.
Règles Quelles sont les règles définies Etudier la définition et l’application des
par le gestionnaire ou celles à règles de fonctionnement par le
Système de
ressources

suivre ? gestionnaire.
Artefact médiateur Quels sont ses outils de Etudier les instruments de gestion et les
gestion ? médias utilisés par le gestionnaire.
Division du travail Qui fait quoi ? Etudier le partage des tâches entre le
gestionnaire et les collaborateurs.

L’analyse de l’activité des gestionnaires par le modèle du système d’activité permet


au chercheur d’ancrer ses résultats dans leur contexte. La prise en compte de ce contexte
est essentielle pour saisir la réalité du travail de ces gestionnaires et il répond à notre
premier objectif : décrire les actions des knowledge managers.
Le modèle permet également d’analyser le décalage entre ce que les gestionnaires
sont censés faire (en tant que sujet), ce qu’ils font au quotidien (leur objet). L’analyse du
décalage peut s’expliquer par la mobilisation de son système de ressources (les règles, les
artefacts et la division du travail). L’étude des contradictions entre son activité et les
ressources à sa disposition répondent à notre deuxième objectif : étudier les conflits
entraînés par l’exercice de cette fonction au sein d’une organisation pour l’obtention et la
mobilisation de ressources financières et humaines.
Enfin, les contradictions qui apparaissent sur le modèle du système d’activité
illustrent les évolutions des pratiques des gestionnaires. Cet apport répond à notre
troisième objectif : étudier les pratiques émergentes des gestionnaires dans leur contexte
d’action.

156
Nous allons maintenant conclure ce troisième chapitre en précisant nos questions de
recherche. Ces questions de recherche s’inscrivent dans une démarche d’exploration hybride
(Charreire et Durieux, 1999 : 69) qui consiste « à procéder par allers-retours entre des
observations et des connaissances théoriques tout au long de la recherche ». L’exploration est
qualifiée « d’hybride » par comparaison avec l’exploration théorique, qui consiste à opérer
un lien entre deux champs théoriques distincts, et par comparaison avec l’exploration
empirique qui consiste à faire table rase des travaux antérieurs.

L’exploration hybride est une voie qui se situe entre ces deux démarches. Elle permet
d’enrichir ou d’approfondir des connaissances antérieures et d’inscrire le produit de nos
recherches dans un réalisme critique (Koenig, 1993) et un enracinement des faits considérés.
Notre objectif n’est donc pas de tester le modèle mais de le mobiliser pour donner du sens à
nos observations empiriques. Le modèle du système d’activité est une « répresentation
simplifiée destinée à expliquer/schématiser la situation réelle étudiée » (Charreire et
Durieux, 1999 : 65).

En conséquence, les trois questions de recherche présentées ci-dessous s’inscrivent


dans une logique d’exploration hybride. Elles nous incitent à nous appuyer sur la littérature
consacrée aux gestionnaires des connaissances, à dépasser les limites de cette littérature en
utilisant un modèle permettant d’analyser leurs pratiques, à enrichir les connaissances
antérieures à propos de ces praticiens et à contextualiser nos résultats.

157
Nos questions de recherche sont donc les suivantes :

Question de recherche 1 : Quelles sont les actions les plus récurrentes dans les systèmes
d’activité des gestionnaires des connaissances ?
Pour dépasser les limites des travaux empiriques consacrés au knowledge manager, il est
nécessaire de suivre « dans l’ombre » l’activité quotidienne des gestionnaires des
connaissances pour en repérer les actions les plus répétitives. Une analyse du contenu de
leur agenda, de leurs artefacts et une observation de leurs tâches quotidiennes sont ici
indispensables pour répondre à cette première question de recherche.
La réponse à cette question nous permettra de savoir ce que les knowledge managers font
réellement dans le cadre de leur fonction.

Question de recherche 2 : Quelles sont les tensions qui apparaissent au sein des systèmes
d’activité des gestionnaires des connaissances ?
Pour comprendre les difficultés pratiques du knowledge management en entreprise, il ne
suffit pas d’observer le déroulement de projets ou d’initiatives s’en réclamant. Il est
nécessaire d’étudier des points de frictions ou de conflits générés par l’action du knowledge
manager. Une analyse transversale de différents systèmes d’activité permet ici d’identifier
ces points de tension.
Cette question de recherche permet d’identifier les difficultés auxquels sont confrontés les
gestionnaires des connaissances. Compte tenu du fait que les systèmes d’activité et de
ressources sont interdépendants et contraints par l’environnement organisationnel et que ces
systèmes n’ont pas été étudié dans la littérature consacrée à cette fonction, nous cherchons à
comprendre les mécanismes d’interdépendance susceptibles de s’opérer lorsque les
knowledge managers mettent en place une politique de KM.

Question de recherche 3 : Comment les systèmes d’activité se modifient-ils au contact de


l’organisation ?
Les gestionnaires des connaissances doivent réduire les difficultés à partager le savoir et
proposer des solutions permettant à l’entreprise de faire fructifier son capital connaissances
et de développer l’apprentissage dans des collectifs de travail. Pour autant, ils doivent
adapter leur intention à leur capacité d’action. Des pratiques émergentes peuvent alors
apparaître et ne pas être en accord avec la politique voulue par l’organisation.
Cette troisième question permet d’identifier les changements dans le système d’activité du
gestionnaire, changements qui sont source d’apprentissage. Cette analyse des conflits nous
offre aussi la possibilité de comprendre l’influence qu’exerce les knowledge managers sur les
collaborateurs et sur l’organisation dont ils dépendent. Cette influence est également
possible en sens inverse.

158
Conclusion du Chapitre 3.

L’objet de ce troisième chapitre était de proposer un modèle qui allait nous servir de
guide à la conduite de notre recherche empirique.

La littérature consacrée à la fonction knowledge management souligne les difficultés


inhérentes à sa jeunesse : difficultés à définir un positionnement dans l’organigramme,
tâches évolutives et dépendantes du contexte organisationnel et compétences multiples à
avoir pour être nommé gestionnaire des connaissances. Mais cette littérature est également
très parcellaire. De part la méthodologie employée par les auteurs, elle véhicule une image
très stylisée de la fonction. Ces études se concentrent sur ce que ces managers sont censés
faire et sur les difficultés rencontrées et non sur ce qu’ils font réellement. Les conflits générés
par l’apparition de cette nouvelle fonction dans l’organisation sont également oubliés.
Ces limites nous ont permis de définir notre intention de recherche : observer et
analyser les pratiques des gestionnaires des connaissances en les inscrivant dans leur
contexte d’action. Nous verrons, dans le chapitre suivant, que cette intention est renforcée
par la familiarité que nous avons avec cette problématique de part notre expérience
personnelle.

Cette intention nécessite d’adopter un point de vue original sur le travail du


gestionnaire des connaissances : celui du système d’activité. Ce modèle est un cadre
théorique permettant l’étude de l’individu par la prise en compte du contexte social et
historique dans lequel son action est ancrée. Il se décompose en six éléments qui offrent des
catégories d’étude permettant au chercheur de structurer sa collecte de données et d’adopter
une démarche d’exploration hybride.

Nous allons maintenant décrire la méthodologie employée pour conduire notre étude
empirique et répondre à nos trois questions de recherche (QR) :
QR1 : Quelles sont les actions les plus récurrentes dans les systèmes d’activité des
gestionnaires des connaissances ?
QR2 : Quelles sont les tensions qui apparaissent au sein des systèmes d’activité des
gestionnaires des connaissances ?
QR3 : Comment les systèmes d’activité se modifient-ils au contact de l’organisation ?

159
CONCLUSION DE LA PREMIERE PARTIE

L’éparpillement de la littérature sur le thème de la gestion des savoirs nous a conduit


à adopter un modèle permettant d’analyse les pratiques des gestionnaires des connaissances
selon deux perspectives ancrées théoriquement.

La première, nous l’avons nommée l’approche technique. Elle regroupe les théories
relatives au management stratégique (l’analyse des ressources et des compétences
distinctives) et aux systèmes d’information (les outils de codification des connaissances).
C’est le besoin de constituer un capital connaissances propre à assurer un avantage
concurrentiel à l’entreprise qui pousse les dirigeants d’entreprise à investir dans des outils de
codification de connaissances telles que des bases de bonnes pratiques ou des intranets. Le
profil du gestionnaire des connaissances est ici proche de celui d’un responsable
informatique.

La seconde est qualifiée d’approche sociale. Elle embrasse les théories relatives aux
réseaux sociaux (l’analyse des liens forts et faibles) et, plus précisément, ceux des
communautés auto-entretenues. Ici, c’est le besoin de faire émerger un collectif d’individus
susceptibles de coopérer plus efficacement et de régler rapidement des problèmes qui incite
les dirigeants d’entreprise à cultiver ces communautés. Le gestionnaire des connaissances
doit alors piloter un réseau social et tenter de formaliser l’informel.

Même si la frontière entre les deux approches est aujourd’hui largement reconnue
dans la littérature, les conflits générés par la mise en place de ces démarches par un cadre
d’entreprise n’ont fait l’objet d’aucune recherche. Cet état de l’art sur la gestion des
connaissances et sur ses praticiens permet ainsi de repérer des manques qu’il semble
intéressant de combler.

Une compréhension plus fine et plus rigoureuse du travail du gestionnaire des


connaissances est donc nécessaire. C’est pourquoi le troisième chapitre propose un modèle
d’analyse des pratiques de ces gestionnaires. Afin de comprendre la nature des actions
menées par ce gestionnaire et les tensions susceptibles d’apparaître lors de l’exercice de sa
fonction, nous proposons d’utiliser le modèle du système d’activité.

Nous cherchons ainsi à décrire les systèmes d’activité de ces gestionnaires et exposer
ainsi les difficultés de pilotage d’une démarche de knowledge management. Les six éléments
du modèle vont nous permettre de structurer notre étude empirique dont le contenu et les
résultats sont présentés dans la deuxième partie.

160
161
DEUXIEME PARTIE

ETUDE DES PRATIQUES DES GESTIONNAIRES DES


CONNAISSANCES :
METHODOLOGIE, ANALYSE ET RESULTATS.

162
Dans cette deuxième partie nous présentons les résultats de notre étude empirique.

Le chapitre quatre décrit nos choix méthodologiques et notre démarche générale de


recherche. Notre objectif est de décrire et d’analyser les pratiques des gestionnaires des
connaissances en entreprise. Le cadre théorique retenu pour étudier ces praticiens nous incite
à opter pour une méthode de cas enchâssés. En s’appuyant sur une ontologie de réalisme
critique inscrite dans une épistémologie de positivisme « aménagé », nous proposons
d’analyser au plus près du terrain ces praticiens à travers un design de recherche permettant
leur observation, l’analyse de leurs artefacts et l’examen de leur discours.

Le chapitre cinq présente l’analyse de quatre cas enchâssés dans une même
entreprise. Dans chaque cas est décrit, dans le détail, le système d’activité du gestionnaire
des connaissances. Puis une comparaison de ces systèmes est réalisée pour aboutir à une
analyse des points de tension les plus récurrents. Cette analyse transversale aboutit à la
présentation de quatre domaines d’activité des gestionnaires dans lesquels nous distinguons
les actions qu’ils y mènent.

Le chapitre six permet de discuter les résultats de notre recherche pour en tirer des
implications théoriques, méthodologiques et managériales. Nous apportons des réponses à
nos questions de recherche. Nous essayons de situer les décalages entre nos résultats et le
corpus académique en prenant en compte les méthodologies employées dans les travaux de
recherches précédentes. Dans un dernier temps, nous essayons de nous interroger sur
l’utilité d’une telle fonction dans l’organisation et son impact sur l’appropriation de la
démarche par les employés. Une entreprise a-t-elle besoin d’un gestionnaire des
connaissances ? Enfin, nous proposons une typologie des profils de gestionnaires de
connaissances. Elle offre des pistes de réflexion sur les compétences nécessaires à l’exercice
de cette fonction et sur la nature des pratiques en entreprise. Notre ambition est, en dernier
lieu, de proposer des recommandations à l’attention du management et de tirer une
conclusion sur les limites de notre recherche et sur des voies de recherche possibles à
l’avenir.

163
164
Chapitre 4.
Choix méthodologiques et démarche générale de recherche

« Les miroirs feraient bien de réfléchir un peu avant de renvoyer les images.»

Jean Cocteau (1932, 2003 : 32)

4.1 Positionnement épistémologique 4.2 Principes méthodologiques

4.1.1 Une posture d’observateur 4.2.1 La démarche qualitative

4.1.2 Un positivisme « aménagé » 4.2.2 La méthode des cas enchâssés

4.1.3 Un raisonnement abductif 4.2.3 La sélection des cas

4.3 Collecte et traitement des données


4.3.1 La collecte des données sur le terrain
4.3.2 L’analyse des données
4.3.3 Fiabilité et validité du processus de recherche

165
Introduction du Chapitre 4.

Dans les sciences de gestion, le positionnement du chercheur vis-à-vis de la réalité


qu’il tente de comprendre est au cœur de sa réflexion puisqu’il ne maîtrise pas
nécessairement le phénomène qu’il étudie. Ces interrogations ne sont pas propres à la
gestion puisque Claude Bernard se demandait déjà si la physiologie était une science de
l’abstrait et de chiffres ou une science du concret et de l’expérimentation : « s’il fallait donner
une comparaison qui exprimât mon sentiment sur les sciences de la vie, je dirai que c’est un
salon superbe tout resplendissant de lumière, dans lequel on ne peut parvenir qu’en passant
par une longue et affreuse cuisine » (Bernard, 1865 cité par Curchod, 2003 : 157). Ce passage de
l‘« affreuse cuisine » au « salon superbe » est précisément l’objet de ce quatrième chapitre.

Nous y expliquons et défendons notre démarche générale de recherche, nos choix


épistémologiques et ontologiques. Ce projet est non linéaire. Nous avons dû le faire évoluer à
la fois en fonction de la collecte des données et de nouvelles lectures réalisées. Comme le
note Girin « dans le domaine de la recherche sur la gestion et les organisations, il est clair que
les événements inattendus et dignes d’intérêt sont propres à bouleverser n’importe quel
programme [de recherche], et que la vraie question n’est pas celle du respect du programme,
mais celle de la manière de saisir intelligemment les possibilités d’observation qu’offrent les
circonstances » (Girin, 1989 : 1).

Le projet de recherche est donc un système qui permet de passer d’une question à des
éléments de réponse dans lequel les éléments sont interdépendants. A titre d’illustration,
notre méthodologie va découler de notre posture épistémologique qui, en retour, va
influencer notre mode de collecte et d’analyse des données. Néanmoins, pour des raisons
conventionnelles, il nous est nécessaire de présenter séquentiellement les différents éléments
qui composent notre démarche générale.

L’objectif de ce quatrième chapitre est d’interroger la cohérence entre notre


positionnement épistémologique et notre manière de conduire les recherches. Il démarre par
deux grandes sections théoriques qui posent les bases de notre épistémologie (4.1) et de notre
méthodologie (4.2). Puis il se précise dans la section suivante avec leur mise en application
par le chercheur (4.3).

166
4.1 Positionnement épistémologique

L’épistémologie peut se définir le plus simplement comme un ensemble d’idées


directrices qui orientent la démarche du chercheur en lui fournissant des principes et des
procédures de recherche. Le positionnement épistémologique est donc consubstantiel à toute
recherche (Martinet, 1990) dans la mesure où il précise l’essence de la réalité observée
(l’ontologie) et la relation entre la théorie et cette réalité (Koenig, 1993).

Ce choix est un « positionnement » par rapport à d’autres postures possibles,


puisque, selon Bateson, « le chercheur est enserré dans un filet de prémisses
épistémologiques et ontologiques qui – au-delà de toute vérité ou fausseté – deviennent en
partie autovalidantes » (Bateson, 1972 : 314). Notre positionnement est donc étayé par un
certain nombre d’arguments tirés de notre revue de la littérature et de travaux relatifs à
l’épistémologie dans les sciences sociales. Ce positionnement va à la fois influencer la façon
dont nous allons aborder la réalité telle qu’elle s’offre à nous mais également être déterminé
par nos conditions d’accès à un terrain d’étude. Conformément à Guba et Lincoln (1994), la
relation du chercheur à la réalité est appelée « ontologie » alors que la relation du chercheur
à son objet de recherche est appelée « épistémologie ».

Pour définir avec précision ce positionnement, nous détaillons dans cette première
partie les choix qui nous poussent à opter pour une posture d’observateur (4.1.1) s’inscrivant
dans un épistémologie post-positiviste et une ontologie réaliste critique (4.1.2) et une
réflexion abductive (4.1.3).

4.1.1 Une posture d’observateur

La posture de chercheur vis-à-vis de son objet de recherche est déterminante pour


assurer la scientificité de son travail. Etudions-nous le processus sur lequel nous agissons ou
prenons-nous du recul pour observer la réalité ? La réponse à cette question s’obtient grâce à
un travail exploratoire avec le terrain (4.1.1.1) qui va déterminer notre accord de
collaboration avec l’organisation étudiée (4.1.1.2) permettant de répondre au dilemme de la
distance du chercheur vis-à-vis de son objet de recherche (4.1.1.3). Nous concluons cette
première sous-section par les avantages et les inconvénients de cette posture (4.1.1.4).

167
4.1.1.1 La phase exploratoire

La phase exploratoire consiste à préparer la démarche de recherche sur le terrain


(Giroux, 2003). Cette étape permet, selon nous, d’expliquer avec acuité les raisons qui nous
poussent à adopter telle ou telle posture. Pour comprendre l’importance qu’a eue cette
phase, remontons aux origines de notre relation avec notre terrain d’étude : l’entreprise
française Lafarge.

La prise de contact avec Lafarge s’est déroulée durant un stage rémunéré de six mois
réalisé dans le cadre d’un programme de formation (un Mastère Spécialisé). L’obtention de
ce stage a été facilitée par des relations professionnelles nouées avec la Corporate Knowledge
Manager de l’entreprise, Joanna Stuart.
En effet, avant ce stage, nous avons occupé la fonction de « Consultant Junior » sur un
logiciel de knowledge management (Sharenet) au sein d’un cabinet de conseil en nouvelles
technologies (Agilience), cabinet fondé par deux praticiens du knowledge management issus
du Boston Consulting Group. Cette expérience professionnelle s’est étalée sur une période de
18 mois durant laquelle nos premières réflexions à propos du knowledge management ont
commencé à émerger. Pendant cette période, nous avons commencé à acquérir la pratique du
knowledge management ; la pratique étant ici entendue comme un ensemble d’outils, de
méthodes et de modèles développés par des praticiens (Whittington, 2007). Nous avons mis
en place des outils de knowledge management (des espaces collaboratifs virtuels) et pu ainsi
avoir des interactions avec les clients du knowledge management : les employés des
entreprises. Nous avons enfin noué des relations avec des praticiens du management des
connaissances tels que des consultants ou des gestionnaires des connaissances et des
théoriciens (des chercheurs en sciences de gestion).
Joanna Stuart, Corporate Knowledge Manager de Lafarge, était notre responsable
dans le cabinet de conseil. Nommée au début de l’année 2002, elle nous a proposé de
rejoindre son équipe suite à notre départ de l’entreprise de conseil. Le stage consistait à
l’assister durant ses premiers projets. Il démarra en avril 2002 (voir Figure 20) à la Direction
des Systèmes d’Information à Paris, service dont dépend la Corporate Knowledge Manager.
Ce stage était donc une opportunité formidable pour observer les pratiques d’un
gestionnaire des connaissances. Mais notre projet de recherche n’était absolument pas défini
en ces termes à cette époque.

168
Figure 20. De la phase exploratoire à l'étude empirique

Phase exploratoire Etude empirique


(6 mois) (12 mois)

2002 2003 2004 2005 2006

Cette première approche du terrain, antérieure à notre travail doctoral et à l’étude


empirique, a été salutaire à double titre.
Premièrement, elle nous a permis de nous familiariser avec les problématiques de la
Corporate Knowledge Manager et de faire émerger notre problématique de recherche :
observer et analyser les pratiques des gestionnaires des connaissances. Vivant au quotidien
les difficultés de la fonction, tout en lisant des travaux de recherche sur le même thème, nous
ressentions véritablement un décalage entre la théorie et la pratique. Ce décalage nous a
incité à adopter une approche « pratique » de notre objet d’étude et orienté vers d’autres
lectures.
Deuxièmement, la période de stage nous a offert la possibilité de nouer des contacts
avec des gestionnaires des connaissances autres que Joanna Stuart, au niveau des branches
ou des services fonctionnels. Nous avons ainsi pu « poser des jalons » et identifier les
personnes représentatives de la fonction knowledge management. A l’époque de l’étude
exploratoire, le développement de relations avec ces personnes s’est faite naturellement et
sans arrière-pensées, avec pour seul guide la volonté de travailler en commun au lancement
de la politique Knowledge Management de Lafarge. En définitive, nous avons ainsi gagné un
temps considérable dans la sélection des cas d’études et pu préparer sereinement un accord
de collaboration avec l’entreprise.

4.1.1.2 L’accord de collaboration avec le terrain

Pour bien comprendre notre posture d’observateur, il est nécessaire de remonter à


l’historique de notre accord de collaboration. Suite à notre DEA (réalisé en 2002-2003), nous
avons proposé à la Corporate Knowledge Manager de revenir dans l’entreprise pour mener
des recherches dans le cadre de notre doctorat.
Sachant que le thème des pratiques quotidiennes des gestionnaires des connaissances
ne me permettrait pas d’obtenir un accord de la part de la Direction du Siège de Lafarge,

169
nous avons proposé de conduire un audit des indicateurs de performance utilisé dans une
politique de knowledge management. Nous savions que ce thème avait toutes les chances
d’intéresser la Corporate Knowledge Manager et la Direction du Siège, qui est la seule
Direction habilité à signer un accord de collaboration avec un laboratoire de recherche.
L’accord de collaboration rédigé est dans les Annexes (Tome II – page 3).
Entre la période exploratoire et la période d’étude empirique, nous avons fait en sorte
de rester en contact avec Joanna Stuart afin de collecter régulièrement des informations sur le
déroulement de ses projets. Finalement, nous avons obtenu un accord de collaboration
pendant une période de 12 mois du 1er juillet 2004 au 30 juin 2005 (voir Annexe 1.B. pour une
copie du document). Cet accord définit notre position dans l’entreprise en tant que
« stagiaire » au service Corporate Knowledge Management de Lafarge à Paris. A ce titre,
nous avons accès à la totalité des systèmes d’information du groupe, à un compte Lotus
Notes (messagerie et bases de données) et à une clé USB qui nous permet d’accéder à notre
compte Lotus Notes depuis notre domicile. Une présence à mi-temps dans le bureau de la
Corporate Knowledge Manager a été négociée ainsi que la possibilité de réaliser des
entretiens au sein du groupe Lafarge à tous les niveaux hiérarchiques.

En accord avec nos questions de recherche, nous pouvons donc affirmer que cet
accord nous a guidé dans notre positionnement vis-à-vis du terrain.

4.1.1.3 Le dilemme de la distance

Comment définir notre niveau de distance ou d’intimité à l’égard de la source des


données. Le chercheur est sans cesse confronté à ce dilemme pour accéder à la réalité du
terrain : doit-il emprunter une approche « dissimulée » par laquelle il conservera la maîtrise
absolue de la gestion avec les sources des données primaires et qui le conduira à adopter une
investigation masquant ses objectifs de recherche, ou doit-il au contraire opter pour une
approche « ouverte », ne cachant pas ses objectifs aux sujets-sources mais leur offrant de fait
un plus grand contrôle sur le processus d’investigation (Baumard et al., 1999 : 248) ?
Dans ce dilemme, l’accord de collaboration signé avec l’entreprise doit également être
considéré. Sur quoi porte l’étude ? Quel est son périmètre ? Que fait le chercheur au
quotidien dans l’entreprise ? Nous concernant, l’accord de collaboration (dont la copie est
l’Annexe 1.A.) spécifie très clairement dans les Articles 3, 4 et 5 les droits et les devoirs du
chercheur vis-à-vis de son terrain. Cet accord prévoit un statut d’observateur. Mais, comme

170
l’a montré Buford Junker (1960), il existe différents niveaux d’observation pour le chercheur
vis-à-vis de son terrain (Tableau 23) : la participation complète, le participant qui observe,
l’observateur qui participe et l’observateur complet.

Tableau 23. Les quatre statuts du chercheur observateur selon Junker (1960)
Le statut du chercheur Identité du chercheur Commentaires
Un participant complet Non dévoilée aux acteurs de Soulève des problèmes
terrain éthiques. Peut être utile pour
observer des communautés
clandestines.

Un participant qui observe Dévoilée Le chercheur agit comme un


employé. Il a un rôle défini
dans la structure.

Un observateur qui participe Dévoilée Le chercheur ne prend pas part


activement et formellement aux
activités dans la structure. Il les
observe essentiellement.

Un observateur complet Dévoilée ou non Le chercheur observe sans


contact direct avec les acteurs
(approche expérimentale en
laboratoire par exemple).

Pour définir avec précision notre posture, nous avons procédé en deux temps (Figure
21).

Figure 21. Postures adoptées par le chercheur vis-à-vis de son terrain

Participant Participant Observateur


complet qui observe qui participe
Temps

2002 2003 2004 2005 2006

Premièrement, nous nous sommes positionné en tant que participant qui observe.
Etant donné notre expérience professionnelle antérieure et la nature de cet accord de
collaboration, nous avons opté pour une posture ouverte afin d’accéder au terrain de
recherche. Comme nous avions divulgué le fait que nous étions un chercheur en sciences de
gestion aux responsables de l’entreprise, et conformément à notre accord, nous avons
proposé de mener un audit des indicateurs de performance en knowledge management.

171
Cette proposition était un moyen d’accéder aux gestionnaires des connaissances en
créant un bénéfice mutuel : nous pouvions gagner la confiance des gestionnaires des
connaissances de Lafarge en leur fournissant des informations recueillies au sein du groupe
et hors du groupe (voir l’Annexe 1.C. pour lire la copie de la proposition) tout en abordant
leurs pratiques quotidiennes grâce à des entretiens et des observations au sein de leur
service. Concrètement, notre tâche consistait à faire un audit des indicateurs de performance
utilisés par les gestionnaires des connaissances et d’identifier des cas de réussites de transfert
des bonnes pratiques. Ce travail nous a également conduit vers d’autres membres de
l’équipe knowledge management susceptibles de participer à cette étude. Nous avons ainsi
développé nos contacts et pu accéder à de nouvelles données à travers différentes strates de
l’entreprise.

Puis, dans un deuxième temps, nous avons adopté un point de vue distancié sur le
travail du gestionnaire des connaissances. Nous sommes devenu un observateur qui
participe. Cette deuxième posture a été rendue possible par la fin de notre audit sur les
indicateurs et par la communication de nos résultats (Annexe 6.A.). Durant cette deuxième
période, nous avions la charge de représenter la Corporate Knowledge Manager lors de
réunions de branches ou de séminaires. Nous avions donc pour consigne de prendre des
notes et d’observer le fonctionnement de l’équipe Knowledge Management de la branche.
C’est pourquoi nous définissons notre posture comme une posture d’observateur.
Cette dernière a été avant tout déterminée par notre objet d’étude et non par le choix d’un
courant ou d’une école de pensée scientifique. Le Tableau 24 résume les différentes actions
que nous avons menées durant les deux périodes.

Tableau 24. Les actions du chercheur en fonction de son statut vis-à-vis du terrain.
Ce que nous avons fait en tant que Ce que nous avons fait en tant
participant qui observe qu’observateur qui participe
- Conduite d’un audit sur les indicateurs de - Prises de notes lors de réunions de services KM
performance pour le compte de la Corporate dans les branches et les usines.
Knowledge Manager. - Observations des pratiques des knowledge
- Observations des pratiques des knowledge managers des branches.
managers du Siège. - Entretiens avec d’autres collaborateurs : les
- Entretiens avec les knowledge managers des opérationnels (directeurs d’usine ou responsables
branches et les collaborateurs (Direction d’équipe) qui sont les utilisateurs des services de
générale, consultants, directeurs de services KM.
transverses)
- Récolte de documents

Nous allons maintenant conclure sur les avantages et les inconvénients de notre
posture.

172
4.1.1.4 Les avantages et les inconvénients de notre posture

Le dilemme de la distance montre qu’il existe une tension entre les rôles
d’observateur et de chercheur (Groleau, 2003 ; Nègre et Kohn, 2003). Pour réduire cette
tension, nous avons consigné dans un journal de recherche (Encadré 7) des notes
personnelles à propos de nos observations et de nos entretiens (voir l’Annexe 4 pour des
extraits plus longs de ce journal).

Encadré 7. Extrait du journal de bord du chercheur.


Cette première visite m’a permis d’évaluer l’état d’avancement et la maturité de Lafarge concernant le
management des connaissances. L’accent est très clairement mis sur le partage des connaissances et
sur l’absence d’un processus de management des connaissances. Le KM y est considéré comme une
méthode de travail, impliquant plus de collaboration et la réutilisation des meilleures pratiques. Les
outils sont aujourd’hui installés, maintenant il s’agit de régler le défi humain : « Chez Lafarge, nous
avons beaucoup travaillé sur les outils. Il nous semblait très important d’assurer la faisabilité technique du
projet. Aujourd’hui, c’est au pari culturel et humain que nous sommes confrontés. Nous ne le gagnerons qu’en
développant un type de management orienté vers le partage. Cela dit, le leadership de l’entreprise a un rôle à
jouer dans cette mutation culturelle puisque le partage des connaissances est inscrit dans notre projet interne,
Leader for Tomorrow. » Joanna Stuart

Etre un participant qui observe est un positionnement particulièrement fructueux


quand on s’appuie sur des études de cas enchâssés (ce qui est notre choix, nous le verrons
par la suite). En travaillant au quotidien au côté des acteurs de l’entreprise, nous accédons à
une grande quantité de données dans un climat de confiance. Ce positionnement permet en
effet de multiplier les observations et le recueil de documents de sources diverses, d’assister
à des réunions de façon plus naturelle que l’observation simple et il justifie la présence au
sein de l’équipe (Musca, 2006 : 156).
Le danger, quand on adopte une posture de participant qui observe, est de délaisser
son regard critique vis-à-vis du terrain de recherche : « la participation aux activités du
groupe peut avoir comme conséquence d’intégrer pleinement le point de vue des observés
délaissant ainsi son regard critique du chercheur » (Groleau, 2003 : 217). Il se peut que le
chercheur s’identifie trop à la communauté sociale qu’il étudie. C’est pourquoi nous avons
limité notre participation à la conduite de cet audit sur les indicateurs de performance et à la
prise de note lors de réunions. Nous avons toujours gardé en tête la possibilité d’influencer
les pratiques des gestionnaires en raison des interactions que l’on a pu avoir avec les
gestionnaires. Ceci était particulièrement le cas avec Joanna Stuart qui était une ancienne
collègue de travail. Ce danger est d’autant plus grand pour nous qui sommes un ancien
praticien du knowledge management. Notre situation n’est pas sans rappeler celle de Julian

173
Orr (1996) quand il a étudié la communauté des réparateurs de photocopieurs de Xerox
(Encadré 8).
Encadré 8. Les avantages et les inconvénients de l'expérience professionnelle (Orr, 1996 : 7)
« Mon expérience pratique était à la fois un avantage et un problème. C’était bénéfique parce que ma
présence sur le terrain a été moins dérangeante puisque j’avais besoin de peu d’explication. De plus,
cela m’a aidé à gagner la confiance des techniciens. Toutefois, cela s’est avéré un problème au moment
de l’analyse puisque, dans mes notes, j’avais omis des éléments qui me paraissaient évidents sur le
terrain mais qui l’étaient moins lorsque j’ai pris un peu de recul. J’ai aussi trouvé que j’avais tendance
à examiner certains phénomènes comme non intéressants alors qu’ils ont retenu l’attention d’autres
personnes de l’extérieur. L’aide de collègues a été précieuse pour attirer mon attention sur des
données intéressantes qui, autrement, seraient restées dans l’ombre par ma faute ».

Ce danger de délaisser son regard critique est moindre dans la posture


d’ « observateur qui participe » puisque nos observations n’ont pas été déclarées aux
personnes observées. C’est pourquoi les données récoltées n’ont pas été « contaminées » par
la relation du chercheur avec son terrain. Cette posture permet ainsi d’analyser des données
issues principalement des observations des actions des gestionnaires des connaissances dans
leur contexte. Nous sommes toutefois conscient que nous nous exposons à des
mécontentements de la part des personnes observées quand notre travail sera publié même
si nous jugeons cette probabilité très faible étant donné que la totalité des personnes étudiées
n’occupent plus leur fonction aujourd’hui ou qu’ils travaillent dans une autre entreprise.
Le principal problème de notre posture d’observateur est sa cohérence avec notre
modèle d’étude : le système d’activité. Ce modèle s’inscrit dans une perspective « pratique »
selon laquelle le chercheur est censé avoir une approche socio-constructionniste (Burr, 2003)
de la réalité. L’Encadré ci-dessous tente d’apporter une réponse à cette interrogation : peut-
on adopter une perspective « pratique » tout en étant observateur ?

Encadré 9. Peut-on adopter une perspective "pratique" tout en étant observateur ?


Dans leur article « Three Responses to the Methodological Challenges of Studying Strategizing » Balogun et
al. (2003) abordent les questions épistémologiques et méthodologiques de cette perspective. Le
principal problème que soulève cette perspective est que le chercheur doit prendre part à la pratique
pour pouvoir en saisir le sens : « sharing practice is about sharing know how, but know how is potentially
hard to share in any way other than through practice itself: This suggests the need for a more active involvement
of practitioners in the research, which in turn requires us to investigate alternative means of data collection that
sit outside the taken-for-granted approaches such as interviewing and observation. Traditional case and
ethnographic studies typically position the researcher as the interpreter» (Balogun et al., 2003 : 200). Alors
qu’ils proposent trois outils innovants pour collecter les données (les « focus groups », le journal
intime et les séminaires d’échange/de réflexion) ils constatent tout de même qu’il est très difficile de
se passer d’outils qu’ils considèrent plus classiques comme l’observation ou l’entretien. En ce qui nous
concerne, nous avions la connaissance de la pratique du knowledge management avant d’étudier
notre terrain. A cet égard, notre compréhension était simplifiée par notre connaissance du phénomène
observé (les actions du knowledge manager). C’est pourquoi nous pouvons légitimement utiliser des
outils de collecte classiques. En revanche, sans cette expérience et sans la phase exploratoire, il aurait
été nécessaire d’adopter une posture de participant complet.

174
En conclusion, notre posture peut être qualifiée d’observateur participant actif
(Chanlat, 2005). Elle concerne les chercheurs dont le statut de salarié et d’observateur est
connu de tous au sein de l’organisation. Le chercheur dispose alors d’une plus grande
marge de manoeuvre pour mener à bien son enquête en comparaison avec la forme
d’observation participante complète. La difficulté de cette stratégie est finalement celle de
son statut de membre de l’organisation qui risque de prédominer sur celui de chercheur.

Cette posture d’observateur implique une réflexion importante sur notre relation avec
l’objet de recherche. Comme le note Albert David (2000), l’observation participante vise à
élaborer un modèle descriptif du fonctionnement du système que le chercheur étudie
(Tableau 25).

Tableau 25. Un cadre intégrateur pour quatre démarches de recherche en sciences de gestion -
inspiré de Koenig (1993) (David, 2000 : 102)
Objectif
Construction mentale de la réalité Construction concrète de la réalité
Partir de l’existant Observation, participante ou non Recherche-action
(observation des
faits ou travail du Elaborer un modèle descriptif du Aider à transformer le système à
groupe sur son fonctionnement du système partir de sa propre réflexion sur lui-
propre étudié. même, dans une optique
Démarche

comportement) participative.
Partir d’une Conception « en chambre » de Recherche-intervention
situation idéalisée ou modèles et outils de gestion
d’un projet concret Aider, sur le terrain, à concevoir et
de transformation Elaborer des outils de gestion à mettre en place des modèles et
potentiels, des modèles possibles outils de gestion adéquats, à partir
de fonctionnement, sans lien d’un projet de transformation plus
direct avec le terrain ou moins complètement défini.

Ce rapport à la réalité est propre aux chercheurs du courant appelé le « positivisme


aménagé » selon lequel le chercheur part de ses observations des faits pour construire
mentalement la réalité à travers des conjectures qu’il établit par abduction. Ces conjectures
s’inscrivent dans le modèle théorique du système d’activité. Nous allons définir dans la
partie suivante cette épistémologie qualifiée de « positivisme aménagé » en l’inscrivant dans
une ontologie réaliste.

175
4.1.2 Un positivisme « aménagé »

Dans le cadre du positivisme, le chercheur va « découvrir des lois qui s’imposent aux
acteurs qu’il étudie » (Girod-Séville et Perret, 1999 : 21) et tenter de découvrir de régularités
ou des mécanismes explicatifs à cette réalité (Figure 22).

Figure 22. Le chercheur prométhéen – Posture d’extériorité (Giordano, 2003 : 20)

L’observateur est un sujet actif


Observateur observant un réel donné, Acteur
indépendant de lui-même

Ce principe général est peu fidèle à la pluralité des positivismes qui se sont succédés
au cours des temps (Giordano, 2003 : 18). Différentes ontologies, c’est-à-dire la manière dont
la réalité est envisagée par le chercheur (Guba et Lincoln, 1994), permettent d’aborder le
positivisme sous différents angles. Nous allons voir qu'en sciences de gestion, le positivisme
s’inscrit principalement dans une ontologie réaliste (4.1.2.1) où le positivisme est appelé
« post-positivisme » (4.1.2.2).

4.1.2.1 Une ontologie réaliste critique

Le chercheur en sciences de gestion dispose de différentes options pour articuler sa


réflexion. Selon Koenig (1993), il peut s’appuyer sur des théories réalistes qui cherchent à
décrire le monde tel qu’il est ou sur des théories instrumentalistes dont l’objectif est
d’accroître sa maîtrise sur le monde. Ce choix s’inscrit, selon l’auteur, dans une seconde
opposition thématique : celle du statut ontologique du monde. Le monde est-il une réalité
ordonnée par le chercheur ou, au contraire, construite par le chercheur ? Le croisement de
ces oppositions thématiques (réalisme de la théorie/essence de la réalité) nous permet alors
de définir notre zone épistémique au sens de Koenig (1993) (Tableau 26).

176
Tableau 26. Oppositions thématiques et zones épistémiques (Koenig, 1993 : 6)
Essence de la réalité
(Or)donnée Construite
Découverte de régularités Recherche-action

Glaser et Strauss (1967) Jaques (1972)


FORT Huberman et Miles (1984) Giddens (1987)
Bourgeois et Eisenhardt (1988) Pettigrew (1987)
Argyris, Schön (1978)
Réalisme de la théorie Développement d’instruments Construction d’artefacts
prédictifs
Taylor (1965)
FAIBLE Williamson (1975) Von Hippel (1988)
March (1991) Ohno (1989)
Hannan et Freeman (1989)
Jensen et Mckling (1976)

La découverte de régularités est précisément notre objectif de recherche. Cet objectif


s’inscrit dans une ontologie réaliste. Cette dernière s’oppose à l’ontologie
nominaliste/relativiste. A l’origine de cette opposition on trouve les travaux de Burrell et
Morgan sur les paradigmes en sciences sociales. Ces derniers s’interrogent, à travers cette
typologie (Tableau 27), sur la nature de la réalité et sur la nature de la science.

Tableau 27. Approche subjectiviste/objectiviste - adapté de Burrell (1996 : 650)


par Koenig (2006 : 15)
Les sciences sociales Approche subjectiviste Approche objectiviste
Ontologie Nominalisme/Relativisme Réalisme
Epistémologie Anti-positivisme Positivisme

Dans une approche objectiviste des sciences sociales, le réalisme consiste à considérer
la réalité comme une essence « peuplée d’entités réelles dont l’existence est indépendante de
la perception, de l’expérience ou de la connaissance que l’on peut en avoir » (Koenig, 2006 :
15). Quel que soit le langage que l’on emploie pour décrire telle ou telle entité cette dernière
existe indépendamment. Il est donc possible d’émettre des propositions d’explication des
phénomènes observés.
Au contraire, le nominalisme - ou plutôt le « relativisme » - considère que ces entités
n’existent uniquement qu’à travers un langage qui sert à le décrire : « le Monde ne possède
aucune caractéristiques intrinsèques, il y a seulement différentes manière de l’interpréter »
(Koenig, 2006 : 15).
Vis-à-vis de ces deux propositions, nous nous inscrivons véritablement dans une
ontologie réaliste. Notre zone épistémique est donc située en haut à gauche du Tableau 26 :

177
nous sommes dans une logique de découverte de régularités au sein d’une réalité
(or)donnée. Cet objectif est cohérent avec notre posture d’observateur. La réalité nous est
donnée et nous cherchons à la comprendre.

Mais si notre objectif est de comprendre cette réalité, notre connaissance de cette
réalité est-elle véritablement fiable ? La réponse à cette question a déclenché ce que l’on
appelle la « guerre des paradigmes » (Koenig, 2006) : dans un camp, les tenants du
positivisme considèrent qu’il est possible de répondre par l’affirmative à cette question
tandis que dans l’autre camp cette quête est vaine puisque le chercheur ne peut ni décrire, ni
observer et appréhender la complexité du Monde. Comme le note Gérard Koenig (2006), le
chercheur qui opte pour une posture de réalisme scientifique se situe à mi-chemin. Sa
connaissance de la réalité est faillible mais il est possible de l’améliorer peu à peu :
« l’observation et l’expérience peuvent et doivent réduire impitoyablement l’éventail des
croyances scientifiques admissibles, autrement il n’y aura pas de sciences » (Koenig, 2006 :
17).
Cet apprentissage de la réalité est justement la position intermédiaire développée par
le post-positivisme (ou « positivisme aménagé »).

4.1.2.2 Le post-positivisme

Dans la « guerre des paradigmes » en sciences de gestion, on oppose souvent


l’épistémologie positiviste à l’épistémologie constructiviste. La première postule que la
réalité est ordonnée ou découverte par le chercheur alors que la seconde considère que la
réalité est construite par le chercheur à travers des artefacts ou des actions dans l’entreprise.
Cette opposition a souvent été abusive et mal comprise par les chercheurs débutants : « des
confusions sont constamment opérées entre les construits sociaux étudiés dans toute science
sociale et l'ancrage constructiviste présenté comme une nécessité [dans certaines thèses de
doctorat] » (Charreire et Huault, 2001 : 55). Il existe en effet différentes variations au sein
même de ces deux épistémologies, notamment le post-positivisme (Tableau 28).
Au contraire du positivisme, le post-positivisme se base sur une ontologie de réalisme
critique. Le réalisme naïf considère que la réalité existe et qu’elle est déterminée par des lois
naturelles et des mécanismes immuables : « knowledge of the ‘way things are’ is conventionnaly
summarized in the form of time- and context-free generalizations, some of which take the form of
cause-effects laws » (Denzin et Lincoln, 1994 : 109). Le réalisme critique considère que la réalité

178
existe mais que la connaissance par le chercheur est faillible : « the ontology is labeled as critical
realism because of the posture of propenents that claims about reality must be subjected to the widest
possible critical examination to facilitate apprehending reality as closely as possible (but never
perfectly) » (Denzin et Lincoln, 1994 : 110).

Tableau 28. Les croyances dans les épistémologies en sciences de gestion


(Guba et Lincoln, 1994 : 109)
Positivisme Post-positivisme Théorie critique Constructivisme
(recherche-action
participative)
Ontologie Réalisme naïf Réalisme critique Réalisme Relativisme
historique
Epistémologie Dualisme et Dualisme et Transactionnelle et Transactionnelle
objectivisme objectivisme subjective et subjective
remaniés
Méthodologie Expérimentale et Expérimentale et Dialoguée et Herméneutique et
manipulatoire manipulatoire transformationnelle dialectique
avec nuances

Dans le post-positivisme, la relation du chercheur à son objet de recherche


(l’épistémologie) n’est plus uniquement à sens unique. Dans l’épistémologie positiviste, le
chercheur et son objet sont deux entités distinctes qui ne s’influencent pas. C’est ce que les
auteurs désignent pas « dualisme ». Dans le post-positivisme, cette position est jugée comme
intenable et des garde-fous tels que la validation par les pairs (dans les revues scientifiques)
ou par des travaux antérieurs permettent de valider la scientificité de la démarche. Ainsi,
pour Moldoveanu et Baum (2002), les travaux en sciences de gestion qui se qualifient de
positivistes ne le sont pas car il est impossible pour eux de découvrir la véracité des
propositions de recherche par une expérience immédiate des sens. Il faut donc abandonner
tout espoir de fonder la démarche scientifique sur la seule observation ou la seule logique et
accepter que la vérité devienne un pari (David, 2000 : 98).

Alors que le réalisme conduit à faire de la science une « description vraie du monde »
(Koenig, 1993 : 6), le réalisme critique conduit le chercheur à faire des constructions mentales
pour décrire ce monde. Cette description est un processus d’apprentissage entre
l’observation du terrain, son interprétation par le chercheur et la conceptualisation.

179
4.1.2.3 Des allers-retours entre conceptualisations et terrain de recherche

Pour aboutir à une forme d’objectivité, le post-positivsme implique une présence


durable sur le terrain et un croisement des interprétations des différents acteurs étudiés avec
des observations. Le chercheur accède à une représentation certes subjective de la réalité,
mais elle est surtout partagée par les acteurs et peut ainsi être constitutive d’une objectivité
(Huberman et Miles, 1991). Pour aboutir à cette objectivité, nous avons opéré de manière
cyclique (Figure 23).

Figure 23. Cycle de réflexion avec le terrain dans une épistémologie post-positiviste

Conceptualisation

Discussion/ Modèle du système Conjectures tirées de


Réfutation d’activité notre modèle
Théorie

Terrain

Confrontation Conjectures tirées Observation


du notre observation
Ressenti des acteurs Faits réguliers
vis-à-vis des faits

Ce cycle démarre par la conceptualisation. Celle-ci a été réalisée dans le cadre de


notre revue de la littérature qui a abouti à l’utilisation du modèle du système d’activité pour
analyser les pratiques des gestionnaires des connaissances. En conceptualisant le travail du
gestionnaire des connaissances au sein d’un modèle, nous avons sélectionné les observations
que nous souhaitions réaliser. Comme le conseille Albert David (2000), il faut avoir un
modèle qui fasse miroir : c’est toujours un modèle qui définit ce qui est observable, même au
début du processus d’observation. Ainsi toute connaissance commence par des conjectures,
c'est-à-dire des paris ou des hypothèses sur ce qui a été observé, qui vont stimuler des
réajustements (de nouveaux paris) et conduire en de nouvelles observations et ainsi de suite.
L’observation aboutit à des entretiens qui permettent de faire émerger le ressenti des
gestionnaires : ce que nous avons observé est-il corroboré par l’acteur ? Ce processus
cyclique permet alors de discuter ou de réfuter les conjectures théoriques (issues du modèle
du système d’activité) et les conjectures issues de l’observation. La réalisation d’entretiens
avec les acteurs joue ici un rôle fondamental.

180
Notre recherche ne traduit donc que partiellement la réalité puisqu’elle est basée sur nos
observations des praticiens et sur l’interprétation qu’ils donnent à leur action. Une part
d’interprétation est donc nécessaire pour conduire au positivisme comme le concèdent les
« positivistes aménagés » que sont Huberman et Miles : « nous nous définissons comme
des positivistes logiques conscients des limites de cette tâche et prêts à y remédier.
Quelque chose comme un positivisme logique aménagé peut-être. Autrement dit, nous
pensons que les phénomènes sociaux existent non seulement dans les esprits mais aussi
dans le monde réel et qu'on peut découvrir entre eux quelques relations légitimes et
raisonnablement stables » (Huberman et Miles, 1991 : 31). C’est également notre
positionnement.

Ce cycle de réflexion entre la conceptualisation, l’observation et l’interprétation est


fondé sur un mode de raisonnement dit « abductif ».

4.1.3 Un raisonnement abductif

Dans le cadre du positivisme aménagé, la logique de la découverte suppose qu’un


ordre caché existe et qu’il est possible de le révéler (Koenig, 1993). Il s’agit ainsi de mettre en
ordre des matériaux empiriques selon l’opération mentale de l’abduction (4.1.3.1), de
comprendre des régularités observées (4.1.3.2), et de s’assurer que ces dernières sont valides
grâce à l’utilisation de cas empiriques (4.1.3.3).

4.1.3.1 La mise en ordre des matériaux empiriques

Dans le cadre d’un positivisme logique aménagé, la mise en ordre des matériaux
empiriques (c'est-à-dire des données récoltées par le chercheur) se réalise selon un processus
d’abduction. Comme le définit Blaug, l’abduction est « l’opération qui n’appartenant pas à la
logique, permet d’échapper à la perception chaotique que l’on a du monde réel par un essai
de conjecture sur les relations qu’entretiennent effectivement les choses » (Blaug, 1982 : 16).
En d’autres termes, l’abduction permet de remettre en ordre ce qui ne l’est pas. A partir de
l’observation de faits réguliers guidés par un cadre conceptuel existant, le chercheur va
réaliser des conjectures (des suppositions à la fois théoriques et pratiques ou des paris) qu’il
va tester et discuter.

181
Depuis Aristote, on considère que le processus général de la recherche est construit
selon un schéma dichotomique d’induction-déduction entre les idées et les faits. De façon
classique, on considère qu’un raisonnement déductif va du général au particulier, alors
qu’un raisonnement inductif va du particulier au général (Charreire et Durieux, 1999 : 62).
Au contraire de l’induction qui vise à dégager par l’observation des régularités indiscutables,
l’abduction consiste à tirer de l’observation des conjectures qu’il convient ensuite de tester et
de discuter (Koenig, 1993 : 7).
La déduction, au contraire de l’induction, est un raisonnement à partir d’hypothèses
que l’on teste. Elle ne s’appuie par sur l’observation mais sur la démonstration qu’une chose
est la conséquence d’une autre (si A=B et que A=C alors B=C). L’induction permet au
contraire de montrer que « si un grand nombre de A ont été observés dans des circonstances
très variées, et si l’on observe que tous les A sans exception possèdent la propriété B, alors
tous les A ont la propriété B » (Chalmers, 1987 : 27). Or, les sciences sociales ont proposé
d’autres formes de réflexion comme la démarche hypothético-déductive. La Figure 24
permet de comparer les logiques inductives, déductives, abductives et hypothético-
déductives.

Figure 24. Modes de raisonnement et connaissance scientifique


(adapté de Chalmers, 1987 : 28 par Charreire et Durieux, 1999 : 62)

Lois et Théories
universelles

Logique Logique
inductive Conceptualisations déductive
- hypothèses
- modèles
- théories

Démarche Démarche
abductive hypothético-
déductive

Faits établis par


l’observation Explications et
Prédictions

182
Sur la Figure ci-dessus, on remarque que toutes ces formes de réflexion sont
complémentaires. On comprend également que l’abduction permet de démarrer sa réflexion
par une observation empirique –elle-même facilitée par la mise en ordre de la réalité- pour
déboucher sur des conceptualisations que le chercheur va tester et faire évoluer. Au contraire
de la démarche hypothético-déductive, le chercheur ne va pas essayer de prédire mais
simplement essayer d’expliquer.

4.1.3.2 Comprendre les régularités observées et chercher des causalités

Conformément à notre positionnement épistémologique, nous nous devons de mettre


à jour l’existence de régularités et trouver des chaînes causales entre ces régularités. Ce
processus est difficile à mener par le chercheur car il doit pondérer les différents facteurs qui
expliquent telle explication et équilibrer le difficile rapport entre explication et prédiction.
L’Encadré 10 est une illustration de cette difficulté.

Encadré 10. Les témoignages de Miles et Mintzberg (David, 2000 : 89)


Dans un numéro spécial de la revue Administrative Science Quarterly (1974), Miles et Mintzberg
racontent, chacun à leur manière, comment ils ont procédé sur des terrains d’observation et de quelle
manière ils ont ressenti et tenté de résoudre, parfois par essais-erreurs, les problèmes rencontrés. Ces
deux auteurs sont intéressants parce que l’on ressent nettement, à leur lecture, que les chercheurs ont
essayé d’être rigoureux – notamment au sens où ils ont produit des résultats sous une forme se prêtant
à la critique scientifique, donc réfutables au sens de Popper – mais sans toujours savoir comment ni
pourquoi. En d’autres termes ils avaient de la méthode, mais la méthodologie n’était que partiellement
formalisée.

En fait, une méthodologie appelée « la Théorie Enracinée » de Malcom Glaser et


Anselm Strauss avait tenté de formaliser la démarche dès 1967. Les auteurs défendent l’idée
que le chercheur doit procéder par des analyses comparatives constantes des données. Ils
identifient deux types de catégories, celles que le chercheur a construites lui-même et celles
qui se dégagent du discours des acteurs. La théorie est alors construite graduellement à
travers le regroupement des concepts et l’élaboration des relations entre eux. C’est
précisément ce que préconisent Huberman et Miles, deux positiviste « aménagés » : « notre
mode d'analyse implique des navettes constantes entre la condensation des données, leur
présentation, l'élaboration de conclusions préliminaires et leur vérification. De nouvelles
données viennent s'ajouter aux anciennes, de nouveaux formats de présentation voient le
jour, les conclusions sont revues et corrigées. Toutes ces opérations auront, par contrecoup,
des effets les unes sur les autres, effets qui seront déterminants pour l'évolution de
l'analyse » (Huberman et Miles, 1991 : 461).

183
Par le biais de comparaisons successives des données recueillies entre elles et en
référence aux théories disponibles, une première théorie locale (« Substantive Theory ») peut
être formulée. Ce n’est qu’à l’issue de ce processus que s’effectue la remontée en généralités
et l’éventuelle formulation d’une théorie « formelle ». La mise à jour de ces chaînes causales
permet donc de durcir progressivement la théorie en cours d’élaboration. Elle est de moins
en moins modifiée par les observations du chercheur. Les données recueillies servent bien à
confirmer ou à clarifier certaines conjectures établies par le chercheur. C’est le processus que
nous avons représenté par la Figure 23 (page 180). Le travail de recherche est alors valide si
les observations se saturent progressivement dans un contexte particulier, celle d’une étude
de cas.

4.1.3.3 Utiliser des cas empiriques

La validation de la démarche abductive est obtenue si le chercheur connaît une


redondance dans l’analyse qu’il fait des régularités observées. Cela peut s’obtenir par
saturation ou pour l’utilisation du cas pour tester les conjectures qu’il a développées (Koenig,
1993 : 8). C’est notamment ce que préconise Yin (1989, 2003) : tester un dispositif théorique
au moyen d’un ou de plusieurs cas choisis en fonction de leur pertinence par rapport à la
théorie que l’on souhaite mettre à l’épreuve ou de la théorie que l’on souhaite construire. Le
choix de la méthode des cas doit alors clairement être défendu par le chercheur. C’est
précisément ce que nous proposons de faire dans une deuxième partie présentant nos
principes méthodologiques (4.2).

En conclusion, nous nous considérons comme un « observateur interprétant »,


position qui s’inscrit dans une tradition positiviste dite « aménagée ». A partir de nos
observations du travail du gestionnaire, nous cherchons à décrire et à comprendre les
régularités et les liens de causalité dans son système d’activité. Mais nos observations
étant « enchâssées » dans un contexte spécifique (l’entreprise ou l’unité dont l’acteur
étudié dépend), il nous semble nécessaire d’adopter une méthode des cas pour étudier les
spécificités de chaque observation. Ces allers-retours entre l’observation et l’interprétation
nous permettent d’établir des conjectures guidées par notre modèle théorique selon un
mode de réflexion abductif.

Dans la conduite d’une recherche scientifique en sciences de gestion, l’articulation


entre l’ontologie, l’épistémologie et la méthodologie est fondamentale. C’est pourquoi nous
présentons dans la partie suivante les principes méthodologiques que nous avons suivis.

184
4.2 Principes méthodologiques

Nos principes méthodologiques découlent de notre positionnement épistémologique


et permettent de définir le périmètre de notre étude, de structurer notre analyse et d’orienter
notre interprétation.26 Comme le rappelle Dachler, « la méthodologie se comprend comme le
développement d’outils à l’aide desquels il est possible de donner une représentation d’un
monde extérieur. Cette représentation se doit d’être la plus complète et précise possible. […]
Les méthodes sont des outils à l’aide desquels le chercheur – sujet actif et connaissant –
construit le savoir à propos d’objets de recherche relativement passifs » (Dachler, 1997 : 722).
La démarche post-positiviste et abductive dans laquelle s’inscrit notre recherche tend
à préconiser une méthodologie qualitative. Une recherche de nature qualitative permet selon
nous d’atteindre notre objectif de recherche tout en profitant de la multiplicité de données.
La diversité des données récoltées n’a de sens que si elle est reliée par un fil conducteur, un
contexte spécifique permettant de mettre au jour les régularités observées. C’est pourquoi la
méthode des cas nous semble la plus appropriée pour répondre à nos questions de
recherche. Elle permet de découvrir des régularités en s’appuyant sur un contexte choisi
pour sa singularité. Elle permet également de mener des observations et des interprétations
de nature exploratoire et enracinées dans un contexte particulier. La représentativité des cas
et leur nombre deviennent alors des critères de scientificité.
C’est pourquoi, nous défendons ici notre choix d’une démarche qualitative (4.2.1.)
basée sur la méthode des cas enchâssés (4.2.2.) et nous expliquons nos critères de sélection
des cas (4.2.3).

4.2.1 La démarche qualitative

Pourquoi préférer une démarche qualitative à démarche quantitative ? Une démarche


de recherche est dite qualitative en comparaison à une démarche quantitative. Strauss et
Corbin (1990) définissent la démarche qualitative comme « toute recherche qui produit des
résultats sans utiliser des procédures statistiques ou tout autre méthode quantitative.
Certaines données peuvent être quantifiées mais leur analyse est, quoiqu’il arrive, un
phénomène qualitatif » (Strauss et Corbin, 1990 : 17). Ainsi notre choix d’une démarche de
recherche qualitative s’explique pour trois raisons : l’existence de données qualitatives

26
Le mot méthode vient du grec ancien methodos qui signifie la poursuite ou la recherche d'une voie. La
méthodologie est littéralement la science de la méthode.

185
(4.2.1.1), la possibilité d’étudier l’évolution d’un processus organisationnel et des actions
individuelles dans l’espace et le temps (4.2.1.2) et la multiplicité des outils de recherche
offerts au chercheur (4.2.1.3)

4.2.1.1 L’existence de données qualitatives

Pour Huberman et Miles (1991), il existe, sur le terrain de recherche, des données
qualitatives qui se présentent sous forme de mots plutôt que de chiffres. Yin (2003) les décrit
comme des données non numériques par opposition aux données numériques. Elles sont
porteuses de sens pour les acteurs : « dans les recherches qualitatives, les chercheurs étudient
les objets dans leur cadre naturel, recherchant le sens pour les acteurs eux-mêmes des
phénomènes de l’étude » (Denzin et Lincoln, 1998 : 2). Selon Evrard et al. (1993), les données
qualitatives correspondent à des variables mesurées sur des échelles nominales et ordinales
(non métriques) tandis que les données quantitatives sont collectées avec des échelles
d’intervalles ou de proportion.
Puisque, la recherche qualitative vise à produire du sens à travers un processus
d’analyse de la réalité, nous devons focaliser notre recueil de données sur des données
qualitatives comme des discours, des notes d’observation ou des documents. La nature de la
donnée récoltée par le chercheur est donc influencée par sa méthodologie de recherche mais
également par sa capacité à les identifier dans l’organisation qu’il étudie : « les qualités
requises pour l'analyse qualitative semblent être un minimum de créativité, une ténacité
méthodique, un bon sens conceptuel, et une souplesse cognitive, c'est-à-dire la capacité à
abandonner rapidement sa propre façon d'appréhender ou de transformer les données et
d'essayer une autre tactique, plus prometteuse » (Huberman et Miles, 1991 : 460).

4.2.1.2 L’étude d’un processus et des actions dans l’espace et le temps

Alors que la recherche sur le contenu est une photographie du terrain à un instant
précis, la recherche sur les processus est davantage un film mettant en scène la complexité de
la situation observée. Malgré les limites inhérentes à toute démarche qualitative
(subjectivisme, validité externe, généralisation limitée), il nous est apparu que cette dernière
permet à la fois d’étudier l’évolution d’un phénomène organisationnel (le temps), les
attitudes des différents acteurs vis-à-vis de ce phénomène, et de comprendre le contexte dans
lequel ce phénomène et ces acteurs s’inscrivent (l’espace). La grande force d’une démarche
qualitative est donc la prise en compte du temps et du contexte.

186
Ceci est d’autant plus vrai quand le chercheur adopte une approche « pratique ».
Johnson et al. (2007) précisent en effet que l’analyse des actions des managers englobe un
grand nombre d’informations de toute nature (les discours, les documents, les tâches, etc.) et
suppose de prendre en compte le contexte social et historique des praticiens. C’est pourquoi
il est nécessaire de faire appel à différents outils de recherche.

4.2.1.3 La multiplicité des outils de recherche

En écho à « l’affreuse cuisine » décrite par Claude Bernard, les recherches qualitatives
apparaissent souvent comme un « bricolage » complexe (Denzin et Lincoln, 1998 : 3). Pour
arriver à construire un « salon superbe », la démarche qualitative offre, en effet, au chercheur
une multiplicité d’outils pour étudier la réalité qui s’offre à lui : la méthode des cas,
l’observation, l’entretien, la recherche-action, l’étude du discours, etc (Giordano, 2003). Le
chercheur doit alors fournir un travail important pour rendre compte de la complexité de sa
recherche et réussir à transformer son « affreuse cuisine » en démarche scientifique
rigoureuse. Huberman et Miles le reconnaissent volontiers : « la difficulté la plus sérieuse et
la plus centrale de l’utilisation des données qualitatives vient du fait que les méthodes
d’analyse ne sont pas clairement formulées. Pour les données quantitatives il existe des
conventions précises que le chercheur peut utiliser. Mais l’analyste confronté à une banque
de données qualitatives dispose de très peu de garde-fous pour éviter les interprétations
hasardeuses » (Huberman et Miles, 1991 : 12).
Cette possibilité offerte est, selon nous, une force quand on étudie un phénomène
complexe, ce qui est notre cas. Ainsi « toute méthode qui marche, qui permet de parvenir à
des conclusions Joannas, vérifiables et reproductibles, à partir d'un ensemble de données
qualitatives, est bonne à prendre quels que soient ses antécédents » (Huberman et Miles,
1991 : 26). Cette force peut devenir une faiblesse si elle ne s’accompagne pas d’une
explicitation du travail d’analyse des données par le chercheur (voir la partie 4.3).

La démarche qualitative est souvent considérée comme un processus complexe et moins


scientifique que la démarche quantitative. Pourtant, si la démarche est encadrée par des
garde-fous, elle est gage de scientificité. La multiplicité des outils de collecte des données
permet d’analyser au plus près la réalité qui s’offre à nous.

Le recours à la méthode des cas s’inscrit dans cette démarche de description de la


réalité.

187
4.2.2 La méthode des cas enchâssés

Nous avons choisi d’utiliser l’étude de cas pour répondre à nos questions de
recherche. C’est la méthode qualitative la plus utilisée dans les sciences de gestion. La
méthode des cas se définit comme une analyse spatiale et temporelle d’un phénomène
complexe par les conditions, les événements, les acteurs et les implications (Wacheux, 1996).

Une telle stratégie de recherche est basée sur le postulat suivant : il existe, dans
l’organisation, des entités distinctes qu’il faut comprendre dans leur globalité. Chaque entité
est choisie à dessein pour ses particularités, et constitue le point de départ de l’analyse
(Curchod, 2003). L’étude de cas est donc une stratégie de recherche qui permet d’explorer
des phénomène complexes et peu connus afin d’en capturer la richesse et d’y identifier des
patterns, dans une optique de génération de théorie (Einsenhardt, 1989 ; Yin, 2003). Pour
préciser nos modalités de recherche, nous nous sommes appuyé sur les travaux de Robert
Yin (1989, 2003) consacrés aux différentes utilisations de la méthode des cas.
Nous cherchons à comprendre les avantages et les inconvénients de cette méthode
(4.2.2.1) et les apports et les contraintes des cas enchâssés (4.2.2.2). Nous concluons sur le
choix de l’unité d’analyse (4.2.2.3).

4.2.2.1 Les avantages et les inconvénients de la méthode des cas en temps réel

Pour Yin, l’étude de cas est un outil de recherche fiable au même titre que les
expérimentations, les enquêtes quantitatives (questionnaire ou sondage) ou les analyses
historiques. Il la définit comme « une enquête empirique qui examine un phénomène
contemporain au sein de son contexte réel lorsque les frontières entre phénomène et contexte
ne sont pas clairement évidentes et pour laquelle de multiples sources de données sont
utilisées » (Yin, 2003 : 13).
L’approche par étude de cas est proche de l’isolation expérimentale en ceci que
chaque hypothèse rivale doit être spécifiée et faire l’objet de contrôles. La préface de
Campbell à l’ouvrage de Yin (dans sa version de 1989) est un plaidoyer intéressant à la
méthode des cas. Selon l’auteur, qui émettait pourtant des doutes quant à la validité de cette
méthode trente ans plus tôt, celle-ci permet avant tout de comparer et d’éliminer des
hypothèses rivales plausibles (« plausible rival hypotheses ») en les inscrivant dans des réseaux
étendus, certes incomplets, d’implications. Cette stratégie de recherche consiste donc à

188
expliciter d’autres implications de l’hypothèse et à apprécier leur adéquation à d’autres
données disponibles. Le chercheur peut alors envisager des explications rivales pour
l’observation considérée et à apprécier leur plausibilité.
Le cas permet donc à la fois de décrire une situation mais également de l’expliquer.
Comme nous l’avons vu, ces explications se construisent petit à petit. Le chercheur doit
observer la réalité à partir d’un questionnement et tester des hypothèses ou des conjectures
pour obtenir des réponses à ce questionnement. Selon Lhady-Rispal (2000), la méthode des
cas permet trois types d’application : l’explication de liens causaux existant dans la vie
quotidienne mais complexes à appréhender, la description d’un contexte ou d’un
phénomène particulier et l’exploration d’une situation peu Joanna.
Cette description peut être réalisée en temps réel ou de manière rétrospective. Etant
donné la qualité de notre accès au terrain de recherche et à la longueur de notre présence sur
le terrain nous avons opté pour une étude de cas en temps réel. L’avantage d’une étude en
temps réel est qu’elle permet de minimiser les biais introduits par une étude
rétrospective tels que l’incompréhension du contexte de l’époque, l’absence des acteurs
(départ de l’entreprise) ou encore l’impossibilité d’observer les pratiques d’un individu.

4.2.2.2 Les apports et les contraintes des cas enchâssés

Qu’est ce qu’un cas ? Un cas peut être une personne, un groupe, une organisation,
une relation, un évènement, un processus, un problème ou toute autre chose (Langley et
Royer, 2006 : 74). Conformément à notre objet de recherche, il s’agit de la première
proposition : un cas est un gestionnaire des connaissances. Dans le Tableau ci-dessous nous
décrivons succinctement les quatre personnes que nous avons décidé d’analyser pour
répondre à nos questions de recherche. Dans la partie suivante nous expliquons pourquoi ces
personnes représentent notre unité d’analyse.

Tableau 29. Les quatre études de cas retenues


Nom du cas Description du poste
CKO La personne étudiée occupe la fonction de « Corporate Knowledge Manager » au
sein de la Direction des Systèmes d’Information à Paris.
GOAL La personne étudiée occupe la fonction de « Best Practice Manager» au sein de la
Direction Industrielle de la branche Plâtre à Avignon.
ZOOM La personne étudiée occupe la fonction de « Knowledge Manager » au sein de la
Direction Marketing et Ventes de la branche Toiture en Allemagne.
OPK La personne étudiée occupe la fonction de « Knowledge Manager » au sein de la
Direction de la Performance de la branche Béton à Paris.

189
Nous avons choisi de retenir quatre études de cas (nous expliquons également un peu
plus loin ce nombre de quatre). Ces cas sont « enchâssés » car ils s’inscrivent dans une même
entreprise (Lafarge) mais dans des contextes différents. Chacun des cas se déroule dans une
branche de l’entreprise et à des niveaux décisionnels divers. A titre d’illustration, la
Corporate Knowledge Manager (cas CKO) collabore avec des personnes différentes que le
Knowledge Manager du service Marketing et Ventes de la branche Toiture (cas ZOOM) car
ils dépendent de directions différentes.
Une étude de cas enchâssés comporte plusieurs sous-unités d’analyse au sein du cas.
Cela signifie que des investigations doivent être menées à la fois au niveau du cas
d’ensemble et des sous-unités (Yin, 2003). Dans le cadre de l’analyse du système d’activité
des gestionnaires des connaissances de la branche Toiture et de la branche Plâtre, les sous-
unités seront dans le premier cas des responsables marketing et ventes et dans l’autre des
directeurs d’usine. Un design enchâssé permet de mener des comparaisons systématiques
entre les unités sélectionnées et d’étudier les relations entre des niveaux différents dans
l’organisation (individus, groupes, firme) (Musca, 2006). C’est pourquoi nous nous situons
en bas à droite de la Figure 25.

Figure 25. Les grands types de design d'études de cas (Yin, 2003: 40)
Etude d’un cas unique Etude de plusieurs cas

Etude de cas holistique


Contexte Contexte
(Une unité d’analyse)
Contexte
Cas Cas

Cas
Contexte Contexte

Cas Cas

Etude de cas enchâssés


(Unités d’analyse multiples) Contexte Contexte Contexte

Cas Cas
Cas 1 2 1 2

Sous-
unité Sous- Contexte Contexte
unité
Cas Cas
1 2
1 2

190
A l’opposé d’un design enchâssé, Yin distingue le design holistique (voir Figure 25).
Un design holistique va s’appuyer sur « l’étude d’un cas critique, extrême, longitudinal ou
révélateur dans son ensemble » (Yin, 2003 : 42-43). Le recours à un design holistique est
pertinent lorsqu’il n’est pas possible d’identifier des unités logiques au sein du cas, ou
lorsque la théorie mobilisée pour l’étude est elle-même de nature holistique (Yin, 2003). Le
risque est alors d’étudier un phénomène sans en expliquer les causes et de rester à un niveau
trop abstrait.
Le fait de considérer des sous-unités au sein d’un cas d’ensemble aide le chercheur à
focaliser sa recherche et à définir avec plus de précision son unité d’analyse. Le fait d’étudier
les interactions entre les unités et les sous-unités est un gage de scientificité puisqu’il permet
de renforcer la validité interne et la validité du construit (Yin, 2003 ; Musca, 2006). Enfin,
cette démarche convient particulièrement à une dynamique de recherche abductive
puisqu’elle permet d’appréhender toute la complexité du monde social et d’identifier des
« patterns » (Strauss et Corbin, 1994). L’Encadré ci-dessous résume finalement les raisons qui
nous poussent à utiliser l’étude de cas enchâssés.

Encadré 11. Trois situations où l'étude de cas enchâssés est pertinente (adapté de Giroux, 2003 : 52)
La première situation est l’observation de variations dans la politique interne de l’entreprise étudiée.
Le groupe Lafarge remplit cette condition puisque l’entreprise connaît au début de l’année 2002 une
fusion qui remet en cause le fonctionnement de l’entreprise.
La seconde situation est l’existence de variations externes dans la réglementation, les conditions
sociales et économiques. C’est également le cas puisque Lafarge subit fortement le mouvement de
concentration dans le secteur des matériaux de construction. Cela amène l’entreprise à absorber un
grand nombre de carrières et d’usines et à y transférer son savoir-faire.
La troisième est la constatation de variations intra organisationnelles dans les prises de position des
acteurs placés aux différents niveaux de l’organisation. C’est également le cas avec la mise en place du
knowledge management. Structuré en quatre branches d’activités depuis 1998 (Plâtre, Béton &
Granulats, Ciment et Toiture), la direction générale de Lafarge a mis en place une politique de
management des connaissances au niveau du siège et de chaque branche. L’objectif est d’abattre les
silos d’information entre les différentes branches et entre les différents niveaux décisionnels (depuis le
siège à Paris jusqu’aux usines dans différents pays).

D’un point de vue méthodologique, la principale difficulté pour le chercheur dans


des études de cas « enchâssés » est qu’il mette exagérément l’accent sur l’analyse des sous-
unités tout en oubliant le contexte dans lequel elle s’inscrit (Musca, 2006). Le cas d’ensemble
devient ainsi le contexte de l’étude au lieu d’en être la cible (Yin, 2003). En l’absence d’une
réflexion sur les interactions entre les sous-unités et les unités, le chercheur réalise une étude
multi-cas. Notre objectif est donc de porter notre analyse à la fois sur les différentes sous-
unités mais également sur le cas dans son ensemble.

191
4.2.2.3 L’unité d’analyse retenue

Dans une étude de cas, le chercheur peut analyser une quantité d’éléments. C’est
pourquoi il doit définir la granularité de son analyse. L’unité d’analyse retenue est le
système d’activité du gestionnaire des connaissances tel qu’il a été défini dans le Chapitre
3. Dans le cadre d’un design enchâssé, l’unité d’analyse est également comparée aux sous-
unités. Des comparaisons approfondies doivent être menées entre les unités d’analyse et les
sous-unités d’analyse. Langley (1999) souligne qu’il est possible, en analysant plusieurs
unités au sein du cas, de scruter différentes facettes d’un ou de plusieurs processus, à
différents moments de leur déroulement. Il s’agit d’opérer un maximum de ces
comparaisons entre les différents « patterns » que nous observerons et les interprétations que
nous en ferons. Des faisceaux de causes multiples, des boucles de causalité et des
interconnections variées entre les différentes unités considérées peuvent être révélés, ce qui
multiplie les indices et favorise la triangulation des données (Yin, 2003).
L’objectif de l’étude n’est donc pas uniquement de proposer une généralisation
statistique mais de faire émerger des résultats théoriques novateurs, dans une perspective de
généralisation analytique (Yin, 2003). Le Tableau 30 récapitule les différents niveaux
d’analyse retenus.

Tableau 30. Niveaux d'analyse de nos études de cas


Contexte Cas Unité d’analyse Sous-unités
Système d’activité du - Direction des Systèmes
Lafarge Siège
CKO Corporate Knowledge d’Information
(Paris)
Manager - Comité de pilotage KM
Système d’activité du - Direction de la Performance
Lafarge Plâtre
GOAL Responsable du Know- Plâtre
(Avignon)
How Portal - Usines
Système d’activité du - Direction Marketing et Ventes
Lafarge Toiture
ZOOM Knowledge Manager - Séminaires de formation
(Allemagne)
Marketing & Ventes
Système d’activité du - Direction de la Performance
Lafarge Béton
OPK Responsable de OPK Béton
(Paris)
- Usines

Dans le cadre d’une étude de cas enchâssés, nous avons conduit notre analyse à différents
niveaux de l’organisation. Notre réflexion s’est portée non seulement sur les actions du
knowledge manager mais également sur les interactions qu’il entretient avec les
collaborateurs. Puis nous avons comparé les cas entre eux selon une analyse transversale.

Voyons maintenant comment nous avons sélectionné nos cas d’étude.

192
4.2.3 La sélection des cas

L’étude de cas propose une représentation explicative dépendante du contexte. On


peut donc légitimement émettre des réserves sur la valeur scientifique de cette méthode,
remettant en cause la fiabilité du fait de la trop grande part jouée par la subjectivité du
chercheur. Dyer et Wilkins (1991) ont ainsi critiqué la méthode des cas proposée par
Kathleen Eisenhardt en arguant, entre autre, que les études de cas classiques sont davantage
des bonnes histoires que des théories testables. L’autre question soulevée par Dyer et Wilkins
(1991) est celle de la connaissance du terrain par le chercheur : est-il assez familier avec le
terrain du cas qu’il étudie ?
L’autre limite reconnue à la méthode des cas est sa difficile généralisation : à quoi bon
étudier un phénomène unique ? Cette question a été récemment (re)discutée dans Academy of
Management Journal (volume 50, numéro 1). Dans ce débat sur la représentativité du ou des
cas, Siggelkow (2007 : 20) avance « qu’un cas doit avant tout être convaincant pour être
exemplaire, considérant ainsi que le chercheur doit avant tout partir d’un cas typique pour
exercer une critique plus pertinente de la théorie ». Un cas devient alors représentatif s’il
« vise à développer une théorie et non à la tester » (Eisenhardt et Graebner, 2007 : 27). Pour
Stake (1995 : 236) le chercheur doit avant tout « privilégier la compréhension du cas plutôt
que de vouloir généraliser ». Ainsi, qu’il y ait un ou plusieurs cas, en fin de compte la logique
de l’étude de cas est idiographique. Chaque cas peut donc être décrit au moins partiellement
comme un tout par le biais d’une ou plusieurs narrations (Langley et Royer, 2006).
Dans cette optique, Yin (2003) suggère au chercheur de choisir avec précision ses cas
en vue d’accumuler assez de régularités et satisfaire ainsi au critère de représentativité. Les
cas doivent être choisis pour des raisons théoriques et non statistiques (Glaser et Strauss,
1967 ; Eisenhardt, 1989), dans une logique de réplication littérale (prédiction de résultats
similaires) ou de réplication théorique (prédiction de résultats contrastés pour des raisons
prévisibles) (Yin, 2003). Cet objectif est conforme à notre démarche épistémologique, à savoir
décrire les pratiques des gestionnaires des connaissances et dégager des chaînes de causalité
(ou patterns) éventuellement testables dans d’autres contextes.
C’est pourquoi nous expliquons dans cette partie notre processus de sélection de nos
cas : c’est à la fois un processus rationnel qui doit satisfaire au critère de représentativité
(4.2.3.1) mais également un processus contextuel où l’influence du terrain de recherche ne
doit pas être ignorée (4.2.3.2). La compréhension de ces deux aspects nous aide à définir nos
critères d’échantillonnage (4.2.3.3).

193
4.2.3.1 Le critère de représentativité

Pourquoi quatre cas ? Conformément aux conseils de Yin, la multiplication de cas


permet de mettre en œuvre le principe de réplication. Ces cas doivent représenter des
caractéristiques communes tout en présentant des contextes spécifiques. Ceci signifie que
deux cas ou plus doivent être inclus dans le travail d’analyse. Si des résultats similaires
apparaissent, la confiance dans les résultats globaux s’accroît. Le développement de résultats
cohérents, au travers de cas multiples et même d’études multiples, peut alors être considéré
comme une conclusion très robuste (Yin, 2003).
En ce qui concerne Lafarge, nous avons choisi de porter notre analyse sur le système
d’activité de gestionnaires des connaissances à différents niveaux de l’organigramme. Le
groupe Lafarge est structuré en quatre branches (Ciment, Plâtre, Béton et Granulat et
Toiture) et en trois niveaux décisionnels (le siège, les branches et les unités
opérationnelles/usines). La Figure 26 montre la structure de fonctionnement du service
Knowledge Management de Lafarge.

194
Figure 26. Organigramme du service Knowledge Management de Lafarge

Direction des Systèmes d’Information - Groupe

Corporate Directions des


Sponsor
Knowledge fonctions
Exécutif
Manager du siège

Comité de pilotage KM

Branche Ciment Branche Plâtre Branche Béton Branche Toiture


Knowledge Knowledge Knowledge Knowledge
Manager Manager Manager Manager

Responsable Responsable Responsable Responsable

Best Practices Best Practices Knowledge Nucleus Portal &


& Knowledge Know-How Portal Transfer Portal ZOOM
Sharing

Usines

Lors de la nomination de la Corporate Knowledge Manager en 2002 (au niveau du


siège), des Knowledge Managers ont également été nommés dans chacune des branches.
Chaque Knowledge Manager encadre un responsable d’un outil de codification des
connaissances (un exemple d’outil est le Know-How Portal dans la branche Plâtre). Un comité
de pilotage bi-annuel organisé par la Corporate Knowledge Manager réunit tous les
membres de cet organigramme.
Les gestionnaires étudiés au cours de notre étude ont été soulignés dans la Figure 26,
excepté le cas ZOOM qui se situe au niveau d’un service de la branche (le service Marketing
et Ventes). Nous considérons que cette répartition des études de cas est représentative
puisqu’elle concerne à la fois différents niveaux décisionnels, différentes branches et
différentes fonctions dans la politique KM. L’analyse de business units comme les usines
vont permettre d’affiner notre compréhension du travail de ces différents gestionnaires des
connaissances. Cette répartition est également déterminée par notre entrée sur le terrain et
nos critères d’échantillonnage.

195
4.2.3.2 L’influence de notre entrée sur le terrain

La sélection des cas est à la fois un processus rationnel mais également contextuel. Il
dépend de notre capacité à négocier la récolte des données auprès des gestionnaires étudiés
mais également de notre familiarité avec le terrain. Notre point d’entrée était le Corporate
Knowledge Manager.
Comme nous l’avons indiqué en introduction, notre travail doctoral a été précédé
d’une courte et intense expérience professionnelle dans le domaine du conseil. Durant dix
huit mois, nous avons mis en place des outils collaboratifs dans différentes entreprises
internationales. Ce premier emploi nous a permis de nouer des contacts professionnels avec
des clients et des partenaires de travail. Ainsi, la négociation de l’entrée dans le service
Corporate Knowledge Management du site Lafarge a été grandement facilitée par
l’embauche d’une ancienne collègue avec qui nous collaborions dans le cabinet de conseil.
Celle-ci a été tout de suite ouverte à l’idée de nous accueillir au sein de sa structure en avril
2002 pour une durée de six mois en tant qu’assistant (la période exploratoire).
A la fin de cette première période, nous avons négocié une seconde entrée sur le
terrain via un accord de collaboration temporaire entre notre laboratoire de recherche et
l’entreprise (voir Annexe 1.A.). Cet accord prévoyait une présence de quelques jours par
semaine sur une période de 12 mois (voir Annexe 1.B.). Notre emploi du temps et le
périmètre de l’étude ont été élaborés conjointement avec le Corporate Knowledge Manager.
Ceci constitue le point faible de notre échantillonnage puisque notre étude ne prend
pas en compte la branche la plus importante du groupe Lafarge. Heureusement certaines
collaborations ont été développées par le chercheur lui-même grâce à des liens tissés lors de
l’étude exploratoire. D’autres personnes ont été introduites lors de présentations réalisées
par la Corporate Knowledge Manager dans différentes branches et services opérationnels et
lors de comités de pilotage réunissant les différents knowledge managers. La sélection des
cas est donc liée à la possibilité d’accéder ou non aux données et à la possibilité pour le
chercheur de collaborer avec le terrain pressenti.

4.2.3.3 Nos critères d’échantillonnage

Le terrain pressenti a été sélectionné par le chercheur. Au départ, pour répondre à


une logique de représentativité, nous souhaitions étudier les pratiques du Corporate
Knowledge Manager et celles des quatre Knowledge Managers dans chacune des branches.
En théorie, l’échantillonnage permet au chercheur de passer du particulier au général : « il

196
permet d’étudier une sous-section d’une population précise pour réaliser des inférences sur
la population entière » (Silverman, 2004 : 129). Comme le définit Eisenhardt, «
l’échantillonnage théorique consiste à choisir des cas qui sont susceptibles d’être répliqués
ou qui permettent de prolonger la théorie émergeante » (Eisenhardt, 1989 : 537). Cet
échantillon peut évoluer : « la première sélection d'informateurs va aboutir à la
recommandation d'autres informateurs ; l'observation d'une classe d'événements entraîne
une comparaison avec une classe différente ; la compréhension d'une relation en révèle
plusieurs facettes qui peuvent être éclaircies et étudiées individuellement » (Huberman et
Miles, 1991 : 62).
En pratique, pour les raisons évoquées dans la sous-section ci-dessus, cet
échantillonnage a dû être revu et nous avons dû définir des critères différents. Dès lors, quels
sont les facteurs qui ont guidé notre sélection des quatre cas (CKO, GOAL, ZOOM et OPK) ?
Pour construire notre échantillon, nous avons choisi trois critères d’échantillonnage en
fonction des possibilités de collaboration offertes par le gestionnaire étudié :
a) Le premier a été la possibilité de côtoyer durablement le gestionnaire des
connaissances. Pour mener une étude approfondie, il était nécessaire d’établir une relation
d’une durée nous permettant d’observer le travail du gestionnaire des connaissances.
Comme le note judicieusement Giroux (2003), les acteurs de l’entreprise craignent souvent
que la présence du chercheur ne gêne leurs activités courantes, ou qu’il ait accès à des
informations sensibles. Dans la mesure du possible, nous avons essayé d’observer les tâches
quotidiennes du gestionnaire des connaissances pendant quelques jours. Cela n’est pas aisé
étant donné que le gestionnaire a le sentiment d’être épié voire espionné. La difficulté
pouvait être partiellement contournée lors de réunions ou de séminaires. Dans le meilleur
des cas, il nous a fourni une copie de son agenda électronique pour compléter notre étude.
b) Le second a été le libre accès aux outils utilisés et aux documents rédigés par le
gestionnaire des connaissances. Ce type d’accord s’obtient par la confiance envers le
chercheur. Certaines données étant confidentielles –comme la base de bonnes pratiques
industrielles utilisée dans la branche Plâtre- le chercheur doit ici faire preuve de diplomatie
pour récupérer un maximum de documents. Cette difficulté peut également être contournée
si le chercheur arrive à mettre en place une logique de donnant-donnant.
c) Le troisième a été de pouvoir mener des entretiens avec ce gestionnaire. L’objectif
était ici de l’interroger sur les significations qu’il pouvait donner à ses actions, aux
documents qu’il écrivait et aux présentations qu’il réalisait. Cela signifiait que le gestionnaire
des connaissances acceptait de consacrer du temps au chercheur qui conduisait l’entretien.

197
En conclusion, notre méthodologie est de nature qualitative et basée sur une
analyse de quatre cas enchâssés dans un même contexte. Ceci implique d’étudier à la fois
l’unité d’analyse (le système d’activité des gestionnaires des connaissances) mais
également des sous-unités d’analyse (le contexte et la structure dans lesquels évolue le
gestionnaire). Ce type de design permet d’opérer des comparaisons non seulement entre
les cas mais également entre les sous-unités d’analyse.
La sélection des cas s’est faite de manière théorique mais elle a également été
dictée par des considérations pratiques. D’un point de vue théorique, les critères de
représentativité (traits communs et spécificités des quatre cas) ont été respectés puisque
nous étudions le travail de gestionnaires des connaissances disposés dans différents
contextes (trois branches) à différents niveaux de décision (siège, branche et services
opérationnels). L’échantillonnage a été également guidé par des critères
pratiques déterminés par l’accord de collaboration avec l’entreprise. Cet accord comprend
l’observation de ses tâches, l’étude de ses outils de gestion et la conduite d’entretiens.

L’utilisation d’un design qualitatif nécessite désormais une explication rigoureuse du


mode de traitement des données par le chercheur.

4.3 Collecte et traitement des données

Conformément à nos questions de recherche, nous cherchons non seulement à


identifier des traits communs dans les pratiques des différents gestionnaires des
connaissances mais également à interpréter le sens qu’ils donnent à ces pratiques pour
aboutir à une compréhension des liens de causalité entre les actions et leur système
d’activité.
Dans cette troisième section nous explicitons dans le détail le processus de collecte
des données (4.3.1) puis son traitement par le chercheur. Ce traitement est réalisé à deux
niveaux : en première lecture celui du contenu thématique des entretiens ; en deuxième
lecture celui réalisé sur l’ensemble des données collectées entre les cas (4.3.2). Enfin, la
fiabilité et la validité du processus de recherche sont mises à l’épreuve à travers des tests de
qualité (4.3.3).

198
4.3.1 La collecte des données sur le terrain

La collecte des données est une étape à la fois planifiée et déroutante pour le
chercheur. Elle est organisée puisqu’elle suit une logique définie lors de la revue de la
littérature. Les entretiens, les observations ou encore les documents analysés sont choisis à
dessein par le chercheur selon le principe que Huberman et Miles nomme la
condensation des données : « La condensation des données renvoie à l'ensemble des
processus de sélection, centration, simplification, abstraction et transformation des données
brutes figurant dans les transcriptions des notes de terrain. Elle s'opère continuellement,
dans toutes les phases d'un projet à orientation qualitative. Avant même le recueil effectif des
données, celles-ci subissent une condensation anticipée parce que le chercheur décide quel
cadre conceptuel, quel site, quelles questions de recherche, quel mode de recueil de données
il va choisir » (Huberman et Miles, 1991 : 35).
Ce processus est d’autant plus déroutant car le chercheur n’a qu’une maîtrise partielle
de son terrain : une unité étudiée peut disparaître avec le départ d’un praticien ou l’existence
de jeux politiques et affectifs peut bloquer l’accès à certaines données. Le chercheur doit donc
être une véritable « éponge » et absorber un maximum d’information. Etant donné que nous
avons déjà exposé notre mode d’entrée sur le terrain dans la partie précédente nous
présentons ici nos trois principaux outils de collecte des données : l’observation (4.3.1.1),
l’entretien (4.3.1.2) et la documentation interne (4.3.1.3).

4.3.1.1 L’observation

Pour comprendre les pratiques des gestionnaires des connaissances, il nous semble
indispensable de les observer dans leur contexte d’action. L’observation permet ainsi de
« saisir sur le vif l’expérience des individus au quotidien » (Groleau, 2003 : 213). Elle est
préconisée dans « des projets de recherche dans lesquels les comportements, les actions et les
interactions entre les individus sont déterminants » (Wacheux, 1996 : 210). Cela est notre cas.
L’observation est un outil de récolte des données couramment utilisé dans les
sciences de gestion. Dans sa thèse sur le travail des managers, Henri Mintzberg a, par
exemple, observé in situ leurs tâches : « les managers sont soumis à une observation intensive
(‘dans leur ombre’) et je tiens un journal détaillé de leurs activités » (Mintzberg, 2004 : 25).
Notre processus d’observation s’appuie sur ces recommandations et se décompose en deux
éléments : une observation in situ (a) et la rédaction de notes d’observation (b).

199
a) L’observation in situ. L’observation est un mode de recueil des données par lequel le
chercheur observe de lui-même des processus ou des comportements se déroulant dans une
organisation, pendant une période de temps délimitée (Baumard et al., 1999 : 238). Comme
nous l’avons exposé dans la partie 4.1.1, notre observation était de type participante active
(Chanlat, 2005). Cette approche consiste à observer les pratiques des gestionnaires des
connaissances dans leur contexte alors que le rôle de chercheur est connu dans la structure
dans laquelle le chercheur évolue. Dans ce cas, le chercheur épouse un rôle préexistant dans
l’organisation, à savoir « Assistant du Corporate Knowledge Manager ».
Ce procédé de recueil des données est cohérent avec nos questions de recherche et
avec notre épistémologie. Dans la mesure où les praticiens peuvent éprouver des difficultés à
exprimer la teneur de leur travail, l’observation est un complément idéal pour appréhender
certaines pratiques : « le point de vue des sujets sur certains thèmes est difficile à verbaliser
ce qui rend l’observation idéale pour capter l’expérience humaine telle qu’elle se déroule au
fil des jours » (Groleau, 2003 : 213). Evidemment, l’observation seule ne permet d’accéder à
toute la richesse de la pratique des gestionnaires mais elle permet au chercheur d’établir des
conjectures à partir de son observation et de son expérience professionnelle.
Ces observations doivent se faire en « plan resserré ». Le chercheur ne peut embrasser
l’ensemble de l’entreprise. Il doit donc choisir ce qu’il doit observer. C’est pourquoi nous
avons développé une grille d’observation. Conformément aux conseils établis par Carole
Groleau (2003), nous avons établi quelques thèmes dans cette grille à partir du modèle du
système d’activité (voir Tableau 22 – page 156) et nous les avons fait évoluer en raison de
conjectures que nous avons formulées au fil de l’eau. Elles se structuraient autour de
questionnements que nous avions fait émerger lors de notre revue de la littérature. Nous
avons également réalisé des photographies lorsque le contexte le permettait. Enfin, certaines
observations ont été consignées lors de prises de notes en réunions. Le chercheur joue alors le
rôle de scribe pour le compte des personnes présentes lors de la réunion.
b) La rédaction de notes d’observation. Dans une démarche post-positiviste, le chercheur
doit parvenir à réduire les biais entre ses observations et ses propres interprétations et entre
ses observations et l’attitude des sujets. Cela signifie que les acteurs du terrain peuvent
modifier leurs actions et leurs significations au contact du chercheur : « faire dire » et « dire »
sont deux actes qui s’enchevêtrent dans la production narrative (Rouleau, 2003). Une relation
affective peut se développer entre le chercheur et son objet de recherche. Elle peut brouiller
son sens critique et remettre en cause la scientificité de son travail. Cette relation est

200
difficilement contrôlable (Rouleau, 2003). La question qui se pose alors à nous est celle de la
perturbation des pratiques des gestionnaires observés.
Le contrôle réside alors dans les propriétés du matériau recueilli et dans les analyses
produites à partir de ce matériau.27 Pour réduire les biais, il est nécessaire de réaliser des
notes d’observation qui sont une compilation rigoureuse des évènements entourant les
entretiens et les rencontres. Ce type de note « invite le chercheur à se raconter lui-même »
(Rouleau, 2003 : 156). Elles constituent les traces de l’expérience de recherche qui seront
utilisées pour analyser les données (Groleau, 2003).
Ces notes constituent peu à peu un journal de recherche sous format électronique. Le
journal de recherche « a pour objectif de conserver la trace de l’ensemble des investigations,
de conserver les impressions sur les interviews ou lors des présences sur les sites, sur les
détails observés, le contexte dans lequel se déroule la recherche et les perturbations qui
l’affectent » (Wacheux, 1996 : 232). Véritable journal intime du chercheur, sa rédaction
permet d’organiser chronologiquement les différentes notes d’observation et reflètent son
opinion à un moment donné.
D’un point de vue méthodologique, Burgess (1984) conseille au chercheur de
distinguer trois classes de notes : les notes de terrain, les notes méthodologiques et les notes
d’analyse. Les premières sont constituées de données sur les faits et les activités du
gestionnaire. Les secondes permettent de relater la relation entre l’observateur et l’observé.
Les troisièmes permettent de faire émerger le ressenti et les impressions du chercheur. Notre
journal de recherche était donc structuré selon un tableau en trois parties. Nous en donnons
un extrait dans le Tableau 31.

Tableau 31. Extraits de notes d'observation (Annexe 4)


Terrain Observation Analyse
(ce qui a été vu) (ce qui a été perçu dans la (ce qui a été compris)
relation)
Joanna (CKO) doit réaliser une Joanna se sent peu à l’aise dans ce La fonction de Joanna est
étude de marché sur les moteurs de type de projet et me charge de principalement liée à la DSI. Elle
recherche. Elle fait appel à des mener à bien cette étude en apporte un point de vue utilisateur
consultants d’IBM mais également contactant des gestionnaires que et son rôle est de sélectionner les
à d’autres gestionnaires des j’ai déjà interviewé dans le groupe. outils pour l’ensemble du groupe.
connaissances en interne.

27
Pour faire un parallèle assez simple, cela nécessite d’être capable de marcher dans la rue et de se regarder
depuis la fenêtre !

201
En tout, le volume des données recueillies par l’observation est de 14 observations de
trois journées en moyenne. Ainsi 42 jours ont été passés sur trois sites différents du groupe
Lafarge : Paris, Avignon et Amsterdam (Tableau 32) mêlant réunions, séminaires et
conventions.

Tableau 32. Récapitulatif des journées d’observation


Site Journées Présence sur le site Cas concerné
d’observation
Paris 15-16 Juillet 2004 Réunion avec l’équipe KM CKO /GOAL
ZOOM/OPK
2-4 Août 2004 Réunion avec la Corporate Knowledge CKO
Manager
4-6 Octobre 2004 Observation du Corporate Knowledge CKO
Manager
14 Octobre 2004 Réunion avec la responsable de OPK OPK
8-10 Novembre 2004 Observation de la responsable de OPK OPK
22-24 Novembre 2004 Premières restitutions de la politique KM CKO /GOAL
auprès de la Direction Générale ZOOM/OPK
6-8 Décembre 2004 Réunion avec le Knowledge Manager de ZOOM
ZOOM
13-15 Décembre 2004 Réunion avec la Corporate Knowledge CKO
Manager
16-19 Janvier 2005 Comité de pilotage KM CKO /GOAL
Visite usine de plâtre et béton ZOOM/OPK
31-1 Février 2005 Réunion avec l’équipe KM CKO
11 Septembre 2005 Comité de pilotage KM CKO
Restitution des résultats de l’étude
Avignon 2 Février 2005 Réunion avec l’équipe KM de la branche GOAL
Plâtre
2-3 Mars 2005 Visite du site et observation de la GOAL
responsable de GOAL
Amsterdam 2-4 Mai 2005 Convention ZOOM – Observation du ZOOM
Knowledge Manager Toiture

4.3.1.2 Les entretiens

En complément aux observations, nous nous sommes appuyé sur des entretiens
permettant aux gestionnaires des connaissances d’exprimer leur point de vue. Ces entretiens
étaient enregistrés sur un support audio et ils étaient ensuite retranscrits par le chercheur sur
un format numérique et validés par les interviewés. L’analyse des entretiens contient donc
quatre dimensions : la retranscription, le découpage des niveaux de signification, la mise en
commun des récits et leur mise en forme (Rouleau, 2003 : 162). Nos entretiens se
décomposent en deux formes : des entretiens semi-directifs centrés (a) et des récits des
pratiques (b).

202
a) L’entretien semi-directif centré permet au chercheur de définir des thèmes avant sa
réalisation sur le terrain. L’interviewé découvre les questions et les thèmes abordés et peut
ainsi exprimer son point de vue avec naturel et spontanéité. Les entretiens semi-directifs
centrés ont été utilisés au début de la recherche et, plus particulièrement, auprès de sous-
unités comme des responsables d’usines ou des directeurs de branche et de programmes de
performance.
Le magnétophone constitue l’élément indispensable pour le chercheur engagé dans
des entretiens. Pour ne pas intimider les répondants, nous avons choisi d’utiliser une clé USB
équipée d’un microphone ou notre téléphone portable (également équipé d’un microphone).
Les documents audios sont automatiquement transformés en format numérique MP3. Cela
facilite leur sauvegarde et leur manipulation. Les entretiens peuvent parfois se déroulés dans
des endroits bruyants (ex. cafétéria de l’entreprise), il est donc nécessaire de prendre des
notes au cours de l’entretien. Ces notes contiennent à la fois quelques bribes d’entretien mais
également des observations écrites au fil de l’eau qui viennent nourrir l’analyse des données.
Lors de l’entretien nous avons toujours informé les personnes qu’elles étaient
enregistrées. Très souvent, ces dernières nous fournissaient des données secondaires très
utiles au chercheur. Il s’agissait de documents internes, de photos, de présentations
powerpoint ou d’articles de journaux que l’interviewé jugeait pertinent dans le cadre des
thèmes abordés lors de l’entretien. Une fois sauvegardé, l’entretien est retranscrit par le
chercheur. L’utilisation d’un logiciel de retranscription vocal (Dragon Naturally Speaking 7)
nous a permis de gagner un peu de temps dans ce processus, un mot sur dix étant mal
reconnu par le logiciel. Une fois codifié, le verbatim est envoyé à l’interviewé qui valide son
contenu. Sa validation n’était pas systématique puisque certains répondants n’exigeaient pas
l’envoi du verbatim. La Figure 27 résume le processus de retranscription des entretiens.

203
Figure 27. Le processus de collecte des données lors de l'entretien.

Données secondaires

Prises de notes

Questions

Enregistrement

Réponses
Interviewé Chercheur

Sauvegarde et Retranscription
classement en du verbatim
format MP3

Validation du verbatim par l’interviewé

Les données secondaires (documents, photos, etc.) et nos notes ont enrichi notre
verbatim final. En effet, en introduction du verbatim, nous avons rédigé un tableau qui
permet de lier différentes données secondaires. Conformément aux conseils de Linda
Rouleau (2003), nous avons structuré nos entretiens selon une fiche signalétique (Annexe
3.B.).

La référence de l’entretien suit une codification très utile pour ne pas se perdre dans
le classement des fichiers audios. Par exemple, sur l’Annexe 3.B. (Tome II - page 71), on peut
lire que les personnes ont été interviewées dans le contexte du cas GOAL, qu’elles occupent
un niveau hiérarchique opérationnel (OPE) et qu’elles se nomment Serenal et Ieva. Ce
classement s’est avéré très productif pour organiser le traitement informatisé des entretiens.
En tout, 39 heures de conversation ont été enregistrées durant 26 entretiens. La durée
en moyenne était comprise entre 45 minutes et 1 heure et 30 minutes. Le détail de nos
entretiens est représenté ci-dessous, par cas (Figure 28).

204
Figure 28. Récapitulatif des entretiens par études de cas.
Identité Poste occupé Niveau Fonction dans la Durée
hiérarchique politique KM
Guy Herbelin Directeur Général de la Comité Exécutif Sponsor Exécutif 1 heure
branche Plâtre
Michel Président Directeur Comité Exécutif Sponsor Exécutif 1 heure
Langlais Général
François Directeur de la Siège Manager 1 heure
Sabre Performance de la
Cas CKO

branche Ciment
Joanna Stuart Corporate Knowledge Siège Manager 5 heures
Manager (5X1h)
Laurent Directeur des Achats Siège Utilisateur 1 heure
Dutilleul Groupe

Jérôme Adjoint du Directeur Opérationnel Utilisateur 2 heures


Boulot des Achats Groupe
Cyrielle Responsable des Opérationnel Utilisateur 2 heures
Picard Affaires Publiques
13 heures

Identité Poste occupé Niveau Fonction dans la Durée


hiérarchique politique KM
Guy Herbelin Directeur Général de la Comité Exécutif Sponsor Exécutif 1 heure
branche Plâtre
Sébastien Directeur de la Branche Manager 2 heures
Fiorio Performance de la
branche Plâtre
Cas GOAL

Petra Dubois Best Practice Manager Branche Manager 3 heures


(2X1,5h)
Valentin Directeur d’usine Opérationnel Utilisateur 2 heures
Serenal
Stanislas Ancien Directeur de la Branche Manager 30 mn
Debrey Performance de la
branche Plâtre
Pascal Responsable du Branche Manager 1,5 heure
Echebarry programme GOAL
Léopold Ieva Responsable d’atelier Opérationnel Utilisateur 2 heures
en usine
12 heures

Identité Poste occupé Niveau Fonction dans la Durée


hiérarchique politique KM
Michel Knowledge Manager Service Manager 4 heures
Cas ZOOM

Dubarry (2X2h)
Fabien Directeur de ZOOM Service Manager 30 mn
Martinon
Florence Knowledge Manager de Branche Manager 2 heures
Cohen la branche Toiture
Benjamin Responsable Marketing Opérationnel Utilisateur 30 mn
Gonzalez de la branche Toiture
7 heures

205
Identité Poste occupé Niveau Fonction dans la Durée
hiérarchique politique KM
François Directeur de la Branche Directeur 2 heures
Cas OPK

Esposito Performance de la
branche Béton
Fiona Knowledge Manager Branche Manager 2 heures
Tricoustin
Agnès Knowledge Manager Branche Manager 1 heure
Valentin
7 heures

b) Le récit des pratiques. En complément aux entretiens directifs centrés, le récit des
pratiques offre la possibilité à l’interviewé de décrire les différentes actions, tâches et
opérations qu’il effectue quotidiennement et de donner son opinion sur celles-ci et sur la vie
politique de l’entreprise. Cela permet au chercheur de saisir la dimension subjective des
pratiques, dimension à laquelle il ne peut accéder par l’observation. Comme le note Linda
Rouleau « ce genre de récit permet de saisir une dimension du vécu correspondant à un type
de pratiques spécifiques […] dans lequel la personne raconte sa propre « théorie » des
évènements survenus, dévoile son interprétation et met en scène sa vision par rapport à
l’avenir » (Rouleau, 2003 : 140). Le sujet de recherche dévoile ainsi au chercheur ses
représentations intimes si le chercheur est capable de nouer une relation de confiance avec
l’interviewé.
Au contraire de l’entretien semi-directif centré, le chercheur laisse ici le praticien
s’exprimer sans orienter a priori la discussion. L’essence de cette méthode réside dans la
capacité d’écoute du chercheur. Faire dire est donc un art plus complexe qu’il n’y paraît. Le
récit peut démarrer à partir d’une question d’amorçage (par exemple « racontez moi ce que
vous avez fait dans ce cas précis ? ») ou lors de discussions informelles (par exemple lors
d’un déjeuner ou autour d’un café). Nous avons ainsi remarqué que les données les plus
intéressantes sont celles que nous obtenons à la fin de l’entretien ou du récit, lorsque
l’interviewé a le sentiment d’avoir oublié un point important ou lorsqu’il se sent
complètement libéré par la fin de l’exercice.

4.3.1.3 La documentation

Les documents internes représentent des données secondaires très utiles pour le
chercheur. Ils permettent à la fois de préciser les propos tenus par les interviewés et de
compléter les observations qu’il conduit. Ces documents étaient soit trouvés par le chercheur

206
(via l’Intranet, les bases de données et les moteurs de recherche) soit fournis par les acteurs
eux-mêmes. Dans le premier cas, nous avons dû faire preuve de curiosité et réaliser un
véritable audit des informations qui nous étaient accessibles « à portée de main ou de
clique ». Dans le deuxième cas, nous nous sommes efforcé d’obtenir les documents les plus
pertinents à nos yeux en insistant auprès des personnes concernées.
Ces documents représentent un ensemble assez disparate. Il s’agit pour sa grande
majorité de présentations en format Powerpoint. Des études quantitatives menées dans les
branches sur le knowledge management ont été également identifiées et rapatriées. Certaines
enquêtes étaient de véritables mines d’or pour comprendre l’évolution de la politique KM de
Lafarge et améliorer notre compréhension de l’historique du cas. Par exemple, nous avons eu
accès à deux études de très grande qualité menées dans le cadre du programme de
changement de Lafarge intitulé « Leader For Tomorrow ». La première est le résultat d’une
consultation conduite par MercerDelta. Elle relate les différentes facettes du changement
organisationnel et culturel depuis cinq ans. La seconde est un questionnaire envoyé à tous les
managers du groupe. Nous avons classé les documents électroniques en suivant la même
règle de codification que pour les entretiens (voir Annexe 5.C.).

Tableau 33. Nature des documents analysés.


Présentations Powerpoint - Politique KM (20 documents)
- Bilan de l’activité KM des branches (5 documents)
- Cas de transferts de bonnes pratiques (4 documents)
Documents Word - KM Handbook
- Sales & Marketing Handbook
- Newsletters Best Practices
- Principes d’action de l’entreprise
- Rapport Annuel
Bases de données - BPKS (Best Practices & Knowledge Sharing)
(Lotus Notes) - Know-How Portal
- OPK
- LEO (Lafarge Employee Online)
Enquêtes - LeaderForTomorrow

En conclusion, notre mode de recueil des données est relativement classique et basé sur
trois outils principaux : l’observation, les entretiens et les documents (voir l’Annexe 5.B.
pour la liste des données analysées). Toute la difficulté pour le chercheur est de s’assurer
d’une bonne distribution des données et de ne pas sur-représenter un cas par rapport à un
autre. Les heures d’entretien des cas GOAL et CKO sont ainsi deux fois plus importantes
que les cas ZOOM et OPK. C’est pourquoi nous avons essayé de contrebalancer cet état de
fait par une analyse rigoureuse de la documentation.

207
Comment avons-nous fait ressortir de ces données si diverses et si nombreuses des
réponses à nos questions de recherche ? Dans la partie suivante, nous présentons notre
processus d’analyse des données.

4.3.2 L’analyse des données

L’analyse qualitative cherche à interpréter les données en tenant compte du contexte.


Différentes étapes sont nécessaires pour aboutir à une interprétation fiable. Etant donné que
notre objectif de recherche consiste à décrire les pratiques des gestionnaires des
connaissances, nous proposons de suivre le processus d’analyse de contenu décrit par Bardin
(2007) sur la Figure 29.

Figure 29. Les principales étapes de l'analyse de contenu (schéma adapté de Bardin, 2007)

Lecture du texte dans l’optique de la


problématique de recherche

Formulation des objectifs de


recherche

Découpage du texte Elaboration des règles de Classification en


en unités comptage et de codage catégories

Comptage de mots, calcul


de fréquence

Analyse Lexicale Analyse Thématique

Interprétation

Suite à la lecture des données récoltées, le chercheur commence par découper le texte
en différentes unités en fonction de ses objectifs de recherche. Les règles de codage peuvent
s’élaborer peu à peu par abduction. Le texte est alors découpé et codé en fonction de

208
catégories d’analyse. A partir de là, deux grands types d’analyse sont possibles : l’analyse
thématique et l’analyse lexicale. Les analyses lexicales ont pour but de décrire la composition
du discours ou du texte en termes de vocabulaire et de fréquence d’apparition des mots alors
que l’analyse de contenu thématique cherche davantage à révéler le sens du corpus.
Dans un premier temps, nous avons donc procédé à une analyse thématique des
données visant à créer du sens dans le système d’activité étudié (4.3.2.1) puis nous avons
ensuite opéré une analyse comparative des cas (4.3.2.2). Ces deux processus nous ont permis
de faire émerger d’autres thèmes au sein desquels nous avons mené une analyse lexicale
(4.3.2.3).

4.3.2.1 L’analyse de contenu thématique des données

L’analyse de contenu est une méthode de traitement des matériaux qualitatifs –


entretiens, documents et observations - définie par Bardin (2007 : 48) comme « un ensemble
de techniques d’analyse des communications visant, par des procédures systématiques et
objectives de description du contenu des messages, à obtenir des indicateurs (quantitatifs ou
non) permettant l’inférence de connaissances relatives aux conditions de production
/réception (variables inférées) de ces messages ». L’analyse consiste alors à faire des
inférences à partir des caractéristiques des messages à la suite du codage des données et, ce,
pour comparer, décrire, expliquer ou prédire (Allard-Poesi et al., 1999). Ce type d’analyse est
cohérent avec notre recherche puisqu’elle fait ressortir le sens donné par les individus à leurs
pratiques. Nous allons maintenant exposer les règles de codage que nous avons employées
(a), décrire les évolutions de ces règles (b), processus rendu possible par l’utilisation d’un
outil d’analyse informatisée appelé NVivo (c).

a) Les règles de codage. L’unité de codage est « l’élément (critère, dimension) en


fonction duquel le chercheur va procéder au découpage de ses données et à l’extraction
d’unités qui seront classées dans les catégories retenues » (Allard-Poesi, 2003 : 252). Il s’agit
donc d’organiser les idées et les concepts contenus dans les matériaux de recherche qui font
sens au chercheur.
La première règle à définir pour coder les données est le choix de l’unité de sens.
Cette unité varie en fonction des objectifs du chercheur et de la nature de la communication :
elle peut être le mot, la phrase ou encore le groupe de phrases (Allard-Poesi et al., 1999).
L’unité d’analyse retenue doit être la plus petite unité d’information qui fait sens en elle-

209
même. Dans la mesure où nous cherchons à décrire les pratiques des gestionnaires des
connaissances et à analyser leur discours, nous adoptons comme unité d’analyse la phrase ou
le groupe de phrases pour éviter de tronquer le sens des mots donné par ces praticiens. Le
codage conduit à une démarche de décontextualisation-recontextualisation des données
(Tesch, 1990). La décontextualisation consiste à sortir de son contexte un extrait de texte afin
de le rendre sémantiquement indépendant ou de le regrouper avec d’autres extraits d’une
même catégorie. La recontextualisation, quant à elle, est obtenue en amalgamant les codes ou
les catégories préalablement décontextualisés pour en faire un ensemble porteur de sens.
L’objectif est donc de comparer les groupes de phrases les unes avec les autres pour valider
la compréhension du chercheur ou faire émerger un sens nouveau.
La deuxième règle consiste à inscrire ces codes dans un dictionnaire des thèmes (voir
Annexe 5.A.). Le dictionnaire des thèmes doit permettre le codage et l’analyse des données
de façon à répondre aux questions de recherche posées (Mbengue et Vandangeon-Derumez,
2003). C’est en quelque sorte une grille de lecture au travers de laquelle les entretiens sont
analysés. Les thèmes regroupent un ensemble d’unités d’analyse qui ont des significations
proches ou des propriétés communes (Allard-Poesi et al., 1999). C’est le début du processus
d’interprétation par le chercheur (Figure 30), dans la mesure où la définition des thèmes
revient à préciser leur niveau d’inférence, c’est-à-dire leur degré de similarité (Allard-Poesi,
2003).

Figure 30. Les différents niveaux d'inférence pour la formation des catégories
(Allard-Poesi, 2003 : 263)

Description Interprétation

Mots
Concept
Mots ou Caractérisation
expressions Des comportements
de verbaux et non verbaux Thème
significations Unités renvoyant
proches au même Méta-catégorie
phénomène. explicative
Regroupement de
catégories rendant
compte de
récurrences.

210
Conformément à nos objectifs de recherche, le niveau d’inférence que nous retenons
se situe au à mi-chemin entre la description et l’interprétation. Notre travail d’analyse sur les
données se concentre surtout sur la formation de thèmes : nous essayons de décrire les
actions des gestionnaires tout en cherchant à comprendre le sens qu’ils donnent à leurs
pratiques dans un modèle ancré dans la théorie de l’activité. Un codage de second niveau est
alors possible : celui portant sur les méta-catégories explicatives. Celles-ci se réfèrent à des
phénomènes récurrents, des causes du phénomène observé, des relations interpersonnelles
(Allard-Poesi, 2003) qui s’inscrivent parfaitement dans le modèle du système d’activité. Les
méta-catégories ainsi formées reflètent nos postulats théoriques et épistémologiques.

En conséquence, nous pouvons définir un dictionnaire des thèmes et des


catégorisations à partir de notre modèle théorique (le système d’activité) : « quand le
chercheur décide des blocs de données à coder, de ceux à extraire, des configurations qui
vont intégrer tel ou tel bloc, et de la façon dont les événements se sont enchaînés, il procède à
des choix analytiques. La condensation est une forme d'analyse qui consiste à élaguer, trier,
distinguer, rejeter et organiser des données de telle sorte qu'on puisse en tirer des
conclusions finales et les vérifier » (Huberman et Miles, 1991 : 35).

Le codage des entretiens, des observations et des documents nécessite la précision de


chacun des thèmes par des descripteurs. Le descripteur est une caractéristique observable
sur le terrain, qui assure le lien entre le concept représenté par le thème et le verbatim
(Dameron 2000). Le Tableau 34 est une illustration de la relation entre les thèmes et les
descripteurs. Afin de clarifier le processus de codage du contenu, nous illustrons ce tableau
par des phrases extraites de notre corpus.

211
Tableau 34. Le dictionnaire des thèmes.
Dimension Thèmes Descripteurs Illustration par des données
du modèle
théorique
Sujet Le praticien - Profil Je suis une manager expérimentée avec une dizaine
d’années d’expériences internationales. Je suis également
diplômée en Relations Internationales (Université de
Toronto) et j’ai réalisé un MBA en 2000 à Rotman School
of Management. (Stuart)
- Compétences Je sais faire du marketing. C’est pour ça que je suis
relativement légitime dans ma fonction de knowledge
manager au sein de la Direction Marketing et Ventes de
la branche Toiture. (Dubarry)
- Mission La Best Practice Manager doit superviser et coordonner
l’effort Best Practices tout en assurant le soutien
organisationnel, humain et technologique au processus de
transfert des bonnes pratiques. (Castel)
Objet Les pratiques - Décision C’est moi qui décide de la pertinence de la pratique. On
peut résumer ça comme ça : la Knowledge Manager
(son activité s’occupe du contenant et moi du contenu. (Dubarry)
quotidienne) - Contrôle/ Je passe un peu de temps hors de mon bureau à former les
utilisateurs potentiels de OPK, c’est un moment
Encadrement important. (Valentin)
- Conseil Je fais énormément de présentations PowerPoint. J’en
prépare entre huit et dix par semaine et je dois passer un
tiers de mon temps à présenter ce que je fais en matière de
KM et comment je peux aider telle ou telle équipe de
Lafarge. (Stuart)
Communauté Les - Collaborateurs Ce qui est frustrant dans ma fonction est le fait que les
personnes au sein du siège n’assimilent le knowledge
collaborateurs internes management qu’à Lotus Notes et à LEO [l’intranet]. Je
leur réponds que c’est un outil parmi d’autres et qu’ils
peuvent également créer des réseaux d’experts…mais le
message est difficile à faire passer. (Stuart2)
- Collaborateurs Heureusement que Joanna est là pour gérer les relations
avec les consultants. Il y en a tellement que chaque
externes branche a son propre consultant, ce qui multiplie les
coûts. De mon côté, je ne m’en sors plus avec tous ces
consultants qui gravitent dans le monde du KM.
(Cohen)
Règles Les règles de - Définition Le KM Handbook, rédigé par la CKM, décrit les différents
éléments de la politique knowledge management de
fonctionnement Lafarge. C’est le « B.A.-BA » pour tous les knowledge
managers. (Dubois)
- Application Nous avons fait évolué les règles parce qu’on avait trop de
pratiques dans la base : environ 200 ! Il a donc fallu faire
le ménage et revenir à une dizaine de pratiques
disponibles. (Dubois)
Artefacts Les praxis - Instruments de Grâce à la base de données, on a l'impression de
communiquer tous ensemble au niveau monde. On se sent
médiateurs gestion donc moins isolé et on a un sentiment d'appartenance au
groupe plus fort. (Serenal)
- Outils de Le Messenger est un outil très pratique pour coordonner
l’action de l’équipe de Knowledge Management qui est
communication éclatée dans les branches et dans des pays différents.
(Stuart)
Division du L’organisation - Partage des tâches Dans la démarche KM, il y a le « sponsor » qui légitime
la démarche et demande des comptes; le « knowledge
travail entre les manager » qui exploite les méthodes et les outils de
collaborateurs partage des connaissances mis à sa disposition ; les «
experts » qui ont un rôle particulier dans la transmission
du savoir. (Valentin)

Mais, conformément à notre démarche abductive, nous avons également modifié le


dictionnaire des thèmes pour inclure de nouveaux codes.

212
b) L’évolution des règles de codage. Dans une démarche abductive, le codage des
données n’est pas un processus figé : « le codage des données conduit à de nouvelles idées
de celles qui devraient figurer dans une matrice. L'entrée des données exige une nouvelle
condensation. Or à mesure que la matrice est complétée, se dégagent des conclusions
préliminaires qui, à leur tour, entraînent la décision d'ajouter une colonne à cette matrice
pour vérifier la conclusion » (Huberman et Miles, 1991 : 38). Le codage peut donc démarrer
par la revue de la littérature permettant de sélectionner des thèmes a priori (Huberman et
Miles, 1991) mais il peut se compléter par des éléments trouvés a posteriori (Glaser et Strauss,
1967).
Le dictionnaire des thèmes peut donc être modifié par les interactions du chercheur
avec le terrain, interactions qui font apparaître de nouveaux thèmes : « le chercheur établit la
liste de concept composant le phénomène étudié, à partir d’informations recueillies au
travers des résultats de recherches antérieures. Ensuite, il opérationnalise ces concepts à
partir de données de l’étude empirique pour obtenir des variables. Cependant, il est
recommandé au chercheur adoptant cette méthode d’enrichir et de reconfigurer les concepts
issus de la littérature à partir des données du terrain » (Mbengue et Vandangeon-Derumez
2003 : 348).
C’est ce que nous avons fait avec le Tableau 34. Pour faire émerger d’autres thèmes,
Laurence Bardin (2007) conseille au chercheur de réaliser une lecture flottante des données
condensées. Cette lecture consiste à « se mettre en contact avec les documents d’analyse, à
faire connaissance en laissant venir à soi des impressions, des orientations » (Bardin 2007 :
127). Cette lecture flottante s’est accompagnée d’une analyse comparative des données
permettant de mettre en perspective le sens du corpus. Ainsi, quatre thèmes nous sont
apparus essentiels pour comprendre l’activité des gestionnaires des connaissances : la
gestion du portefeuille des connaissances, la gestion de l’infrastructure, la gestion de la
structure et la gestion du changement. Ces thèmes ont donc été rajoutés au dictionnaire des
thèmes, en tant que codes libres (voir Annexe 5.A.) et donné lieu à une analyse lexicale.

c) Le recours à un outil informatique. Face à l’accroissement du volume de données à


traiter et à l’évolution itérative de notre processus d’analyse thématique, nous avons
mobilisé un outil d’analyse qualitative informatisée. NVivo 2 est un logiciel informatique
permettant d’effectuer aussi bien des analyses inductives (on part des données pour générer
des thèmes) que déductives (on part de son analyse de la littérature pour générer des
thèmes). Ce logiciel offre la possibilité de réaliser cette démarche autant de fois que

213
nécessaire, de modifier les thèmes, les codes et le codage du corpus. L’Encadré ci-dessous
expose notre utilisation du logiciel de façon très concrète.

Encadré 12. Description de l'utilisation du logiciel NVivo 2.0 par le chercheur.


Le logiciel nécessite l’ouverture d’un projet, élément qui regroupe l’ensemble du corpus. Au sein de ce
projet sont utilisés trois systèmes de classement : les documents, les nœuds et les attributs. Les
documents regroupent l’ensemble des données. A partir du matériau empirique numérisé, nous avons
transformé ces matériaux en format .rtf pour les importer dans NVivo. Les nœuds sont les codes. Ils
servent à classer le contenu des documents par thème. Ce sont des récipients électroniques dans
lesquels on place les extraits des documents (Deschenaux et Bourdon, 2005). Les codes peuvent être
changés à tout moment. Ils peuvent également concerner le même extrait, ce qui nous permet de
réaliser un coding-on, c’est-à-dire l’attribution de plusieurs codes au même extrait (comme sur le
schéma ci-dessous). Les nœuds (ou codes) sont de trois types : hiérarchisés (comme le dictionnaire des
thèmes), libres (ajoutés au fil de l’eau) et les nœuds cas. Ces derniers sont très intéressants pour nous
car ils permettent d’attribuer un code à chaque cas. Par exemple, si le gestionnaire M. Y dit telle chose
(codée A), le nœud M.Y permet de le retrouver tout comme le nœud A. Enfin, les attributs permettent
de déterminer la nature des documents (notes, entretiens).

Entretiens Note s Documenta


d’observation - tion
blablablablablal
Code A blablablbalblabl blablablbalblablbla blablablbalbl
blablbalblablbla
Code C blbalblablblablblab Code B ablblablbalbl
Code C
blblablablablabl lablablablablblabla ablblablblabl

Code A Code B Code C

blablablablablal blablablablablal blablablablablal


blablablbalblabl blablablbalblabl
blablbalblablbla
blblablablablabl blblablablablabl blblablablablabl

- Changement des codes - Analyse thématique


- Recodage du corpus - Analyse par cas
Corpus - Analyse lexicale
condensé

Le corpus obtenu peut, par la suite, être retravaillé par le chercheur. L’utilisation des nœuds lui
permet également de mener une analyse transversale (grâce aux nœuds cas) mais également lexicale
(par un comptage des occurrences des codes).

Grâce à l’utilisation de NVivo 2, nous avons pu mener une analyse transversale sur
l’ensemble des données à notre disposition.

214
4.3.2.2 L’analyse transversale

Alors que l’analyse thématique permet d’obtenir une photographie des systèmes
d’activité des gestionnaires des connaissances étudiés, l’analyse transversale fait ressortir les
caractéristiques communes et les relations de dépendance ou d’indépendance entre ces
systèmes d’activité : « dans une analyse de cas multiples, le problème est d'identifier des
processus et des résultats qu'on retrouve dans chacun des cas et de comprendre comment de
tels processus sont modifiés par des variations spécifiques du contexte local » (Huberman et
Miles, 1991 : 271).
Cette analyse est alors fondée sur l’émergence de méta-catégories explicatives.
Comme nous l’avons expliqué précédemment, ce processus est itératif et il s’opère
généralement en seconde lecture. Cette analyse met en relief deux éléments :
- les tensions les plus représentatives dans les systèmes d’activité des
gestionnaires ;
- les actions les plus récurrentes qui se retrouvent dans tous les systèmes
d’activité des gestionnaires.
L’identification des tensions se construit à partir des différences de perception entre
les acteurs impliqués dans le knowledge management. Nous avons donc cherché à opposer
les points de vue des clients du knowledge management (les employés, les directeurs
d’usine, les responsables Qualité, etc.) à ceux des knowledge managers et de la direction
générale de l’entreprise. L’opposition entre le niveau décisionnel et le niveau opérationnel
est un élément moteur dans la compréhension des difficultés des knowledge managers. Ces
tensions s’expriment également à un deuxième niveau : entre les gestionnaires entre eux.
Cette démarche est rendue possible par l’utilisation des données « subjectives »
collectées par le chercheur lors de ses observations participantes : notes d’observation, notes
prises lors de l’entretien et journal de recherche. L’analyse transversale permet donc
d’apporter une lecture critique aux systèmes d’activité décrits dans une première partie.

Concernant le deuxième point, les actions des gestionnaires des connaissances, nous
les avons fait émerger suite à notre analyse transversale. Peu à peu, des méta-catégories sont
apparues à force d’interactions avec le terrain. Elles se sont saturées et nous ont obligé à
confirmer nos résultats par une analyse lexicale portant sur quatre domaines d’activité : la
gestion du portefeuille, la gestion de l’infrastructure, la gestion de la structure et la gestion
du changement.

215
4.3.2.3 L’analyse lexicale

Au début de notre recherche, nous ne pensions pas réaliser une analyse lexicale de
notre corpus mais les possibilités offertes par NVivo 2 nous ont incité à pousser notre
analyse à ce niveau de détail afin de contrôler nos résultats. Nous avons décidé de limiter cet
effort aux quatre méta-catégories émergentes définies un peu plus haut.
Rappelons que l’analyse lexicale consiste à « dénombrer les unités d’analyse dans
chacune des catégories ou des thèmes et à calculer leur fréquence. Ainsi dans chaque
document étudié, on compte le nombre d’unités d’analyse de chacune des catégories
étudiées afin d’en déduire l’importance » (Allard-Poesi et al., 1999 : 462). Dans notre
recherche, nous avons mobilisé cette méthode pour comparer la distribution des actions
(codées) des knowledge managers en fonction des cas étudiés. Sur le Tableau 35 nous avons
reporté le nombre de mots analysés en fonction des quatre méta-catégories émergentes
(portefeuille, structure, infrastructure et changement).

Tableau 35. Nombre de mots analysés dans le cadre de l'analyse lexicale.


Cas OPK Cas ZOOM Cas GOAL Cas CKO
12 384 mots 16 230 mots 10 245 mots 19 349 mots

Même si notre unité de sens n’est pas le mot, ce dernier est codé dans une phrase ou
un groupe de phrases. Dans NVivo 2, le code est ensuite rattaché au nœud cas, c'est-à-dire au
gestionnaire des connaissances concerné par l’extrait. Le logiciel permet alors de réaliser une
matrice croisant les codes ouverts (ou émergents) avec les codes cas (les knowledge
managers) et de présenter le nombre de mots employés. Autrement dit, cette matrice assure
une représentation rapide de la place respective de chaque thème pour chaque individu.

En conclusion, notre analyse des données s’est réalisée selon un flux permanent entre le
terrain et le modèle théorique. Nous pouvons néanmoins identifier trois types d’analyse :
- nous avons commencé par réaliser une analyse de contenu thématique avec des codes
définis a priori et a posteriori. Elle vise à décrire les systèmes d’activité des gestionnaires
des connaissances à partir de données décontextualisées et recontextualisées via NVivo 2 ;
- à partir d’un corpus facilement modifiable, nous avons mené une analyse inter-cas pour
identifier des similitudes et des différences dans les activités des gestionnaires. Cette
identification permet d’analyser les conflits et les actions les plus récurrents ;
- enfin, nous avons réalisé un comptage des actions exprimées dans le corpus.

216
Dans le prolongement de notre explication du processus d’analyse retenu, nous
concluons cette partie en exposant les garde-fous que nous avons employés.

4.3.3 Fiabilité et validité du processus de recherche

Dans une méthodologie qualitative, le besoin de vérifier la fiabilité du processus de


recherche est sans cesse renouvelé. Ce besoin est d’autant plus prégnant quand le chercheur
suit une réflexion abductive, faite de paris successifs sur ce qu’il observe et sur ce qu’il
interprète. C’est pourquoi nous avons mis en place différents outils de contrôle permettant
de mesurer la validité interne (4.3.3.1) et externe de notre recherche (4.3.3.2).

4.3.3.1 La validité interne

Dans un positionnement épistémologique post-positiviste, la validité interne de la


démarche de recherche correspond à la robustesse de la compréhension du chercheur vis-à-
vis de son terrain. L’indicateur généralement retenu est celui de la fiabilité de l’interprétation
du chercheur qui doit « établir et vérifier que les différentes opérations d’une recherche
pourront être répétées avec le même résultat par des chercheurs différents et / ou à des
moments différents » (Drucker-Godard et al., 1999 : 275). La validité interne a été contrôlée à
deux niveaux : au niveau du codage (a), au niveau des sources de données (b) et au niveau
de l’échantillonnage (c).
a) La fiabilité du codage. Pour apprécier la fiabilité du codage, nous devons contrôler la
construction de notre dictionnaire des thèmes. Ce dictionnaire doit répondre à certains
critères définis par Bardin (2007) dont l’exhaustivité, l’exclusivité et l’objectivité.
En matière d’exhaustivité, le dictionnaire des thèmes établi doit assurer le codage de
la totalité de l’entretien. Nos avons établi que les thèmes recouvrent environ 60% du contenu
analysé. Les 40% restants ont émergé suite à la modification du dictionnaire des thèmes (voir
la sous-section suivante).
L’exclusivité souligne le fait que chaque contenu analysé ne peut être codé que par un
seul code. Ainsi un code doit permettre d’analyser à la fois un document, un entretien et une
observation pour aboutir à des comparaisons entre les pratiques et les praxis, entre le sujet et
l’objet.
L’objectivité renvoie à la possibilité pour un autre chercheur de pouvoir trouver les
mêmes résultats. Cette fiabilité se mesure par le procédé de double codage. Ce procédé

217
consiste à faire coder un entretien par un autre chercheur qui a un dictionnaire des thèmes
identique à celui employé par le chercheur. Selon Huberman et Miles (1991 : 108), le taux de
fiabilité du codage se calcule de la façon suivante :
Nombre d’accords
Nombre total d’accords + désaccords
Pour réaliser ce test, nous avons mobilisé un collègue de notre institution travaillant
sur des thèmes de recherche similaires. Ce choix nous a semblé naturel pour s’assurer que le
deuxième codeur puisse assimiler facilement le dictionnaire des thèmes. Puis, nous avons
proposé à ce collègue deux entretiens de trente minutes. Environ 4 000 mots devaient donc
être analysés. Le taux de correspondance obtenu a été de 85%, ce qui peut être considéré
comme relativement fiable vis-à-vis des études réalisées par Huberman et Miles (1991).

b) La triangulation. A l’origine la métaphore de la triangulation provient du monde


militaire : la méthode consiste à définir l’emplacement d’un lieu sur une carte à partir de
plusieurs points de vue. Dans les sciences sociales, la triangulation consiste à « utiliser à la
fois des méthodes qualitatives et des méthodes quantitatives et à compenser les faiblesses de
l’une par les forces de l’autre » (Jick, 1979 : 602). Elle permet de vérifier la justesse et la
stabilité des résultats produits et d’en augmenter la validité interne en neutralisant les points
faibles inhérents à toute méthode de collecte des données (Huberman et Miles, 1991).
Dans son étude des effets d’une fusion sur les employés, Jick (1979) définit ces
différentes sources comme un « package » permettant d’étudier le phénomène sous
différents angles. Chaque angle permet d’éJoannar le chercheur sur la problématique : « les
sentiments et les attitudes, les documents, les observations [...] ces méthodes étaient assez
larges pour comprendre les différentes dimensions de l’anxiété des employés face à la
fusion » (Jick, 1979 : 605). Mais comment faire converger les différents points de vue pour
obtenir une image des plus fidèles de la réalité observée ? Jick (1979) propose d’étudier les
points de convergence et de divergence dans les différents points de vue contenus dans des
sources diverses. L’utilisation de plusieurs sources de données permet ainsi d’analyser les
situations sous des angles différents et de repérer des éléments (notamment dans le contexte)
qui, au départ, seraient passés inaperçus ou auraient été négligés avec l’utilisation d’une
seule méthode. La triangulation permet donc de « capturer » un « portrait » plus global et
plus complet que d’autres types de stratégie de recherche (Jick, 1993). La Figure 31
représente ce travail de triangulation par le chercheur.

218
Figure 31. La triangulation des données.

Observations
- Nature du travail
- Tâches accomplies
- Agenda
- Réunions

Système d’activité
des gestionnaires
des connaissances
Entretiens Documents
- Explication des tâches - Discours
réalisées (émergence du - Présentations réalisées
« ressenti ») - Documents fournis
- Parties prenantes dans l’organisation

Analyse lexicale des domaines


d’activité

c) L’échantillonnage. La population étudiée était-elle représentative de la fonction


knowledge management et de ses interactions avec l’organisation ? En ce qui concerne les
entretiens, nous en avons réalisé 26 qui ont généré 39 heures de conversations.
Conformément à la Figure 27 (page 203), nous avons caractérisé chacun des interviewés en
fonction de leur niveau hiérarchique et de leur fonction dans la politique KM. La Figure 32
montre que la répartition est relativement bien équilibrée au niveau de ces deux éléments.

Figure 32. Analyse de la répartition des verbatim.


Niveau hiérarchique Fonction dans la politique KM

Comité Exécutif
Sponsor Exécutif
8%
Opérationnel 10%
22%

Siège
24% Utilisateur
41%

Knowledge Manager
49%
Branche
46%

219
4.3.3.2 La validité externe

Dans un paradigme post-positiviste, la validité externe se mesure en fonction du


degré de généralisation des résultats. Etant donné que nous avons étudié plusieurs cas dans
un même contexte, il nous apparaît nécessaire d’enraciner nos résultats dans ce contexte et
de bien les relier à la littérature existante (Eisenhardt, 1989) afin de faciliter leur utilisation
éventuelle pour d’autres contextes (Passeron, 1991).
Dès lors, comment dépasser le caractère idiosyncratique de nos résultats? Huberman
et Miles (1991) et Yin (2003) conseillent au chercheur d’expliciter les critères de sélection des
cas d’étude (c’est ce que nous avons fait précédemment). Huberman et Miles (1991) incitent
également le chercheur de réaliser des métamatrices synthétisant les résultats des études
empiriques. Ces outils permettent de passer d’une causalité locale à une causalité inter-sites
par une modélisation des liens causaux (Huberman et Miles, 1991 : 338). En fin de compte, la
validité externe est assurée si le chercheur synthétise son analyse de cas dans un schéma ou
un tableau : « il faut standardiser les données inter-sites au moyen de codes, de schémas
d'ensemble et d’un format récapitulatif commun à tous les cas, et, à l'intérieur d'un cas
donné, au moyen de modes identiques de présentation de segments de données codées de
façon identique (Huberman et Miles, 1991 : 273-274).
Nous concernant, nous avons opté pour deux mécanismes :
- premièrement, nous avons schématisé, à la fin de chacun des cas, le système d’activité
du gestionnaire. Cette schématisation des actions du knowledge manager a facilité la
comparaison inter-cas et fait émerger les perturbations les plus récurrentes ;
- deuxièmement, nous avons regroupé l’ensemble de nos analyses des quatre cas dans
un tableau récapitulatif. Ce tableau a facilité l’analyse transversale et mis au jour les actions
les plus récurrentes des gestionnaires.

Les résultats d’une recherche qualitative font souvent l’objet d’une remise en question par
les tenants d’une approche quantitative. Pour s’assurer de la validité de notre démarche,
nous avons testé la fiabilité de notre codage (estimé à 85%), nous nous sommes penché sur
la distribution de notre échantillonnage et nous avons étudié notre mode de construction
du dictionnaire des thèmes. La validité parfaite d’une recherche n’existe pas. Nous nous
sommes donc appuyé sur les conseils d’auteurs tels que Huberman et Miles (1991) pour
rendre nos résultats généralisables par un travail de synthétisation et de schématisation.

220
Conclusion du Chapitre 4.

Dans ce quatrième chapitre, nous avons présenté notre mode de recueil et d’analyse
des données qualitatives. Notre objectif est de décrire et d’analyser les pratiques des
gestionnaires des connaissances en entreprise. Le cadre théorique retenu pour étudier ces
praticiens nous incite à opter pour une méthode de cas enchâssés. En s’appuyant sur une
ontologie de réalisme critique inscrite dans une épistémologie de positivisme « aménagé »,
nous proposons d’analyser au plus près du terrain ces praticiens à travers un design de
recherche permettant leur observation, l’analyse de leurs artefacts et l’examen de leur
discours.

L’objectif est d’aboutir à une triangulation des données : chaque observation donne
lieu à des conjectures que le chercheur vise à discuter au contact des praticiens et à les
confronter aux artefacts produits par ces derniers. Afin de renforcer les inférences faites par
le chercheur, nous menons en dernier lieu une analyse lexicale sur les entretiens réalisés avec
les gestionnaires. Celle-ci nous sert de garde-fou dans une démarche qualitative qui laisse au
chercheur une grande liberté dans sa collecte des données.

Nous allons maintenant exposer les résultats de nos études de cas.

221
Chapitre 5.
Analyse des cas enchâssés

« La gestion des connaissances n’est pas une théorie, c’est une pratique. »

Joanna Stuart, Corporate Knowledge Manager de Lafarge.

5.1 Analyse thématique des cas 5.2 Analyse transversale des cas

5.1.1 Le système d’activité de la 5.2.1 Les tensions


Corporate Knowledge Manager sujets/objets/artefacts

5.1.2 Le système d’activité de la Best 5.2.2 Les tensions objets/division du


Practice Manager travail/communauté

5.1.3 Le système d’activité du 5.2.3 Les tensions


Knowledge Manager sujet/communauté/règles

5.1.4 Le système d’activité de la 5.2.4 La tension objet/résultat


Knowledge Manager

5.3 Les domaines d’activité des gestionnaires des connaissances

5.3.1 La gestion du portefeuille des connaissances

5.3.2 La gestion de l’infrastructure

5.3.3 La gestion de la structure

5.3.4 La gestion du changement

222
Introduction du Chapitre 5.

L’objet de ce cinquième chapitre est de restituer notre analyse des systèmes d’activité
de quatre gestionnaires des connaissances travaillant dans une même entreprise (Lafarge).
Ces quatre personnes représentent nos cas d’étude.

La première section (5.1) répond à une logique de contextualisation des cas. La


présentation de l’environnement dans lequel évolue chaque gestionnaire permet de
considérer les spécificités des pratiques tout en facilitant la démarche transversale d’analyse
des cas. Les systèmes d’activité de chaque gestionnaire sont ensuite décrits avec précision
conformément au modèle présenté dans le troisième chapitre.

La deuxième section (5.2) présente l’analyse transversale des données. L’objectif est
alors d’identifier des similitudes et des différences dans les systèmes d’activité des
gestionnaires mais également de comprendre les interactions entre ces systèmes et les
conflits susceptibles d’intervenir dans l’exercice de cette fonction. Quatre tensions y seront
étudiées.

La troisième section (5.3) offre une synthèse de nos analyses thématiques et


transversales. Elle permet de faire émerger les domaines d’activité les plus récurrents des
gestionnaires des connaissances et de comprendre les pratiques réelles lors de la mise en
place d’une démarche de gestion des connaissances.

Ce chapitre se termine par un tableau synthétique reprenant les questions des


recherches et les réponses que nous apportons. Ce résumé nous permet de conclure, dans le
chapitre suivant, par une analyse des implications de notre recherche.

223
5.1 Analyse thématique des cas

Dans cette première section, quatre cas enchâssés dans une même entreprise sont
étudiés selon une analyse thématique. Chaque cas est d’abord remis dans son contexte
organisationnel et historique puis nous décrivons, dans le détail, le système d’activité du
gestionnaire des connaissances.

Le premier système d’activité est celui de la « Corporate Knowledge Manager » de


Lafarge à Paris (5.1.1). Le deuxième système d’activité est celui d’une « Best Practice
Manager » dans la branche Plâtre à Avignon (1.1.2). Le troisième système d’activité est celui
du « Knowledge Manager » de la Direction Marketing et Ventes de la branche Toiture (1.1.3).
Enfin, le dernier système d’activité est celui de la « Knowledge Manager » au sein de la
Direction de la Performance de la branche Béton à Paris (1.1.4).

Nous allons commencer par étudier l’activité de la Corporate Knowledge Manager de


Lafarge (le cas CKO).

5.1.1 Le système d’activité de la Corporate Knowledge Manager


(cas CKO)

Devant la complexification croissante de la structure organisationnelle de Lafarge et


l’absorption permanente de nouvelles compétences suite à des rachats d’entreprises
étrangères, la Direction Générale de Lafarge décide à la fin de l’année 2001 de nommer un
responsable knowledge management au sein de la Direction des Systèmes d’Information.
Nous démarrons notre analyse par la présentation du contexte de la nomination de la
Corporate Knowledge Manager (5.1.1.1). Dans un second temps, nous décrivons dans le
détail son système d’activité (5.1.1.2).

5.1.1.1 Le contexte de la nomination de la Corporate Knowledge Manager.

La création de la fonction « Corporate Knowledge Manager » intervient dans un


contexte de post-fusion. Au début de l’année 2001, Lafarge réussit à racheter un de ses
principaux concurrents, le cimentier anglais Blue Circle. En absorbant une entreprise d’une
taille très importante (environ 20 000 employés soit un peu moins de la moitié du groupe

224
Lafarge), Lafarge espère créer des synergies entre les différentes usines des deux entreprises.
Comme l’indique Michel Langlais, PDG de l’entreprise française, le knowledge management
est alors considéré comme un outil permettant d’accélérer le processus d’échange
d’expériences entre les deux entités mais la mise en place de cet outil a soulevé la question
du pilotage du knowledge management par un spécialiste de la question :

Cette fusion [entre Lafarge et Blue Circle] a posé des questions en ce qui concerne l’organisation
des systèmes informatiques…et donc sur l’accessibilité -ou non- de l’information. Cela nous a
fait passer d’une culture basée sur le « qui doit savoir » (‘need to know basis’) à une culture où
l’information devait être largement disponible. A la suite de la fusion, il y a eu une formalisation
de ce que l’on voulait faire dans les différentes unités en matière de knowledge management.
L’idée était de transférer, dans les deux ou trois ans, le savoir-faire de Lafarge chez Blue Circle -
voire dans l’autre sens dans quelques cas. Il fallait trouver quelqu’un capable de gérer tout ça.
(source : Langlais)

Cette création de poste est appuyée par une étude de conseil réalisée par le Boston
Consulting Group à propos de la fusion des Systèmes d’Information entre Lafarge et Blue
Circle. Pour identifier les difficultés de cette fusion et les leviers susceptibles de la faciliter,
les consultants du cabinet de conseil en stratégie interrogent une dizaine de personnes au
sein du groupe. Une de leurs recommandations est la création d’un nouveau poste : un
« Corporate Knowledge Manager ». Cette création de poste doit permettre de résoudre les
difficultés rencontrées par les employés à partager de l’information et à faire évoluer la
culture de l’entreprise, auparavant basée sur une faible accessibilité des savoirs :

Il faut reconnaître que, pendant longtemps, Lafarge n’a pas été bon dans tout ce qui concerne
le traitement de l’information. On a commencé à être bien meilleur avec l’arrivée de Stéphane
Audibert [Directeur des Systèmes d’Information de Lafarge] il y a dix ans. On peut dire que la
rupture - c’est dire le moment où on a considéré les systèmes d’information comme quelque
chose de stratégique et non comme de l’intendance - date à peu près de l’arrivée de Audibert.
(source : Langlais)

La création du poste intervient également dans un contexte de réorganisation des


services supports situés au Siège parisien. Un nouveau service appelé « Corporate IT Team »
(ou Direction des Systèmes d’Information) voit ainsi le jour en octobre 2001 sous l’impulsion
de Stéphane Audibert. Une note interne publiée en anglais sur l’Intranet de l’entreprise fait
état de la réorganisation complète de ce service auparavant situé à Lyon :

The importance of information systems in our Group’s performance grows clearer all the time. We are
determined to press ahead with, or rather to step up, our programmes to rationalise our management,
information and reporting systems, standardise our methods and tools and to improve everyone’s access
to information. To carry out this ambitious project, we have decided to boost and reorganise both the
tasks and the resources of the Corporate IT team to help it to fulfil its dual role of co-ordinating and
supporting the work of the Divisions and Business Units. (source: Nomination_CKO)

225
On comprend d’après cet extrait que ce service a un double rôle à jouer : il doit à la fois
coordonner de manière transversale les actions des divisions en matière de déploiement
d’outils de système d’information et s’assurer que toutes les unités organisationnelles
(comme les services fonctionnels ou les usines) ont un accès de qualité à ces outils. La
mission de la « Corporate IT Team » se partage donc entre des actions de mise en place, de
contrôle et de support. L’équipe a été créée en très peu de temps par Stéphane Audibert. Un
de ses impératifs est de changer la composition de son équipe pour intégrer quelques
membres du service informatique de Blue Circle :

A la rentrée 2001, on m’a chargé de mettre sur pied une équipe internationale capable de
répondre aux besoins de croissance du groupe. En plus de ça, j’ai dû prendre en compte les
« nouveaux », c’est-à-dire ceux de Blue Circle (source : DSI_Audibert)

Cette volonté se traduit par deux décisions ; premièrement : la nomination de Dirk


Blyth, ancien directeur du projet ICE (Information & Communication Exchange) de Blue Circle,
en tant que responsable réseau ; deuxièmement : le choix entre l’outil de partage
d’information utilisé par Blue Circle (Livelink) et celui utilisé par Lafarge (Lotus Notes).
Cette dernière question doit être tranchée par la fonction que le DSI souhaite créer : le
« Corporate Knowledge Manager ». La Figure 33 représente l’organigramme de la DSI de
Lafarge.

Figure 33. Organigramme de la Direction des Systèmes d'Information de Lafarge (début 2002)

Vice Président
Exécutif Comité de Pilotage

Directeur des Systèmes Assistante


d’Information
Stéphane Audibert

Responsable Responsable Corporate Knowledge


réseau ERP Manager
Joanna Stuart

Responsable e- Responsable du
business service support Responsable
Lotus Notes
Bertrand
Sénéchal

226
Suite à une offre d’emploi parue dans la presse généraliste, Joanna Stuart est
embauchée officiellement en tant que Corporate Knowledge Manager au début de l’année
2002 dans le service de Stéphane Audibert. Elle est positionnée au même niveau hiérarchique
que le responsable réseau, le responsable e-business, le responsable ERP et le responsable
support (voir la Figure 33). La Corporate Knowledge Manager doit encadrer le responsable
Lotus Notes, Bertrand Sénéchal, un ancien responsable informatique de la branche ciment et
qui est en fin de carrière. Conformément à l’organigramme du service, Joanna Stuart rend
compte de son activité à un comité de pilotage qui comprend non seulement le DSI mais
également des directeurs généraux. Des knowledge managers locaux sont également censés
intégrer ce comité. La Corporate Knowledge Manager a donc le sentiment d’occuper une
fonction stratégique :

La fonction Corporate Knowledge Manager est soutenue par un comité de pilotage transverse
composé de hauts dirigeants ainsi que par la conviction, au plus haut niveau du Lafarge, que
la connaissance doit être plus largement partagée entre les usines et entre les branches. Ma
fonction est sponsorisée par le Directeur Financier et le Directeur Général du Groupe. Mon
budget est validé par ces personnes et contrôlé par le comité de pilotage. (source : Stuart)

Ce comité de pilotage doit à la fois contrôler l’action du « Corporate Knowledge


Manager » grâce à des rencontres annuelles mais également réfléchir sur les orientations à
donner à la politique KM de Lafarge à tous les niveaux de l’entreprise.

C’est dans une période « post-fusion » et au sein d’une toute nouvelle équipe que le poste
de « Corporate Knowledge Manager » est créé et que les prérogatives du gestionnaire des
connaissances lui sont assignées en mars 2002. Ce poste apparaît comme stratégique (au
vu de la composition du comité de pilotage) et son mandat est soutenu par la Direction
Générale de l’entreprise.

Nous allons maintenant décrire les différents éléments qui composent le système
d’activité du « Corporate Knowledge Manager ».

5.1.1.2 La description de son système d’activité

Conformément à notre modèle présenté dans le troisième chapitre, nous allons étudier
son système d’activité à travers six éléments : son profil et sa mission (a), son activité
quotidienne (son objet) (b), ses collaborateurs (c), ses artefacts (d), la division du travail à

227
l’œuvre dans son équipe (e) et les règles mises en place (f). Chaque élément étudié donne lieu
à un tableau récapitulatif.

a) Le profil du gestionnaire et sa mission. La « Corporate Knowledge Manager » nommée


en mars 2002 s’appelle Joanna Stuart. Titulaire d’un MBA, Joanna Stuart est un cadre
expérimenté d’origine canadienne qui a mené toute sa carrière dans le milieu du knowledge
management. Elle maîtrise aussi bien la langue anglaise que la langue française.

Je suis diplômée en Relations Internationales (Université de Toronto). Après avoir réalisé un


MBA en 2000 à Rotman School of Management, j’ai migré en Europe pour travaillé dans une
entreprise franco-allemande de conseil en Knowledge Management puis j’ai rejoint Lafarge en
tant que Corporate Knowledge Manager en mars 2002, poste que j’occupe actuellement.
(source : Stuart)

La Corporate Knowledge Manager possède une expérience de plus de sept ans dans
la mise en place d’outils e-learning et de bases de données complexes. En revanche, elle ne
possède pas du tout la connaissance du milieu industriel dans lequel évolue Lafarge.

J’ai commencé ma carrière dans la plus grande banque du Canada : la Banque Royale du
Canada. Au sein de cette entreprise, j’ai travaillé sur de nombreux projets impliquant des
dimensions à la fois humaines et technologiques : l’e-learning, l’e-recrutement et le
Knowledge Management. Au cours des 10 dernières années, ma carrière de manager s’est
axée sur la question de la performance humaine dans l’organisation et sur l’intégration des
outils technologiques pour l’aider à améliorer cette performance. (source : Stuart)

Joanna Stuart se considère à la fois comme une spécialiste des outils de codification
des connaissances et des outils de formation les plus utilisés comme les cours en ligne (e-
learning). Les prérogatives de Joanna Stuart, qui ont été définies en mars 2002, par le comité
de pilotage sont en accord avec ce profil :

J’ai trois missions. Premièrement, je dois améliorer l’usage des outils de codification des
connaissances tels que l’intranet, l’annuaire électronique et les bases de bonnes pratiques
industrielles et commerciales réalisées par les branches. Deuxièmement, je dois mettre en
place une équipe dédiée à la gestion des connaissances au niveau du groupe Lafarge.
Troisièmement, je dois diffuser un guide de bonnes pratiques en matière de knowledge
management au sein des branches et des unités organisationnelles : le‘KM Handbook’. Mais
ces trois missions s’inscrivent dans la mise en place d’un programme de KM au niveau du
groupe. (source : Stuart)

En conséquence, le rôle assigné à Joanna Stuart est de définir, mettre en place et


mesurer une politique de gestion des connaissances qui est encore considérée comme
balbutiante au niveau du groupe, comme le précise le Directeur Général de Lafarge, sponsor
de la fonction Corporate Knowledge Manager :

228
Avant la nomination de Joanna il existait déjà un certain nombre d’initiatives dans un groupe
comme Lafarge. On ne l’a pas attendue pour faire du KM ! Mais ces initiatives étaient
localisées dans la branche Ciment, qui est l’activité historique de Lafarge. Avant, dans le
groupe, pour partager la connaissance -là je parle du moment même où je n’étais pas là [au
début des années 90]-, il fallait être, ingénieur…français…voilà, c’était un peu ça! Aujourd’hui,
ce n’est plus ça. Il y a des gens qui sont dans le béton, dans les granulats, il y a beaucoup de
choses intéressantes dans les carrières de ciment et dans les carrières de gypse, il y a
également la recherche et développement. Il faut donc aujourd’hui un fil conducteur. (source :
Herbelin)

Le Tableau 36 résume le profil, les compétences et la mission de la Corporate


Knowledge Manager.

Tableau 36. La Corporate Knowledge Manager


Profil Joanna Stuart est un cadre d’entreprise confirmé qui possède 10 années
d’expérience en dehors de l’entreprise.
Compétences Elle possède des compétences en matière de déploiement d’outils e-learning
et d’outils collaboratifs.
Mission Définir, mettre en place et mesurer la politique de gestion des savoirs de
Lafarge. En complément, trois prérogatives ont été définies :
1) Améliorer l’usage des outils de codification des connaissances.
2) Mettre en place une équipe dédiée à la gestion des connaissances.
3) Diffuser un guide de bonnes pratiques en matière de knowledge
management.

b) L’activité quotidienne. En pratique, les tâches de la Corporate Knowledge Manager


peuvent se diviser en deux grands types : des activités de prise de décision, des activités de
contrôle et d’encadrement et des activités de conseil en interne.
- Les décisions. Joanna Stuart prend des décisions sur trois sujets clés pour le
knowledge management : le choix des contenus offerts sur les bases de connaissances, le
choix des outils de codification et le choix de ses relais locaux (les knowledge managers des
branches).
Dès le début de son mandat, la Corporate Knowledge Manager prend connaissance
d’un audit technique sur les Systèmes d’Information réalisé dans le cadre de la consultation
du Boston Consulting Group. L’étude fait état de l’existence de plus de 2000 bases de
données Lotus Notes, dont une trentaine de bases de connaissances (c’est-à-dire de bases de
données contenant des bonnes pratiques), au sein du réseau informatique de Lafarge.
L’Intranet, intitulé LEO (Lafarge Employee Online), est jugé obsolète par l’ensemble des
employés du groupe. A titre d’exemple, ce dernier ne possède pas de moteur de recherche et
ne permet pas de trouver telle ou telle base de bonnes pratiques :

229
A mon arrivée, la situation n’était vraiment pas bonne. J’ai pu le constater très vite en
rencontrant des personnes du Siège. Il fallait donc commencer par utiliser cet audit et choisir
les bases les plus utiles. (source : Stuart)

Un des rôles auquel Joanna ne s’attend pas est celle de « femme de ménage » (selon les
mots du DSI) obligée de restructurer LEO tant sur le fond que sur la forme :

On a pris Joanna pour ‘faire le ménage’ dans LEO. On a tellement de bases de données
référencées qu’on est incapables de dire qui a accès à quoi. Il faut donc également mettre en
place des indicateurs de suivi de ces bases. (source : DSI_Audibert)

Cette rationalisation des savoirs démarre par un référencement des bases les plus
utilisées par les employés. Joanna décide lesquelles seront directement accessibles sur LEO.
Cet audit sur le contenu s’accompagne d’un audit technique qui doit permettre de trancher
la question des standards utilisés en matière d’outil de codification des savoirs. En mars
2002, le Corporate Knowledge Manager hérite de 2 000 licences du logiciel Livelink, logiciel
utilisé par Blue Circle :

Lors de ma prise de fonction, j’ai du comparer les avantages et les inconvénients des deux
outils. Mais il était clair que Lafarge n’allait pas abandonner son outil de travail historique
(Lotus Notes). J’ai donc essayé de créer des passerelles entre les deux outils mais cela n’a pas
bien marché. L’outil Livelink a été peu à peu abandonné et toutes les données ont été
transposées sur Lotus. C’est Blue Circle qui a perdu son outil de travail. (source : Stuart)

- Le choix des outils de codification prend un temps considérable à Joanna : durant les
six premiers mois de sa prise de fonction elle estime avoir organisé plus d’une dizaine de
réunions par semaine avec des prestataires techniques tels qu’IBM ou des consultants
comme Unilog. Si l’infrastructure technique ne convient pas à la réplication ou à la
consultation des bases de données, le Corporate Knowledge Manager va émettre des
recommandations d’achat de logiciels au comité de pilotage, en appui avec le DSI (Stéphane
Audibert). Sa connaissance du marché des outils s’est avérée primordiale dans cette prise de
décision.

Pour choisir les outils, j’ai eu l’avantage d’avoir été des « deux côtés de la barrière » : celle du
fournisseur et celle du client. Je pense que c’est surtout pour cela que l’on m’a engagée chez
Lafarge. (source : Stuart)

- Pour animer la politique KM localement et l’aider à adapter les outils de codification


aux spécificités de chaque branche, Joanna était censée identifier des personnes susceptibles
d’intégrer le réseau des knowledge managers. En pratique, deux problèmes apparaissent
alors. Le premier est qu’ils ne sont pas nommés par elle mais par le comité de pilotage, voire

230
par les directeurs de branche. Joanna n’a jamais eu son mot à dire sur ces nominations. Le
deuxième problème est que ces gestionnaires n’exercent pas tous leur fonction à plein temps.
Ils considèrent donc le knowledge management comme quelque chose de superflus, excepté
la knowledge manager de la branche Béton (dont l’activité est étudiée dans la quatrième
section).
- Le contrôle. En décentralisant une partie de ses prérogatives à d’autres knowledge
managers le comité de pilotage va inciter Joanna à aider les unités à mettre en place la
démarche Knowledge Management au sein du Siège à Paris. Elle joue donc le double rôle de
contrôler les knowledge managers des branches et d’être le knowledge manager du Siège
parisien…même si en principe c’est le comité de pilotage qui contrôle l’activité de ces
knowledge managers à mi-temps. A ce titre, elle contrôle quotidiennement le travail
d’Bertrand Sénéchal, le responsable Lotus Notes, qui est sous sa responsabilité. C’est lui qui
va réaliser l’audit technique et assurer la liaison avec les knowledge managers récemment
nommés. L’Encadré ci-dessous est une illustration de son mode de contrôle.

Encadré 13. La réunion du lundi organisée par Joanna Stuart


(source: extraits des notes d'observation)
Tous les lundi, Joanna organise une réunion à 10h du matin avec les consultants, Hervé et moi. Elle
fait le point sur les sujets en cours et laisse la parole à chaque participant. En tout nous sommes cinq
mais ce nombre varie en fonction des consultants embauchés pour des projets précis. Une fois le point
réalisé (au bout d’une trentaine de minutes) elle détermine qui doit faire quoi. Puis, elle va faire un
point avec Stéphane Audibert et conclure la matinée par un mail rappelant les projets, les deadlines et
les acteurs impliqués. Un document sous Project lui permet de suivre les différents projets en cours.

Au quotidien la répartition des tâches dans son équipe est assurée par un
fonctionnement en mode projet. Ils concernent à la fois des initiatives à dimension technique
(projets 1 à 7) que sociaux (projets 8 à 10) (Encadré 14). Elle assigne un projet à un consultant,
au responsable Lotus Notes voire aux knowledge managers locaux

Encadré 14. Les projets de KM définis par la Corporate Knowledge Manager.


1) la barre de navigation commune à toutes les applications (consultant)
2) la relance de l’annuaire d’entreprise (consultant)
3) la mise en place d’un moteur de recherche inter bases de données (knowledge managers)
4) la mise en place d’outils collaboratifs communautaires (consultant
5) la mise en place d’un outil de partage d’information synchrone (messenger) (consultant)
6) la mise en place d’un outil d’aide à la traduction accessible sur Lotus Notes (consultants)
7) la promotion de l’utilisation des outils collaboratifs au sein des unités et des services
8) l’animation des réseaux d’experts sur le terrain (knowledge managers)
9) l’intégration de la formation sur les outils de KM dans les séminaires Lafarge (responsable
Lotus Notes)
10) la création d’un prix des meilleurs transferts de bonnes pratiques entre les unités

231
Le contrôle des knowledge managers passe par la définition de métriques de
performance à utiliser dans les branches. Ces métriques varient d’une branche à une autre
même si chacun des knowledge managers essayent de rédiger des cas de transfert
d’expériences :

La première année quand j'ai travaillé chez Lafarge, Bernard Kasriel [Directeur Général et
membre du comité de pilotage] m'a demandé d'étudier un cas de transfert de bonnes
pratiques. Dans la branche ciment, le knowledge manager a étudié comment une usine en
Turquie a ré-utilisé un procesus de combustion développée en Malaisie basé sur le coke de
pétrole. L'usine en Turquie souhaitait l’utiliser pour abaisser ses coûts de production. Il se
trouve qu'au même moment, l'usine en Malaisie développe ce type de procédé. L’usine
malaise avait ainsi pu économiser trois millions d’euros. Le transfert a coûté quelques
centaines de millier d’euros mais il a permis à la Turquie d’économiser cinq millions d’euros
sur cinq ans. Ce sont de vrais et bons exemples pour montrer la valeur du partage des
connaissances entre deux entités du groupe. (source : Stuart3)

Les métriques doivent alors permettre de déterminer le rapport coûts/avantages


retirés par la branche à « faire » du Knowledge Management. Ceci est d’autant plus
important pour une entreprise décentralisée comme Lafarge :

Les usines ont un contrat de franchise avec le siège parisien. Dans ce contrat de franchise ils
payent pour avoir accès à la connaissance du groupe. Par exemple, la business unit japonaise
ciment s'est interrogée sur le niveau d'accès et les coûts qui sont liés. On doit pouvoir leur
apporter une réponse à ce sujet. (source : Stuart)

- Le conseil. Pour aider les knowledge managers locaux et définir un « fil


conducteur », Joanna rédige, conformément à sa mission, un guide de bonnes pratiques en
matière de knowledge management appelé le « KM Handbook » (voir Annexe 2-A). Ce
document est, en fait, une version revue et corrigée par Joanna Stuart d’une première version
rédigée par les consultants du Boston Consulting Group. La « Corporate Knowledge
Manager » a du retravailler son contenu et le présenter au comité de pilotage pour ensuite le
diffuser aux unités et aux knowledge managers locaux.
En conclusion, Joanna Stuart apparaît donc comme la garante de la politique KM de
l’entreprise. Elle doit définir les standards techniques et uniformiser les pratiques. Son
activité est principalement centrée sur la prise de décision, conformément à son
positionnement hiérarchique (Tableau 37).

Tableau 37. L’activité quotidienne de la Corporate Knowledge Manager


Décision Définir les standards techniques, les modes de mise en place et d’utilisation
des bases de connaissances ainsi que des règles de fonctionnement de
l’équipe KM.
Contrôle Mettre en place l’infrastructure technique et faire fonctionner une équipe de
knowledge management au sein du groupe.
Conseil Aider les unités à mettre en place des projets de knowledge management en
leur fournissant le « KM Handbook ».

232
c) Ses collaborateurs. Joanna Stuart interagit avec quatre collaborateurs: la Direction des
Systèmes d’Information (« Corporate IT Team »), les directeurs des services fonctionnels du
Siège, des knowledge managers (dans et hors de Lafarge) et des consultants (IBM et Altran).
- En premier lieu, il est naturel que le « Corporate Knowledge Manager » interagisse
avec le Directeur des Services d’Information (DSI). Son budget est validé ou non par ce
dernier en accord avec le comité de pilotage. Comme nous l’avons vu, son mandat a été
défini par le comité de pilotage afin de régler les questions techniques liées à la fusion. Les
interactions entre le DSI et le « Corporate Knowledge Manager » sont quotidiennes puisque
le bureau de ce dernier jouxte celui du premier. Partisan du knowledge management, le DSI
va s’employer à maintes reprises à défendre la démarche de Joanna Stuart. Cette volonté est
exprimée par les propos du PDG, Michel Langlais :

Au moment de la fusion avec Blue Circle, la discussion a été vive entre les gens qui - dans la
maison- voulaient restreindre le partage de l’information aux experts et ceux qui, comme moi,
ont toujours pensé qu’il fallait élargir au maximum le partage d’information. Si l’ouvrier de
base qui veut avoir accès aux bonnes pratiques s’aperçoit qu’il n’a accès qu’à une quantité
limitée d’information, il ne le fera pas une deuxième fois. On ne peut pas vouloir quelque
chose et son contraire. (source : Langlais)

En revanche, la « Corporate Knowledge Manager » collabore très rarement avec les


autres membres de la DSI, hormis des interactions informelles et des déjeuners à la cantine
de l’entreprise. L’équipe Knowledge Management est composée, en interne, de deux
personnes : un responsable Lotus Notes (Bertrand Sénéchal) et un stagiaire. Elle peut aussi
mobiliser la secrétaire de Direction (Ghislaine Maréchal). Enfin, cette équipe est complétée
par l’embauche temporaire de consultants spécialisés dans les projets de Knowledge
Management.

- Ce rattachement à la DSI influence particulièrement les pratiques du « Corporate


Knowledge Manager ». L’image qu’ont les employés du Knowledge Management au Siège
est celle d’une « responsable de l’intranet » (le directeur de la Communication Interne) ou
d’une « spécialiste des outils » (la responsable des Affaires Sociales). Dans les interactions
avec les directeurs du Siège, bon nombre d’entre eux vont considérer le « Corporate
Knowledge Manager » comme une « DSI-bis », en charge de l’intranet et de l’annuaire
électronique. Sa difficulté principale est ici de faire évoluer l’image « technologique » du
knowledge management aux yeux des directeurs tout en répondant aux difficultés
techniques qu’ils peuvent rencontrer.

233
Ce qui est frustrant dans ma fonction est le fait que les personnes au sein du siège n’assimilent
le knowledge management qu’à Lotus Notes et à LEO [l’intranet]. Je leur réponds que c’est un
outil parmi d’autres et qu’ils peuvent également créer des réseaux d’experts…mais le message
est difficile à faire passer. (source : Stuart2)

Au niveau des services fonctionnels du siège (Ressources Humaines, Achats, Finance,


etc.), le soutien affiché par la Direction Générale à l’action du Corporate Knowledge Manager
permet de faciliter les échanges avec les directeurs de ces services. Ces directeurs vont alors
considérer Joanna Stuart comme « l’un des leurs » et apporter une oreille attentive à son
action :

Je ne dispose pas d’un gros budget. Néanmoins j’ai la chance d’avoir un soutien très fort de la
part de la Direction Générale, soutien que je peux mobiliser dans le cadre de campagnes de
sensibilisation au partage des savoirs à travers des articles dans les journaux internes. On est
ici dans le cas d'une démarche validée par la direction générale, qui non seulement ne remet
pas en question la pertinence du partage des connaissances, mais décide de l'encourager avec
une campagne de sensibilisation mondiale. Elle montre ainsi son engagement à développer
cette culture chez Lafarge en affectant des ressources et un budget à cette campagne. (source :
Stuart)

- Pour répondre aux besoins de ces directeurs fonctionnels ou des unités


organisationnelles à l’étranger, le comité de pilotage KM nomme des knowledge managers
dans chaque branche. Ces knowledge managers ont des profils très divers. Dans le cas de la
branche Ciment, il s’agit du responsable du Centre Technique à l’Isle d’Abeau (à côté de
Lyon). Dans la branche Plâtre, il s’agit du Directeur des Services Informatiques de la branche.
Dans la branche Béton et Granulats a été nommé un responsable marketing. Enfin dans la
branche Toiture une ancienne responsable informatique occupe également cette fonction
mais cette fois à plein temps. Ces knowledge managers seront ensuite remplacés par d’autres
au cours de l’année 2004. Ce sont donc leurs remplaçants que nous étudions dans les sections
suivantes.
Au-delà de ces knowledge managers locaux, la « Corporate Knowledge Manager » va
mobiliser des knowledge managers exerçant leur activité à l’extérieur de Lafarge. Environ
deux fois par an, Joanna Stuart va participer aux réunions organisées par la communauté des
knowledge managers francophones CoP-1. Comme nous l’avons vu dans le premier
chapitre, cette communauté est libre d'accès, et n'exige aucune cotisation de la part des
entreprises. Elle est ouverte à tous les responsables de programmes KM en entreprise à
l'exclusion des acteurs de l'offre que sont les consultants et éditeurs de logiciels. Les
motivations de la Corporate Knowledge Manager est double : CoP-1 lui permet de réaliser

234
des benchmarks avec des entreprises similaires et de partager ses doutes, ses inquiétudes et
ses questionnements avec des pairs :

J’aime bien participer à CoP-1 car ça me permet de comparer mes pratiques, de me situer et de
m’évaluer. C’est un moyen pour moi de faire de la veille technologique sur ce qui fait en KM
dans des entreprises grandes comme Lafarge. (Stuart2)

- En dernier lieu, la Corporate Knowledge Manager collabore avec des consultants


qu’elle va mobiliser au cours de différents projets (comme la relance de l’annuaire
électronique ou la mise en place d’une barre de navigation sur LEO). Comme nous l’avons
vu dans le premier chapitre, il existe de très nombreux prestataires de services dans tout ce
qui se rattache de près ou de loin à du knowledge management. Sa connaissance de ce
marché est une source importante de légitimité pour Joanna Stuart :

Heureusement que Joanna est là pour gérer les relations avec les consultants. Il y en a
tellement que chaque branche a son propre consultant, ce qui multiplie les coûts. De mon côté,
je ne m’en sors plus avec tous ces consultants qui gravitent dans le monde du KM ! (source :
Cohen)

La communauté de la Corporate Knowledge Manager est donc très diverse : elle


comprend à la fois des responsables d’outils, de projets, des directeurs, des consultants et des
utilisateurs. Le Tableau 38 résume l’ensemble de ses collaborateurs.

Tableau 38. La communauté de la Corporate Knowledge Manager


Collaborateurs - Le service Système d’Information et plus précisément le DSI et l’équipe KM dont
internes elle dépend. Le DSI est son supérieur hiérarchique.
- Les directeurs des services fonctionnels du siège sont ses « clients » internes : elle
doit répondre à leurs besoins et leur offrir des solutions leur permettant de codifier et
partager leur savoir.
- Les knowledge managers locaux sont des relais nommés par le comité de pilotage
censés collaborer avec le Corporate Knowledge Manager.
Collaborateurs - La communauté CoP-1 permet à Joanna Stuart d’avoir des échanges avec des pairs
externes sur des pratiques de knowledge management et des feedbacks sur les consultants
spécialisés dans le domaine.
- Les consultants spécialisés en conduite de projet ou en logiciels de knowledge
management.

d) Ses artefacts. La Corporate Knowledge Manager va utiliser différents artefacts dans le


cadre de son activité: des outils informatiques (un forum Knowledge Management, un
espace de travail en ligne et un messenger), des présentations PowerPoint et le « KM
Handbook ».
- Les outils informatiques. La première volonté de la Corporate Knowledge Manager
va être de fluidifier les échanges d’information entre les collaborateurs internes sur un forum

235
de discussion disponible sur LEO (le « Knowledge Management Forum ») et de coordonner ses
échanges avec les collaborateurs externes grâce à un outil collaboratif (« TeamSpace »). En
pratique, ces deux outils seront vite laissés à l’abandon puisque les membres du comité de
pilotage ne les utiliseront jamais, tout comme les autres knowledge managers.

J’étais très étonné par le manque d’intérêt affiché par les autres knowledge managers vis-à-vis
du forum et de l’espace de travail. Chacun reste dans sa branche, avec ses outils, ses
habitudes…C’est tout de même paradoxal de voir des knowledge managers ne pas utiliser des
outils qu’ils sont censés mettre en valeur ! (Stuart)

En revanche, les knowledge managers et les consultants travaillant avec le Corporate


Knowledge Manager adopteront très rapidement un outil mis en place en 2004 : un
« messenger » permettant d’échanger de l’information en temps réel. Cet outil permet de
réduire le nombre de coups de téléphone et d’identifier les personnes disponibles à la
discussion. Il est utilisé quotidiennement par les knowledge managers :

Ce Messenger est un outil très pratique pour coordonner l’action de l’équipe de Knowledge
Management qui est éclatée dans les branches et dans des pays différents (source : Valentin).

- Le second artefact utilisé par Joanna Stuart est la présentation Powerpoint. Un


temps très important, environ deux à trois heures par jour en moyenne, est consacré à la
rédaction des supports de présentation. Ces présentations contiennent le plus souvent une
centaine de transparents que le manager utilise à bon escient en fonction du public
concerné (voir l’Annexe 2.B. pour un exemple de présentation rédigée pour un comité de
pilotage). Ils ont un double objectif : présenter les principes du KM et les avancées réalisées
par Joanna et les autres knowledge managers en la matière et convaincre les employés de
s’engager dans la démarche :

Je fais énormément de présentations PowerPoint. J’en prépare entre huit et dix par semaine et
je dois passer un tiers de mon temps à présenter ce que je fais en matière de KM et comment je
peux aider telle ou telle équipe de Lafarge. Je suis en permanence en train de montrer ce que je
fais, en quoi je peux être utile et de démontrer ma valeur ajoutée. Mais c’est normal, ce concept
est flou pour les gens. Il faut donc passer du temps à les rencontrer, les écouter et à les
conseiller. (source : Stuart)

- Le troisième artefact est le « KM Handbook ». Conformément à une des prérogatives


définies par le comité de pilotage, Joanna Stuart doit définir les règles de fonctionnement du
knowledge management au sein de Lafarge. Ces règles sont réifiées dans un guide de bonnes
pratiques KM, « le KM Handbook » (voir Annexe 2.A.) :

236
Le KM Handbook décrit les différents éléments de la politique knowledge management de
Lafarge. C’est le « B.A.-BA » pour tous les knowledge managers. (source : Stuart3)

Ce guide est diffusé à l’ensemble des collaborateurs internes (et jamais aux
collaborateurs externes). Il définit non seulement la philosophie du knowledge management
chez Lafarge mais également les objectifs du knowledge management et les règles à suivre
quand une unité organisationnelle (une usine ou une équipe) souhaite « faire » du
knowledge management. Mais cette orientation a vite été oubliée par la Corporate
Knowledge Manager en raison du faible impact du document sur les pratiques des
knowledge managers des branches. Le KM Handbook est donc devenu un document
décrivant les standards techniques utilisés chez Lafarge ainsi que les règles à suivre. En fin
de compte, le KM Handbook permet au Corporate Knowledge Manager de préciser son
objet.
En conclusion, Joanna mobilise aussi bien des médias interactifs comme le messenger
ou l’espace collaboratif que des présentations PowerPoint synthétisant l’ensemble des projets
de KM. Le KM Handbook demeure le document le plus important aux yeux de la Corporate
Knowledge Manager puisqu’il synthétise l’ensemble de la politique KM du groupe Lafarge
(Tableau 39).

Tableau 39. Les artefacts médiateurs de la Corporate Knowledge Manager


Instruments de - Le KM Handbook
gestion
Instruments de - Les présentations PowerPoint
communication
Medias - Forum électronique
employés - Espace collaboratif
- Messenger

e) La division du travail. Comment se répartissent les tâches entre la Corporate


Knowledge Manager et les autres membres de son équipe ? Comme nous l’avons vu, Joanna
Stuart fonctionne essentiellement en mode projet. La Figure 34 est une représentation
schématique du fonctionnement de l’équipe Knowledge Management dont Joanna a la
charge.

237
Figure 34. Le partage des tâches au sein de l'équipe Knowledge Management.

Comité de pilotage KM

DSI

Rend compte à
Equipe KM
Corporate Knowledge Manager

Gère
Définit Consultants
Mesure 10 Projets
Responsable Lotus Notes

Gère ou participe à

Knowledge Knowledge Knowledge Knowledge


Manager Manager Manager Manager
Plâtre Ciment Béton & Granulat Toiture

Le mode de fonctionnement est le suivant : Joanna va définir les projets relatifs à la


gestion des savoirs en accord avec le comité de pilotage. Son budget est donc voté par le
comité de pilotage (KM Steering Committee) et validé par le DSI. Les projets seront financés
par son service. Elle va ensuite assigner un projet à un consultant, au responsable Lotus
Notes voire aux knowledge managers locaux. L’avancement du projet est mesuré par le
Corporate Knowledge Manager.
Les consultants sont employés et embauchés par la Corporate Knowledge Manager.
Ils rendent donc des comptes à ce dernier. Ils ont en charge quelques-uns des projets
présentés dans l’Encadré 14. Ils définissent les besoins, ils assurent la mise en place de l’outil
et contrôlent la qualité du déploiement. Les knowledge managers locaux, eux, ne dépendent
pas hiérarchiquement de la Corporate Knowledge Manager, d’autant plus qu’ils ont été
nommés par le comité de pilotage KM et non par elle. Ils ont toute la latitude pour
participer ou ne pas participer aux projets définis par le Corporate Knowledge Manager. Ils
adaptent la politique définie dans le KM Handbook aux spécificités de leur division ou de
leur activité. En revanche, ils sont mobilisés par la Corporate Knowledge Manager pour
participer à des études sur les outils ou pour participer aux réunions du comité de pilotage.
L’Encadré 15 illustre ce dernier point.

238
Encadré 15. L'exemple du projet sur le moteur de recherche
(source : extraits des notes d'observation).
En juin 2003, une étude de marché sur les moteurs de recherche est lancée par le Corporate
Knowledge Manager. Elle définit une première liste de cinq moteurs de recherche. Au lieu des les
faire évaluer par des consultants externes, elle demande à chaque gestionnaire des connaissances de
réaliser une étude d’un outil dans leur propre branche. Le Corporate Knowledge Manager fournit
ainsi une liste de critères à évaluer par les knowledge managers. Des réunions téléphoniques
mensuelles sont organisées pour rendre compte des recherches effectuées sur l’outil (coût, durée de
mise en place, spécifications techniques, etc.).

On peut en conclure que la division du travail au sein du service knowledge


management évolue au gré des projets lancés par le Corporate Knowledge Manager, division
que l’on peut résumer comme suit : la Corporate Knowledge Manager définit ou valide les
projets et elle leur alloue un budget et des ressources. Elle contrôle le succès du projet. Les
knowledge managers locaux peuvent participer à ce projet, ce qui leur permet de ne pas le
financer eux-mêmes. A ce titre, la division du travail présentée dans la page précédente doit
disparaître dans les années à venir puisque le poste du Corporate Knowledge Manager est
censé être supprimé à la fin de l’année 2005 :

Aujourd’hui [en 2005], le partage des connaissances devient entièrement la responsabilité des
Branches et des Business Units d’une organisation qui compte 75 000 employés. Afin de
responsabiliser celles-ci ainsi que les différents réseaux sociaux qui stimulent le partage des
connaissances, mon poste sera supprimé à la fin de l’année 2005. Notre ambition est de rendre
le partage des connaissances comme un réflexe naturel au niveau de chaque employé et non
une fonction en tant que telle. Cela signifie que le Knowledge Management doit avoir des
retombées opérationnelles et une culture de partage qui se diffuse à travers tout le groupe
pour que cette démarche se pérennise dans les années à venir. (source : Stuart2)

f) Les règles de fonctionnement. Conformément à la mission assignée à la Corporate


Knowledge Manager, les règles de fonctionnement du service ont été définies dans le KM
Handbook. Ce document est un outil de gestion puisqu’il détermine les attributions des
knowledge managers locaux ainsi que des indicateurs de performance.
La question des indicateurs de performance est source de nombreuses mésententes
entre les knowledge managers. Des modifications ont ainsi été apportées par Joanna Stuart
sur le document original suite aux retours des autres knowledge managers. Ces indicateurs
sont à la fois quantitatifs et qualitatifs. Ils doivent être intégrés dans tout projet par les
knowledge managers. Le Tableau 40 résume les indicateurs recommandés par Joanna Stuart.

239
Tableau 40. Les indicateurs de mesure des outils de codification.
Mesure du niveau d’activité - Nombre de pages lues
- Nombre d’utilisateurs
- Nombre de connexions moyennes
Mesure de la mise à jour du contenu - Nombre de pages ou de documents
- Nombre de pages crées ou supprimées
Satisfaction des utilisateurs - Nombre d’utilisateurs/potentiels
- Enquête de satisfaction par questionnaire

Mais la Corporate Knowledge Manager a surtout constaté que ses relais locaux n’ont
jamais utilisé ces métriques :

Les knowledge managers sont censés développer des communautés de pratique, s’assurer que
la politique KM est connue des opérationnels dans les usines, appliquer les bonnes pratiques
du KM Handbook et mesurer l’activité de leur branche en matière de KM…Mais je me suis
vite rendu compte que cela n’était pas le cas. Comme ils sont à mi-temps, ils ont peu de temps
à consacrer aux projets que je gère et encore moins à mettre en place des indicateurs. (source :
Stuart)

L’exemple des indicateurs de mesure des bases de connaissances montre ainsi que les
règles de fonctionnements imposés par le Corporate Knowledge Manager rencontrent une
importante résistance de la part des knowledge managers. Ce manque de pouvoir se
retrouve dans les propos des autres membres de l’entreprise. La Corporate Knowledge
Manager y apparaît avant tout comme « une consultant interne » et non comme « une
décideuse » ayant un fort poids hiérarchique :

Je vois le Corporate Knowledge Manager comme un expert capable de m’aider à y voir clair
sur un outil ou sur une nouvelle technologie. Je considère qu’il en sait plus que moi sur tout ce
qui est outil et méthodo. Par contre, moi je connais les problèmes du terrain. (source : Plâtre)

Franchement, les projets de knowledge management ne sont pas forcément les projets
prioritaires de l'usine. Je suis désolé, mais moi, mon projet prioritaire, c'est de faire du bon
plâtre. (source : Plâtre)

En conclusion, l’étude du système d’activité de la fonction Corporate Knowledge


Manager fait apparaître des pratiques fortement centrées sur la mise en place d’une
infrastructure et d’une structure propices à la codification des connaissances. L’infrastructure
concerne les outils de codification des connaissances (l’intranet, le messenger, l’annuaire
électronique). Son profil est complémentaire à celui d’un Directeur des Services
Informatiques puisqu’il doit apporter une vision « utilisateur » des outils permettant de
codifier les savoirs de l’organisation. La structure comprend l’animation d’une équipe dédiée
au knowledge management et à l’allocation de ressources financières et humaines à des
projets se rattachant à la gestion des savoirs.

240
Ces deux éléments incitent le Corporate Knowledge Manager à définir des métriques
de performance sur les projets et les outils de KM. Ces métriques font partie d’une
méthodologie plus globale consignée dans un guide de bonnes pratiques (le KM Handbook)
permettant aux relais locaux (les gestionnaires des connaissances) de s’approprier la
démarche le plus rapidement possible. En conséquence, il existe un décalage entre ce qui
était défini lors de sa prise de fonction et les pratiques observées (Tableau 41).

Tableau 41. Le décalage entre mission assignée et activité du praticien.


Ce qui était attendu par l’entreprise Ce qui a été réalisé par le praticien
- Mettre en place une équipe dédiée à la gestion - La nomination des knowledge managers n’est
des connaissances. pas le fait de la Corporate Knowledge Manager
- Améliorer l’usage des outils de codification des mais du comité de pilotage. Elle ne choisit donc
connaissances tels que l’intranet, l’annuaire pas ses relais dans les branches et se contente de
électronique et les bases de bonnes pratiques leur fournir le KM Handbook.
industrielles et commerciales réalisées par les
branches. - Les outils de codification sont optimisés en
- Diffuser un guide de bonnes pratiques en fonction de projets validés par le comité de
matière de knowledge management au sein des pilotage en accord avec la DSI. La mesure de la
branches et des unités organisationnelles : le‘KM satisfaction des utilisateurs a été menée.
Handbook’.
- Le KM Handbook est réécrit pour inclure des
indicateurs de performance. Ce document fait
l’objet de négociations voire de réticences de la
part de sa communauté. Il devient un long
résumé des standards techniques.

Mais en étudiant avec précision les pratiques du Corporate Knowledge Manager,


nous avons fait apparaître deux éléments paradoxaux :
- l’objet sera vécu comme utile si la fonction est supprimée : fonctionnant en
mode projet, la Corporate Knowledge Manager estime que sa fonction est à
« durée limitée ». Responsable de la « méthodologie KM » et de la
rationalisation des outils de codification, son action est terminée dès lors que
la démarche est adoptée par les différentes branches.
- le sujet n’a pas de pouvoir sur la communauté avec laquelle il collabore : les
gestionnaires des connaissances des branches -nommés par le comité de
pilotage et non par le Corporate Knowledge Manager- ne la reconnaissent pas
comme leur supérieur hiérarchique. Cela se traduit par un relatif mépris vis-à-
vis du KM Handbook et par la mise en place d’outils de codification des
connaissances très différents d’une branche à une autre.

241
La Figure 35 représente visuellement le système d’activité de la Corporate Knowledge
Manager de Lafarge ainsi que les deux perturbations dans son système (représentées par les
éclairs).
Figure 35. Le système d'activité de la Corporate Knowledge Manager

KM Handbook,
Présentations Powerpoint

1. Animation d’une
équipe KM
2. Choix et optimisation
des outils de codification Résultats
3. Mesure de la
Joanna Stuart
Fonction performance - 10 Projets KM
temporaire - Métriques
Absence de - Amélioration de
pouvoir la satisfaction des
utilisateurs
Nomination
Objectifs de Knowledge d’une équipe
performance Managers + Consultants KM

En conclusion, la Corporate Knowledge Manager de Lafarge apparaît surtout comme une


consultante interne que les collaborateurs vont mobiliser pour « faire » du knowledge
management au sein de leur service ou de leur branche. Sa légitimité repose sur sa
capacité à leur fournir des outils collaboratifs simples et peu coûteux tels qu’un
messenger ou un espace projet. Cette légitimité s’est construite à leurs yeux grâce à la
réorganisation de l’intranet (LEO), à la mise en place d’un moteur de recherche et à
l’amélioration de l’annuaire électronique de l’entreprise, deux outils très utilisés par les
employés du Groupe. L’utilisation de ces outils a été pour la première fois mesurée par la
Corporate Knowledge Manager. L’évolution positive de la satisfaction des utilisateurs a
permis de renforcer l’image du Corporate Knowledge Management.
En revanche, son système d’activité présente deux « perturbations » majeures : au
niveau de la communauté et de son objet. Elle a rencontré des difficultés importantes pour
animer la communauté de knowledge managers tout en tentant d’imposer des pratiques
communes au sein de ce réseau. Ces difficultés s’expliquent par l’absence de relation
hiérarchique entre le Corporate Knowledge Manager et les autres gestionnaires des
connaissances du groupe Lafarge. Cette absence de pouvoir a été éclairée par le
gestionnaire lui-même : sa fonction est temporaire puisque son objet se limite, en fin de
compte, à une mise en ordre des outils de codification des savoirs.

242
5.1.2 Le système d’activité de la Best Practice Manager (Cas GOAL)

Le cas GOAL présente le système d’activité de la « Best Practice Manager » de la


branche Plâtre de Lafarge. La Best Practice Manager exerce son activité à la Direction
Industrielle à Avignon. Nous démarrons notre analyse par la présentation du contexte de la
nomination de la Best Practice Manager (5.1.2.1). Dans un second temps, nous décrivons
dans le détail son système d’activité (5.1.2.2).

5.1.2.1 Le contexte de la nomination de la Best Practice Manager.

En 2004, cette branche regroupe 7 700 personnes dans 32 pays. Son chiffre d’affaires
est de 1 340 millions d’euros ce qui la place en troisième position dans le monde. 85% de
l’activité provient de la réalisation de plaques de plâtre et des systèmes associés (comme les
fixations). Les 15% restants sont liés à la fabrication de carreaux de plâtre, de plâtres de
construction, de plâtres industriels, de chapes autonivelantes, de gypse naturel et de carton.
La production de ces produits est déterminée par la localisation des matières
premières notamment le gypse, un minéral contenant du sulfate hydraté de calcium. Le
gypse doit être traité par le fabricant de plâtre (la purification) car il concentre les impuretés
du minerai de base. Il pose également des problèmes de stockage et de préservation de
l'environnement. Les usines de fabrication doivent donc être implantées à proximité des
carrières de gypse. A partir de cette matière première, les usines peuvent également de
fabriquer des carreaux et des plaques de plâtre (Figure 36).

Figure 36. Processus de fabrication dans la branche Plâtre (Source: Documentation Interne)

Gypse Papier/Carton Accessoires


recyclé Produits divers

Papier

Carreaux Plâtre Plaques de


Plâtre

Doublage

243
Pour fabriquer une plaque, le plâtre est gâché avec des adjuvants et enfermé dans des
feuilles de carton, composant ainsi des éléments de faible épaisseur. Le processus de
fabrication du produit est décrit dans le schéma ci-dessous (Figure 37).

Figure 37. Le processus de fabrication des plaques de plâtre


(Source: Documentation Interne)

Le processus de fabrication des plaques de plâtre est complexe et dangereux. Dans le


souci d’assurer la sécurité des employés dans l’ensemble des usines, la Direction Industrielle
de la branche Plâtre a cherché à identifier et communiquer des bonnes pratiques en la
matière. Parallèlement, l’idée de la mise en place d’un processus de transfert de bonnes
pratiques industrielles entre les usines a fait son chemin auprès de la Direction Industrielle,
dont la principale priorité est d’améliorer la performance globale des 75 usines de la division.
Ce projet s’inscrit dans la démarche de knowledge management impulsé par l’arrivée de
Joanna Stuart début 2002.
Au début de cette même année, Michel Castel, directeur de la Performance
Industrielle, et son supérieur hiérarchique, Michel Edmont, directeur Industriel, sont les
sponsors d’un projet intitulé « Best Practices » (Bonnes Pratiques) dont ils ont confié la
réalisation à un ancien directeur de l’usine d’Ulsan en Corée du Sud (John Lee). Cette
personne a donc été nommée au siège de la division à Avignon en tant que Best Practice
Manager. John Lee demande alors à des étudiants d’un programme MBA, de faire un état
des lieux du processus existant et de déterminer des clés de réussite pour la mise en place

244
d’un processus de transfert de meilleures pratiques industrielles entre les usines de la
division Plâtre. La « Best Practice Manager » qui prendra, par la suite, la succession de JK
Park retrace l’historique de ce projet :

Après un travail de recherche effectué par un groupe d’étudiants de MBA, JK Park a présenté
le sujet à un séminaire des directeurs d’usine au mois de mai. Ayant largement puisé dans ce
travail, il a abordé les sujets tels que la nécessité de transférer les bonnes idées et une esquisse
de processus idéal de transfert de meilleures pratiques. Au préalable, il avait lancé une sorte
de concours des meilleures pratiques en demandant à toutes les usines ainsi qu’au personnel
de la direction industrielle du siège, de lui adresser une bonne pratique rédigée à l’aide d’un
document pré formaté. Cette initiative a rencontré un certain succès puisque plus de 120
documents ont été reçus ; en pratique seule une vingtaine ou une trentaine était vraiment
utilisable, mais cette initiative a eu le mérite de provoquer un engouement auprès des
directeurs d’usines. Ils attendaient désormais la suite avec impatience ! (source : Dubois)

Suite au succès rencontré par la démarche de John Lee, des recommandations sont
rédigées par les étudiants du programme MBA.

Au cours d’une seconde étape, un groupe de travail issu des comités de direction du groupe et
de chaque branche avait pour objectif d’assurer un échange d’expériences entre les branches
sur le management de la performance. Le résultat a été la rédaction d’un recueil de 14 bonnes
pratiques, illustrées par des exemples concrets. (source : Castel)

L’un des principaux problèmes identifiés par les étudiants en charge de l’étude est le
flou organisationnel qui règne au sein de la branche Plâtre pour tout ce qui concerne le
knowledge management. Lors de la nomination du Corporate Knowledge Manager au début
de l’année 2002, personne ne sait qui est le véritable knowledge manager au sein de la
branche puisque de nombreuses communautés co-existent :

La personne, au sein de la branche Plâtre, qui assure la fonction la plus proche du knowledge
management est Jean-Pierre Caspar, directeur du transfert technique au sein de la direction
industrielle. Il est d’ailleurs lui-même en contact régulier avec d’autres acteurs du knowledge
management industriel des autres divisions….mais il n’a pas de titre officiel de « knowledge
manager », alors que JK Park a une fonction officielle. Une anecdote illustre bien ce
flou organisationnel : au mois de juin, s’est tenu à Cannes un séminaire réunissant la
communauté « Knowledge Management » du groupe dont Jean-Pierre Caspar. Celui-ci a
oublié, volontairement ou non, de convier JK Park dont la nécessité de la présence à ce
séminaire paraissait pourtant clair ! (source : Dubois)

D’autres initiatives, parallèles à celle de JK Park, vont ainsi émerger sans réelle
coordination de la part du knowledge manager qui est, en 2002, le DSI de la branche
(Emmanuel Picard). Dans une logique de codification des savoirs, des bases de bonnes
pratiques vont être créées. Ces bases ont chacune un nombre d’utilisateurs limité et
s’adressent donc à une audience restreinte. Trois initiatives sont exemplaires :

245
- La base « Sécurité », de Bernard P., Responsable Sécurité et Formation, rattaché à la DRH.
Un forum, qui de l’aveu de son concepteur n’est aujourd’hui qu’une base de données,
puisqu’il y a un manque de participation des utilisateurs. Il s’agit avant tout de bonnes
pratiques et de documents d’intérêt général relatifs à la sécurité dans les usines.
- La base « Environnement », de René M., responsable développement durable. On trouve
dans cette base des « Best practices » en matière d’environnement pour les usines, qui
apparaissent dans un format assez convivial (court descriptif, photo, coûts ou économies).
- La base « Wallboard Technology », de Manuel S., responsable bureau d’études partie
maintenance ; une toute nouvelle base dont la création a demandé 6 mois et qui doit
permettre à toutes les usines de comparer leurs données techniques en terme de
maintenance ; cela demande un premier travail important de rentrée de données de la part
de tous les responsables maintenance d’usines, ce qui a été explicitement demandé par
Manuel Seferian. (source : Etude_BP_Elaster)

Comme en concluent les étudiants en charge de l’étude, le manque de pilotage des


initiatives relatives au partage des savoirs a pour effet un sentiment de méfiance vis-à-vis de
la fonction knowledge management au sein de la branche :

Les initiatives de knowledge management n’ont pas encore vraiment fonctionné au sein de la
branche, ce qui a eu pour conséquence d’avoir entamé la crédibilité des utilisateurs - les
personnels d’usine - envers les « outilleurs » - la direction industrielle au siège. (source :
Etude_BP_Elaster)

C’est dans ce contexte délicat qu’au cours de l’année 2003 Petra Dubois prend la
succession de John Lee et devient « Best Practice Manager ». L’année 2004 voit la réalisation
de différentes actions au sein du programme :

En janvier, le processus Best Practices a été lancé dans les domaines Sécurité, Environnement
et Industriel. En Mars est créée la base Best Practices. En Juin les « knowledge managers
officers » de Euromed, Europe du Nord, France, Amérique du Nord et Asie sont formés. En
septembre, c’est la préparation de la campagne Best Practices Corners. En octobre, une version
améliorée de la base est lancée et en novembre les premiers Corners sont installés et inaugurés
dans les usines. (source : Annexe 2.C.)

Il est également décidé que le programme de transfert des bonnes pratiques soit
inscrit dans le Plan de Performance de la branche Plâtre. Ainsi au début de l’année 2004, une
nouvelle organisation est créée (Figure 38). Deux coordinateurs sont ensuite nommés en 2005
pour gérer les bonnes pratiques industrielles et celles du marketing/prix. Ils sont en relation
avec les directeurs d’usines et, dans le cas où l’usine est de taille importante, avec le
responsable Qualité de cette usine.

246
Figure 38. Organigramme du programme GOAL (2005)

Président Direction Industrielle Directeur SI

Direction Performance
Industrielle

Best Practice
Manager
Direction Transfert
Petra Dubois
Technique

Direction Price Industrial


Management Best practices
Developpement
Best practices Co-ordinator
Technique Co-ordinator

Coordinateurs Qualité ou Directeurs d’usines

En conclusion, le contexte dans lequel s’inscrit la nomination de la Best Practice Manager


est véritablement délicat. Historiquement, la fonction de knowledge manager n’a pas été
assurée au sein de la branche. Ceci a eu pour effet la multiplication d’outils de
codification sur des sujets très disparates (la sécurité, le développement durable, le
processus de fabrication). En retour, cette multiplication a entraîné une décrédibilisation
de la fonction aux yeux des utilisateurs de ces outils.

Etudions maintenant dans le détail le système d’activité de la Best Practice Manager.

5.1.2.2 La description de son système d’activité

Conformément à notre modèle présenté dans le troisième chapitre, nous allons étudier
son système d’activité à travers six éléments : son profil et sa mission (a), son activité
quotidienne (son objet) (b), ses collaborateurs (c), ses artefacts (d), la division du travail à
l’œuvre dans son équipe (e) et les règles mises en place (f). Chaque élément étudié donne lieu
à un tableau récapitulatif.

247
a) Le profil du gestionnaire et sa mission. La Best Practice Manager, Petra Dubois, possède
des compétences en matière de gestion de projet industriel. Diplômée d’un master en
management, elle est trilingue (français, anglais et russe) et de nationalité ukrainienne. Elle a
passé quatre ans au sein de la branche de Lafarge en tant que gestionnaire de projet
industriel :

Avant de devenir Best Practice Manager, j’étais chef de projet au sein de la Direction
Industrielle de la branche Plâtre. Concrètement, il s’agissait de mener un projet à son terme en
fonction d’objectifs précis. Par exemple, la Direction Industrielle peut décider de réaliser une
veille technologique sur les produits concurrents pendant une période de six mois. C’est à moi
de le faire et d’en rendre compte à mon supérieur hiérarchique, Michel Castel. (source :
Dubois)

Cette expérience au sein de l’entreprise était un atout pour Petra Dubois. Elle avait
déjà constitué son réseau social avec laquelle elle allait collaborer en devenant Best Practice
Manager. Dans cette nouvelle fonction, son rôle tel qu’il a été défini par son supérieur
hiérarchique est le suivant :

Petra doit superviser et coordonner l’effort Best Practices tout en assurant le soutien
organisationnel, humain et technologique au processus de transfert des bonnes pratiques.
(source : Castel)

Son profil semble cohérent avec la nouvelle fonction de Best Practice Manager aux
yeux de la Direction Industrielle, ce qui explique que sa nomination, à la suite de JK Park,
semblait naturelle aux yeux de Michel Castel :

Pour gérer ce projet de transfert des Best Practices, il faut bien connaître le métier et les gens
du terrain. Ca me paraît difficile de venir de l’extérieur et de s’imposer auprès des
opérationnels comme ça, d’un coup de baguette magique. Petra était donc la candidate
naturelle pour ce projet. (source : Castel)

Le projet de transfert des bonnes pratiques (ou Best Practices) s’inscrit dans un
processus plus global d’amélioration de la performance. Ce processus est formalisé dans un
document appelé un « plan de performance ». Le plan de performance regroupe un certain
nombre d’initiatives que le directeur d’usine doit mettre en place. Il lui permet de définir des
objectifs à trois ans et de mesurer son action au sein d’un référentiel partagé par les autres
usines. Les bonnes pratiques industrielles, commerciales et sécurité sont un élément
important du plan de performance :

Le plan de performance regroupe d’une part un ensemble de savoir-faire qui est formalisé
(prouvé et explicité) et d’autre part un ensemble de processus clés qui montrent dans quelle
mesure ce savoir-faire, en s’appliquant, permet de générer du résultat. Il y a également tout ce

248
qui concerne l’établissement de cibles : les processus au cours desquels on va inviter les
différents partenaires et managers d’une unité à constituer les cibles et à définir un plan
d’action s’y afférant. Enfin, il y a la mesure de ces actions. Donc pour avoir une vision à peu
près complète de ce qu’est un plan de performance, il faut aborder les cibles, le plan d’action,
la mesure de ces actions et les bonnes pratiques. (source : Sabre)

L’expérience d’Irina au sein de l’activité plâtrière, ses aptitudes à communiquer dans


trois langues différentes et ses capacités de gestionnaire de projet sont censées l’aider à
exercer cette fonction de Best Practice Manager. Le Tableau 42 en résume les principales
caractéristiques.
Tableau 42. La Best Practice Manager
Mission Superviser et coordonner l’effort Best Practice tout en assurant le soutien
organisationnel, humain et technologique au processus de transfert des bonnes
pratiques.
Profil Petra Dubois est un cadre d’entreprise qui possède 4 années d’expérience au sein
de l’entreprise et de l’activité plâtrière.
Compétences Petra Dubois possède des compétences en matière de gestion de projet.

b) Son activité quotidienne. Pour remplir sa mission, la Best Practice Manager ne


dispose pas de véritables prérogatives. Personne n’ayant véritablement exercé la fonction de
Best Practice Manager –son prédécesseur n’ayant que lancé le projet-, c’est elle qui va
« inventer » ses pratiques :

J’ai du tout définir de A à Z ! Je réalise cinq tâches selon moi. Premièrement, j’identifie les
bonnes pratiques dans les usines. Pour cela, je me déplace sur le terrain, je rencontre des
directeurs d’usine, je les appelle, je les relance par téléphone. Puis j’aide à documenter les
bonnes pratiques. Ce sont les opérationnels qui doivent remplir la base de données et non
moi. Je peux les aider ponctuellement à bien utiliser la base. Par contre, je dois sans cesse
vérifier la pertinence et la qualité du contenu de la base de données. Quatrièmement, je dois
faire reconnaître l’effort réalisé pour les Best Practices au travers du BP status report. Enfin, je
dois promouvoir les initiatives Best Practices au sein des UO [Unités Organisationnelles = les
usines]. (source : Dubois)

- Décision: En premier lieu, elle identifie et valide les bonnes pratiques inscrites dans
le plan de performance au niveau des usines. Cette première étape est essentielle pour
impliquer les directeurs d’usine dans la démarche. Mais en pratique, nous avons pu observé
qu’Petra se rendait très rarement dans les usines, comme en témoigne un directeur d’usine :

Moi, Irina, je ne l’ai jamais vu ici. Il faudrait plutôt qu'un technicien de siège qui se rend sur le
site soit mandaté par la personne en charge du transfert des bonnes pratiques du siège pour
valider la mise en place de la bonne pratique plutôt que de faire un roman sur informatique.
(source : Dubois)

En fait, je n’ai pas beaucoup de temps à consacrer aux visites d’usine, c’est vrai. Tout
simplement parce que c’est très consommatrice de temps. Du coup, j’en ai fais quelques-unes
et je m’appuie surtout sur les directeurs d’usine ou les responsables Qualité pour codifier les
pratiques. (source : Dubois)

249
- Conseil. La Best Practice Manager consacre donc une grande partie de son temps à
aider les directeurs d’usine ou les responsables Qualité à remplir la base. Cette activité de
conseil représente un tiers du temps de travail de son équipe à Avignon. Une fois le
document rempli sur la base de données, la pratique est validée par son équipe :

Le processus est le suivant : les responsables d’usine ou les responsables Qualité écrivent leur
pratiques sur la base de données et nous, à Avignon, on les valide si elles respectent les
critères de GOAL. Il faut que la pratique soit bien rédigée. Cela m’arrive de contacter par
téléphone l’auteur de la pratique pour en savoir un peu plus et re-rédiger le document. Je
conseille donc mes clients à bien remplir la base, et je finis par la remplir moi-même ! (source :
Dubois)

Ce travail de support l’amène à réaliser une action non prévue dans sa mission : la
(re)rédaction des bonnes pratiques :

Je ne pensais pas à avoir à revoir le contenu. Moi quand on voit ce que l’on reçoit. Quelque
fois, un directeur d’usine m’envoie une ligne ou deux. Je ne peux pas valider cela. Du coup je
l’appelle et il m’explique un peu mieux la pratique en question. Alors, je rédige moi-même la
pratique et il l’a valide par téléphone et moi je la valide en ligne. Tout le processus est inversé !
C’est moi qui rédige et eux qui valident ! (source : Dubois)

- Contrôle. Pour suivre les différents transferts de bonne pratique, la Best Practice
Manager va travailler à la définition d’indicateurs de suivi et aboutir à un tableau de bord
intitulé le « BP Status Report » (voir Annexes 2.C. et 2.D.). Ce tableau est un classement des
usines les plus actives en matière de bonnes pratiques. Il montre combien de bonnes
pratiques ont été réutilisées ou créées par telle usine dans tel pays. Ce tableau est ensuite
communiqué, dans un souci de transparence, à toutes les usines via une newsletter (voir
Annexe 2.C.). La rédaction de ce tableau est l’une des tâches