Vous êtes sur la page 1sur 502

THÉORIE DES

ORGANISATIONS
Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays.
La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les «
copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une
utilisation collective » et, d’autre part, que les analyses et les courtes citations dans un but d’exemple
et d’illustration, « toute représentation ou reproduction intégrale, ou partielle, faite sans le
consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinéa 1 er de l’article
40).
Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contre
façon sanctionnée par les articles 425 et suivants du Code pénal.

© ÉDITIONS ESKA 2022 ISBN


978-2-7472-3223-4

Editions ESKA - 12, rue du Quatre-Septembre - 75002 Paris Tél : 01


42 86 55 73 - Fax : 01 42 60 45 35

THÉORIE DES
ORGANISATIONS
Alice LE FLANCHEC et Jacques ROJOT

À Jacques Rojot
Je me souviens encore avec émotion du cours de Théorie des
Organisations du Professeur Jacques Rojot que j’ai suivi à la Sorbonne
lorsque j’étais étudiante en master. Puis, lorsque Jacques Rojot a quitté
l’Université Paris 1 Panthéon-Sorbonne en 2000 pour rejoindre l’Université
Paris 2 Panthéon-Assas, alors jeune Maître de Conférences, j’ai eu le
privilège de reprendre son cours de Théorie des Organisations. Avec le
soutien de deux collègues, Sophie Landrieux-Kartochian et Heloise Cloet,
j’assure cet enseignement au sein de l’Université Paris 1
PanthéonSorbonne depuis plus de 20 ans.
L’ouvrage « Théorie des Organisations » de Jacques Rojot a toujours été
le fil directeur de mes enseignements et une référence constante pour les
étudiants. Ceci tient notamment à son contenu particulièrement détaillé et
ses sources diversifiées qui permettent de passer en revue un très large
éventail de théories des organisations, en puisant dans des champs
disciplinaires variés comme l’économie, la sociologie ou encore la
psychologie. À ce titre, il a une utilité sociale notable, au-delà des
enseignements eux-mêmes qu’il porte, et constitue un outil de
transmission et une référence utile à tous ceux qui cherchent à mieux
comprendre le fonctionnement des organisations dans lesquelles ils vivent,
étudiants, enseignants, managers, praticiens que ce soit dans le monde
professionnel, associatif ou même familial.
Au décès de Jacques Rojot, et en concertation avec Evelyne Rojot son
épouse et Serge Kebabtchieff, président des Éditions Eska, il nous a semblé
essentiel de ne pas laisser cette œuvre figée dans le temps et de lui
renouveler son ancrage dans le présent. Ceci d’autant plus que Jacques
Rojot lui-même écrivait dans la préface de la version précédente : « un
ouvrage du type de celui-ci n’est jamais terminé et appelle de constantes
modifications. (…). Nous souhaitons pouvoir entreprendre, dans le futur,
une refonte de plus grande envergure ». C’est cette refonte que j’ai tenté
de réaliser ici, en apportant mon regard, tout en conservant l’essentiel des
versions antérieures.
Une caractéristique fondamentale de cet ouvrage tient à la volonté de
demeurer aussi neutre que possible. La connaissance d’un large éventail de
théories des organisations est considérée comme une condition de la
construction de l’esprit critique qui doit nous animer.
Alice Le Flanchec, Professeur de gestion à l’Université Paris 1
Panthéon-Sorbonne
La rédaction de cet ouvrage me procure l’occasion d’adresser mes
remerciements à un ensemble de collègues avec lesquels j’ai échangé et
débattu à de nombreuses reprises et qui ont contribué – chacun à leur
manière – à enrichir ma vision du monde : Délila Allam, Dominique
Bencherqui, Frank Bournois, Jean-Luc Chappey, Héloïse Cloet, Gérard
Coulon, Carole Drucker, Mathilde Gollety, Jacques Igalens, Pierre Juhasz,
Catherine Lafitte, Sophie Landrieux-Kartochian, Astrid MullenbachServayre,
Jean-Michel Plane, Hélène Sirven et Alexandre Steyer.
J’ai aussi une pensée pour les étudiants de l’Université Paris 1
Panthéon-Sorbonne et notamment ceux du master Management
Stratégique parcours CMSI, qui ont participé à construire et faire évoluer
mes pratiques pédagogiques.
Cet ouvrage est dédié à Vincent, Thomas et Damien sans qui rien
n’aurait de sens ; ainsi qu’à Greg, Roland, Hélène, Lucie et Marie, sans
oublier Janine.
INTRODUCTION : L’ÉTUDE DES ORGANISATIONS L’étude des organisations
au carrefour des disciplines Qu’est-ce qu’une organisation Il n’existe pas «
une » mais « des » théorie(s) des organisations Structuration de l’ouvrage

CHAPITRE 1 : LES THÉORIES TRADITIONNELLES

1. Le taylorisme et l’organisation scientifique du travail


1.1. Le constat de l’inefficacité des systèmes de production
traditionnels
1.2. Une méthode scientifique d’étude des organisations
1.3. Les principes fondamentaux de l’Organisation Scientifique du
Travail (OST)
1.4. Le prolongement des travaux de Taylor
1.5. Les apports et critiques du Taylorisme
2. Fayol et l’activité administrative : gérer comme profession
2.1. L’activité administrative
2.2. Énoncer des ;; principes pour mieux enseigner la fonction
administrative
3. La fonction de direction et le manager après Fayol 4. Max
Weber et la bureaucratie
4.1. La sociologie compréhensive ou interprétative
4.2. Les différents modèles d’autorité
4.3. Le modèle rationnel légal ou « bureaucratique »
5. Approfondissements et critiques de la bureaucratie
5.1. L’approche structuro-fonctionnaliste
5.2. L’école d’Aston
5.3. Crozier et le cercle vicieux bureaucratique
6. Critiques générales des théories traditionnelles
Focus : L’essentiel des théories traditionnelles

CHAPITRE 2 : LES THÉORIES DES RELATIONS HUMAINES

1. L’origine des théories des relations humaines


1.1. Les expériences de l’usine de Hawthorne
1.2. Les conclusions tirées des expériences
1.3. La critique des études de l’usine de Hawthorne et des théories
des relations humaines
2. Les études sur les groupes
2.1. Lewin et la dynamique de groupe
2.2. Moreno et le sociogramme
2.3. Sherif et la normalisation
2.4. Asch et le conformisme
2.5. Milgram et la résistance à l’autorité
2.6. Le courant de l’Organizational Development (OD)
3. Les théories du leadership
3.1. Lewin, Lippit et White, la supériorité du modèle démocratique
3.2. Coch et French et la résistance au changement
3.3. Les styles de gestion de Likert
3.4. Tannembaum et Schmidt et le continuum des styles de leadership
3.5. Hersey et Blanchard et le management situationnel
3.6. La grille managériale de Blake et Mouton
4. Les théories de la motivation
4.1. Maslow et la hiérarchie des besoins
4.2. Alderfer et la théorie ERD
4.3. La théorie bi-factorielle de Herzberg
4.4. Mac Gregor et les théories X et Y
4.5. Argyris et le succès psychologique
4.6. L’apprentissage en double boucle d’Argyris et Schön
4.7. Vroom et la théorie des attentes ou théorie VIE
5. L’apport original de Barnard
Focus : L’essentiel des théories des relations humaines

CHAPITRE 3 : LES THÉORIES DE LA CONTINGENCE STRUCTURELLE

1. Les théories de la contingence interne


1.1. La taille de l’organisation
1.2. L’âge de l’organisation
1.2.1. Starbuck et la résistance au changement
1.2.2. Greiner et la théorie des cycles de vie des organisations
1.2.3. Stinchcombe et l’âge des industries et modèles d’organisation
1.3. La technologie
1.3.1. Le modèle de Woodward
1.3.2. Le modèle de Perrow
1.3.3. Le modèle de Thompson
1.4. La stratégie
1.4.1. Chandler, la stratégie précède la structure
1.4.2. Child, le choix stratégique des organisations
2. Les théories de la contingence structurelle externe
2.1. Burns et Stalker : la variabilité de l’environnement
2.2. Emery and Trist : la complexité croissante de l’environnement
2.3. Lawrence et Lorsch : l’adaptation diversifiée à l’environnement,
intégration et différenciation
3. Les configurations d’organisations de Mintzberg
3.1. Les processus de coordination
3.2. Les composants de l’organisation
3.3. Le modèle initial et les 5 configurations d’organisations
3.4. Les additions au modèle initial : les organisations missionnaires et
politiques
Focus : L’essentiel des théories de la contingence structrurelle

CHAPITRE 4 : LES ORGANISATIONS CONÇUES COMME DES SYSTÈMES

1. La notion de système
1.1. Le système est plus que les éléments qui le compose
1.2. L’organisation considérée comme un système
2. Von Bertalanffy et la théorie générale des systèmes 3. La
psychologie sociale des organisations de Katz et Kahn 4. L’analyse
sociotechnique
4.1. Les expériences de Trist, Bamforth et Rice
4.2. Les principes de l’analyse sociotechnique
5. Forrester et la théorie des flux 6. Les apports de la théorie des
systèmes et de son application psychosociale
Focus : L’essentiel sur les théories des organisations conçues comme des
systèmes

CHAPITRE 5 : THÉORIES DES ORGANISATIONS ET ENVIRONNEMENT

1. Les théories du contrôle externe de l’organisation par


l’environnement
1.1. L’écologie des populations d’organisations
1.1.1. La notion de « population d’organisation »
1.1.2. Les principes de la théorie de l’écologie des populations
d’organisations
1.1.3. Le modèle de l’écologie des populations d’organisations
1.1.4. Les notions de niche et de grain
1.1.5. La faible place laissée au choix stratégique
1.2. La dépendance sur les ressources
1.2.1. Les principes de base de la théorie de la dépendance sur les
ressources
1.2.2. L’organisation efficace est celle qui s’adapte à son
environnement
1.2.3. Les stratégies pour s’adapter à l’environnement
2. Weick et l’environnement comme construit social
2.1. La prise en compte de l’ambiguïté de l’environnement
2.2. L’environnement est « agi »
2.3. L’environnement est un construit social
2.4. La notion de « sensemaking »
2.5. L’organisation comme mythe
Focus : L’essentiel sur les théories des organisations et l’environnement

CHAPITRE 6 : THÉORIES DES ORGANISATIONS ET PROCESSUS DE DÉCISION

1. La rationalité des décisions


1.1. Le concept de décision
1.2. La distinction entre rationalité absolue et rationalité limitée
1.2.1. La rationalité absolue
1.2.2. Simon et la rationalité limitée
1.2.3. La distinction entre rationalité substantielle limitée et
rationalité procédurale
2. Les limites concrètes de la rationalité
2.1. Les mécanismes de la perception
2.2. Les heuristiques cognitifs
2.3. Boudon et les erreurs de cadre
2.4. Les mécanismes d’influence et les normes sociales
3. La théorie décisionnelle de l’organisation
3.1. Participation des individus aux organisations
3.2. L’influence de l’organisation sur ses membres
4. La théorie comportementale de la firme
4.1. Le slack organisationnel
4.2. Les principes de fonctionnement de l’organisation
4.2.1. La quasi-résolution des conflits
4.2.2. Éviter l’incertitude
4.2.3. Résolution de problèmes en termes de solutions
4.2.4. L’apprentissage organisationnel
5. Le modèle de l’organisation considérée comme une collection de
poubelles
5.1. Le cadre général de la théorie de la poubelle
5.2. Les fondements du modèle de décision en termes de poubelles
6. La théorie des jeux
6.1. Qu’est-ce qu’un jeu ?
6.2. Les jeux à information complète et incomplète
6.3. La description du jeu
6.3.1. La forme extensive du jeu
6.3.2. La forme stratégique
6.3.3. La fonction caractéristique
6.4. La détermination des solutions du jeu
6.4.1. L’élimination des stratégies dominées
6.4.2. L’équilibre de Nash
6.5. Un exemple de jeu célèbre : le dilemme du prisonnier
Focus : L’essentiel sur les théories des organisations et le processus de
décision

CHAPITRE 7 : THÉORIES DES ORGANISATIONS ET ENTREPRISE

1. La firme dans la théorie économique


1.1. Les théories standards
1.1.1. Adam Smith : entre main invisible et théorie de sentiments
moraux
1.1.2. La théorie néo-classique
1.2. La théorie standard étendue
1.2.1. La théorie de l’agence
1.2.2. L’économie des coûts de transactions
1.3. Les théories non standards
1.3.1. L’organisation en tant que marché interne de travail
1.3.2. L’économie des conventions
2. Les différentes écoles de pensée en stratégie d’entreprise
2.1. L’école de la conception
2.2. L’école de la planification
2.3. L’école du positionnement
2.4. L’école entrepreneuriale
2.5. L’école cognitive
2.6. L’école de l’apprentissage
2.7. L’école des relations de pouvoir
2.8. L’école du processus culturel
2.9. L’école environnementale
2.10.L’école de la configuration
3. Entreprise et ressources humaines
3.1. Les rôles du manager
3.1.1. Les 10 rôles du manager de Mintzberg
3.1.2. Les rôles situationnels du manager selon Hart et Quinn
3.2. La justice organisationnelle
3.2.1. La théorie de l’équité d’Adams
3.2.2. La justice procédurale
3.3. La théorie de l’autodétermination de Deci et Ryan
3.4. L’implication organisationnelle
3.5. La confiance dans la relation d’emploi
3.6. La résilience dans la relation d’emploi
4. Entreprise et culture
4.1. L’origine anthropologique de la notion de culture
4.2. La culture nationale
4.2.1. L’approche de Hofstede
4.2.2. Le projet GLOBE
4.2.3. La typologie de Trompenaars
4.2.4 La typologie de Lewis
4.2.5 d’Iribarne et la logique de l’honneur
4.2.6 L’approche sociétale de Sellier, Sylvestre et Maurice
4.3. La culture d’entreprise
4.3.1. Les apports de Schein
4.3.2. Sainsaulieu et l’identité au travail
Focus : L’essentiel sur les théories des organisations et l’entreprise

CHAPITRE 8 : THÉORIES DES ORGANISATIONS ET SOCIÉTÉ

1. Le débat entre action et structure


1.1. L’individualisme méthodologique
1.2. Le holisme
1.3. Dupuy et l’auto-transcendance
1.3.1. Une « hiérarchie enchevêtrée » entre l’individu et la société
1.3.2. L’individualisme méthodologique complexe
1.4. Giddens et la théorie de la dualité du structurel
1.4.1. Les notions d’action et de structure sont indissociables
1.4.2. Elucidation herméneutique des cadres de significations
1.4.3. Investigation des contextes et des formes de conscience
pratique
1.4.4. La détermination des limites de compétences
1.4.5. La précision des ordres institutionnels
1.4.6. La dualité du structurel
1.5. Granovetter et la nouvelle sociologie économique
1.5.1. Le dépassement des analyses sous-socialisées et
sursocialisées
1.5.2. La notion d’encastrement
2. Lien entre organisation et entité sociétale
2.1. Les approches interactionnistes
2.1.1. Mead et l’interactionnisme symbolique
2.1.2. L’ethnométhodologie
2.2. Les approches néo-institutionnelles
2.2.1. Les principes fondamentaux du néo-institutionnalisme
2.2.2. Les apports de Selznick au néo-institutionnalisme
2.2.3. La notion de « champs organisationnels »
2.3. Marx et la lutte de classes
Focus : L’essentiel des théories de l’organisation et la société

CHAPITRE 9 : THÉORIE DES ORGANISATIONS, POUVOIR ET NÉGOCIATION

1. Les notions de pouvoir et de négociation


1.1. Définition du pouvoir
1.2. Définition de la négociation
1.3. Les sources du pouvoir
2. Crozier et l’analyse stratégique des organisations
2.1. Les principaux concepts
2.2. L’intégration des stratégies permet d’expliquer le fonctionnement
des organisations
2.3. La conception du pouvoir dans l’analyse stratégique
2.4. Cadre méthodologique découlant de l’analyse stratégique
3. La théorie de l’engagement
3.1. Les principes de la théorie de l’engagement
3.2. L’effet de gel, l’amorçage et le pied dans la porte
4. La théorie de la régulation conjointe
Focus : L’essentiel sur les théories des organisations, pouvoir et
négociation
CONCLUSION

INDEX
Pourquoi étudier les organisations et pourquoi essayer de formuler une
théorie les concernant ? Qu’est-ce que les organisations ont de particulier
pour mériter une attention suffisante qui l’érige en objet d’études pour les
sciences de gestion ?
Un élément de réponse spontané est tout simplement « parce qu’elles
sont là » ! Nous vivons dans un monde d’organisations. Nés le plus souvent
dans un hôpital, nous sommes élevés à la crèche, puis à l’école et souvent
à l’université, après quoi nous travaillons dans des entreprises, des
administrations ou associations en contact quotidien avec d’autres
organisations. Ceci est le cas tant dans notre vie professionnelle, que dans
notre vie privée dont le cours nous confronte à d’autres organisations
même dans les activités les plus simples de tous les jours, telles que
voyager, faire du sport, nous distraire, etc., sans parler bien sûr des «
grands événements » de l’existence tels que mariages et naissances.
Dans les sociétés développées et modernes, en tout cas, aucun individu
n’est plus à même de se reposer sur lui seul pour la satisfaction de ses
besoins. Il est confronté à un environnement d’organisations et il est
conduit à appartenir inévitablement à nombre d’entre elles. Peut-on
imaginer dans le cadre du monde industrialisé actuel, un bien ou un
service conçu, fabriqué et distribué par un seul individu ? C’est bien sûr
possible, mais cela ne représente pas le cas général. Dans des sociétés plus
anciennes et souvent rurales, c’était pourtant plus la règle que l’exception.
Par conséquent, l’importance que les organisations ont prises dans notre
vie moderne constitue une raison primordiale de leur étude.
Il s’ensuit le besoin de mieux comprendre comment fonctionnent ces
organisations qui ont pris une complexité et une taille croissante et qui ont
adopté des modes de fonctionnement de plus en plus sophistiqués.
Grandes entreprises multinationales ou non, organisations étatiques,
nationales et internationales nous entourent. Une meilleure
compréhension de leur fonctionnement permet d’abord de nous y insérer,
et peut-être aussi de les améliorer et d’encadrer leur activité selon les
finalités qui peuvent être les nôtres, incluant la performance économique,
sociale ou sociétale. La tâche, cependant est difficile.
La théorie des organisations veut donc rassembler tout ce qui tend à
une meilleure compréhension de l’organisation. Nous souhaitons ici, dans
cette introduction, montrer tout d’abord que cet ouvrage s’inscrit en
sciences de gestion et emprunte à une multitude d’approches théoriques
en sciences humaines et sociales dont notamment la sociologie,
l’anthropologie, l’économie, les sciences cognitives ou encore la
psychologie. Puis, nous définissons notre objet d’étude à savoir les
organisations. Ensuite, nous attirons l’attention sur le fait qu’il n’existe pas
une seule manière d’expliquer et de comprendre les organisations. Dès
lors, il n’y a pas « une » mais « des » théories des organisations et c’est
dans ce cadre que les différentes théories exposées dans cet ouvrage
doivent être abordées, c’està-dire dans leur diversité. Ce n’est qu’en ayant
une vue aussi large que possible des différentes théories des organisations
existantes, qu’il est alors possible d’avoir l’esprit critique et de se faire soi-
même l’arbitre de la (ou les) théorie(s) les mieux adaptées à l’explicitation
d’une situation donnée, dans un contexte donné. Ce chapitre introductif se
conclut autour de la présentation du plan de l’ouvrage, qui pour des
raisons pédagogiques et sans exclure une certaine dimension
chronologique, adoptera largement des regroupements thématiques.

L’étude des organisations au carrefour des


disciplines
Cet ouvrage est tout d’abord ancré en sciences de gestion. La gestion
peut se définir comme la manière de conduire, diriger, structurer et
développer l’organisation. La gestion est finalisée : elle vise à produire des
préconisations pour l’action. Elle s’articule autour d’un ensemble de
sousdisciplines variées (finance, stratégie, marketing, comptabilité, gestion
des ressources humaines…) qui sont au service de l’organisation. Elle
s’intéresse notamment aux salariés, aux consommateurs, aux actionnaires
ou encore aux partenaires sociaux. L’organisation est donc au centre des
préoccupations des sciences de gestion.
Mais les organisations sont abordées, chacune selon son propre point
de vue, par d’autres disciplines telles que notamment la sociologie,
l’anthropologie, l’économie, le droit, la psychologie sociale, les sciences
cognitives ou encore l’histoire. Dès lors, la gestion emprunte à ces
différents champs disciplinaires pour construire sa propre connaissance
des organisations en fonction du but qu’elle s’est assignée. De ce fait, la
gestion ne peut être qu’au carrefour de l’ensemble de ces disciplines.
Pour illustrer notre propos, prenons la parabole dite du «
portecommandes »1. Brièvement résumée et largement adaptée à nos
besoins, elle évoque le problème du dirigeant d’une chaîne de restaurants
qui, malgré le maintien de bons salaires et de conditions de travail
satisfaisantes, constatait un état déplorable des relations entre gérants de
restaurants, cuisiniers et serveuses, un climat social exécrable, un
absentéisme constant et une rotation élevée du personnel. Soucieux
d’améliorer la situation, il souhaitait prendre des mesures pour remédier à
cette situation. Optimiste, il fit appel à des conseils d’entreprises, mais
prudent, il en consulta plusieurs : un sociologue, un psychologue, un
anthropologue et un économiste. Après avoir, tous les quatre, constaté que
c’était aux heures de pointe que, comme cela était prévisible, tensions et
crises atteignaient leur apogée, chacun fit son rapport. Le sociologue
diagnostiqua un problème sociologique. Le statut social le plus élevé était
celui du gérant, celui juste en dessous de lui celui de cuisinier, et le plus
subalterne était celui des serveuses. Or, en passant les commandes, les
serveuses hurlaient des ordres aux cuisiniers. Il n’était bien évidemment
pas concevable qu’une personne à statut faible puisse claironner des
ordres à un individu socialement supérieur sans créer une situation
intenable et remettre en cause la structure existante. Le psychologue
constata instantanément un problème psychologique. Le gérant
représentant la figure du père, les cuisiniers celle des fils et les serveuses
des filles. Dans une culture où il est rare que des sœurs donnent des ordres
et dirigent leurs frères, cette situation créait bien évidemment une crise,
les structures de la personnalité de chacun étant ainsi durablement
perturbées. L’anthropologue ne manqua pas, bien sûr de considérer que le
problème était de nature anthropologique. Le système culturel de valeurs
qui dictait les comportements du gérant et des cuisiniers était axé sur la
croissance et le développement du restaurant car ils en bénéficiaient
directement en salaire et en prestige. À l’inverse les serveuses, n’avaient
aucun intérêt à la croissance et au développement du restaurant qui ne
changeait rien pour elles tant qu’il comportait des conditions de travail
acceptables. On se trouvait donc en présence d’un système de valeurs
périphérique dominant un système de valeurs central. Ceci était
inévitablement source de crises. L’économiste sut immédiatement
reconnaître un problème de nature économique. La situation d’équilibre
de monopsone, mettant face à face un seul demandeur de commandes, le
cuisinier, face à une offre atomisée composée de serveuses multiples était
rompue quand périodes de pointe et périodes de calme alternaient et que
l’offre apparaissait et disparaissait. Afin de rétablir un équilibre stable, il
convenait soit d’atomiser la demande, et donc de fragmenter le cuisinier,
pour aboutir à un marché fluide, soit de concentrer l’offre et d’agréger les
commandes des serveuses, pour obtenir un monopole bilatéral. Une
préférence était manifestée pour la seconde solution.
Fasciné par ces analyses, le propriétaire de la chaîne de restaurants
finança une recherche supplémentaire devant permettre de passer de ces
diagnostics à la mise en place d’une solution concrète.
Le sociologue conseilla de remplacer la transmission orale des ordres
par un système anonyme de transfert d’informations. Un porte-
commandes pourrait faire l’affaire.
Le psychologue considéra que la meilleure façon de faire cesser les
troubles psychologiques de chacun était de dépersonnaliser les rapports
entre individus, et donc de passer par l’intermédiaire d’un objet : le
portecommandes.
L’anthropologue considéra que l’harmonisation de la hiérarchie des
systèmes de valeur internes au groupe passait par l’introduction d’un
intermédiaire entre chacun des sous-groupes : un porte-commandes.
Enfin, l’économiste conseilla l’utilisation d’un porte-commandes
comme moyen le plus adapté à l’agrégation des serveuses, compte tenu
des circonstances.
Il apparait ainsi qu’il y a souvent plusieurs moyens d’atteindre un but
identique. Plusieurs approches théoriques, a priori différentes, peuvent
aboutir sinon à des prescriptions identiques comme dans notre exemple,
du moins à des résultats tout aussi satisfaisants les uns que les autres, au
moyen de prescriptions similaires ou pas, mais qui dans tous les cas
permettent de donner une réponse aux problèmes organisationnels.
La théorie des organisations telle qu’elle est conçue ici est donc une
branche des sciences de gestion et à ce titre, tout en construisant ses
propres modèles, elle emprunte largement à d’autres disciplines, dont
nous venons de mentionner qu’elle se tient au carrefour.
Qu’est-ce qu’une organisation ?
Intuitivement, dans le langage courant, le terme organisation évoque
automatiquement, à notre époque et dans notre environnement qui est
celui des sociétés industrielles développées, un certain nombre d’images.
À cette question beaucoup ont tendance à répondre en citant un exemple :
telle ou telle entreprise privée, une université, une unité d’études et de
recherche, l’église, l’armée, etc. viennent immédiatement à l’esprit. Le
concept d’organisation est bien présent dans le répertoire de termes
généralement partagés que nous utilisons quasi quotidiennement.
Cependant, ce concept est-il réellement partagé, est-il bien commun ?
Les exemples cités par presque tous, constituent bien sans doute des
organisations. Pourtant si on pousse plus avant la réflexion, il apparaît que
tous les regroupements d’individus ne constituent pas pour autant des
organisations. Dès lors, qu’est ce qui justifie qu’un groupe soit considéré
comme une organisation et un autre ne le soit pas ?
Une approche, suivie notamment par Khandwalla 2, vise à distinguer ce
qui relève de l’organisation de ce qui n’en relève pas en définissant,
cidessous, les éléments constitutifs de toute organisation :
• Un ensemble de participants (au moins deux).
• Une hiérarchie.
• Des règles et des procédures.
• Des communications formalisées.
• Une spécialisation des rôles.
• L’emploi de personnel qualifié.
• Des objectifs spécifiques.
Mais ces approches de l’organisation ne sont pas suffisantes et il
convient de recourir aux définitions proposées par des spécialistes. En
effet, la plupart de ceux qui se sont penchés sur l’étude des organisations
en ont proposé une définition, chacun dans leur propre cadre conceptuel.
Quelques-unes sont présentées dans le tableau ci-après à titre d’exemple.
Définitions de l’organisation
Bourricaud « La forme sociale qui par l’application d’une règle et sous l’autorité de leaders,
(1989)3 assure la coopération des individus à une œuvre commune, dont elle détermine la
mise en œuvre et répartit les fruits. »

Schein « La coordination rationnelle des activités d’un certain nombre de personnes en vue
(1970)4 de poursuivre des buts et des objectifs implicites communs. »

Parsons « Des unités sociales essentiellement destinées à atteindre certains buts. »


(1964)5

Crozier et « L’organisation est une réponse au problème de l’action collective. »


Friedberg
(1977) 6

Un certain nombre des caractéristiques fondamentales de


l’organisation apparaissent. On y voit d’abord qu’une organisation
constitue un regroupement d’individus qui cherchent à réaliser des buts.
On y perçoit ensuite la nécessité de répartir et de coordonner les activités
des membres de l’organisation et l’apparition de leaders et de règles.
La définition proposée par Crozier et Friedberg (1977) nous semble
mettre l’accent sur une caractéristique particulièrement importante de
l’organisation : la notion d’action collective. Ainsi, dans la lignée de ces
auteurs, nous retiendrons ici que l’organisation est une réponse au
problème de l’action collective. Dès qu’une activité ne peut être menée à
bien par un individu unique, isolé, par le seul exercice de ses propres
capacités, se pose alors le problème de l’action collective, dont
l’organisation est la réponse.
Cette approche en termes de solution de problème nous dit ce qu’est
concrètement l’organisation : puisque solution au problème de l’action
collective, elle devient ainsi, suivant la formule de Mintzberg 7, « la somme
totale des façons de diviser le travail entre ses membres et de celles de
coordonner les résultats des tâches ainsi découpées ». Mais elle laisse aussi
la porte ouverte à nombre de questions qui préoccuperont longtemps les
théoriciens des organisations, à savoir notamment : Comment coordonner
les tâches et les modes de coopération au sein des organisations, dans
quel but et comment ? Comment se situent les organisations dans leur
environnement ? Comment évoluent-elles dans le temps ? Comment
concilier les buts de l’organisation et ceux de ses membres ? Où se situent
les frontières de l’organisation ? Comment les organisations interagissent
entre elles ? Qu’est ce qui justifie que l’on crée, que l’on adhère ou que l’on
quitte une organisation ? Comment se prennent les décisions au sein des
organisations ?
Il serait naïf de penser que toute organisation a un but clair, unique et
partagé par tous. Chacun participe à l’organisation pour des raisons qui
sont différentes. L’organisation regroupe un ensemble d’individus qui ont
tous des intérêts individuels différents mais dont l’association va conduire
à un résultat qui n’aurait pas pu être obtenu autrement et qui sera
bénéfique à chacun des participants. Chacun des membres de
l’organisation a intérêt à ce que cette dernière perdure, même si les raisons
de leur adhésion sont différentes.
Par conséquent, l’existence de l’organisation est une réponse au
problème de l’action collective, mais elle n’est pas une réponse simple, elle
ne va pas de soi. Une organisation est un construit social et n’est pas une
donnée naturelle. Elle est aussi un problème à expliquer. Son apparition
n’est nullement spontanée. Il faut par ailleurs souligner que l’existence et
la survie des organisations est toujours menacée et remise en question.
C’est donc leur émergence, leur pérennité, leur développement et leur
fonctionnement qui va animer le débat et construire la (ou plutôt les)
théorie(s) des organisations.
Notons que l’entreprise (ou la firme) est un cas particulier
d’organisation et ne doit pas être confondue avec l’organisation elle-même,
qui est un concept beaucoup plus large, même si l’entreprise retiendra
l’attention de nombre de théoriciens des organisations.
Il n’existe pas « une » mais « des » théorie(s) des
organisations
Une théorie est une explication. Notre objet d’étude ici est
l’organisation. Ce que l’on appelle la théorie des organisations est donc
constituée d’un ensemble très vaste de travaux et de contributions
d’auteurs issus de différentes disciplines, qui se sont penché sur les
phénomènes organisationnels. Il s’ensuit qu’il n’existe pas « une » théorie
des organisations, mais « des » théories des organisations.
On pourrait presque penser qu’il y a autant de théories des
organisations que d’auteurs, même s’il est fréquent de regrouper les
différents auteurs en « écoles de pensée ». On constate par ailleurs des
différences qui peuvent être majeures dans la manière d’expliquer le
fonctionnement des organisations selon les théoriciens. Ainsi, pour
certains l’environnement est dominant, alors que pour d’autres
l’environnement n’est qu’un construit social ; pour certains les
phénomènes sociaux sont issus des actions des acteurs alors que pour
d’autres l’individu est le produit des structures sociales ; pour certains
encore la culture est dominante alors que pour d’autres les phénomènes
organisationnels s’expliquent par les choix stratégiques et les relations de
négociation entre les acteurs. Pourtant, même si chacun semble détenir «
sa » vérité, chaque théorie aborde la plupart du temps les organisations
sous un angle particulier et dans le cadre d’hypothèses qui lui sont
propres. La connaissance de ces hypothèses tout autant que des théories
alternatives, permet alors de mieux comprendre les comportements
organisationnels dans leur complexité et de se faire une opinion
argumentée.
Nous reprenons ici la parabole des aveugles et de l’éléphant, de John
Godfrey Saxe, citée par Mintzberg8 :
Six chercheurs d’Hindoustan,
Tous avides de savoir,
S’en allèrent voir l’éléphant
Espérant tous, dans le noir
(ils étaient aveugles les pauvres)
S’en faire quand même une notion
Grâce à leur don d’observation.
S’approchant de la bête,
Le premier arrivé se cogne
A son flanc vaste et puissant.
Il trébuche, jure et braille :
« Dieu du ciel, mais cet éléphant c’est une véritable muraille !
Le deuxième palpe une défense.
S’écrit « Hola, Qu’est-ce que c’est ? Si
rond, si lisse et si pointu ?
J’en mettrai ma main au feu,
Ce que j’ai sous les yeux, Ressemble
bien à un épieu ! ».
Le troisième s’approche à son tour.
Et rencontre, en tâtonnant,
La trompe remuante de l’animal
Se tortillant dans sa main
« Il me semble que cet éléphant
Ressemble à un serpent ! ».
Le quatrième tend la main
Et trouve un genou sur sa route.
Mes amis, pour moi aucun doute !
Il n’y a là rien d’étonnant Il est
bien clair que l’éléphant C’est
tout à fait comme un pin !
Le cinquième tombe sur l’oreille
Et s’écrit : « A quoi bon le nier ?
Sans y voir je peux vous dire
A quoi cette bête est pareille.
Un éléphant ? Quelle merveille.
C’est tout comme un éventail. A
peine approche-t-il de l’animal
Que, s’accrochant à la queue. Le
sixième, sans penser à mal,
Affirme d’un ton solennel :
« Cette chose merveilleuse que nous avons là
Est tout à fait comme une ficelle.
Et ainsi, nos chercheurs d’Hindoustan
Se disputaient aveuglément,
Chacun défendant son opinion,
Certain d’être dans le vrai.
Chacun avait certes un peu raison… Mais tous pataugeaient dans l’erreur.
»

Les théoriciens sont les aveugles et l’organisation est l’éléphant auquel


ils ont affaire. Il existe plusieurs théories qui cherchent à expliquer les
organisations. Chaque théorie ne permet, la plupart du temps, de décrire
ou d’expliquer qu’une partie des phénomènes organisationnels. Par
exemple, certaines abordent l’organisation sous l’angle des relations de
pouvoir, d’autres sous celui de la culture, et d’autres encore à travers
l’impact de l’environnement. La connaissance de l’ensemble (pour autant
que possible) de ces théories permet alors d’avoir une vision plus complète
de ce que sont les organisations et comment elles fonctionnent. Dit
autrement, il est possible d’aborder les différentes théories des
organisations non pas de manière exclusive les unes des autres, mais
comme s’enrichissant mutuellement pour parvenir à une meilleure
compréhension des organisations dans leur ensemble.
Quoi qu’il en soit, cela ne signifie pas qu’il ne soit pas possible de
prendre position et d’avoir un regard critique sur les différentes théories
existantes. Au contraire, ce n’est justement que lorsque l’on connait les
arguments sur lesquels se basent une théorie et ceux des théories
alternatives, que l’on est alors en mesure d’avoir la capacité d’analyse
nécessaire à une prise de position entre ces différentes théories et à juger
celles qui nous semblent pertinentes, ou non, pour comprendre et
expliquer les phénomènes organisationnels qui nous entourent. En
d’autres termes, notre démarche dans cet ouvrage, consiste à donner à
voir au lecteur la diversité des théories existantes afin de lui donner les
moyens de se forger sa propre opinion et de prendre lui-même position sur
les théories qui se sont développées au cours du temps autour des
organisations.
Finalement, ce dont nous nous faisons le défenseur, c’est, dans l’état
actuel des sciences de gestion, de l’importance de connaitre les
différentes théories des organisations dans leur diversité,
indépendamment des frontières disciplinaires, de sorte à développer un
esprit critique.
Le fait de replacer le développement des théories des organisations
dans leur histoire est aussi important parce qu’il permet de faire émerger
le processus de construction de la connaissance scientifique sur les
organisations. En effet, un certain nombre de théories se sont construites
en réaction aux théories précédentes, pointant le doigt sur certains aspects
qui auraient été occultés ou négligés. Il faut donc connaître les théories
antérieures pour mieux comprendre celles qui suivent. Il faut aussi
connaitre les théories les plus récentes pour prendre en compte la
complexité et l’évolution des organisations au cours du temps.
Enfin, nous avons souhaité nous placer dans une perspective aussi
neutre que cela était réalisable, c’est-à-dire sans prendre parti, mais il est
difficile d’éviter tout biais. La présentation des différentes théories qui est
faite dans cet ouvrage relève de notre interprétation, qui est elle-même le
fruit de nos influences personnelles et collectives, dont il est
nécessairement difficile de s’extraire totalement. A titre de précaution, et
afin de représenter les différents courants, nous avons retenus des
approches qui retiennent des cadres philosophiques et épistémologiques
variés. Quoi qu’il en soit, cet ouvrage n’a pas la prétention d’être exhaustif
et il a fallu faire des choix et procéder à des arbitrages dans la sélection des
champs théoriques présentés ici. Nous sommes donc conscients que,
malheureusement, nombre de théories n’ont pas pu être citées ou
développées. Il est certain que d’autres auraient fait des choix sans doute
différents. Cet ouvrage est donc par nature incomplet et nous espérons, au
cours du temps, continuer à l’enrichir pour parvenir à aborder l’ampleur de
ce que représente les théories des organisations.
Notons enfin que les organisations, en elles-mêmes, existent depuis
plusieurs millénaires. La construction des pyramides ou des palais royaux,
l’existence de commerces et d’armées dans l’antiquité, illustrent de la
présence d’organisations. Il existe par ailleurs des écrits anciens qui
abordent la structure organisationnelle, mais ces différents écrits ne
portent pas en eux de véritable généralisation en termes d’organisation.
Ainsi, Starbuck et Baumard9 (2009) considèrent que « les théories
concernant les organisations attirèrent l’attention après les années 1850,
poussées par l’accélération de changements profonds de la société. La
transformation sociale bouleversa l’organisation de l’éducation, des tâches
des employés et leur spécialisation (George, 1968, Shafritz et Ott, 1996,
Wren, 1994). Les sociétés archaïques, trois millénaires avant notre ère,
avaient des idées bien précises sur le contrôle hiérarchique, les techniques
de motivation et la compensation. Cependant, elles ne fournissaient qu’une
éducation sommaire, réduit à l’essentiel et réservée à une partie infime de
la population ; elles n’établissaient pas de distinction claire entre les
activités, fondées sur des définitions malléables des corps de métier ; elles
ne faisaient pas un grand usage de la production de masse ; et n’avaient
guère accès aux révolutions techniques qui prirent place à la fin du XIX ème
siècle ». Par conséquent, si les organisations existent depuis des
millénaires, la théorie des organisations, quant à elle, constitue une
approche disciplinaire, à la fois scientifique et enseignable, beaucoup plus
récente. Il est admis de considérer que les origines de la théorie des
organisations datent de la fin du XIXème et du début du XXème siècle, période
où les écrits sur les organisations non seulement vont connaître un
développement majeur, au point d’en faire une discipline, mais aussi
adopter des méthodes scientifiques, en vue de l’énoncé de principes
généraux.

Structuration de l’ouvrage
Un exposé des théories des organisations peut hésiter devant deux
types de présentations possibles : l’une est chronologique et analyse les
unes après les autres les diverses écoles qui se sont succédées dans le
temps ; l’autre est thématique, elle considère différents problèmes que
pose l’étude des organisations et pour chaque problème présente les
contributions des différentes écoles qui s’y sont rattachées. La présentation
chronologique a l’avantage de mettre en perspective la dimension
historique et notamment de faire apparaître la dynamique de certains
courants, qui se développent en réaction les uns par rapport aux autres.
Mais l’approche chronologique est difficile à suivre de manière stricte, car
beaucoup de courants de pensée se sont développés simultanément au
cours du XXème siècle, selon les disciplines et selon les angles d’approche
adoptés. Pour cette raison, nous avons choisi une approche plutôt
thématique ou par discipline de rattachement, même si nous cherchons à
conserver la dimension chronologique chaque fois que cela est possible et
à rappeler les contextes historiques qui sont essentiels pour mieux
comprendre l’émergence et le développement des différents courants de
pensée.
C’est à la fin du XIXème siècle, début du XXème siècle, que les premières
grandes théories des organisations émergent. Ces développements
théoriques ne sont pas sans rapport avec la Révolution Industrielle qui
donne lieu à un essor de l’industrie et un développement sans précédent
des grandes entreprises. Les auteurs considérés comme les pères
fondateurs de la théorie des organisations appartiennent à l’école
classique ou traditionnelle. Ils feront l’objet du chapitre 1 de l’ouvrage. Ils
ont pour point commun une démarche de rationalisation de l’organisation.
On y retrouve les travaux fondateurs de Taylor qui cherche à rationaliser
l’organisation du travail, ainsi que les apports de Fayol à la compréhension
de la « fonction administrative » et les travaux de Weber sur les modes
d’autorité et notamment le système rationnel-légal ou « bureaucratique ».
A partir des années 1930, les théories des relations humaines se
développent. Elles sont présentées dans le chapitre 2 de l’ouvrage. Elles
débutent avec les travaux d’Elton Mayo (expérience à l’usine de
Hawthorne de la Western Electric) et donneront lieu à de très nombreux
développements d’origine psychosociologiques, notamment sur les
relations d’influence au sein des groupes et conduiront à tout un courant
sur l’amélioration des conditions de vie au travail. Ces théories permettent
de répondre aux critiques formulées à l’encontre des théories
traditionnelles et notamment aux conséquences déshumanisantes des
principes du Taylorisme et de ses applications. Dans leur prolongement, on
recense également tout un ensemble de travaux qui s’inscrivent
aujourd’hui dans ce que l’on appelle le comportement organisationnel et
qui incluent notamment des études sur le leadership et sur la motivation
au travail.
Puis, à partir des années 1960, le courant de la contingence
structurelle vient remettre en cause le principe de « one best way »
véhiculé par les écoles précédentes, tant traditionnelles qu’en termes de
relations humaines. Le chapitre 3 présente alors un ensemble de théories
de la contingence structurelle interne et externe. Parmi celles-ci, nous
exposons des travaux sur l’impact de l’âge, de la taille, de la technologie et
de la stratégie sur l’organisation. Puis, nous abordons des théories de la
contingence externe, c’est-à-dire qui étudient différentes caractéristiques
de l’organisation en fonction de leur environnement.
L’approche thématique et disciplinaire l’emporte ensuite sur l’approche
chronologique. Différentes thématiques vont donc être successivement
abordées : l’analyse systémique, l’environnement, la prise de décision,
l’étude de la firme par les économistes, l’étude de la société par les
sociologues, et les relations de pouvoir et de négociation.
Le chapitre 4 s’intéresse à l’approche en termes de systèmes des
organisations. Initiée par Von Bertalanffy, l’analyse systémique est
aujourd’hui largement retenue en gestion. Elle a donné lieu à un certain
nombre de contributions théoriques, dont nous ne présentons qu’une
infime partie, dont ceux de Katz et Kahn ainsi que l’analyse sociotechnique.
Le chapitre 5 centre l’attention sur la prise en compte de l’impact de
l’environnement sur les organisations. Bien que les théories de la
contingence externe aient déjà intégré l’étude de l’environnement, nous
ajoutons deux approches complémentaires. D’une part des études qui
considèrent l’environnement comme dominant, telles que la théorie de la
dépendance des ressources et de l’écologie des populations ; et d’autre
part la théorie de Weick selon laquelle l’environnement est un construit
social.
Le chapitre 6 est consacré aux théories sur la prise de décision dans
les organisations, qui se développent à partir des années 1940. Ce chapitre
regroupe les travaux fondateurs d’Herbert Simon (prix Nobel d’Économie
en 1978) à l’origine de la notion de « rationalité limitée » qui va modifier la
façon d’aborder les décisions au sein des organisations. Différentes
théories modélisant les processus de prise de décision dans les
organisations sont alors présentées : la théorie décisionnelle de
l’organisation, la théorie comportementale de la firme, la théorie de
l’organisation considérée comme une collection de poubelles, ou encore la
théorie des jeux.
Le chapitre 7 se concentre sur l’entreprise. Bien que celle-ci soit bien
sûr abordée dans nombre des travaux précédents, ce chapitre présente
tout d’abord la manière dont la firme est étudiée dans la théorie
économique, puis focalise l’attention sur trois dimensions de l’entreprise
en particulier, à savoir la stratégie d’entreprise, les ressources humaines et
la culture.
Le chapitre 8, quant à lui, porte sur l’organisation et la société et
rassemble un ensemble de travaux d’influence principalement
sociologique. Une distinction est faite entre l’approche holiste et
l’individualisme méthodologique, avant d’aborder les théories qui
cherchent une troisième voie entre cette dichotomie traditionnelle. Une
pluralité de théories abordant le lien entre les organisations et la société
comme entité sont enfin présentées. Tel est le cas notamment des
approches interactionnistes, du néo-institutionnalisme et du Marxisme.
Le chapitre 9 aborde l’organisation à travers les relations de pouvoir et
de négociation qui y opèrent. Les approches de l’analyse stratégique, la
théorie de l’engagement et la théorie de la régulation conjointe sont
exposées.
_______
1 Adapté ici très librement de Porter ‘‘The parable of the spindle’’, Harvard Business Review, 1968 et
lui-même inspiré d’une célèbre recherche de White (White, W. F., ‘‘The Social Structure of the
Restaurant’’, American Journal of Sociology, Vol. 54, 1949, pp. 302-310). Elle est citée par Handy, C.
B., Understanding organizations, Harmondsworth, Penguin Books Ltd., 1976.
2 Khandwalla, P. N., The Design of organizations, New York, Harcourt Brace Jovanovich Inc, 1976, p. 5.
3 Bourricaud, F., « Organisations », dans Joffre, P. et Simon, Y. (eds.), Encyclopédie de Gestion, Paris,
Economica, 1989, 1re, 4e Ed.
4 Schein Edgar, H., Organizational Psychology (2e ed), Englewood Cliffs, N.J., Prentice Hall, 1970, p. 9.
5 Parsons, Talcott, The Social system, New York, The Free Press, 1964, p. 72.
6 Crozier, M. et Friedberg, E., L’acteur et le Système, Paris, le Seuil, 1977, p. 8.
7 Mintzberg, H., The Structuring of Organizations, Englewood Cliffs, N.J., Prentice Hall Inc., 1971.
8 Mintzberg, H. Ahlstrand, B., Lampel, J., Safari en pays stratégie, Village Mondial 1999, p. 12.
9 Pour un exposé précis du développement des théories des organisations dans l’histoire, voir
Starbuck, W. H. et Baumard, P. « Les semailles, la longue floraison et les rares fruits de la théorie des
organisations » dans Comportement organisationnel, Volume 3, Méthodes et Recherches, De Boeck,
2009, p. 25.
Bien que de nombreux écrits sur la société et l’organisation du travail
se développent dès le XVIIIème siècle (Adam Ferguson 1767 ; Adam Smith,
1776 ; Perronet, 1747), il est communément admis que la théorie des
organisations apparaît à la fin du XIX ème siècle (Charles Babbage, 1832) et
au début du XXème siècle.
Les théories dites « traditionnelles » des organisations rassemblent
alors un ensemble de « pères fondateurs » du management qui sont
considérés comme étant à l’origine des premières grandes théories
scientifiques des organisations. Taylor, Fayol et Weber sont trois grandes
figures de ces auteurs « traditionnels », qui vont initier, chacun à leur
manière, des réflexions beaucoup plus étendues sur certains aspects de
l’organisation. Ainsi, Taylor développe l’Organisation Scientifique du Travail
(OST) visant à rationaliser la production, dont les applications auront une
portée majeure dans les sociétés industrialisées. Fayol, s’intéresse à la
fonction administrative et défini l’activité du gestionnaire ou du manager,
ouvrant la voie à de nombreux travaux autour de la fonction de direction.
Enfin, Weber, quant à lui, s’intéresse aux fondements de l’autorité dans les
organisations au sens large et sera à l’origine également de nombreux
débats autour du système d’organisation « bureaucratique ».
On trouve comme point commun de ces travaux qui datent de la fin du
XIX siècle et du début du XXème siècle, une volonté de comprendre la
ème

société qui se développe dans un contexte de Révolution Industrielle, avec


comme ambition d’énoncer des principes généraux sur le fonctionnement
des organisations.

1. Le taylorisme et l’organisation scientifique du


travail
Fréderic W. Taylor (1856-1915) est un praticien américain qui
commence comme apprenti mécanicien et qui gravit rapidement tous les
échelons professionnels jusqu’au titre d’ingénieur en chef. Bien qu’admis à
Harvard, il choisit cependant de ne pas y entrer, sans doute suite à une
affection des yeux et suivra une carrière sur le tas. Ce parcours personnel
influence le fait que sa théorie de l’organisation soit centrée sur l’aspect
spécifique de l’atelier et sur le processus physique de production. Elle est
contenue dans deux de ses ouvrages essentiels publiés en 1904 et 1911
(respectivement Shop Management et Scientific Management). Il travaille
et étudie notamment à la Bethlehem Steel et à la Midvale Steel Company.
Sa théorie, appelée Organisation Scientifique du Travail (OST) part
d’un certain nombre d’observations pratiques réalisées au cours de sa
carrière professionnelle à la fin du XIX ème siècle et début du XXème siècle. Son
premier constat est celui de l’inefficacité des systèmes de production
traditionnels qu’il observe. Son second constat réside dans la nécessité
d’aborder la production de manière scientifique. Ces constats le
conduisent à énoncer un certain nombre de principes à suivre pour
rationaliser la production.

1.1. Le constat de l’inefficacité des systèmes de production


traditionnels
Le point de départ de l’analyse de Taylor, repose dans le constat
concret de l’inefficacité de la production dans les ateliers qu’il observe. Il
analyse que les sources de cette inefficacité sont principalement les
suivantes :
• Les ouvriers perdent du temps dans la réalisation de mouvements
inutiles, chacun produisant selon ses propres méthodes.
• Il existe des pertes de temps liées à la « flânerie ».
• L’encadrement est incompétent et mal formé.
• Le système de rémunération au salaire fixe conduit les salariés
performants à limiter leur production (absence d’incitation financière à
produire plus).

La « flânerie » correspond à une perte de temps qui résulte de deux


causes : « en premier lieu de l’instinct naturel et de la tendance des
ouvriers à prendre leurs aises, ce qu’on peut appeler la flânerie naturelle ;
en second lieu d’idées et de raisonnements plus ou moins confus, issus de
leurs rapports avec les autres ouvriers, ce qu’on peut appeler la flânerie
systématique »10.
Dès lors, Taylor préconise de mettre en place une nouvelle organisation
du travail, pour pallier aux insuffisances de l’organisation du travail qu’il
observe concrètement dans les ateliers, et remédier à ces
dysfonctionnements.

1.2. Une méthode scientifique d’étude des organisations


Le fondement de base de l’Organisation Scientifique du Travail (ou
Management Scientifique) est de considérer que l’organisation peut être
l’objet d’une démarche scientifique, c’est-à-dire que des lois générales
peuvent être édictées.
Il s’agit de mettre dans les mains de « professionnels » l’organisation du
travail, et de sortir de l’empirisme et de la tradition qui sont dominants à la
fin du XIXème siècle et au début du XXème siècle. Quelles que soient les
critiques qui vont être énoncées ensuite, il est important de noter que
cette approche devait, selon Taylor lui-même, profiter aux travailleurs
comme à l’entreprise. Ainsi, selon Taylor (1911) : « La disparition de cette
flânerie provoquerait un tel abaissement du prix de revient que nos
marchés intérieurs et extérieurs seraient considérablement élargis ; ainsi
disparaîtrait une des causes fondamentales de nos difficultés sociales, le
paupérisme et cette infortune serait soulagée (…). On assurerait ainsi des
salaires élevés, une tâche journalière plus courte et des conditions
meilleures de travail et d’habitation. »
Même si la réalité le contredira, Taylor pensait donc ainsi résoudre la «
question sociale », en plus de l’amélioration de la productivité.
1.3. Les principes fondamentaux de l’Organisation Scientifique du
Travail (OST)
La méthode proposée pour rationaliser l’organisation du travail est la
suivante : Taylor suggère de remplacer la gestion inefficace courante par un
système nouveau pour l’époque, qui comporte plusieurs éléments.
Consacré par le principe de division du travail, il s’agit d’élaborer une
nouvelle méthode, scientifique de travail. Il convient d’étudier, enregistrer,
classer les connaissances traditionnelles et empiriques des ouvriers
qualifiés, tout en mesurant les temps nécessaires à chaque opération. L’on
va ensuite les systématiser et les enrichir par les connaissances théoriques
et les observations sur le tas des ingénieurs du bureau des méthodes.
Ceux-ci vont ainsi élaborer les modes les plus efficaces et rapides
d’exécution du travail de production. Cette élaboration de nouvelles
méthodes comprend l’étude des temps et des mouvements. En fait, le
procédé consiste à définir les éléments de la séquence des opérations
auxquelles procèdent les salariés pour effectuer leur travail. Ensuite, les
gestes qui ne contribuent pas directement à l’exécution de la tâche sont
éliminés. Pour chaque élément, la méthode d’exécution la plus rapide
observée est sélectionnée avec l’assemblage perfectionné des gestes les
plus efficaces et les plus simples. Une nouvelle séquence d’opérations est
ainsi construite. Les temps sont observés, puis calculés, puis additionnés
pour donner la durée de l’opération et fixer les standards de performances.
Cette méthode, la meilleure et la plus rapide pour exécuter la tâche, doit
être suivie sans déviation par tous les salariés qui auront à l’exécuter et
ceci dans le temps fixé. Des études additionnelles sont nécessaires pour
placer les périodes de repos et améliorer les outils. Elles sont menées par
les ingénieurs seuls, selon le principe de la division horizontale du travail.
Chacun accomplira une tâche strictement définie, de la façon précise dont
elle est définie et cette tâche seulement.
Le système d’organisation du travail est complété par un système de
sélection et de motivation financière. Ainsi, le recrutement est
fondamental : des hommes adaptés à chaque tâche sont sélectionnés.
Ensuite, un salaire « équitable » pour une journée de travail est fixé, avec
un taux à la pièce « suffisant » et invariable tant qu’est atteint le niveau
prescrit « scientifiquement ». Au-delà de la production de la journée de
travail équitable, un système à taux différentiel est établi qui peut
permettre au salarié de dépasser de 30 à 100 % son salaire de base en
fonction du nombre des pièces supplémentaires produites. Selon Taylor,
l’établissement de ces standards est profitable à tout le monde : tant à
l’entreprise, qui maximise ainsi la productivité du travail, qu’au salarié, qui
maximise ses gains (cependant dans la limite maximum de 100 %, qui
paraissait pour Taylor ne pas devoir être dépassée).
Enfin un système de contrôle étroit est instauré. L’organisation est
complétée par un encadrement qui comprend deux éléments. D’une part
la supervision par fonctions avec des contremaîtres opérationnels, chacun
chargé d’une tâche fonctionnelle spécifique. Ces contremaîtres sont
respectivement chargés de la préparation du travail, de sa mise en œuvre,
de la qualité, de l’entretien et de la réparation des machines. Leur rôle est
complété par celui d’autres contremaîtres fonctionnels, eux-mêmes
respectivement en charge de l’ordonnancement des travaux, des fiches
d’instructions, de l’enregistrement des temps et des coûts, et de la
discipline. D’autre part, ces contremaîtres fonctionnels constituent le
premier étage d’un département centralisé et puissant, qui est chargé de «
penser ». C’est-à-dire qu’il a pour mission tout le travail d’organisation et
de conception. Il doit préparer le travail et son exécution ainsi que
l’approvisionnement, la gestion des stocks et la circulation des produits et
des matériaux. S’y ajoutent la gestion du personnel (salaires, embauche,
paie et discipline), la comptabilité, l’administration générale et
l’organisation au sens de l’entretien et du perfectionnement.
On voit que la conséquence de ce choix organisationnel était double.
Elle avait pour effet, d’une part un contrôle étroit des exécutants, et
d’autre part d’établir encore plus avant et de formellement consacrer, à
côté de la division horizontale déjà soulignée plus haut, la division
verticale du travail entre conception, par les ingénieurs du bureau des
méthodes, et exécution, par les exécutants déchargés de toute
responsabilité et de toute autonomie.

1.4. Le prolongement des travaux de Taylor


Parmi les successeurs de Taylor on peut retenir les noms de Barth,
Gantt, Emerson et des époux Gilbreth, qui poussent plus en avant la
division du travail et la spécialisation des tâches. L’addition de
perfectionnements dans l’étude des mouvements et dans le
chronométrage des temps a créé des méthodes opérationnelles dont
l’application a été généralisée dans l’industrie.
Les époux Gilbreth, l’épouse prenant la suite de son mari après le décès
de ce dernier, avaient poursuivi l’élimination de tous les mouvements
inutiles et la décomposition de tous les mouvements à utiliser en
composants élémentaires. Ils arrivent ainsi à une liste et un tableau
d’unités de travail de base représentant la totalité des mouvements
auxquels pouvait être réduit tout travail industriel. Ceux-ci ont été baptisés
THERBLIGS, l’anagramme de Gilbreth.
Les développements principaux sont également associés au Fordisme.
Ainsi, tout en s’appuyant sur les principes Taylorien de l’OST, Ford
(18631947) ajoute d’une part le travail à la chaîne et d’autre part la
standardisation des pièces. A cela s’ajoute un niveau de salaire élevé («
five dollars a day »). Ces éléments complémentaires vont permettre de
produire en grande série des biens standards à bas coût. Le travail à la
chaîne va permettre d’accentuer la division du travail et d’amplifier le
rythme de production. Quant à la standardisation des pièces, elle va
permettre de fortes économies d’échelle. Ford sera à l’origine d’un
nouveau système d’organisation dans l’automobile, puis adapté à un
ensemble d’industries, aujourd’hui encore très prégnant. Ce modèle a été
une des conditions de la réalisation de la production de masse qui a permis
l’avènement de la société de consommation.
1.5. Les apports et critiques du Taylorisme
Le Taylorisme a été violemment critiqué. Avant de passer ces critiques
en revue il convient de constater que le Taylorisme, et ses applications et
développements, ont engendré des gains de productivité considérables. Il
a rendu possible le développement de l’industrie moderne et la production
de masse au début du XXème siècle. Ceci s’explique très simplement. Il est
clair que la courbe d’apprentissage d’un travail élémentaire et répété est
considérablement plus rapide que celle d’un travail complexe et à cycle
long. Plus l’on répète une opération simple, mieux on la fait et plus un
travail est simple et plus on l’apprend vite. D’autre part, étant donné la
décomposition du travail en tâches élémentaires, un contrôle plus étroit
est facilité. Le Taylorisme a été, avec le perfectionnement du travail à la
chaîne, une des conditions de réalisation de la production de masse. Il faut
bien constater qu’encore à l’heure actuelle, et malgré les critiques
énoncées, une grande partie du travail industriel dans le monde entier est
exécuté suivant des méthodes qui s’inspirent du Taylorisme et du
Fordisme, tout au moins pour ce qui concerne la production de biens
standardisés produits en grandes quantités.
Cependant les reproches qui ont été faits au Taylorisme sont
importants. Il est à noter que des critiques s’élèvent contre Taylor dès son
vivant. Ainsi, ce dernier se heurte à de vives résistances des salariés lors de
la mise en place de ses méthodes à la Midvale Steel. Sur le plan pratique, la
critique principale faite au Taylorisme et à ses applications est d’entrainer
une forme de travail déshumanisant, conduisant à traiter l’homme au
travail comme une machine, selon le modèle illustré par Charlie Chaplin
dans « Les Temps modernes ». Ceci est d’ailleurs le cas bien que la chaîne
de montage ne soit nullement préconisée ni même envisagée par Taylor,
mais seulement ensuite par Ford. L’application des principes de l’OST,
combinée à la mise en place du travail à la chaîne, a conduit à créer des
postes de travail industriel où les tâches à accomplir au service d’une
machine comportent un cycle ultra court répété à l’infini.
En résumé donc, malgré son efficacité, les reproches faits au Taylorisme
du fait essentiellement de la double division du travail, horizontale et
verticale, sont de créer des tâches répétitives, monotones, aliénantes et
sans intérêt. S’y ajoute spécifiquement pour Taylor, le reproche d’avoir
considéré que la seule motivation possible pour l’homme était l’argent11.

2. Fayol et l’activité administrative : gérer comme


profession
Henri Fayol (1841-1925) est un ingénieur français. Comme Taylor, c’est
au départ un praticien confirmé, qui, au cours d’un parcours professionnel
réussi, a réfléchi sur ses réalisations et ses succès et en a tiré des
conclusions qu’il va théoriser. Il commence sa carrière comme ingénieur et
passe toute sa vie professionnelle de 1888 à 1918 comme dirigeant dans
l’entreprise Commentry-Fourchambault-Decazeville dont il finit à la tête.
Contrairement à Taylor, il ne débute pas comme ouvrier, mais comme
ingénieur diplômé, et il ne devient pas consultant, mais exerce, toute sa
carrière durant, des fonctions de responsabilité. Sans doute pour cette
raison, il s’intéresse essentiellement au travail du dirigeant, que l’on peut
élargir aujourd’hui à celui du manager. Après un certain nombre de
publications techniques, c’est en 1916 qu’il publie son ouvrage intitulé
Administration industrielle et générale.

2.1. L’activité administrative


En se basant donc sur son expérience professionnelle et ses
observations et non sur une réflexion abstraite, Fayol estime que toutes les
activités dans l’entreprise se répartissent entre 6 catégories :
• Les activités techniques : les activités de production, transformation,
fabrication.
• Les activités commerciales : achat, vente et échange.
• Les activités financières : recherche et usage optimal des capitaux.
• Les activités de sécurité : protection des personnes et des biens.
• Les activités comptables (incluant la tenue de statistiques).
• Les activités administratives.

Fayol va s’intéresser tout particulièrement à cette dernière activité dite


« administrative ». Celle-ci comporte elle-même cinq composantes (PO3C)
:
• Prévoir : estimer et préparer l’avenir.
• Organiser : allouer les différentes ressources nécessaires au
fonctionnement de l’entreprise.
• Coordonner : synchroniser les actions des différents membres de
l’entreprise.
• Contrôler : vérifier que tout se passe conformément au programme
établi.
• Commander : tirer le meilleur parti de tous les membres de
l’entreprise.

La notion de prévoyance, particulièrement importante pour Fayol,


constitue un de ses apports originaux. C’est pour lui un rôle essentiel de
l’administrateur. Il s’agit à la fois d’estimer ce que sera le futur et de s’y
préparer. On y procède d’abord par un ensemble de prévisions (capital,
production, coûts, vente, prix, etc.). Ces prévisions étant elles-mêmes
faites à deux horizons du temps, un an et dix ans. Les prévisions à dix ans
sont revues chaque fois que celles à un an en font ressentir le besoin, mais
en tout état de cause au moins une fois tous les cinq ans. C’est là, de
manière annonciateur, l’établissement du principe de la planification
d’entreprise glissante.
Ceci noté, chaque poste dans l’entreprise (y compris les postes ouvriers
et de pure exécution) comporte l’exercice d’activités contenues dans
chacune des six catégories. Cependant, ces activités ont des poids
différents selon les niveaux et les rôles dans l’entreprise.
Cette découverte que toute activité dans l’entreprise, physique ou
intellectuelle, puisse se décomposer en une gamme réduite d’activités qui
se répartissent entre six catégories, de chacune desquelles elles
contiennent une part, constitue un premier apport déjà frappant et
original. Fayol constate par ailleurs que parmi les différentes composantes,
c’est la prévoyance qui est la plus importante. En effet, elle seule doit être
accomplie par le dirigeant lui-même, alors que toutes les autres pourraient
être déléguées à des spécialistes (de la technique, de la vente, de la
finance, etc.). De plus, Fayol préconise l’utilisation de tableaux qui
permettent de saisir tout de suite la structure de l’entreprise. Ces tableaux
sont souvent considérés comme l’ancêtre des premiers « organigrammes
».

2.2. Énoncer des principes pour mieux enseigner la fonction


administrative
Fayol observe et regrette, qu’à son époque, l’enseignement des
capacités administratives (on dirait aujourd’hui managériales ou de
gestion) n’ait pas sa place, car il estime que celles-ci devraient s’apprendre
au même titre que les capacités techniques, d’abord en théorie et ensuite
sur le terrain. Cependant, elles ne sont même pas enseignées, en
particulier dans les écoles d’ingénieurs où elles seraient pourtant
indispensables. Après s’être élevé contre cette carence, il attribue cette
lacune pour une large part à l’absence d’une théorie de l’administration
bien développée et généralement acceptée. Il s’attache donc à l’établir et
procède à l’élaboration d’une telle théorie qui se résume sous forme de 14
principes. L’application de ces 14 principes permet l’exercice des 5
composantes de la fonction administrative listées plus haut.
Il ne recommande cependant pas leur application rigide, admet qu’il en
existe d’autres et que leur usage dépend des circonstances. Ces caractères
pragmatiques rendent d’ailleurs l’application de sa théorie plus flexible et
beaucoup moins rigide que celle de la méthode de Taylor. Cet aspect sera
cependant malheureusement oublié par certains de ses successeurs. Les
14 principes d’administration de Fayol se résument ainsi :
1. Division du travail : au sens de la spécialisation pour accroître
l’efficience et qui doit s’appliquer aussi bien au travail administratif que
technique.
2. Autorité : corollaire à la responsabilité exercée et née de celle-ci.
L’autorité dérive de la fonction du dirigeant mais aussi de ses qualités
personnelles.
3. Discipline : qui requiert de bons supérieurs à tous niveaux.
4. Unité de commandement : chaque employé ne doit relever que d’un
supérieur.
5. Unité de direction : chaque groupe d’activités dirigé vers un même but
doit avoir un seul dirigeant et un seul plan.
6. Subordination des intérêts individuels à l’intérêt général (de
l’entreprise). Le rôle du dirigeant est de réconcilier les deux.
7. Rémunération et méthodes de paiement équitables qui apportent le
plus de satisfaction possible au salarié et à l’employeur.
8. Centralisation de l’autorité suivant les circonstances pour apporter le
meilleur retour en fonction des décentralisations nécessaires.
Cependant le dirigeant qui conserve un maximum d’autorité évite les
divergences d’intérêts qui tendent à se produire automatiquement
quand les échelons hiérarchiques se multiplient.
9. Hiérarchie matérialisée dans une chaîne scalaire de supérieurs (de
commandement et d’autorité).
10. Ordre matériel et moral : une place pour chacun et chacun à sa place :
une place pour chaque chose et chaque chose à sa place.
11. Équité : les supérieurs dans leurs rapports avec leurs subordonnés
devront faire preuve d’une combinaison de justice et de bonté qui
suscite à leur égard loyauté et dévouement.
12. Stabilité du personnel afin d’éviter les coûts et les dangers d’un
roulement trop rapide du personnel qui résulte et crée à la fois la
mauvaise gestion.
13. Initiative dans la conception et l’exécution d’un plan.
14. Union du personnel ou esprit de corps : d’une part c’est le rappel que
l’union fait la force et que tous les efforts doivent tendre vers un seul
but, mais c’est aussi en un sens beaucoup plus moderne la mise en
avant de l’importance du travail d’équipe et de la communication.

Ces principes constituent un ensemble dont - dans l’esprit de Fayol - la


liste n’est pas exhaustive. D’autres peuvent et pourront venir s’y ajouter.
D’autre part, ces principes ne sont pas d’application absolue : ils sont
relatifs et peuvent comporter des exceptions si les circonstances l’exigent.
Cette place laissée à la souplesse dans l’énumération et l’application des
principes répond pour partie et par avance au reproche de rigidité que
nombre d’auteurs opposèrent aux apports de la théorie classique.
De plus, Fayol estime que ses idées s’appliquent à l’administration de
toutes les organisations et pas seulement aux entreprises. Dans les mêmes
limites il pense qu’elles peuvent aussi bien concerner les organisations à
but non lucratif, administrations étatiques, etc.
Il convient de souligner le caractère moderne et précurseur de l’œuvre
de Fayol. Les concepts qu’il développe sont ceux qu’à l’heure actuelle la
grande entreprise moderne emploie le plus fréquemment : planification
glissante, séparation des activités techniques et de gestion des cadres, rôle
des ressources humaines, etc.
Il s’ensuit que Fayol est considéré comme le père de la gestion en tant
que discipline et comme métier. Il est en fait le créateur de l’idée de la
séparation de l’activité de gestion et de celle de production technique d’un
bien ou service déterminé. Sa fonction « administrative » définit l’activité
du gestionnaire ou du manager, applicable à toutes les organisations en
tant que science autonome et indépendante. L’énoncé des principes à
suivre pour mettre en place la fonction administrative permet de
l’enseigner et de la formaliser pour la transmettre. Enfin, Fayol est
considéré comme l’inventeur de l’organigramme, représentation formelle
des relations hiérarchiques au sein de l’organisation.

3. La fonction de direction et le manager après Fayol


L’œuvre de Fayol a eu un retentissement colossal et donnera lieu à de
très nombreux prolongements d’auteurs qui s’inscrivent dans l’école dite «
classique ». Tel est le cas de Urwick, Gulick, Sloan ou encore Drucker.
Ces auteurs ont prolongé les travaux de Fayol en énonçant différents
principes fondamentaux de la fonction de direction.
L’anglais Lyndall Urwick12 (1891-1983), dans un ouvrage intitulé The
Elements of Administration publié en 1943, propose 10 concepts
organisationnels : Objectifs, spécialisation, coordination, autorité,
responsabilité, définition, correspondance, supervision, balance et
continuité.
• Objectifs : chaque unité opérationnelle a une mission à effectuer, un
objectif, qu’elle doit clarifier.
• Spécialisation : chaque unité opérationnelle a un champ d’activité
précis.
• Coordination : elle permet de diriger les actions individuelles vers le
but commun.
• Autorité : elle donne le pouvoir de décider, de commander, diriger,
allouer des ressources.
• Responsabilité : il convient de rendre compte de ses actes en
responsabilité.
• Définition : elle vise à clarifier les activités et permet de mieux
délimiter le champ d’action des différents postes.
• Correspondance : il s’agit d’une forme d’équilibre entre l’autorité
déléguée et la responsabilité de celui qui l’exerce.
• Supervision : un manager doit superviser un nombre limité de
personnes.
• Balance : Il faut un équilibre entre les unités opérationnelles.
• Continuité : capacité à s’adapter au changement.

L’américain Luther H. Gulick (1892-1993), propose quant à lui 7


principes à travers le modèle POSDCORB (pour Planning, Organizing,
Staffing, Direction, Coordinating, Reporting, Busdgeting).
P = Planification, vision globale des activités.
O = Organisation, vise à développer une structure formelle permettant
de répartir le travail.
S = Gestion des ressources humaines, formation, encadrement.
D = Direction, prise de décision.
CO = Coordination des activités.
R = Reporting, étude des informations et contrôle.
B = Budgétisation, étude du financement.
Alfred P. Sloan (1875-1966), à l’appui de son expérience à la General
Motors, est à l’origine du développement des entreprises
multidivisionnelles et décentralisées. Ainsi, dans un contexte de crise, en
1921, Sloan parviendra avec succès à transformer General Motors grâce à
la mise en place d’une forte décentralisation par division, d’une
planification stratégique et d’une structure multi-divisionnelle. Son
approche peut être mise en relation avec la démarche prônée par Fayol
dans la mesure où elle est centrée sur la tâche et dépersonnalisée.
Influencé par Sloan, Peter Drucker13 (1909-2005), quant à lui, insiste sur
trois étapes du management moderne : la fixation des objectifs, le suivi de
la réalisation du travail et l’évaluation des résultats obtenus.
• La fixation des objectifs à atteindre : les managers doivent déterminer
des objectifs à atteindre, puis les expliciter aux salariés et leur donner
les moyens et ressources nécessaires pour les réaliser.
• L’organisation (pilotage) : elle s’appuie sur des outils de mesure
permettant d’analyser l’atteinte des objectifs et donc la performance
de l’entreprise.
• La mesure des résultats : il convient d’évaluer les résultats au moyen
d’indicateurs spécifiques fiables.

Pour ce faire, le manager doit aussi tenir compte de la motivation des


salariés et pour cela la communication est essentielle. Le développement
des individus et la formation constituent également des points d’attention.
L’approche de Drucker conduit notamment à prendre en compte une
vision à long terme de la performance qui repose sur la cohésion et la
coordination interne. Plus tard, Drucker s’intéresse au modèle japonais et
intègre l’importance du marketing dans ses analyses. Ces différents aspects
en font une théorie moderne du management, même si nous l’intégrons
dans le prolongement des théories traditionnelles.

4. Max Weber et la bureaucratie


Contrairement à Taylor, Max Weber (1864-1920) est un universitaire et
non un praticien. Professeur d’Université dans l’Allemagne de la fin du
XIXème siècle et du début du XX ème siècle, il est titulaire d’une Chaire de
Philosophie du Droit.
Il convient de noter que le cadre conceptuel des travaux de Max Weber
est beaucoup plus large que celui que nous présentons ici. Son apport
d’une ampleur considérable dans de multiples domaines en fait
notamment un des fondateurs de la sociologie dite « compréhensive » ou «
interprétative ». Il expose également dans un ouvrage intitulé « l’éthique
protestante et l’esprit du capitalisme » (1905) en quoi la religion
protestante a permis l’essor du capitalisme. Après avoir exposé brièvement
sa démarche sociologique, nous centrons l’attention ici sur les aspects de
sa théorie relative à l’analyse des sources d’autorité et notamment son
étude du modèle bureaucratique.
4.1. La sociologie compréhensive ou interprétative
Pour Weber, l’objet de la sociologie est de comprendre la signification
que les acteurs sociaux attachent à leurs actions dans les situations
d’interaction sociale.
Ainsi, Weber14 s’intéresse à l’activité sociale, qu’il définit comme suit : «
nous entendons par “activité” un comportement humain quand et pour
autant que l’agent ou les agents lui communiquent un sens subjectif. Et par
activité “sociale” l’activité qui, d’après son sens visé par l’agent ou les
agents, se rapporte au comportement d’autrui, par rapport auquel
s’oriente son déroulement. » Cette définition de l’activité sociale est
centrée sur l’interaction des individus les uns avec les autres. L’activité
sociale est donc d’une part le comportement d’individus en situation
d’interaction sociale, et d’autre part une action à laquelle l’acteur social
donne un sens subjectif en rapport avec le comportement d’autrui.
L’action sociale est une action dans laquelle l’acteur prend en compte la
façon dont il anticipe le comportement des autres acteurs.
La question centrale qui se pose au sociologue est de savoir quel sens
donner à une action sociale. Comment l’interpréter ? Pour cela, il importe
de se demander quelle signification l’acteur social donne à sa relation avec
l’autre. Il s’agit de comprendre la subjectivité de l’acteur social en
interrelation avec d’autres acteurs sociaux.
Par conséquent, la réalité sociale ne peut être appréhendée qu’à
travers les intentions des acteurs. Dans la sociologie compréhensive,
l’acteur est situé au centre du dispositif de recherche. Le chercheur
s’intéresse aux perceptions et aux intentions des acteurs. C’est le sens, la
signification, que les individus donnent à leurs actes qui constitue le
véritable objet de recherche. La sociologie compréhensive porte sur le sens
du vécu.
Weber distingue alors quatre types de motivations des individus :
• Rationnelles en finalité.
• Rationnelles en valeur.
• Affectuelles ou émotionnelles.
• Traditionnelles.

L’action peut être rationnelle par rapport à des objectifs clairement


définis de l’acteur (rationnelle en finalité). L’action peut être rationnelle par
rapport à des valeurs. L’action peut être intentionnelle par rapport au
sentiment qu’éprouve l’acteur (émotionnelle). L’action peut être
intentionnelle par rapport à la tradition. Dit autrement, l’action est
cohérente par rapport soit aux intérêts de l’acteur, soit à ses valeurs, soit à
ses sentiments, soit à ses habitudes.
Par conséquent, la sociologie compréhensive considère que la société
n’existe pas en dehors des représentations des individus. La réalité sociale
doit alors être appréhendée à travers les intentions des acteurs
(conscience, valeurs, normes, motivations, contraintes).

4.2. Les différents modèles d’autorité


Max Weber s’interroge sur les raisons générales de l’obéissance des
individus au sein des organisations.
Il distingue trois modèles d’organisations, qui s’appuient sur trois
modèles d’autorité :
1. Le modèle charismatique où l’organisation fonctionne par dévouement
de ses membres à un héros. L’autorité est liée aux caractéristiques
propres à la personne, aux sentiments. Le groupe fonctionne de
manière émotionnelle.
2. Le modèle traditionnel où elle fonctionne soit par obéissance des
membres aux croyances et au caractère sacré de ceux qui gouvernent,
soit par soumission de ses membres aux coutumes, usages et
précédents. L’autorité s’appuie sur les valeurs, la tradition.
3. Le modèle rationnel-légal ou bureaucratique, basé sur la règle et
établi pour un but, institution dominante de la société moderne. Il
s’appuie sur une logique instrumentale.
Dans l’organisation charismatique c’est la croyance des membres dans
les qualités exceptionnelles de leur héros (chef) qui assure le
fonctionnement de l’organisation en basant ainsi son autorité sur une
logique de soumission affective. Prophètes, chefs de guerre ou gourous,
illustrent ce dévouement aveugle des gouvernés envers celui qui les guide.
Le modèle traditionnel est celui où l’autorité du dirigeant est légitimée
par la croyance en la nature inviolable de la routine quotidienne héritée
des anciens et la certitude que le passé doit se reproduire. C’est
l’obéissance au roi car il est le dépositaire de l’autorité divine, ou bien
l’obéissance à l’habitude et la coutume érigées en règle permanente de
vie. Bien entendu les dirigeants ont tout intérêt à entretenir ce modèle.
Celui-ci est loin d’avoir complètement disparu ainsi qu’en témoignent les
injonctions fréquemment entendues dans diverses organisations telles que
: « c’est ainsi que l’on a toujours fait les choses ».
Dans le modèle appelé « rationnel légal » ou « bureaucratique »,
l’autorité découle de la légalité des ordres et de la légitimité de ceux qui les
donnent. Ses principales caractéristiques sont exposées dans un ouvrage
posthume de Weber publié en 1922, intitulé Économie et société.
La Bureaucratie définie par Weber consiste dans le règne de la règle
opposée à celui du bon vouloir d’un individu. Il s’intéresse, en fait, aux «
Bureaux » chargés des fonctions administratives sur la base de l’exemple
de l’armée prussienne. Analysant la structuration de l’organisation en
Bureaux, il qualifiera donc son modèle de « Bureaucratique » par
opposition aux systèmes anciens. Celui-ci est applicable à toutes les
organisations.
Notons que l’approche de Weber s’appuie sur la notion d’idéal type.
L’idéal type fonctionne comme une synthèse de la réalité qui accentue
certaines caractéristiques. Un idéal type est une construction théorique qui
permet de réaliser des comparaisons avec la réalité et d’analyser les écarts.
Tel est le cas des trois modèles d’autorité décrits par Weber. Ils n’existent
pas nécessairement en tant que tel dans la réalité.
4.3. Le modèle rationnel légal ou « bureaucratique »
Le modèle rationnel légal ou « bureaucratique » repose sur les idées
suivantes :
• L’établissement de normes ou règles sur les membres du groupe par
accord mutuel ou par application de la rationalité.
• Un corps de règles abstraites établies intentionnellement et écrites.
• Ceux en position d’autorité occupent une « fonction » dans l’exercice
de laquelle ils sont sujets à un ordre impersonnel.
• Celui qui obéit à l’autorité ne le fait qu’en tant que membre du groupe
et seulement dans l’obéissance aux règles.
• Cette obéissance n’est pas due à la personne qui individuellement
occupe une fonction, mais à la position qu’il occupe dans un ordre
impersonnel.

Il en résulte donc une organisation continue de fonctions liées par des


règles. Les fonctions délimitent des sphères de compétences spécifiques et
d’autorité qui incluent une obligation d’accomplir certaines tâches, définies
en fonction d’une division systématique du travail et l’octroi de l’autorité
suffisante à son occupant pour accomplir ses tâches avec des moyens de
coercition strictement définis et dont l’usage est soumis à des conditions
précises. Cet ensemble constitue une unité administrative. Il s’y ajoute
l’organisation hiérarchique des fonctions, une formation spécialisée aux
règles qui les régissent qu’elles soient techniques ou normatives, et la
démonstration d’une qualification suffisante pour les assumer ; la
séparation de l’exercice des fonctions et de la propriété des moyens de
production, ainsi que de la propriété privée du titulaire ; la non
appropriation de sa fonction par le titulaire ; la formulation par écrit de
toutes les règles de décisions et actes administratifs.
Hors le chef de l’organisation, tous les membres du système
bureaucratique sont :
• Personnellement libres et sujets uniquement à leurs obligations
officielles et aux règles impersonnelles qui régissent leur travail.
• Organisés en une hiérarchie de fonctions clairement définies.
• Situés dans des fonctions avec une sphère de compétence légalement
définie, occupant cette fonction par contrat en vertu d’une sélection
objective.
• Sélectionnés sur la base de leurs qualifications techniques et nommés
et non élus (la plupart du temps après une sélection par examen ou sur
diplôme).
• Payés en salaires fixes avec des retraites en fonction de leurs rang et
statut et pouvant toujours démissionner mais licenciables seulement
pour des causes graves et prévues à l’avance.
• Occupant leur fonction comme unique ou principale occupation.
• Y faisant carrière, promus par leurs supérieurs en raison de
l’ancienneté ou des résultats, ou des deux, par appréciation des
supérieurs.
• Sans s’approprier leurs fonctions, séparées de la propriété des moyens
d’administration.
• Sujets à une discipline stricte et systématique et au contrôle de leur
conduite dans leurs fonctions.

Pour Weber, non seulement le modèle d’organisation rationnel légal ou


bureaucratique est celui qui se développe au XXème siècle, mais il présente
d’énormes avantages. Il remplace la faveur ou le népotisme par la règle et
protège les salariés contre l’arbitraire et la discrimination. Il a un
comportement prédictible et stable. Il garantit autant que possible la
compétence de ceux qui sont employés. Historiquement la rationalité de
ce système vient s’opposer à une tradition aristocratique où naissance et
privilège tenaient lieu de loi.
Il est important de faire deux remarques concernant le terme de «
bureaucratie » tel qu’il est utilisé ici dans les travaux de Weber.
Premièrement, le modèle bureaucratique peut concerner toutes les
organisations, qu’elles soient publiques ou privées. Il serait donc erroné
d’assimiler « bureaucratie » et « administration » au sens des
établissements publics. Ainsi, Weber (1922) précise-t-il : « Le principe de
l’autorité hiérarchisée se retrouve dans toutes les structures
bureaucratiques : dans les structures étatiques et ecclésiastiques comme
dans les grands partis politiques et les entreprises privées. Le caractère
bureaucratique ne dépend en rien du fait que son autorité soit appelée
privée ou publique ».
Deuxièmement, le terme de « bureaucratie » peut avoir aujourd’hui
dans son sens courant, une connotation « péjorative », liée aux rigidités de
certaines administrations publiques. Cet aspect péjoratif n’est nullement
présent dans les travaux de Weber. A l’opposé, le modèle bureaucratique
est celui qui se développe à la fin du XIX ème siècle et début du XXème siècle et
constitue un progrès certain sur le passé en ce qu’il s’appuie sur des règles
et supprime l’arbitraire. Force est par ailleurs de constater qu’il constitue
bien aujourd’hui le modèle dominant dans les sociétés modernes.
Quoi qu’il en soit, le modèle bureaucratique développé par Weber a
fait l’objet de nombreuses critiques, qui sont développées plus loin. Notons
que ce qui est souvent reproché aux bureaucraties, c’est de ne pas
fonctionner comme elles le devraient ! C’est bien là où l’on constate que le
modèle rationnel légal Weberien est un idéal type et non une réalité.

5. Approfondissements et critiques de la
bureaucratie
Les travaux sur la bureaucratie ont connu d’une part un ensemble de
d’approfondissements, et d’autre part de nombreuses critiques à son
égard.
5.1. L’approche structuro-fonctionnaliste
Le premier effort d’approfondissement de la bureaucratie est le fait
d’une école représentant le courant dominant de la sociologie
nordaméricaine des années 1950 et 1960. Celle-ci a été baptisée école
structurofonctionnaliste15. Cette école soutient, d’une part, que la structure
des organisations découle de leurs fonctions mais aussi, d’autre part, que
les organisations sont fonctionnelles, c’est-à-dire qu’elles remplissent un
but prédéterminé, et qui n’est pas remis en cause. Cette analyse d’ailleurs
ne s’intéresse aux organisations que comme l’application d’une réflexion
beaucoup plus vaste qui porte globalement sur la société. Elle trouve une
expression achevée et modélisée dans l’œuvre de Talcott Parsons16.
Robert K. Merton17 (1910-2003) reconnaît au préalable que l’application
des règles et de l’impersonnalité de la bureaucratie Wéberienne produit
des résultats positifs et en particulier un degré élevé de prédictibilité et
d’efficacité, du moins initialement. Mais il peut se produire ensuite un
phénomène qu’il qualifie de « déplacement des buts ». Son essence tient
en ce que la conformité à la règle va empêcher la flexibilité. Les règles qui
régissent la bureaucratie, et qui sont précisément élaborées uniquement
dans le but d’assurer son bon fonctionnement, en viennent à prendre une
valeur symbolique et d’objectif pour elles-mêmes. Les buts de
l’organisation, les objectifs pour lesquels elle a été conçue sont perdus de
vue. Les règles qui initialement ont été créées pour être mises au service
de ces objectifs et pour mieux les atteindre deviennent primordiales et
dépassent ou déplacent ces objectifs. L’on suit le règlement, même si dans
une situation particulière donnée il conduit à des résultats absurdes, et
même contradictoires à la vocation de l’organisation qu’il a cependant été
édicté en principe pour servir.
Un deuxième effet, ou une variante du premier, apparaît ensuite et
consiste en ce que l’on appelle le phénomène de la « sous-optimisation ».
Une des composantes de l’organisation, qui s’est vue affecter une mission
particulière, au service des buts de cette dernière, les perd néanmoins de
vue et poursuit ce qu’elle considère sa mission propre au détriment des
objectifs globaux.
De plus, un troisième mécanisme peut apparaître : « l’esprit de corps ».
En effet, les membres de l’organisation bureaucratique tissent entre eux
des liens privilégiés, qui peut favoriser l’émergence d’un esprit de corps qui
bloque tout changement et qui les sépare définitivement de l’objectif qu’ils
sont censés servir. L’inefficacité et le respect absolu des règles ont alors
définitivement pris le pas sur la poursuite des buts de l’organisation.
Merton décrit également un concept à champ plus large mais aisément
applicable aux objectifs des organisations : les « fonctions manifestes et
latentes » des processus sociaux. Ces dernières sont les fonctions
inconscientes et non prévues de ces mêmes processus qui jouent à
l’encontre des premières et peuvent s’y opposer. Par exemple, la fonction
manifeste de la prohibition est de supprimer les effets néfastes de l’alcool,
mais elle peut créer la fonction latente de l’alcoolisme clandestin, sans
compter une organisation criminelle monopolisant la production de
l’alcool.
Dans son étude sur la TVA (Tennessee Valley Authority) Philip
Selznick (1919-2010) confirme les phénomènes de « déplacement des
18

buts » et de « sous-optimisation » par la poursuite exclusive des objectifs


propres des sous-groupes qui existent au sein de l’organisation, du fait de
la spécialisation des individus et des tâches. Il confirme ainsi que chacun
de ces groupes va poursuivre ses objectifs personnels, définis à son propre
niveau. Cependant, il démontre également que ces groupes peuvent avoir
des buts associés à des intérêts particuliers existant à l’extérieur de
l’organisation et éventuellement différents ou même divergents de ceux de
l’organisation elle-même.
A. Gouldner19 s’attache lui aussi aux dysfonctionnements de
l’organisation bureaucratique. Il part de l’étude d’une mine et d’une usine
de production et de traitement du gypse aux USA dans la région des
Grands Lacs au début des années 1950.
La communauté où elle se situe est homogène, conservatrice dans un
environnement semi-rural. Dans une première étape, la gestion de
l’entreprise est laxiste, basée sur des compromis et des ententes mutuelles
: minimum de production assuré, faibles contraintes disciplinaires,
absentéisme et retards souvent tolérés, absence de conflits, etc. Gouldner
la qualifie de « modèle indulgent ». Toutefois la Direction générale au
siège, éloignée, ayant à faire face à une concurrence accrue dans la
période de croissance de l’après-guerre, profite du décès du directeur
d’usine pour le remplacer. Son successeur promu, venant d’une usine plus
petite et dûment préparé par la Direction générale, procède
immédiatement à une sévère remise en ordre : licenciements, importation
d’un nouveau directeur du personnel, supervision étroite et abandon des
anciennes tolérances.
Gouldner observe la succession des modes de gestion, le conflit qui en
résulte, les méthodes et tactiques employées par les ouvriers, le directeur,
les diverses parties de l’encadrement. Il en déduit le rôle essentiel et
ambigu des règles dans l’organisation : elles remplacent la nécessité de
donner des ordres et justifient les choix à faire, elles font écran et
remplacent la présence permanente du supérieur, elles facilitent le
contrôle à distance de salariés récalcitrants, elles légitiment les sanctions,
elles autorisent le supérieur à échanger leur non application contre des
concessions et enfin elles protègent le salarié à qui on ne peut demander
plus que ce que la règle prescrit.
Gouldner sur la base de ces observations distingue trois formes de
bureaucraties :
1. La fausse bureaucratie où aucune des parties n’a d’intérêt acquis dans
l’observation des règles. Elles ne sont ni respectées ni appliquées, ce
qui n’entraîne pas de sanctions, ne crée pas de conflits mais détruit
leur efficacité, car elles sont violées de façon routinière dans l’accord
tacite général.
2. La bureaucratie représentative où les règles sont établies en commun,
représentent des intérêts acquis réels, sont respectées et appliquées,
ce qui crée quelques tensions mais peu de conflits ouverts et une
certaine participation mutuelle.
3. Enfin la bureaucratie punitive où les règles imposées par un groupe à
l’autre (direction ou salariés), sont appliquées impérativement par lui
alors que l’autre tente de les contourner, entraînant des sanctions pour
leur non-respect, mais d’un seul côté et créant un niveau élevé de
tensions et de conflits.

En mettant en évidence l’existence de plusieurs types bureaucratiques,


Gouldner remet donc en cause l’idéal type bureaucratique de Weber et
montre que le modèle d’organisation bureaucratique est complexe et
comprend plusieurs facettes.

5.2. L’école d’Aston


Un certain nombre de travaux menés par l’Ecole d’Aston 20, vont
également mettre en évidence la pluralité des modèles bureaucratiques.
Ainsi, quatre configurations d’organisations sont isolées en fonction des
facteurs retenus, présentées sous forme d’un tableau :
Structuration des activités

Basse Haute

Haute Bureaucratie Bureaucratie complète


personnalisée
Concentration de l’autorité
Basse Bureaucratie implicite Bureaucratie de flot de
travail

La forme de l’organisation découle de cette classification, en termes


notamment de longueur de la chaîne de commandement, de l’étendue du
contrôle, du pourcentage de personnel spécialisé, et du pourcentage de
personnel administratif.
La bureaucratie de flot de travail est plutôt le fait d’organisations
manufacturières, de forte taille, indépendantes ou relativement
autonomes au sein d’un groupe, avec de fortes chances d’utiliser des
technologies automatisées et intégrées, une forte structuration des
activités et une faible centralisation, avec beaucoup de décisions laissées
aux unités opérationnelles.
La bureaucratie personnalisée, peu autonome, présente une forte
concentration de l’autorité et une faible structuration des activités, les
employés étant des professionnels de leurs tâches, avec un contrôle
hiérarchique personnalisé.
La bureaucratie complète présente à la fois une forte structuration et
une forte concentration de l’autorité avec des unités très peu autonomes
dans des groupes étroitement contrôlés du sommet.
Enfin, les bureaucraties implicites ou latentes, présentent une faible
structuration et une faible concentration mais un contrôle hiérarchique
personnalisé. Elles sont caractéristiques des petites firmes.

5.3. Crozier et le cercle vicieux bureaucratique


Michel Crozier21 (1922-2013) propose une analyse du système
bureaucratique dans le contexte français à partir de deux études de cas : «
l’agence comptable parisienne » et le « monopole industriel ». Il va mettre
en évidence la présence d’une forte résistance au changement, voire
d’importantes rigidités, au sein des structures bureaucratiques.
Crozier met en évidence que le fonctionnement des organisations
bureaucratiques conduit à des cercles vicieux liés à l’impersonnalité des
règles. Ainsi, nous dit Crozier : « un système d’organisation bureaucratique
est un système d’organisation dont l’équilibre repose sur l’existence de
cercles vicieux relativement stables, qui se développent à partir du climat
d’impersonnalité et de centralisation ». En effet, il existe des marges
d’interprétation des règles qui conduisent à l’existence de « zones
d’incertitudes ». Or, au sein de ces zones d’incertitudes se dessinent des
luttes de pouvoir. Ainsi, chacun au sein de l’organisation tente de contrôler
ces zones d’incertitude afin d’étendre son pouvoir. Dès lors, se
développent des pouvoirs parallèles, non prévus par la règle, qui peuvent
agir en sens inverse de ses objectifs.
De plus, la bureaucratie engendre une forte rigidité face au
changement et est défavorable à l’innovation. En effet, force est de
constater que le changement est permanent et qu’il est nécessaire pour les
organisations de s’y adapter. Or, les organisations bureaucratiques, dans
leur fonctionnement même, empêchent toute décision décentralisée, et
de ce fait, ne permettent pas la prise de décision par les échelons
inférieurs. Dit autrement, les centres décisionnels sont éloignés de ceux
qui rencontrent concrètement les problèmes et les empêchent donc de
pouvoir faire preuve d’autonomie et d’être source d’innovation.
Par conséquent, l’ensemble de ces critiques explique que le terme «
bureaucratie », synonyme de progrès pour Weber, ait pris aujourd’hui la
connotation péjorative qu’on lui connait. Alors que dans sa conception
originale le terme représentait pour Weber l’avènement d’un progrès
marqué par le triomphe de la règle rationnelle et prévisible sur le bon
vouloir et l’arbitraire, il est maintenant devenu, par un curieux
retournement, le synonyme de structures inamovibles et oppressives.
Finalement, il apparaît que le système bureaucratique, au sens de
Weber, produit un certain nombre de résultats : il est efficace, il favorise
l’équité en ce que tout le monde est traité de manière similaire, il est
prédictible. Pour autant, il en découle aussi et simultanément des
conséquences négatives et non voulues, mais elles sont partiellement
inévitables : déplacement des buts, sous-optimisation et esprit de corps
qui entraînent apathie vis-à-vis du public, rigidité et faible capacité à traiter
les cas particuliers, interminables formalités, application de la règle pour la
règle et résistance au changement.

6. Critiques générales des théories traditionnelles


Sans revenir sur les conséquences et critiques spécifiques ni du
Taylorisme, ni de la bureaucratie et de l’école classique, traitées ci-dessus,
il est clair que l’on peut soutenir l’idée que l’application des théories
traditionnelles, en général, a créé des emplois simplifiés, ennuyeux,
répétitifs où la hiérarchie pèse d’un poids sans appel.
Plus généralement, cependant, deux critiques fondamentales d’ordre
conceptuel peuvent être adressées aux théories traditionnelles non pas
dans leur ensemble, car elles ne concernent pas Weber, mais pour la
plupart d’entre elles cependant.
La première critique porte sur l’idée que chacun a une place donnée
dans l’organisation. « Une place pour chaque homme et chaque homme à
sa place, une place pour chaque chose et chaque chose à sa place », nous
dit Fayol. Sans vouloir réduire sa pensée à ce principe isolé, force est de
constater qu’il résume bien, peut-être en les caricaturant la plupart des
théories traditionnelles de l’organisation. Il est en effet considéré que les
individus sont interchangeables. De plus, dans l’organigramme l’individu au
travail se réduit à sa fonction. A cela, il faut ajouter l’approche de Taylor qui
considère les individus comme uniquement mû par des préoccupations
financières. D’une manière générale, ces théories traditionnelles abordent
donc l’individu de manière interchangeable et sans prendre en compte les
relations interindividuelles, les relations de groupe ou encore l’affectivité.
La seconde critique correspond à l’idée qu’il est possible de trouver la
bonne organisation qui est la meilleure en toutes circonstances et qu’il est
possible de supprimer tout conflit entre les diverses parties prenantes à
cette organisation. C’est ce qui est appelé le « one best way ». Il y a une
bonne façon et une seule bonne façon de faire les choses. Il suffit de la
découvrir et de l’appliquer. S’il y a des problèmes, des conflits, c’est que les
règles de l’organisation sont mal appliquées, ou sont mauvaises : il suffit
d’en changer, en conformité avec les principes, pour éliminer tous les
dysfonctionnements.
Nous verrons un peu plus loin que les théories des relations humaines
(chapitre 2) montreront l’importance d’aborder les aspects humains des
organisations, y compris les relations de groupe répondant ainsi à la
première critique ; et que les théories de la contingence structurelle
(chapitre 3) remettront en cause le principe de « one best way »,
répondant ainsi à la seconde critique.

Focus : L’essentiel des théories traditionnelles

Les théories « traditionnelles » des organisations rassemblent des travaux


fondateurs du management datant de la fin du XIX ème siècle et du début
du XXème siècle. Elles ont pour point commun une volonté de
rationalisation de l’organisation.
Taylor (1856-1915) énonce les principes de l’Organisation Scientifique du
Travail (OST ou Management Scientifique) comme suit :
1. La division verticale du travail
Il faut séparer la « conception » et « l’exécution » du travail. Pour cela, il
convient de créer un « bureau des méthodes ».
2. La division horizontale du travail
Il faut décomposer la production en une série de tâches élémentaires, puis
grâce à des méthodes scientifiques de mesure des temps opératoires,
établir le temps optimal pour réaliser les différentes tâches opératoires.
3. Le salaire au rendement, à travers : le chronométrage des tâches et la
détermination d’un temps standard de fabrication ; la fixation des
salaires en fonction des quantités produites, compte tenu des temps
standards.
4. Le contrôle du travail
L’OST permet de remédier à un ensemble de dysfonctionnements de la
production dont notamment des pertes de temps liées à la flânerie et aux
changements d’outils. C’est une des premières théories scientifiques de
l’organisation du travail. Elle a rendu possible le développement de
l’industrie moderne et la production de masse. Malgré son efficacité et
l’augmentation de la productivité générée, l’OST et ses applications,
notamment associées à la chaîne de production et la standardisation des
pièces (Fordisme) ont été critiquées du fait de la déshumanisation du
travail qu’elles engendrent.
Fayol (1841-1925) procède à l’élaboration d’une théorie de ce qu’il appelle
l’administration (et qui correspond aujourd’hui à la gestion). Il est
considéré comme le père de la gestion en tant que discipline enseignée
et comme métier. Il est à l’origine de l’ancêtre de l’organigramme. Il est
reconnu pour avoir introduit la notion de prévoyance (anticiper comme
maître mot).
Selon Fayol, il est possible de décomposer les activités d’une entreprise
en 6 catégories (approche fonctionnelle):
•Les activités techniques : production, transformation, fabrication.
•Les activités commerciales : achat, vente, échange.
•Les activités financières : recherche et usage optimal des capitaux.
•Les activités de sécurité : protection des personnes et des biens.
•Les activités comptables : inventaire, bilan, statistique.
•Les activités administratives : prévision, organisation,
commandement, coordination et contrôle.
Il s’intéresse particulièrement à la fonction administrative et énonce 5
fonctions clés du management, applicables à toute organisation (PO3C :
Planifier, Organiser, Commander, Coordonner, Contrôler). Puis, il décrit
14 principes qui permettent d’exercer mais aussi d’enseigner la fonction
administrative.
Les travaux sur la fonction de direction ont connu ensuite de nombreux
développements au sein de l’école « classique » tels que ceux de
Urwick, Gulick ou encore Sloan et Drucker.
Weber (1864-1920) est le père fondateur de la sociologie
compréhensive (ou interprétative) et ses apports sont très vastes.
Il distingue notamment trois modes d’autorité au sein des
organisations, qui correspondent à trois modèles d’organisations (idéal-
type) : le modèle charismatique, le modèle traditionnel et le modèle
rationnel légal (ou bureaucratique).
•Dans le modèle charismatique, l’organisation fonctionne par dévouement
de ses membres à un individu, du fait de la personnalité de ce dernier.
Ce modèle repose sur une logique affective.
•Dans le modèle traditionnel, l’organisation fonctionne par obéissance
des membres du fait des coutumes, de la tradition et des usages. Ce
modèle repose sur une logique de « valeurs ».
•Dans le modèle bureaucratique ou rationnel-légal, l’organisation est
basée sur la règle et établi pour un but. Chaque fonction a sa propre
aire de compétences et d’autorité. Les fonctions sont
impersonnelles. Celui qui occupe une fonction doit effectuer les
tâches qui sont définies par la division du travail. Chacun au sein de
l’organisation, ne doit obéir qu’aux obligations associées à sa
fonction, dans le cadre hiérarchique établi.
Le système bureaucratique représente l’institution dominante de la
société moderne. Il repose sur une logique instrumentale. Pour Weber,
l’organisation bureaucratique réduit les discriminations issues des
autres modèles d’organisations.
Le système bureaucratique a fait l’objet de nombreuses critiques.
Notamment, Merton (1910-2003) met en lumière différents
mécanismes imprévus qui peuvent apparaître tels que le déplacement
des buts, la sousoptimisation, le développement de l’esprit de corps et
enfin le développement des fonctions latentes.
Gouldner (1920-1980) quant à lui, remet en cause la notion d’idéal type
unique de Weber, pour mettre en évidence la multiplicité des formes
organisationnelles de bureaucraties.
Crozier (1922-2013) met également en avant un certain nombre d’effets
indirects de la bureaucratie. Ainsi, la bureaucratie produit des cercles
vicieux. Il existe toujours des marges d’interprétations des règles qui
sont source d’incertitude et de pouvoirs parallèles non prévus qui
peuvent agir en sens inverse des objectifs de l’organisation. De plus, la
bureaucratie engendre une rigidité face au changement et est défavorable
à l’initiative et à l’innovation.
En dehors de Weber, les théories traditionnelles reposent sur deux
postulats
:

• L’homme est mû uniquement par des considérations économiques, il


est prévisible et interchangeable (à qualification technique
comparable). Son rendement est directement lié à ses conditions de
travail matérielles. Cette vision de l’homme au travail est
déshumanisante. Ce postulat sera remis en cause par les théories des
• relations humaines. Le « one best way », croyance qu’il existe une
seule bonne manière d’organiser l’activité et que grâce à des méthodes
scientifiques, il est possible de déterminer la bonne manière de faire
pour rationaliser la production. Ce postulat sera remis en cause par les
théories de la contingence structurelle.
_______
10
Taylor, The Principles of Scientific Management, 1911.
11
On pourra également se référer à Friedmann qui dresse le bilan de 50 ans de
rationalisationindustriel dans le monde occidental dans Friedmann, G., Problèmes humains du
machinisme industriel, 1946.
12
Gulick et Urwick publient ensemble, en 1937, un ouvrage intitulé Papers on the Science of
Administration.
13
Voir en particulier : The Practice of Management, New York, Harper and Row, 1954. Managing for
Results, New York, Heineman, 1964. Technology, Management and Society, New York, Heineman,
1970. Management: Tasks, Responsibilities Practices, New York, Heineman, 1974.
14
WEBER, M., Économie et société, 1922.
15
Perrow, C., Complex Organizations: a critical essay, 3e édition, NY, Random House, 1986, p. 174.
16
Parsons, T., The Social System, The Free Press, New York, 1964, p. 72.
17
Merton, Robert K., ‘‘The unanticipated consequences of purposive social action’’, American
Sociological Review, I (6), 1936, et plus généralement Social Theory and Social Structures, The free
Press of Glencoe, 1957.
18
Selznick, P., TVA and the Grass Roots, Berkeley University of California Press, 1949, ainsi que ‘‘An
Approach to a Theory of Bureaucracy’’, American Sociological Review, Vol. 8, 1943, et ‘‘Foundations
of the Theory of Organizations’’, American Sociological Review, Vol. 13, 1948.
19
Gouldner, A. W., Patterns of industrial bureaucracy, New York, the Free Press, 1954.
20
Voir Pugh, D.S., ‘‘The Measurement of Organizational Structures: Does Context determineform?’’,
Organizational Dynamics, 1973 (2) ; voir aussi, successivement, Pugh, D.S. and Hickson, D. J.
Organizational Structure and its Context: The Aston Programme I, London, Gower Publishing,
1976 ; Pugh, D.S. and Hinings, C. R., Organizational Structure Extensions and Replications: The
Aston Programme II, London, Gower Publishing, 1976 ; Pugh, D.S. and Payne, R. L., Organizational
Behaviour and its Context: The Aston Programme III, London, Gower Publishing, 1977 ; Hickson, D. J.
and MacMillan, C. J., Organization and Nation: The Aston Program IV, London, Gower Publishing,
1981.
21
Crozier, M., Le phénomène bureaucratique, Le Seuil, 1963.
En dehors de travaux précurseurs, tels que ceux de Mary Parker
Follett22 (1868-1933), l’origine des théories des relations humaines est
attribuée aux études d’Elton Mayo et de ses collaborateurs, dans l’usine de
Hawthorne de la Western Electric, dans les années 1920. Ces dernières
mettent l’accent sur la nécessité de prendre en compte le facteur humain
et remettent en cause l’hypothèse Taylorienne selon laquelle l’individu au
travail est mû essentiellement par des incitations financières.
Il est essentiel de situer historiquement ce courant théorique. En effet,
le développement de l’industrialisation, au début du XX ème siècle, ainsi que
la critique sociale du modèle Taylorien qui se développe, associée à la crise
de 1929, vont favoriser une contestation de la pensée traditionnelle en
centrant l’attention sur la dimension humaine de l’organisation. Des études
sur les groupes, d’influence psychosociologique, vont alors se développer à
partir des années 1930, notamment sous l’influence des travaux de Lewin
sur la dynamique de groupe. On y trouve les analyses de Sherif sur la
normalisation, celles de Asch sur le conformisme ou encore les célèbres
expériences sur la résistance à l’autorité de Milgram. Dans les années
1970, le courant de l’Organizational Development (OD) proposera
également des outils et méthodes pratiques pour favoriser la coopération
au sein des groupes.
Les travaux de Lewin initient également des réflexions autour du
leadership, qui se poursuivent par ceux de Lippit et White, de Coch et
French et de Likert. Par la suite, de nombreux modèles de leadership, plus
complexes et contingents se développent. Parmi ceux-ci, nous présentons
le management situationnel de Hersey et Blanchard, ainsi que la grille
managériale de Blake et Mouton.
Enfin, un autre pan de travaux porte sur la motivation au travail. On y
trouve la pyramide des besoins de Maslow, la théorie ERD d’Alderfer, la
théorie bi-factorielle de Herzberg, la théorie Y de Mac Gregor, la théorie
des attentes de Vroom.
La théorie des relations humaines ouvre la voie à d’innombrables
prolongements, qui sont à l’origine d’un champ d’étude spécifique que l’on
qualifie aujourd’hui de « comportement organisationnel »23. Ce champ
d’étude est tellement vaste que nous ne pouvons pas l’englober ici en
totalité24.
Enfin ce chapitre se termine par les travaux originaux de Barnard qui
sont isolés en ce que leurs apports débordent largement la théorie des
relations humaines et anticipent à la fois ceux de l’approche systémique
des organisations et ceux de la théorie de la décision.

1. L’origine des théories des relations humaines


Les expériences réalisées à l’usine de Hawthorne de la Compagnie
Western Electric sous la direction d’Elton Mayo (1880-1949), sont
généralement considérées comme le point de départ de la théorie des
relations humaines25.

1.1. Les expériences de l’usine de Hawthorne


Les expériences commencent en 192426 dans cette usine qui occupe
plusieurs milliers de salariés, sous les auspices de la « National Academy of
Science », mais conduites par la hiérarchie de l’usine, avec l’objectif initial
d’étudier le lien entre l’illumination de l’atelier et la productivité des
salariés
Les hypothèses derrière les premières expériences sont d’influence
Taylorienne. Il s’agit de créer les « meilleures » conditions matérielles de
travail possibles. Donc un meilleur éclairage est présumé causer une
augmentation de la productivité. Initialement des changements dans
l’éclairage artificiel sont comparés avec la productivité dans trois ateliers
sans que des résultats concluants soient atteints. Ensuite, des salariées
dont la productivité était équivalente sont séparées en deux groupes
physiquement localisés dans des emplacements différents. Pour le groupe
expérimental, on fait varier les conditions d’éclairage, alors qu’elles restent
stables pour le groupe témoin. C’est l’expérience de la salle d’essais (Test
Room). Or, malgré cette différence d’expérimentation, la productivité
augmente dans les deux groupes. Puis, la productivité augmente toujours,
même quand on fait baisser la lumière dans le groupe expérimental et ceci
jusqu’à l’équivalent d’un éclairage du niveau d’un « clair de lune habituel
»27. Le même phénomène se reproduit quand les deux groupes sont placés
ensuite en lumière naturelle. La première conclusion tirée fut donc qu’un
facteur autre que les conditions physiques d’éclairage intervenait dans les
variations de productivité.
Pour aller plus loin, un nouveau dispositif expérimental est mis en
place. C’est la très célèbre expérience de la première salle d’assemblage
des relais (First Relay Assembly Test Room). Les chercheurs sélectionnent
deux ouvrières qui elles-mêmes en choisissent quatre autres, constituant
un groupe de six, avec cinq opératrices et une ouvrière chargée de
l’approvisionnement qui montent des relais téléphoniques à partir de 40
pièces détachées. Leur productivité précédente était connue et elle est
ensuite mesurée par période de temps. Un observateur est présent dans la
salle, notant ce qui se passe et examinant les attitudes des ouvrières.
Commencée en 1927, l’expérience durera jusqu’en août 1932, mais seuls
les 13 premiers cycles, jusqu’en juin 1929 font l’objet de publication des
résultats. Les conditions de travail sont alors progressivement changées,
les ouvrières sont d’abord soumises à un régime de travail aux pièces avec
bonus, puis des périodes de repos de durée et de périodicité variées sont
introduites, un repos gratuit est accordé, la journée de travail est
raccourcie ; le samedi devient jour de congé, enfin pendant un cycle toutes
les améliorations et incitations sont supprimées, puis restaurées à la
période suivante. En juin 1929 la productivité a augmenté de plus de 30 %
par rapport à la productivité initiale. Elle a augmenté durant la plupart des
13 cycles. Elle est restée plus élevée qu’initialement dans celle où tous les
avantages ont été supprimés. Elle n’a cependant pas monté dans un cycle
où les ouvrières se sont plaintes de ce que la périodicité choisie pour les
pauses brisait le rythme de travail.
L’observateur avait noté une atmosphère amicale entre les ouvrières.
Par ailleurs, le rôle de l’observateur avait changé. De simple témoin, il avait
développé des relations de conseil et d’information avec les ouvrières dont
il recevait aussi les plaintes, les commentaires et dont il demandait
l’opinion sur les changements. Son rôle original avait été de « conserver
des notes précises sur tout ce qui s’était passé » et « de créer et maintenir
une atmosphère amicale dans la salle ». En fait, lui et les expérimentateurs
avaient remplacé la maîtrise en prenant en charge une partie de ses
fonctions et avaient établi un climat de supervision plus souple, beaucoup
moins autoritaire où les ouvrières communiquaient beaucoup plus
facilement et librement. D’autre part, elles se voyaient accorder beaucoup
plus d’attention individuelle et personnalisée que dans leurs conditions de
travail habituelles.
C’est sur ces bases que les principales conclusions de la théorie des
relations humaines vont être formulées. D’autres expériences suivront 28
d’une part, pour confirmer ces premiers résultats, d’autre part pour en
tirer des conclusions opérationnelles.
Elton Mayo (1880-1949), Professeur à la Harvard Business School avait
été appelé en consultation par les ingénieurs de la Western Electric
supervisant les recherches. En effet, les résultats troublants des
expériences d’éclairage étaient encore rendus plus obscurs par les
premiers résultats de l’expérience de la 1 re salle d’assemblage de relais.
Avec ses collaborateurs et un manager de l’usine, Fritz J. Roetlishberger 29,
T. Whitehead et William J. Dickson, il va assurer la direction des recherches
sur la base des conclusions tirées des expériences passées. Il est à noter
que les expériences continueront jusqu’en 1932, mais qu’à partir de 1929
les résultats se dégradent et ne sont plus enregistrés systématiquement
pour des raisons a posteriori évidentes.
D’autres expériences mises en place se succèdent alors 30. Un second
groupe d’assemblage des relais (Second Relay Assembly Test Room) est
établi en septembre 1928, qui comporte le même système de primes que
le premier groupe, mais où les ouvrières restent physiquement à l’intérieur
de leur département.
Parallèlement, dans l’expérience de la salle de clivage (Mica Splitting
Room), les ouvrières sont à nouveau séparées de leur département
habituel et voient leurs conditions matérielles de travail changer.
Une phase d’interviews cliniques est mise en place en même temps.
Initialement structurés, ils se transforment rapidement en entretiens non
directifs en profondeur. Sur les conclusions tirées de ces interviews, une
expérience nouvelle est préparée avec l’aide de l’anthropologue W.L.
Warner : celle du « Bank Wiring Room ». Un groupe de 14 ouvriers qui
montent des équipements électriques plus complexes est sélectionné. Ils
travaillent normalement mais sous observation. Cette fois-ci cependant
l’observateur n’intervient en aucun cas et se rend aussi invisible que
possible. Les ouvriers s’habituent assez rapidement à sa présence.
Entre 1930 et 1932, les effets de la crise économique de 1929 amènent
l’arrêt par la Western Electric de toutes les expériences.
1.2. Les conclusions tirées des expériences
Les séries d’expériences analysées par Elton Mayo et son équipe à la
Western Electric, sont généralement résumées sous le nom « d’effet
Hawthorne » en hommage au lieu (usine) où elles ont été mises en
évidence.
En réalité, il n’y a pas une conclusion, mais plusieurs conclusions
différentes qui peuvent être tirées de ces expériences.
La première conclusion est la plus facile à mettre en évidence : la
simple connaissance par un individu du fait qu’il est sujet d’observation
modifie son comportement.
La deuxième conclusion se manifeste dans le fait que c’est l’intérêt de
la direction pour les ouvrières qui fait que leur productivité augmente.
C’est une réaction positive de leur part au fait que l’on s’intéresse à leur
sort et cela n’a rien à voir avec les conditions matérielles de production et
le contenu physique de leur travail puisque la production augmente
quoique l’on fasse, que l’on baisse ou que l’on augmente la lumière, que
l’on augmente ou diminue la durée des pauses, etc. Cette constatation
heurte les postulats de la théorie traditionnelle et en particulier
Taylorienne.
La troisième conclusion attaque également les postulats de l’école
traditionnelle et de l’Organisation Scientifique du Travail. Elle consiste à
observer que les relations au sein de l’équipe de travail, la cohésion et les
bonnes relations entre les salariés et donc le moral ou la cohésion du
groupe conditionnent la productivité. Le personnage clé pour établir un
tel climat c’est le leader du groupe. La cohésion se produit et les bonnes
relations s’établissent quand le système classique de supervision, basé sur
le contrôle et la contrainte, fait place à un système de supervision plus
souple. Ainsi, quand le contremaître est remplacé par l’observateur qui
adopte un comportement de conseil et d’interlocuteur, la discipline
imposée par la hiérarchie n’est plus nécessaire et le groupe, plus satisfait,
avec de meilleures relations internes, devient plus productif. Par
conséquent, les conclusions de la théorie traditionnelle, qui place au cœur
de l’analyse les relations hiérarchiques d’autorité, est remise en cause. Ce
ne sont pas les liens d’autorité et de responsabilité supérieur-subordonné
qui comptent vraiment, mais c’est, au contraire, l’aspect émotionnel des
relations entre individus égaux ou avec leurs supérieurs qui est essentiel.
L’accent est mis sur le rôle de l’entente interne et sur le leadership de son
unité de travail. Il s’ensuit que l’organisation formelle est de peu
d’importance, comparée à l’organisation informelle.
Enfin, la quatrième conclusion porte sur l’existence et l’influence des
comportements au sein de groupes informels. Elle découle de l’expérience
du montage des équipements électriques par des ouvriers qualifiés (Bank
Wiring Room). Dans le petit groupe des 14 salariés (9 monteurs, 3
soudeurs, 2 contrôleurs de qualité) s’étaient aussi créées des relations
informelles fortes. Des leaders informels qui ne coïncidaient pas avec les
contremaîtres étaient apparus spontanément. Bien que les salariés soient
payés suivant un système de bonus aux pièces, ils paraissaient totalement
indifférents aux stimulants financiers, car jamais plus d’un certain nombre
de pièces n’étaient produites par jour alors qu’il apparaissait clairement à
l’observation que les salariés auraient pu, sans grand effort, en produire 15
à 20 % de plus. Tout salarié cependant qui avait des cadences de
production supérieures à celles du groupe se voyait rappelé à l’ordre. Si
certains produisaient plus que la norme quotidienne, ils déclaraient un
chiffre inférieur et ralentissaient le jour suivant pour se remettre au niveau
adopté par le groupe.
Ainsi, le code informel de comportement faisait appliquer les règles
suivantes sanctionnées par des rappels à l’ordre, des mises à l’écart, ou des
sanctions plus immédiates :
• Il ne fallait pas produire trop : c’était être un « casseur de cadence ».
• Il ne fallait pas produire insuffisamment : c’était être un « profiteur ».
• Il ne fallait jamais dire à un supérieur quoi que ce soit au détriment
d’un membre du groupe : c’était être un « mouchard ».

Cela confirme l’existence et l’importance des groupes informels dans


l’organisation. Leur caractère intégré, leur propre structure sociale et leurs
codes internes de comportement sont mis en évidence.
Ces résultats infirment aussi le postulat Taylorien de l’argent comme
seule motivation de l’homme : la motivation réelle, d’après toutes ces
expériences, c’est l’affectivité, les bonnes relations entre membres du
groupe, l’attitude confiante et détendue à l’égard du leader respecté et
écouté, mais compréhensif et positif.

1.3. La critique des études de l’usine de Hawthorne et des théories


des relations humaines
Les expériences réalisées à l’usine de Hawthorne de la Western Electric
et les conclusions qui en ont été tirées ont fait l’objet de violentes
critiques.
Notamment, Michael Rose31 procède à une forte critique des méthodes
suivies. Ainsi, il note que les expériences d’éclairage étaient « trop
pauvrement préparées pour démontrer autre chose que le strict besoin de
contrôles étudiés dans le processus de recherche scientifique ». Il critique
de même le double rôle des observateurs, l’absence de précautions
élémentaires concernant l’échantillonnage pour les interviews, ainsi que la
méthode de sélection des salariés et les contrôles pour les autres
expériences, etc.
D’autres critiques attaquent la problématique qui sous-tend
expériences et conclusions et lui reprochent d’ignorer tous les faits
pertinents en dehors de ceux qui appartiennent à la relation employeur-
salarié. Notamment, il faut relever la simplification abusive résultant de
l’hypothèse sous-jacente, que l’organisation constitue l’environnement le
plus important pour l’individu et en fait peut-être même le seul qui
compte. L’idée de base est en effet, que c’est dans le cadre de
l’organisation – et souvent de l’entreprise – que l’homme doit se réaliser.
Or, tout le contexte hors l’entreprise, familial, personnel, ludique, social,
politique est écarté. Goldthorpe32 note que certains individus peuvent très
bien n’avoir aucun investissement affectif dans leur travail ni leur milieu de
travail et ne souhaiter aucune relation de quelque type que ce soit avec
leurs collègues. Leur emploi est purement instrumental et leur permet de
subsister et de maintenir des investissements affectifs qui s’expriment
ailleurs, dans d’autres activités et relations, qu’elles se déroulent en famille
ou qu’elles soient tout à fait autres.
Cependant, les théories des relations humaines vont avoir un impact
énorme sur la théorie de l’organisation et les pratiques de gestion, ce qui
leur confère une importance considérable.
Enfin, il convient de constater que, comme la théorie traditionnelle, la
théorie des relations humaines, du moins à l’étape où nous l’analysons ici,
est toujours une théorie du « one best way ». Elle repose aussi sur
l’hypothèse qu’il y a une bonne organisation et une seule. Seulement
celleci n’est plus matérielle. Ce n’est plus l’organisation formelle du travail,
c’est celle de l’aspect informel, du climat affectif qui règne dans le groupe
de travail. Dit autrement, dans les deux cas, si des dysfonctionnements se
produisent, il suffit d’appliquer le bon modèle : une organisation formelle
claire et un stimulant monétaire dans le cas des théories traditionnelles ;
une organisation informelle avec de bonnes relations interpersonnelles et
un stimulant affectif dans la théorie des relations humaines. Ainsi, les deux
approches théoriques s’appuient sur une logique de « one best way » au
même titre l’une que l’autre.

2. Les études sur les groupes


A partir des années 1930, un ensemble de travaux psychosociologiques
se développent autour des influences qui opèrent au sein des groupes.
Un groupe est un ensemble d’individus en interaction les uns avec les
autres et qui éprouvent un sentiment d’appartenance au groupe (une
famille, un groupe d’amis, un groupe de projet…). Brown 33 distingue cinq
niveaux de groupes dans l’organisation : les groupes primaires de gens
travaillant en commun ; les groupes d’amis, à travers l’organisation, unis
autour d’un lien affectif ; les groupes d’activités, non reliées au travail ; les
groupes qui se forment autour de questions intéressant l’ensemble de ses
membres ; et enfin l’organisation considérée comme un tout. Un groupe se
caractérise également par son degré de cohésion (les membres sont plus
ou moins unis). Cette cohésion s’exprime notamment par des
comportements de conformisme ou de résistance aux déviances.

2.1. Lewin et la dynamique de groupe


Kurt Lewin34 (1890-1947) formé en Allemagne à l’école de la
psychologie de la forme, dite Gestalt, et immigré aux USA dans les années
1930, va appliquer ses concepts à l’organisation industrielle. Il expose que
l’expérience directe de la perception d’un individu est organisée. Ce que
l’individu perçoit est déterminé par la « forme » de la perception. L’objet
sur lequel l’attention porte et qui est perçu fait partie d’un tout. Cet
ensemble dans lequel il s’insère est élément de sa perception et donc
l’influence. L’emphase est mise sur le tout, l’ensemble et non les stimuli ou
les réponses spécifiques.
Lewin apporte en outre une méthodologie innovante. Il veut appliquer
les méthodes des sciences expérimentales aux sciences sociales et est un
des pionniers de l’expérimentation en laboratoire dans ce domaine. Il y
applique aussi l’appareil conceptuel des sciences exactes (formulation
d’hypothèses, vérification, réplication des expériences).
La problématique adoptée se base sur la notion d’un champ de forces,
et est d’ailleurs baptisée « théorie du champ », conçu comme ce qui
influence et joue sur tous les éléments qui se trouvent dans son étendue.
L’analyse élargit la théorie du champ au-delà du cadre de la perception,
pour laquelle elle a été conçue. L’idée centrale est que les phénomènes
psychologiques doivent être conçus comme s’exerçant aussi dans un
champ. L’individu est considéré comme étant plongé dans un champ social,
identique à ce que serait un champ électrique en physique. Les forces
psychologiques et sociales qui s’y exercent vont opérer sur les causes de
son comportement. C’est-à-dire que les activités psychologiques (penser,
rêver, espérer, etc.) sont conçues comme étant déterminées, non pas par
des propriétés isolées de l’individu et de son environnement, mais par les
relations mutuelles entre la totalité des facteurs coexistant dans l’espace
vivant composé de l’individu et de son environnement. Le comportement
est un changement dans l’état d’un champ donné pendant une période de
temps donnée. Cette conception, à l’époque où Lewin l’a formulée,
recouvre un caractère très innovant.
La totalité du champ influent est « l’espace de vie » d’un individu, c’est-
à-dire l’individu lui-même et son environnement psychologique tel qu’il
existe pour lui.
Un des éléments essentiels du champ social d’un individu est bien
évidemment les groupes auxquels il appartient ou auxquels il aspire. Les
groupes d’appartenance sont ainsi la base des perceptions, sentiments et
actions. Ils sont équivalents à un système de facteurs coexistants et
mutuellement interdépendants, ayant donc ainsi des propriétés
spécifiques différentes de celles de chaque facteur isolé. Groupes, sous-
groupes et individus ont des propriétés différentes.
Par ailleurs, l’espace de vie d’un groupe est le groupe lui-même, ses
membres et l’environnement, mais tels qu’ils sont perçus par le groupe. En
effet, exister comprend les perceptions conscientes, mais aussi des
éléments dans l’environnement et le fonctionnement mental des individus
dont ils sont partiellement ou aucunement conscients, mais qui ont des
effets perceptibles sur eux. Le passé n’influence le comportement qu’en
tant qu’il laisse une trace, c’est-à-dire qu’il fait sentir ses effets à l’instant
présent, ni plus ni moins que le futur pour lequel il en est de même. Par
exemple, les souvenirs erronés ou fabriqués sont aussi influents que les
vrais, les craintes injustifiées du futur sont des présences réelles dans le
champ actuel. Le champ qui influence un individu doit être compris et
décrit non pas en termes objectifs, mais tel qu’il existe pour l’individu au
moment où son comportement est étudié. L’état d’un individu et de son
environnement sont là aussi d’autant moins indépendants l’un de l’autre
car l’individu réagit à l’environnement comme il le perçoit et le conçoit.
Tout comportement est donc le résultat d’une multitude de facteurs, et
il faut identifier ceux qui sont présents et actifs, leur force relative et leur
interdépendance à l’instant considéré.
Quand certaines situations ne sont pas structurées le champ est
inconnu à l’individu. Il ne sait pas que faire pour atteindre ses objectifs, son
comportement est vacillant, exploratoire, contradictoire, inefficace,
instable et conflictuel. Les perceptions de la situation changent rapidement
et sont facilement influencées par des indicateurs mineurs ou des
suggestions des autres.
Dans la vie du groupe, le groupe lui-même dans un champ social plus
vaste ou ses membres individuellement, dans le champ constitué par le
groupe, se déplacent vers des régions à valences positives, ou s’écartent de
valences négatives. Ce comportement est dirigé en fonction des champs de
pouvoir et des forces dans le groupe qui les modifient. Une caractéristique
importante est la cohésion du groupe définie comme le champ total des
forces qui agissent sur les membres pour qu’ils restent dans le groupe. Elle
peut être opérationnalisée en termes de choix sociométriques. Elle est
influencée par une série de conditions : l’emphase sur la coopération plus
que sur la concurrence, une atmosphère de groupe démocratique, plus
que le laissez-faire ou l’autocratie, l’existence d’un degré d’organisation
préalable dans le groupe, l’appartenance à un groupe à haut statut, ou le
rôle central dans un groupe à faible statut, la stabilité du statut du groupe,
l’intérêt de la tâche, le prestige du groupe, etc.
Les membres de groupes cohésifs sont plus attentifs les uns à l’égard
des autres, plus ouverts aux changements et aux influences externes, ils
internalisent plus les normes du groupe et sont plus amicaux.
Un groupe qui communique et qui a un degré suffisant de cohésion
peut se déplacer vers un but commun, surmonter les obstacles à résoudre
des problèmes. Lorsque des membres refusent le point de vue de la
majorité, dans ce cas, l’essentiel des communications est dirigé vers eux
pour les amener à changer, ou bien si l’unanimité n’est pas nécessaire ils
sont rejetés.
Lewin est aussi celui à qui l’on doit l’apport d’une théorie du
changement pertinente et influente. Pour changer efficacement les
comportements, il convient selon son analyse de procéder en trois temps :
débloquer le comportement que l’on veut changer (dégeler), introduire le
changement et enfin rebloquer (geler à nouveau) le comportement sur le
changement introduit. Ces travaux ont donné lieu à de nombreux
prolongements.

2.2. Moreno et le sociogramme


Jacob Moreno35 (1889-1974) est à l’origine des prémices du premier
sociogramme, qui établit la carte de la structure informelle d’un groupe.
Celui-ci est construit sur la base d’un questionnaire nominatif adressé à
tous les membres du groupe, qui permet de répertorier un certain nombre
de relations interpersonnelles respectives entre les uns et les autres
(relations de confiance, estime dans le travail, affinités, relations d’autorité
au sein du groupe, etc.). Une représentation graphique de ces relations
interindividuelles est alors construite et constitue le sociogramme. Dit
autrement, le sociogramme représente sous forme graphique la structure
des relations interpersonnelles du groupe.
Les sociogrammes bien évidemment sont contingents, tant aux
circonstances internes, qu’aux circonstances externes que le groupe
traverse (à situations différentes, sociogrammes différents). De même que
le symbole de l’école classique est l’organigramme, l’on peut dire que le
symbole de l’école des relations humaines est le sociogramme.

2.3. Sherif et la normalisation


Muzafer Sherif36 (1906-1988) étudie l’influence du groupe sur l’individu
avec un stimulus ambigu. Il utilise à cette fin l’effet autocinétique qui fait
que, enfermé dans une pièce noire, l’individu devant lequel est projeté un
point lumineux fixe et stable le verra néanmoins bouger après quelques
instants. Toutefois l’amplitude du mouvement perçu, mais non réel, varie
suivant les individus. Les jugements individuels de sujets sur cette
amplitude sont d’abord enregistrés, ils sont constants sur plusieurs jours.
Ensuite, il est observé que quand plusieurs sujets sont rassemblés, tous
altèrent leur estimation initiale vers une tendance centrale dans le groupe.
De plus, les jugements altérés sont maintenus quand les individus sont
ensuite isolés. Donc, des individus qui ont établi leur jugement
indépendamment, après interaction avec d’autres et prise de connaissance
de leur opinion, altèrent leur propre jugement et convergent. Dit
autrement, dans une situation marquée par l’incertitude, les individus vont
avoir une tendance à la normalisation, c’est à dire à converger vers
l’opinion dominante du groupe.

2.4. Asch et le conformisme


Les expériences de Salomon Asch 37 (1907-1996) viennent confirmer les
constatations précédentes de Sherif, avec cette fois un stimulus non
ambigu. L’expérience consiste à comparer des longueurs de lignes
matérialisées sur deux présentoirs et d’en choisir une parmi trois
différentes présentées côte à côte comme étant celle qui est identique à
une autre présentée isolément. La correspondance est manifeste et sans
laisser le moindre doute. L’expérience se déroule en groupe, suivant le
protocole du sujet naïf. Tous les membres du groupe sont en effet
complices de l’expérimentateur, sauf un, véritable sujet de l’expérience.
Celui-ci choisit en dernier, alors que ses prédécesseurs désignent avec
confiance une ligne visiblement inadéquate. L’exercice est répété. Le
déviant, d’abord gêné, finit dans un tiers des cas par changer son choix de
ligne. Bien qu’ayant objectivement raison, il adopte alors une réponse
fausse sous l’influence du groupe. Par conséquent, il existe une pression à
la conformité qui est exercée par la majorité sur la minorité au sein du
groupe.
2.5. Milgram et la résistance à l’autorité
Dans la célèbre expérience de Stanley Milgram 38 (1933-1984), il a été
montré, dans les années 1960, que les individus ont tendance à se
soumettre à des personnes dont ils jugent l’autorité pertinente.
Cette expérience est notamment illustrée en 1979 dans le film « I
comme Icare » de Verneuil. L’expérience consiste à proposer à des
individus de participer, moyennant un dédommagement financier, à une
expérience sur le rôle de la punition dans l’apprentissage. Au cours de
l’étude, il est alors demandé aux sujets d’attribuer des punitions, qui
consistent en des décharges électriques, à des individus qu’ils ne
connaissent pas, pour étudier leurs capacités d’apprentissage. Cette
expérience est un subterfuge et ne constitue pas l’objet réel de l’étude. En
réalité, ce qui est étudié, c’est le comportement de soumission à l’autorité
du sujet naïf qui participe à l’étude et attribue, ou non, des décharges
électriques (en réalité fictives).
L’expérience comprend trois personnes : l’élève, le sujet naïf (moniteur)
et le scientifique.
L’élève, comme le scientifique, sont des acteurs complices de l’étude.
L’élève fait semblant de mémoriser des listes de mots qu’il devra réciter.
S’il se trompe, le moniteur (sujet naïf) devra lui infliger des décharges
électriques. Le scientifique est le représentant de l’autorité. Le moniteur,
qui n’est pas informé du stratagème, doit dicter les mots à l’élève et
vérifier la pertinence de ses réponses par rapport à une liste d’association
de mots qui lui a été transmise par le scientifique. En cas d’erreur, il devra
appuyer sur une manette qui enverra une décharge électrique à l’élève
pour le punir. Bien entendu, il n’y a aucune décharge électrique réellement
transmise, mais ce qui compte c’est que le sujet naïf croit que l’élève reçoit
un choc électrique de puissance croissante (15 volts de plus à chaque
décharge). Les réactions aux chocs sont simulées par l’élève (qui ne ressent
rien puisque c’est un acteur). Ce qui compte, c’est que le moniteur ne le
sache pas.
À l’issue de chaque expérience, un questionnaire et un entretien avec
le sujet naïf est ensuite réalisé, afin de recueillir ses sentiments par rapport
au seuil jusqu’auquel il est allé dans l’administration des (fausses)
décharges électriques, sous l’autorité et la pression du scientifique. Cet
entretien vise aussi à le réconforter en lui expliquant le stratagème et en
lui indiquant qu’aucune décharge électrique n’avait été réellement infligée
à l’élève.
La première étude de Milgram montre que 62,5 % (25 sur 40) des
sujets menèrent l’expérience à terme en infligeant à trois reprises les (faux)
électrochocs de 450 volts.
Par conséquent, ces travaux sur les relations au sein des groupes, font
apparaître que notre comportement est profondément affecté par les
groupes auxquels nous appartenons. Il s’ensuit qu’au sein des
organisations, des pressions conscientes ou inconscientes, mais en tous les
cas considérables, s’exercent sur les membres pour qu’ils adoptent un
comportement tendant vers la conformité aux normes et l’adoption des
valeurs dominantes. D’ailleurs, on peut se demander dans quelle mesure
les organisations ne sélectionnent pas des membres aux valeurs
conformes, ou facilement adaptables aux leurs, volontairement ou sans
que cela soit une pratique réfléchie, d’ailleurs. De même, les candidats
dans une organisation pratiquent sans doute une auto-sélection, dans le
choix des organisations vers lesquelles ils portent leurs candidatures.

2.6. Le courant de l’Organizational Development (OD)


Les années 1970 voient le développement de l’Organizational
Development (OD) qui va mettre en place un certain nombre de pratiques
de gestion inspirées des théories des relations humaines. C’est une
procédure de changement des organisations complexes au moyen du
développement conjoint de leurs ressources humaines et de leurs
performances.
En pratique, il s’agit d’un programme prévu à l’avance qui inclut toute
l’organisation sur une longue période et composé d’activités orientées vers
l’action. Ces activités laissent derrière elles un changement.
L’Organizational Development ne cherche pas à accroître les
connaissances, les capacités, la maîtrise de techniques transférables à des
activités opératoires. Les activités sont dirigées au contraire vers
l’apprentissage de modifications du comportement et des attitudes et donc
indirectement seulement vers la performance des individus. Elles sont
composées d’actions basées sur l’expérience et non la connaissance. On ne
change pas le comportement seulement avec le savoir-faire. Il faut y
ajouter le savoir-être qui ne peut s’acquérir que par le constat du
comportement présent, l’expérimentation d’autres possibles et le début de
la pratique de l’un de ces autres possibles. Ces activités impliquent des
pratiques de groupe.
Les plus connus de ces programmes sont les sessions de « sensivity
training » ou Training Groups (T. groups). Répandus largement d’abord un
temps aux USA puis en Europe à partir des années 1970, ils proviennent et
découlent des analyses de la dynamique de groupe menée par Lewin. Dans
le cadre du développement organisationnel, le fonctionnement des
Tgroups et le travail en groupe font l’objet d’une multitude de formations
en entreprise. Le but des T-groups est d’étudier en groupe la prise de
conscience de la réalité et des effets des relations interpersonnelles,
d’arriver à un comportement spontané et authentique dans ses relations
avec les autres, d’éliminer les comportements conflictuels. Ils ont en
principe plusieurs effets :
• Rendre les participants capables d’être plus sensibles à l’expression
d’émotions, en eux-mêmes, et chez les autres.
• Les rendre plus sensibles aux processus de groupe.
• Accroître la capacité des participants à percevoir les conséquences de
leurs actions en portant plus d’attention à leurs propres sentiments et à
ceux des autres.
• Stimuler la clarification et la perception des valeurs personnelles et des
buts individuels, leur impact sur les décisions et les activités sociales et
personnelles.
• Conduire le participant à un comportement plus efficace dans les
relations avec son environnement

Les T-groups peuvent être formés de participants ne se connaissant pas


antérieurement, appartenant à différentes composantes de la même
organisation ou au contraire issus de la même composante et donc
travaillant ensemble.
Le processus est guidé par un formateur qui suit plusieurs étapes. Il
laisse d’abord le groupe sans direction, objectif, ordre du jour ni
attribution. Dans ce vide comportemental ainsi créé les participants
versent leurs projections de comportement traditionnel.
Ensuite, le formateur adopte une attitude ouverte, non défensive, faite
d’empathie et exprime ses propres sentiments sur l’épisode précédent sur
un mode aussi peu porteur de jugement ou d’évaluation que possible.
L’impact essentiel sur les participants provient du comportement des
autres participants en retour de leur projection initiale à chacun.
Puis des relations interpersonnelles se développent, les participants
utilisent des ressources mutuelles et expérimentent de nouveaux
comportements personnels, interpersonnels et de collaboration.
Enfin, le formateur fait explorer la signification de l’expérience en
termes de son rapport avec les situations et les problèmes rencontrés dans
la vie quotidienne de l’organisation.
Dans les deux autres types de groupes, s’ajoute un travail en termes de
liens entre groupes et des conséquences pour les problèmes internes des
organisations relatifs aux prises de décision, résolution de problèmes et
relations interpersonnelles.
Un autre outil fréquemment utilisé est le « survey feed-back », qui
consiste en l’étude d’un groupe à partir de questionnaires, parfois
complétés d’entretiens et d’observations. Les données recueillies sont
ensuite restituées aux membres du groupe. Elles sont alors utilisées pour
diagnostiquer les problèmes de l’unité et développer un plan d’action pour
les résoudre.
Le questionnaire soit est fait sur mesure, soit reproduit celui développé
par l’Institute for Social Research de l’Université du Michigan. Il porte
essentiellement sur trois aspects :
• Le leadership, qui inclut, de la part du manager, le soutien, l’emphase
sur les objectifs, la facilitation du travail, la facilitation des interactions
individuelles.
• Le climat de l’organisation, qui inclut la communication interne, la
motivation, la prise de décision, le contrôle, la coordination entre les
composantes et la direction générale.
• La satisfaction, à l’égard de l’organisation, du supérieur immédiat, du
travail, du salaire et du groupe de travail.

Un consultant extérieur accumule, présente et interprète les données


pour le groupe, puis il l’aide à diagnostiquer les problèmes, identifier les
barrières à leur solution et les résoudre.

3. Les théories du leadership


Dans le prolongement des théories des relations humaines, un certain
nombre d’auteurs se sont intéressés spécifiquement au leadership, c’est-
àdire à la capacité de certains individus à en entrainer d’autres dans une
direction donnée, au sein des organisations. Le leader est celui qui a la
capacité à influencer, à amener les membres de l’équipe à réaliser des
actions qu’ils n’auraient pas fait autrement. Il est reconnu par les autres,
non pas par son statut hiérarchique, mais pas ses capacités d’action. Il a
une capacité à motiver et à entrainer les collaborateurs avec lui.
Les premiers travaux, dans la lignée de Lewin, puis de Likert, vont
notamment mettre l’accent sur l’opposition entre un modèle « autoritaire
» de leadership et un modèle plus « démocratique » (consultatif ou
participatif), qui associe, selon des modalités qui peuvent prendre des
formes différentes, les membres du groupe à la décision. Puis, au cours du
temps, des analyses du leadership plus contingentes vont se développer,
permettant d’adapter le style de leadership à un ensemble de variables
(telles que la personnalité ou les caractéristiques du leader ou des
membres de l’équipe, le contexte organisationnel…) et rendant ainsi le
leadership plus situationnel.

3.1. Lewin, Lippit et White, la supériorité du modèle démocratique


Une des premières études sur le leadership est attribuée à Lewin en
194339 et porte sur les changements dans les habitudes alimentaires
souhaitables en période de guerre et de restrictions. Deux méthodes
furent utilisées pour essayer d’orienter les consommations des femmes au
foyer vers des denrées alimentaires de substitution à leurs habitudes. Des
séances de conférences d’information et des séances où les participantes
avaient elles-mêmes à analyser et à résoudre le problème posé furent
menées parallèlement. La comparaison des résultats prouva qu’il était
beaucoup plus facile de provoquer le changement si les membres du
groupe arrivaient elles-mêmes à travers leur discussion à en découvrir sa
nécessité. Cette expérience fit émerger l’idée que la participation et
l’adhésion des membres du groupe pouvait être plus efficace que
l’autorité.
Puis, Lippit et White40, dans une expérience célèbre, étudient des styles
de leadership en analysant le travail de groupe d’enfants dans un cercle de
loisirs, en termes de l’atmosphère du groupe, de la productivité des
enfants et leur comportement quand ils sont confrontés à des styles de
direction différents. Le leader autoritaire, éloigné du groupe dirige les
activités par ordres impératifs. Le leader permissif apporte ses
connaissances techniques, mais s’implique très faiblement
émotionnellement dans les activités du groupe, auxquelles il participe peu
et qu’il laisse agir à sa guise. Le leader démocratique participe à la vie du
groupe mais sans donner d’ordres, faisant des suggestions et encourageant
les enfants (qui produisent des masques). Les groupes d’enfants furent
soumis successivement aux trois styles de leadership. Ils étaient composés
de manière homogène quant à l’énergie, le quotient intellectuel, etc. des
membres. La conclusion fut que le leadership démocratique donnait une
production largement équivalente au leadership autoritaire (meilleure en
qualité si même légèrement inférieure en quantité), créait des relations
amicales dans le groupe, qui devenait capable de s’autodiriger en l’absence
du leader et éliminait frustration et tension entre les membres du groupe,
alors qu’elles étaient présentes avec l’apathie et le retrait devant les autres
formes de leadership, surtout permissif.

3.2. Coch et French et la résistance au changement


Coch et French41 étudièrent la résistance au changement dans le cadre
de leur intervention à la Harwood Manufacturing Corporation. Partant de
la constatation que les ouvriers de cette entreprise résistent au
changement de poste et soit partent, soit baissent leur productivité, ils
sélectionnent quatre groupes de niveau analogue et soumis à des
conditions semblables au travail. Dans le premier groupe, suivant la
méthode habituelle les changements sont décidés unilatéralement par la
direction et les salariés sont informés ensuite. Dans les deux groupes
suivants les salariés peuvent participer directement aux décisions sur
certains aspects des changements avant qu’ils ne prennent place. Dans le
quatrième groupe cette participation ne se fait pas directement mais à
travers des représentants élus des salariés. De plus dans les trois derniers
groupes, les salariés sont réunis et l’explication du changement de poste
aux fins de réduire les coûts de revient est donnée.
Ensuite, les délégués dans un cas et tous les membres dans les deux
autres cas participent à une étude des mouvements et au chronométrage
des temps pour établir de nouveaux taux de productivité et de
rémunération aux pièces. Dans le groupe 1, la productivité baisse, et reste
basse, dans les groupes 2 et 3, après une courte baisse après le
changement, la productivité augmente et reste à un niveau nettement
supérieur à celui du groupe 1 et du niveau antérieur, enfin dans le groupe 4
la productivité baisse après le changement mais remonte après deux
semaines.
Non seulement la valeur du système démocratique de leadership est
ainsi confirmée, mais l’analyse théorique du niveau de production d’un
groupe de travail est démontrée être la résultante d’un équilibre de forces
en sens contraire (crainte du travail pénible, que le contremaître impose
comme norme future, augmentation temporaire des cadences contre le
désir de produire pour gagner plus et de ne pas rester en dessous de la
norme du groupe qui est celle des autres membres). Le changement, le
passage d’un équilibre à un autre ne peut se réaliser qu’en agissant
positivement ou négativement sur ces forces qui affectent les individus. Il
convient suivant le modèle évoqué plus haut de débloquer, introduire les
changements et de bloquer à nouveau sur le nouveau comportement.

3.3. Les styles de gestion de Likert


Rensis Likert42 (1903-1981) peut être considéré comme le successeur
de Kurt Lewin. Dirigeant de l’Institute for Social Research à l’Université du
Michigan, il a poursuivi des recherches et expériences dans plusieurs
directions et en particulier dans le domaine des ressources humaines. Il va
proposer un modèle sophistiqué de gestion des organisations. Il liste 51
traits caractéristiques des organisations sur chacun desquels se
différencient quatre styles de gestion.
Ces 51 traits se répartissent en 8 groupes : style de direction,
caractéristiques des forces de motivation, processus de communication,
processus d’interaction et d’influence, processus de prise de décision,
établissement des objectifs et des directives, processus de contrôle et
enfin objectifs de performance et formation.
Likert distingue alors 4 styles de gestion fondamentaux : le système
exploiteur autoritaire, le système autoritaire bienveillant, le système
consultatif et le système participatif.
1. Le système exploiteur-autoritaire : repose sur des communications
verticales (supérieur/subordonné), les menaces, les sanctions et les
récompenses. Les décisions sont imposées et la hiérarchie forte. Le
système est très centralisé.
2. Le système autoritaire-bienveillant (paternaliste) : ce système reste
autoritaire, mais il y a des relations plus proches entre les salariés et le
dirigeant. Il y a un système de récompenses et de sanctions. Les
décisions peu importantes sont déléguées.
3. Le système consultatif : cherche à impliquer les salariés dans les
décisions, mais leur voix reste consultative. La consultation permet de
faire adhérer les salariés aux objectifs de l’organisation, mais la prise de
participation aux décisions réelles est limitée. Les communications sont
ascendantes et descendantes. Il y a des rapports de coopération et le
travail d’équipe est encouragé.
4. Le système participatif : la prise de décision a lieu au sein des équipes
de travail (fixation des objectifs, règlement des conflits…), la
communication est ascendante, descendante et transversale. Il y a
décentralisation. Il y a une véritable participation à la décision au sein
des groupes de travail.

Un certain nombre d’enquêtes sur le terrain de l’Institute for Social


Research démontrent la supériorité du système 4, participatif, qui crée des
rapports coopératifs entre tous les salariés, aboutit à des objectifs plus
élevés pour l’entreprise et les individus et bénéficie des avantages de la
prise de décision en groupe.
Cependant, Likert explique que malgré la supériorité du système 4 la
plupart des entreprises utilisent surtout les systèmes 2 et 3, qui peuvent
apparaître parfois plus efficaces à court terme et surtout qui sont
beaucoup plus faciles à mettre en place.
Un autre aspect important de ses travaux est aussi centré sur le groupe
qui est fondamental dans son modèle. Supérieur et subordonnés ne
doivent pas agir séparément mais être considérés comme un groupe
interdépendant. Cependant, pour que l’organisation fonctionne, il faut non
seulement des groupes de travail cohésifs, mais il faut aussi que leurs
objectifs soient mutuellement compatibles et compatibles avec les buts de
l’organisation. Cela peut s’obtenir en ayant des groupes liés entre eux par
des coordinateurs de groupes compétents et entraînés qui sont membres
de plus d’un groupe. Ils communiquent les préférences déterminées en
commun dans un groupe donné aux membres des autres groupes dont
eux-mêmes sont membres et avec lesquels le processus de travail interagit.
Le rôle essentiel du supérieur peut donc se comprendre comme celui de
lien avec d’autres groupes où il est participant. De même le subordonné
peut être le supérieur dans un autre groupe, et établir le lien entre les
deux groupes. Il doit alors assurer en plus la compatibilité des objectifs
établis par chaque groupe, et pour cela faciliter la résolution de conflits
entre groupes et dissiper les stéréotypes et les perceptions sélectivement
négatives réciproques entre membres de groupes différents. C’est un rôle
difficile, souligne Likert, car cela nécessite de connaître, sans forcément les
partager, les normes de différents groupes et avoir les siennes propres
intermédiaires. Il doit également connaître et maîtriser le langage tant
interne que technique des groupes dont il assure l’interface.
A partir des années 1970-1980, les travaux sur le leadership se
multiplient et se complexifient. Ils intègrent une diversité de variables et
abordent des approches plus contingentes. C’est le cas notamment des
travaux qui suivent.

3.4. Tannembaum et Schmidt et le continuum des styles de


leadership
Tannenbaum et Schmidt43 représentent le leadership, au sein de
l’organisation, sous la forme d’un continuum entre deux pôles opposés,
l’un marqué par l’autoritarisme et l’autre par la non-directivité accordée
aux membres du groupe ou de l’équipe.
Il y a donc deux modèles opposés, qui forment les deux extrémités
d’un continuum. A l’une des extrémités, le leader est autoritaire, il cherche
à structurer sa volonté et à indiquer à chacun où est sa place et quelles
sont ses attributions. A l’autre extrémité, le leader établit des relations plus
interpersonnelles, des relations de confiance et délègue la responsabilité
des activités et la manière de les traiter aux membres du groupe ou de
l’équipe.
Entre les deux, il existe une diversité de systèmes plus ou moins
collaboratifs ou autoritaires. La pertinence de l’un ou l’autre de ces
systèmes de leadership dépend d’un ensemble de variables. Il n’y a donc
pas un bon mode de management des équipes, mais des modes de gestion
qui dépendent de la situation, de la concurrence, des caractéristiques et
des attentes des salariés, ou encore de la nature des problèmes
rencontrés.

3.5. Hersey et Blanchard et le management situationnel


Hersey et Blanchard44 développent la notion de leadership situationnel
et montrent que le leadership doit être adapté au degré de maturité des
collaborateurs. La notion de maturité a un sens particulier pour ces
auteurs. Elle renvoie à deux dimensions : d’une part aux compétences du
collaborateur (savoirs, savoir-faire, savoir-être) et d’autre part à la
motivation du collaborateur (niveau d’énergie que la personne est prête à
investir).
On distingue quatre niveaux de maturité :
• Le niveau de maturité M1 (peu de maturité, peu compétents et peu
motivés) les employés possèdent un bas niveau de compétences dans
le poste qu’ils occupent, connaissent mal les exigences de leur travail
et ont une faible motivation.
• Le niveau de maturité M2 (maturité moyenne/faible – peu compétents
mais motivés) : les employés maîtrisent un peu mieux (mais encore
peu) les exigences de leur travail, les compétences sont donc encore
faibles, mais ils ont une plus forte motivation.
• Le niveau de maturité M3 (maturité moyenne/élevée – compétents
mais peu motivés) : les employés connaissent les exigences de leur
travail, maîtrisent les compétences, mais ont des motivations encore
faibles, ils ont besoin d’être soutenus.
• Le niveau de maturité M4 (maturité élevée, compétents et motivés) :
les employés sont fortement motivés dans leur travail et ont un fort
niveau de maîtrise et de compétences.

Il revient alors au leader, ou manager, de s’adapter à la maturité de ses


subordonnés (c’est-à-dire à leurs compétences et à leur motivation). Le
management dépend donc de la situation. Dans une approche dynamique,
le leadership est donc situationnel, c’est-à-dire que le leader doit se
montrer adaptatif en fonction de la situation et adapter son style au degré
de maturité des personnes auxquelles il est confronté.
Tout l’art du leader consiste alors à diagnostiquer de quel mode de
leadership a besoin un collaborateur, en fonction de son degré de
maturité. Dès lors, il devra utiliser un mode de leadership plus ou moins
directif ou délégatif, selon la maturité des membres du groupe ou de
l’équipe.
Hersey et Blanchard et le leadership situationnel

• Le style directif (Maturité M1)


Les membres de l’équipe sont peu compétents et peu motivés. Dans ce
cas, le leader émet des instructions et consignes précises à ses
subordonnés de manière directive (planning, ordres, définitions des
fonctions etc.). Il est focalisé sur le résultat à atteindre. Il surveille
l’exécution des tâches. Le leader prend les décisions et laisse une faible
autonomie aux membres du groupe.
• Le style persuasif (maturité M2)
Les compétences des membres sont limitées, mais leur motivation est
forte. Le leader doit favoriser de bonnes relations avec ses subordonnés en
leur fournissant son soutien pour pallier à leur manque de compétences. Il
est encourageant. Il fournit beaucoup d’explications sur les raisons et les
conséquences des objectifs qu’il a fixé. Il apporte des informations, il
répond aux questions et il encourage l’équipe.
• Le style participatif (maturité M3)
Afin de motiver l’équipe, qui est a priori peu motivée bien que
compétente, le leader favorise leur participation à la prise de décision. Il
écoute, prend en compte les idées des collaborateurs, crée une ambiance
de travail conviviale. Il a un comportement encourageant, orienté sur la
relation pour tenter d’accroitre la motivation des membres de l’équipe.
• Le style délégatif (maturité M4)
Comme les subordonnés sont motivés et compétents, le leader n’a plus
besoin de leur expliquer les tâches et objectifs. Il peut les laisser travailler
en autonomie. Il peut leur confier du travail sans nécessité de contrôle ni
soutien fort. Il définit des missions et laisse les collaborateurs les gérer
selon leurs propres méthodes.
Par conséquent, selon Hersey et Blanchard, le leadership est évolutif et
situationnel. L’efficacité du leader passe par le développement de
l’autonomie des personnes, en fonction de leurs compétences et de leur
motivation.

3.6. La grille managériale de Blake et Mouton


Blake et Mouton45 proposent une grille managériale très célèbre et
utile. Ces derniers retiennent deux dimensions qui sont d’une part le degré
d’intérêt porté à la production ; et d’autre part le degré d’intérêt porté
aux hommes.
La grille managériale permet alors d’identifier cinq styles de
management :
• Le management appauvri (laisser faire) ;
• Le management fondé sur l’autorité (directif) ;
• Le management institutionnel (compromis) ;
• Le management « country club » (social) ;
• Le management fondé sur le travail équipes.
Dans le management appauvri, il y a un faible intérêt du leader porté à
la production comme aux individus. Le manager est peu investi, il s’appuie
sur une logique de « laisser faire ». Du coup, les salariés font un minimum
d’efforts pour accomplir leur tâche. Les relations sociales sont peu
développées et le travail ne présente pas beaucoup d’intérêt.
Dans le management fondé sur l’autorité, l’intérêt porté aux tâches est
élevé et l’intérêt porté aux individus est faible. L’objectif principal est de
réaliser la production dans une perspective d’économie de moyens et de
maximisation de la productivité, sans véritable prise en compte des
individualités et de leurs attentes et potentiel. Le travail est structuré de
telle façon que la dimension individuelle intervienne le moins possible. Le
leader est autoritaire, il s’appuie sur les règles pour contrôler et planifier la
production.
Dans le management institutionnel, on vise à rechercher un équilibre
(compromis) entre les performances à atteindre et un climat social de
qualité satisfaisante. L’intérêt porté aux tâches et aux individus sont assez
élevés mais sans que l’un ne l’emporte sur l’autre. Il constitue une voie
médiane au sein de laquelle les compromis sont recherchés. Le manager
tente de convaincre et d’associer les membres de l’équipe, plutôt que
d’ordonner.
Dans le management « country club », l’intérêt est principalement
porté sur les personnes, plus que sur la production. L’objectif est de
favoriser un bon climat social et d’éviter les conflits en prenant en compte
les attentes et motivations des salariés. La finalité est de créer une
ambiance de travail conviviale, qui est considérée comme un moteur à
l’activité. Le leader exerce peu de contrôle sur son équipe qui bénéficie
d’une forte autonomie.
Dans le management fondé sur le travail équipes, le modèle porte un
fort intérêt à la fois aux personnes et aux résultats. Le management repose
sur le développement de la confiance, de valeurs communes et du respect
entre personnes. La performance est obtenue grâce à l’implication des
salariés qui adhèrent au projet d’entreprise.
La grille managériale de Blake et Mouton

Dans l’approche de Blake et Mouton, le choix du mode de management


doit être pensé en fonction de la nature du travail et des tâches, des
caractéristiques du personnel, de leurs attentes et de leurs marges de
manœuvre au sein de l’entreprise. Il est donc contingent à la situation et
aux membres du groupe ou à l’organisation. De plus, bien souvent, les
managers peuvent avoir un mode de management dominant et un mode
alternatif, de rechange, en fonction de la situation. On voit bien ici
également que le leadership est contingent (dépassant ici largement les
théories des relations humaines dans leurs principes d’origine).
4. Les théories de la motivation
Les théories de la motivation s’insèrent aussi dans le prolongement des
théories des relations humaines, en ce qu’elles centrent l’attention sur la
dimension humaine de l’individu au travail. La motivation est un moteur
pour l’action. Elle est un facteur qui déclenche l’action, l’oriente et la
prolonge jusqu’à l’obtention des buts. Elle est recherchée chez les salariés
pour son impact sur leur performance (productivité, qualité, créativité…)
ainsi que pour réduire l’absentéisme et augmenter la satisfaction au travail,
voire le bien être. Il apparait donc d’emblée que la notion de motivation
est différente de celle de satisfaction. Ainsi, la satisfaction au travail
correspond à la réalisation d’attentes conscientes ou inconscientes. La
satisfaction se ressent après la motivation, elle en est une des résultantes
en fonction de la réalisation de certaines attentes.
La motivation a fait l’objet de nombreuses recherches, et continue à
alimenter encore aujourd’hui des travaux féconds en comportement
organisationnel.

4.1. Maslow et la hiérarchie des besoins


Maintenant très largement répandue et popularisée, la théorie de la
hiérarchie des besoins a été initialement proposée en 1954 par le
psychologue, Abraham Maslow46 (1908-1970). A son époque, elle est
particulièrement innovante, en ce qu’elle place les besoins des individus au
centre de l’organisation et remet alors en cause l’approche Taylorienne de
l’organisation, centrée sur la motivation financière. Elle lie implicitement
satisfaction et motivation et repose sur les idées suivantes :
• L’individu agit en fonction d’une série de besoins.
• Ces besoins sont hiérarchisés en une suite de niveaux.

Quand des besoins sont satisfaits, des besoins de niveau supérieur


apparaissant. Les besoins de niveau supérieur n’apparaissent que quand
ceux des niveaux inférieurs sont satisfaits. Ceci entraîne aussi la
conséquence qu’un besoin satisfait n’est pas une motivation et que les
besoins non satisfaits actifs entraînent des conséquences négatives chez le
salarié.
Cette hiérarchie des besoins comporte 5 étages :
• Les besoins physiologiques : abri, nourriture, repos, etc.
• Les besoins de sécurité : protection contre le danger, la menace,
l’insécurité (y compris dans la relation de travail).
• Les besoins sociaux ou d’appartenance : identification à un groupe, à
une collectivité, amitié, amour.
• Les besoins d’estime ou de reconnaissance : estime de soi, respect de
soi-même, confiance en soi, autonomie, compétence, connaissance,
reconnaissance par autrui, respect émanant des autres, statut.
• Les besoins de développement personnel : réalisation de soi-même,
créativité.
La théorie des besoins de Maslow

L’impact sur la structure et les méthodes de gestion des organisations


de cette théorie est important. En effet elle met en évidence les limites du
stimulant financier et l’impact du contenu du travail en tant que tel,
indépendamment des conditions qui l’entourent pour « motiver » les
salariés et donc remet en cause l’approche Taylorienne.
Un certain nombre de vérifications expérimentales des travaux de
Maslow, s’ils ont constaté l’existence de besoins chez les individus, ainsi
que l’importance des besoins psychologiques, ont cependant mis en doute
l’existence d’une hiérarchie des besoins.
4.2. Alderfer et la théorie ERD
Clayton P. Alderfer47 (1940-2015) remet en cause le fait qu’il soit
nécessaire qu’un besoin de niveau inférieur soit satisfait pour que le besoin
de niveau supérieur apparaisse. Selon Alderfer il n’y a pas d’ordre
prédéterminé d’assouvissement des besoins. Une personne peut aussi bien
progresser que régresser dans la hiérarchie des besoins. Il distingue alors
trois catégories de besoins, qui correspondent à la théorie ERD :
• Les besoins d’existence (E pour Existence) qui correspondent aux
besoins physiologiques et aux besoins de sécurité de Maslow. Ils
incluent le salaire nécessaire pour vivre et des conditions de travail
sécurisantes.
• Les besoins de rapports sociaux ou de sociabilité (R pour Relatedness
ou rapports sociaux) qui correspondent aux besoins d’appartenance et
d’estime de Maslow, c’est-à-dire à la nécessité d’entretenir des
relations interpersonnelles avec d’autres individus, tout en cherchant
l’estime des autres.
• Les besoins de développement personnel (D pour développement /
Growth) qui ont à voir avec la réalisation personnelle et la créativité. Ils
correspondent aux besoins de réalisation de soi de Maslow.
4.3. La théorie bi-factorielle de Herzberg
La théorie bi-factorielle de Herzberg48 part du constat que les réponses
sont réellement différentes selon que l’on demande aux individus ce qui
cause leur satisfaction ou leur insatisfaction au travail.
Herzberg utilise la méthode dite des incidents critiques qui consiste à
demander aux individus interviewés de relater des événements concrets
dans le passé au cours desquels ils se sont sentis exceptionnellement
satisfaits ou insatisfaits dans leur travail. Une analyse de ces incidents en
dégage ensuite les thèmes principaux. Sur la base de cette façon de
procéder, initialement appliquée à un échantillon de comptables, Herzberg
constate que ce ne sont en fait pas les mêmes facteurs qui causent les
souvenirs agréables et les souvenirs désagréables en sens inverse.
Une analyse plus poussée et d’autres expériences amènent à formuler
la théorie suivante : certains facteurs sont des motivateurs, c’est-à-dire que
ce sont des facteurs qui amènent à une satisfaction intrinsèque tirée du
travail. Ce sont la réalisation de soi, la reconnaissance du travail, le travail
en soimême, son contenu, les responsabilités et les opportunités
d’avancement. D’autres facteurs, dits facteurs d’hygiène, peuvent créer
l’insatisfaction dans le travail, s’ils ne sont pas traités comme il convient. Il
s’agit des conditions de travail, de la politique de l’entreprise et de son
système administratif, des relations interpersonnelles entre salariés, du
salaire et du système de supervision. Toutefois, ils ne sont pas des
motivateurs. Donc les deux sentiments, de satisfaction et d’insatisfaction,
ne sont pas deux points opposés sur un même continuum. L’opposé de
l’insatisfaction au travail n’est pas la satisfaction mais l’absence de
l’insatisfaction. En conséquence, la motivation au travail ne peut venir de
l’élimination des facteurs d’insatisfaction, c’est-à-dire de l’amélioration des
facteurs d’hygiène puisqu’ils sont sans impact sur la satisfaction. De même,
l’opposé de la motivation n’est pas l’insatisfaction mais l’absence de
motivation, donc la motivation proviendra de l’accroissement des facteurs
de motivation.
En d’autres termes, si les facteurs de motivation dans le travail sont
absents, les salariés ne feront pas preuve d’insatisfaction mais ils ne seront
pas motivés. À l’inverse, ils seront insatisfaits, indépendamment de leur
motivation, donc pas forcément démotivés, mais chercheront peut-être à
partir, si les facteurs d’hygiène, dont l’absence crée l’insatisfaction dans le
travail, ne sont pas traités.
L’impact essentiel des travaux d’Herzberg va se faire sur les
organisations à travers le mouvement pour l’amélioration de la qualité de
la vie au travail. Il tire en effet comme conclusion directe de sa théorie que
la direction doit, individuellement, élargir et enrichir le travail de chacun.
Le mouvement connaît son apogée dans les années 1970 et il a laissé des
traces durables49. Il convient cependant de noter que les fondements et la
méthodologie des travaux de Herzberg ont aussi fait l’objet de critiques.

4.4. Mac Gregor et les théories X et Y


Douglas McGregor50 (1906-1964) oppose deux conceptions de l’homme
au travail (les théories X et Y). La théorie X correspond, selon lui, à la vision
traditionnelle et la théorie Y à une vision plus moderne.

La conception de l’homme au travail dans les théories X et Y

Deux styles de gestion en découlent. Dans le style X – ou bâton carotte


– c’est l’autorité qui est centrale et le contrôle est fort. A l’opposé, dans le
style de management Y l’autonomie laissée au salarié est plus grande,
parce qu’on considère qu’il est capable de prise de responsabilité et de
créativité par lui-même.
Selon Mac Gregor, la théorie X est dominante dans les entreprises
Tayloriennes et Fordiennes, alors qu’elle est inadaptée. En effet, seule la
théorie Y est à même de véritablement prendre en compte les besoins
réels et motivations profondes des individus au travail. Dès lors, la théorie
Y est mieux adaptée pour développer le potentiel humain. Elle permet de
mieux comprendre les motivations profondes des salariés et donc de
mieux gérer les individus au sein de l’entreprise.

Les styles de gestion dans les théories X et Y

4.5. Argyris et le succès psychologique


Chris Argyris51 (1923-2013) considère que l’efficacité d’une organisation
ne doit pas se focaliser uniquement et de manière étroite sur l’atteinte de
ses objectifs, mais que la réalisation de ces derniers passe justement par
l’atteinte du succès psychologique de ses membres. En effet, les
organisations ont à leur disposition beaucoup de sources d’énergie, parmi
lesquelles se situe l’énergie « psychologique ».
Le succès psychologique est décrit comme le mécanisme à travers
lequel l’individu accroît son estime de lui-même. Il se produit quand
l’individu est capable de définir ses propres buts, que ces buts sont reliés à
ses besoins centraux, qu’il est capable de définir le chemin qui mène à la
satisfaction de ses buts, et que leur réalisation représente un niveau
d’aspiration réaliste pour lui. Un but est considéré comme réaliste s’il
représente un défi ou un risque qui, pour être victorieusement relevé,
demande la mise en jeu d’efforts ou de capacités possibles pour l’individu
mais non encore tentés ou utilisés. Un but trop difficile ou trop facile ne
conduira pas au succès psychologique.
Pour atteindre le succès psychologique, il faut donc que l’individu vive
dans un monde où il puisse expérimenter un degré significatif de
responsabilité et de contrôle de soi, d’engagement, de productivité et de
travail et d’utilisation de ses propres capacités les plus importantes.
Ceci implique que, d’une part, l’individu doive s’accorder de la valeur et
aspirer à un niveau accru de compétence ; d’autre part, qu’une
organisation fournisse des occasions de défi au travail qui permettent la
réalisation du mécanisme décrit ci-dessus et enfin que la culture et la
société où l’individu se trouve le conduisent à placer une valeur élevée sur
la compétence et l’estime de soi.
Efficacité de l’organisation et succès psychologique des individus sont
congruents. L’entreprise doit donc favoriser un environnement et des
valeurs qui sont favorable à l’atteinte par ses membres du succès
psychologique. Cela inclut des actions visant à enrichir le contenu du
travail, favoriser la confiance et le management relationnel, renforcer les
valeurs de l’entreprise et mettre en place des systèmes de rémunération et
d’évaluation des salariés qui permettent d’encourager ces derniers à
participer au développement de l’organisation.

4.6. L’apprentissage en double boucle d’Argyris et Schön


Au-delà de la notion de succès psychologique, les travaux d’Argyris et
Schön52 mettent l’accent sur le fait que les entreprises efficaces sont celles
qui sont capables de développer l’apprentissage de leurs membres.
Face à des problèmes ou des imprévus, les individus perçoivent une
menace ou un malaise. Il en résulte des comportements défensifs qui
conduisent alors à l’inefficacité et à l’impossibilité de faire face au
changement.
Lorsque le problème est routinier, l’apprentissage possible porte sur la
correction des erreurs, qui correspond à un apprentissage en simple
boucle. Ce type d’apprentissage est utile, parce qu’il permet un ajustement
aux évolutions de l’environnement, mais il n’est adapté qu’aux situations
routinières et se base sur des mécanismes d’imitation.
Lorsqu’il s’agit de résoudre un problème plus complexe, le système
précédent n’est plus adapté. Les individus doivent alors remettre en cause
leurs façons de faire habituelles et adopter de nouveaux schémas de
pensée et d’action. Ceci suppose un apprentissage en double boucle qui
se caractérise par la levée des comportements défensifs et une autre
manière d’aborder la résolution des problèmes : faire des choix informés,
disposer d’une information valide, contrôler la mise en œuvre afin de
détecter et corriger les erreurs. Ceci n’est possible que s’il existe des
relations de confiance et de coopération. De ce fait, l’entreprise doit
favoriser des valeurs fortes ou des pratiques qui favorisent la confiance au
sein de l’organisation afin de réduire les comportements défensifs et
permettent les mécanismes d’apprentissage.

4.7. Vroom et la théorie des attentes ou théorie VIE


Victor Vroom53 s’intéresse à la motivation au travail et considère qu’il y
a une relation entre la motivation, c’est-à-dire les efforts des individus au
travail et la valeur qu’ils accordent à la récompense de leurs efforts qu’ils
peuvent en attendre.
Selon Vroom, la motivation dépend de trois variables : la valence,
l’instrumentalité et l’expectation.
• La valence (V) : est l’appréciation que la personne attribue aux résultats
obtenus par son effort, c’est à dire la valeur attribuée à la récompense
obtenue suite à son action (qui peut prendre la forme d’un salaire, de
considération, de prestige etc.).
• L’instrumentalité (I), est la perception du niveau de récompense
attendue par l’individu en fonction de l’effort réalisé. Il s’agit de ce que
l’on obtient suite à l’effort réalisé.
• L’attente ou expectation (E) représente l’opinion qu’a l’individu sur sa
capacité à atteindre l’objectif qu’il s’est fixé, ou ses chances de
réussites.

C’est la combinaison de ces trois concepts qui fonde la théorie VIE de


Vroom, en référence aux trois variables qui la compose : la valence,
l’instrumentalité et l’expectation. Ainsi, la motivation est le produit de la
valence, par l’instrumentalité et par l’expectation.
Il s’ensuit que dans l’entreprise, il est indispensable d’agir
conjointement sur les trois dimensions de la motivation. Tout d’abord, pour
agir sur l’expectation, il faut donner un retour régulier au collaborateur sur
ses résultats. Il s’agit ici de lui montrer s’il est parvenu, ou non, à atteindre
les objectifs fixés. Ensuite, pour agir sur l’instrumentalité, il faut que
l’entreprise ou le manager, affiche clairement les liens entre l’effort réalisé
par le collaborateur et l’obtention, ou non de récompenses. Dit autrement,
il faut que le collaborateur perçoive clairement le lien entre ses efforts et
l’obtention d’une récompense, en lien avec ses attentes. Enfin, pour
prendre en compte la valence, il faut que les récompenses aient de la
valeur aux yeux des salariés, c’est-à-dire qu’elles répondent véritablement
à leurs aspirations dans l’organisation. Cela peut conduire notamment à la
mise en place de systèmes de récompense plus individualisés, pour
répondre aux attentes et besoins différents des membres de l’organisation.
Notons que Porter et Lawler54, dans le prolongement de Vroom,
étudient et mettent en évidence les relations entre motivation, satisfaction
et performance.
Par conséquent, l’ensemble de ces théories, et d’autres, mettent
l’accent sur l’importance de prendre en compte les motivations profondes
des membres de l’organisation, qui ne sont pas seulement d’ordre
financier.
5. L’apport original de Barnard
Chester I. Barnard55 (1886-1961) est aussi un exemple de praticien qui a
réussi sa carrière professionnelle et qui théorise son expérience. Si nous le
plaçons à part dans ce chapitre, c’est parce que ses apports tout en étant
ancrés sur la prise en compte des relations humaines, les dépassent
largement et anticipent des analyses qui portent à la fois sur l’analyse des
systèmes et les théories du pouvoir et de la décision.
Les organisations sont pour Barnard par essence des systèmes de
coopération. Elles sont définies comme des systèmes d’activités et de
forces consciemment coordonnées de deux personnes ou plus. Elles
impliquent des personnes capables de communiquer, qui acceptent de
diriger leurs activités vers un but commun. En effet, les individus se
donnent des buts mais ont des capacités individuelles limitées. Ces limites
les obligent à adopter un but non personnel de groupe, à interagir avec les
autres et à coopérer. Ainsi, en coopérant vers un but commun, différent du
leur, les individus forment un groupe qui a des capacités plus grandes que
chacun d’entre eux pris séparément. Ils créent ainsi une situation globale
différente où le groupe peut résoudre des problèmes qu’aucun des
membres n’aurait pu résoudre isolément.
L’individu continuera à coopérer dans l’organisation en fonction des
satisfactions et insatisfactions qu’il y éprouvera.
L’organisation, ainsi conçue est une construction analogue à un champ
de forces qui résulte d’une combinaison dynamique de variables, et non
simplement du rassemblement de ces variables. Elle prend forme quand la
communication s’établit entre différentes personnes, qui ont la volonté de
contribuer à la réalisation d’une action, en vue d’atteindre un but commun.
Barnard en déduit les fonctions suivantes du cadre dirigeant :
• Entretenir le système de communication de l’organisation (plan de
coordination des tâches et sélection et évaluation du personnel).
• S’assurer les services essentiels de la part des individus qui participent
(les inciter à coopérer).
• Formuler les buts de l’organisation (en les subdivisant en délégations
de responsabilité).

Dans ce cadre, nous mettons ici en évidence trois contributions de


Barnard au service de la théorie des relations humaines et qui en font
également un précurseur de certaines analyses qui se développeront
autour de la rationalité et de la prise de décision dans les organisations qui
sont étudiées plus loin.
En premier lieu Barnard distingue l’organisation formelle et
l’organisation informelle. Cette analyse oppose, d’une part, les
organisations prescrites vers un but par une autorité reconnue et avec une
coordination consciente et, d’autre part, les activités exercées en commun,
mais sans but commun conscient qui sont sécrétées inévitablement par ces
premières organisations dès qu’elles dépassent une taille minimale. Cette
distinction a des conséquences importantes car en particulier elle se situe
au centre de l’opposition entre les théories traditionnelles, symbolisées par
l’organisation formelle et l’organigramme, et l’école des Relations
Humaines, symbolisée par l’organisation informelle et les rapports affectifs
du sociogramme. Cependant Barnard considère que les deux modes
d’organisation sont indissociables, aucune ne peut exister sans l’autre. De
plus loin d’être une nuisance ou une concurrence les organisations
informelles sont utiles, elles maintiennent la communication, la cohésion
des groupes, le sentiment d’intégrité personnelle des individus.
En second lieu, la distinction efficacité/efficience est aussi mise en
évidence par Barnard. Il lui donne cependant ici un sens particulier.
L’efficacité est le degré de réalisation du but, de l’objectif de coopération
de l’organisation. L’efficience est la satisfaction des motifs individuels des
membres pour qu’ils fournissent les efforts nécessaires au fonctionnement
du système et la réalisation d’un équilibre dans la distribution des
ressources. Barnard note d’ailleurs qu’il est du devoir du dirigeant de fixer
ce but et de le renouveler quand il est atteint, de façon très concrète.
Il peut s’agir par exemple d’un inventeur qui crée une entreprise pour
fabriquer et commercialiser son invention, où bien du gouvernement qui
établit une mission, une agence, une commission, pour améliorer la
sécurité routière, les conditions de travail, étudier les problèmes auxquels
ont à faire face les cyclistes, etc. Par définition, le (ou les)
créateur/initiateur ne peut rester seul puisque le problème dépasse les
solutions que peut lui apporter l’action strictement individuelle. Une
distinction ici est importante : soit il y aura plusieurs initiateurs, qui, restant
entre eux accompliront au moins initialement et pour partie, sinon pour le
tout, les activités nécessaires. Soit, il y aura un, ou des initiateurs et d’autre
part, des individus qui, sans participer à la création, accepteront de
prendre part à temps plein ou pour partie aux actions conçues par le ou les
créateurs en vue d’atteindre le but qu’ils se sont fixé. Les raisons
d’appartenir à l’organisation de ces individus vont être différentes de celles
des créateurs ou initiateurs. La raison des créateurs de participer à
l’organisation est la satisfaction du but qu’ils ont eux-mêmes fixé à cette
organisation. Mais ce but ultime n’est pas obligatoirement, ni même le plus
souvent, la raison de l’appartenance à l’organisation des individus qui
accepteront de participer aux actions initiées par les créateurs. En d’autres
termes leurs motifs individuels d’adhésion à l’organisation seront différents
des buts de l’organisation. Pourquoi y adhèrent-ils ? Très généralement
parce que certains de leurs besoins ou de leurs buts propres et individuels
vont être satisfaits par l’appartenance à l’organisation. Il peut s’agir tout
simplement du besoin de gagner un salaire dans une entreprise, de
satisfaire à la volonté de développer des relations sociales, etc.
Une conséquence directe et importante doit être tirée de cette
distinction. Comme l’a d’ailleurs noté Barnard une organisation pour
réussir doit donc produire deux catégories de résultats :
• Les résultats qu’elle a été créée pour produire initialement ou ceux qui
contribuent aux buts que lui assigneront les dirigeants qui succèdent
aux fondateurs.
• Les résultats qui assurent la satisfaction des besoins de ses membres
autres que les créateurs ou les dirigeants pour que ceux-ci continuent à
y adhérer. Par exemple des conditions de travail, de salaire et de
reconnaissance suffisants pour attirer et retenir des individus qualifiés
dans les fonctions dont l’organisation a besoin.

Cette dualité de catégories d’objectifs entre l’organisation elle-même et


ceux qui participent à son fonctionnement est lourde de conséquences.
Notons simplement à ce point que certaines des conséquences de cette
constatation ont cependant des effets et des répercussions profondes. Par
exemple dans toute organisation où participent des individus qui ne sont
pas les initiateurs ou les dirigeant de l’organisation, il peut y avoir une
opposition entre les buts de l’organisation et les buts des différents
individus qui la compose. Les membres de l’organisation peuvent être plus
ou moins conscients du but de l’organisation, ces derniers peuvent être
plus ou moins compatibles avec leurs propres buts individuels.
En troisième lieu, Barnard est à l’origine d’une conception originale du
pouvoir qui place sa source chez l’exécutant et non chez celui qui
commande. En effet, si dans une situation organisationnelle habituelle
hiérarchisée, un supérieur donne un ordre à un exécutant qui refuse de s’y
plier, alors cela met en difficulté le supérieur. De ce fait, c’est le
subordonné qui décide de s’exécuter ou pas, en fonction de ce qu’il pense
que l’ordre reçu est légitime ou non, acceptable ou non dans les
circonstances où il se trouve et lui être avantageux ou non
comparativement au fait de ne pas accepter ou d’y ajouter des conditions
ou récompenses additionnelles. Certes, le subordonné peut être considéré
comme étant soumis à des contraintes, mais il n’est pas pour autant
démuni d’un certain pouvoir.
Pour l’ensemble de ces raisons, Barnard apporte un regard original et
précurseur à l’étude des organisations.
Focus : L’essentiel des théories des relations humaines
A partir des années 1930, un ensemble de théories dites des relations
humaines se sont développées. Elles ont pour point commun essentiel de
remettre en question certaines hypothèses de base des théories
traditionnelles qui les ont précédées. Elles ont notamment replacé
l’individu, c’est à dire les hommes et les femmes qui la compose, au
centre de l’organisation.
Les théories des relations humaines ont mis en évidence des phénomènes
fondamentaux dans les organisations tels que l’influence de l’organisation
informelle, les relations dans les groupes et entre les groupes, l’affectivité
et toute la substance informelle qui entoure les structures formelles des
organisations. Elles ont aussi remis en cause l’hypothèse Taylorienne selon
laquelle la motivation de l’individu au travail était principalement
financière.
L’origine des théories des relations humaines est associée aux travaux
d’Elton Mayo (1880 – 1949) à l’usine de Hawthorne de la Western Electric
dans les années 1920. Les études réalisées mettent en valeur le « facteur
humain », c’est à dire l’importance jouée par les relations
interindividuelles dans l’organisation du travail et dans sa performance.
L’individu n’est pas un être isolé, simplement mû par son intérêt
économique, mais il recherche également une satisfaction sociale. La
motivation est influencée par l’affectivité, les bonnes relations entre
membres du groupe et l’attitude compréhensive du leader.
Il est à noter que le principe du « one best way » s’applique toujours à
nombre des théories des relations humaines, du moins jusqu’aux années
1970/1980, même si par la suite, leurs prolongements intègrent une vision
plus contingente et moins déterministe. Ainsi, dans les théories des
relations humaines d’origine, il existe toujours une bonne manière de faire
les choses. Il suffit de modifier les relations informelles, d’agir sur les
relations humaines et d’améliorer les conditions de vie au travail pour
résoudre les dysfonctionnements que rencontrent les organisations. Un
ensemble d’études psychosociologiques mettent en évidence les
relations d’influence qui opèrent au sein de groupes :
•Lewin (1943) développe une théorie de la dynamique des groupes qui
place chaque individu dans un « champ de forces ».
•Le sociogramme de Moreno (1951) propose une représentation
graphique des relations informelles au sein du groupe.
•Sherif (1935) met en évidence l’effet de normalisation qui incite les
membres d’un groupe à converger vers l’opinion dominante.
•Asch (1956) montre qu’il y a une tendance d’ajustement de la minorité
sur le comportement jugé conforme de la majorité au sein des
groupes.
•Milgram (1974) à travers sa célèbre expérience sur la résistance à
l’autorité, fait apparaître les mécanismes de pressions qui s’exercent
sur les individus au sein de organisations.
•Les années 1970 voient le développement de l’Organizational
Development (OD). Les programmes les plus connus sont appelés
les Training Groups. Ils proposent des méthodes pratiques pour
amener les membres d’un groupe à exprimer leurs ressentis et à
mieux gérer leurs relations interindividuelles afin de favoriser la
cohésion et de réduire les conflits au sein du groupe.
Au sein des théories des relations humaines, un certain nombre
d’études s’intéressent au leadership, c’est-à-dire à la manière dont
certains individus, au sein des organisations arrivent à influencer les
autres et à les entrainer dans une direction donnée.
•Lewin (1943) puis Lippit et White (1960) mettent en évidence
l’existence de plusieurs types de leadership : autoritaire,
démocratique ou laisser-faire. Les études empiriques réalisées
montrent que le mode démocratique, dans lequel les individus sont
associés à la prise de décision, débouchent sur de meilleurs résultats
que les autres.
•Coch et French (1948) confirment la supériorité du modèle de
leadership démocratique et montrent que les individus acceptent
mieux le changement lorsqu’ils sont associés à celui-ci.
•Likert (1960) décrit 4 styles de leadership : le système exploiteur
autoritaire, le modèle autoritaire bienveillant (paternaliste), le
modèle consultatif et le modèle participatif. Un certain nombre
d’études de l’Institute for Social Research montrent la supériorité du
modèle participatif. Toutefois, dans la pratique, bien souvent le
système paternaliste ou consultatif lui sont préférés parce qu’ils
présentent une bonne efficacité à court terme, même s’ils peuvent
engendrer des conflits et qu’ils sont souvent plus faciles à mettre en
place que le système participatif qui nécessite des relations de
coopération.
•Tannenbaum et Schmidt (1973) considèrent que le management de
l’organisation peut être représenté par un continuum aux
extrémités duquel se situe deux modes de leadership opposé, le
mode autoritaire et le mode non directif. Entre les deux il existe une
diversité de système de leadership plus ou moins directifs ou
collaboratifs.
•Hersey et Blanchard (1977) proposent une vision plus contingente des
modes de leadership. Ainsi, dans leur théorie du management
situationnel, ils montrent que le style de leadership dépend du
niveau de maturité des membres du groupes. La maturité, elle-
même, est fonction de la compétence et de la motivation de ces
derniers. Il s’ensuit que le style de leadership dépend de la situation
et des caractéristiques des membres du groupe.
•Blake et Mouton (1985) fournissent une grille managériale, en
fonction à la fois du degré d’intérêt porté aux hommes et à la
production, qui distingue 5 styles de management : le management
appauvri, le management fondé sur l’autorité, le management
institutionnel (compromis), le management country club et le
management fondé sur le travail en équipes.
Un autre pan théorique porte sur la motivation au travail et son impact sur
un ensemble de variables telles que la satisfaction, la performance ou
encore l’intention de quitter l’organisation.
•Maslow (1954) développe une théorie des besoins selon laquelle
l’individu agit en fonction de 5 séries de besoins, qu’il a besoin de
réaliser successivement : les besoins physiologiques, les besoins de
sécurité, les besoins d’appartenance, les besoins de reconnaissance
et les besoins de développement personnel.
•Alderfer (1972) remet en cause la hiérarchie des besoins de Maslow et
estime qu’il n’y a pas d’ordre déterminé d’assouvissement des
besoins. De plus, il distingue trois catégories de besoins : les besoins
d’existence (qui regroupent les besoins physiologiques et de
sécurité de Maslow), les besoins de rapports sociaux (qui
regroupent les besoins d’estime et d’appartenance) et enfin les
besoins de développement personnel.
•La théorie bi-factorielle de Herzberg (1966) montre que les facteurs
qui créent la satisfaction et l’insatisfaction ne sont pas les mêmes.
•Mac Gregor (1960) développe deux conceptions de l’homme au travail
qui correspondent à deux modes de gestion différents. La théorie X,
qui correspond au modèle Taylorien-Fordien, est inadaptée aux
motivations profondes des individus au travail. La théorie Y permet
de développer le potentiel humain.
•Argyris (1955) estime que les organisations performantes sont celles
qui favorisent le succès psychologique de leurs membres.
•Argyris et Schön (1978) mettent l’accent sur les processus
d’apprentissage en double boucle au sein des organisations et
montrent que l’entreprise doit développer des actions pour rendre
l’entreprise apprenante si elle veut dépasser les mécanismes défensifs
face au changement et être capable d’innovation.
•Vroom (1964) élabore la théorie VIE selon laquelle la motivation est égale
au produit de la valence (V), de l’instrumentalité (I) et de l’expectation
(E). La motivation d’un individu est d’autant plus élevée qu’il a le
sentiment qu’il est capable de réaliser l’effort attendu pour obtenir la
récompense qu’il souhaite, et que cette récompense a de la valeur à
ses yeux.

L’ensemble de ces travaux ont mis en lumière l’importance de placer


l’humain au centre des organisations et ouvert le champ à de nombreuses
autres réflexions en gestion des ressources humaines et en comportement
organisationnel.
_______
22
Sur l’œuvre de May Parker Folett, Voir Fox, E. M. and Urwick, L. M., eds, Dynamics
Administration: The collected papers of Mary Parker Folett, NY, Pittman Publishing, 1973. Follett, M. P.
(1924), Creative Experience, New York: Longmans, Green ; Follett, M. P. (1918), The New State, New
York: Longmans, Green.
23
Voir Rojot J., Roussel P., Vandenbergh C., Comportement organisationnel, Volume 3, De Boeck,
2009.
24
Certains de ces travaux (notamment sur l’implication au travail et la justice organisationnelle)seront
abordés plus loin dans le chapitre consacré à l’entreprise et à la relation au travail.
25
Notons que Brown fait remonter certaines analyses des découvertes de ce courant à Edmond
Burkeau XVIIIe siècle dans Brown, J.A.L. The Social Psychology of Industry, London, Penguin, 1954, p.
89.
26
Un exposé très clair de ces expériences est donné par Tannenbaum, A. S., Social Psychology of the
Work Organisation, Belmont, C. Wadsworth Publishing Company Inc., 1966.
27
Roetlishberger, F. J. et Dickson, W. J., Management and the Worker, Boston, Harvard University
Press, 1939, p. 19.
28
Mayo, G. Elton, ‘‘Hawthorne and the Western Electric Company: The Social problems of an
industrial conflict’’, Routlegde 1949, London, extrait dans Pugh (ed.), Organization Theory,
Harmondsworth, Penguin, 1971, pp. 215-229.
29
F.J. Roetlishberger et W.J. Dickson sont les auteurs de Management and the Worker, opus cit., qui
est le compte rendu intégral des expériences de l’usine de Hawthorne, écrit a posteriori. T.
Whitehead est l’auteur de The Industrial Worker, Harvard University Press, Cambridge, Mass. 1938.
30
Voir Desmarez, P. La Sociologie industrielle aux États-Unis, Paris, Armand Colin U, 1986, p. 31 et s.
31
Rose M., Industrial Behavior, London, Pingouin, 1978.
32
Goldthorpe et al., The affluent worker, University Press, Cambridge, 1968.
33
Brown J. A. L., The Social Psychology of Industry, London, Pingouin, 1954.
34
Un aperçu des travaux de Lewin est présenté dans Cartwright, D., (ed.), Field Theory in Social
Science: Selected Theoretical Papers by Kurt Lewin, London, Tavistock, 1952.
35
Moreno J. L., Sociometry, Experimental Method and the Science of Society: An approach to the new
political orientation, Beacon House, New York, 1951.
36
Shérif, M. A., ‘‘A Study of some social factors in perception’’, Archives in Psychology, 1935, n°187.
37
Asch, S. E., ‘‘Studies of Independence and Conformity: I. A minority of one against a
unanimousmajority’’, Psychological Monographs, 1956, 70, n°9.
38
Milgram, S., Soumission à l’autorité, Paris, Calman-Lévy, 1974.
39
Lewin, K., ‘‘Forces behind food habits and methods of change’’, NRC Bulletin, n° 108, 1943.
40
White, R. and Lippit R., Autocracy and Democracy, An experimental Inquiry, New York, Harper, 1960.
41
Coch, L. and French J. R. P., ‘‘Overcoming Resistance to change’’, Human Relations, vol. 1, 1948, pp.
512-532.
42
Likert, R., New Patterns of Management, New York, Mc Graw Hill, 1961 and The Human
Organisation, New York, McGraw Hill, 1967.
43
Tannenbaum R., Schmidt W., How to choose a leadership pattern, Harvard Business Review, 1973.
44
Hersey P., Blanchard K. H., Management of organizational behavior, utilizing human resources,
Prentice Hall, Englewood Cliffs, 1977.
45
Blake R., Mouton J. S., The managerial Grid III, the key to leadership excellence, Gulf Publishing
Company, 1985.
46
Maslow A., Motivation and Personality, New York, Harper and Row, 1954.
47
Alderfer C. P. ‘‘An empirical test of a new theory of human needs’’, Organizational Behavior and
Human Performance, vol. 4, n° 2, pp. 142-175, 1969.
48
Herzberg, F., Work and the nature of man, New York, T.Y Crowell Co., 1966.
49
Notamment en France, la création de l’Agence Nationale pour l’Amélioration des Conditions
deTravail (ANACT).
50
Mc Gregor, D., The Human Side of Enterprise, New York, McGraw Hill, 1960.
51
Argyris, C., ‘‘Organizational Leadership and Participative Management’’, The Journal of Business, vol.
28 n°1, January 1955, pp. 1-7. Personality and Organization, The Conflict between System and the
individual, New York, Harper and Row, 1957. Integrating the Individual and the Organization, New
York, Wiley 1964. Management and Organizational Development, New York, Mc Graw Hill, 1971.
52
Argyris M., Schön D., Organizational Learning, a theory of action perspective, Mass :Addison
Wesley, 1978.
53
Vroom V., Work and Motivation, New York, John Wiley and Sons, 1964.
54
Porter, L. W. et Lawler, E. E. (1968), Managerial attitudes and performance, Homewood, III, Irwin.
55
Barnard C. I., ‘‘The Functions of the Executive’’, Cambridge, Mass, Harvard University Press, 1938.
A partir des années 1960-1970, les théories de la contingence
structurelle vont remettre en cause un principe sur lequel reposent à la fois
les théories traditionnelles et celles des relations humaines, aussi
différentes qu’elles soient dans leurs méthodes et leurs prescriptions. Il
s’agit du préalable tacite du « one best way » : l’idée selon laquelle il y a
une et une seule bonne manière de faire les choses. Ainsi, il est
implicitement considéré dans ces deux courants de pensée, à quelques
exceptions près, qu’il suffit de trouver et d’établir la bonne organisation
formelle (théories traditionnelles), ou bien le bon climat psychologique
(théories des relations humaines), et tous les problèmes sont résolus dans
tous les types d’organisations. Les théories de la contingence structurelle
vont alors remettre en cause ce principe et libérer, au moins en partie, la
réflexion théorique du postulat de l’existence d’un seul bon mode
d’organisation.
Le terme « contingent » fait référence au fait qu’il peut exister plusieurs
cas de figure. À des situations diverses et variables peuvent correspondre
des modes d’organisation divers et variables. Cette contingence est dite
structurelle car les changements dans les variables vont essentiellement
affecter la structure de l’organisation. Donc, à divers états de ces variables
correspondent divers modèles (qui restent la plupart du temps optimum)
d’organisation et non plus un seul.
Historiquement, la plupart des théories de la contingence structurelle
se développent de manière indépendante, mais néanmoins
concomitantes. A tel point qu’un grand nombre de théoriciens tels que
notamment Lawrence et Lorsch, Perrow, Woodward, Burns et Stalker,
décident de se rencontrer, lors de la célèbre conférence de Pittsburg, en
1967, pour confronter leurs résultats et débattre de leurs démarches
contingentes.
L’analyse de la littérature amène à distinguer deux types de théories de
la contingence structurelle : celles qui relient certains traits de la structure
des organisations à des variables internes, et celles qui les relient à des
caractéristiques de variables externes.
Notons que beaucoup de ces théories restent normatives. Elles
aboutissent souvent à des prescriptions en matière de caractéristiques de
structure à adopter pour les organisations en général, mais le plus souvent
pour la catégorie particulière d’organisation constituée par les entreprises.
Enfin, pour terminer ce chapitre, nous présentons les apports plus
modernes et plus larges de Mintzberg sur les configurations
d’organisations.
1. Les théories de la contingence interne
Nous passons en revue successivement 4 variables internes de
contingence : la taille, l’âge, la technologie et la stratégie. Tout d’abord,
nous exposons les travaux de Dale et de Blau sur la taille de l’organisation,
puis ceux de Starbuck, de Greiner et de Stinchcombe sur l’âge, ensuite les
travaux de Woodward, Thompson et Perrow sur la technologie et enfin
ceux de Chandler sur la stratégie.
1.1. La taille de l’organisation
Dans une étude datant des années 1950, Dale56 avait déjà constaté qu’à
des tailles différentes d’entreprises correspondaient des problèmes
d’organisation différents. C’est ainsi que pour une petite entreprise,
division du travail et relations interpersonnelles sont les facteurs les plus
importants, alors que dans une très grande organisation, la coordination
des fonctions, la prise collective de décision et la décentralisation
deviennent essentielles et plus préoccupantes.
Cependant, l’étude la plus notable dans ce domaine est sans doute
celle de Blau57. Ces travaux se basent sur les résultats de l’analyse de
régression de séries de données empiriques relatives aux agences
gouvernementales de l’emploi aux États-Unis qui sont confirmées par
l’examen d’autres données sur les départements financiers du
gouvernement. Il a été aussi procédé à des recherches sur les grands
magasins, universités et hôpitaux.
Le problème, toujours complexe, de la mesure de la taille de
l’organisation est résolu en s’en tenant au seul critère du nombre de
membres dans l’organisation.
Un autre facteur important de cette étude, la différenciation, sera
défini comme le nombre de composants structurels que l’on peut
formellement distinguer en fonction d’un critère matériel. Il sera donc
mesuré empiriquement sur un certain nombre de dimensions :
• Le nombre de succursales (branches) locales.
• Le nombre de qualifications distinctes (indice de la division du travail).
• Le nombre de niveaux hiérarchiques.
• Le nombre de divisions dans les succursales et le nombre de services
dans les divisions ainsi que leurs propres segmentations éventuelles en
départements.

Les conclusions des études de Blau sont les suivantes :


1. La taille croissante d’une organisation entraîne la différenciation de sa
structure suivant plusieurs dimensions, mais à un taux décroissant :
• Une grande taille entraîne la différenciation de la structure.
• Une grande taille entraîne une différenciation sur plusieurs
dimensions : horizontalement, spécialisation des postes, nombre de
niveaux hiérarchiques, structure droite et haute ; et verticalement,
nombre de composants horizontaux (branches, sections, divisions).
• Le taux de différenciation décline quand la taille continue à s’accroître.
• Les segments en lesquels une organisation est différenciée se
différencient eux-mêmes parallèlement de l’intérieur.

Il est dérivé de ces résultats :


• L’influence marginale de la taille décroît au fur et à mesure qu’elle
même croît.
• Plus grande est une organisation, plus grande est la taille moyenne des
composants de sa structure de toute espèce (ainsi d’ailleurs que leur
nombre).
• Plus grande est l’organisation, plus large est l’étendue du contrôle.
• Les organisations présentent des économies d’échelles en
encadrement.
• Mais ces économies d’échelle en encadrement déclinent elles-mêmes
avec la croissance additionnelle de l’organisation.

En d’autres termes, la taille croissante entraîne une division extensive


des responsabilités pour faciliter l’exercice du travail et réduire le besoin de
supervision. Cependant, ce mouvement crée des problèmes de
communication et de coordination entre segments qui s’opposent au
mouvement continu de différenciation.

2. La différenciation dans la structure des organisations crée une


demande accrue en personnel d’encadrement car l’organisation est
plus complexe.
• La grande taille d’une organisation augmente indirectement la
demande du personnel d’encadrement à travers la différenciation
qu’elle entraîne.
L’effet direct de la grande taille d’une organisation qui produit des
• économies d’échelle en personnel d’encadrement excède son effet
indirect de faire croître la demande en ce même personnel
d’encadrement (du fait de la complexité accrue de ses structures).
• La différenciation d’une grande organisation en segments arrête le
déclin des économies d’échelles en encadrement qui résulte de la taille
croissante.

Cette dernière proposition résulte du fait que le taux d’économies


d’échelle en encadrement croissant avec la taille de l’organisation va
tendre à décroître avec la taille croissante des composants différenciés. En
d’autres termes, le taux d’économie d’encadrement variant avec la taille
croissante est plus élevé dans des composantes différenciées relativement
petites que dans des composantes relativement grandes, sans doute parce
qu’il existe des capacités d’encadrement en excès, inutilisées dans les
petites composantes.
Howard Aldrich58 va résumer cette théorie assez complexe sous la
forme suivante, plus facilement appréhendable : le ratio du personnel
d’encadrement par rapport à l’ensemble du personnel (y inclus le
personnel de production) est proportionnellement plus faible dans les
grandes organisations que dans les petites. En effet, quand l’organisation
croît, il y a proportionnellement moins de salariés qui sont ajoutés à
l’administration qu’à la production et le ratio d’encadrement baisse jusqu’à
un certain point.
De plus, quand la taille de l’organisation croît, la différenciation
structurelle s’accroît à un taux décroissant au fur et à mesure que le travail
à accomplir est divisé en segments spécialisés alloués à différentes unités
spécialisées dans l’organisation. Cette différenciation est nécessaire afin
d’assurer le fonctionnement d’une entreprise devenue complexe puisque
le caractère hétérogène de la totalité des opérations à accomplir est réduit
à des dimensions gérables en divisant le travail à exécuter en sous unités
homogènes. Ceci réduit le conflit intra-organisationnel et structurel et
conduit à un accroissement indirect du ratio encadrement/ensemble du
personnel car la différenciation augmente l’hétérogénéité des
responsabilités dans l’organisation, entre sous unités et avec les membres
de la direction générale. Elle facilite le contrôle.
Enfin, la croissance de la différenciation crée un problème de
communication, de contrôle, qui entraîne un accroissement du travail
d’encadrement.
Le modèle de Blau a été critiqué. Il est néanmoins bien illustratif du
courant de pensée de la contingence structurelle. Il met en évidence, en
tout état de cause, qu’avec la taille, la diversification, la différenciation, la
spécialisation sont inévitables, mais que le « composant administratif »,
c’est-à-dire l’encadrement, doit croître aussi pour maintenir dans les
domaines fondamentaux un degré de contrôle suffisant.

1.2. L’âge de l’organisation


Nombre de chercheurs ont étudié l’impact du temps – et donc de l’âge
sur les organisations selon des directions variées. Nous passons en revue
les apports de Starbuck qui établit un lien entre l’âge et la résistance au
changement, ceux de Greiner qui propose une analyse en termes de cycles
de vie des organisations et enfin ceux de Stinchcome qui établit des
regroupements en fonction de l’âge des industries auxquelles
appartiennent les organisations.

1.2.1. Starbuck et la résistance au changement


William Starbuck59 constate d’abord que quel que soit leur âge les
organisations résistent généralement au changement. Cependant, ce
changement est celui qui se produit dans l’organisation de la structure des
tâches, c’est-à-dire dans les programmes et activités à travers lesquels les
organisations cherchent à réaliser leurs buts. Ceci s’explique assez
facilement car le changement bouleverse les façons acquises et
considérées comme bonnes de faire les choses.
Au-delà de ce constat initial, il apparaît cependant que les
changements supplémentaires dépendent de l’âge de l’organisation. Les
organisations anciennes ont, en effet, tendance à résister au changement
dans les relations sociales qui existent entre leurs membres, alors que les
jeunes organisations résistent au changement dans leurs objectifs.
L’explication se trouve dans le fait que, dans les organisations récentes,
desquelles ils viennent de participer à la création ou auxquelles ils
viennent d’adhérer, les membres ressentent un certain degré
d’engagement envers le but de l’organisation. Plus le but est idéaliste, plus
c’est d’ailleurs le cas. Cependant, dans ces organisations jeunes, les
membres n’ont pas eu encore l’occasion de tisser entre eux des relations
sociales fortes ou des amitiés au travail. Le changement dans les relations
sociales leur est encore indifférent. Au contraire, dans les organisations
âgées, des relations sociales fortes existent et l’éventualité de leur
changement fait l’objet de résistances. Au cours du temps, de plus, les
membres ont développé une implication envers l’organisation elle-même
et des intérêts acquis à sa continuation. Ils approuveront donc,
contrairement au cas des jeunes organisations, des changements de buts,
pour aider à sa survie ou même simplement favoriser sa croissance.
Il apparaît donc qu’au fur et à mesure que les organisations vieillissent
leurs objectifs deviennent plus flexibles et leurs structures sociales plus
rigides, mais qu’en tout état de cause elles résistent au changement dans
la structure des tâches.

1.2.2. Greiner et la théorie des cycles de vie des organisations


Lary Greiner60 propose une théorie évolutive de l’organisation,
contingente à l’âge. Elle lie le passage du temps et la croissance de
l’organisation et s’applique essentiellement aux entreprises, et même,
parmi ces dernières à celles qui connaissent un régime de croissance
modérée sur une longue période. Les firmes à croissance rapide ou au
contraire beaucoup plus lente constituent des exceptions auxquelles ne
s’appliquent pas les analyses qui suivent.
L’âge implique le passage par une série de phases, avec une double
caractéristique de ce mouvement. D’une part, chaque phase intermédiaire
est à la fois un effet de la phase précédente et une cause de la phase
suivante. D’autre part, le processus constitue un mécanisme de fuite en
avant. Pour passer d’une phase à l’autre, l’entreprise doit traverser des
crises, mais la croissance doit se poursuivre. Après chaque crise, si elle est
surmontée, l’entreprise doit passer à la phase suivante et ne saurait sans
risque ni stagner ni revenir à une phase précédente.
Le cycle de vie des organisations selon Greiner

La première phase est celle de la créativité. Elle consiste en la création


d’une petite organisation entrepreneuriale caractérisée par des liens
informels et forts entre ceux qui participent à son essor. Si elle décolle avec
succès, alors se produira une crise de leadership. À un moment, se fera
sentir la nécessité de capacités managériales, souvent absentes chez les
fondateurs/entrepreneurs car elles demandent des qualités différentes des
leurs, pour gérer professionnellement la croissance. Si cette crise se résout,
ce qui n’est pas sûr car les fondateurs n’aiment guère laisser les
commandes à d’autres, alors s’ouvre une phase de direction caractérisée
par l’efficacité de la gestion. Cependant, avec le temps, il en résultera une
organisation plus formalisée, plus hiérarchisée, plus standardisée. Si la
croissance se poursuit, elle débouchera sur une crise d’autonomie. La
hiérarchie centralisatrice et lourde n’étant plus adaptée à une organisation
devenue différenciée, diversifiée et complexe. Les règles établies du
sommet gênent ceux qui sont au contact du terrain et qui ne peuvent plus
prendre d’initiatives, devenues plus nécessaires. Si la crise d’autonomie se
résout à son tour, ce qui n’est pas sûr non plus car, d’une part, il est difficile
pour ceux qui détiennent l’autorité totale d’abandonner une large part de
leurs responsabilités, et d’autre part, il est tout aussi difficile à ceux qui
n’en avaient pas l’habitude et qui n’en ont peut-être pas, ou plus, le goût
de les assumer et de prendre des décisions eux-mêmes, alors s’ouvre une
phase de délégation. Si l’expansion se poursuit, alors les managers des
divisions décentralisées, sujets à des contrôles uniquement financiers et au
management par exception, deviendront très puis trop autonomes. Il en
résultera une nouvelle crise dite de contrôle d’une organisation, où les
managers n’acceptent plus de contraintes du dessus de la part de leurs
supérieurs de la Direction générale, sur leurs opérations totalement
diversifiées. Il convient de noter à ce point qu’un retour à la centralisation
est tentant, mais il serait cause d’échec, car l’organisation est devenue trop
grande et variée pour être gérée ainsi. Si l’organisation survit, alors
s’ouvrira une phase de coordination. Celle-ci sera caractérisée par la mise
en place de mécanismes spécifiques, tels des procédures de planification,
une articulation des groupes de produits en centres de profits,
l’augmentation du nombre de départements fonctionnels, la centralisation
de certaines fonctions au siège (tels les systèmes d’information), la
construction d’une image et d’une identité de la firme. Ceux-ci permettront
une meilleure allocation des ressources. Cette multiplication des outils de
gestion débouchera sur une crise d’accumulation des procédures
complexes. Entassées les unes audessus des autres sans que l’utilité de
celles existantes soit jamais remise en question, elles entraîneront une
crise des relations entre opérationnels et fonctionnels et une prolifération
de programmes nuisibles à l’efficience. Si cette crise se résout, et il n’est
pas facile de supprimer des programmes où des intérêts acquis sont
investis, avec une opposition notamment venant des experts fonctionnels
qui avaient créé les systèmes précédents et des opérationnels qui
s’appuyaient sur les procédures formalisées, alors, l’organisation entrera
dans une phase de collaboration interpersonnelle et d’autorité partagée.
Seront mis en place des systèmes de management par équipes, de gestion
par confrontation des points de vue. Le mode de contrôle deviendra plus
social que formel. Cependant, si la croissance se poursuit toujours, après
un certain temps, ce nouveau climat sera mal vécu par certains car facteur
de stress et d’ambiguïté psychologique. La mise au point de structures
matricielles et de programmes de formation ne palliera que partiellement
ces inconvénients. Une nouvelle crise risque de s’ouvrir alors, de saturation
psychologique des managers, d’absorption de la vie privée dans la vie
professionnelle à laquelle il faudra répondre, si elle se résout à son tour,
par une nouvelle phase de développement de structures duales d’action et
de réflexion, de mise en place de « business units », d’organisation de la vie
professionnelle et personnelle des cadres dirigeants, avec années
sabbatiques, implication dans la vie civique, « intrapreneurship », «
coopétition », développement de la créativité, etc.
Ce modèle présente l’intérêt de mettre l’accent à la fois sur la nécessité
d’anticiper le changement et sur la nature intrinsèque au développement
de l’organisation de la survenance de problèmes pour sa survie.
La théorie formulée par Greiner prend en fait place dans une série
d’analyses qui se concentrent sur l’évolution des organisations dans le
temps, cherchant à développer des modèles de cycle de vie des
organisations.
Bien que ceux-ci soient fondés sur des phénomènes organisationnels
différents tels que les structures organisationnelles, les stratégies, les
problèmes fonctionnels, la mentalité des membres, les relations avec
l’environnement, l’emphase sur les principales activités organisationnelles,
ils ont été rassemblés et généralisés en un modèle unique à quatre
phases61.
• La première phase est entrepreneuriale, caractérisée par la créativité,
l’innovation ou la formation d’une niche.
• La seconde phase est collective, avec une forte cohésion et une
implication marquée dans l’organisation.
• La troisième phase est centrée sur la formalisation et le contrôle,
induisant stabilité et institutionnalisation.
• La quatrième est caractérisée par l’élaboration d’une structure
d’adaptation.

Le modèle s’arrête à la maturité des organisations, même s’il peut être


envisagé une phase finale de déclin et disparition62.
Le point important issu de ces analyses pour le management
stratégique est que, suivant l’ensemble des auteurs passés en revue, ces
étapes diverses sont caractérisées par des activités organisationnelles,
stratégies et structures différentes. Il en résulte donc que des critères
différents d’évaluation de l’efficacité des organisations devraient être
utilisés à chaque phase.

1.2.3. Stinchcombe et l’âge des industries et modèles d’organisation


Arthur Stinchcombe63 observe que les structures de certaines
organisations sont liées à la période à laquelle les types d’industries
auxquels elles appartiennent sont apparus dans l’histoire, et non à l’âge de
l’organisation elle-même. Se basant sur des données empiriques, il
distingue quatre groupes d’industries : pré-usine, début du XIX e siècle, âge
du chemin de fer et industries moderne. Les types d’organisation
appartenant à chaque groupe différent en termes de quelques facteurs
structurels qu’il isole : utilisation des aides familiales (emploi des membres
de la famille) dans l’affaire, proportion des salariés tenant des postes
d’employés, proportion d’administrateurs (ou de cadres) qui ont une
formation identique à celle des professions libérales.
Les industries de la période pré-usine (fermes, construction,
commerce de détail, hôtellerie) comptent beaucoup plus de travailleurs
indépendants et d’aides familiales (non payés) que les autres.
Les industries apparues au début du XIXe siècle (textile, vêtement,
banques, etc.) n’emploient à peu près aucune aide familiale, continuent
souvent à être dirigées par des membres de la famille salariés, comptent
une proportion élevée de postes d’employés et sont bureaucratisées, mais
seulement au-dessous du niveau des propriétaires et de la Direction
générale.
Les industries de l’âge du chemin de fer (chemin de fer, mines de
charbon) ne sont pratiquement plus dirigées par les familles des
propriétaires, mais le sont par des dirigeants salariés et sont
bureaucratisées jusqu’au sommet.
Les industries de l’âge moderne (transport aérien, automobile,
produits chimiques, production d’énergie électrique) sont aussi totalement
bureaucratisées, emploient massivement des départements entiers
composés de fonctionnels ayant une formation professionnelle de
profession libérale et/ou de cadre.
Stinchcombe justifie ces différences par 3 raisons principales :
premièrement la forme originale peut très bien rester la plus efficiente
pour une industrie donnée tant que certaines conditions techniques et
économiques essentielles ne changent pas ; deuxièmement, le maintien
des traditions, la protection des intérêts acquis, ou une position
idéologique fortement marquée autour de certaines valeurs peuvent avoir
préservé un type de structure ; enfin, troisièmement, le type d’organisation
peut bénéficier d’un quasi-monopole ou est assuré d’une base stable.
Henry Mintzberg64 confirme et étend l’analyse de Stinchcombe en
ajoutant des paramètres qu’il n’avait pas étudiés et une cinquième époque
(après 1950) avec les industries qui apparaissent dans les années 1970 et
1980 (aérospatial, électronique, consultants, etc.) et qui ont, elles aussi,
des traits particuliers et forment une cinquième période.
Bien évidemment, il faut noter que cette théorie a été critiquée.
Notamment, elle repose sur un certain type de classification des industries.
Des résultats différents auraient peut-être été obtenus par l’emploi d’un
autre mode de classification suivant d’autres critères. De plus, il paraît en
pratique difficile de séparer l’étude de l’âge et celle de la taille.

1.3. La technologie

1.3.1. Le modèle de Woodward


Joan Woodward65 (1916-1971) étudie dès les années 1950,
l’organisation et les structures de 100 firmes du sud-est de l’Angleterre
dans l’industrie manufacturière avec l’objectif de vérifier l’applicabilité des
prescriptions à la fois des théories traditionnelles et des relations
humaines. Elle constate des différences importantes qu’elle explique par la
technologie employée par la firme.
Elle distingue différentes technologies qui peuvent être regroupées en
trois grandes catégories, situées sur une échelle croissante de complexité
technique, exprimée en termes de contrôle du processus de production et
de prédictibilité de ses résultats.
1. La production à l’unité ou par petites séries qui inclut la production
artisanale, la production d’unités sur mesure aux spécifications du
client, ou la production d’unités techniquement très complexes mais en
petite série.
2. La production en grandes séries ou production de masse, c’est-à-dire
qui suit production en grande quantités de produits généralement
standardisés grâce à la mécanisation et à l’utilisation de lignes de
montage.
3. La production en continu de produits liquides, gazeux ou chimiques,
qui correspond à une série de transformations non distinctes qui se
passent en une seule séquence.
Woodward découvre des relations linéaires (ou curvilinéaires) entre
son échelle de types de technologie et la variation de certaines
caractéristiques de structure. Par exemple, l’étendue directe du contrôle
du Directeur Général, le ratio du nombre de cadres à l’effectif du personnel
total, le nombre de niveaux de management, la longueur de la chaîne de
commandement, la taille du groupe dirigeant augmente alors que l’on
gravit les échelles de complexité technologique.
À l’inverse le ratio de la main-d’œuvre directe (c’est-à-dire directement
employée à la production) par rapport à la main-d’œuvre indirecte, le ratio
des travailleurs manuels par rapport à l’encadrement, l’ensemble des coûts
salariaux varient en fonction inverse de la complexité technologique.
Pour une série d’autres variables la relation devient curvilinéaire. Dans
un cas elle est d’abord croissante, de la production à l’unité à la production
de masse, puis décroissante ensuite. C’est ce qui se produit pour l’étendue
du contrôle de l’encadrement de production de première ligne, la
séparation de l’administration de la production de la supervision de fait des
opérations de production, la quantité des communications écrites. Enfin la
relation est curvilinéaire mais en sens inverse, décroissante de la
production par unités à la production de masse, puis croissant ensuite
pour une dernière série de variables de structures : quantité de
communications verbales, ambiguïté du rôle concernant les devoirs et les
responsabilités, nombre de salariés qualifiés.
Ces résultats prouvent que les prescriptions de la théorie traditionnelle
ne sont réellement adaptées qu’à un type d’entreprises : celles de
production de masse. Pour les autres modes de technologie, d’autres
caractéristiques de structure prévalent en pratique. Au-delà, Woodward
montre que les trois grands types de technologie (unité, masse, continu)
dictent les structures de l’organisation. Pour chacune des 3 grandes
catégories et pour chaque caractéristique de la structure de l’organisation,
il y a un « fit » autour de la médiane près duquel se retrouvent les firmes
les plus efficaces. C’est-à-dire que dans chaque catégorie de technologie,
les firmes qui se situent le plus près des caractéristiques d’organisations
médianes de cette catégorie sont les plus efficaces, c’est-à-dire, dans la
définition du critère d’efficacité retenu par Woodward, ont les meilleurs
résultats financiers et la meilleure réputation. Par exemple, les 5 firmes à
technologie de production de masse qui réussissent présentent une
différenciation verticale marquée, accentuée par des délégations d’autorité
et des structures très formalisées et une ligne hiérarchique longue.
Il y a donc des structures adaptées à chaque technologie et pas de
bonnes structures en elles-mêmes en tout état de cause. Cette conclusion
par elle seule constitue déjà un apport capital.
Les théories de Woodward sur la technologie ont aussi fait l’objet de
critiques, d’infirmations et de confirmations expérimentales.

1.3.2. Le modèle de Perrow


Le modèle de Charles Perrow66 porte également sur le concept de
technologie, mais sa définition est différente de celle de Woodward. La
technologie peut se définir ici comme les actions qu’un individu accomplit
sur un objet (la matière première) avec ou sans outils pour y effectuer des
changements. Afin d’accomplir ces changements, les individus impliqués
dans le processus doivent interagir ; la forme de ces interactions constitue
la structure de l’organisation.
La technologie est déclinée autour de deux dimensions. La première
dimension est celle du nombre de cas exceptionnels à traiter pendant
l’exécution du travail sur la matière première (variété). La seconde
dimension est la nature du processus de recherche mis en place quand ces
cas exceptionnels se produisent (analysabilité). Il existe deux types de
processus de recherche. Le premier inclut les recherches qui peuvent être
menées sur une base logique et analytique. Le second type de processus
de recherche apparaît quand le problème est vague et si peu conceptualisé
qu’il est pratiquement non-analysable. Les recherches sont alors
exceptionnelles, non routinières et il n’existe pas de programme pour les
mener à bien. Dans ce cas, il n’y a pas de recherche formelle possible, mais
l’on puise dans son expérience ou son intuition ou bien l’on se repose sur la
chance.
En croisant ces deux dimensions, on débouche sur 4 types de
technologies, qui dépendent de la variété (nombre de cas exceptionnels à
traiter) et de l’analysabilité (capacité à traiter les cas exceptionnels).
1. Les technologies routinières : les problèmes sont facilement
analysables avec des modes de décision standard et il y a peu
d’exceptions. L’incertitude est faible.
2. Les technologies type ingénierie : les modes de décisions sont toujours
standards, mais il y a beaucoup d’exceptions.
3. Les technologies type artisanale : les problèmes ne sont pas
analysables logiquement par l’expérience ou l’intuition (présence
d’incertitude), mais le nombre d’exceptions est limité.
4. Les technologies non routinières : il y a un grand nombre d’exceptions
et une faible capacité à les analyser, l’incertitude est la plus élevée.

Typologie des technologies de Perrow


FAIBLE VARIÉTÉ FORTE VARIÉTÉ
Pas d’exceptions Beaucoup d’exceptions

FAIBLE ANALYSABILITÉ TECHNOLOGIE TECHNOLOGIE NON


Problèmes non analysables logiquement ARTISANALE ROUTINIÈRE
(expérience/intuition) (incertitude)

FORTE ANALYSABILITÉ TECHNOLOGIE TECHNOLOGIE «


Problèmes analysables logiquement ROUTINIÈRE INGÉNIERIE »
(certitude)

Perrow retient quatre variables clés caractérisant la structure des


tâches dans une organisation, sur deux dimensions. Deux d’entre elles sont
liées au contrôle : elles sont le degré de discrétion qu’un individu (ou une
unité) conserve dans l’exécution de sa tâche, et son pouvoir de mobiliser
des ressources rares et de définir soi-même les problèmes et les situations
(et donc de partiellement déterminer les objectifs à son niveau). Deux
autres sont liées à la coordination : celle-ci peut se faire par l’application
des règles logiques d’un processus défini à l’avance, donc par
planification/programmation ou par rétroaction (feed-back) en altérations
successives négociées. Par ailleurs, il distingue 3 zones formelles dans une
organisation : planification et conception ; contrôle technique, soutien de
production et marketing ; et supervision de la production et des ventes.
Les quatre variables vont être plus ou moins élevées (catégorisées en
haute ou basse) dans chacune des zones, définissant ainsi une structure
spécifique des tâches pour chaque organisation. Sont introduites ensuite
les structures sociales résultant des interactions entre individus
indépendamment des tâches à accomplir par les individus, puis trois
catégories de buts (du système, indépendamment des produits ; liés aux
caractéristiques des produits et dérivés ; indépendants des deux autres).
Ce cadre permet alors d’utiliser la technologie, ainsi qu’elle est définie par
Perrow, pour une analyse comparative des organisations.
L’organisation qui a une technologie artisanale a une structure
décentralisée, des règles et procédures peu formalisées. L’organisation qui
a une technologie non routinière est caractérisée par des activités à forte
complexité, qui nécessite une forte expertise, de l’autonomie et de la
créativité. L’organisation avec une technologie routinière correspond à des
activités qui peuvent être rapprochées du modèle d’organisation
FordisteTaylorien. Il n’y a pas d’exception et les principes d’organisation
sont centralisés et directifs. Enfin, l’organisation avec une technologie
ingénierie est flexible, mais formalisée car il existe de nombreuses règles et
procédures pour rationaliser la production.
De manière synthétique, il apparaît que les technologies de type non
routinier sont associées à des structures flexibles et décentralisées, où
l’autonomie est nécessaire ; alors que les technologies de type routinier
sont associées à des structures plus formalisées et centralisées.
Certes l’approche trouve ses limites dans l’omission du rôle de
l’environnement social et culturel, mais elle a cependant l’avantage
d’établir que la structure doit s’adapter à la technologie utilisée.
1.3.3. Le modèle de Thompson
James Thompson67 propose une théorie qui s’inscrit largement dans la
théorie de la contingence structurelle, même si nombre d’éléments
anticipent déjà des développements qui se poursuivront au cours des deux
décennies suivantes, notamment par rapport à la prise en compte de
l’incertitude et de l’approche systémique. Ainsi, il définit les organisations
complexes comme des systèmes ouverts, ce qui l’inscrit dans l’approche
systémique (développée plus loin) et donc indéterminés et placés face à
l’incertitude.
Le problème fondamental auquel ont à faire face les organisations est
l’incertitude. Plus elles sont complexes, plus ce problème devient essentiel.
Puisque l’incertitude est la cause majeure du désordre dans leurs
opérations, les organisations vont chercher à s’en protéger. Pour ce faire,
elles vont isoler celles de leurs activités qu’elles considèrent comme
cruciales. Elles vont placer des frontières aussi protectrices que possibles
autour de ces activités, qui, si elles étaient laissées au libre jeu de
l’environnement, seraient les plus perturbées, et, à leur tour en
conséquence, les plus perturbatrices du reste de l’organisation entière.
L’organisation présente plusieurs niveaux : technique, qui exécute la
tâche primaire de l’organisation, managérial, qui sert et contrôle le niveau
technique, et institutionnel, qui assure l’insertion de l’organisation dans la
société. Ces niveaux sont séparés qualitativement mais sont
interdépendants, interactifs et spécialisés. Les uns (institutionnels) sont
voués à faire face à l’incertitude et les autres sont conçus pour fonctionner
dans des conditions de certitude totale ou de quasi-certitude. Par exemple
une chaîne de montage doit, pour tourner efficacement être alimentée,
desservie et maintenue à un niveau constant en éléments divers, alors
qu’un service achats peut s’accommoder de variations importantes si le
système de gestion des stocks le permet. Pour les éléments qui ne peuvent
fonctionner de façon satisfaisante qu’en condition de certitude, la
rationalité technique n’est atteinte que dans la mesure où l’organisation
réussit à isoler la technologie essentielle de son « noyau technologique »,
des influences de l’environnement quelle qu’en soit la forme. C’est,
idéalement, à ce niveau un système fermé. Cependant l’isolation totale est
impossible, donc la rationalité organisationnelle au-delà de la rationalité
technique, consiste à fournir à la technologie essentielle les entrées et les
sorties qui lui sont nécessaires pour fonctionner sur une base aussi
régulière que possible. C’est là une logique de système ouvert qui vient se
superposer à la précédente. Les organisations cherchent d’abord à isoler
leur noyau technologique (par exemple des stocks tampon pour la
production), puis à amortir ou niveler les variations de l’environnement sur
les entrées et les sorties et enfin à anticiper pour s’adapter à celles qu’elles
ne peuvent absorber.
Sur cette base, Thompson introduit un certain nombre d’apports
importants qui intègrent la technologie de l’organisation. Toutes les
organisations complexes opèrent des technologies matérielles ou non, qui
dépassent les capacités individuelles.
La technologie est la première variable importante à saisir pour
comprendre les organisations et on peut en identifier trois variétés :
• Les technologies à lien long, c’est-à-dire à opérations séquentielles
dont chacune ne peut être accomplie que si la précédente a été
ellemême exécutée de façon satisfaisante. La chaîne de montage en est
l’exemple type. La complexité y naît de la nécessité d’assurer le suivi
sans faute et régulier des étapes.
• Les technologies médiatrices, c’est-à-dire qui établissent des liens
entre individus qui sont ou souhaitent être interdépendants. C’est par
exemple le cas des compagnies d’assurances, des banques, des
entreprises de communication, etc. La complexité ici ne vient plus de la
nécessité de ce que chaque activité soit soumise aux exigences de la
suivante, mais du besoin d’opérer suivant des procédés et critères
standardisés et extensifs.
• Les technologies intensives. C’est-à-dire qu’une variété de techniques
est utilisée pour créer un changement dans un objet donné, dont la
sélection, la combinaison et l’ordre d’application dépendent du
feedback de l’objet lui-même : par exemple, les hôpitaux, la
construction, la recherche. La difficulté est celle du « sur mesure »,
c’est-à-dire de permettre la disponibilité de toutes les capacités
potentiellement nécessaires et de les appliquer comme il convient et
quand il convient, en fonction de chaque cas rencontré.

Les stratégies élaborées afin d’isoler « le noyau technologique » des


perturbations provenant de l’environnement vont varier en fonction du
type de technologie.
Une organisation opérant suivant une technologie « à lien long » aura
tendance à chercher à étendre son contrôle en aval et en amont de son
noyau technologique. Elle s’assurera des sources de matières premières,
de composants, des canaux de distribution qui sont cruciaux pour son
fonctionnement quand il y a un degré persistant d’incertitude sur leur
disponibilité. Les compagnies pétrolières et les aciéries, par exemple,
procèdent à l’intégration verticale de leurs distributeurs et fournisseurs de
matières premières.
Par contre, une organisation à « technologie médiatrice » cherchera à
diversifier les marchés qu’elle dessert pour se protéger et n’être pas trop
dépendante des variations de grande amplitude sur un marché unique.
Enfin, une organisation à « technologie intensive » va rechercher un
contrôle maximum tant de l’objet qu’elle transforme que des techniques
qu’elle emploie.
Par ailleurs, une organisation cherchera à s’attribuer un domaine (type
de besoins, populations servies, services rendus). Cependant, cela ne
dépend pas de sa volonté seule, le domaine qui sera le sien sera en fin de
compte, celui qui lui sera reconnu, en termes d’échanges réciproques, par
son environnement, ou plus exactement par la partie de l’environnement
qui lui est pertinente. Il constituera « l’environnement des tâches » qu’elle
a à accomplir (constitué de clients, fournisseurs, concurrents, et instances
régulatrices telles que l’État, etc.). Ce domaine détermine les points où,
pour opérer sa technologie, elle dépend de l’environnement, pour ses
entrées et sorties et pour les tâches qu’elle a à accomplir. Elle cherchera à
gérer cette dépendance. Elle cherchera à se créer des sources alternatives
de ressources, à acquérir du prestige à accroître son propre pouvoir sur les
éléments les plus importants de son environnement des tâches, à passer
des accords. Ces stratégies varient suivant la technologie.
Un automatisme de croissance induite découle des éléments
précédents. Il entraîne la complexification, le recours à plusieurs types de
technologies différentes, une diversification et un problème d’équilibrage
des composants de l’organisation. Il se produit suivant un mécanisme qui
amène d’abord les organisations à acquérir des composants nouveaux
pour anticiper les variations de l’environnement. Cela peut amener
l’organisation à chercher à accroître son domaine.
Toutefois, des contraintes (gouvernement, coûts excessifs) peuvent
limiter cette croissance, dont la tendance générale est formée par la
technologie utilisée et l’environnement des tâches.
L’environnement, qui contrôle l’octroi de ce domaine, varie. Cette
constitution potentiellement différente de l’environnement a des
conséquences directes sur la structure. Des règles vont s’appliquer à la
structure des composants qui ont été créés pour isoler le noyau
technologique de l’environnement. Mais, le problème crucial dans ce cas
n’est pas celui de la coordination d’éléments isolés entre eux, mais
l’adaptation aux contraintes et contingences de l’environnement qui sont
hors du contrôle de l’organisation. Celles-ci s’expriment en termes d’espace
géographique, déterminant les distances et les coûts de transport et de
communication, et de composition sociale, déterminant si les
environnements sont plus ou moins stables ou instables (contingences) et
homogènes ou hétérogènes (contraintes).
Par exemple, devant un environnement hétérogène, une organisation
va chercher à identifier des segments de cet environnement qui soient plus
homogènes à leur échelle et à établir des unités spécialisées à la frontière
pour les traiter. Ces éléments sont subdivisés pour surveiller
l’environnement en fonction de sa stabilité et s’y adapter, par règles s’il est
stable, par décentralisation s’il est instable. Si le noyau technologique et
les activités à la frontière peuvent être séparés, les organisations seront
centralisées avec de fortes divisions fonctionnelles. S’ils doivent être
réciproquement interdépendants ils seront segmentés et assemblés en
groupes auto-suffisants, chacun ayant respectivement son segment de
domaine.
Une organisation diversifiée donc se divisionnalise, et, en face d’un
environnement stable se repose sur l’établissement de règles pour assurer
son adaptation. L’organisation complexe inévitablement se différencie et
doit coordonner ses composants qui sont interdépendants.
ENVIRONNEMENT HOMOGÈNE HÉTÉROGÈNE

Création de règles et catégories Divisions, sections, règles et


STABLE auxquelles les appliquer catégories auxquelles les
appliquer

Absorption de l’incertitude par Divisions, sections


INSTABLE observation, planification contingente, Décentralisation et
décentralisation déconcentration

Mais la structure doit aussi faciliter la coordination de ces éléments


interdépendants.
Thompson définit trois types d’interdépendance dans le flot de travail.
• L’interdépendance en commun est la condition où chaque élément
rend une contribution distincte à l’ensemble et chacun est soutenu par
l’ensemble et tire sur un réservoir de ressources communes. Par
exemple, dans les diverses succursales d’une chaîne de grands
magasins, les magasins peuvent n’avoir aucun contact entre eux et ils
sont cependant interdépendants car l’organisation entière peut
disparaître si chacun n’a pas une performance adéquate. L’échec grave
de l’un peut menacer le tout et donc tous les autres magasins.
• L’interdépendance en série, ou séquentielle. Par exemple, dans un
groupe une usine fournit des pièces à une autre usine, chargée du
montage. Les deux ici apportent des contributions et sont soutenues
par l’ensemble de l’organisation comme dans le cas précédent mais en
plus
il existe entre elles une interdépendance directe dans un ordre précis.
La première usine doit opérer de manière satisfaisante avant que la
seconde puisse agir ; et si la seconde n’agit pas, la première ne peut
écouler sa production. Ceci constitue une interdépendance
séquentielle, dont il faut noter qu’elle n’est pas obligatoirement
symétrique. B peut dépendre de A et non A de B.
• L’interdépendance réciproque correspond à la situation où les produits
de chacun deviennent les entrées de tous les autres et
réciproquement. Chaque unité concernée est pénétrée par l’autre dans
cette condition. Il y a un aspect d’interdépendance en commun et
séquentielle, mais de plus chaque unité crée une situation de
contingence pour l’autre. Un exemple peut être celui de la partie
garage et la partie opérations d’un transporteur routier.

Ces trois types d’interdépendance forment un continuum : toutes les


organisations présentent des interdépendances en commun, celles qui
sont plus compliquées y ajoutent l’interdépendance séquentielle et les
plus complexes ajoutent aux deux précédentes l’interdépendance
réciproque. La plus complexe des interdépendances contient
automatiquement celles qui la précèdent.
Dès qu’il y a interdépendances, elles doivent être coordonnées. Plus les
interdépendances sont complexes, plus elles sont difficiles et coûteuses à
coordonner. Dans l’interdépendance en commun, les unités peuvent agir
sans se soucier les unes des autres tant que l’organisation totale demeure
viable. Dans l’interdépendance séquentielle, les positions réciproques
doivent être réajustées si une unité n’a pas la performance attendue. Dans
l’interdépendance réciproque, les actions de chaque unité doivent être
continuellement ajustées aux actions des autres unités.
La coordination par standardisation ou par routine et règles est
possible dans les situations relativement stables, répétitives et peu variées
pour que chaque situation trouve des règles qui lui soient applicables. La
coordination par plan et programmation est adaptée aux situations plus
dynamiques et implique la préparation de plans de charge pour les
différentes unités pour guider leurs actions. La coordination par
ajustement mutuel (ou rétroaction ou feed-back) implique la transmission
d’informations nouvelles pendant le processus d’action des unités. Elle
s’applique le mieux aux situations les plus variables et imprévisibles.
Les trois types de coordination placent des exigences croissantes sur les
communications et le nombre de décisions requises qui représentent des
coûts matériels très réels. Les organisations vont chercher à minimiser ces
coûts. Donc, les organisations vont regrouper rationnellement leurs
composants pour réduire ces coûts de coordination. Ce regroupement
peut se faire sur 4 bases différentes : buts communs, ou contribution
commune à l’organisation ; processus opérés communs ; clientèles ; zones
géographiques. Cependant, ces critères ne sont pas forcément
compatibles. Par exemple, deux composants à contribution commune
peuvent avoir des clientèles différentes. La question est de savoir lesquels
utiliser prioritairement.
L’ajustement mutuel étant le plus coûteux, les organisations vont
d’abord regrouper les positions (composants) qui sont en interdépendance
réciproque en groupes locaux aussi petits que possible, à cause des coûts
de coordination qui croissent avec la taille, et aussi autonomes que
possibles. L’autonomie reste conditionnelle, cependant, car autonomie
totale signifie qu’ils n’appartiennent plus à l’organisation. S’il n’y en a pas,
seront regroupées de la même façon les positions en interdépendance
séquentielle (car le coût de la planification croît aussi avec la taille), et
enfin, s’il n’y a aucune des précédentes les éléments en interdépendance
en commun seront regroupés fonctionnellement, en fonction de leurs
processus exécutés en groupes aussi homogènes que possible et de taille
maximum.
Une hiérarchie est développée en regroupant de la même manière, en
groupes de second ordre, les groupes, et non plus les positions, qui sont
d’abord en interdépendance réciproque, puis en interdépendance
séquentielle, puis en unités homogènes.
Thompson apporte par ailleurs une série de propositions logiques
concernant différents aspects des organisations et la façon dont ils varient
en fonction du type de technologie adoptée et des environnements de
situation.
Il y a des parallèles entre formes d’interdépendance et de
coordination ; coordination par standardisation pour l’interdépendance en
commun, coordination par planification pour l’interdépendance
séquentielle, coordination par ajustement mutuel pour l’interdépendance
réciproque.
Enfin, il est clair que les trois types d’interdépendance correspondent
aux trois types de technologies définies plus haut. La technologie à lien
long crée l’interdépendance séquentielle, la technologie médiatrice
l’interdépendance en commun, et la technologie intensive crée
l’interdépendance réciproque.
Si l’on combine les contraintes de l’environnement et de la technologie
décrites ci-dessus, il en découle plus généralement que chaque
organisation a sa façon unique de s’adapter aux changements dans son
environnement de tâches, dans sa technologie, dans son choix de
domaine, et qu’il n’y a pas de modèle unique. Les organisations doivent
faire face aux contraintes qui ressortent de leur technologie et de leur
environnement des tâches, qui varient pour chacune. Dans le cadre de ces
contraintes, elles doivent minimiser les contingences et les isoler pour les
traiter localement. Enfin, quand les contingences sont multiples les
organisations regroupent leurs capacités de les traiter en unités
autosuffisantes et complètes.
1.4. La stratégie
Un certain nombre de travaux ont également mis en évidence que la
structure de l’entreprise était contingente à sa stratégie. Nous nous
limitons ici à présenter les apports de Chandler sur le lien entre stratégie et
structure.

1.4.1. Chandler, la stratégie précède la structure


La notion de stratégie des organisations est en elle-même
extrêmement complexe. Elle a fait l’objet de très nombreuses
conceptualisations et études68. Nous retenons ici une définition simple : la
stratégie de l’organisation est l’établissement d’objectifs et de directions
d’action pour atteindre ces objectifs, rationnellement et dans un
environnement donné.
Alfred Chandler69 (1918-2007) a étudié l’histoire des plus grandes et
des plus puissantes entreprises des États-Unis, y compris General Motors,
Du Pont, Standard Oil of New Jersey, Sears and Roebuck, analysées cas par
cas de 1909 à 1959. Il en déduit que les changements de stratégie de
l’entreprise précèdent et sont les causes des changements de structure.
Les entreprises qu’il étudie, offrant une gamme et une quantité limitées de
produits, présentaient à l’origine des structures centralisées. Leur taille a
crû avec leur marché et la demande pour leur produit. Elles ont ensuite
diversifié leurs gammes pour conserver ces marchés, les agrandir et en
conquérir de nouveaux. Ce faisant, elles ont dû modifier leurs structures
afin d’être capables de conduire ces stratégies efficacement. Produisant
des quantités importantes, elles sont devenues dépendantes de peu de
fournisseurs, ce qui les a conduites à un processus d’intégration verticale.
Ayant diversifié leurs produits, elles ont dû créer des départements
spéciaux chargés de ces produits nouveaux pour les fabriquer et les
distribuer plus efficacement. La structure fortement centralisée était
devenue inefficace pour gérer une organisation dont la taille et la diversité
étaient considérablement accrues. Des ajustements structurels étaient
nécessaires pour faire face aux expansions géographiques, aux nouvelles
fonctions, aux nouvelles gammes de produits. Les stratégies de croissance
et de diversification ont donné naissance à une structure divisionnalisée.
Par conséquent, pour Chandler, la structure suit la stratégie, elle-même
établie pour tirer le meilleur parti des conditions de l’environnement
externe, en particulier du marché et de ses changements.
Il est clair que l’étude de la stratégie est ici immergée dans la théorie
traditionnelle de l’organisation. Implicitement il n’y a aucun doute sur la
personne de ceux qui élaborent la stratégie : ce sont les dirigeants, qui se
confondent avec l’organisation. Il n’y a non plus de doute sur le caractère
rationnel des démarches, ni sur la nature certaine de l’environnement de
l’organisation et sa propre capacité à le connaître. Même si nombre
d’écoles de pensée70 remettront en cause ces hypothèses, c’est dans ce
cadre que nous nous situons ici à ce stade.

1.4.2. Child, le choix stratégique des organisations


John Child71 a poursuivi les analyses de Chandler en raffinant le concept
de choix stratégique pour l’organisation. Child estime que les choix
d’objectifs et de chemins à suivre pour les atteindre sont le fait de la
coalition dominante dans l’organisation, qui peut être composée des
propriétaires, des fondateurs ou de tout autre groupe qui contrôle la
direction. Il existe certainement des contraintes sur les choix de ces
groupes dirigeants (par exemple concurrents, syndicats, fournisseurs,
réglementation gouvernementale), mais elles sont prises en compte par les
dirigeants qui choisissent seuls sous ces contraintes les objectifs, les
méthodes pour les atteindre, le personnel et les techniques de contrôle et
qui établissent en même temps la structure.
En premier lieu, ceux qui prennent les décisions stratégiques, le groupe
dominant, ont une large autonomie et peuvent sélectionner une option
préférée parmi de multiples branches d’alternatives et de choix possibles,
même s’ils sont déjà placés dans une position donnée quelconque. Les
organisations ne sont pas condamnées à simplement réagir à des stimulus
ou à répéter le passé. Par exemple une entreprise peut se définir et
redéfinir, elle-même, sa mission, et ses marchés. Un niveau de
performance faible peut amener les dirigeants à remodeler les structures,
à condition qu’ils perçoivent des possibilités de structures alternatives.
En second lieu, Child établit que si l’environnement influence la
structure de l’organisation, l’organisation peut aussi parfois influencer son
environnement, le manipuler et le contrôler, légalement ou illégalement
par les ententes, les positions dominantes, les fusions-acquisitions, le
lobbying, la cooptation de forces importantes, etc.
Enfin, en troisième lieu, Child souligne, ce qui est aussi fort important,
qu’il convient de séparer les caractéristiques objectives de l’environnement
de leur perception par le groupe de dirigeants et l’évaluation qu’ils en font.
Ce qui compte n’est pas l’environnement tel qu’il est, mais les opportunités
et les contraintes qu’il présente, qui sont perçues ou ignorées par les
dirigeants. Les individus peuvent très bien percevoir de façon erronée ce
qui les entoure. Leurs choix stratégiques, qui vont influencer la structure
de l’organisation sont donc pris sans réfléchir obligatoirement sur la base
des caractéristiques réelles de l’environnement mais seulement par
rapport aux interprétations qu’ils en font sur la partie qu’ils en perçoivent.
L’argument stratégie-structure continue à être débattu. Il est clair que
l’on ne peut nier que la stratégie exerce une certaine influence sur la
structure des organisations, directement ou indirectement. Ce qui est
l’objet du débat, en fait, est d’une part l’importance et le degré de cette
influence et, d’autre part le fait de savoir si les postulats de rationalité des
décisions, de connaissance de l’environnement, et d’identification de la
prise de décision stratégique dans l’organisation, quand ils sont levés, ne
relèguent pas au second plan l’influence de la stratégie.
Nous aborderons plus loin, dans le chapitre 7 centré sur l’entreprise, un
ensemble d’autres écoles de pensée en stratégie, dont certaines proposent
des visions alternatives.
Il reste que les travaux de la contingence structurelle interne ont été
particulièrement importants et ont marqué la construction des
connaissances sur les organisations en montrant qu’il n’existait pas une
seule manière de concevoir la structure de l’organisation, mais que celle-ci
dépendait de sa taille, de son âge, de sa technologie et de sa stratégie.

2. Les théories de la contingence structurelle


externe
Les théories de la contingence structurelle externe mettent en
évidence que l’organisation est contingence à son environnement. Nous
présentons ici des travaux qui se sont développés dans les années 1960-70
et qui ont pour point commun de centrer l’attention sur le fait qu’il n’existe
pas une seule bonne manière de faire les choses (one best way), mais au
contraire, que la structure de l’organisation dépend de son
environnement72. Nous exposons les travaux de Burns et Stalker sur la
variabilité de l’environnement, ceux de Emery et Trist sur la complexité
croissante de l’environnement et enfin ceux de Lawrence et Lorsch sur
l’adaptation diversifiée à l’environnement.

2.1. Burns et Stalker : la variabilité de l’environnement


L’étude de Burns et Stalker73 porte sur 20 entreprises industrielles
anglaises et écossaises avec pour objectif d’essayer de déterminer
comment les structures organisationnelles des entreprises varient en
fonction des différents types d’environnements dans lesquels elles se
trouvent situées et où elles ont à opérer.
Ils évaluent l’état des conditions de l’environnement en fonction du
taux de changement de deux données. La première de ces données est la
technologie scientifique à employer nécessaire pour leur produit final. Il
faut noter immédiatement cependant qu’il ne s’agit pas de la technologie
au sens où Woodward l’entendait, et pour qui elle représentait un facteur
interne, c’est-à-dire le processus technique de production utilisé dans la
firme. Ici, la conception est différente. Il s’agit plutôt du degré d’évolution
et de changement scientifique dans le domaine technologique qui sous-
tend le processus technique employé par la firme. Il est donc bien question
d’un facteur externe. La seconde donnée est le marché du produit. Ainsi en
croisant ces deux facteurs suivant les conditions qu’ils présentent, ils
obtiennent cinq types d’environnement correspondant à des firmes
industrielles données et se situant dans un continuum.
Aux deux extrémités de ce continuum se trouvent deux catégories de
structures types qui correspondent respectivement à un environnement
très stable (une firme de production de rayonne) et un environnement très
dynamique et changeant rapidement, (une firme d’électronique). Ce sont
respectivement les structures mécanistes et organiques.
Le continuum entre les structures mécanistes et organiques

Les structures mécanistes sont complexes, formalisées et centralisées,


elles exécutent des tâches de routine, recourent massivement à la
programmation des comportements et ont un potentiel limité pour
répondre aux situations qui ne leur sont pas familières. Elles sont
caractérisées par :
• Une différenciation spécialisée en tâches fonctionnelles des problèmes
et tâches générales qui se présentent à l’organisation.
• La nature abstraite de chaque tâche individuelle qui s’accomplit avec
des objectifs et des techniques plus ou moins distinctes et séparées de
ceux de l’organisation dans son entier.
• À chaque niveau hiérarchique, le contrôle de l’exécution des tâches se
fait par le supérieur immédiat.
• La définition précise, à chaque niveau hiérarchique des droits,
obligations et techniques à employer pour chaque rôle de tâches
fonctionnelles.
• La traduction de ces droits, obligations et méthodes en responsabilités
d’un poste fonctionnel.
• Une structure hiérarchique de contrôle, d’autorité et de
communication.
• Un renforcement de la structure hiérarchique par la localisation de la
connaissance des problèmes actuels de l’organisation au sommet de la
hiérarchie seule.
• Une tendance aux interactions entre membres de l’organisation à être
strictement verticales (supérieur/subordonné).
• Une tendance à ce que les opérations et le comportement au travail
soient gouvernés par les supérieurs.
• L’insistance sur la loyauté et l’obéissance aux supérieurs pour
l’appartenance continue à l’organisation.
• Un prestige et une importance plus grande, attachés à l’expérience, aux
connaissances et aux qualifications internes à l’organisation (locales)
plutôt qu’à celles reconnues extérieurement.

Burns74 note d’ailleurs que ce type de système mécaniste correspond en


fait à la « bureaucratie rationnelle » de la théorie traditionnelle.
Les structures organiques, à l’inverse, sont flexibles et adaptables,
l’emphase est mise sur les communications latérales plutôt que verticales,
l’influence est basée sur l’expertise et les connaissances plutôt que sur
l’autorité de la position, les responsabilités sont définies en termes larges
et l’accent est mis sur l’échange d’informations plutôt que sur l’énonciation
de directives. Elles sont caractérisées par :
• La nature contributive des connaissances spécialisées et de
l’expérience à l’objectif commun de l’organisation.
• La nature concrète des tâches individuelles replacées et remises en
perspective dans la situation totale de l’organisation.
• L’ajustement et la redéfinition continue des tâches individuelles à
travers l’interaction avec les autres.
• Une prise en charge de responsabilité bien au-delà du champ limité des
droits, obligations et méthodes d’un poste fonctionnel.
• L’engagement des individus dans l’organisation va au-delà de toute
définition technique.
• Contrôle, autorité et communication sont structurés en réseau.
• La connaissance peut être localisée n’importe où dans le réseau. Ce
point devient le centre de l’autorité (temporairement). L’omniscience
n’est plus systématiquement attribuée à la tête de l’organisation.
• Les communications s’effectuent latéralement aussi bien que
verticalement dans l’organisation.
• Les communications contiennent information et aide plutôt
qu’instructions et décisions.
• L’engagement individuel vis-à-vis des tâches de l’organisation et de «
l’éthique technologique » du progrès mutuel et de l’expansion est plus
valorisé que la loyauté à l’égard des supérieurs.
• L’importance et le prestige sont attachés aux affiliations et à l’expertise
validée dans les milieux scientifiques, industriels, techniques et
commerciaux externes à l’organisation.

Structure mécaniste Structure organique


- Centralisation - Décentralisation
- Forte division des tâches - Faible spécialisation
- Forte différenciation des tâches - Peu de standardisation des tâches
- Structure hiérarchique de - Fonctionnement en réseau pour le
contrôle,d’autorité et de communication contrôle,l’autorité et la communication
- Fort respect de la hiérarchie - Prestige lié aux compétences personnelles
- Loyauté marquée à l’organisation - Loyauté vis-à-vis du groupe et des projets

Burns et Stalker ne considèrent pas qu’un type d’organisation soit


supérieur à l’autre en tout état de cause. Ils sont tous les deux aussi bons,
ou aussi mauvais, en fonction de l’environnement dans lequel ils doivent
opérer. La structure mécaniste est la mieux adaptée aux environnements
très stables, la structure organique convient le mieux aux
environnements dynamiques et changeants.
Ceci dit, les deux types de structures constituent des types très
marqués aux deux extrémités d’un continuum. La plupart des organisations
ne sont ni totalement mécanistes, ni totalement organiques, mais tendent
à se situer plutôt vers un pôle ou l’autre.
Les problèmes graves surgissent quand une organisation, soit a choisi
d’adopter une structure totalement inadaptée à son environnement, soit
quand l’environnement change. Parmi ceux-ci les modèles suivants sont
notables :
Celui de la figure ambiguë résulte du fait que le principe mécaniste est
de référer systématiquement les problèmes qui dépassent les
compétences d’un individu à son supérieur. Quand les problèmes se
multiplient, des courts-circuits s’établissent entre le responsable final de
l’organisation et un certain nombre de ceux qui occupent les positions où
les problèmes se posent le plus souvent, afin de les traiter rapidement. Un
conflit interne en résulte inévitablement avec les responsables
hiérarchiques intermédiaires placés en victimes du court-circuit.
La jungle mécaniste qualifie le fait qu’en face du même type de
problèmes, surtout en matière de communication, l’organisation à
tendance à multiplier les postes ou départements nouveaux pour les
traiter. Ceux-ci constituent bien évidemment des intérêts acquis à leur
propre perpétuation, quoi qu’il advienne des problèmes initiaux, même et
surtout quand ceux-ci disparaissent, enlevant ainsi en principe la raison
d’être et de subsister de ces postes ou départements nouveaux, qui
néanmoins luttent alors pour leur survie.
La seule façon d’éviter ces dysfonctionnements est de prendre en
considération les facteurs qui les causent. Cela est la manifestation du fait
qu’autour du système de fonctionnement de l’organisation existent un
système politique et un système d’intérêts personnels (de carrière) qui
motivent ces réactions aux interventions sur le système central. Une
organisation ne peut s’analyser qu’en fonction de ces trois sous-systèmes.

2.2. Emery and Trist : la complexité croissante de l’environnement


Le modèle d’Emery et Trist75 est construit à partir de l’observation
d’une entreprise anglaise de conserves alimentaires de légumes contrôlant
65 % du marché d’un produit de grande consommation. À la fin des années
1950 cette entreprise investit lourdement dans une usine hautement
automatisée, conçue pour les économies d’échelle et produisant
uniquement ce produit traditionnel, à coûts réduits et en très grandes
quantités. Cependant les restrictions d’après-guerre sur la disponibilité des
quantités d’étain et d’acier (métaux stratégiques) ainsi que sur
l’importation de produits étrangers sont levées et des petites firmes
apparaissent. Elles se situent hors du marché de la grande entreprise et
produisent des conserves de fruits importés. Mais, ce dernier produit est
saisonnier et les petites firmes cherchent à maintenir main-d’œuvre et
équipement en activité durant l’hiver.
Cela leur devient possible grâce à un effet dérivé de l’industrie de la
congélation alimentaire. Celle-ci exige une qualité constante du produit à
congeler et donc, propose au consommateur un produit plus cher, car cela
demande un contrôle de qualité de la part des producteurs de fruits et
légumes qui n’est gérable qu’au-dessous d’une certaine taille de récolte.
Aux USA, le produit principal de la grande entreprise était essentiellement
produit et consommé sous forme de surgelé. Ceci laissait donc disponibles
des récoltes de très grande taille de ce produit, inutilisables pour
l’industrie de la congélation et vendues à très bas prix pour l’alimentation
animale. Les petites firmes cherchant à diversifier leur production
saisonnière importèrent ces surplus, adaptés à la conserve à défaut de la
congélation, à des prix très concurrentiels et vinrent ainsi mordre dans le
marché de la grande entreprise. En effet, ne congelant pas, elles pouvaient
non seulement produire leurs conserves avec un produit présentant
certaines variations de qualité, de coût considérablement moins élevé,
mais de plus utilisaient une technologie meilleur marché.
Cette dernière avait cherché à se placer sur son marché avec une
politique de grande marque et donc un produit de qualité supérieure, à un
coût supérieur. Mais cette position était maintenant intenable au plan du
coût des matières premières. Par ailleurs un changement dans la demande
se fit jour. La croissance économique de l’après-guerre permettait à un plus
grand nombre de consommateurs de se procurer les surgelés, plus cher. En
même temps d’autres légumes, plus élaborés, pouvaient remplacer le
produit de grande consommation et le consommateur appréciait, et
pouvait payer pour les mêmes raisons cette variété dans son alimentation.
Enfin dans le marché restant du produit de grande consommation, la
concurrence des petites firmes se faisait durement sentir grâce à leurs
coûts et prix inférieurs.
Parallèlement des changements importants apparaissent dans la
distribution. En particulier on voit se développer supermarchés et chaînes
de magasins d’alimentation. Ces deux catégories d’établissements veulent,
et peuvent, vendre sous leur propre marque un certain nombre de
produits qu’ils ne produisent pas eux-mêmes, dont essentiellement les
produits alimentaires de grande consommation. Ces distributeurs passent
alors des ordres massifs aux petites firmes qui n’ayant de ce fait aucune
dépense de marketing et une matière première moins chère peuvent
vendre à des coûts très inférieurs le produit de base de la grande
entreprise. En 3 ans ils capturent 50 % du marché de ce légume alors qu’à
l’origine ils n’en contrôlaient que moins d’un pour cent.
La nouvelle usine était devenue totalement inutilisable dans ce
nouveau contexte et la grande entreprise dut procéder à une pénible
redéfinition de sa mission et à des restructurations.
Cette analyse initiale et d’autres similaires dans de multiples
organisations de différentes natures conduisirent les auteurs à mettre en
évidence l’impact de l’environnement sur les organisations.
Ils distinguent ainsi quatre catégories d’environnements :
• L’environnement placide aléatoire
Dans l’environnement placide aléatoire, les éléments pouvant avoir un
impact négatif ou positif sur l’organisation sont stables, c’est-à-dire que ce
sont le plus souvent les mêmes qui se répètent ; ils ne changent que
lentement. Cependant, ils se produisent, ou sont distribués, aléatoirement
et ils sont totalement indépendants. Cet environnement a été comparé au
marché classique de concurrence pure face à l’entreprise. Pour
l’organisation, la seule solution est de faire de son mieux sur une base
purement locale en procédant par essais et erreurs.
• L’environnement placide regroupé
L’environnement placide regroupé est toujours assez stable. Il ne
change que lentement, mais les éléments dangereux ou favorables sont
distribués selon certaines formes précises assez stables et non plus au
hasard. La connaissance de l’environnement devient indispensable. Ses
éléments sont connectés. Le modèle économique correspondant est celui
de la concurrence imparfaite. La stratégie doit être de déterminer les
formes des éléments favorables ou dangereux à éviter ou à approcher, et
non de se jeter sur les avantages immédiats, ou d’éviter instinctivement les
difficultés immédiates, car cela peut conduire à de nouveaux et plus graves
dangers. La stratégie conditionne les tactiques à employer. Des
localisations optimales existent et l’organisation doit les rechercher et à
cette fin développer une compétence distinctive.
• L’environnement mouvant réactif
L’environnement mouvant réactif est beaucoup plus complexe que les
précédents. Il se rapproche d’un environnement placide-regroupé où il se
trouve plus d’une organisation dans chacune des catégories
d’organisations. L’environnement n’est plus statique mais changeant et
dynamique. Organisations et autres éléments de cet environnement (y
compris d’autres organisations) interagissent. Les éléments sont donc non
seulement connectés, mais certains réagissent et sont proactifs.
L’équivalent en termes économiques est celui du marché oligopolistique.
L’organisation doit non seulement rechercher sa propre localisation
optimale, mais aussi considérer les mouvements potentiels des autres et
se déplacer en conséquence. Entre tactique et stratégie apparaît un autre
niveau, celui des opérations qui sont une série de séquences de tactiques
planifiées à l’avance, de calcul des réactions des opposants et d’emploi de
contre-tactiques. La rapidité des réactions devient importante.
• L’environnement de champ turbulent
L’environnement de champ turbulent est le plus complexe, le plus
dynamique et le plus aléatoire. Il est instable et incertain. Cette incertitude
cependant ne vient plus de la distribution au hasard d’éléments, mais d’un
mouvement permanent. Les éléments de l’environnement sont
déconnectés et indépendants, mais réagissent et agissent les uns sur les
autres. De multiples organisations y interagissent, mais de plus,
l’environnement luimême, le terrain est aussi en mouvement. Les
conséquences des actions prises deviennent de moins en moins
prévisibles.
Ce dernier type d’environnement est de plus en plus le nôtre, il se
généralise à cause des 3 raisons suivantes :
• Les conséquences des efforts des organisations pour faire face aux
conditions de l’environnement mouvant-réactif, qui elles-mêmes
compliquent encore l’environnement.
• L’interdépendance accrue entre les aspects économiques et les autres
aspects de la société.
• Le rôle accru de la recherche et du développement pour faire face à la
concurrence.

Dans cet environnement de champ turbulent, l’organisation doit


réévaluer ses relations continuellement et sans doute développer de
nouveaux produits et services.

2.3. Lawrence et Lorsch : l’adaptation diversifiée à l’environnement,


intégration et différenciation
Le modèle de Lawrence et Lorsch 76 est basé sur l’étude de 10 firmes
dans 3 industries au début des années 1960. Ces industries avaient été
choisies parce qu’elles présentaient des environnements très divers.
La première industrie, celle du plastique, est hautement compétitive, le
cycle de vie des produits y est historiquement court et les entreprises
doivent développer un nombre considérable de produits et de procédés
nouveaux. L’environnement est qualifié de variable et de dynamique.
La seconde industrie, celle de l’emballage n’a (à l’époque) pas connu de
nouveaux produits depuis plus de 20 ans, la croissance des ventes y est
limitée au taux de croissance de la population et du produit national brut.
L’environnement est relativement certain, sans menaces importantes.
Entre les deux précédentes, se situent des firmes de la troisième
industrie, celle des conserves alimentaires. Leur taux de croissance est
supérieur à celui de leur industrie, lui-même légèrement supérieur à celui
de l’industrie de l’emballage. Le nombre de produits nouveaux y est
inférieur à celui de l’industrie des plastiques, mais il est significatif et
l’innovation est importante pour orienter les choix du consommateur.
L’environnement externe est mesuré en termes d’incertitude sur 3
facteurs : le taux de changement dans les conditions de l’environnement,
le degré auquel l’information acquise est certaine, la durée de temps
nécessaire pour connaître le résultat des décisions.
La démarche a ensuite consisté à examiner l’adaptation des structures
internes des entreprises à leurs environnements respectifs. Elles ont alors
été analysées en termes de différenciation et d’intégration.
La différenciation est définie ici comme l’état de segmentation de
l’organisation en sous-systèmes, dont chacun tend à développer des
caractéristiques particulières en fonction des demandes de
l’environnement spécifique auquel il doit faire face. Ainsi entendue, elle
comprend aussi les caractéristiques du comportement des membres de
chaque sous-système ; et non les seuls composants structurels issus de la
simple division horizontale du travail, comme c’était le cas dans l’analyse
de Blau sur l’impact de la taille, dans la section précédente. Ici, sont prises
en compte non seulement les différences entre les structures formelles,
plus ou moins formalisées, mais aussi les orientations cognitives et
émotionnelles des managers en termes de chaque sous-système.
L’intégration se définit comme le processus destiné à instaurer l’unité
d’efforts entre les divers sous-systèmes pour accomplir la tâche de
l’organisation, c’est-à-dire un cycle complet de transformation des matières
premières en produit, incluant la création, production et distribution de
biens ou services, c’est-à-dire les interactions efficaces avec
l’environnement Cependant, Lawrence et Lorsch procèdent à une
démarche supplémentaire, qui a un caractère unique et novateur par
rapport aux travaux antérieurs. Ils considèrent que ni l’environnement, ni
l’entreprise ne sont homogènes, mais que chaque partie de l’entreprise
agit dans une partie de l’environnement. En d’autres termes, chaque
département et division (sous-système) agit dans un segment différent de
l’environnement.
Ils identifient 3 secteurs d’environnements (scientifique,
technicoéconomique et du marché) auxquels correspondent 3 divisions
des entreprises (recherche, production et ventes), se correspondant deux à
deux.
Plus l’environnement est turbulent, complexe, incertain et plus les
segments sont divers, plus les organisations doivent être différenciées pour
être efficaces. Mais par ailleurs, plus elles sont différenciées sur le plan
interne entre leurs départements, plus elles ont besoin de mécanismes
internes d’intégration pour coordonner l’action des différents
départements. La différenciation risque d’entraîner le conflit entre
départements. Nous retrouvons là le mécanisme de la sous-optimisation.
En pratique, le degré de différenciation le plus élevé se trouvait dans
les entreprises de plastiques, suivies des entreprises alimentaires et de
celles de l’emballage. Au-delà, les firmes les plus performantes dans les 3
secteurs industriels étaient celles qui avaient un degré de différenciation
correspondant à l’incertitude de leur environnement accompagné d’un
degré adapté d’intégration ainsi que des procédures de résolution de
conflits pertinentes.
La différenciation peut être analysée par rapport à 3 variables : la
formalisation des structures, la nature des relations inter individuelles, le
terme des objectifs. Face à un environnement très incertain la
formalisation de la structure est faible, les relations interpersonnelles
centrées sur la tâche et les objectifs à long terme. L’inverse caractérise un
environnement certain. Ainsi l’entreprise de plastique ayant à faire face à
un environnement scientifique très incertain, technico-économique certain
et de marché moyennement incertain avait un service de recherche peu
structuré avec des relations interpersonnelles basées sur les relations
interindividuelles et des buts à long terme. Le service production était très
structuré, avec des relations centrées sur la tâche et orienté à court terme
et le service marketing était moyennement structuré avec des relations
interpersonnelles basées sur l’aptitude individuelle (relation curvilinéaire)
et des buts à moyen terme. L’entreprise qui réussissait le mieux dans ce
secteur présentait certes ce type de différenciation mais aussi des moyens
d’intégration forts (comités, services de liaison, liens personnels directs
entre cadres, etc.).
Les travaux de Lawrence et Lorsch ont eu un énorme retentissement.
Ils ont eu le grand mérite de formuler et de démontrer ce que nombre de
praticiens sentaient intuitivement : non seulement une structure
d’organisation est contingente à des données externes ou internes qui
peuvent varier, mais elle n’est pas homogène, c’est-à-dire qu’à un instant
donné, l’environnement peut présenter des facettes différentes à
différentes parties de l’organisation.
L’ensemble des travaux que nous venons de passer en revue dans cette
section sont importants parce qu’historiquement ils ont permis de faire
émerger une nouvelle façon de concevoir les organisations en remettant
en cause le principe de « one best way » sur lequel reposait à la fois les
théories traditionnelles et les théories des relations humaines et en
montrant que la structure des organisations est contingence. Par la suite,
et nous le verrons plus loin, d’autres théories plus modernes se
développeront, sur les questions relatives notamment à la manière
d’interpréter le rôle de l’environnement (voir chapitre 5) ou de la stratégie
d’entreprise (voir chapitre 7) sur les organisations.

3. Les configurations d’organisations de Mintzberg


Bien qu’ils dépassent largement la théorie de la contingence
structurelle et intègrent des éléments de théories plus modernes, nous
présentons ici les travaux sur les configurations d’organisations de
Mintzberg, dans la mesure où ils relient la structure des organisations à
leur fonctionnement et proposent différents modèles d’organisations en
fonction de leurs caractéristiques.

3.1. Les processus de coordination


Henry Mintzberg77 définit la structuration d’une organisation comme
l’ensemble de la totalité des façons dont le travail qui y est accompli est
divisé en tâches distinctes et comment ces tâches sont ensuite
coordonnées entre elles. Il note que si la division du travail est bien
analysée et comprise, il n’en est pas de même pour la coordination des
tâches.
Il identifie alors 5 processus de coordination des tâches :
• L’ajustement mutuel (par communication informelle).
• La supervision directe du travail des autres par un individu.
• La standardisation du processus de travail, c’est-à-dire que le contenu
du travail est spécifié ou programmé.
• La standardisation du produit où seul le résultat du travail est spécifié,
car il est trop complexe pour qu’une description des tâches soit
possible.
• La standardisation des compétences où seul est déterminé le type de
qualification nécessaire pour réaliser le travail. La coordination des
tâches est nécessaire, mais ni la standardisation des résultats ni celle
du processus de travail n’est possible.

Plus le travail accompli par l’organisation devient complexe, plus on


passe d’un moyen à l’autre de coordination en revenant enfin au point de
départ : l’ajustement mutuel, automatique dans les situations simples est
inévitable aussi dans les situations très difficiles et complexes. Un mode de
supervision devient nécessaire quand la taille augmente, et en fait, à partir
de cette taille la plupart des organisations mêlent les cinq modes de
coordination.

3.2. Les composants de l’organisation


Mintzberg considère ensuite que les organisations sont constituées de
5 composants : le noyau opérationnel, le sommet stratégique, la ligne
hiérarchique moyenne, la technostructure et le soutien fonctionnel.
Le noyau opérationnel accomplit le travail de base de l’organisation,
directement relié à la production de biens et de services. Il traite,
assemble, transforme des matériaux, de l’information ou des individus. Il
procure les entrées, les transforme en produits, distribue ces produits et
assure la maintenance.
Le sommet stratégique se préoccupe de la globalité de l’organisation. Il
s’assure que l’organisation remplit sa mission efficacement et sert les
objectifs ou besoins de ceux qui la contrôlent. Il exerce certaines fonctions
de supervision directe en attribuant les ressources, réglant les conflits,
disséminant l’information ainsi que la surveillance et le leadership. Son but
est que l’organisation fonctionne comme une unité intégrée. Il est aussi
chargé des relations avec l’environnement et de la gestion des conditions à
la frontière de l’organisation. Il a en outre un rôle symbolique. Enfin, il
développe la stratégie de l’organisation.
La ligne hiérarchique moyenne est composée d’une chaîne de cadres
investis de l’autorité formelle qui relie le sommet stratégique au noyau
opérationnel. Son existence est nécessaire car la supervision directe exige
un contact personnel étroit. Son rôle est de transmettre l’information,
d’intervenir dans le flot de décisions, ainsi que, à son niveau, d’attribuer
des ressources et de coordonner des projets, etc. Plus l’on descend dans la
ligne, plus le travail devient détaillé et moins abstrait, concentré sur les
opérations du travail de production et en temps réel.
La technostructure est composée d’analystes qui servent l’organisation
en induisant des effets dans le travail des autres. Ils sont éloignés du
processus du flot opératoire du travail mais ils ont un impact sur lui, car ils
utilisent leurs techniques analytiques pour rendre plus efficace le travail
des autres. Il en existe deux catégories : ceux qui s’occupent de
l’adaptation de l’organisation à l’environnement, et ceux qui contrôlent à
travers la standardisation.
La fonction de soutien est composée d’unités spécialisées qui existent
pour fournir un soutien à l’organisation en dehors du flot opératoire du
travail. Elles sont en assez grand nombre en vue d’incorporer de plus en
plus les activités qui se déroulent aux frontières pour mieux réduire
l’incertitude. Il en existe de type très divers à tous les niveaux de
l’organisation.
Ces cinq parties sont interreliées par des liens complexes qui peuvent
prendre 5 formes différentes :
• Le système d’autorité formelle correspond à l’organigramme.
• Les systèmes des flots régulés d’activités comprennent plusieurs
éléments. Tout d’abord, le flot du travail opératoire : entrées, processus
de transformation, sorties. Ensuite, le flot régulé de contrôle qui envoie
vers le haut l’information sur le déroulement des opérations et vers le
bas des ordres affectant le processus de travail. Enfin, le flot régulé
d’informations fonctionnelles entre opérationnels et fonctionnels à un
niveau horizontal, par exemple le système d’information de gestion ou
d’information collectée à l’extérieur (marchés, produits).
• Le système de communications informelles. Des réseaux denses de
communications informelles existent qui complètent et même parfois
court-circuitent les canaux régulés pour l’information et la décision. Ils
sont constitués de liens et contacts entre les membres, spontanés,
flexibles, souples qui vont guider les sentiments et les intérêts
personnels indépendamment de leur position sur l’organigramme. Ils
sont indispensables au fonctionnement de l’organisation formelle mais
trop fluides pour qu’elle en rende compte.
• Le système des constellations de travail. Dans les organisations les
individus travaillent à l’intérieur de groupes qui sont basés sur des
relations horizontales et non verticales. Au niveau subalterne de
l’organisation ces groupes sont souvent équivalents à un département
fonctionnel, un atelier d’assemblage par exemple. Au niveau
managérial par contre, ces groupes coupent à travers les divisions en
fonction des spécialités. En effet, à des niveaux donnés de la hiérarchie
des groupes d’individus travaillent en commun et peuvent être
distingués car chacun de ces groupes ne traite pas la même catégorie
d’informations. Ils passent l’essentiel de leur temps à travailler sur des
décisions appropriées à leur niveau dans leurs hiérarchies respectives
et leurs spécialisations. Ces groupes constituent des constellations de
travail.
• Le système des processus de décision. L’autorité et l’information ne sont
pas des fins en elles-mêmes, mais des moyens de prendre des
décisions et de produire des biens ou des services. Une décision est ici
un engagement à agir, qui mobilise des ressources. Le processus de
décision comporte plusieurs phases. Dans une première phase qui est
celle d’identification se placent la reconnaissance de la nécessité
d’initier un processus de prise de décision et le diagnostic où la
situation est évaluée. Une deuxième phase est celle du développement
de solutions où se placent la recherche de solutions toutes prêtes et le
développement de solutions sur mesure. Enfin, la troisième phase de
sélection comprend l’examen des solutions développées, l’évaluation
puis le choix d’une d’entre elles.

L’organisation est le produit complexe de ces différents flots.


L’étape suivante consiste à établir les paramètres selon lesquels les
organisations sont structurées c’est-à-dire quelles sont les dimensions
significatives suivant lesquelles les systèmes et flots sont répartis dans les
cinq composants. En d’autres termes, quels sont les paramètres qui
régulent la division et la coordination du travail afin d’obtenir des individus
des ensembles stables de comportement ?
Mintzberg distingue neuf paramètres qu’il répartit en quatre groupes.
Chacun de ces paramètres est associé à un certain nombre de concepts.
Le premier groupe concerne la conception des postes de travail. Il
comprend la spécialisation des emplois (horizontale et verticale) et la
formalisation des comportements (pour pouvoir les prévoir et les
contrôler).
Le deuxième groupe de paramètres concerne la conception des
superstructures et comprend le regroupement en unités et la taille des
unités. Les concepts qui y sont associés incluent la supervision directe, la
division administrative du travail, les systèmes d’autorité formelle, de flots
régulés, de communication informelle, de constellations de travail,
l’organigramme et l’étendue du contrôle.
Le troisième groupe de paramètres concerne la conception des liaisons
latérales et regroupe les paramètres des systèmes de planification et de
contrôle et de méthodes de liaison. Les concepts opératoires recouvrent la
standardisation des produits, les systèmes de flots régulés, l’ajustement
mutuel, les systèmes de communication informelle, des constellations de
travail et de processus de décision.
Enfin, le quatrième groupe de paramètres est lié à la conception du
système de prise de décision. Les concepts opératoires associés sont ceux
de la division administrative du travail, les systèmes d’autorité formelle, de
flots régulés de constellation de travail, de processus de décision et de
communication informelle.

3.3. Le modèle initial et les 5 configurations d’organisations


Henry Mintzberg procède ensuite à l’analyse de l’impact des facteurs
de contingence sur les paramètres opératoires. Il en déduit, dans son
modèle initial, que les blocs constitutifs qu’il a isolés (mécanismes de
coordination, paramètres opératoires de conception et facteurs de
contingence) tendent vers cinq configurations naturelles qui constituent les
cinq formes existantes parmi lesquelles peuvent se classer toutes les
organisations.
L’existence de ces cinq formes d’organisations s’explique par la
prédominance que réussit à exercer chacun des cinq composants de
l’organisation. Le sommet stratégique pousse vers la centralisation qui lui
permet de garder étroitement le contrôle de l’organisation. La
technostructure pousse vers une standardisation aussi complète que
possible surtout celle des processus de travail qui est la plus achevée car
c’est sa raison d’être. Le noyau opérationnel cherche à minimiser les
influences qui s’exercent sur lui, (technostructure et ligne hiérarchique
moyenne) et à promouvoir l’autonomie de ses membres. La ligne
opérationnelle cherche à augmenter son pouvoir tant à l’égard du sommet
stratégique que du noyau opérationnel. Enfin, le soutien fonctionnel
exerce une influence maximum quand la collaboration et l’expertise de ses
membres est le plus nécessaire, donc il va pousser à l’autonomie des
constellations de travail.
Dans le modèle initial de Mintzberg, 5 types d’organisations vont donc
émerger par adaptation des paramètres opératoires aux facteurs de
contingence : la structure simple, la bureaucratie mécaniste, la
bureaucratie professionnalisée, la structure divisionnalisée et l’adhocratie.
La structure simple est celle où le mécanisme de coordination essentiel
est la supervision directe, la partie clef de l’organisation est le sommet
stratégique, les principaux paramètres de conception sont la centralisation
et une structuration organique. Elle apparaît surtout dans les organisations
jeunes, à systèmes techniques non sophistiqués, simples dans un
environnement dynamique, souvent (mais pas toujours) petite, souvent
entrepreneuriale. Elle est flexible, adaptable, a un fort sens de la mission
mais présente des risques car tout repose principalement sur le dirigeant.
La Bureaucratie mécaniste a pour mécanisme de coordination
principal, la standardisation des processus de travail ; la partie essentielle
de l’organisation est la technostructure car elle dépend de la
standardisation ; les paramètres de conception opératoires sont la
formalisation du comportement, la spécialisation horizontale et verticale
des emplois, le regroupement fonctionnel, une grande taille des unités
opérationnelles, centralisation et déconcentration limitées, planification
des activités. Elle est liée à des systèmes techniques, régulatoires non
automatisés, elle est ancienne, de grande taille, dans un environnement
simple et stable. Les tâches opératoires sont hautement spécialisées, de
routine. Les procédures dans le noyau opérationnel sont très formalisées,
règles et règlements prolifèrent, la communication est formalisée, la
structure administrative est élaborée avec une nette division opérationnel-
fonctionnel. C’est le mode d’organisation le plus efficace lorsqu’un
ensemble intégré de tâches simples et répétitives doivent être accomplies.
Elles seront inévitables tant que la société aura besoin de produits
manufacturés, de services bons marchés et de produits de masse. Les
problèmes de coordination y sont permanents et encouragent la
supervision directe. La structure est incapable de s’adapter d’elle-même.
Un bon exemple est celui des chemins de fer.
La bureaucratie professionnalisée a pour procédé de coordination des
tâches, la standardisation des qualifications. La partie clef de l’organisation
est alors le noyau opérationnel. Elle embauche des professionnels
hautement qualifiés pour le noyau opérationnel et leur donne ensuite un
contrôle considérable sur leur propre travail. Elle comprend aussi une
spécialisation horizontale des emplois combinée avec une décentralisation
et une déconcentration majeure. Le contrôle sur son propre travail du
professionnel signifie qu’il travaille très indépendamment des autres
membres de l’organisation mais très près de son client (professeur,
médecin, avocat). Sa structure est bureaucratique car sa coordination
implique des standards préétablis (qualifications) qui prédéterminent ce
qui doit être fait et qui sont établis à l’extérieur de l’organisation.
Elle apparaît dans des environnements stables, très complexes, avec un
système technique peu sophistiqué mais un ensemble de connaissances
opératoires très sophistiqué. Elle est souvent associée à un soutien
fonctionnel qui, lui, est organisé en bureaucratie mécaniste (par exemple
secrétariat). Pour les membres du noyau central, elle est assez
démocratique, leur permet une large autonomie vis-à-vis de l’organisation
(leurs pairs). Les problèmes sont ceux de la coordination, de l’adaptation
au changement et de l’innovation.
La structure divisionnalisée repose sur le mécanisme de
standardisation des produits (sorties). La partie clef de l’organisation est la
ligne hiérarchique moyenne. Les paramètres opératoires sont le
regroupement par marchés, le système de contrôle des performances
(souvent financier), des unités largement décentralisées mais au sommet
seulement. Au-dessous la bureaucratie mécaniste reprend sa place. Les
conditions d’apparition sont essentiellement la diversité des marchés,
souvent en termes de produits et de services, l’ancienneté, la grande taille,
les besoins de pouvoir des cadres supérieurs intermédiaires. Elle
encourage l’allocation la plus efficiente du capital, forme bien les cadres
dirigeants futurs, réduit les risques, et accroît la planification stratégique et
l’adaptation au changement. C’est une réponse aux problèmes de la
bureaucratie mécaniste.
L’adhocratie a pour mécanisme de coordination essentiel l’ajustement
mutuel. La partie essentielle de l’organisation est le soutien fonctionnel,
seul dans l’adhocratie administrative, avec le noyau opérationnel dans
l’adhocratie opératoire. Les paramètres de conception opératoires sont :
une structure hautement organique, avec très peu de formalisation du
comportement, une spécialisation horizontale des emplois élevés, basée
sur une formation formelle, une tendance à regrouper les spécialistes en
unités fonctionnelles pour l’usage interne mais à les déplacer en petits
projets sur une base de marché pour l’exécution du travail, une insistance
sur les mécanismes de liaison pour l’ajustement mutuel efficace, dans et
entre les équipes et une décentralisation sélective dans et entre ces
équipes placées à différents niveaux de l’organisation et composées de
managers fonctionnels, opérationnels et d’experts. Elle est caractérisée par
une très forte capacité d’innovation, peu de respect pour les principes
classiques d’organisation, l’embauche et l’attribution du pouvoir à des
experts possédant des qualifications très différentes donc non
standardisées.
L’adhocratie opératoire sert des clients. Elle innove et résout des
problèmes en même temps directement pour eux (cabinet de conseil,
agence de publicité, théâtre, fabriquant de prototype). Elle adopte donc
temporairement une forme de bureaucratie professionnalisée, différente
et adaptée à chaque cas. Pour chaque projet, plans, conception et
exécution sont intégrés. Travail administratif et travail opérationnel sont
mélangés. Le noyau opérationnel est intégré dans la structure globale et se
confond avec le soutien fonctionnel en chaque configuration
opérationnelle chez le client.
L’adhocratie administrative entreprend ses projets pour elle-même et
elle distingue nettement ses composants administratifs et opérationnels
qui restent des noyaux séparés érigés en systèmes autonomes ou bien sont
automatisés ou sous-traités.
En général, les adhocraties apparaissent dans un environnement
complexe et dynamique, soumis à des forces disparates. Elles sont jeunes,
sophistiquées dans les systèmes techniques.
L’adhocratie est une structure complexe en réorganisation constante,
souvent sous formes matricielles. Il n’est pas nécessaire d’avoir une
hiérarchie et une supervision directe. Fonctionnels et ensemble du
personnel sont mêlés en arrangements fluides en réorganisation
constante. Elle produit plus de démocratie interne et moins de
bureaucratie, mais exige de ses membres une grande tolérance pour
l’ambiguïté. Cette ambiguïté est couplée avec une grande
interdépendance. Il se crée donc des jeux politiques internes multiples.

3.4. Les additions au modèle initial : les organisations missionnaires


et politiques
Des additions au modèle initial78 sont apportées. Elles se situent à
divers niveaux. Tout d’abord, une sixième partie vient s’ajouter aux cinq
premières : une idéologie ou culture, qui comprend les traditions et les
croyances d’une organisation. Elle la distingue ainsi de toutes les autres et
en quelque sorte introduit un élément de vie dans les blocs de la structure.
Ensuite, tous ceux qui travaillent dans les différentes composantes
d’une organisation cherchent à l’influencer et constituent une coalition
interne. D’autres influences s’appliquent de l’extérieur : propriétaires, voire
actionnaires, syndicats, fournisseurs, clients concurrents, partenaires et
public (gouvernements, lobbies, etc.). Elles peuvent être plus ou moins
passives, dominantes ou divisées.
Un mécanisme de coordination est ajouté, la standardisation des
normes, contrôlées pour l’ensemble de l’organisation de façon à ce que
chacun agisse suivant le même ensemble de croyances.
Deux nouveaux types d’organisation émergent de ces nouveaux
développements : l’organisation missionnaire et l’organisation politique.
L’organisation missionnaire a pour mécanisme de coordination
essentiel la standardisation des normes, renforcée par la sélection et la
socialisation des membres. Elle a comme partie clé l’idéologie et est
décentralisée en petites enclaves faiblement organisées mais avec de
puissants contrôles normatifs. Elle comporte une très forte culture interne
avec un riche système de croyances et valeurs partagées. Elle présente un
sens de mission, un leadership charismatique, une mission claire, focalisée,
précise et inspiratrice.
L’organisation politique varie, sans partie ni mode de coordination
préférée. Elle est caractérisée par la prééminence de l’influence illégitime.
Elle est dominée par le conflit et les jeux de pouvoir parallèles. Pouvoir
formel et informel se complètent et s’affrontent autour et dans les
structures, aussi bien pour les contrôler que pour les modifier. Elle passe
par un cycle de résolution du conflit et comporte quatre formes,
confrontation, alliance instable, politisation permanente modérée,
politisation complète intense et instable.
L’approche en termes de configurations vise donc à décrire la structure
et les caractéristiques de l’organisation qui favorisent son efficacité,
compte tenu d’une combinaison de facteurs qui les caractérisent.

Focus : L’essentiel des théories de la contingence structurelle


A partir des années 1960/1970, un ensemble de théories de la
contingence structurelle remettent en cause le principe de « one best way
» sur lequel repose, à cette époque, autant les théories traditionnelles
que les théories des relations humaines. Elles visent à montrer que la
structure de l’organisation est contingente à un ensemble de variables à
la fois interne et externe. La conférence de Pittsburg, en 1967, représente
un moment fort de diffusion et de développement conjoint de cette
approche contingente.
L’organisation est contingente à la taille
Blau (1971) montre que plus la taille de l’organisation est grande, plus les
besoins en administration augmentent, nécessitant un accroissement de
l’encadrement. Ainsi, il existe un lien entre taille de l’entreprise et besoin
en personnel d’encadrement. Toutefois, à partir d’un certain seuil, il existe
des économies d’échelles en encadrement et de ce fait, le ratio du
personnel d’encadrement par rapport à l’ensemble du
personnel s’avère proportionnellement plus faible dans les très
grandes organisations que dans les organisations plus petites. De plus,
l’accroissement de la taille de l’organisation entraine une plus grande
différenciation de sa structure, mais à un taux décroissant.
L’organisation est contingente à l’âge
Starbuck (1965) montre que, quel que soit leur âge, les organisations
résistent au changement dans l’organisation de la structure des tâches. Les
organisations anciennes, quant à elles, ont tendance à résister au
changement dans les relations sociales qui existent entre leurs membres,
alors que les jeunes organisations résistent essentiellement au
changement dans leurs objectifs. En effet, dans les organisations récentes,
les membres qui viennent d’adhérer (ou de créer l’organisation) ressentent
un fort degré d’engagement. Ils ont donc des difficultés à accepter des
changements dans les objectifs de l’organisation.

Pour Greiner (1972) l’âge de l’entreprise implique le passage par une


série de phases. Pour passer d’une phase à l’autre, l’entreprise passe
par des « crises » qu’elle doit dépasser pour continuer à croître et
perdurer. Cette approche a l’avantage de mettre l’accent sur la nécessité
d’anticiper le changement pour l’entreprise, afin de mettre en place des
actions pour faire face à l’évolution du temps dans l’entreprise et à ses
cycles de vie en fonction de son âge.
L’organisation est contingente à la technologie
Woodward (1965) distingue trois types de technologies qui se situent
sur une échelle de complexité croissante : la production en petites
séries, la production de masse et la production en continu. Ces trois grands
types de technologies dictent les structures de l’organisation.
•Les entreprises qui ont une production unitaire ou en petite série sont
des entreprises flexibles, la communication est informelle, une ligne
hiérarchique réduite, un faible contrôle du travail et un enrichissement
du travail pour le salarié.
•Les entreprises qui ont une production de masse ont une structure
hiérarchisée et un taux d’encadrement plus élevé. Elles définissent les
taches et les responsabilités des salariés de manière précise, elles sont
formalisées. Elles sont peu flexibles.
•Dans les entreprises qui ont une production en continue, l’organisation
repose sur des relations du travail horizontales, fondées sur
l’expérience et l’expertise et un management par projets. Il y a une
faible formalisation.
Perrow (1967) montre que les technologies de type non routinier sont
associées à des structures flexibles et adaptables, alors que les
technologies de type routinier sont associées à des structures plus
formalisées et centralisées.
Thompson (1967) distingue les technologies à lien long, les technologies
médiatrices et les technologies intensives. Il montre que les organisations
doivent faire face aux contraintes qui découlent de leur technologie.
L’organisation est contingente à la stratégie
Chandler (1962) montre que les changements de stratégie précèdent et
sont les causes des changements de structure.
L’organisation est contingente à l’environnement
Burns et Stalker (1966) montrent que les organisations peuvent être
décrites à partir d’un continuum aux extrémités duquel se situent deux
catégories de structures types : les structures mécanistes et les
structures organiques.
Un type d’organisation n’est pas supérieur à l’autre. La structure mécaniste
est adaptée aux environnements très stables, la structure organique est
adaptée aux environnements changeants.
Des problèmes surgissent soit quand une organisation choisit d’opter pour
une structure inadaptée à son environnement, soit lorsque
l’environnement change. Ces dysfonctionnements sont la manifestation du
fait qu’il faut prendre en compte trois systèmes dans l’analyse des
organisations. Autour du système de fonctionnement de l’organisation,
existent un système politique et un système d’intérêts personnels qui
interagissent et qui peuvent être source de dysfonctionnements. Une
organisation ne peut s’analyser qu’en fonction de ces trois systèmes.
Emery et Trist (1963) distingue 4 catégories d’environnement et montrent
que les structures organisationnelles varient pour chacun d’entre eux. Il
s’agit de l’environnement placide aléatoire (qui correspond au marché de
concurrence pure et parfaite), l’environnement placide regroupé
(concurrence imparfaite), l’environnement placide réactif (marché
oligopolistique) et enfin l’environnement de champ turbulent, qui est le
plus complexe et correspond à l’environnement de nombre d’entreprises
modernes.
Lawrence et Lorsch (1967) montrent que les entreprises les plus
performantes sont celles qui ont un degré de différenciation qui
correspond au niveau d’incertitude de leur environnement. Plus
l’environnement est incertain, plus la différenciation de l’entreprise est
forte. Non seulement la forme d’organisation est contingente à
l’environnement, mais en plus elle n’est pas homogène.
Même si elles remettent en cause le « one best way », la plupart de ces
théories restent déterministes. En effet, l’organisation reste conçue
comme une réalité objective observable de l’extérieur. Il s’agit toujours de
découvrir des lois d’application générale, même si leur application varie
suivant les cas et sont contingents à un certain nombre de variables.
Enfin, tout en dépassant l’approche contingente, Mintzberg (1971)
distingue – dans son modèle initial – 5 configurations d’organisations qui
sont : la structure simple, la bureaucratie mécaniste, la structure
divisionnalisée, la bureaucratie professionnalisée et l’adhocratie. Il ajoute
ensuite deux configurations d’organisations additionnelles : l’organisation
missionnaire et l’organisation politique.
_______
56 Dale, E., Planning and Developing the Company Organization Structure, New York, Research Report
n°20, American Management Association, 1952.
57 Blau, P. M. and Schoenherr, R. A., The structure of Organizations, Basic Books, Inc, New York, 1971.
Blau, P. M., ‘‘Interdependence and Hierarchy in Organizations’’, Social Science Research, 1, April
1972, pp. 1-24 ; Blau, P. M. « A Formal Theory of Differenciation in Organizations », American
Sociological Review, 35, 1970, pp. 201-218.
58 Aldrich, H. E., Organizations and Environments, Prentice Hall, Englewood Cliffs, NJ 1979.
59 Starbuck, W. H., ‘‘Organization Growth and Development’’, in March, J. (ed.), Handbook of
Organizations, Chicago, Rand Mc Nally, 1965.
60 Greiner, L., ‘‘Evolution and Revolution as Organization Grows’’, Harvard Business Review, 50, 1972,
pp. 37-46.
61 Quinn, R.E. and K. Cameron, ‘‘Organizational life cycles and shifting criteria of effectiveness:some
preliminary evidence’’, Management Science, Vol. 29, N°1, 1983.
62 Adizes, I., ‘‘Organizational Passages: Diagnosing and Treating Life Cycle Problems inOrganizations’’,
Organizational Dynamics, Summer 1979.
63 Stinchcombe, A. L., ‘‘Social Structure and Organisation’’, in. March, J.G, (ed), Handbook of
Organization, Chicago Ill, Rand Mc Nally, 1965, pp. 142-193.
64 Mintzberg, H., The structuring of Organizations, Prentice Hall, Englewood Cliffs, p. 229, 1979.
65 Woodward, J., Industrial Organization Theory and Practice, London, Oxford University Press, 1965.
Woodward, J., Management and Technology, London, Oxford University, Press, 1968 et Industrial
Organization Behaviour and Control, London, Oxford University, Press, 1970.
66 Perrow, C., ‘‘A Framework for the Comparative Analysis of organisations’’, American
Sociological Review, Vol. 32, n° 2, April 1967, pp. 194-208, et Perrow, C., ‘‘The Analysis of Goals in
Complex Organizations’’, American Sociological Review, Vol. 26, 1961, pp. 854-855. 67 Thompson,
James D., Organisations in action, New York, Mc Graw Hill, 1967.
68
Voir par exemple Koenig, G., Management stratégique : Paradoxes, intercations et apprentissages,
Paris, Nathan, 1996.
69
Chandler, A., Strategy and Structure: Chapters in the History of the Individual Enterprise, Boston,
M.I.T. Press, 1962.
70
Pour un aperçu plus complet des différentes écoles de pensée en stratégie d’entreprise, se
reporterau chapitre 7 de cet ouvrage.
71
Child, J. C., ‘‘Organization structure, Environment and performance: The role of strategic
choice’’,Sociology, 6, January 1972, pp. 1-22 et Organization: a guide to problem and practice,
London, Harper and Row, 1977.
72
Notons que le chapitre 5 de l’ouvrage est consacré à la prise en compte de l’environnement dans la
théorie des organisations, au-delà des seules théories de la contingence structurelle.
73
Burns, T. K., et Stalker, G. M., The Management of Innovation, London Tavistock, 1966.
74
Burns, T., K., ‘‘Industry in a new age’’, New Society, 31 January 1963, pp. 17-20, cité dans P.S. Pugh
(ed.), Organization Theory, London, 1971, Penguin, pp. 43-55.
75
Emery, F. E. and Trist, E. L., ‘‘The causal texture of organizational environment’’, Human Relations,
vol. 18, August 1963, pp. 20-26.
76
Lawrence, P. R. and Lorsch, J. W., ‘‘Differenciation and integration in complex
organizations’’,Administrative Science Quarterly, vol. 12, n°1, June 1967, pp. 1-47 et Organization
and environment: Differenciation and integration, Boston, Harvard University Press, 1967.
77
Mintzberg, H., The Structuring of Organizations, Englewoods Cliff, N.J., 1971. Un résumé est
présenté dans ‘‘Structures in 5’S: a Synthesis of the Research on organization design’’, Management
Science, Vol. 26, n°3, March 1980.
78
Mintzberg, H., Power in and Around Organizations, New York, Prentice Hall, 1983 et Mintzberg, H.,
Mintzberg on Management, New York, The Free Press, 1989.
Nombre de théories des organisations modernes considèrent, de
manière explicite, ou souvent même implicite, que les organisations sont
des systèmes ouverts, composés d’un ensemble de sous-systèmes. Il
convient alors de définir cette notion et de resituer historiquement
l’origine de l’approche en termes de systèmes.
La théorie des organisations en termes de systèmes se développe à
partir des années 1950-1960, face à l’émergence de phénomènes sociaux
de plus en plus complexes à étudier. Il s’agit d’une démarche globale qui
s’attache aux relations entre les éléments d’une entité plus qu’aux
caractéristiques de chaque élément.
Ce chapitre définit la notion de système, introduit la théorie générale
des systèmes de Von Bertallanfy qui est à l’origine de l’approche
systémique, puis développe certaines théories qui s’insèrent dans ce cadre,
telles que l’analyse socio-psychologique de Katz et Kahn, l’analyse
sociotechnique du Tavistock Institute et la théorie des flux de Forrester.

1. La notion de système
Après avoir défini la notion de système, nous montrons que
l’organisation peut être considérée comme un système ouvert.

1.1. Le système est plus que les éléments qui le compose


Karl Ludwig Von Bertalanffy (1901-1972) définit un système comme «
un complexe d’éléments en interaction ». Les éléments sont liés par des
relations telles que le comportement d’un élément donné dans une
relation donnée diffère de son comportement dans une autre relation. Si
ce n’était pas le cas, les éléments se conduiraient indépendamment des
relations et il n’y aurait pas interaction. Il s’ensuit, qu’un système est tel
que ses caractéristiques constitutives ne peuvent s’expliquer à partir des
caractéristiques de ses parties prises isolément. Dit autrement, le tout est
plus que la somme de ses parties.
Notons que Boulding79 distingue plusieurs niveaux de systèmes :
1. La structure statique : le niveau du cadre, l’anatomie du système.
2. Le système dynamique simple : le niveau du mécanisme d’horlogerie
qui est constitué de mouvements nécessairement prédéterminés.
3. Le système cybernétique : le niveau de thermostat avec rétroaction et
circuit de contrôle destiné à permettre à un système de maintenir un
état d’équilibre préétabli.
4. Le système ouvert : le niveau des systèmes qui s’auto-entretiennent et
qui présentent des capacités de croissance et de renouvellement. Ceci
inclut le niveau des organismes vivants.
5. Le système organique : le niveau des cellules, caractérisé par une
division du travail entre les cellules.
6. Les systèmes animaux : niveau de la mobilité avec apparition du
comportement orienté vers un but.
7. Les systèmes humains : niveau de l’interprétation symbolique et de la
communication des idées.
8. Les systèmes sociaux : niveau des organisations humaines.
9. Les systèmes transcendantaux : niveau des absolus qui sont par
essence inconnaissables.

Un point important dans la hiérarchie des systèmes de Boulding, c’est


qu’elle invite à se poser la question du niveau d’analyse. Ainsi, il est utile de
se demander à quel niveau de la hiérarchie se situe notre objet d’étude.
Concernant les organisations, c’est quasiment au niveau le plus élevé de la
hiérarchie (niveau 8 sur 9), donc au niveau de complexité maximum.

1.2. L’organisation considérée comme un système


L’application du concept de système dans le domaine social est à
l’origine l’œuvre de Talcott Parsons80. Ce sont cependant Katz et Kahn qui
en donneront une version plus élaborée en bâtissant sur la notion de
système social ouvert leur théorie des organisations. Se basant sur l’idée
de Parsons, ils distinguent un certain nombre de composants
organisationnels ou sous-systèmes qui permettent son fonctionnement
efficace : un composant technique ou de production ; un composant de
soutien (achats, ventes), un composant d’entretien, qui préserve la
capacité productive du personnel et de l’équipement ; un composant
adaptatif aux changements ; un composant institutionnel qui recherche
légitimité et soutien social et un composant managérial qui coordonne
activités internes et externes et résout les conflits.
L’idée de système social situe le niveau de complexité et l’idée de
système ouvert signifie que l’organisation interagit avec son
environnement.
L’organisation présente toutes les caractéristiques des systèmes : elle
est plus que la somme de ses composantes, elle ne se résume pas à leur
agrégat et présente des propriétés qui ne peuvent pas se découvrir par la
seule analyse de ses éléments constitutifs séparément. De plus ces mêmes
éléments sont en interaction, et l’accent est mis sur ces interactions.
Ces systèmes ouverts se situent bien évidemment au niveau des
systèmes sociaux. Les organisations, comme tous les systèmes sociaux
consistent en des activités structurées d’un certain nombre d’individus,
complémentaires ou interdépendantes en regard d’un but ou objectif
commun. Elles sont répétitives, d’une certaine durée et limitées dans le
temps et dans l’espace. La stabilité ou la récurrence des activités est une
condition indispensable à l’existence d’une organisation. Celle-ci peut être
aussi examinée en relation avec, d’une part, les entrées (input) d’énergie
dans le système, leur transformation et le produit ou énergie en résultant
(output) et, d’autre part, le renouvellement de l’énergie ou du produit en
entrées.
Les organisations présentent donc les caractéristiques spécifiques des
systèmes ouverts, et en particulier, les suivantes :
• L’importation d’énergie : Les systèmes ouverts importent entre autres
une forme quelconque d’énergie de leur environnement externe.
Aucune structure sociale n’est auto-suffisante ni auto-continue.
• Le transformé : les systèmes ouverts transforment l’énergie qu’ils
importent et réorganisent les entrées. Ils accomplissent un travail.
• L’output : Les systèmes ouverts exportent un produit dans
l’environnement sous forme d’énergie ou autre.
• La vie cyclique : Les systèmes sociaux sont des cycles d’événements. Le
produit exporté dans l’environnement fournit les sources d’énergie
pour la répétition du cycle d’activité. Ce sont les événements et non les
choses qui sont structurés et qui constituent l’organisation.
• L’entropie négative : Les systèmes sociaux présentent une entropie
négative c’est-à-dire que pour survivre ils devront arrêter la loi
universelle de la nature du processus d’entropie. C’est cette loi qui fait
que les systèmes physiques complexes tendent vers la distribution
aléatoire de leurs éléments et la désorganisation et que les organismes
biologiques s’usent et meurent. Le système social cependant, en
important plus d’énergie qu’il n’en dépense survit en stockant de
l’énergie.
• La rétroaction. Les systèmes sociaux présentent la caractéristique de
rétroaction (feed-back). Les entrées, outre de l’énergie, sont aussi
porteuses d’information. La rétroaction négative est le traitement de
cette information par le système sous la forme la plus simple. Elle lui
permet de corriger les déviations quand l’information nouvelle qu’il
assimile indique qu’il a dévié. Elle est stabilisatrice. À l’inverse, la
rétroaction positive engage la dynamique du changement.
• L’homéostasie. Les systèmes sociaux tendent vers un état
homéostatique, c’est à-dire d’équilibre dynamique entre entrées et
sorties d’énergie. Toutefois ce principe ne va pas s’appliquer
littéralement à leurs cas comme il le fait au niveau des systèmes plus
simples. Les systèmes sociaux par l’entropie négative non seulement
maintiennent un état stable mais tendent à accumuler plus d’énergie
qu’ils n’en usent. Ils peuvent donc croître et s’étendre. Cependant, ce
qui est maintenu est la préservation du caractère du système bien qu’il
modifie généralement sa forme, quantitativement et parfois
qualitativement, pour s’adapter aux changements dans
l’environnement.
• La différenciation. Ces systèmes ouverts tendent vers la différenciation
et l’élaboration. Des formes diffuses sont remplacées par des fonctions
spécialisées.
• L’équifinalité. Les systèmes ouverts présentent peuvent atteindre le
même état, à partir de conditions initiales différentes et à travers une
multitude de chemins différents.
2. Von Bertalanffy et la théorie générale des
systèmes
Ludwig Von Bertalanffy81 (1901-1972) est considéré comme le père de
l’analyse systémique. Il est à l’origine de la théorie générale des systèmes.
Biologiste, son but est de dégager des lois générales et des hypothèses
applicables à tous les systèmes physiques, mécaniques, sociaux et même
abstraits. L’idée principale consiste à penser que pour bien appréhender
une entité, y compris une entité sociale, il faut la considérer comme un
système composé de parties indépendantes.
Un certain nombre d’idées fondamentales doivent être soulignées.
En premier lieu, le tout est plus que sur la somme des parties. Ce qui
est considéré essentiel, ce sont les relations entre les éléments, et non les
éléments eux-mêmes. Tous sont en interaction, à des degrés plus ou moins
élevés.
En second lieu, Von Bertalanffy fait une distinction entre systèmes
fermés et systèmes ouverts. Ces derniers interagissent avec leur
environnement, importent des entrées, en particulier de l’énergie, et
exportent des sorties. Cela leur permet de se maintenir, alors que les
systèmes fermés passent par des phases d’effondrement. Ceci implique en
outre d’établir les limites du système.
Enfin, en troisième lieu, les systèmes sont finalisés, ils ont un but, qui
au niveau le plus simple peut être simplement de se maintenir en
équilibre. Un système est soumis à des changements, il passe d’un état
stable à un autre. Un système est en permanence à la recherche de son
équilibre. Il y parvient en corrigeant certaines variables du système par des
mécanismes de régulation.
3. La psychologie sociale des organisations de Katz
et Kahn
Katz et Kahn82 proposent un modèle de « psychologie sociale des
organisations ». Cette théorie s’insère dans la théorie des systèmes en ce
que d’une part l’organisation est considérée comme un système ouvert qui
se décompose en sous-systèmes et d’autre part, les organisations sont
abordées à travers des systèmes de rôles prévus et sanctionnés par des
normes, elles-mêmes prenant leurs sources dans des valeurs.
Dans toute organisation, un individu a une « place » définie comme un
point donné dans l’espace organisationnel qui est lui-même l’ensemble des
places, en relation avec les autres et avec le jeu des activités. Chaque place
est associée à un ensemble d’activités ou de comportements attendus. Ces
activités ou comportements constituent le « rôle » qui doit être rempli par
tout occupant de la place. Chaque rôle est en relation avec un certain
nombre d’autres rôles en fonction de sa disposition dans le processus
technique de production, fonction lui-même de la technologie utilisée, du
flot de travail à accomplir, de la structure d’autorité dans l’organisation,
etc. Ces autres rôles en interrelation constituent « l’ensemble du rôle » sur
l’observation duquel on se focalise.
Le « comportement dans le rôle » est constitué des actions répétitives
d’un individu interreliées avec les actions répétitives d’autres individus afin
qu’un résultat prévisible soit obtenu. La totalité des comportements de
rôles interdépendants constitue un système, ou un sous-système social.
Les attentes des titulaires de rôles qui composent « l’ensemble du rôle
» sont transmises à celui qui l’occupe en termes du comportement que l’on
attend de lui (par information, inférence, influence, sanctions, etc.), bien
sûr en ce qui concerne sa performance, mais aussi en ce qui concerne sa
personnalité, son attitude, son comportement, etc.
De sa place, dans ce qui lui est transmis, le titulaire du rôle perçoit et
comprend plus ou moins bien le contenu intentionnel de ce que l’on
souhaitait lui transmettre. Ce qu’il reçoit dépend de la représentation qu’il
s’en fait psychologiquement. C’est ce « rôle reçu » et non pas seulement le
« rôle transmis » qui va influencer son comportement dans
l’accomplissement des activités du rôle. Le degré auquel les deux
correspondent dépend de chaque individu et de son « ensemble du rôle ».
C’est par le rôle transmis que l’organisation communique à ses membres ce
qu’il faut et ne faut pas faire dans leur place. C’est le rôle reçu cependant
qui influence le comportement et la performance du titulaire de la place.
Chaque attente transmise va influencer le comportement, dans une
direction ou dans l’autre d’ailleurs, celui voulu ou non, et avec une force
variable.
Par exemple un ordre peut être reçu comme coercitif ou illégitime et
entraîner une résistance et un effet contraire au comportement attendu
par le membre de « l’ensemble du rôle » qui le transmet. En retour, le rôle
transmis va être altéré par le comportement perçu.
Enfin d’autres processus psychologiques existent, internes à l’individu.
De plus, il faut prendre en compte les propriétés objectives,
impersonnelles, matérielles de la situation elle-même. Aussi, il faut
considérer les satisfactions intrinsèques psychologiques, le rôle que le
titulaire s’assigne à lui-même en tant « qu’auto-transmetteur », les valeurs
et attentes qu’il a formées sur ses propres capacités et comportements et
sur les conditions d’appartenance à l’organisation.
Par ailleurs, un seul rôle peut contenir plusieurs activités (ou cycles de
comportement), une seule « place » dans l’organisation peut comprendre
des rôles multiples. Des places multiples peuvent être tenues par un seul
individu. La division du travail peut être considérée comme une
simplification des rôles et place en une activité. Cependant, elle implique
automatiquement une coordination à des niveaux plus élevés donc une
multiplicité des rôles à cet autre niveau. Inéluctablement, ce schéma
conduit à des conflits de rôle.
Le modèle de rôles Katz et Kahn

Katz et Kahn décrivent ainsi un modèle élaboré de fonctionnement des


organisations complexes et dégagent les conditions de leur efficacité et de
leur changement.

4. L’analyse sociotechnique
L’origine de l’analyse sociotechnique s’appuie sur des études
empiriques réalisées par Trist et Bamforth et Rice d’une part, et par Rice
d’autre part. Ces études mettent en évidence que l’’organisation ne peut
pas être appréhendée à travers les seuls aspects techniques, ni à travers
les seuls aspects sociaux, mais que les deux sont interreliés, dans une
approche systémique. Dans le cadre notamment du Tavistok Institute, les
travaux de l’analyse sociotechnique donnent lieu au développement du
courant pour l’amélioration des conditions de vie au travail.

4.1. Les expériences de Trist, Bamforth et Rice


Trist et Bamforth83 étudient l’extraction du charbon dans les mines dans
les années 1950, qui comporte 3 opérations : l’abattage du charbon à la
main ou à la machine dans une veine, le chargement et le transport du
charbon abattu, les activités de préparation qui consistent à avancer les
supports du toit des galeries et le système de transport du charbon.
Initialement le mode opératoire était le résultat de l’expérience et du
passé. Toutes les tâches étaient accomplies par un petit groupe de
mineurs, travaillant par équipes successives, chacune constituée, au
minimum de deux mineurs avec un ou deux assistants. Chaque groupe
exploitait une surface faible de la veine de charbon. À chaque changement,
l’équipe montante reprenait le travail là ou l’équipe descendante l’avait
laissé. Les mineurs d’un groupe de trois équipes étaient payés à l’identique
sur la base de la productivité de leur groupe. Chaque groupe et chaque
équipe s’autosélectionnait, était assez homogène, appliquait ses propres
standards de production avec une quasi complète autonomie et une forte
cohésion interne. Le contrôle managérial s’effectuait surtout dans la
négociation du mode de salaire. Le système était très adaptable aux
qualités variables des veines de charbon et produisait un certain degré de
conflit, limité, entre les groupes.
Ce système traditionnel fut remplacé par l’abattage à la machine sur
une surface longue et le transport mécanisé du charbon à la surface. Les
équipes continuaient à se succéder, mais cette fois-ci avec une division du
travail entre et à l’intérieur des équipes. La première équipe de dix
hommes abattait le charbon, avec plusieurs qualifications différentes
spécialisées elles aussi : forer des trous, couper des entailles dans la veine
de charbon, les dégager et y placer des supports, dégager la machine,
mettre à feu les explosifs. La deuxième équipe de 20 hommes (1
qualification) chargeait le charbon abattu dans le système de transfert.
Enfin, la troisième équipe construisait et préparait l’avance de la galerie
pour la première équipe (2 qualifications : déplacer le convoyeur, avancer
la galerie).
L’introduction de la nouvelle méthode de travail brisait la polyvalence
des mineurs, les confinait à une seule tâche, rompait la coordination du
cycle de travail précédent entre équipes, distinguait des statuts et séparait
le paiement de chacun de la performance collective. De plus, globalement,
la forte intégration sociale qui avait caractérisé les petites équipes
précédentes disparaissait complètement.
La productivité déclina, des rivalités et conflits entre groupes et entre
qualifications dans les groupes se développèrent, l’absentéisme augmenta
pour certaines catégories de personnel, chaque équipe montante en vint à
rejeter la responsabilité des erreurs et fautes sur l’équipe descendante, car
les responsabilités étaient devenues diffuses, etc.
Cependant les chercheurs découvrirent que certains puits n’avaient pas
adopté la nouvelle organisation du travail malgré l’implantation de la
nouvelle technologie d’extraction. Là aussi, 41 hommes étaient impliqués
activement et un nombre important d’entre eux en même temps par la
technologie nouvelle, et non des petits groupes. Ils étaient divisés en trois
équipes aussi, mais il n’y avait pas division du travail ; chaque équipe
exécutait les tâches successives en répartissant elles-mêmes ses membres
dans les différentes opérations et en se réorganisant à chaque changement
de tâche. Elle s’était auto-sélectionnée et la rémunération était partagée
également. Tous les hommes n’étaient pas polyvalents car tous ne
maîtrisaient pas les nouvelles machines à abattre, mais tous permutaient
parmi certaines tâches.
Les chercheurs mirent ensuite dans des conditions similaires des
groupes en situation de comparaison suivant les deux méthodes. Les
résultats furent frappants : les équipes qui étaient autorisées à conserver
leur autonomie montrèrent une productivité accrue, un meilleur moral,
une diminution considérable de l’absentéisme, etc.
Par la suite, une autre expérience fut menée par Rice 84 dans une usine
textile aux Indes qui employait 8000 salariés. Le remplacement des métiers
à tisser à main et l’introduction de métiers automatiques n’avait eu aucun
des effets escomptés sur la productivité. Cependant, le moral et les
rapports entre ouvriers et encadrement paraissaient bons. Les salariés
étaient répartis en 12 qualifications sur les nouveaux métiers avec des
charges de travail et des spécifications variant suivant la qualité du fil, et de
nombreux autres facteurs. Au lieu de définir plus étroitement les
spécifications des tâches et d’augmenter la supervision, les
expérimentateurs rendirent un groupe de salariés responsables pour un
groupe de métiers avec un certain degré de partage des qualifications (sauf
le réglage) et avec un leader de groupe. Le succès fut instantané. La
productivité et la qualité augmentèrent immédiatement et restèrent
élevées sur les 2 ans et 3 mois qu’elles furent mesurées. Un certain
nombre de problèmes, bien sûr, apparurent, avec chute corrélative de
productivité, mais ils furent réglés (formation, changements de matériaux,
etc.) et la productivité remonta à chaque fois.
L’analyse de ces expériences conduisent à un ensemble de conclusions :
En premier lieu, elles établissent que l’organisation peut faire l’objet de
choix et n’est pas dictée par les seules considérations techniques. Pour une
technologie donnée il existe bien un choix large du mode d’organisation
puisque dans les deux cas l’introduction d’un mode de production et
d’outillage entièrement nouveau avait pu coexister avec des modes
d’organisation des équipes de travail différentes.
L’organisation ne dépend donc ni de la technologie seule, comme l’ont
prétendu certains théoriciens de la contingence, ni de la situation
psychologique et sociale seule des hommes au travail, comme l’ont
soutenu certains théoriciens des relations humaines. Elle dépend en fait
des deux : l’organisation est un système socio-technique, organisation
sociale et organisation technique interagissent dans ce système et
s’influencent réciproquement.
Par ailleurs, l’organisation est un système ouvert et l’entreprise doit
sélectionner ses tâches prioritaires85 en s’adaptant à l’environnement. Ceci
fait que la technologie définit un cadre, qui pose des limites au type
d’organisation possible, mais il reste une marge de choix et ce choix de
l’organisation sociale du travail a des conséquences sociales et
psychologiques qui sont indépendantes de la technologie.
Les contraintes techniques et sociales réagissent les unes sur les autres.
Il est aberrant de tenter d’optimiser l’une sans adapter l’autre car elles
auront des conséquences l’une sur l’autre. La technologie doit aussi
prendre en compte les caractéristiques de l’homme. Inversement des
modes d’organisation sociale différents peuvent très bien coexister dans
des systèmes techniques similaires. Une technologie ne dicte pas un mode
unique d’organisation sociale de la production.
Enfin, Rice va mettre en évidence l’importance pratique de la notion
théorique de limite ou de frontière du système en équilibre dynamique.
Dans l’expérience précitée d’une filature aux Indes, le problème de
l’encadrement de premier niveau des groupes d’employés de l’entreprise
était essentiellement celui de la gestion des conditions à la frontière du
sous-système dont il était responsable. La gestion de leurs subordonnés et
la supervision absorbaient trop de leur temps pour qu’ils puissent s’y
consacrer et ces tâches n’étaient pas clairement identifiées dans leurs
responsabilités. Il s’agissait là en fait des activités qui assuraient l’équilibre
dynamique et qui reliaient ce sous-système à son environnement
immédiat, consistant en certains des autres sous-systèmes constitutifs de
l’entreprise, eux-mêmes aux prises avec les mêmes problèmes.
Or, la constitution adéquate de l’organisation sociale des groupes
autour d’un ensemble de tâches techniques aux frontières rendues, par le
choix de ces tâches mêmes, facilement identifiables et cohérentes doit
permettre de maximiser l’autonomie du groupe et la responsabilité de
chacun. L’encadrement sera ainsi libéré d’une large part de ses
préoccupations rendues superflues et pourra consacrer plus de temps aux
échanges à la frontière. Celle-ci étant par ailleurs, du fait de l’isolation de
tâches techniques cohérentes en ensembles, elle-même plus clairement
établie et mieux identifiée, son travail s’en trouve d’autant facilité. Il peut
ainsi mieux concentrer son attention plus aisément focalisée sur les
entrées/sorties et assurer le maintien de l’équilibre dynamique
indispensable à la croissance et même à la survie du sous-système. Il en est
de même au niveau du système constitué par l’organisation globale.
Il apparaît donc clairement que, dans la construction de systèmes et de
sous-systèmes sociotechniques la détermination des frontières revêt une
importance fondamentale. Miller et Rice86 soulignent même que la limite
ou frontière d’un système d’activités doit répondre à deux conditions :
• Une discontinuité dans le processus d’activité ;
• L’interpolation d’une région de contrôle. C’est-à-dire qu’une frontière
doit elle-même être contenue entre deux limites : celle entre les
activités internes du système et le début des activités de régulation, et
celle entre la région de régulation et l’environnement.

4.2. Les principes de l’analyse sociotechnique


À partir des années 1960, le Tavistock Institute participe au projet de
démocratie industrielle en Norvège qui comportait à la fois participation à
la décision et restructuration des tâches ouvrières dans les unités de
production. Les groupes autonomes et semi-autonomes de travail
découlent de ces analyses. Le courant de l’amélioration de la qualité de la
vie au travail s’y rattache directement. Un autre centre apparu plus
récemment et qui participe à ces recherches est le Ontario Quality Of
Working Life
Center87. Les activités en France de l’Agence Nationale pour l’Amélioration
des Conditions de Travail se sont, à l’origine, également inspirées de ces
travaux, ainsi que les recherches autour de nouvelles formes d’organisation
du travail.
Trist décrit ainsi les caractéristiques de l’approche sociotechnique par
opposition aux conceptions de l’organisation qui l’ont précédées :
Conception ancienne Conception sociotechnique
- Impératif technologique
- Optimisation conjointe
- L’Homme conçu comme extension de la machine
- L’Homme considéré comme uneressource
- L’Homme concidéré comme pièce de rechange, qui doit être développée
àremplacer quand il est usé - Regroupement optimum des
- Division maximum du travail en tâchesélémentaires tâchesdemandant des qualifications
demandant des qualifications multipliées et larges
simplifiées et étroites
- Contrôles internes, à base de
- Contrôles externes (contremaîtres, systèmesautorégulés
procédures,fonctions spécialisées) - Organigrammes plats
- Organigramme haut et étroit
- Style participatif
- Style autocratique
- Collaboration, collégial
- Concurrence, intrigue
- Les buts des membres et del’organisation
- Seuls les buts de l’organisation comptent- comptent
Aliénation - Engagement
- Innovation

À partir des bases expérimentales que nous avons dégagées dans la


section précédente, l’analyse sociotechnique88 a évolué vers un certain
nombre de caractères distinctifs. On peut relever cinq éléments
caractéristiques.
En premier lieu, la recherche d’une analyse multidisciplinaire mais
tournée fondamentalement vers l’homme et son comportement. Ce sont
les besoins de l’homme qui doivent être satisfaits dans son travail et qui
doivent guider la conception des tâches.
En second lieu, l’importance de la nature des interrelations et des
transactions à la frontière du groupe.
En troisième lieu ces éléments se joignent à l’idée que l’autonomie
ouvrière permet de libérer la capacité des salariés à s’organiser
spontanément en groupes qui ont eux-mêmes les ressources spontanées
de s’autoréguler et sont susceptibles de prendre en compte à la fois les
besoins des individus qui les composent et les impératifs de la production.
En quatrième lieu, cette méthode considère qu’il faut prendre en
compte chaque organisation comme un cas unique et qu’il est donc
impossible de généraliser à partir des diagnostics de chaque cas individuel
et des propositions faites à cette occasion. Dans ce cadre, définir, par
exemple, une unité d’une organisation ne revient pas seulement à
décomposer l’organisation, mais à reconnaître aussi que cette unité a des
traits propres. Par définition, dans le cadre de l’analyse systémique, cette
unité a des caractéristiques qui ne dépendent ni seulement de celles des
éléments qui la composent, ni d’ensembles plus vastes. Elle n’est donc pas
transposable.
Enfin, en cinquième lieu, on constate la volonté de ne pas fournir un
simple diagnostic de l’organisation avec proposition de solutions, mais
d’effectuer une intervention en commun avec les salariés concernés qui
débouchera sur des stades concrets de réorganisation en équilibre
successif et non de simple proposition de nouvelle structure.
La théorie sociotechnique, en son état actuel est donc souvent
étroitement liée à la méthodologie qualifiée aujourd’hui de « recherche
intervention » ou « recherche action ».

5. Forrester et la théorie des flux


La théorie des systèmes a donné lieu à des développement en gestion.
Ainsi, Forrester89 développe une théorie des flux qui s’intègre clairement
dans une approche en termes de systèmes.
Forrester aborde l’entreprise comme un système ouvert sur son
environnement, complexe et composé de sous-systèmes organisés pour
réaliser ses objectifs. Ces différents sous-systèmes sont interdépendants
les uns des autres.
On peut alors décomposer l’entreprise à travers un ensemble de
soussystèmes, chacun associés à des flux de nature différente qui sont
échangés, d’où le terme de « théorie des flux ». Ainsi, le système physique
gère les flux réels (matières premières, produits…), le système financier
structure les flux de capitaux et le système de communication organise la
circulation de l’information dans et hors de l’entreprise.
Chaque flux et chaque sous système, au sein de l’entreprise, n’a de
signification que par rapport aux autres. C’est l’idée d’interdépendance
entre les éléments qui forment le système qui est essentielle.
Aujourd’hui, la dynamique des systèmes est une technique de
modélisation mathématique qui permet de mieux comprendre les
problèmes complexes en utilisant des outils informatiques sophistiqués.

6. Les apports de la théorie des systèmes et de son


application psychosociale
La théorie des systèmes appliquée aux systèmes sociaux apporte
incontestablement un apport pour l’étude et la compréhension des
organisations.
En premier lieu il faut relever l’intérêt du caractère « systémique ».
C’est-à-dire que l’organisation, d’une part, ne se réduit pas à la somme de
ses composantes et, d’autre part, peut être traitée comme une globalité.
Ce n’est donc pas en divisant l’organisation à l’infini (en tâches
élémentaires par exemple comme le préconisait Taylor) que cela sera
suffisant pour comprendre son fonctionnement. Donc des prescriptions
normatives basées sur cette simple décomposition sont erronées ou
insuffisantes.
En second lieu, le concept de système permet avec l’équifinalité de
prendre en compte la diversité des organisations, cas par cas, tout en
maintenant l’unité de leur catégorie. À différentes étapes d’un nombre
incalculable d’interactions correspondent différents états, ce qui est
compatible avec l’idée qu’il existe des règles applicables à toutes les
organisations.
En troisième lieu, la notion de système permet de distinguer des
niveaux, de découper des ensembles d’analyse pertinents. Par exemple, le
système d’achats d’une usine, partie d’une entreprise, ou le holding
financier d’un groupe, ou le secteur entretien d’un atelier, etc. Ceci ne
signifie nullement que tous systèmes puissent être arbitrairement
découpés en sous-systèmes. Une condition de connectivité minimum doit
être remplie. C’est-à-dire que la caractéristique d’un système étant
l’interrelation de ses éléments elle forme la clé de découpage ou
d’agrégation correcte des systèmes. Le découpage par exemple se fera en
fonction de la connectivité des éléments que l’on inclura dans un
soussystème. Cette connectivité elle-même se mesurera par la force des
interrelations. Le moyen pratique de mesurer la force de ces interrelations
sera l’effet de rétroaction : une action sur un élément du système produira
à plus ou moins long terme une action plus ou moins forte en retour. C’est
en fonction de ce critère que divers découpages et agrégations pertinents
peuvent se faire.
En quatrième lieu, la notion de système ouvert nous permet d’attirer
l’attention sur le fait qu’une organisation n’existe pas dans un vide. Elle ne
fonctionne ni ne tourne sur elle-même mais elle est placée dans un
environnement, qui agit sur elle car elle en tire des entrées, et sur lequel
elle agit, car elle y exporte des sorties (biens, services…).
En cinquième lieu, le concept de système ouvert attire aussi l’attention
sur la notion de limites ou de frontière de l’organisation et permet de le
rendre plus opérationnel. D’abord la notion de découpage ou d’agrégation
en d’autres systèmes le relativise. La frontière peut passer à différents
endroits en fonction des différents niveaux ou modes d’analyse.
Enfin, un certain nombre de critiques ont été apportées à la théorie des
systèmes. En particulier, il a été relevé qu’elle présente le danger de
comparaisons inadéquates avec les systèmes biologiques. De plus, en ce
qui concerne son application à la psychosociologie des organisations, le
concept de rôle a été critiqué. Il a été considéré comme étant non
seulement déterministe, mais aussi comme réduisant le comportement de
l’individu dans l’organisation à une attitude adaptative et passive. Elle se
trouve ainsi incapable de répondre à la question de l’articulation des buts
de l’organisation et de ceux des membres.
Focus : L’essentiel sur les théories des organisations conçues
comme des systèmes
L’analyse en termes de systèmes se développe à partir des années
19501960. L’analyse systémique est une démarche globale qui s’attache
aux relations entre les éléments d’une entité plus qu’aux caractéristiques
de chaque élément. Un système peut être considéré comme une
structure organisée, ouverte sur son environnement, réunissant plusieurs
éléments différents mais en fonctionnant en interaction pour atteindre
un but commun, avec des procédures de régulation. Cette approche
centre son attention sur l’importance de prendre en compte les
interactions entre les différents éléments du système.
Beaucoup de théories modernes des organisations considèrent, souvent
de manière implicite, que les organisations (et notamment les entreprises)
sont des systèmes ouverts, composés d’un ensemble de sous-systèmes et
en interaction avec d’autres systèmes. A ce titre, il est essentiel de
connaitre et de comprendre les bases théoriques de l’approche des
organisations en termes de systèmes.
Von Bertalanffy (1968) formule une Théorie Générale des Systèmes qui
dégage des lois générales applicables à tous les systèmes. Le système n’est
pas réductible à la somme de ses parties. Un système doit être
appréhendé dans son entier, il ne peut jamais être compris en analysant
seulement ses parties. Il faut non seulement comprendre les parties, mais
aussi la complexité du tout qu’elles forment ensemble. De plus, Von
Bertalanffy distingue les systèmes ouverts et fermés. Les systèmes fermés
ne subissent pas d’influence de leur environnement. Les systèmes ouverts
sont en interaction avec l’environnement dans lequel ils évoluent.
Katz et Kahn (1966) présentent un modèle systémique permettant de
comprendre le comportement des individus dans l’organisation en
fonction de leur « rôle » et de leur « place » au sein du système
organisationnel. La
totalité des « comportements de rôles » de l’ensemble des membres de
l’organisation, interdépendants, constituent un système.
La définition du rôle est celle « d’un ensemble d’activités ou de
comportements attendus d’un individu dans une place donnée ».
Chaque individu a une « place » donnée. Chaque place est associée à un
ensemble d’activités et de comportements attendus. Ces activités et
comportements constituent le « rôle » qui doit être rempli par l’occupant
dans une « place » donnée. « L’ensemble des rôles » des individus,
comprend à la fois les « attentes de rôle » de l’organisation et le « rôle
transmis ».
Les « attentes de rôle » correspondent à ce que l’organisation, du fait de
facteurs organisationnels et des caractéristiques de l’organisation, va
attendre d’un individu à une place donnée.
C’est « le rôle perçu » et non « le rôle transmis » qui va avoir une influence
sur le comportement réel du titulaire dans sa place. La différence est liée
notamment à la personnalité de l’individu et des facteurs interpersonnels.
De ce fait, « le comportement dans le rôle » (comportement effectif des
membres de l’organisation) est le résultat du rôle perçu et non du rôle
transmis.
Bamforth, Trist (1956) et Rice (1958) montrent que l’organisation est un
système ouvert. Ils sont à l’origine de l’analyse sociotechnique qui
considère que l’organisation sociale et l’organisation technique
interagissent dans ce système et s’influencent réciproquement.
Forrester (1961) aborde l’entreprise comme un système ouvert sur son
environnement, complexe et composé de sous-systèmes organisés pour
assurer l’exercice de ses activités. Il décompose l’entreprise à travers
différents sous-systèmes en fonction des flux échangés : le système
physique gère les flux réels, le système financier structure les flux de
capitaux et le système de communication organise l’information de
l’entreprise.
_______
79 Boulding, K. E., ‘‘General Systems Theory, the skeleton of a science’’, Management Science, April
1956.
80 Parsons, Talcott, The Social system, New York, The Free Press, 1964.
81 Bertalanffy, L. von, ‘‘General systems theory’’, General systems yearbook of the society for the
advancement of general systems theory, 1, 1956, pp. 1-10, ainsi que General Systems Theory, New
York, Georges Brazillier inc., 1968.
82 Katz, D. and Kahn, R. L., The Social psychology of organizations, John Wiley and sons, New York
1966.
83 Trist, E. L. and Bamforth, K. W., ‘‘Some Social and Psychological Consequences of the Long
WallMethod of Coal getting’’, Human Relations, vol. 4, 1956, n°1.
84 Rice, A. K., Productivity and Social Organization, the Ahmedabad Experiment, London, Tavistock
publications, 1958.
85 Emery F. E. and Trist, E. L., ‘‘Socio-technical systems’’, in C.W. Churchman and M. Verhulst(eds.)
Management Science Models and Techniques, London, Pergamon Press, 1980, pp. 83-97.
86 Miller, E. J. and Rice, A. K., Systems of Organization: the Control of Tasks and Sentient Boundaries,
London, Tavistock, 1967.
87 Voir par exemple les travaux du congrès sur la ‘‘Quality of working life in the 80’s’’, Toronto,
Sept1981, Ontario quality of working life center dans Kolodny, H. and Beinum, H. von (eds.) The
Quality of Working Life and the 1980’s, New York, Praeger Publishers, 1983.
88 Deux ouvrages peuvent apporter un éclairage supplémentaire sur cette théorie. Il s’agit deOrtsman,
O., Changer le Travail, Paris, Dunod, 1978 et Liu, M., Approche sociotechnique de l’organisation,
Paris, les éditions d’organisation, 1983. Un sommaire des apports de l’analyse sociotechnique et des
convergences avec le mouvement pour l’amélioration des conditions de travail, se trouve aussi dans
Sainsaulieu, R., Sociologie de l’organisation et de l’entreprise, Paris, Dalloz et presse de la Fondation
Nationale des Sciences Politiques, 1987, chap. IV.
89 Forrester, J., Industrial Dynamics, Cambridge, Mass.
Bien qu’un certain nombre de théories qui intègrent la prise en compte
de l’environnement aient déjà été évoquées précédemment, dans le
chapitre 3 sur la contingence structurelle, nous consacrons ici une partie à
la question de l’environnement afin de montrer qu’il existe une variété de
théories, différentes les unes des autres, qui se sont focalisées sur l’analyse
de l’influence de l’environnement sur les organisations.
Rappelons que dans les théories de la contingence structurelle, qui
datent des années 1960-70, la démarche est centrée sur l’idée – nouvelle à
l’époque par rapport aux théories traditionnelles et celles des relations
humaines – que les formes d’organisations, et notamment leurs structures,
changent en fonction de l’environnement, c’est à dire que l’organisation est
contingente à l’environnement. Cependant, dans leur optique,
l’environnement constitue essentiellement une contrainte plus ou moins
forte, soit à laquelle l’organisation doit s’adapter en choisissant les moyens
de ce faire, soit qu’elle tente de modifier ou d’influencer avec plus ou
moins de succès. Il en découle que la vision implicite de l’interaction de
l’organisation et de son environnement présente dans ces théories est celle
du choix stratégique. C’est-à-dire qu’en face d’un environnement plus ou
moins turbulent, l’organisation (et notamment l’entreprise) réagit par le
choix d’une stratégie que ses dirigeants élaborent et qui, si elle est adaptée
aux circonstances, assure son succès. Or, un certain nombre des théories
qui vont se développer ensuite vont remettre en cause cette vision.
Deux grandes approches peuvent alors être distinguées. Dans la
première, l’environnement est dominant et les organisations qui ne
parviennent pas à s’y adapter disparaissent. Le choix stratégique est absent
ou très faible. Tel est le cas – à des degrés différents – de la théorie de la
dépendance des ressources et de celle de l’écologie des populations. Dans
la seconde approche, l’environnement est considéré comme un construit
social.

1. Les théories du contrôle externe de l’organisation


par l’environnement
Nous présentons successivement deux théories, dans lesquelles – à des
degrés différents – l’environnement est dominant. Il s’agit de l’écologie des
populations d’organisation de Hannan et Freeman et de la théorie de la
dépendance des ressources de Pfeffer et Salancik.

1.1. L’écologie des populations d’organisations


Conceptuellement, l’écologie des populations d’organisations prend
place dans le cadre théorique plus large de l’écologie organisationnelle.
Cette approche s’appuie sur deux constats. Le premier consiste à penser
que les principes de l’écologie humaine peuvent s’appliquer
fructueusement à l’étude des organisations. Le second tient au niveau
d’analyse retenu, qui est celui des populations d’organisations.
Il y a cinq niveaux possibles d’analyse des organisations : celui des
membres de l’organisation (individus), des sous-unités (par exemple, les
composantes structurelles, ou les groupes), des organisations en tant que
telles (par unité), des populations d’organisations et des communautés de
populations d’organisations. L’écologie organisationnelle ne s’intéresse
qu’aux trois derniers niveaux90. Au niveau de l’organisation, celle-ci
s’adapte à des stimuli, de façon non cognitive et déterministe par symbiose
avec l’environnement et par équilibres successifs temporaires irréversibles.
Au niveau le plus élevé (communautés pour les bio-écologistes) l’écologie
organisationnelle utilise une approche macro-évolutionniste qui étudie la
collection de toutes les populations (d’organisations) qui vivent dans une
région donnée.
Le niveau d’analyse pertinent proposé pour l’étude des organisations,
par la théorie de l’écologie des populations d’organisations, dans le cadre
de l’écologie organisationnelle est donc le niveau intermédiaire. C’est celui
de la population d’organisations. Le terme population ne doit pas être
entendu au sens de la collectivité de ses membres, mais de la population
composée d’organisations elles-mêmes.
Les bases de la théorie de l’écologie des populations d’organisation
peuvent être trouvé dans les travaux de Aldrich 91 ainsi que Hannan et
Freeman92 qui en sont les représentants les plus connus.

1.1.1. La notion de « population d’organisation »


La question se pose de la définition d’une « population d’organisation »
et du critère à retenir pour identifier le fait qu’une organisation appartient,
ou non, à une population d’organisation.
L’approche écologique suggère de retenir comme critère
d’appartenance à une population le sort commun en face des variations
dans l’environnement. Certes toutes les organisations étant distinctes il n’y
en a pas deux qui seront affectées exactement à l’identique par un choc
exogène quelconque. Cependant, il est possible d’identifier des
regroupements d’organisations relativement homogènes en termes de
vulnérabilité à l’environnement. Ces populations ainsi définies ne sont
d’ailleurs pas immuables mais peuvent varier en fonction de l’objet
d’observation.
Il faut ensuite définir l’équivalent des espèces biologiques. Ce sera les «
formes » d’organisation, chaque forme est un « plan » pour l’action
organisationnelle, pour la transformation « d’entrées » en « sorties ».
L’existence de ce « plan », commun à l’espèce, peut être inféré de
l’observation de la structure formelle de l’organisation (l’organigramme, les
règles et procédures écrites), ou bien des modèles d’activités dans
l’organisation (qui fait quoi), ou enfin de l’ordre normatif (les façons
d’organiser qui sont définies comme correctes et acceptables à la fois par
les membres et par les secteurs pertinents de l’environnement). Structure
formelle et ordre normatif, en particulier, établissent des différences
qualitatives entre les espèces d’organisation.
Opérationnellement donc le concept de population d’organisations est
défini par l’ensemble des organisations ayant une forme commune à
l’intérieur des frontières d’un système donné (défini par le marché, la
politique, la géographie, le produit, etc.).

1.1.2. Les principes de la théorie de l’écologie des populations


d’organisations
Le point de départ, une fois le niveau d’analyse pertinent retenu, est le
constat qu’il y a un très grand nombre de limitations évidentes à la
capacité des organisations à s’adapter à l’environnement et qu’elles n’ont
pas été suffisamment reconnues jusqu’alors.
Un nombre important de pressions s’exercent pour le maintien d’un
état d’inertie structurelle dans chaque organisation. Leur source peut se
trouver dans des facteurs internes ou externes à l’organisation. Parmi les
facteurs internes, il convient de relever :
• Les « coûts enfouis » de l’organisation sous forme des investissements
existants en installations, matériel, équipement, personnel spécialisé
qui sont difficiles à transférer vers des tâches ou des fonctions
différentes.
• L’information, qui parvient aux décideurs dans l’organisation sur les
activités et les contingences de l’environnement et auxquelles les
sousunités sont confrontées, qui est restreinte et déformée.
• Les contraintes de politique interne qui font que les sous-unités, au
moins pour partie, résistent aux restructurations internes, qui par
définition impliquent une redistribution des ressources et du système
d’échanges entre sous-unités.
• Les organisations elles-mêmes ont à faire face à d’autres contraintes
issues de leur propre histoire. Quand des accords normatifs plus ou
moins formalisés règlent les procédures opératoires standard et
l’attribution des tâches et de l’autorité.

Les pressions externes sont au moins aussi fortes, elles incluent :


• Les nombreuses barrières juridiques et fiscales qui s’opposent à
l’entrée sur les marchés.
• L’acquisition de l’information sur les activités et marchés alternatifs est
coûteuse et difficile (car rare) surtout en environnement turbulent où
elle est d’autant plus essentielle.
• L’environnement impose aussi des contraintes de légitimité. Une
organisation qui a été capable de se créer une légitimité bénéficie d’un
atout vis-à-vis de son environnement des tâches
• Enfin, le problème de la rationalité collective implique qu’une solution
qui serait optimale ou du moins satisfaisante pour une organisation
dans un marché devienne catastrophique si toutes, ou la majorité des
organisations sur ce marché l’adoptent en même temps.

Ces deux ensembles de lourdes contraintes font donc que l’optique


théorique prédominante, celle de l’adaptation de l’organisation à
l’environnement par choix stratégique est irréaliste et n’est
probablement pas suffisante comme explication du comportement des
organisations et/ou dans les organisations.
S’inspirant encore des bio-écologistes, la théorie de l’écologie des
populations d’organisations s’assigne comme tâches de chercher à
comprendre les distributions d’organisations à travers les états de
l’environnement et les limites qui s’imposent sur les structures
organisationnelles dans différents environnements et plus généralement
de répondre à la question : « Pourquoi y-a-t-il autant d’espèces
d’organisations ? ».
La réponse à cette question tient dans le principe d’isomorphisme : la
diversité des formes d’organisations est isomorphe à la diversité des
environnements. En d’autres termes dans chaque configuration de
l’environnement qu’il est possible d’isoler de façon distincte, en fonction
de caractéristiques qui permettent de le définir, ne se trouvera, en
équilibre, que la forme d’organisation adaptée de façon optimale à l’état de
cet environnement.
Cependant deux éléments doivent venir s’ajouter à ce principe
d’isomorphisme et le modifier.
Le premier d’entre eux est le mécanisme par lequel l’équilibre est
atteint, c’est-à-dire le processus d’optimisation duquel résulte
l’isomorphisme. Deux processus sont concevables. L’un est l’adaptation par
apprentissage, où les décideurs apprennent les réponses optimales et
ajustent le comportement de l’organisation en fonction de cet
apprentissage. La théorie tient que ce mécanisme ne peut jouer un rôle
primordial, ni même important, du fait des contraintes poussant à l’inertie
structurelle. Le mécanisme essentiel est donc la sélection. La question qui
se pose est alors comment se fait la sélection ?
Du point de vue de l’écologie des populations, c’est l’environnement
qui est optimisateur. Ce que fait une organisation dans la population, les
efforts des décideurs pour l’adapter sont sans intérêt ni influence. Quoi
que l’organisation fasse, quoi que les décideurs décident, c’est
l’environnement qui sélectionne positivement les combinaisons optimales
d’organisation par l’état dans lequel il se trouve. Ce qui intervient, c’est la
sélection naturelle.
Un mécanisme de sélection implique l’emphase sur la concurrence.
Certaines formes d’organisations ne parviendront pas à prospérer dans
certains types d’environnements car d’autres formes sont en concurrence
avec elles et l’emportent sur elles en termes d’obtention des ressources
essentielles existant en quantité limitée dans le segment d’environnement
considéré. Tant que les ressources qui soutiennent les organisations
existent en quantités finies et que les populations ont des capacités
illimitées à s’étendre, la concurrence s’ensuit obligatoirement.
Si deux populations d’organisations sont soutenues par des ressources
identiques dans un environnement donné, et que leur croissance n’est
limitée que par la disponibilité des ressources présentes, il n’y a pas
d’équilibre stable. Puisqu’il y a deux populations, par définition elles
diffèrent sur une ou plusieurs caractéristiques organisationnelles données.
La concurrence pour les ressources due à la croissance illimitée, va
entraîner le fait que la population d’organisations avec la caractéristique la
moins adaptée aux contingences de cet environnement va tendre à être
éliminée.
Donc, les changements dans l’environnement qui font varier le nombre
de ressources distinctes et les contraintes sur la croissance des formes
d’organisation affectent directement la limite supérieure du nombre de
formes d’organisation qui peuvent exister dans cet environnement.
Le deuxième élément qui vient compléter le principe de
l’isomorphisme organisation/environnement est le fait que
l’environnement va changer de configuration que ce soit de manière
prédictible ou imprédictible. Le principe implique que, dans un
environnement donné, les organisations en équilibre présenteront des
caractéristiques structurelles spécialisées en fonction des traits saillants
des ressources fournies par l’environnement.
1.1.3. Le modèle de l’écologie des populations d’organisations
Le modèle de l’écologie des populations d’organisations, notamment
décrit par Hannan et Freeman93, se décrit dans un schéma à trois étapes :
variation, sélection, rétention.
La première étape est la variation. Des variations se produisent dans et
entre les organisations, et dans et à travers l’environnement. Il n’est pas
exclu que certaines d’entre elles soient dues aux activités des membres et
des dirigeants de l’organisation cherchant plus ou moins rationnellement à
apporter des solutions aux problèmes auxquels ils ont à faire face.
Cependant, le modèle de l’écologie des populations estime que
l’importance du choix stratégique a été considérablement surestimée dans
toute la littérature, étant donné, d’une part les contraintes d’inertie
structurelle décrites par Hannan et Freeman, et d’autre part, qu’en fait, la
source des variations est pratiquement peu identifiable, et théoriquement
indifférente et sans aucune importance.
L’élément fondamental est que des variations se produisent, d’où
qu’elles viennent. Elles se produisent dans et hors les organisations. En
premier lieu, dans les organisations, elles peuvent apparaître sous deux
formes : d’une part entre formes d’organisations ou par formes
d’organisations entières, par exemple d’industrie à industrie, à l’intérieur
d’une industrie, entre secteur public et privé, etc. D’autre part, elles
peuvent aussi se produire à l’intérieur d’une organisation ce qui peut
l’amener à se transformer, par exemple par croissance, diversification ou
spécialisation. En second lieu, ces variations peuvent se produire dans des
environnements qui peuvent présenter une capacité plus ou moins grande
à soutenir des organisations, être plus ou moins stables, être plus ou moins
homogènes ou hétérogènes dans leurs états successifs.
La deuxième étape est la sélection. Du fait des variations, des formes
nouvelles ou modifiées d’organisations apparaissent. Ces formes nouvelles,
si elles sont bien adaptées aux pressions exercées par l’environnement tel
qu’il se présente au moment de leur apparition, sont sélectionnées
positivement et survivent, alors que si elles sont mal adaptées, elles
disparaissent. Des variations se produisent aussi dans l’environnement,
sans arrêt, pour des causes toujours dues au hasard ou par essai et erreur,
etc. L’environnement changeant, des variations existantes sont
sélectionnées négativement et certaines des variations nouvelles
sélectionnées positivement.
La troisième étape est la rétention. Un mécanisme de rétention,
enregistre, retient et reproduit la variation sélectionnée positivement. Il
convient de noter que celle-ci peut très bien devenir obsolète quand
l’environnement changera à nouveau. La rétention dans ce sens peut
devenir défavorable à l’évolution en face de variations nouvelles et en sens
différent de l’environnement.
Ce modèle est étroitement basé sur la théorie de l’évolution. Trois
remarques peuvent être néanmoins formulées. Premièrement, le présent
modèle ne prétend nullement que le changement social doive suivre son
propre cours naturel sans aucune intervention extérieure. Deuxièmement,
le changement n’est pas forcément considéré comme étant
automatiquement dans le bon sens, ou positif ou équivalent à un progrès.
Les variations ne sont pas produites parce qu’elles sont utiles, simplement
elles apparaissent car le changement est une des caractéristiques du
système. Certainement, en quelque sorte, l’évolution conduit à un ordre
nouveau des choses puisque les variations qui accroissent les chances de
survie d’une forme d’organisations seront sélectionnées positivement,
retenues et reproduites à de fortes probabilités. Cela ne veut cependant
pas dire que cet ordre nouveau soit meilleur que ce qui précédait et que
les variations retenues soient un progrès sur l’état précédent.
Troisièmement, cela ne veut pas dire que l’évolution va vers un but
préétabli, qu’il soit souhaitable, ou préféré ou non. Le modèle n’admet ni
objectif final, téléologique, ni guidage externe. De même qu’une variation
sélectionnée positivement ne signifie pas un progrès par rapport à l’état
précédent, elle ne signifie pas non plus un pas vers un objectif final
quelconque. Il s’agit simplement d’un changement. Ceci ne veut pas dire
non plus que les variations soient sélectionnées positivement ou
négativement totalement au hasard. Sont sélectionnées celles
correspondant à une meilleure adaptation à l’environnement. Bien
entendu, l’environnement lui-même varie dans une mesure tout aussi
exempte de valeurs ou d’objectifs.
1.1.4. Les notions de niche et de grain
A priori, intuitivement, il semble que dans un environnement instable,
le principe d’isomorphisme doive être assoupli. Dans un tel
environnement, les organisations vont être amenées à développer une
structure généraliste qui n’est pas adaptée de façon optimale à une seule
et unique configuration donnée de l’environnement mais est optimale en
moyenne durant un ensemble de configurations différentes qui se
succèdent. En d’autres termes, des organisations très spécialisées
devraient se trouver dans des environnements stables et certains et des
organisations généralistes dans des environnements mouvants, instables et
incertains.
Cependant cette hypothèse est probablement trop simpliste. On
définit la niche d’une population comme la zone, dans un espace dont les
dimensions sont les niveaux de ressources et les contraintes, où la
population concurrence avec succès toutes les autres populations locales.
En d’autres termes, la niche est constituée de toutes les combinaisons de
niveaux de ressources auxquels la population peut survivre et se
reproduire. Chaque population occupe une niche distincte. Sur une
dimension donnée de l’environnement les populations généralistes
occupent une niche large avec un niveau d’adaptation de faible à moyen
sur une bande large de cette dimension. Une population spécialiste occupe
une niche étroite avec un niveau d’adaptation très élevé sur une bande
étroite de cette dimension (qui peut recouvrir une partie de l’autre). Cette
distinction implique qu’une population d’organisations peut fleurir en
maximisant l’exploitation de son environnement mais accepte le risque
que cet environnement change ou bien accepte un niveau plus faible
d’exploitation en échange d’une protection accrue contre l’impact du
changement.
Pour se prémunir contre l’incertitude et le changement, les
organisations doivent maintenir des capacités excédentaires qu’elles
n’utilisent pas ou peu en opérations normales. Cela est coûteux. La
spécialisation est plus efficiente car elle implique par définition le maintien
d’une faible capacité excédentaire, étant basée sur le principe d’exploiter
au maximum une seule situation choisie. Le généralisme au contraire
implique le maintien d’une capacité excédentaire élevée à tout instant
pour faire face à plusieurs situations en même temps. Dans un
environnement stable une population d’organisations spécialistes va
concurrencer avec succès une population de généralistes.
Par ailleurs, outre le fait que l’environnement peut être plus ou moins
incertain et donc varier entre des états plus ou moins éloignés, le « grain »
de ces variations peut lui même varier. La taille de la niche 94 comprend
deux dimensions, toutes les deux à caractéristiques spatiales et
temporelles. Outre la variabilité de l’environnement dans l’espace et le
temps, le grain de cette variation doit être pris en compte. Le grain est le
mode de mélange des différents types de conséquences possibles
résultant de l’état de l’environnement95. Les variations sont dites à grain fin
dans la dimension temporelle quand leur fréquence est courte par rapport
à la durée de vie des organisations dans la population, et à grain fin dans la
dimension spatiale quand chaque état différent possible concomitant de
l’environnement est réparti en de multiples petites zones bien mélangées
avec celles correspondant à d’autres états possibles. Elles sont dites à grain
épais dans le cas contraire où, temporellement, leur fréquence est longue
et un état dure longtemps par rapport à la durée de vie des organisations
dans la population et où, spatialement, chacun des états possibles
concomitants entre lesquels l’environnement peut varier est réparti sur
des zones de grande taille, peu mélangées car s’interpénétrant peu. De
plus, les « états de la nature » entre lesquels ces environnements peuvent
varier, dans le temps ou dans l’espace, peuvent être plus ou moins
proches, éloignés, présenter des conditions similaires ou bien radicalement
différentes et donc une organisation peut suivant ces différences survivre
dans plusieurs états proches ou bien dans un seul parmi des états très
différents.
Compte tenu de ces remarques, dans un environnement à grain fin, si
l’environnement est assez stable, la spécialisation est toujours optimale.
Dans un environnement incertain, la situation change : le généralisme n’est
optimal que si les différents états de la nature sont proches et présentent
des conditions similaires. Si au contraire ces états sont très éloignés et
présentent des conditions dans l’environnement radicalement différentes,
alors à nouveau, même en situation d’environnement incertain, la
spécialisation redevient optimale. En effet, l’environnement varie entre des
états radicalement dissemblables, donc le coût du généralisme est élevé
car des efforts considérables d’adaptation structurelle sont exigés des
généralistes. Cet environnement est à grain fin, donc ces changements se
produisent rapidement, les organisations généralistes vont vouer l’essentiel
de leur temps et de leur énergie à ajuster leurs structures. Dans de telles
conditions, cependant des organisations à structures spécialisées peuvent,
au prix d’efforts, survivre à des (courtes) périodes de pénurie pour
prospérer dans les états suivants de l’environnement, par définition
radicalement différents et qu’elles peuvent exploiter au maximum.
Cela ne s’applique néanmoins que dans le cas d’un environnement à
grain fin où la durée et la répartition des états de la nature sont courtes et
où chaque population expérimente de multiples états successifs de
l’environnement et en fait les ressent comme un état moyen. Dans le cas
d’un environnement à grain épais, la durée de période où l’étendue de
l’espace et l’état de la nature sont défavorables peut excéder la capacité de
l’organisation à survivre à la période pénurie et elle disparaîtra quand l’état
de la nature deviendra tel qu’elle pourrait y prospérer à nouveau. La
situation est alors plus complexe. Le généralisme redevient une stratégie
optimale dans les cas d’incertitude et où les états potentiels de
l’environnement sont très dissemblables. Cependant, une autre possibilité
existe : l’apparition d’organisations « polymorphes » où la population
présente des caractéristiques hétérogènes qui se maintiennent. Cette
population combine des types qui présentent des caractéristiques
spécialisées adaptées aux (très) différents états de la nature qui changent
souvent ou sont très répartis. Avec une telle combinaison, une partie de la
population sera toujours florissante mais maintiendra la diversité pour
qu’une autre de ses parties continue à prospérer quand l’environnement
changera. Ces populations sont composées de spécialistes de chacun des
états divers de l’environnement.
1.1.5. La faible place laissée au choix stratégique
Une des caractéristiques de la théorie de l’écologie des populations
d’organisations, en particulier telle qu’elle est développée par Hannan et
Freeman96, tient à ce qu’elle implique par définition que les dirigeants
d’une organisation n’ont pas d’impact sur le sort de l’organisation qu’ils
dirigent. Quelles que soient leurs actions et les décisions qu’ils prennent, la
sélection des entreprises qui réussissent se fera par des changements dans
l’environnement ou des variations accidentelles et non pas à cause des
actions et des choix des dirigeants.
Hannan et Freeman font remarquer que quel que soit le
comportement des acteurs c’est-à-dire des dirigeants d’organisations, et
leurs efforts pour s’adapter à l’environnement, les résultats de ces efforts
resteront aléatoires pour plusieurs raisons : d’une part, les environnements
sont trop incertains pour qu’une adaptation positive soit autre chose que
le fruit de la chance. D’autre part, le comportement des organisations ne
traduit qu’imparfaitement les intentions des dirigeants et les décisions
prises au sommet. Par ailleurs, la diversité des intérêts entre les membres
de l’organisation et l’incertitude qui règne sur le lien entre les moyens
d’action disponibles et les résultats prévisibles ajoutent une série
d’incertitudes internes. De plus, les conséquences à court terme des
tentatives d’adaptations éventuelles peuvent différer très largement des
conséquences à long terme.
Une autre approche, retenue par Aldrich97, accorde un rôle plus large
aux décideurs. Les organisations ne peuvent utiliser que les ressources qui
se trouvent dans l’environnement mais, dans leur effort à se créer une
niche, elles introduisent elles-mêmes des changements dans cet
environnement. En fonction de l’état des ressources telles qu’elles le
perçoivent, les organisations procèdent à un certain nombre de choix, dans
certaines limites : prix, produits, etc.
Cependant, il est souligné que, sauf exception, l’issue des choix est
pratiquement impossible à prédire. Savoir si ces choix sont corrects, s’ils
ont créé une niche viable pour l’organisation, ne pourra être connu qu’a
posteriori. De même, il est reconnu que les organisations peuvent
influencer leur environnement, volontairement ou non. Plus les
organisations sont puissantes et de grande taille, plus la capacité d’influer
sur leur environnement leur est ouverte avec celle de se creuser plus
facilement une niche. Là aussi, le résultat de ces influences ne sera connu
qu’a posteriori. Qu’il soit catastrophique ou triomphal, il sera une
conséquence de la sélection positive ou négative de la variation qu’il
constitue par un environnement qui aura lui-même changé et aux
variations imprévisibles et impossibles à planifier.
Quoi qu’il en soit, ce qu’ont en commun ces variantes de la théorie, est
que la source de la variation importe peu. Ce qui compte, est de savoir si
elle constitue une adaptation meilleure à un environnement lui-même
variable. Qu’elle soit volontaire ou non, due au hasard ou à la stratégie,
considérée comme un progrès ou une régression importe peu.

1.2. La dépendance sur les ressources


La théorie de la dépendance sur les ressources de Pfeffer, et Salancik98,
met aussi l’emphase sur le rôle essentiel de l’impact de l’environnement.
Elle est toutefois plus nuancée dans ses conclusions quant au choix
stratégique que celle de l’écologie des populations d’organisations, même
si l’environnement reste dominant.
1.2.1. Les principes de base de la théorie de la dépendance sur les
ressources
En premier lieu, la théorie de la dépendance sur les ressources
considère que les organisations sont inévitablement liées à l’état de leur
environnement.
Les organisations ne survivent que si elles sont efficaces, c’est-à-dire si
elles gèrent les exigences des groupes d’intérêts dont elles dépendent
pour leurs ressources et leur soutien. Les organisations doivent en effet
acquérir et entretenir des ressources dont elles n’ont pas le contrôle total
et pour l’obtention desquelles elles dépendent d’autres organisations qui
constituent leur environnement.
En second lieu, tout comme dans la théorie de l’écologie des
populations, il est constaté que la plus grande partie de la théorie des
organisations accorde une place excessive à l’action individuelle et aux
causes des actions des individus, privilégiant ainsi la motivation au
détriment de l’importance des facteurs déterminants de nature
situationnelle. Or, il est constaté que les décideurs individuels ont peu
d’effet sur une organisation, et, en tout état de cause bien moins que le
contexte de l’environnement. Ceci est le cas pour des raisons tant internes
qu’externes.
D’une part, les processus de sélection par les organisations et
d’autosélection par les individus tendent à produire des dirigeants
présentant une gamme de caractéristiques, comportements et méthodes
tout à fait similaires. D’autre part, même un dirigeant dispose souvent de
très peu de liberté dans les choix qu’il peut être amené à faire du fait de
l’influence sociale des autres individus dans l’organisation, en termes
d’information, de pressions, d’agréments, d’accords passés ; etc. Enfin, un
trop grand nombre des choses qui influencent directement les résultats de
l’organisation sont tout simplement hors du contrôle de ceux qui y
appartiennent et les dirigent.
En troisième lieu, il est constaté que c’est l’efficacité, et non l’efficience,
qui caractérise le succès d’une organisation. L’efficacité est définie comme
la capacité à créer des résultats et des actions acceptables. L’efficience ne
concerne plus le produit, mais la façon dont il est produit, elle ne regarde
plus ce qui est fait mais comment cela est fait. Elle est définie par le ratio
input/output et s’attache au point de savoir comment faire mieux, à
moindre effort ou moindre coût, que ce que l’organisation fait déjà. Elle ne
remet pas en question ce qui est produit. C’est cependant l’efficacité qui
est critique pour le succès. Il s’ensuit que l’environnement est donc un
concept essentiel puisque l’efficacité de l’organisation sera jugée de
l’extérieur.
En quatrième lieu, des contraintes sont présentes. Une contrainte se
définit par le fait qu’une réponse dans une situation donnée n’est pas
aléatoire, qu’elle est plus probable que n’importe quelle autre quelle que
soit l’action à laquelle elle répond. Les contraintes sont souvent
considérées comme restrictives. Cependant, dans la plupart des cas
l’action ne serait pas possible sans leur existence qui facilite les choix et
guide le processus de décision.
Les comportements sont presque inévitablement sujets à contraintes :
par les réalités physiques, par l’influence sociale, par l’information et les
capacités cognitives, aussi bien que sujets aux préférences personnelles.
Les contraintes peuvent être manipulées pour promouvoir certains
comportements. Leur existence explique pourquoi il y a si peu de variances
dans la performance et l’activité des organisations dues aux différences
entre individus. Tous les individus opèrent sous contraintes y compris les
dirigeants de l’organisation.
En cinquième lieu, la théorie de la dépendance des ressources,
contrairement à cette de l’écologie des populations, conserve un rôle pour
le dirigeant, même s’il est réduit. En effet, les individus aspirent à un
sentiment de contrôle sur leur environnement social. De ce fait, le rôle du
dirigeant est d’abord celui de symbole. Il personnifie l’organisation et ses
résultats. Il prétend et fait croire qu’il contrôle l’environnement et remplit
ainsi les aspirations des individus qui l’entourent. De ce fait il est tenu pour
responsable des performances de l’organisation sur lesquelles il n’a en fait
pas de contrôle réel.
Enfin, le fait que le dirigeant n’ait pas (ou peu) de contrôle sur le
contexte social ne signifie pas que son rôle ne soit que symbolique. La
plupart des contraintes qui existent à un moment donné sont le résultat de
décisions antérieures ou de résolutions préalables de conflit entre groupes
d’intérêts. Beaucoup dérivent des actions des autres. Le rôle des dirigeants
est donc double, au-delà de celui de symbole. D’une part, dans les limites
où cela est possible, car l’organisation dont ils sont à la tête fait aussi partie
de l’environnement pour les autres organisations, ils peuvent chercher à
influencer les actions des autres en manipulant le processus par lequel leur
organisation influe sur celles-ci. D’autre part, en tout cas, et même dans
l’impossibilité de jouer efficacement ce premier rôle, ils doivent identifier
correctement le contexte social et les contraintes dans lesquels leur
organisation opère et essayer de l’y ajuster.

1.2.2. L’organisation efficace est celle qui s’adapte à son


environnement
L’organisation, pour satisfaire à ses besoins, doit obtenir le soutien des
groupes externes ou d’autres organisations dans son environnement. En
échange de ce soutien, ces groupes exigent des actions de sa part.
Cependant leur contrôle n’est pas total. L’organisation répondra à ces
demandes si un certain nombre des conditions suivantes sont remplies :
• Elle a conscience des demandes faites sur elle.
• Elle obtient une ressource de l’auteur de la demande.
• Il s’agit d’une ressource dont elle a besoin, une ressource importante
ou « critique » pour ses opérations.
• L’auteur de la demande contrôle l’allocation, l’accès ou l’usage de la
ressource « critique ».
• Il n’y a pas de source alternative disponible pour cette ressource.
• Elle ne contrôle pas elle-même l’allocation, l’accès ou l’usage d’une
ressource importante pour l’auteur de la demande.
• Les actions où produits de l’organisation sont visibles et vérifiables par
l’auteur de la demande.
• La demande faite à l’organisation n’est pas en conflit avec d’autres
demandes, émanant d’autres composantes de l’environnement.
• L’organisation ne contrôle pas la détermination, la formulation ou
l’expression de la demande.
• L’organisation est capable de développer des produits ou actions qui
satisferont la demande externe.
• L’organisation désire survivre.

Plus ces conditions sont remplies, plus le contrôle externe devient fort.
Il s’ensuit que le facteur déterminant le comportement de
l’organisation est sa dépendance vis-à-vis des ressources critiques qu’elle
doit obtenir dans l’environnement. Les tentatives pour satisfaire les
demandes d’un groupe donné sont fonction de sa dépendance sur ce
groupe relativement aux autres groupes et du degré auquel les demandes
de ce groupe sont en conflit avec les demandes des autres groupes. Cette
dépendance est elle-même fonction de l’importance comparée de la
ressource pour l’organisation, la discrétion sur l’usage et l’allocation de la
ressource et la concentration du contrôle de cette ressource.
Cette dépendance est inévitable et la concentration du pouvoir est
inévitable. Cependant des contre-pouvoirs existent en termes d’autres
ressources et contre dépendances.
L’organisation efficace est celle qui satisfait aux demandes de son
environnement pour assurer sa survie. La première étape est donc la
connaissance de cet environnement.
L’environnement a trois niveaux. En premier lieu, le système total des
individus et organisations interconnectés entre eux et avec l’organisation
concernée par les transactions de cette dernière. En second lieu,
l’ensemble des individus et organisations avec lesquels l’organisation
concernée agit directement. Ceci est le niveau qu’elle peut expérimenter.
En troisième lieu, l’environnement perçu, qui est la représentation de
l’environnement par l’organisation.
En se basant sur les travaux d’Emery, Trist et leurs successeurs un
modèle des dimensions de l’environnement et de leurs relations est établi
en combinant des éléments liés entre eux99.

La dimension d’inter-connectivité est particulièrement intéressante. On


peut en quelque sorte la considérer comme une extrapolation de la notion
de cercle vicieux. Plus elle est présente dans l’environnement, plus les
actions d’une organisation vont produire des conséquences imprévues
et/ou contreproductives.
Donc plus l’inter connectivité est élevée, plus l’environnement est
incertain et instable. En conséquence, les systèmes dont les éléments sont
à couplage relâché entre eux survivent et s’adaptent mieux que ceux pour
qui les couplages sont étroits (et donc multiples). Cependant un couplage
relâché entraîne des relations entre les éléments moins contraignantes et
donc moins faciles à prédire.
Si pour accroître la prédictibilité et le contrôle, la direction accroît
l’inter connectivité, elle va indirectement affecter l’environnement et
augmenter l’incertitude.
Enfin, l’individu agit sur son environnement. Les états de
l’environnement devant lesquels nous sommes placés sont toujours
équivoques. Il y a donc autant d’environnements qu’il y a d’activités et
différents individus « lisent » différemment ce qui apparaît de l’extérieur
être le même environnement, mais il ne l’est pas pour eux.

1.2.3. Les stratégies pour s’adapter à l’environnement


Il existe plusieurs stratégies pour les organisations, afin de s’adapter à
l’environnement et donc survire.
Un premier groupe de stratégies inclut adaptation et limitation de la
dépendance.
Parmi celles-ci, une première réponse possible est de céder aux
demandes de l’environnement. Elle présente des inconvénients. Elle peut
être contraire aux intérêts à long terme de l’organisation. C’est une
contrainte pour le futur, une perte de liberté d’action dans l’avenir face à
d’autres demandes car ce qui est cédé n’est plus disponible et enfin cela
crée un précédent qui encouragera d’autres demandes continuellement
accrues. Une deuxième réponse consiste à éviter les influences de
l’environnement. On se tournera alors séquentiellement vers chacune des
demandes conflictuelles pour les satisfaire partiellement et les équilibrer,
garder secret ce qui est concédé à chaque groupe d’intérêt, jouer les
groupes les uns contre les autres. Une troisième réponse va être d’agir sur
les conditions du contrôle social. Elle inclut l’influence sur la manifestation
des demandes, le contrôle et la manipulation des canaux de
communication par lesquels ces demandes sont exprimées. Une quatrième
réponse, consiste à contrôler la définition de la satisfaction d’une
demande, en la définissant soi-même comme satisfaite, en jouant sur
l’ambiguïté des critères et des jugements. S’y ajoutent les possibilités de
limiter volontairement sa propre capacité de céder à la demande, par des
moyens légaux ou simplement de fait, y inclus un environnement
compétitif ou l’influence d’autres groupes d’intérêt. Une cinquième série
de réponses consiste à gérer et limiter la dépendance sur l’environnement.
L’organisation va alors changer ses stratégies. Elle peut adapter ses
structures, ses valeurs, ses produits, etc. Pour éviter de dépendre des
ressources externes critiques, elle peut les stocker, tenter de contrôler les
termes de l’échange, s’intégrer verticalement pour l’inclure ou diversifier
ses besoins en ressources alternatives.
Un second groupe de stratégies vise à contrôler le contexte du
contrôle, c’est-à-dire altérer les interdépendances entre organisations.
Les échanges avec l’environnement prennent place au point où le contrôle
de l’organisation sur ses activités diminue et celui des autres commence.
Elle est vulnérable et va essayer d’étendre son propre contrôle sur ces
échanges vitaux et accroître son propre pouvoir : intégration horizontale
ou diversifications en résultent. La croissance est un moyen aussi de
dominer les échanges.
Un troisième groupe de stratégies va viser à négocier
l’environnement, c’est-à-dire à coordonner les comportements, établir des
structures collectives d’action inter-organisationnelles pour gérer
l’interdépendance mutuelle : accords tacites ou explicites, joint-ventures,
codes de bonne conduite, alliances etc.
Cette diminution de l’incertitude crée cependant, conformément au
modèle, une inter connectivité accrue pour les autres membres de
l’environnement et peut tendre en réaction à un contrôle de
l’interdépendance notamment par la réglementation ou les sanctions
sociales.
Par conséquent, dans les théories de l’écologie des populations et de la
dépendance des ressources, l’environnement est dominant et le rôle du
dirigeant, de la stratégie et des membres de l’organisation sont absents ou
limités.
2. Weick et l’environnement comme construit social
Notons d’emblée que le cadre général de l’analyse de Karl Weick 100 est
celui du constructivisme. Il implique la construction sociale de la réalité par
les individus. Notre ambition n’est pas ici de présenter les fondements du
constructivisme, qui englobent des notions très vastes, ni de développer
l’ensemble des apports de Weick qui sont plus larges et complexes que
ceux évoqués ici, mais de s’attacher à la manière dont Weick aborde
l’influence de l’environnement sur l’organisation, notamment du fait que
cette théorie s’oppose à celles de la dépendance des ressources et de
l’écologie des populations vues précédemment. Ainsi, pour Weick, ce qui
caractérise l’environnement, c’est qu’il est « agi », c’est-à-dire qu’il est le
fruit d’une construction sociale.

2.1. La prise en compte de l’ambiguïté de l’environnement


L’individu est plongé dans un environnement complexe, marqué par
l’ambiguïté, c’est-à-dire que plusieurs significations, ou sens, sont
possibles. Cela ne veut pas dire que l’environnement soit dépourvu de sens
ou que son sens soit confus. Si tel est était le cas, on serait en situation dite
d’incertitude et pas seulement d’ambiguïté. Mais l’environnement qui se
présente à l’organisation est riche d’un assortiment de multiples variables,
chacune pouvant avoir de multiples significations, avec de multiples
connections possibles entre elles, ayant elles aussi des significations
différentes.
Or, l’individu ne peut pas concilier en même temps plusieurs
significations possibles. Il doit choisir entre ces significations non
compatibles.
Les situations sont le plus souvent complexes, trop compliquées pour
être perçues dans leur diversité. Il s’ensuit qu’un certain nombre
d’éléments seulement sont sélectionnés parmi tous ceux qui étaient
possibles dans ce qui est l’environnement où se trouve l’individu. Ces
éléments sont perçus non comme des éléments indépendants et isolés
mais « en forme », déjà ordonnés.
Par conséquent, du fait de la complexité des situations, les apparences
auxquelles a à faire face un individu, dans une organisation, sont toujours
ambiguës. En d’autres termes la signification de l’environnement perçu,
n’est jamais parfaitement ni immédiatement claire, elle est toujours à
interpréter à des degrés plus ou moins élevés.

2.2. L’environnement est « agi »


Selon Weick, compte tenu de la complexité et de l’ambiguïté,
l’environnement est « agi »101 ou « pro-agi » par l’individu au sein de
l’organisation. C’est-à-dire que d’une certaine manière, l’environnement
auquel a à faire face chacun, individu ou organisation, est créé par lui-
même ou elle-même. Ce qui ne veut pas dire qu’il est choisi. Cette création
n’est ni délibérée ni forcément pleinement consciente.
La compréhension de l’environnement est rétrospective et suit un
processus dans lequel l’action est première. Ainsi, Weick (1979) considère
que « toute compréhension a sa source dans la réflexion et dans un regard
jeté sur le passé » L’individu commence par agir. Puis, il évalue les
conséquences de son action et retient les comportements qui lui semblent
préférables, compte tenu de ses attentes et de sa perception de
l’environnement. Chaque individu interprète l’environnement d’une
manière qui lui est propre et qui est différente de celle des autres. Il
interprète les événements passés de manière à les rendre cohérents par
rapports à ses propres schémas mentaux et à sa propre conception du
monde. L’individu non seulement sélectionne ce qu’il voit pour que cela
s’adapte à ses attentes, mais aussi rationalise des actes qui sont dus au
hasard.
Etant donné le caractère ambigu, l’incertitude et la variété de
l’environnement, l’individu privilégie certains événements, qui ne sont
d’ailleurs pas forcément les plus significatifs ; et en ignore d’autres, qui
cependant auraient pu, à long ou moyen terme, se révéler essentiels.
D’autres individus que lui, dans le même environnement et la même
situation, auraient eu une autre vision, et auraient prélevés d’autres
éléments.
Mais la notion d’environnement « agi » va plus loin que cela. Il ne s’agit
pas seulement d’observer que chacun interprète l’environnement
différemment, et retient des évènements différents, mais de considérer
qu’il existe un processus de création de l’environnement, qui n’existe pas
réellement avant d’être « agi », c’est-à-dire créé, orienté, interprété par
l’individu (ou l’organisation) qui le perçoit.
Le premier temps est celui du processus d’activation. L’environnement
est en quelque sorte « mis en action », au sens que ce qui est vu,
sélectivement, déclenche non seulement une réaction, mais une pro-
action. Ce qui est vu entraîne un processus qui modifie ce qui va être vu
ensuite. Ce processus ne se serait pas déclenché de lui-même s’il n’avait
activé. Cette activation va déclencher et amener à l’existence des éléments
latents, jusque-là inactifs. Le terme d’activation souligne cet aspect
dynamique de processus et le rôle actif de l’individu. Les individus sont
proactifs et non réactifs. C’est-à-dire qu’ils construisent leur
environnement de manière active plutôt que ne faire que subir ou bien
s’adapter à un environnement donné, existant tel qu’il est perçu. Se référer
à l’activation n’exclut pas l’adaptation, ni les efforts d’adaptation, mais ils se
construisent par rapport à ce qui a été déjà construit. Les individus
cherchent à agir pour satisfaire ce qu’ils considèrent comme leurs propres
besoins dans l’éventail des possibilités d’action offertes par le contexte
dans lequel ils agissent, tel qu’ils l’ont construit.
Considérer l’environnement comme activé sur certains de ces éléments
revient simplement à accepter que le rôle de l’individu existe aussi pour
identifier et/ou créer les possibilités d’actions offertes par un contexte qui
n’est pas simplement donné. Ce qui est vu entame un processus qui
modifie ce qui va être vu et rend possibles certaines possibilités d’action
tout en éliminant d’autres. Avant même d’utiliser ces possibilités et de
choisir entre elles, l’individu devra en effet non seulement les percevoir et
les reconnaître comme telles, mais aussi leur attribuer une existence et
une signification et donc en ce sens les créer, les amener à l’existence. C’est
à ce point seulement qu’elles acquerront une apparence d’« objectivité »
en tant que partie de l’environnement, apparence que nous tendons
d’ordinaire à attribuer automatiquement à tout ce qui nous entoure. Et
c’est précisément dans ce procédé de reconnaissance, d’attribution de
signification, que l’individu se montre proactif et « agi » son
environnement.
Ensuite, à un niveau supérieur, le fait que l’environnement soit « agi »
signifie également que « mes idées influencent mon comportement ».
Cette création de l’environnement peut encore se compliquer. Elle se
fait alors d’ailleurs tout autant par omission que par action. Cet
environnement peut se créer en termes de limitations auto-imposées : par
exemple en évitant d’avoir à agir par peur de l’échec, et donc en
s’abstenant de rechercher et de vérifier si l’action est possible, se
l’interdisant ainsi tant dans l’immédiat que sans doute aussi pour le futur.
Cela peut se faire toujours en évitant d’avoir à agir, aussi, mais cette fois-ci,
bien que préférant une situation différente, par crainte de créer une
nouvelle situation irréversible qui interdirait le retour à l’état présent que
nous craignons de perdre pour toujours. Il n’est en effet pas si mauvais,
même si moins bon que ce que nous souhaitons, et nous nous méfions,
nous ne sommes pas sûrs d’arriver à l’état des choses préférable et
sommes anxieux de ce qui risque de le remplacer si notre effort de
changement échoue. Cette absence d’action entraîne une catastrophe ou
un échec.
La procrastination est du même ordre, aboutissant à ne rien faire en
attendant qu’un changement négatif se produise dans l’environnement, et
constater alors qu’il est de toute façon trop tard pour agir.
Finalement, les significations sont considérées comme toujours
construites rétrospectivement, c’est-à-dire que la cognition est considérée
comme le résultat de l’action. A titre illustratif, Weick utilise l’exemple d’un
explorateur qui ne peut jamais savoir ce qu’il explore avant qu’il n’ait fini
de l’explorer.

Deux soldats sont perdus dans les Alpes :


« Convaincus que nous étions perdus, nous nous préparions pour notre
fin. Puis l’un de nous a trouvé une carte dans sa poche et cela nous a
tranquillisés. Nous avons dressé nos tentes et attendu la fin de la
tempête, puis nous avons découvert notre position sur la carte. Et nous
voilà. Le lieutenant qui avait fait partie de l’unité demanda cette carte
remarquable et l’étudia. Il découvrit, à son grand étonnement que ce
n’était pas une carte des Alpes mais une carte des Pyrénées. » (Weick,
1995, p. 54)
L’explorateur ne peut savoir ce qu’il aura en face de lui avant d’y avoir
été confronté dans les faits. Alors il repasse en revue cet épisode qui est
devenu du passé, pour comprendre ce qui est arrivé. La signification est
donc accordée rétrospectivement aux événements. Mais, néanmoins,
l’acte d’explorer a lui-même inévitablement un impact sur ce qui est
exploré, ce qui signifie que des portions de ce que l’explorateur découvre
rétrospectivement sont des conséquences de sa propre fabrication qui lui
sont retournées.
Toute compréhension prend son origine dans la réflexion et le regard
porté en arrière et l’analyse de l’environnement qui a été « agi » en
fonction de cartes de causalité construites sur la base des expériences
réussies passées. En d’autres termes, d’une part, la formulation correcte
ne devrait pas être : « je le croirai lorsque je le verrai » mais « je le verrai
lorsque je le croirai ».
Ceci d’autre part conduit à la question « comment puis-je savoir ce que
je pense avant d’avoir entendu ce que j’ai dit ? ».
En effet, l’action de parler établit des traces qui sont examinées de
façon que des cognitions en soient inférées. Ces cognitions inférées
deviennent alors des préconceptions qui influencent partiellement
l’épisode de parole suivant, dont les propres traces conservées vont être
influencées ellesmêmes partiellement par l’étiquetage antérieur et
partiellement par le contexte courant.
Le fait que l’environnement est « agi », est une façon de dire que la
réalité est construite artificiellement, mais par l’individu et dans son
interaction avec son environnement, au lieu de l’image familière d’une
réalité intangible qui s’impose en tant que telle, invariable et connaissable.

2.3. L’environnement est un construit social


La construction de l’environnement n’est pas seulement individuelle,
mais est aussi et surtout sociale. Si, comme c’est généralement le cas,
plusieurs acteurs sont impliqués, ils devront atteindre au moins un
consensus partiel sur la signification de leur comportement, ou d’un
événement équivoque par définition qui se déroule devant leurs yeux ou
auquel ils prennent part. La réalité est simplement ce que les acteurs
décident d’un commun accord qui est réel. Elle est socialement construite.
On ne peut donc savoir qu’un événement s’est passé qu’après s’être mis
d’accord pour l’interpréter. La plupart des événements sont « agis » en
commun à partir d’un environnement équivoque. Ils sont établis par
validation, par consentement mutuel.
Il est donc implicite, si l’on admet que la signification de la réalité est un
construit social, négocié, et non imposé par des structures externes, et si
l’on y ajoute la signification rétrospective, que celle-ci est toujours imposée
a posteriori, après les faits. Construire la signification d’un événement, ou
construire la réalité, ce qui revient au même est collectif et rétrospectif.
La question « je ne le verrai que quand je le croirai » doit – pour tenir
compte du processus de validation consensuelle de la réalité construite
collectivement – être remplacé par la question : « comment pouvons-nous
savoir ce que nous pensons avant d’avoir entendu ce que nous avons dit (et
nous être mis d’accord sur le sens de ce que nous avons dit) ? ».

2.4. La notion de « sensemaking »


Une autre notion importante pour Weick102 est celle de « sensemaking
» ou « construction/création de sens » dans les organisations.
Les agents actifs construisent des événements sensibles et
raisonnables. Ils structurent l’inconnu. Ils le font en plaçant des stimulis
dans un cadre de référence (point de vue généralisé qui dirige
l’interprétation), en rendant compte rétrospectivement de l’explication
d’évènements inattendus, par interactions réciproques entre recherche
d’information, attribution de sens et par les mécanismes que les membres
de l’organisation utilisent pour attribuer du sens aux événements.
La création de sens est différente de l’interprétation, elle ne se borne
pas à découvrir et à réduire l’ambiguïté de quelque chose qui est « là »,
mais participe aussi à la construction de ce qui va être reconnu comme
étant « là ». Et elle le fait rétrospectivement. Elle concerne la façon dont
les gens génèrent ce qu’ils interprètent : c’est un accomplissement continu
qui prend forme quand les gens donnent un sens rétrospectivement aux
situations dans lesquelles ils se trouvent. Ce processus a une forte qualité
réflexive. Les gens donnent un sens aux choses en voyant un monde sur
lequel ils ont déjà imposé ce qu’ils croient. Ils découvrent (interprétation)
leurs propres inventions (sensemaking).
En conséquence, la présomption de logique dans laquelle baigne notre
monde, et en particulier le monde de l’entreprise, nous amène à
considérer la réalité d’une manière beaucoup plus ordonnée qu’elle ne
l’est réellement. Voyant, artificiellement, autour de nous de l’ordre, nous
adoptons des comportements ordonnés et par là-même contribuons à
l’apparition de cet ordre, mais dans ce processus nous ajoutons et créons
littéralement nos propres contraintes nous-mêmes.
Le monde réel est probablement très différent de ce monde présumé
logique. L’acte précède et crée la pensée au lieu que la pensée soit à
l’origine de l’acte. L’état des choses auquel individus et organisations font
face est beaucoup plus aléatoire qu’ils ne le croient. En fait, individus et
organisations non seulement classifient ce qu’ils voient pour que cela
s’adapte à leurs attentes, rétrospectivement par consensus mutuel de
groupe, mais aussi ils rationalisent des actes qui sont dus au hasard et à
des circonstances purement aléatoires. Les déterminants du
comportement sont sans doute considérablement plus situationnels que
volontaristes. Ils reflètent une co-construction du réel. La cohérence dans
notre comportement et notre monde est sans doute très faible et en tout
cas beaucoup plus que nous ne le croyons, et elle est reconstruite a
posteriori par nous. Les interactions entre individus, leurs actes, les
significations de ces actes et leurs conséquences sont surtout accidentels
et non planifiées.
Les individus qui agissent dans les organisations produisent souvent
des structures, des situations, des contraintes et des opportunités qui
n’existaient pas avant qu’ils n’aient agi.
Le résultat est l’environnement agi, construit social, matériel ordonné,
qui est lui-même sujet à interprétations multiples. Certes les
environnements agis contiennent des objets matériels dont l’existence ne
peut être remise en question, mais la signification, le sens et le contenu de
ces objets le sont. Ces objets sont sans conséquences jusqu’à ce qu’ils
soient l’objet d’une action, puis incorporés rétroactivement dans des
événements, des situations et des explications.
L’environnement agi, externe est résumé intérieurement par les
individus sous la forme d’une carte plausible dans laquelle des actions
observées produisent des conséquences observées, c’est-à-dire une carte
de causalité en termes de relations du type : si A, alors B. Cette carte est la
source reliée aux actions futures. L’environnement se trouve ainsi
construit, à travers des représentations (ou cartes) mentales, qui
s’appuient sur une information limitée voir erronée (filtres déformants).
L’apport original de Weick ne se limite cependant pas à cette
application du constructivisme à la théorie de l’organisation. Sur ce socle, il
va construire une théorie complète de l’organisation, que nous ne faisons
qu’effleurer ici.

2.5. L’organisation comme mythe


La théorie de Weick débouche sur une conception particulière des
organisations. Selon ce dernier, l’organisation est un mythe : « seuls
existent des événements liés entre eux par des anneaux de causalité ».
Plutôt d’ailleurs que de traiter de l’« organisation » et du « comportement
organisationnel » Weick préfère se pencher sur « l’action d’organiser »
(organizing). La substance de cette action d’organiser est faite de
comportements interreliés, assemblés en processus sociaux, qui
deviennent intelligibles aux acteurs concernés.
Plus qu’à « l’organisation » dont il constate que l’on ne trouve pas de
définition matérielle réellement significative puisque ce qui est surtout
important est constitué de relations, de liens systématiques entre
variables, Weick considère qu’il faut donc s’intéresser à « l’acte d’organiser
». Celuici est défini comme « une grammaire validée consensuellement
pour réduire l’ambiguïté au moyen de comportements interreliés
raisonnables ».
Dans la conception de Weick, les organisations n’ont pas de substance.
Pour faciliter leur appréhension, elles peuvent être conceptualisées
comme des flots de densité et viscosité variables se déplaçant à des
vitesses variables entre des points réifiés qui sont eux-mêmes mouvants.
L’acte d’organiser se résume donc à assembler des actions indépendantes
continues dans des séquences raisonnables qui généreront des résultats
raisonnables à partir de perceptions d’un environnement toujours ambigu
et susceptible de multiples interprétations.
C’est en ce sens que l’acte d’organiser constitue une « grammaire » car,
comme une grammaire, c’est un ensemble de règles et de conventions
pour assembler des processus sociaux et pour les rendre compréhensibles
pour les acteurs.
Les processus organisationnels peuvent être décrits en termes de
variables reliées entre elles. Certaines sont dépendantes, certaines
indépendantes, mais la plupart sont interdépendantes, soit directement,
soit par l’intermédiaire d’autres variables. Ces dernières constituent des
anneaux de causalité.
Par exemple dans un cours à l’université, l’attention est faible quand les
étudiants comprennent mal ce qu’expose le professeur ; moins les
étudiants prêtent attention, moins ils posent des questions ; moins le
professeur est amené à expliquer en détail de façon plus approfondie et
plus l’attention des étudiants décline. Ce type d’anneau de causalité que
nous venons de décrire amplifie les déviations : dès qu’une variable se
déplace dans un sens ou dans l’autre (l’attention des étudiants baisse, ou le
professeur se situe à un niveau de complexité trop élevé), elle est amenée
à se déplacer dans la même direction de plus en plus fortement jusqu’à ce
que le système soit détruit (les étudiants n’assistent plus au cours) ou
qu’un changement soit volontairement introduit (ils sont notés en fonction
de leur présence).
Weick constate qu’un anneau amplificateur de déviation est caractérisé
par un nombre pair de relations inverses entre les variables, (pair étant
entendu ici comme y compris le 0 et une relation inverse étant définie
comme le fait que quand l’une des variables reliées croît, l’autre décroît et
vice versa). A l’inverse, les anneaux de causalité caractérisés par un
nombre impair de relations inverses entre les variables sont stabilisateurs.
Si une variable tend à dévier, elle sera ramenée à un niveau stable. Par
exemple plus les étudiants posent des questions, plus la variété des
thèmes abordés est grande, mais plus la variété des thèmes abordés est
grande, moins il y aura de questions (puisqu’il restera moins de thèmes à
aborder et/ou les thèmes déjà abordés suffiront à remplir le temps du
cours). Il y a un nombre impair de relations inverses. Donc bien que la
variété des thèmes abordés et le nombre de questions posées par les
étudiants varient, ils varient autour de valeurs centrales et une déviation
tend automatiquement à être corrigée.
Quand un système est composé de multiples anneaux de causalité, son
caractère stable ou instable dépend, d’une part de l’importance relative
des anneaux de causalité par rapport les uns aux autres, de la stabilité ou
non des plus importants et, d’autre part, du nombre pair ou impair
d’anneaux (et non plus de relations dans les anneaux) amplificateurs de
déviations, si tous les anneaux de causalité sont d’égale importance.
Indépendamment de leur nature propre, l’idée de concevoir
l’organisation en termes d’anneaux de causalité, quand des variables sont
interdépendantes, rend totalement arbitraire le choix d’un événement
comme cause et d’un autre comme effet. Dans tout anneau de causalité,
une fois qu’il existe, aucune variable n’est plus importante qu’une autre.
Une variable qui en contrôle d’autres est elle-même contrôlée par une
autre variable. Le changement peut être initié dans une modification de
n’importe quelle variable mais celle-ci en viendra à son tour à être
remodifiée : ce qui était cause devient effet et vice versa.
Il est inutile et sans intérêt de rechercher la cause initiale de l’anneau.
L’origine de l’anneau de causalité est sans importance et peut d’ailleurs
avoir disparu ou s’être perdue dans le temps.
Par ailleurs, cette conception met aussi en évidence l’idée que si l’on
veut agir sur le système, il est inefficace et parfois même contre-productif
d’agir sur les variables. C’est sur les relations entre elles qu’il faut agir, soit
essentiellement en introduisant une autre variable dans le circuit afin de
modifier le statut pair/impair des relations inverses entre variables et
changer ainsi la nature de l’anneau de causalité, soit en inversant le sens
d’une relation entre variables, soit en inversant le mouvement dans une
variable sans en changer les sens.
Bien entendu aussi, les anneaux de causalité sont sujets au
changement, volontaire, comme il a été expliqué en intervenant sur les
relations, mais ils changent aussi sous l’influence de chocs et d’événements
extérieurs.
Les processus organisationnels sont composés d’éléments de base
faits de comportements individuels, de deux personnes ou plus,
interreliées, appelés interacts par Weick. Cette définition implique que le
comportement d’un individu est contingent au comportement d’un ou
plusieurs autres individus.
L’unité d’analyse dans l’acte d’organiser est le double interact constitué
de formes de réponses contingentes et défini ainsi : « Une action par
l’acteur A évoque une réponse spécifique de l’acteur B (interact) à laquelle
répond alors à son tour l’acteur A (double interact) ». L’assemblage de ces
doubles interacts en processus constitue l’acte d’organiser.
Les doubles interacts peuvent être considérés comme appartenant à
des structures d’équivalences mutuelles. Au point de départ de cette
conception, les actes individuels sont classés en deux catégories : actes de
consommation, c’est-à-dire de consommation d’une récompense,
satisfaction ou plaisir, ou actes instrumentaux, c’est-à-dire destinés à
remplir les conditions pour qu’un acte de consommation prenne place.
Une structure d’équivalence mutuelle existe quand la capacité d’un
individu A à accomplir un acte de consommation dépend de
l’accomplissement d’un acte instrumental par un autre individu B. De plus,
cet accomplissement d’un acte instrumental par B dépend de
l’accomplissement préalable d’un acte instrumental initial par A. Cet acte
instrumental initial de A produit lui-même un acte consommatoire pour B.
Si ce schéma se produit de façon répétée, A et B sont organisés en une
structure d’équivalence mutuelle. Par exemple A peint un tableau,
commercialisé par la galerie B. A profite de sa célébrité et de la
reconnaissance qu’il recherche avant tout, B d’une commission plus que
substantielle. Il n’est pas nécessaire que les participants à la structure se
connaissent bien, connaissent réciproquement leurs motifs d’agir ou
partagent des buts communs, ou même, à la limite, aient réciproquement
connaissance de l’existence l’un de l’autre.
Ce qui est crucial pour qu’une telle structure fonctionne est seulement
la capacité de prédiction mutuelle (si moi A, je fais 1, alors 2 se produira
par l’action de B) et non un partage mutuel des objectifs. Une coordination
des activités peut se produire avec des liens minimaux entre individus. Le
partage des croyances et des buts n’est pas nécessaire à l’établissement de
comportements interreliés. Il est même possible qu’un participant ait une
représentation erronée et partielle de la structure, différente de celle de
l’autre participant.
Les doubles interacts sont ensuite assemblés en cycles. Ce sont ces
cycles qui constituent les formes stables dans les organisations et qui sont
eux-mêmes assemblés en éléments plus importants afin de stabiliser les
apparences ambiguës, et de les transformer en information,
environnements agis, et cartes cognitives. Ces processus d’assemblage se
font en fonction d’un certain nombre de règles. Ce sont ces règles
d’assemblages qui constituent les « recettes » ou les procédures ou
instructions par lesquelles un certain nombre de doubles interacts vont
traiter les situations auxquelles l’organisation fait face et résulter en
processus organisationnels.
Ces règles sont multiples : par exemple, choisir les cycles dont
l’accomplissement demande le moins d’efforts, ou reproduire ceux qui sont
produits le plus souvent dans le passé, ou ceux qui ont le plus souvent
réussi auparavant, ou ceux qui peuvent s’effectuer le plus rapidement, ou
ceux qui restent disponibles par rapport à d’autres activités déjà engagées,
ou ceux qui impliquent le personnel le plus expérimenté, etc.
Par ailleurs, la situation à laquelle fait face l’organisation peut être plus
ou moins ambiguë, plus ou moins claire et interprétable facilement ou
directement.
Weick considère qu’une méta-règle établit le choix des règles : plus la
situation est ambiguë, moins de règles seront mises en jeu pour assembler
les doubles interacts. Donc, plus la situation apparaît certaine, moins elle
est ambiguë, plus de règles seront activées.
Le nombre de cycles de doubles interacts activés dépend lui-même de
nombre de règles d’assemblage mises en jeu. Il varie en fonction inverse à
celui-ci, car les règles sont assez générales, et donc plus on emploie de
règles, plus faible est le nombre de double interacts qui satisfasse à la fois
à toutes ces règles, parmi tous les doubles interacts possibles. Enfin, moins
un nombre élevé de cycles de doubles interacts est appliqué à la situation,
plus elle demeure équivoque. Les processus ainsi obtenus sont ensuite
stockés en mémoire sous forme de cartes cognitives qui sont à leur tour
appliquées à l’environnement équivoque.
Deux points importants sont à noter. D’une part, certes, la totalité de
l’organisation est constituée de l’ensemble des processus des cycles de
doubles interacts entre individus assemblés suivant un certain nombre de
règles. Néanmoins il existe des sous-ensembles, et leur existence est
cruciale. Ils sont stables et assez fortement liés entre leurs composantes.
Leur existence permet d’éviter d’avoir à reconstruire l’ensemble de
l’organisation à chaque interruption puisqu’eux restent stables.
Par conséquent, il existe différentes manières d’aborder le rôle de
l’environnement dans les organisations. Nous avons abordé
successivement d’une part des théories qui considèrent l’environnement
comme dominant et où les choix stratégiques des individus sont quasi-
inexistants ; et d’autre part une théorie selon laquelle l’environnement est
« agi », donc qui à l’opposé des précédentes, donne un rôle central aux
individus eux même, comme acteurs de l’environnement, compris comme
un construit social.

Focus : L’essentiel sur les théories des organisations et


l’environnement

L’analyse de l’environnement a été introduite dans la théorie de la


contingence structurelle externe (Burns et Stalker, Lawrence et Lorsch).
Toutefois, dans ces approches, l’analyse reste centrée sur le fait que les
formes d’organisations changent en fonction de l’environnement. Il reste
donc une place au choix stratégique. Au-delà de la contingence
structurelle, un certain nombre de théories complémentaires se sont
intéressées à l’analyse de l’environnement et lui ont consacré des études
spécifiques. On distingue deux courants qui s’opposent ; D’une part, un
pan de théories considèrent l’environnement comme dominant (écologie
des populations et théorie de la dépendance des ressources) et d’autre
part, des théories qui centrent l’attention sur le fait que l’environnement
est un construit social (Weick).
Dans le courant de l’écologie des populations, Hannan et Freeman (1977)
considèrent que les organisations sont en concurrence pour leur survie au
sein de l’environnement. Ils proposent une version organisationnelle de la
théorie de l’évolution Darwinienne. Ils s’intéressent aux « populations
d’organisations » et considèrent qu’il y a autant de populations
d’organisations que de types d’environnements, car chacune d’elle est
adaptée à un type d’environnement donné. Quel que soit le
comportement des dirigeants et de leurs efforts pour s’adapter à
l’environnement, les résultats restent aléatoires. La place laissée au choix
stratégique est quasi inexistante.
Pfeffer et Salancik (1978) développent une théorie de la dépendance des
ressources. Pour ces derniers, les organisations dépendent de ressources
critiques. Les organisations ne survivent que si elles réussissent à gérer
leur dépendance aux ressources qui leur sont critiques. L’organisation doit
donc développer des stratégies pour réduire sa dépendance à
l’environnement. Les théories de la dépendance des ressources, laissent
une place plus grande au choix décisionnel que l’écologie des populations,
puisque le dirigeant,

ou les managers, ont une marge de pouvoir pour ajuster l’organisation à


l’environnement, même si les contraintes restent très fortes et
l’environnement est dominant.
Weick (1995) considère que l’environnement est « agi », c’est-à-dire qu’il
est l’objet d’une construction collective. Les apparences auxquelles un
individu a à faire face sont toujours ambiguës. Un même événement peut
avoir plusieurs significations. Il faut alors faire des choix entre ces
différentes significations. L’environnement auquel a à faire face
l’organisation est créé par elle-même. La réalité est un construit social, elle
est imposée, a posteriori, à partir de l’interprétation qui en est faite par les
individus. La création de sens (sensemaking) se fait rétrospectivement.
L’acte précède et crée la pensée au lieu que la pensée soit à l’origine de
l’acte. L’environnement n’est donc pas extérieur aux individus et considéré
comme s’imposant à eux, puisqu’il est agi par eux et résulte donc du sens
qu’ils leur donnent.
_______
90 Caroll, G. R., ‘‘Organizational Ecology’’, Annual Review of Sociology, 10, 1984, pp. 71-93.
91 Aldrich, H. E., Organizations and Environments, Englewood Cliffs, N.J. Prentice Hall, Inc., 1979.
92 Hannan, M. T. and Freeman, J., ‘‘The population Ecology of Organizations’’, American Journal of
Sociology, Vol. 82, n°5, 1977, pp. 929-965, puis Organizational Ecology, Cambridge, Harvard
University Press, 1989.
93 Hannan M. T., Freeman J. F., ‘‘The population ecology of organizations’’, American Journal of
Sociology, 1977.
94 Freeman, J. and Hannan, M. T., ‘‘Niche Width and the Dynamics of organizational
populations’’,American Journal of Sociology, 88, 1983, pp. 116-1144.
95 Hannan, M. T. et Freeman, J., Organizational Ecology, opus cit., p. 106.
96 Hannan, M. T. et Freeman, J., ‘‘Structural inertia and organizational change’’, American Sociological
Review, 1984, vol 49, pp.149-164.
97 Aldrich, H. A. and Mueller, S., ‘‘The evolution of organizational forms, technology coordinationand
control’’, Research in organizational behavior, Vol. 4, pp. 33-87, Staw, B., and Cummings, L. (eds)
Greewich Co. 1982.
98 Pfeffer, J. et Salancik, G. R., The External Control Of Organizations, A Ressource Dependance
Perspective, New York, Harper and Row, 1978.
99 Pfeffer, J. et Salancik, G. R., The External Control Of Organizations, A Ressource Dependance
Perspective, New York, Harper and Row, 1978.
100 Weick, K., The social psychology of organizing, Random House, New York, 1979, (2e ed.). Weick, K.,
Sensemaking in Organizations, Sage, 1995.
101 Le terme utilisé par Weick est « enacted » et « enactment ».
102 Weick, K., Sensemaking in Organizations, Thousand Oaks, Sage, 1995.
De nombreuses théories des organisations traitent des mécanismes de
prise de décision au sein des organisations.
Un certain nombre d’auteurs se sont intéressés à la notion de
rationalité des décisions. Bien qu’à l’origine les théories économiques
classiques retiennent l’hypothèse de rationalité absolue des agents, Simon,
dès 1947 remet en cause ce principe en introduisant le concept de «
rationalité limitée » et bouleverse fondamentalement la manière
d’appréhender les décisions dans les organisations. De plus, un ensemble
de théories dites cognitives vont également s’intéresser aux limites de la
rationalité des individus au sein des organisations, et soutenir l’idée que
les individus ne prennent pas des décisions en rationalité parfaite. Tel est le
cas notamment des travaux de Khaneman, Slovic et Tversky, ainsi que
Cialdini, ou encore Boudon.
La manière de concevoir la rationalité des individus a des répercussions
majeures sur la façon de conceptualiser les processus de prise de décision
au sein des organisations et est à l’origine de l’émergence de différentes
théories.
Nous présentons tout d’abord la théorie décisionnelle de l’organisation
de March et Simon, ainsi que la théorie comportementale de la firme de
Cyert et March, qui intègrent toutes deux la notion de « rationalité limitée
».
Ensuite, nous abordons d’autres approches de la décision. Tout d’abord
la théorie dite de l’organisation en termes de « collections de poubelle » de
March, Cohen et Olsen, qui dépasse et va au-delà de la notion de
rationalité limitée puisqu’elle introduit le hasard dans le processus de
décision. Enfin, l’approche de la théorie des jeux s’écarte des théories
précédentes, en abordant les prises de décisions à travers les concepts de
joueurs, de stratégies, de solutions et de règles du jeu, et traite
l’incertitude en adoptant une approche en termes de probabilités.

1. La rationalité des décisions


Pour comprendre ce qu’est une décision rationnelle, il faut commencer
par définir la notion de décision elle-même. Ensuite nous distinguons les
notions de « rationalité absolue » (ou parfaite) et de « rationalité limitée ».

1.1. Le concept de décision


Une décision suppose une occasion de choix. La décision correspond
alors à la sélection de l’une des actions, ou alternative de comportements
possibles, dans cette situation de choix. Dit autrement, une décision
consiste à sélectionner une alternative, parmi plusieurs alternatives
possibles, qui entraîne une action ou un comportement, y compris bien sûr
celui qui consiste à ne rien faire (status-quo).
De manière simplifiée, Herbert Simon103 (1916-2001) définit trois
étapes dans le processus de prise de décision :
• La première étape correspond à l’établissement de la liste de toutes les
branches d’alternatives, avec tous les comportements ou actions
possibles.
• La seconde étape est celle de la détermination des conséquences de
chacune des alternatives.
• La troisième étape correspond à l’évaluation de ces ensembles de
conséquences.

Il convient de souligner qu’il ne s’agit pas ici d’une progression simple,


et d’étape en étape à l’intérieur de chaque phase, mais d’un mouvement
itératif avec rétroactions constantes sur l’ensemble du processus ou
chaque élément est révisable en fonction des suivants qu’il va à son tour
modifier à nouveau.
Une décision est dite rationnelle lorsqu’un individu, placé dans une
situation de choix en face de plusieurs branches d’alternative, choisit celle
qu’il croit aboutir au meilleur résultat global. Une décision rationnelle est
donc réalisée en vue d’une fin déterminée (objectif), dans le cadre d’un
système de contraintes, et en fonction d’une réflexion d’une part sur les
conséquences attendue de cette décision et d’autre part sur le fait que ces
conséquences permettent, ou non, de satisfaire l’objectif formulé.
C’est parce qu’elle est effectuée à partir d’un jugement (délibération)
que la décision rationnelle s’oppose au choix fait par hasard. Ainsi, selon
March et Simon104 :
« A tout moment l’individu, ou l’organisation formée d’un certain
nombre d’individus, se trouve confronté à un grand nombre d’alternatives
de comportement, dont certaines sont présentes dans sa conscience,
d’autres non. La décision, ou le choix - au sens donné à ce terme ici désigne
le processus au terme duquel on choisit à un moment de réaliser une de ces
alternatives.
La série des décisions qui déterminent le comportement au cours d’un
laps de temps donné peut être appelée stratégie. Si l’on choisit et suit une
de ces stratégies possibles, n’importe laquelle, il en résultera certaines
conséquences. La décision rationnelle a précisément pour tâche de retenir
celle des stratégies qui sera suivie de l’ensemble de conséquences
préférées. On doit souligner que toutes les conséquences de la stratégie
choisie sont utiles pour l’évaluation de sa justesse et non les conséquences
anticipées uniquement. »
Il apparaît qu’une décision rationnelle est le processus par lequel un
individu (ou une entité collective) choisi parmi diverses alternatives celle
dont les conséquences ont sa préférence. Cette définition s’applique
quelle que soit la nature de la rationalité (absolue ou limitée) à laquelle on
fait référence, et que nous allons maintenant distinguer.

1.2. La distinction entre rationalité absolue et rationalité limitée


Herbert Simon105 (1916-2001), prix Nobel d’économie en 1978, est le
premier à remettre en cause le principe de rationalité absolue sur lequel
s’appuient les théories économiques classiques.

1.2.1. La rationalité absolue


Le principe de rationalité « absolue » (parfaitement ou objectivement
rationnelle) comporte un certain nombre de conditions et un résultat qu’il
est possible de résumer ainsi :
• Il existe un seul décideur, qu’il soit individuel ou collectif. S’il existe
plusieurs décideurs, ils partagent des objectifs identiques et ont un
système de préférence similaire.
• Le décideur dispose d’un système de préférences (ou de valeurs)
ordonné qui lui permet de dégager des objectifs qui sont clairement
définis et explicites ; stables dans le temps (ce qui est préféré
aujourd’hui était préféré hier et sera préféré demain, toutes choses
égales entre elles) ; mutuellement exclusifs (A est préféré à B ou B à A
et l’un et l’autre sont clairement distincts, ils ne peuvent être atteints
en même temps ou préférés simultanément) ; extérieurs à la situation
de choix, qui ne les influence pas et qu’ils n’influencent pas.
• Le décideur dispose d’une connaissance exhaustive des branches
d’alternatives ouvertes par l’occasion de choix et de leurs
conséquences. Il connaît toutes les actions et tous les comportements
possibles et considère toutes leurs conséquences dans le futur.
• Le décideur établit et applique un critère de choix objectif, connu et
partagé par tous, à toutes les branches d’alternatives qui permet de les
évaluer dans les termes de son système de préférences par rapport à
leur adéquation à ses objectifs.

Pour qu’une décision soit absolument (parfaitement ou objectivement)


rationnelle, il faudrait donc que le décideur unique devant une occasion de
choix voie toutes les actions et tous les comportements envisageables
qu’elle comporte, à l’avance ; considère et prenne en compte la complexité
de toutes les conséquences possibles qui découleront de chaque action et
comportement ; les considère de manière synoptique (c’est-à-dire
globalement dans leur ensemble et non séparément) ainsi que
simultanément (c’est-à-dire en même temps et non l’un après l’autre) dans
leur ensemble ; applique son système de préférences (dit aussi de valeurs
ou d’utilité) à cet ensemble total des conséquences de chaque action et
comportement possible ; dispose d’un critère qui lui permette d’isoler une
action ou un comportement maximisateur dans les termes de ce système.
Le modèle de « rationalité absolue » conduit donc nécessairement à
une logique d’optimisation, c’est-à-dire de maximisation de la satisfaction
de l’individu. On parle de « l’homme économique ».

1.2.2. Simon et la rationalité limitée


Dès 1947, Herbert Simon106 remet en cause l’hypothèse de rationalité
absolue de l’économie classique et introduit la notion de « rationalité
limitée ».
Les observations empiriques qu’il fait, montrent que dans la réalité, les
individus ne se comportent pas tel que la théorie économique classique le
considère, mais que la rationalité a des limites et que celles-ci sont à la fois
liées à la complexité et à l’information imparfaite.
Pour qu’une décision soit objectivement rationnelle, ce qui correspond
à la rationalité de « l’homme économique », il faudrait que le sujet
confronté à une occasion de choix :
• Voie à l’avance toutes les branches d’alternatives ouvertes et tous les
comportements possibles et envisageables qui en découlent, chacune
avec leurs conséquences.
• Considère globalement et simultanément l’ensemble total, dans toute
sa complexité, des conséquences dans le temps qui suivraient chaque
branche d’alternative.
• Applique son système de préférences (valeurs ou d’utilités) à cet
ensemble total des conséquences de chaque choix possible toujours
considéré synoptiquement, c’est-à-dire en même temps.
• Ait établi un critère de choix objectif, qui lui permette d’isoler la
branche d’alternative qui maximise sa satisfaction en termes de son
système de valeurs.

Or, un tel fonctionnement ne peut pas se réaliser en pratique. Ceci


tient d’abord à des limites physiques et intellectuelles des individus et à
l’incapacité de l’esprit humain à faire porter sur une seule décision tous les
aspects des valeurs, connaissances et comportements qui seraient
susceptibles de l’influencer. De plus, chacun a des capacités limitées et
différentes en termes de conceptualisation, mémoire, etc. ; chacun a des
valeurs, des préférences, des motivations, des buts différents et enfin
chacun a des connaissances personnelles et des informations différentes,
et donc va traiter le problème sous un angle différent.
Par ailleurs, les éléments suivants entrent en jeu :
• La connaissance complète de toutes les branches d’alternatives
ouvertes avec les actions et comportements possibles est le plus
souvent très
difficile, sinon impossible. La connaissance des situations complexes est
presque toujours fragmentaire et incomplète. L’éventail des possibles
est trop vaste.
• L’anticipation de la réalisation de toutes les conséquences qui
suivraient chaque branche d’alternative est impossible, le futur est trop
complexe et obscur.
• Les conséquences se produisant dans le futur, leur survenance est
imprévisible, le futur est aussi incertain.
• Même si toutes les conséquences pouvaient être décrites, elles ne
pourraient être anticipées exactement. La réalité est toujours
différente des attentes. Donc, par ailleurs, l’imagination doit suppléer
au manque de connaissances expérimentales des sentiments perçus en
fonction de ce qui se produira peut-être dans le futur, en attachant des
valeurs à celles qui sont connues. De plus, les valeurs ne peuvent être
qu’imparfaitement anticipées.

Cependant, l’individu reste rationnel. La rationalité consiste à choisir


une branche d’alternative, dans une situation de choix, celle qui a notre
préférence. En rationalité limitée, l’individu choisi toujours l’alternative qui
a sa préférence, en étudiant les différentes alternatives qui lui viennent à
l’esprit, même si seul un faible nombre des actions possibles qui en
découlent viendront à l’esprit.
Donc, dans la plupart des cas, confronté à un choix, l’individu construit
un modèle simplifié de la réalité, une définition de la situation à son
échelle et avec ses moyens. Celle-ci est d’abord essentiellement basée sur
son expérience passée. La plupart de ses décisions sont des routines ; il se
replie sur des solutions utilisées déjà dans des circonstances qui lui
apparaissent similaires et qui s’étaient révélées satisfaisantes.
Si certains traits de la situation apparaissent comme
fondamentalement différents, alors l’individu va s’engager dans la
recherche d’une solution nouvelle, mais du fait de sa rationalité limitée, de
la complexité et de l’incertitude, il ne va pas chercher la solution optimale
parmi toutes celles possibles par manque de temps, d’informations et de
capacités. Il ne va pas essayer de maximiser les rapports coût-bénéfice de
son comportement d’une manière synoptique, en passant en revue toutes
les options et toutes les conséquences. Il va seulement rechercher un
niveau minimum de satisfaction et donc adopter un comportement de
satisfaction et non d’optimisation.
Ceci dit, le comportement reste en quelques sorte de nature «
maximisateur limité », mais dans le cadre de son niveau minimum de
satisfaction, au-delà duquel il ne tentera pas d’aller, du moins pas
immédiatement et si le processus aboutit après un effort suffisant.
Confronté à un ensemble limité de branches d’alternatives aux
conséquences limitées et simplifiées, il choisira toujours celle qui satisfait «
au mieux » (mais non de manière optimale) son critère. Pour ce faire, il va
passer en revue les quelques solutions d’actions ou de comportements
possibles qu’il va retenir, avec leurs conséquences simplifiées. Il va les
examiner l’une après l’autre et donc d’une manière séquentielle et non
synoptique. Dès qu’il aura trouvé une solution qui satisfasse ce minimum
de satisfaction il va l’adopter sans aller plus loin. Si l’individu ne trouve pas
à ce point de branche d’alternative qui satisfasse son critère de
satisfaction, il va ajuster son minimum de satisfaction à la baisse et réitérer
le processus avec un critère un peu moins exigeant. Si, par contre il trouve
trop vite ou trop facilement une solution, il peut procéder de même, mais
à la hausse, pour satisfaire un niveau de satisfaction supérieur.
1.2.3. La distinction entre rationalité substantielle limitée et
rationalité procédurale
Le premier niveau d’analyse que nous venons de décrire correspond à
la rationalité substantielle limitée. S’y ajoute un second niveau que l’on
qualifie de rationalité procédurale limitée.
Par conséquent, les limites à la rationalité substantielle entraînent un
comportement non optimisateur (ou absolument maximisateur), mais que
l’on peut qualifier de « satisfacteur » ou « maximisateur limité », du fait,
notamment, de l’information incomplète, l’incertitude et les limitations
cognitives du décideur. Mais ces limites sont toutes de nature similaire :
elles ont trait à la capacité de traitement de l’information. L’environnement
externe est considéré comme donné, existant objectivement, et les limites
du décideur sont liées aux limites de ses capacités de perception et de
calcul. La rationalité limitée substantielle s’apprécie ainsi en termes de
résultat, donc indépendamment de la façon dont a été élaboré le résultat.
Cependant, les limites à la rationalité jouent aussi à un deuxième
niveau, celui de l’aspect délibératif de la décision, ce que Simon appelle
l’environnement interne du décideur, sa capacité à se représenter, et
même plus à construire un monde extérieur adapté. L’univers des possibles
n’est plus donné, il est à construire par le décideur. Le processus de
décision n’opère pas seulement sur des données objectives extérieures
existantes mais en crée et en construit alors qu’il se déroule. Cela signifie
que le processus de choix influence autant le choix que les éléments
concrets retenus et pris en compte. Processus de choix et situation
(branches d’alternatives entre lesquelles choisir) ne sont pas séparés mais
interagissent. Dans la construction de la définition de la situation, certaines
branches d’alternatives sont écartées et d’autres sont générées par le
déroulement du processus. Il n’y a donc pas seulement un monde
extérieur concret et un acteur qui l’observe, plus ou moins bien ou mal,
mais l’action de l’acteur crée et modifie l’état du monde. En d’autres
termes, comment le décideur connaît et décide est aussi important sinon
plus que ce qu’il connaît et décide. La compréhension de son propre
processus d’apprentissage par le décideur est donc importante.
Il s’ensuit qu’à un décideur donné à un moment donné correspond une
décision donnée, qui aurait été différente avec un autre, ou avec le même
dans d’autres circonstances. Par exemple, si l’environnement externe est
incertain, c’est aussi parce que l’incertitude existe dans l’esprit de
l’individu, ou qu’il la génère dans son processus de décision. Il est certes
intrinsèquement plus ou moins incertain, mais il est aussi plus ou moins
bien construit et conçu comme incertain et des éléments d’incertitude
peuvent être introduits dans un environnement a priori certain. Il ne s’agit
plus simplement de satisfaction, de recherche d’une solution qui
convienne, mais d’une solution parmi des solutions plausibles élaborées
par et pour un individu donné dans des circonstances données. Au-delà de
la rationalité limitée substantielle s’ouvre donc le domaine plus complexe
de la rationalité limitée procédurale.
En synthèse, Simon montre que dans la réalité, les individus ne
prennent pas des décisions en rationalité absolue, mais en rationalité
limitée :
• Les limites substantielles de la rationalité font que l’information est
toujours limitée sur les branches d’alternatives existantes et
l’incertitude règnent sur leurs conséquences. Un modèle du monde
simplifié et variant dans le temps est construit. Le choix ne s’appuie
plus sur un critère d’optimisation mais sur un critère minimum de
satisfaction.
• Processus de choix et branches d’alternatives entre lesquelles choisir
ne sont pas séparées mais interagissent. Certaines branches
d’alternatives potentielles sont isolées et sélectionnées positivement
ou ignorées par le processus, mais aussi il en modifie et en génère
complètement d’autres en cours de décision.
• Le système de préférences de l’individu n’est pas ordonné, ses objectifs
ne sont pas clairement définis, ses préférences ne sont pas explicites.
Elles sont non seulement instables dans le temps, mais aussi
relativement à la situation, étant construites autour d’une situation
ellemême objet d’une création. Les objectifs ne sont ni stables dans le
temps ni clairement définis.
• Le critère de choix est plus ou moins conscient et souvent instable.
• Le processus de décision n’est pas extérieur à la situation de choix, il
influence la construction du problème autant que sa solution. Le
système de préférences n’est pas lui non plus extérieur à la situation de
choix, il interagit avec elle.
• Il n’y a pas de décideur unique, quand plusieurs individus sont
impliqués, la décision devient politique. Les décideurs ne partageant
pas
de système de valeurs unique, chacun cherche à faire prévaloir sa
conception de son intérêt.
• Enfin, à l’instant où une solution se présente telle que le monde est
construit et dans les termes du critère tel qu’il existe à ce moment, et
satisfait à ses conditions, la recherche et l’élaboration de solutions
cessent et la décision est prise.

2. Les limites concrètes de la rationalité


De nombreux auteurs se sont intéressés aux mécanismes concrets qui
expliquent les limites de la rationalité des individus lors de leur prise de
décision. Parmi ceux-ci, nous passons en revue les mécanismes de la
perception, les heuristiques cognitifs, les erreurs de cadre et les
mécanismes d’influence.

2.1. Les mécanismes de la perception


À l’origine de notre comportement est la perception de notre
environnement. Les mécanismes de la perception apparaissent comme
quelque chose de si simple et naturel qu’il peut sembler qu’il ne soit pas la
peine d’y réfléchir plus avant. En fait, elle résulte d’un ensemble de
procédés complexes, dynamiques et inter-reliés. Nous sentons d’ailleurs
intuitivement très consciemment son importance et sa complexité car
nous réagissons typiquement très violemment contre une remise en cause
ou une mise en doute de notre façon de percevoir ce qui nous entoure.
Un certain nombre de débats théoriques traversent la notion de
perception, fondamentale en psychologie, dans lesquels nous n’entrerons
pas107. Les définitions d’ailleurs diffèrent et il n’y a pas d’accord sur elles. De
manière simplifiée, la perception est la façon dont nous établissons un lien
avec notre environnement. Pour donner une idée de la complexité et de
l’importance du processus, nous retenons l’approche de la psychologie de
la forme (Gestalt)108.
Nous relevons d’abord que la perception n’est jamais objective, et que
ce que nous appelons percevoir est en fait une interprétation dans notre
cerveau, qui donne un sens aux messages reçus du monde extérieur par
notre système nerveux. Il ne s’agit pas d’un processus passif de réception
et d’enregistrement de ce qui existe, mais une interaction de trois
éléments actifs : sélection, structuration, interprétation, qui agissent
instantanément, au-delà du conscient de façon liée et inséparable.
L’idée de sélection implique que nous ne pouvons à aucun moment
percevoir plus d’une fraction minime des signaux qui nous entourent et qui
nous sont accessibles. Le fait que nous prêtions attention à certains et non
à d’autres n’est pas dû au hasard, mais dépend des caractéristiques de ces
signaux et de nous-mêmes.
Parallèlement à la sélection, se produit la structuration, de façon non
pas indépendante mais simultanée. Ceci signifie que nous percevons un
ensemble, des formes (Gestalt), et non pas des éléments isolés
éventuellement assemblés ensuite. Notre perception est organisée et les
éléments sélectionnés sont vus comme faisant partie d’un tout. Chaque
objet sélectionné fait partie d’un ensemble qui l’influence et qu’il influence
lui-même en retour.
Toujours en même temps que les éléments précédents se produit
l’interprétation, tout aussi inconsciente, instantanée et inévitable. Donc,
elle doit être distinguée d’un autre type d’interprétation, consciente et
réfléchie qui, elle, pourra d’ailleurs prendre place ou non, mais, en tout
état de cause, plus tard, après que le processus de perception se soit
déroulé. En effet, les formes ou structures évoquées prennent
immédiatement un sens, sont instantanément dotées par notre cerveau
d’une signification.
La conclusion inévitable est qu’au sens le plus simple, en fonction de la
façon dont ces mécanismes opèrent, chacun, dans son cas, perçoit au
niveau le plus immédiat un monde plus ou moins différent de celui que
voit son voisin. L’idée simpliste d’un monde donné et intangible est ici
remise en cause. Chacun perçoit le monde différemment et la
conséquence immédiate en est qu’il n’y a aucune raison a priori, que dans
des circonstances similaires, des personnes différentes perçoivent
l’environnement de façon identique et se comportent de manière
semblable.

2.2. Les heuristiques cognitifs


Le point de départ des travaux, menés en psychologie cognitive, sur les
heuristiques cognitifs, se trouve dans les travaux sur la décision en
situation d’incertitude de Kahneman, Slovic et Tversky109.
Ceux-ci confirment le fait que tout individu, placé dans une situation
d’incertitude où il doit prendre une décision, n’adopte pas un
comportement maximisateur et synoptique, ainsi que cela a été montré
par Simon. Ils confortent aussi le mécanisme de la rationalité limitée
procédurale, selon lequel l’individu va interagir avec la situation qu’il
confronte. Pour pouvoir arriver à une décision, il va construire, activement
même si c’est involontairement, une définition simplifiée de la situation.
Ce sont les éléments essentiels de cette construction qui vont être définis
ici dans le cadre de ce courant théorique afin d’aller plus loin.
Il s’agit du jeu d’une série « d’heuristiques cognitifs », c’est-à-dire de
mécanismes systématiques de simplification et d’appréhension de la
réalité. Indiscutablement ces mécanismes sont indispensables, sans eux le
traitement dans chaque cas des circonstances, environnement,
conséquence complexes qui entourent même la plus simple décision la
rendrait impossible. Mais ces mécanismes qui permettent de simplifier
pour mieux appréhender et comprendre la réalité, par là même la
réduisent. De ce fait, ils peuvent être sources d’erreur. Il est donc
indispensable de les appliquer, mais à bon escient, c’est-à-dire en étant
conscients qu’il s’agit bien de mécanismes simplificateurs et que des
conceptions erronées peuvent en découler.
Le premier heuristique cognitif, et sans doute le principal, est celui de
la disponibilité. Il agit de sorte qu’un individu juge de la fréquence
probable de survenance d’un événement en fonction de sa disponibilité
dans sa mémoire et non pas de la réalité telle qu’elle s’est produite dans le
passé. Donc un événement dont on se souvient plus facilement que ce
qu’il s’est produit semblera et donnera l’impression de se produire plus
souvent qu’un événement à la fréquence réellement égale ou même
inférieure mais dont les fois où il s’est produit viennent moins facilement à
la mémoire. Les jugements de probabilité future d’un événement sont
basés sur la disponibilité en mémoire des occasions où il s’est produit. D’un
côté, certes, l’on se rappelle plus facilement d’événements qui se sont
produits souvent que de ceux qui se sont produits rarement. Mais,
cependant, des événements évoqués plus facilement à la mémoire
apparaîtront plus fréquents qu’ils ne sont en réalité, et plus fréquents que
des événements tout aussi ou même plus fréquents mais moins facilement
évoqués.
Quelques exemples peuvent illustrer ce mécanisme. Ainsi, des listes de
noms de personnalités connues sont lues à des individus. Elles contiennent
des noms d’hommes et de femmes et il leur est demandé de dire quel sexe
est le plus représenté dans la liste. Un groupe s’entend lire plus de noms
d’hommes que de femmes mais les femmes sont comparativement plus
célèbres et l’inverse se produit pour l’autre groupe. Dans les deux cas, les
sujets vont annoncer à tort que le sexe où les personnalités étaient en
nombre inférieur, mais plus connues, était le plus fortement représenté.
Nous tendons aussi à surestimer la survenance d’événements
improbables si les souvenirs d’occasions où ces événements se sont
produits sont particulièrement frappants et qui nous ont provoqués une
réaction affective forte. Par exemple être témoin d’une maison qui brûle
ou d’un accident d’avion accroît l’estimation des probabilités futures
subjectives d’un tel événement par rapport aux individus qui lisent des
compte-rendu de ces événements dans le journal.
La facilité à retrouver un événement dans sa mémoire va en
conséquence accroître positivement l’estimation de sa probabilité de
survenance future pour le sujet, soit parce qu’il était particulièrement
frappant dans la manière dont il est survenu, soit parce qu’il est très
récent.
La disponibilité de l’information, passée et présente joue un rôle
important dans l’évaluation des alternatives par le décideur, qui devrait
idéalement être à même de tirer parti de son expérience passée et
d’analyser l’information disponible pour estimer les conséquences de ses
actions potentielles. Mais toutes ses expériences passées ne sont pas
stockées dans sa mémoire de façon identique et il ne s’en souvient pas de
la même manière.
Le second heuristique est celui de l’encadrement. Il explique, que les
individus tendent à éviter les risques quand ils sont confrontés à la
possibilité de gains potentiels, et à l’inverse, tendent à prendre des risques
quand ils sont confrontés à la possibilité de pertes potentielles.
L’impact de l’heuristique cognitif de l’encadrement, se fait sentir lors de
l’évaluation des branches d’une alternative, vis-à-vis d’un point de
référence, quel qu’il soit, en termes de gains ou de pertes. On tendra à
éviter les risques si on a l’impression d’évaluer des gains potentiels et au
contraire à prendre des risques si on a l’impression d’évaluer des pertes
potentielles. L’aversion au risque va pousser à accepter une offre faite, la
propension au risque à la refuser en en espérant une meilleure dans le
futur.
Le troisième heuristique est l’ancrage. Celui-ci correspond au fait que
les individus estiment les valeurs accordées à des objets ou des
événements inconnus par rapport à une valeur initiale qu’ils lui accordent,
dite d’ancrage, et ajustent leur choix d’une valeur finale par rapport à cet
ancrage.
Un aspect essentiel en est que l’ancrage est généralement basé sur
l’information disponible quelle qu’elle soit, de nature pertinente ou non.
Un point de référence va donc être arbitrairement fixé, en fonction de ce
qui se présente au hasard comme éléments d’information et va influencer
significativement l’estimation d’une valeur et cette estimation ne s’écartera
pas significativement du point initial arbitraire.
Un mécanisme d’auto-confirmation entraîne que, quand nous tenons
pour acquises certaines croyances ou idées, nous avons tendance à ignorer
l’information qui va à leur encontre et rechercher l’information qui les
confirme.
L’illusion de contrôle personnel sur les événements se développe de
même en raison de la façon dont nous recueillons l’information. Nous
cherchons constamment à contrôler ce qui se déroule dans notre
environnement, à juste titre d’ailleurs car son incertitude nous inquiète.
Par ailleurs nous formons des hypothèses sur l’effet de nos actions sur ce
qui se produit et ce qu’elles produisent. En conséquence, nous
recherchons seulement l’information confirmatoire. L’auto-confirmation
s’en trouve renforcée, nous rassemblons de l’information jusqu’à ce qu’elle
justifie un choix préféré arrêté à l’avance. Après nous ne continuons plus à
en rechercher. Cela nous permet de croire que ce que nous voulons
vraiment est supporté par les faits.
Le quatrième heuristique cognitif est sans doute l’excès de confiance
en soi. Les individus confrontés à une décision montrent généralement une
confiance excessive et injustifiée dans leurs capacités de jugement.
L’excès de confiance dans la qualité de ses réponses par un individu est
le plus marqué quand les questions sont d’une difficulté modérée à
extrême. L’individu ne baisse pas corrélativement son niveau de confiance
en ses connaissances et/ou capacités avec la difficulté.
De plus l’excès de confiance en soi est sans doute lié à
l’autoconfirmation et à la disponibilité, ce qui nous entraîne au
conservatisme : nous avons beaucoup de mal à réviser nos prévisions sur la
base d’informations nouvelles et contradictoires à ce que nous croyons et
nous avons tendance à ignorer les informations contraires à ce que nous
tenons pour acquis. De même nous puisons systématiquement nos
informations aux mêmes sources.
De plus, les individus ont aussi tendance à établir des corrélations
illusoires, c’est à-dire qu’ils surestiment la probabilité qu’ont deux
événements de se produire simultanément. Ils croient souvent que des
variables sont reliées alors qu’elles varient au hasard. Ceci surtout si cette
corrélation correspond à certains de leurs stéréotypes. A l’inverse quand
les événements sont totalement indépendants, dans les processus
aléatoires, nous minimisons les chances de regroupement.
Par conséquent, les « heuristiques cognitifs » correspondent à des
mécanismes systématiques de simplification de la réalité. Ces heuristiques
cognitifs, permettent à l’individu de comprendre une réalité trop complexe
à appréhender de manière absolue, mais en même temps réduisent et
simplifient cette réalité, ce qui peut également être source d’erreurs (c’est
à dire de perception erronée d’une situation).
Notons que Khaneman110, prix Nobel d’économie en 2002, poursuivra
ses travaux afin de distinguer deux manières de raisonner, qu’il appelle les
systèmes 1 et 2.
Le système 1 fonctionne automatiquement et rapidement avec peu ou
pas d’effort et aucune sensation de contrôle délibéré. Il est intuitif et sans
effort. Il est automatique et permet de gérer des situations comme :
• Détecter un objet plus éloigné qu’un autre.
• S’orienter vers la source d’un bruit soudain.
• Résoudre 2 + 2.
• Lire des mots sur un grand panneau d’affichage.

Le système 2 accorde de l’attention aux activités mentales


contraignantes qui le nécessitent. Il nécessite une forte concentration et
permet de traiter des situations comme :
• Se concentrer sur la voix d’une personne particulière dans une salle
comble et bruyante.
• Compter le nombre de fois où la lettre A apparaît dans un texte.
• Vérifier la validité d’un argument logique complexe.

Khaneman montre que le système 2 est généralement mobilisé lorsque


l’on rencontre une question à laquelle le système 1 n’a pas de réponse.

2.3. Boudon et les erreurs de cadre


Raymond Boudon111 (1934-2013) dans un ouvrage intitulé « L’art de se
persuader des idées douteuses, fragiles ou fausses », attire l’attention sur
les erreurs de cadre, qui expliquent également un certain nombre de
mécanismes qui limitent la rationalité.
L’erreur de cadre peut se résumer comme suit : les idées les plus
fausses peuvent être basées sur les meilleures raisons et découler d’une
argumentation objectivement valide. Ceci se produit pour un ensemble de
raisons nombreuses et complexes que nous ne pouvons pas développer ici
de manière détaillée et dont nous ne donnons ici qu’un aperçu partiel.
Une des raisons, parmi d’autres, tient au fait qu’un principe très
généralement valide, et tenu pour tel par la plupart des gens, peut-être
appliqué à une situation pour laquelle, exceptionnellement, il n’est pas
pertinent. L’argumentation est objectivement bonne. Les raisons sur
lesquelles elle est basée, au moins pour certaines, sont objectivement
bonnes, mais pour une autre parmi celles-ci, subjectivement bonne et
objectivement mauvaise. Des propositions, ou des a priori implicites,
objectivement valides dans la plupart des cas et tenus par tous comme
allant de soi, mais par exception ne s’appliquant pas à la situation précise,
sans qu’il soit possible de le démasquer, viennent s’y glisser. Ce processus
peut être conscient ou semi-conscient.
Une autre raison tient à ce que l’on a tendance à considérer qu’il y a
une réponse unique à une question et que l’on a tendance à éviter de
penser soit qu’il n’y a pas de réponse, soit qu’il y en a plusieurs, voire une
infinité.
Boudon donne de très nombreux exemples et anecdotes pour
expliquer les erreurs de cadre. Nous n’en retenons qu’une ici à titre
d’illustration, celle des « deux trains et de la mouche ».
L’exemple s’énonce ainsi : « deux trains immatériels partent
simultanément, le premier d’un point O, le second d’un point P, et se
dirigent l’un vers l’autre à vitesse constante. Un insecte, également
immatériel – une mouche – plus rapide que les trains, part en même temps
que le premier train du point O et saute continuellement de l’un à l’autre.
Les trains se rencontrent au point R. Comme il s’agit de trains immatériels,
il n’en résulte aucun dégât. »
La question posée est alors la suivante : où se trouve la mouche lorsque
les deux trains se rencontrent ?
La réponse fournie par les individus est en générale bonne, à savoir en
R.
Puis les deux trains repartent dans la direction de leur point de départ :
le train A vers O, le train B vers P. Ils ne se sont d’ailleurs pas arrêtés en R.
La mouche, de son côté, a continué son manège, sautant de l’un à l’autre.
La question posée est alors la suivante : où se trouve maintenant la
mouche, lorsque les deux trains atteignent leur point de départ, à savoir se
situent respectivement en O et en P ?
Boudon observe qu’un certain nombre de réponses à cette question
sont erronées, tout en se basant sur des raisonnements logiques
subjectivement bons. Ainsi, nombre de personnes répondent soit en O,
soit en R soit en P. La réponse est en réalité qu’elle peut se trouver
n’importe où. Si l’on se trompe, cela est lié au fait que l’on a une tendance
naturelle, à considérer qu’il y a une seule réponse possible à une question,
alors qu’ici il y a une infinité de possibilités.
Ceci n’est bien entendu qu’un exemple d’erreurs de cadre et il existe
bien d’autres mécanismes qui expliquent que malgré des raisonnements
logiques et cohérents, l’on peut croire à quelque chose qui s’avère être en
réalité faux.
Par conséquent, l’idée simpliste d’un monde donné et intangible est
remise en cause ici, comme l’anticipait la rationalité limitée procédurale
décrite précédemment. Non seulement il n’est pas donné, mais il n’est pas
séparé des méthodes et moyens par lesquels les individus le connaissent.
2.4. Les mécanismes d’influence et les normes sociales
On trouve en psychologie sociale et en psychologie expérimentale un
ensemble d’études sur les mécanismes d’influence et les normes sociales.
Leurs effets pratiques ont été mis en évidence en particulier dans un
ouvrage de Cialdini112 qui en expose clairement les apports.
A l’origine, l’idée sous-jacente repose sur le fait que, chez les animaux,
certains comportements se déclenchent automatiquement en présence de
stimuli précis. Ces stimuli sont fonctionnels, en général, mais peuvent être
imités et détournés de leur sens.
Chez l’homme, la situation est plus complexe, elle résulte, suivant
Cialdini de causes sociales et non biologiques. Il y a beaucoup moins
d’automaticité mécanique, mais le système stimulus-réponse existe
néanmoins. Seulement, d’une part, il ne se produit pas automatiquement à
chaque occasion, d’autre part, plusieurs stimuli en sens contraire peuvent
coexister. Au niveau de l’individu, nous n’avons aucun moyen de savoir
quand l’un des mécanismes ou son opposé va se déclencher. Quand l’un
opère nous pouvons immédiatement le reconnaître et l’expliquer ainsi que
le comportement qu’il génère, mais il est beaucoup plus difficile de prévoir
quand il va opérer, car les individus ne se comportent pas de façon rigide
et stéréotypée. Cependant, si les circonstances favorables sont créées pour
le faciliter, il y a beaucoup de chances pour qu’un mécanisme se mette en
jeu et qu’un tel comportement stimulus/réponse se déclenche. Or,
certaines tactiques et stratégies de manipulation en tirent avantage. Il est
donc possible pour certains de créer un environnement ou des
circonstances telles que, dans la plupart des cas, pour la plupart des gens
(mais pas forcément pour tous non plus) les mécanismes vont opérer dans
le sens voulu sur un sujet non prévenu. Cela conduit à des mécanismes
d’influence, qui peuvent être dangereux car certains peuvent les utiliser à
notre insu et à leur profit.
Les raisons de ces comportements font l’objet de plusieurs théories.
Pour Cialdini, les causes sont liées aux normes sociales.
Le mécanisme de la réciprocité113 trouve sa source dans la norme de
payer de retour les avantages reçus d’autrui. Il est profondément ancré en
nous. Utile socialement car il crée le tissu d’obligations réciproques qui
aide à la vie en société, il justifie aussi les sanctions sociales contre les «
ingrats et profiteurs » qui prennent sans donner en retour. Cependant, il
ouvre aussi la porte aux méthodes d’influence cachées du don forcé, de
l’échange inéquitable, et de concessions réciproques déséquilibrées. Elle
peut consister, par exemple, pour un vendeur à conseiller de ne pas
acheter le produit le plus cher du catalogue, après en avoir fait longuement
les éloges. Ce faisant, l’acheteur va être influencé à accepter une offre,
alors qu’il l’aurait probablement plus discutée, s’il n’avait pas le sentiment
d’avoir « gagné » quelque chose par rapport à l’offre initiale. Cialdini note
que cette tactique ne laisse pas de ressentiment car le client a l’impression
d’avoir fait changer d’avis le vendeur et donc de lui devoir quelque chose.
Les mécanismes de la cohérence sont généralement basés sur l’idée de
dissonance cognitive114 selon laquelle les individus recherchent la
cohérence cognitive, c’est-à-dire que leurs cognitions soient en équilibre.
Quand il y a conflit entre des éléments cognitifs pour un individu, par
exemple croyance et perception, il est difficilement supportable et
l’individu cherche à résoudre ce conflit et éliminer la dissonance. Une des
possibilités de solution est évidemment de changer soit les croyances, soit
l’image de soi.
Un autre mécanisme réside en la norme de la cohérence, c’est-à-dire la
nécessité de paraître cohérents dans notre comportement. Ainsi, dès que
nous avons pris position ou opté pour une certaine attitude, exercé un
choix, nous nous trouvons sous le poids de pressions extérieures ou
intérieures qui nous maintiennent dans la ligne de notre attitude
précédemment choisie et et nous incitent à justifier notre choix.
Nous cherchons à projeter une image responsable, éthique, équitable
aux yeux des autres, d’où il découle d’ailleurs un conflit quand cela est
contraire à notre intérêt direct, ce qui amène à constater un
comportement différent de l’individu en présence de témoins et hors cette
présence.
Une expérience relatée par Cialdini se déroule autour de la queue,
dans une bibliothèque universitaire, à la photocopieuse. La phrase «
Pardon je n’ai que cinq pages, est-ce que je peux prendre la machine »
entraîne 60 % de oui de la part de ceux à qui l’on cherche à prendre leur
tour. Avec une formulation additionnelle « parce que je suis pressée » le
résultat monte à 94 % de « oui », mais avec une autre formulation
additionnelle « parce qu’il faut que je fasse des photocopies » (ce qui n’est
pas un argument, puisque c’est le cas de tous ceux qui font la queue à la
photocopieuse) l’on obtient des résultats identiques. Ce qui signifie que
pour obtenir quelque chose, il vaut mieux fournir une raison quelle qu’elle
soit. Les individus préfèrent avoir une raison pour faire ce qu’ils font, et
paraître agir pour une bonne raison, surtout devant des tiers. Ce qui
compte n’est pas le contenu de la raison, valable ou non, mais l’existence
de cette raison, le déclencheur est « parce que », pas la raison alléguée qui
suit.
La cohérence est socialement valorisée car garantissant une stabilité
dans les comportements. Mais, la cohérence peut aussi être facilement
utilisée tactiquement, pour créer un mécanisme d’influence. En effet, la
cohérence fait que, une fois poussé à un engagement, un individu va être
porté à le tenir. Un engagement obtenu de quelqu’un est un excellent
déclencheur du mécanisme de cohérence. Une petite requête une fois
acceptée (par exemple signer une pétition) ouvre la porte à accepter une
requête beaucoup plus considérable pour la même cause, ou une cause de
même type, car la première requête a entraîné une action qui amène les
individus à modifier leur opinion sur eux-mêmes par souci de cohérence.
Un premier moyen de renforcement de ce mécanisme est le caractère
public de l’engagement, d’abord en indiquant implicitement les
comportements que les autres attendent de celui qui s’est engagé, ensuite
parce que le principe de cohérence est renforcé lui-même : une position
prise publiquement est beaucoup plus difficile à désavouer, cela
modifierait notre image de cohérence, valorisée par nous-mêmes et la
société, aux yeux des autres. L’individu non seulement se comportera tout
naturellement de lui-même dans ce qu’implique à ses yeux son nouveau
personnage, mais de plus, son environnement l’y poussera.
Évidemment nombre de tactiques d’influence vont découler de ce
mécanisme telle que celle de proposer un avantage qui produit une
décision d’achat (rabais, gain accessoire), le renforcer ensuite (prêt, essai
gratuit), puis après un délai, avant la signature du contrat retirer l’avantage,
le client se sera alors créé entre-temps d’autres raisons pour cet achat et
maintiendra sa décision d’achat même après le retrait de la raison d’achat
initiale.
Le mécanisme de la preuve sociale repose lui sur le fait que, dans
l’incertitude, pour déterminer le comportement à tenir, l’individu cherche
à découvrir ce que les autres pensent être bien. Le fait qu’un grand
nombre de gens fassent quelque chose nous porte à croire que c’est la
chose à faire, même si après, pour d’autres raisons nous choisissons d’agir
de façon différente. Il fonctionne mieux dans l’incertitude ou l’ambiguïté.
Quand une situation est très ambiguë, il y a une possibilité d’ignorance
collective, c’est-à-dire que tous les individus présents sont à la recherche
de preuve sociale. Le principe de la preuve sociale fonctionne mieux
lorsque nous observons le comportement de gens qui nous sont très
semblables. En matière commerciale des exemples en sont certaines
publicités sous la forme de « radio trottoir ».
Le mécanisme de la sympathie fait que nous accédons plus volontiers
aux requêtes des personnes qui nous sont connues et sympathiques. La
sympathie elle-même se base souvent sur la similarité : nous préférons ce
qui nous ressemble (opinions, personnalité, milieu ou mode de vie). Les
exemples commerciaux en sont fréquents. Notamment, nous faisons des
associations positives avec les personnes pour lesquelles nous avons de la
sympathie (publicité faisant intervenir des célébrités qui nous sont
sympathiques).
Enfin, existent les mécanismes de l’autorité (quand une autorité
légitime a parlé, la discussion n’est plus de mise, parfois le bon sens non
plus, car nous en percevons les symboles et non toujours sa réalité) et de
la rareté (on trouve plus désirable ce qui apparaît comme disponible pour
peu de temps ou en faible quantité, ou ce qui ne l’est soudainement plus).
L’ensemble de ces mécanismes, et d’autres, contribuent à expliquer les
diverses limites à la rationalité qui influencent la prise de décision. Cela ne
signifie pas que les décisions soient irrationnelles, pour autant, dans la
mesure où un processus logique conduit l’individu à sélectionner
l’alternative qui a sa préférence, parmi les différentes alternatives qui se
présentent à son esprit, mais sa rationalité comporte de nombreuses
limites, biais et est soumise à des mécanismes d’influence.
Nous abordons maintenant un ensemble de théories qui permettent de
mieux comprendre la prise de décision au sein des organisations.

3. La théorie décisionnelle de l’organisation


En intégrant la rationalité limitée des individus, March et Simon115
construisent un modèle de l’organisation que nous qualifions de théorie
décisionnelle de l’organisation. Leur objectif est de présenter une théorie
formalisée, sous forme de relations entre variables, des organisations.
Un postulat de base de leur analyse est que les organisations sont des
assemblages d’individus qui interagissent. De cette constatation découlent
implicitement deux conclusions. D’une part, ce qu’une organisation
accomplit est accompli par des individus. D’autre part, le comportement
des individus dans l’organisation est différent de ce qu’il serait hors de
l’organisation. Il est encadré, dirigé, coordonné et modifié par
l’organisation. Il s’ensuit que les organisations sont considérées comme des
systèmes de comportements sociaux inter-reliés d’individus qui participent
à l’organisation.

3.1. Participation des individus aux organisations


Les individus décident de participer ou non à l’organisation en fonction
d’un schéma incitations/contributions. Ils contribuent et continuent à
contribuer tant que, dans les termes de leurs valeurs propres et en
fonction des branches d’alternatives potentielles qui leur sont ouvertes, la
somme des incitations qu’ils reçoivent égale ou excède la somme de leurs
contributions.
Les contributions des participants sont la source à partir de laquelle
sont produites les incitations offertes par l’organisation.
Une organisation est solvable et continue à exister tant que les
contributions seront suffisantes pour offrir des incitations en quantité
suffisante pour attirer ces mêmes contributions.
Il est donc clair que les buts de l’organisation et/ou de ceux qui la
dirigent, et aussi de ceux qui y participent n’ont pas à être similaires ni
même compatibles. L’organisation fonctionnera tant que les buts des
membres seront satisfaits par les rétributions qu’elle leur apportera en
fonction des contributions qu’ils lui apportent.
Par ailleurs, incitations et contributions sont mesurables en termes de
fonctions d’utilité pour l’individu concerné, mais, pour la mesure des
contributions vient s’ajouter la notion de coûts d’opportunité. Le départ de
l’organisation est fonction certes des insatisfactions (incitations inférieures
aux contributions) mais aussi et tout autant des branches d’alternatives
ouvertes relativement aux activités actuelles (incitations externes pour
l’entrée). Les raisons d’entrer dans l’organisation et d’y rester ou d’en partir
sont donc bien différentes de celles qui amènent l’individu (et notamment
le salarié dans le cas particulier de l’entreprise) à avoir une performance
satisfaisante quand il y est intégré. Bien entendu, incitations et
contributions doivent se concevoir tant en termes matériels (salaire d’un
côté et compétence et effort de l’autre), qu’en termes immatériels (statut,
intérêt intrinsèque du travail, valorisation, estime de soi d’un côté et
discipline et subordination de l’autre).
Les raisons de l’individu à produire au niveau demandé par
l’organisation dépend :
• Des alternatives perçues au moment de la décision de produire au
niveau exigé.
• De leurs conséquences.
• Des buts de l’individu.
En ce qui concerne les décisions de rejoindre l’organisation et d’y rester
ou non, un autre facteur additionnel vient opérer sous la forme des
branches d’alternatives ouvertes hors l’organisation. Là aussi sont passés
en revue les facteurs qui affectent les composants de la désirabilité de
quitter l’organisation et de la facilité de mouvement.
Il va se produire des conflits intra-individuels (inacceptabilité,
incomparabilité, incertitude des branches d’alternatives évoquées) ou
interindividuels et intra-organisationnels (différents individus et/ou
groupes préfèrent différentes branches d’alternatives). Dans cette dernière
hypothèse, il n’y a plus de conflit intra-individuel généralisé, un besoin
émerge pour des décisions communes fonction d’une dépendance
mutuelle sur une ressource limitée. Des différences entre les buts et les
perceptions mutuelles des individus émergent. L’organisation réagit à ses
conflits soit en mode analytique (résolution de problème et persuasion,
qui impliquent soit des buts communs soit des buts pouvant être changés
et/ou se rejoignant à un niveau plus élevé), soit en mode de négociation
(négociation et politique qui impliquent ou non le partage d’un code de
règles). Les processus analytiques prévalent en cas de conflits intra-
individuels et les processus de négociation en cas de conflits inter-
individuels.
Par conséquent, il est clair que les buts de l’organisation et ceux des
individus qui y participent n’ont pas à être similaires ni même compatibles.
Elle fonctionnera tant que la somme des contributions sera supérieure à
celle des incitations.

3.2. L’influence de l’organisation sur ses membres


L’organisation est loin d’être désarmée devant le conflit potentiel entre
ses buts et ceux de ses membres. Tout un ensemble de mécanismes
d’influence peut être développé pour inciter certains membres (selon leurs
contributions) à rester au sein des organisations où à la quitter.
L’organisation veillera d’abord à s’attacher des membres dont les
valeurs initiales et les objectifs, qu’elle influencera éventuellement par la
suite, sont compatibles avec ceux impliqués dans ses buts.
Par ailleurs, une fois présents, l’organisation peut influencer les valeurs
de ses membres par des moyens simples, tels un système affiché de
récompenses et de sanctions, un règlement intérieur, des renforcements
positifs et négatifs sous forme de sanctions, d’augmentations de salaires,
de promotions, etc.
A ce code explicite de comportement, écrit ou non, vient se superposer
un code non écrit et implicite. Son contenu est variable et peut inclure le
code vestimentaire, les habitudes et horaires de travail, les attitudes à
l’égard des pairs, subordonnés et supérieurs et autres.
L’organisation peut aussi tenter de contrôler, en partie au moins, non
plus les buts de ses membres, dont elle cherchait à influencer directement
les décisions dans le cadre de leur rationalité limitée, mais les limites
mêmes de cette rationalité. En d’autres termes, elle n’influence plus les
décisions ou choix et les paramètres qui contrôlent ces choix, mais le fait
que les membres de l’organisation voient des choix à exercer et des
décisions à prendre ou non. De même ce contrôle des paramètres amène
l’individu à prendre de lui-même de façon autonome des décisions
conformes aux buts de l’organisation. C’est sur les prémisses des décisions
plus que sur les décisions elles-mêmes que portent les moyens d’influence.
L’organisation assure la coordination des activités de ses membres,
donc, les moyens de s’assurer que les décisions des membres suivent les
buts de l’organisation qui comprennent d’abord ceux qui suivent :
• La division du travail, la spécialisation des activités, l’encadrement
matériel et immatériel des rôles incluant chacun dans un
environnement, de manière à ce que son attention soit dirigée vers un
ensemble d’éléments particuliers avant ou à l’exclusion des autres.
• Une canalisation du comportement par des orientations de l’attention,
des programmes d’action préétablis, des routines de traitement des
activités et informations et des déclencheurs de programmes d’action
qui limitent le champ des choix dans les situations récurrentes, dans le
cadre de chaque poste préalablement défini. Programmes qui ne sont
d’ailleurs pas forcément rigides et qui peuvent être adaptatifs en
fonction des stimuli de l’environnement.
Les organisations contrôlent ainsi le processus de prise de décision
ainsi que les bases cognitives sur lesquelles ces décisions sont prises, et
ainsi les orientent.
En résumé, et de façon plus opérationnelle :
• Chaque membre de l’organisation en contact avec les autres est amené
à se former des attitudes stables sur leur comportement et le
comportement attendu de lui dans des conditions spécifiques,
connues, identifiables.
• Des stimuli sont produits qui dirigent l’attention des occupants des
rôles sur certains points, l’écartent de certains autres et canalisent ainsi
le comportement.
• Un espace restreint de stimuli encadre les perceptions en fonction de
la position dans l’organisation, constituant l’espace organisationnel et
réduisant la gamme des comportements disponibles.
• Le contenu de l’information est simplifié, standardisé et orienté.
• Les canaux internes à travers lesquels l’information circule assurent sa
dissémination et distribution sélective vers ceux des membres dont le
comportement doit être guidé dans la direction où elle va les porter.

Les décisions des membres de l’organisation (et notamment des


salariés de l’entreprise) sont donc influencées, soit en leur imposant des
décisions prises ailleurs dans l’organisation, mais qu’ils sont amenés à
considérer comme tombant dans leur zone d’indifférence, soit en agissant
sur ce qu’ils doivent considérer comme leur zone d’indifférence, soit en
créant un état de loyauté organisationnel, soit enfin en établissant chez
l’individu lui-même des attitudes, habitudes, états d’esprit qui le
conduisent à prendre de luimême des décisions dans le sens souhaitable
pour l’organisation.
Les jugements de fait sont aussi influencés par la conception des
critères d’efficacité, des critères d’efficience et des standards pour
l’accomplissement des tâches. Ceux-ci sont fonction de paramètres qui
sont ainsi élaborés largement sur des bases internes. La mission et le rôle
de l’organisation, ce qui est considéré comme une bonne performance ou
non en viennent à être produits en interne, et non sur des critères
externes issus de l’environnement.

4. La théorie comportementale de la firme


Cyert et March116 se penchent sur le problème de la prise des décisions
importantes dans les entreprises, catégorie particulière d’organisations, en
retenant l’hypothèse de rationalité limitée de ses membres.
Les organisations sont définies comme des coalitions d’individus dont
certains sont organisés en sous-coalitions et dont les frontières sont
fluctuantes. Pour un type de décision donné, à un moment donné, parmi
les membres inclus par la configuration qu’elle entraîne, des coalitions vont
se former, dont l’une sera dominante. Pour des décisions différentes, des
coalitions différentes se forment, ainsi que pour une même décision, mais
à des moments différents dans le temps. Cependant, pour certaines classes
de décisions sur des périodes assez longues il est possible de déterminer
en termes généraux les principales catégories de membres pertinents des
coalitions.
L’équivalent des buts de l’organisation est constitué des buts que s’est
assigné une coalition qui se retrouve dans une position majoritaire et
dominante. Les objectifs de ces coalitions d’individus et de groupes et
souscoalitions se sont eux-mêmes formés à travers des négociations entre
eux, dans et hors l’organisation (y compris dans certaines configurations,
clients, fournisseurs, syndicats, pouvoirs publics, etc.), où chacun cherche à
faire prévaloir ses propres objectifs et s’assure que ses incitations
dépassent ou au moins égalent ses contributions en obtenant des
paiements en termes monétaires, ou non, en échange de sa participation à
la coalition. Ces engagements de paiements deviennent eux-mêmes des
contraintes sur les buts organisationnels et les décisions futures dans
l’organisation. Dans ce processus de négociation des paiements entre les
membres des coalitions, les buts ou objectifs de l’organisation se trouvent
définis et clarifiés.
Les coalitions ne changent que lentement. Une coalition sera viable et
stable tant que les paiements faits à ses membres sont suffisants pour les y
maintenir et qu’ils continuent leurs contributions à un niveau suffisant.
Dans ce contexte, Cyert et March mettent en évidence d’une part
l’existence d’un slack organisationnel et d’autre part 4 principes
fondamentaux du fonctionnement des organisations qui sont la
quasirésolution des conflits, l’évitement de l’incertitude, la recherche de
solutions en termes de problèmes et l’apprentissage organisationnel.

4.1. Le slack organisationnel


En rationalité limitée, l’individu agit en fonction d’un niveau de
satisfaction minimum, compte tenu d’un mécanisme de simplification de la
réalité. Dans ce cadre, les niveaux d’aspiration ont tendance à augmenter
lentement. De ce fait, le niveau d’aspiration va avoir tendance à excéder
légèrement le résultat, ou le paiement reçu. C’est-à-dire que le niveau de
performance jugée satisfaisante, va la plupart du temps (et sauf exception)
se situer assez près au-dessus du niveau de performance accompli
récemment.
Une tendance générale fait que les niveaux d’aspiration ont tendance à
augmenter lentement d’eux-mêmes mais, à long terme, les niveaux
d’aspiration, supérieurs en état stable, tendent à s’ajuster au résultat. De
même, à long terme, les niveaux d’aspiration ajustent les attentes aux
paiements, c’est-à-dire les contributions aux incitations et aux alternatives
disponibles hors l’organisation.
Mais, à court terme, il y a le plus souvent plus de ressources
disponibles pour l’organisation que le montant des paiements nécessaires
pour maintenir la coalition. Il existe donc un surplus, appelé « slack »
organisationnel qui est attribué hors négociation à certains membres de la
coalition en excès de ce qui serait nécessaire pour qu’ils y restent. Tout
participant à l’organisation obtient du slack de temps en temps mais pas
également pour chacun.
Bien qu’il ne soit nullement créé délibérément, ce « slack
organisationnel » a un effet positif pour la firme. En période de croissance,
il retarde l’ajustement des niveaux d’aspiration vers le haut en absorbant
les ressources en excès des attentes. En période difficile, il fournit une
réserve de ressources qui permet de faire face à l’adversité et de maintenir
les niveaux d’aspiration.

4.2. Les principes de fonctionnement de l’organisation


La théorie comportementale de la firme de Cyert et March repose sur
quatre concepts fondamentaux qui sont : la quasi-résolution des conflits,
l’évitement de l’incertitude, la recherche de solutions en termes de
problèmes et l’apprentissage organisationnel.

4.2.1. La quasi-résolution des conflits


Le premier de ces concepts est celui de quasi-résolution des conflits. La
plupart des organisations, la plupart du temps, existent et prospèrent
malgré de considérables conflits d’objectifs latents.
Pour résoudre ces conflits, la rationalité locale prévaut. L’organisation
réduit ses problèmes de décision en sous-problèmes qu’elle adresse à ses
subdivisions ou unités internes. Chaque unité traite son problème et prend
la décision à son niveau (ventes, production, achat...). À travers cette
délégation et cette spécialisation, l’organisation réduit une situation
présentant des problèmes complexes inter-reliés avec des buts
contradictoires en une série de problèmes simples. Les conflits sont
vraiment « résolus », ou non, selon que les décisions générées par ce
système sont cohérentes entre elles et avec les demandes de
l’environnement extérieur. Cela est facilité par le fait que les règles de
décision ne réclament pas une optimisation globale résultant de la
composition des optimisations locales par chaque unité à son niveau, mais
fixent des niveaux « acceptables » pour la décision. Nous retrouverons ici
le concept de rationalité limitée. Chaque unité va simplement chercher à
satisfaire des critères minimums ce qui permettra de rester cohérent avec
un niveau minimum de satisfaction globale au niveau de l’organisation.
Ceci serait impossible avec un comportement maximisateur. De plus, un tel
processus de décision « sous-exploite » l’environnement et laisse donc des
ressources éventuellement disponibles qui absorbent les incohérences
potentielles dans les décisions locales.
De plus, une attention séquentielle est portée aux objectifs qui permet
de traiter successivement des problèmes qui exigeraient des solutions
incompatibles s’ils étaient considérés en même temps.
En effet, les organisations peuvent survivre avec ce large ensemble
d’objectifs non rationalisés car l’attention qui est portée par les individus à
leurs buts et les coalitions aux objectifs de leurs composantes est
séquentielle et non synoptique. Cela leur permet d’accommoder des
objectifs contradictoires.

4.2.2. Éviter l’incertitude


Le second des grands concepts est celui d’évitement de l’incertitude. Le
point de départ tient à ce que les organisations sont plongées dans un
environnement incertain. Pour Cyert et March, les individus au sein des
organisations ont tendance, tant que possible, à chercher à éviter les
incertitudes. Il n’est alors pas possible de modéliser le processus de
décision en estimant les risques attachés à ces incertitudes, dans une
approche en termes de probabilités (comme le fait notamment la théorie
des jeux présentée plus loin). Il faut analyser le comportement
organisationnel en prenant en compte le mécanisme d’évitement de
l’incertitude des membres de l’organisation. Il s’ensuit, que ces derniers
évitent d’avoir à anticiper les événements futurs en se fixant des règles de
décision qui privilégient le court terme et les réactions au feed-back
immédiat. Chaque problème est résolu quand il se pose et on attend le
suivant même si des prévisions à long terme existent sur le papier. De plus,
les individus cherchent à éviter d’avoir à anticiper les évolutions de leur
environnement en essayant de les contrôler ou de négocier leur
environnement à travers notamment des partenariats, alliances,
partenariats ou autres contrats permettant de réduire l’incertitude au
niveau inter-entreprises, etc.

4.2.3. Recherche de solutions en termes de problèmes


Le troisième concept fondamental est celui de la recherche de solutions
en termes de problèmes. Du fait de la rationalité limitée de ses membres,
les organisations définissent leur but en termes d’acceptabilité (ou de
satisfaction minimum) et non d’optimisation et de ce fait la première
solution acceptable est retenue. Mais, elle n’a pas lieu d’être recherchée
en l’absence de problème. Il faut donc qu’un des objectifs d’un (ou
plusieurs) membre(s) de l’organisation ne soi(en)t pas satisfait(s) pour
qu’un problème spécifique se pose et qu’une recherche de solutions soit
entamée. Elle sera dirigée vers une solution spécifique à ce problème. Elle
durera jusqu’à ce que celle-ci soit trouvée ou que les objectifs soient
révisés à la baisse afin qu’une solution inférieure devienne acceptable.
Ces recherches de solutions, en outre, sont menées généralement au
voisinage des symptômes du problème. Ceci fait que la recherche de
solutions radicalement nouvelles est plus rare et nécessite des raisons
spécifiques pour être entamée. Si la première recherche de solutions ne
produit pas de solutions, alors seulement l’organisation cherche de plus en
plus loin du voisinage du problème. La recherche de solution pourra
inclure l’absorption du slack organisationnel.
Par ailleurs, la recherche de solutions dépend aussi de la formation et
de l’expérience spécifique de l’unité responsable de la décision qui voit
seulement « sa » partie de l’environnement, si bien que chacun voit les
choses différemment et envisage des solutions différentes en face d’un
même problème et sélectionne des réponses différentes.
4.2.4. L’apprentissage organisationnel
Le quatrième concept est celui de l’apprentissage organisationnel.
Cyert et March montrent que l’organisation apprend de ses expériences.
Les procédures opératoires standard sont, en quelque sorte, la mémoire
de l’organisation, qui comme la mémoire, changent mais lentement et à
des vitesses différentes.
Les organisations prennent des décisions en résolvant des séries de
problèmes. Elles passent d’une crise à l’autre et utilisent massivement des
procédures de décisions qui :
• Cherchent à fuir l’incertitude et la nécessité d’avoir à prédire des
événements futurs incertains. Elles réagissent en « feed-back » plus
qu’elles ne prévoient.
• Maintiennent tant que possible les règles existantes et évitent les
changements.
• Utilisent des règles simples et se reposent sur le « jugement »
individuel pour introduire une certaine flexibilité dans l’application de
ces règles.

Ces procédures générales sont mises en place par l’intermédiaire de


procédures opératoires standard spécifiques :
• Les règles d’exécution du travail qui contiennent l’apprentissage du
passé.
• Des rapports et des enregistrements d’activités continues, qui
permettent des prédictions.
• Des règles de traitement de l’information qui permettent sa
transmission et son filtrage, et des plans qui matérialisent les objectifs,
leurs schémas d’implantation et jouent le rôle de théories et de
précédents.

À court terme, ces procédures dominent les décisions qui sont prises.
Elles ont un impact sur les objectifs, les désirs et les attentes des individus
dans l’organisation. Elles ont aussi un impact sur les perceptions
individuelles de l’état de l’environnement. Elles ont de plus un impact sur
la gamme des alternatives retenues et leur recherche. Enfin, elles ont un
effet sur les règles de décisions managériales utilisées dans l’organisation.
Les organisations donc apprennent et stockent leurs connaissances à
travers les procédures opératoires standard, certes à travers les individus
comme instruments, mais à un niveau agrégé qui est celui de
l’organisation.
Les objectifs, exprimés en termes de niveaux d’aspirations, s’adaptent. Ils
sont fonction des objectifs de l’organisation dans la période précédente, de
l’expérience de l’organisation relativement à cet objectif dans la période
précédente et de l’expérience d’institutions comparables sur cette
dimension d’objectifs dans la période précédente, modifiés par la
sensibilité aux performances des autres institutions et la capacité à
modifier ses objectifs en fonction de l’expérience. Les règles qui font porter
l’attention sur certaines parties privilégiées de l’environnement et en font
ignorer d’autres s’adaptent aussi à travers les critères d’évaluation de la
performance fixés par l’organisation et les critères sur lesquels elle se
mesure aux institutions comparables. Enfin, les règles qui régissent la
recherche de solutions s’adaptent, elles aussi, car les modes de recherche
ayant produit des solutions dans le passé tendent à être répétés et ceux
non productifs évités. D’autre part, le codage employé pour communiquer
l’information relative à l’environnement varie.
Notons que cette approche en termes d’apprentissage organisationnel
donnera lieu à de nombreux développement théoriques que nous ne
développons pas ici.
En synthèse, les organisations sont donc considérées comme des
coalitions d’individus ou de sous-coalitions ayant formé des objectifs plus
ou moins indépendants et agissant en fonction d’une rationalité limitée,
avec des objectifs généraux ajustant les objectifs individuels. De temps en
temps, cette coalition prend des décisions qui impliquent l’emploi de
ressources organisationnelles d’une façon ou d’une autre. Les décisions
dépendent des attentes formées et de l’information obtenue dans
l’organisation. L’allocation de ressources organisationnelles se fait
beaucoup plus sur la base d’engagements passés ou de l’urgence que sur le
taux de retour marginal et reflète la satisfaction de contraintes minimum et
un soutien suffisant dans l’organisation, qu’elles qu’en soient les raisons qui
peuvent d’ailleurs fort bien être contradictoires. Toujours du fait de la
rationalité limitée, l’activité de recherches d’alternatives n’est ni extensive
ni objective. Elle consiste surtout à évoquer, de la part de sous-unités de
l’organisation, des considérations qui sont importantes pour elles. Le calcul
des conséquences est simplifié au maximum ; les branches d’alternatives
sont peu comparées, la question principale est celle de la faisabilité des
branches d’actions qui viennent à l’esprit, dans le cadre d’une recherche de
solutions locales. Toutefois, l’organisation est apprenante et le lieu
d’apprentissages collectifs.

5. Le modèle de l’organisation considérée comme


une collection de poubelles
March, Cohen et Olsen117 développent la théorie de l’organisation
considérée comme une collection de poubelles (garbage can). Celle-ci va
au-delà de la prise en compte de la rationalité limitée et la dépasse en
intégrant des éléments de « hasard » (aléa) dans la prise de décision.

5.1. Le cadre général de la théorie de la poubelle


Le point de départ est le constat de situations paradoxales dans les
organisations. Ainsi, on observe par exemple :
• Un choix d’importance fondamentale effectué dans l’indifférence
générale ou sans que les dirigeants clés n’aient été consultés.
• Des décisions unanimes prises dans l’enthousiasme après un travail de
préparation phénoménal et jamais implantées.
• Des efforts majeurs déployés par certains membres de l’organisation
pour avoir le droit de participer à certains processus de décision qui
ensuite ne sont jamais exercés dans les faits.

Ces observations de sens commun entrent en contradiction avec les


mécanismes développés par la plupart des théories des organisations.
C’est ce constat qui conduit March, Cohen et Olsen à interpréter
autrement ces phénomènes organisationnels et proposer une explication
alternative.
Un certain nombre de remarques peuvent alors être formulées.
La première remarque est que la décision (son résultat) est souvent
confondue avec le processus de décision, et les deux sont présumés être
reliés. Cela peut-être parfois vrai, mais, dans un certain nombre de
situations de choix, le processus de décision peut n’avoir que peu de liens,
ou de rapports avec la décision prise (résultat).
Ceci tient à ce que de multiples autres choses qu’une décision, entrent
en compte dans un processus de décision. Ainsi, une situation de choix
permet, outre d’arriver à un résultat, les activités suivantes :
• Une occasion d’exécuter des procédures opératoires standard, de
réagir suivant les habitudes ou procédures dès qu’un stimulus est
enclenché.
• Une occasion de remplir des attentes de rôle, ou des devoirs et des
engagements antérieurs. Par exemple, un prêté pour un rendu,
affirmer une solidarité de groupe, imposer son autorité etc.
• Une occasion de définir ou exprimer des valeurs ou vertus.
• Une occasion de distribuer récompense ou blâme pour ce qui s’est
passé dans l’organisation, de désigner aux yeux de tous des boucs
émissaires ou des héros.
• Une occasion d’exercer, de confirmer ou remettre en cause des
relations de confiance, d’amitié, d’antagonisme, de pouvoir ou de
statut.
• Une occasion d’exprimer et de découvrir soi-même ce qui est « son
propre intérêt » et « l’intérêt du groupe » en découvrant les positions
des autres et en définissant la sienne.
• Une occasion de se socialiser et de se regrouper dans des ensembles
informels.
• Une occasion de se donner du bon temps, de profiter des plaisirs liés à
la participation à une situation de choix tels que plaisanteries, rituels,
participation à une atmosphère de complicité amicale, etc.

Ces activités ne sont ni mutuellement exclusives ni incompatibles, elles


apparaissent dans la plupart des situations de choix dont elles illustrent la
complexité. Les décisions sont une scène où se jouent de multiples pièces.
La seconde remarque est que l’ambiguïté est omniprésente dans les
organisations, et ceci sous de multiples formes :
• Ambiguïté d’intentions : les objectifs des organisations sont plus ou
moins clairs et cohérents et il est impossible d’établir une fonction de
préférence significative pour une organisation qui satisfasse à la fois les
exigences de cohérence des théories de la décision et la description
empirique des motifs organisationnels.
• Ambiguïté de compréhension : le monde des relations causales dans
lesquelles les organisations évoluent, est plus ou moins obscur, du fait
notamment de problèmes de perception. Les technologies employées
ne sont pas toujours claires, les environnements sont difficiles à
interpréter, les liens entre actions et conséquences sont souvent peu
perceptibles.
• Ambiguïté de l’histoire : le passé est important, mais il n’est pas facile à
établir avec précision, à reconstruire et à interpréter. Il peut être
déformé ou reconstruit. Ce qui est arrivé réellement est
problématique, tout autant que pourquoi est-ce que cela est arrivé.
• Ambiguïté de l’organisation : à chaque instant, dans le temps, les
individus concernés changent dans le degré d’attention qu’ils prêtent à
différentes décisions. La participation au processus de décision est
changeante et incertaine.

La troisième remarque est que le cycle d’une situation de choix est


sujet à des limitations multiples. Ce cycle est généralement représenté par
un modèle simple : à un instant donné, des individus participant à
l’organisation (à un titre ou à un autre) constatent une divergence entre
leurs préférences et leurs croyances (leur modèle du monde tel qu’il
devrait être) et leurs cognitions (le monde tel qu’il est). Cette comparaison
des préférences et des cognitions modifie le comportement des individus
qui initient des actions ou décident de leur participation à une situation de
choix. Ces comportements individuels s’agrègent en des choix
organisationnels qui eux-mêmes vont se traduire en des activités et des
résultats internes qui vont avoir un impact sur le monde extérieur à
l’organisation (l’environnement). L’environnement à son tour « réagit »
positivement ou négativement à ces activités et ce changement dans
l’environnement modifie l’état des préférences et cognitions des individus
sur l’état du monde.
Ce modèle fait l’hypothèse que le cycle décrit s’accomplit en une série
de connections successives :
• Les cognitions et préférences des individus ont un effet sur leur
comportement.
• Le comportement des individus, y compris leur participation à des
situations de choix, a un impact sur les décisions organisationnelles.
• Les choix organisationnels ont un impact sur l’activité de
l’environnement qui y répond.
• Les réponses de l’environnement ont un impact sur les cognitions et
préférences individuelles.
Or, ce modèle implicitement situé à la base de toutes les théories de la
décision, est sujet à un certain nombre de limitations.
En ce qui concerne son premier point, d’une part, il n’est pas toujours
évident que croyances et attitudes déterminent les comportements, ni
qu’ils soient stables tout au long d’une situation de choix. Donc d’autres
choses que l’écart entre préférences et cognitions d’un individu peuvent
déterminer sa propre mise en action, ou à l’inverse, cet écart peut n’avoir
aucun effet sur les actes de l’individu. D’autre part, le goût de s’impliquer
dans la prise de décision, dans les situations de choix n’est pas uniforme
parmi les individus. Préférences et croyances peuvent exister sans
déterminer une action même dans une situation où elles ne sont pas
perçues comme satisfaites.
De plus, il y a d’autres opportunités d’action (choix) possibles pour un
individu dans lesquelles il peut préférer s’engager plutôt que de s’attacher
à celle considérée. Son temps et ses capacités d’action sont limités.
L’attraction de son attention à une situation de choix particulière ne
dépend pas seulement de la façon dont elle sollicite ses croyances et
attitudes, mais dont elle le fait en comparaison avec toutes les autres
occasions de choix ouvertes à cet instant. Par ailleurs, le comportement de
l’individu, quelles que soient ses préférences et l’écart avec ses cognitions,
est contraint dans les organisations par ses rôles, devoirs, obligations, et
par ces procédures opératoires standard. Enfin, les comportements et la
mise en action par intérêt individuel sont ambiguës. Un individu peut avoir
une multiplicité de préférences et de croyances non ordonnées.
En ce qui concerne le second point du modèle, le lien entre action de
l’individu et action de l’organisation est parfois très lâche. L’idée implicite
que le choix de l’organisation est compréhensible en tant que conséquence
d’un mécanisme quelconque d’agrégation des choix individuels n’est pas
obligatoirement correcte. L’action individuelle peut être liée dans le
processus de choix à d’autres processus que celui d’orienter la décision de
l’organisation.
En ce qui concerne le troisième point du modèle, il n’est pas toujours
évident que les actions qui traduisent les choix organisationnels
provoquent une réaction ou une réponse de l’environnement. C’est
pourtant une image assez profondément répandue : par exemple, les
consommateurs réagissent à un changement dans le produit, les électeurs
à une prise de position des candidats etc. Cependant, parfois les
événements qui se déroulent dans l’environnement peuvent n’avoir que
très peu de rapports avec ce que l’organisation fait, ou a fait, mais doivent
en fait être analysés en termes de relations complexes entre événements,
actions et structures. Les mouvements de l’environnement ne sont pas des
réponses à une action, mais le produit d’interactions complexes où
d’autres éléments que l’organisation sont impliqués. Actions de
l’organisation et réponses de l’environnement peuvent être largement
indépendantes.
En ce qui concerne le quatrième point, à la fois les réactions de
l’environnement et les événements qui s’y produisent sont souvent
ambigus. Ce qui s’est passé et pourquoi cela s’est passé n’est pas
nécessairement clair, soit que les événements eux-mêmes ne soient pas
clairs, soit que les participants aient eu des difficultés à les observer. Les
complexités et les changements dans l’environnement dépassent nos
capacités à les appréhender.
De plus nos interprétations sont rarement basées sur nos seules
observations, elles reposent largement sur des interprétations que nous
empruntons aux autres. Elles dépendent donc de ceux de qui nous les
obtenons et de la confiance que nous leur accordons. Les individus
reconstruisent leurs préférences et non pas ajustent automatiquement
leurs cognitions à des changements de l’environnement.
Les croyances ne sont pas nécessairement développées par la « réalité
objective » mais individus, organisations, nations développent des mythes,
des fictions, des légendes et des illusions.
Ces limitations du modèle du cycle de choix entraînent des confusions
qui doivent donc être redressées pour vraiment comprendre les choix dans
les organisations.
La première de ces confusions consiste à croire que ce qui semble
s’être passé, ou ce qui est cru par tous comme s’étant passé, est ce qui
s’est réellement passé dans les faits : ce que nous croyons savoir des
événements dans les situations de choix organisationnels reflète une
interprétation de ces événements par les acteurs et les observateurs, ces
interprétations sont générées en face d’une ambiguïté considérable dans
les perceptions.
La seconde confusion est de penser que ce qui s’est passé est ce qu’il
était voulu qu’il se passe (intentions, préférences, actions). Cependant, le
flot des actions individuelles peut produire un flot de décisions
organisationnelles qui n’est voulu par personne et qui est sans lien avec les
résultats recherchés par qui que ce soit. Le processus qui conduit du
comportement individuel intentionnel au comportement organisationnel
n’est pas tel que des écarts dans les intentions conduisent à des écarts
correspondants dans le comportement de l’organisation. Au contraire,
beaucoup du comportement organisationnel est dominé par des règles qui
existent et sont suivies indépendamment d’intentions individuelles.
D’autre part, intention individuelle et action individuelle ne sont que
faiblement reliées. Une large part de l’action individuelle se comprend
moins comme conséquence des préférences individuelles que comme un
réseau de devoirs et d’obligations.
La troisième confusion est de supposer que ce qui s’est passé est ce qui
devait se passer. Les différences entre le résultat qui s’est produit et les
résultats alternatifs potentiels ne sont souvent pas fondamentales, et des
écarts substantiels entre résultats finaux possibles s’expliquent souvent par
de petites et imprédictibles différences dans les étapes intermédiaires
conduisant à ces résultats.
Il est à noter que les limites du modèle du cycle d’une situation de
choix ont des conséquences importantes sur le concept d’apprentissage
par les individus dans les organisations et par les organisations elles-
mêmes. Ce processus peut être compris comme celui de l’apprentissage
expérimental : une action est effectuée, produisant une réponse
quelconque de l’environnement qui est interprétée et évaluée, générant
une nouvelle action.
Le processus d’apprentissage s’effectue dans l’ambiguïté et
l’incertitude. Ce qui s’est passé n’est pas évident, les causes en sont
obscures et il n’est pas sûr que ce soit ou non un événement favorable.
Cependant, les individus cherchent à expliquer ce qui se passe. En
conséquence, on observe que :
• Un membre de l’organisation sera amené à faire confiance à d’autres
membres quand il les voit comme étant à la source d’événements
pertinents qu’il apprécie ou qui lui sont favorables et évitant des
événements pertinents qu’il n’apprécie pas et qui lui sont défavorables.
• Un membre de l’organisation en viendra à croire que les gens à qui il
fait confiance causent les événements qu’il apprécie et que ceux à qui il
ne fait pas confiance causent ceux qu’il n’apprécie pas.
• Il viendra à croire que les événements sont pertinents s’il est en accord
à leur sujet avec des gens à qui il fait confiance et en désaccord avec
des gens à qui il ne fait pas confiance.
• Il sera actif dans la mesure où ce qu’il voit, aime et à quoi il fait
confiance est non ambigu.
• Dans la mesure où la structure de l’organisation et son niveau d’activité
le permettent, il recherchera le contact avec ceux à qui il fait confiance
et l’évitera avec ceux à qui il ne fait pas confiance.
• Il se sentira intégré dans une organisation dans la mesure où il
appréciera les événements pertinents qu’il y verra se dérouler.

5.2. Les fondements du modèle de décision en termes de poubelles


Sur la base des remarques précédentes, Cyert, March et Olsen,
observent qu’il existe un certain nombre d’organisations (mais pas toutes),
qu’ils appellent des « anarchies organisées », qui peuvent être
caractérisées par trois éléments particuliers : des préférences
problématiques, des technologies obscures et une participation fluide.
• Les préférences sont problématiques ou les objectifs sont peu clairs. Ils
sont souvent mal définis et découverts à travers l’action elle-même.
L’organisation opère comme une collection d’idées plus que comme
une structure cohérente. Elle découvre ses préférences en agissant au
lieu d’agir en fonction de préférences préétablies.
• La technologie est floue. Bien que l’organisation arrive à survivre et
même à produire régulièrement, son propre processus de
fonctionnement n’est pas compris par ses membres. Ils ne perçoivent
pas comment et pourquoi cela marche ou pas. L’organisation
fonctionne et gère sur une base simple de procédures d’essais et
erreurs, de ce qui reste sous forme de recettes de l’apprentissage dû
aux accidents qui se
sont produits dans le passé et de la façon dont ils se sont résolus et des
inventions pragmatiques pour faire face à la nécessité immédiate.
• Enfin, la participation est fluide. Les participants variant dans la
quantité de temps et d’efforts qu’ils apportent, entre eux et dans le
temps individuellement aux diverses activités possibles, et en
particulier aux occasions de choix. La participation varie d’une activité
à une autre et d’un moment à un autre dans la même activité en
termes de présence, de degré d’activité et d’attention accordée par les
participants. En effet ceux-ci doivent opérer des choix et gérer des
contraintes de temps, d’attention, de capacités à agir.

Bien que ces caractéristiques puissent se retrouver partiellement dans


toutes les organisations, elles sont donc prééminentes dans une catégorie
particulière d’entre elles, baptisée les « anarchies organisées »118.
Le fonctionnement de ces organisations, ou « anarchies organisées »
va alors être représenté à travers l’analogie avec une « collection de
poubelles » au sein de laquelle est déversé une certaine quantité
d’occasions de choix, de problèmes, de solutions et de participants.
• Les occasions de choix sont des moments pendant lesquels
l’organisation est perçue comme produisant des comportements
appelés décisions.
• Les problèmes sont associés à des enjeux pour des gens auxquels
ceuxci accordent de l’attention ;
• Des solutions correspondent au produit (résultat) obtenu par
quelqu’un à l’issue de la décision.
• Des participants vont et viennent entrent et sortent, physiquement et
mentalement par rapport aux occasions de choix au cours des
processus par lesquels elles se déroulent.
Une décision est le résultat de quatre flots relativement indépendants
dans l’organisation.
Le premier flot est celui des occasions de choix. Il y a nombre de cas
où une organisation est supposée produire un comportement face à une
situation de choix. Des circonstances apparaissent régulièrement et
chaque organisation a des façons de déclarer ouverte une occasion de
choix : des contrats doivent être signés, des responsabilités attribuées, un
président élu, de l’argent dépensé, un jury réuni etc.
Le deuxième flot est le flot des problèmes. Il est constitué des
préoccupations des individus dans et hors l’organisation. Ils peuvent
apparaître autour de sujets liés au style de vie, la famille, le travail, la
carrière, les relations de groupe dans l’organisation, le statut social,
l’emploi, l’argent, l’idéologie, les crises de société etc. Tous demandent que
l’on y prête attention. Ils sont cependant tout à fait distincts des choix à
effectuer présentés par les occasions de choix et ils peuvent fort bien ne
pas être résolus quand les choix sont faits. Ils sont donc à la recherche
d’occasions de choix qui leur permettront d’apparaître.
Le troisième flot, le flot des solutions est produit par des individus. Ce
sont des réponses toutes prêtes à la recherche active d’une question, donc
de problèmes pour lesquels elles pourraient représenter une réponse
acceptable. A cet égard, cette approche est particulièrement originale et
remet en cause les théories précédentes, en ce qu’elle considère que, dans
les organisations, souvent le problème n’est connu qu’après que la réponse
(solution) ait été formulée.
Le quatrième flot est celui des participants. Comme chaque entrée
dans une situation de choix signifie en quitter une autre, la distribution des
entrées dépend autant des attributs du choix nouveau que des attributs du
choix abandonné. Les variations dans la participation dépendent des
autres demandes sur le temps des participants.
Le processus de prise de décision dans une organisation dépend donc
des interactions entre 4 éléments : la génération et l’apparition de
problèmes dans l’organisation ; le déploiement des décideurs ; la
production de solutions ; et les apparitions d’occasion de choix.
Les couplages des problèmes et solutions vont être influencés par
quatre éléments :
• Les procédures et structures formelles d’accès aux choix.
• La façon dont l’attention est allouée dans l’organisation.
• Le temps.
• L’énergie totale disponible et la façon dont elle est distribuée entre les
décideurs dans les structures segmentées de l’organisation.

Les quatre flots d’occasions de choix, problèmes, solutions et décideurs


sont canalisés par les structures de l’organisation.
D’une part, la structure d’accès décide quels problèmes et solutions ont
accès à quel choix. Elle peut être non segmentée : tous les problèmes ont
accès à tous les choix. Elle peut être hiérarchisée : les problèmes
importants seuls ont accès aux choix importants.
Elle peut être aussi spécialisée : chaque problème n’a accès qu’à
certains choix et chaque choix est spécialisé dans le type de problèmes
qu’il peut traiter.
D’autre part, la structure de décision décide qui peut participer à quels
choix. Elle peut présenter les mêmes caractéristiques : tous ont accès à
tous les choix, les choix importants sont réservés aux décideurs
importants, qui ont accès a beaucoup de choix, ou bien les décideurs sont
spécialisés dans les choix auxquels ils prennent part.
Ces structures aussi peuvent prendre différentes formes. Moins
l’organisation est structurée, plus le rôle du temps (moment d’entrée) est
important car l’accès est potentiellement beaucoup plus ouvert et le rôle
de la présence de fait est plus important pour peser sur les résultats.
Au moyen d’une simulation, les auteurs mettent ensuite en évidence
une série de caractéristiques des « anarchies organisées » :
En premier lieu, les choix parfois, mais rarement, résolvent les
problèmes, ceux qui étaient présents au départ ou d’autres qui sont venus
s’y agglomérer, après les avoir travaillés pendant un certain temps (en
fonction du nombre total de problèmes).
Le plus souvent, cependant en fait les choix sont faits par « fuite » ou
par « inattention ». C’est-à-dire que dans un cas le choix n’est fait que
lorsque les problèmes qui y ont été attachés sans succès pendant un
certain temps l’ont quitté et se sont attachés à un autre choix plus «
attractif » (i.e. ont été déversés dans une autre poubelle nouvellement
ouverte ou étiquetée différemment), donc aucun problème n’est résolu. Le
choix se fait en bout de course et ne résout aucun problème alors qu’au
départ il y avait un problème, ou plusieurs attachés à ce choix. Dans l’autre
cas, parce que l’énergie nécessaire est disponible à l’instant précis pour
agir rapidement, le choix est fait sans aucune attention aux problèmes
existants qui y sont attachés avec un minimum de temps et d’énergie. Le
choix est fait à propos de problèmes qui n’ont plus rien à voir avec le choix
tel que posé initialement. En d’autres termes, les routines ont pris le pas
sur l’analyse.
En second lieu, le processus est très sensible aux variations de charge
d’énergie, l’augmentation de la charge d’énergie, c’est-à-dire l’effort
nécessaire pour arriver à des décisions, rend les choix plus longs et
difficiles et les chances de choix résolvant des problèmes par résolution
plus faibles. Plus la charge est lourde, plus les choix sont faits par fuite ou
inattention
En troisième lieu, problèmes et décideurs se poursuivent de choix en
choix résolus ou non. Le décideur a besoin de problèmes, les problèmes
ont besoin de décideur. Ils se complètent mutuellement.
En quatrième lieu, l’amélioration d’un aspect de l’efficience du
processus de décision diminue les autres. Par exemple, les latences des
problèmes (périodes de temps pendant lesquelles ils sont non attachés à
un choix), l’activation des problèmes (attachés à un choix mais non résolus)
et le temps de décision ne peuvent être améliorés simultanément.
En cinquième lieu, les choix très importants et très peu importants sont
souvent ceux qui restent sans solution. Ceux d’importance intermédiaire
sont les plus souvent traités.
Il faut souligner que cette analyse prend le contre-pied des théories
existantes en matière de prise de décision. Celles-ci, dans la plupart des cas
admettent qu’une décision, ou la résolution d’un choix, est un moyen de
résoudre des problèmes. Or cela n’est pas ce qui se produit dans les «
anarchies organisées » de la théorie des organisations comme une
collection de poubelles. Les problèmes sont évoqués dans le contexte de
certains choix mais les choix ne sont faits que quand une combinaison
toujours changeante de problèmes, solutions et participants rend l’action
possible. Cela se produit souvent quand les problèmes ont quitté un choix,
ou avant qu’ils s’y soient attachés. Enfin, les événements ne sont pas
dominés par les intentions des participants et d’autres solutions auraient
été tout aussi probables à une occasion de choix donnée.

6. La théorie des jeux


La théorie des jeux constitue une manière spécifique d’étudier les
processus de décision, qui impose notamment des « règles du jeu ». Une
caractéristique fondamentale réside dans l’utilisation du langage
mathématique pour décrire les jeux, ainsi que dans l’utilisation de
traitements mathématiques pour résoudre les situations de jeux. En
d’autres termes, la théorie des jeux est une étude, sous forme
mathématique, de la prise de décision. Elle a trouvé de nombreuses
applications en sciences humaines et sociales.
Les travaux de Von Neumann et Morgenstern 119 constituent
généralement la référence centrale autour de laquelle s’est construite la
théorie des jeux, même si la réflexion sur les jeux est antérieure 120. A la
suite des travaux de Von Neumann et Morgenstern, la théorie des jeux a
été développée par de nombreux auteurs, si bien qu’elle constitue un des
pôles essentiels de la théorie de la décision, ainsi que le met en lumière
l’attribution en 1994 du Prix Nobel de Sciences Économiques de manière
conjointe à Harsanyi, Nash et Selten pour leurs contributions à la théorie
des jeux.
6.1. Qu’est-ce qu’un jeu ?
La théorie des jeux étudie la prise de décision dans le cadre de jeux. Le
concept central de la théorie des jeux est donc celui de « jeu ». De manière
synthétique, on peut considérer qu’un jeu représente une situation dans
laquelle des individus sont en interaction les uns avec les autres et doivent
faire des choix dans le cadre de règles du jeu qui sont parfaitement
connues par les joueurs et qui s’imposent à eux. Afin de mieux
comprendre ce qu’est un jeu, il convient de définir un certain nombre de
notions telles que celles de « joueur », de « stratégie », de « solution », de
« règle du jeu » ou encore de « coalition ».
Dans un jeu, il y a des « joueurs », c’est-à-dire des décideurs. Le joueur
est l’unité de décision fondamentale du jeu. Il peut s’agir par exemple d’un
individu, une entreprise ou un syndicat. La théorie des jeux met en
présence plusieurs joueurs et s’intéresse aux interactions des joueurs les
uns avec les autres dans le cadre de règles du jeu. Les « règles du jeu »
régissent le déroulement du jeu, elles ne peuvent pas être transgressées.
Ceci constitue un des principes fondamentaux de la théorie des jeux. Ainsi,
« les règles du jeu sont des commandements absolus. Si elles venaient à
être transgressées, alors la transaction effectuée cesserait immédiatement
d’être un jeu tel que nous l’avons décrit. »121.
Dans un jeu, les joueurs adoptent une « stratégie ». La stratégie est la
description complète de l’ensemble des choix qu’un joueur décide, au
départ, d’effectuer du début à la fin du jeu.
La combinaison des différents choix des joueurs conduit à un résultat
appelé « issue » ou « solution ». Les joueurs associent un gain (ou une
perte) à ces solutions.
On distingue différents types de jeux. Notamment, les « jeux à deux
personnes » des « jeux à n personnes » (n>2). Von Neumann et
Morgenstern mettent en évidence que des phénomènes spécifiques
doivent être pris en compte lorsque le nombre de joueurs s’accroît. Ainsi
par exemple, dans un jeu à n personnes, il peut exister des coalitions.
Cette distinction a ensuite été reprise par la plupart des auteurs de la
théorie des jeux. En effet, les jeux à deux personnes constituent des
exemples simples de jeux qui permettent d’illustrer les mécanismes de la
théorie des jeux alors que les jeux à n personnes nécessitent des analyses
mathématiques plus avancées.
On distingue également les « jeux à somme nulle », les « jeux à somme
constante », et les « jeux à somme variable ». Dans les « jeux à somme
nulle », la somme des gains de tous les joueurs est égale à zéro. Cela
signifie que ce qui est gagné par un joueur est perdu par un autre. Les «
jeux à somme constante » se définissent d’une manière similaire, la somme
des gains de tous les joueurs étant égale à une constante. Les « jeux à
somme variable » se distinguent des deux types de jeux précédents dans la
mesure où dans ces jeux, la somme des gains de tous les joueurs n’est pas
égale à zéro, ni à une constante, mais varie en fonction du comportement
des joueurs. Tous les joueurs peuvent donc obtenir un gain positif en
participant au jeu.

6.2. Les jeux à information complète et incomplète


La distinction entre « jeux à information complète » et « jeux à
information incomplète » est introduite par Von Neumann et Morgenstern
en 1944. Toutefois, les analyses développées par ces auteurs ainsi que par
les théoriciens des jeux qui les ont suivis, jusqu’aux travaux d’Harsanyi 122 en
1967, ne prennent en compte, pour l’essentiel, que des situations de jeu
en information complète.
Dans un jeu à « information complète », les joueurs connaissent
l’ensemble des alternatives de choix qui s’offrent à eux ainsi que
l’ensemble des issues possibles du jeu et les gains qui leur sont associés. Ils
connaissent également les stratégies des autres joueurs et leur fonction
d’utilité. Ils ont enfin la possibilité de faire tous les calculs nécessaires au
déroulement du jeu.
L’étude des jeux en « information incomplète » s’est développée à la
suite des travaux d’Harsanyi en 1967. Dans un jeu à information «
incomplète », un certain nombre de variables du jeu (les gains, les
fonctions d’utilité ou les stratégies) sont incomplètement connues par les
joueurs, c’est à dire qu’elles peuvent prendre différentes valeurs de
manière aléatoire. Toutefois, les joueurs connaissent l’ensemble des
valeurs que peuvent prendre ces variables et leurs associent une
probabilité de réalisation.
Il y a donc information « incomplète », lorsque les joueurs manquent
d’information à propos soit de leur propres gains, ou de ceux des autres
joueurs ; soit de leurs propres fonctions d’utilité, ou de celles des autres
joueurs ; soit de leurs propres espaces de stratégies du jeu, ou de ceux des
autres joueurs.
La notion d’information « complète » est différente de celle
d’information « parfaite ». Un jeu à information « parfaite » est un jeu
dans lequel on a une information parfaite sur les autres joueurs et sur leurs
choix antérieurs. En information imparfaite, les joueurs jouent
simultanément donc on n’a pas d’information à l’avance sur le « coup » de
l’autre.
Harsanyi123 distingue, dans les jeux en information « incomplète », deux
types d’incertitude. Le premier type d’incertitude appelé « incertitude de
premier ordre » correspond à une situation dans laquelle chaque partie a
une incertitude d’une part sur sa propre stratégie ainsi que sur celle des
autres joueurs et d’autre part sur sa propre fonction de paiements ainsi
que sur celle des autres joueurs. L’incertitude de premier ordre engendre
un second type d’incertitude, appelé « incertitude de second ordre ». Cette
incertitude est liée au fait que les joueurs sont conduits, dans le jeu, à
anticiper les stratégies et les fonctions de paiements des autres joueurs
dans une relation où chaque partie a une incertitude quant aux
anticipations des autres joueurs.
L’article de Harsanyi124, publié en 1967, résout alors les problèmes
posés par l’incertitude des jeux en information « incomplète » grâce à
l’introduction d’un joueur fictif appelé Nature, qui permet de transformer
des jeux en information « incomplète » en des jeux en information «
complète » mais « imparfaite ». Ce traitement de l’incertitude repose sur
deux hypothèses fondamentales. La première est que l’ensemble des
possibles est connu et la seconde est qu’il est possible d’associer une
distribution de probabilités aux différents événements incertains.
Selon Harsanyi, si les théoriciens qui le précèdent ne sont pas parvenu
à traiter les jeux en information « incomplète » de manière satisfaisante,
c’est parce qu’ils adoptent une approche en termes d’anticipations
réciproques, qui ne permet pas d’aboutir à des résultats simples. En effet,
dans les jeux en information « incomplète » les anticipations réciproques
des joueurs sont trop importantes et engendrent une complexité élevée
qui rend leur traitement impossible. Il propose alors d’aborder la question
sous un angle nouveau, en proposant une analyse basée sur un
raisonnement Bayesien, dans lequel les jeux en information « incomplète »
(I-jeu) sont ramenés à des jeux en information « complète » (C-jeu),
théoriquement équivalents, grâce à l’introduction d’un joueur fictif appelé
Nature. L’approche adoptée par Harsanyi s’insère dans le cadre des jeux
Bayesien. Ceci signifie que les joueurs attribuent une distribution de
probabilités subjectives aux différents événements qu’ils ne connaissent
pas et qu’ils cherchent à maximiser leur gain dans le jeu, compte tenu de
cette distribution de probabilités.
Selon la définition de Harsanyi, le « type » d’un joueur est constitué par
les caractéristiques du jeu sur lesquelles il peut manquer d’information,
c’est à dire la fonction d’utilité, le gain et la stratégie du joueur. En
information « incomplète », un joueur peut donc avoir une incertitude sur
son propre type comme sur celui de l’autre joueur. Harsanyi suppose qu’il
existe un joueur fictif, appelé Nature, dont l’activité consiste à attribuer un
type à chaque joueur. Ceci signifie que l’incertitude des joueurs sur leur
propre type est supprimée grâce à l’attribution d’une distribution de
probabilité à la survenance, ou non survenance, des différents types du
joueur. Le jeu en information « incomplète » est alors ramené à un jeu dans
lequel les joueurs ne manquent plus d’information que sur le type des
autres joueurs. Par conséquent, on se retrouve dans une situation de jeu à
information « complète » mais « imparfaite » dans laquelle les joueurs sont
conduits à attribuer une probabilité à chacune des réalisations possibles
des types des autres joueurs (en fonction de leurs croyances sur le
comportement de l’autre joueur) et à déterminer une solution optimale en
fonction de ces probabilités.
L’analyse des jeux en information « incomplète » est ensuite reprise par
de nombreux auteurs dont en particulier R. J. Aumann et M. Maschler 125, R.
B. Myerson126, H. Raiffa127, R. Selten128, M. Shubik129 et constitue aujourd’hui
un pôle central de la théorie des jeux.

6.3. La description du jeu


La phase initiale dans la recherche d’une solution du jeu consiste
d’abord à décrire le jeu. On distingue trois formes distinctes de description
du jeu : premièrement la forme « extensive ou graphique », deuxièmement
la forme « normale ou stratégique » et troisièmement « la fonction
caractéristique ».

6.3.1. La forme extensive du jeu


La description du jeu sous forme extensive, ou graphique, consiste à
représenter les différentes alternatives de choix qui s’offrent aux joueurs à
l’aide d’un graphique. L’outil de visualisation graphique le plus célèbre est
celui de « l’arbre de Kuhn ». Un arbre de Kuhn représente un ensemble de
points reliés par des branches. Le point origine correspond au début du
jeu. A tout point non terminal de l’arbre (nœud de l’arbre) est associé un
indice correspondant à l’indice du joueur qui doit intervenir en ce point.
Les nœuds de l’arbre correspondent aux nœuds de décisions, c’est à dire
que le joueur a la possibilité de choisir entre les différentes alternatives de
choix qui s’offrent à lui en ce point, les différents choix étant symbolisés
par les branches de l’arbre. Tout point dont il ne part aucune branche est
un point terminal et correspond à une fin de partie. Un vecteur des
paiements de chacun des joueurs est associé à chaque point terminal.
Pour illustrer la notion d’arbre, reprenons un exemple simple proposé
par M. Shubik.

Tout chemin le long de l’arbre, depuis le nœud initial jusqu’aux nœuds


terminaux, correspond à des déroulements possibles du jeu. Par exemple,
si P1 lève un doigt et P2 trois, alors P2 gagne 5$ et P1 en perd autant.
On observe que le jeu est intéressant si on est en information
imparfaite c’est à dire que les coups sont simultanés (sinon, si on sait à
l’avance si l’autre lève 1 ou 2 doigts, il n’y a aucune incertitude et on est sûr
de gagner si on joue en deuxième et sur de perdre si on joue en premier).
En revanche, on est en information complète c’est à dire qu’on a
connaissance des fonctions d’utilité, des stratégies et des gains associés
aux différentes actions dans le jeu.

6.3.2. La forme stratégique


La description du jeu sous forme stratégique, ou normale, consiste à
représenter le jeu sous la forme d’une matrice, c’est à dire à travers un
tableau de chiffres, qui attribue des résultats aux différents joueurs, en
fonction des stratégies qui sont adoptées par les uns et les autres dans le
jeu. On notera qu’avec plusieurs joueurs, le tableau devient
multidimensionnel et non plus matriciel.
Dans le cas où il n’y a que deux joueurs, chacun disposant d’un nombre
fini de stratégies, la forme stratégique prend la forme ci-dessous, où (Aij,
Bij) représente le vecteur des gains lorsque A et B retiennent les stratégies
Tj et Sj.
Reprenons l’exemple du « jeu des doigts » exposé précédemment par
M. Shubik. Dans le cadre de ce jeu, on obtient la forme stratégique
suivante
:

Joueur P2

1 2 3

1 O1 (-5$,5$) O2 (5$,-5$) O1 (-5$,5$)


Joueur P1
2 O2 (5$,-5$)) O1 (-5$,5$) O2 (5$,-5$)

La forme stratégique a pour avantage de présenter le jeu de manière


plus synthétique que la forme extensive. Toutefois, la forme stratégique a
un inconvénient dans la mesure où elle induit une perte d’information par
rapport à la forme extensive. En effet, la forme extensive présente le détail
de chacun des coups possibles et l’état de l’information durant le
déroulement du jeu tandis que la forme stratégique se contente
d’énumérer toutes les stratégies possibles avec les résultats qu’elles
engendrent. La perte d’information entre la forme extensive et la forme
stratégique n’est pas sans conséquence, car on passe d’une description des
différentes étapes du jeu à une description des résultats de celui-ci.

6.3.3. La fonction caractéristique


La fonction caractéristique est une méthode descriptive des jeux qui
s’applique au cas particulier des jeux coopératifs à n personnes et qui
permet d’associer une valeur à chacune des coalitions possibles entre
joueurs. Elle s’exprime sous la forme d’une fonction mathématique. Elle
permet la modélisation mathématique des situations de décisions sous
forme de jeux.

6.4. La détermination des solutions du jeu


Après avoir décrit le jeu, on est alors conduit à déterminer la (ou les)
solution(s) du jeu. Pour cela, la théorie des jeux propose de nombreux
outils. Parmi les plus célèbres on peut citer l’élimination des stratégies
dominées et la recherche d’un équilibre au sens de Nash.

6.4.1. L’élimination des stratégies dominées


Une stratégie dominée est une stratégie qui procure une rétribution
inférieure à celle d’une autre stratégie, quel que soit le comportement des
autres joueurs. Dans la détermination des solutions optimales d’un jeu, il
convient donc d’éliminer les stratégies dominées, c’est à dire les stratégies
qui sont non efficientes.
La récurrence à rebours est une méthode permettant d’éliminer les
stratégies dominées du jeu et donc de trouver les stratégies optimales.
Dans le cadre d’une représentation du jeu sous la forme d’un arbre de
Kuhn, il s’agit de raisonner en partant de la fin de l’arbre de Kuhn et en se
dirigeant vers son origine. Dans ce processus de recherche des stratégies
optimales, on s’arrête à chaque nœud de l’arbre pour déterminer, en ce
point, quel est le meilleur choix du dernier joueur, puis le meilleur choix du
joueur précédent (joueur qui prend en compte le choix de celui va lui
succéder dans la décision) et ainsi de suite de manière à remonter jusqu’à
l’origine de l’arbre. Afin d’illustrer le mécanisme de la récurrence à rebours,
reprenons un exemple simple proposé par M. Shubik130 :
« Prenons l’exemple suivant d’un jeu à trois joueurs (1,2 et 3) :

Dans cette représentation, le gain du joueur i est le ième élément du


vecteur de gains. La résolution à rebours consiste à partir des états
prédéterminaux, à tracer en gras le choix du joueur correspondant et à
renouveler l’opération jusqu’au nœud initial. Dans cet exemple, il existe
deux nœuds prédéterminaux : (3) et (1). Le choix du joueur 3 est de jouer d
(0>-1); celui du joueur 1 également (1>-1). Connaissant le choix du joueur
1, le joueur 2 a intérêt a choisir c (1>0). Connaissant maintenant les choix
du joueur 2 et du joueur 3, le joueur 1 va choisir d au niveau du nœud initial
(1>0). Finalement, la résolution à rebours donne comme solution du jeu le
vecteur de gain (1,1,1). »
Dans le cadre d’un jeu formulé sous forme stratégique, l’élimination
des stratégies dominées s’effectue par itération en comparant les
rétributions des stratégies des joueurs.

6.4.2. L’équilibre de Nash


Dans certains cas, l’élimination des stratégies dominées peut conduire
à la détermination d’une solution du jeu. Toutefois, ceci ne constitue pas le
cas général. Une approche du problème consiste alors à rechercher parmi
les solutions non strictement dominées, une solution présentant des
caractéristiques qui font d’elle un équilibre de Nash. Un équilibre de Nash
est un ensemble de stratégies, une par joueur, tel que chaque joueur
maximise ses gains compte tenu de la stratégie des autres joueurs. En
d’autres termes, un tel équilibre correspond à situation de non regret, c’est
à dire à un ensemble stable de stratégies pour lesquelles aucun joueur n’a
intérêt à adopter une stratégie différente, à la vue des choix des autres
joueurs. Ainsi, selon Guerrien131 :
« Un équilibre de Nash est une combinaison de stratégies, une par
joueur, telle que personne n’aurait pu augmenter strictement son gain en
retenant une stratégie différente de celle que lui attribue cette
combinaison, compte tenu des stratégies des autres joueurs qui y figurent.
Ce que l’on peut résumer de façon un peu vague en disant qu’un équilibre
de Nash est une situation dans laquelle aucun joueur n’a intérêt à effectuer
un changement unilatéral de stratégie, au vu du choix des autres.
Cependant, la meilleure façon de caractériser l’équilibre de Nash consiste à
voir en lui une situation de « non regret » : il y a équilibre de Nash si
chaque joueur ne regrette pas le choix qu’il a effectué après avoir constaté
celui des autres. »
On observe qu’il peut exister plusieurs équilibres de Nash dans un
même jeu. De plus, on peut également envisager des jeux dans lesquels il
n’existe pas d’équilibre de Nash. Toutefois, le théorème de Nash énonce
que si on raisonne en stratégies mixtes (c’est à dire que l’on associe des
probabilités aux actions des joueurs) et que l’on se situe en information
complète, chaque jeu fini à n joueurs possède au moins un équilibre de
Nash.

6.5. Un exemple de jeu célèbre : le dilemme du prisonnier


Le dilemme du prisonnier est un exemple classique de jeu. L’expression
« dilemme du prisonnier » est attribuée à A. W. Tucker 132. Elle dérive de
l’anecdote que l’on raconte pour présenter cette catégorie de jeu. Il existe
plusieurs variantes du dilemme du prisonnier, selon la formulation et le
degré de complexité adopté.
Une version simple du dilemme du prisonnier est la suivante :
• La police arrive sur le lieu d’un crime. Il y a deux individus A et B près
du corps, un pistolet au milieu. Rien ne permet de savoir lequel des
deux, ou même si les deux, sont impliqués dans le meurtre.
• Les deux individus sont faits prisonniers et sont interrogés dans des
pièces séparées. Ils ne peuvent pas échanger entre eux.
• L’inspecteur expose la situation à chacun d’entre eux de la façon
suivante :
• Si ton complice te dénonce mais que tu te tais : il sera libéré tandis que
tu prendras 10 ans de prison.
• Inversement, si tu dénonces ton complice et qu’il se tait, c’est toi qui
est libéré et lui qui prend 10 ans de prison.
• Si chacun d’entre vous dénonce l’autre, on coupe la poire en deux, vous
aurez une peine de 5 ans chacun
• Si vous refusez de parler tous les deux, nous n’avons pas d’éléments
pour vous départager, vous ferez un an de prison chacun.
Prisonnier B

Se tait Dénonce A

Prisonnier A Se tait
1 AN Libéré
1 AN 10 ANS

Libéré 5 ANS
Dénonce B
10 ANS 5 ANS (équilibre de Nash)

Le dilemme du prisonnier présenté ici est un jeu à somme non nulle et


à une seule décision. La décision est simultanée, c’est à dire qu’on n’a pas
d’information sur la décision de l’autre joueur au moment où on prend une
décision. Il peut être décrit sous la forme matricielle ci-dessous :
Prisonnier A

Se tait Dénonce B

Se tait (1,1) (-2,2)


Prisonnier B
Dénonce A (2,-2) (-1,-1)

Le dilemme réside dans le fait que la meilleure stratégie consiste pour


chacun des joueurs à dénoncer l’autre. En effet, on obtient toujours une
rétribution supérieure en dénonçant l’autre qu’en se taisant, et ce quel que
soit le choix de l’autre joueur. Pourtant, si les deux joueurs se taisaient ils
obtiendraient une rétribution supérieure à celle qu’ils obtiennent en
optant simultanément pour la dénonciation, mais le choix de se taire
supposerait une collaboration entre les joueurs qui n’est pas possible
compte tenu des règles du jeu.
En conclusion, il apparait que la théorie des organisations propose des
approches très différentes les unes des autres de la prise de décision au
sein des organisations.
Focus : L’essentiel sur les théories des organisations et la prise
de décision
Simon (1916-2001) est le premier à remettre en cause le principe de
rationalité absolue (ou parfaite) sur lequel s’appuient les théories
économiques classiques. Il introduit la notion de « rationalité limitée ». Il
obtient le prix Nobel d’Économie en 1978.
Une décision rationnelle correspond au processus par lequel, dans une
situation de choix, un individu choisit parmi diverses alternatives celle
dont les conséquences ont sa préférence.
En rationalité absolue, il existe un seul décideur (individuel ou collectif),
qui dispose d’un système de préférences ordonné qui lui permet de
dégager des objectifs clairs, stables dans le temps, mutuellement exclusifs
et extérieurs à la situation de choix. Le décideur dispose d’une
connaissance de l’ensemble des branches d’alternatives qui se présentent
à lui dans toute situation de choix, ainsi que de leurs conséquences. Il est
capable d’appliquer une courbe d’utilité entre les différentes options
possibles, et donc de sélectionner la branche d’alternative qui maximise la
satisfaction de ses objectifs.
Dès 1947, Simon montre que, dans la réalité, le comportement des
individus ne répond pas aux principes de la rationalité absolue largement
retenue par les économistes classiques, car face à un choix il n’est pas
possible de connaitre toutes les alternatives, ni toutes leurs conséquences,
et que l’association d’un niveau de valeur à chaque alternative est soumise
à des difficultés d’appréciation liées à l’incertitude, l’information
imparfaite et la complexité.
Dans la réalité, Simon montre que les individus ont une rationalité limitée.
Il s’ensuit qu’ils ne suivent pas un processus d’optimisation de la décision,
mais dans le cadre d’une représentation simplifiée de la réalité, le
décideur prend une décision en fonction d’un critère minimum de
satisfaction,
compte tenu de son système de préférences et de ses limites
d’information et de capacité de traitement de cette information.
En « rationalité limitée » la prise de décision s’insère dans un processus
de recherche et de simplification de la réalité, mais la décision n’est pas
irrationnelle.
Un ensemble de travaux en sociologie et psychosociologie cognitive,
s’attachent par ailleurs à mieux comprendre les mécanismes qui
expliquent les limites concrètes de la rationalité.
Kahneman, Slovic et Tversky (1982) mettent en évidence l’existence
d’heuristiques cognitifs, c’est-à-dire de mécanismes de simplification de
la réalité, qui peuvent être source d’erreurs. Ils distinguent quatre
heuristiques cognitifs : la disponibilité, l’encadrement, l’ancrage et
l’excès de confiance en soi.
Boudon (1934-2013) montre également, en 1990, l’existence d’erreurs
de cadre, selon lesquelles les idées les plus fausses peuvent être basées
sur les meilleures raisons et découler d’une argumentation
objectivement valide.
Cialdini (1993) s’intéresse aux mécanismes d’influence liés aux normes
sociales et décrit le mécanisme de réciprocité, le mécanisme de la
cohérence, le mécanisme de la preuve sociale et celui de la sympathie.

Il découle de ces analyses de la rationalité de l’individu, différentes


manières d’aborder la prise de décision au sein des organisations.
En introduisant l’hypothèse de « rationalité limitée » dans l’étude des
organisations, March et Simon (1958) construisent une théorie
décisionnelle de l’organisation, selon laquelle :
•Les individus décident ou non de participer à l’organisation, en
fonction d’un schéma incitation/contribution.
•Certaines techniques peuvent être utilisées pour s’assurer que les
décisions des membres de l’organisation suivent bien les buts
qu’elle s’est assignée.
Toujours dans l’hypothèse de rationalité limitée des membres de
l’organisation, dans la théorie comportementale de la firme, Cyert et
March (1963) montrent que :
L’organisation est une coalition d’individus ayant des buts différents. Le
comportement au sein des groupes, se caractérise alors par des
logiques de négociations dans lesquelles chacun fait prévaloir son
intérêt.
•L’existence d’un « slack organisationnel » permet de faire face aux
difficultés imprévues ou de saisir des opportunités.
•Le fonctionnement des organisations s’articule autour de quatre
concepts fondamentaux : la quasi-résolution des conflits,
l’évitement de l’incertitude, la recherche de solutions en termes de
problèmes et l’apprentissage organisationnel.
March, Cohen et Olsen (1972) dépassent la notion de rationalité
limitée et proposent une théorie originale qui introduit le hasard dans
le processus de décision organisationnel. La théorie dite de
l’organisation considérée comme une collection de poubelles porte plus
précisément sur les « anarchies organisées », qui ne représentent pas
toutes les organisations, mais un certain nombre d’entre elles
seulement. De la même manière que la composition de la poubelle
dépend de l’aléa des dépôts de détritus et de la vitesse de ramassage
des ordures, les décisions sont le produit fortuit d’occasions de choix,
de problèmes, de solutions et de décideurs. Une des originalités de
cette théorie tient à ce que le problème n’est plus forcément premier
dans la prise de décision. La solution peut précéder le problème.
Enfin, la théorie des jeux, propose une étude, sous forme
mathématiques, de la prise de décision qui a connu de très nombreux
et féconds développements en sciences humaines et sociales. A
l’origine, les travaux fondateurs de Morgenstern et Von Neumann
(1944) vont établir les bases de la théorie des jeux. Puis, l’étude des
jeux en « information incomplète » se développe à la suite des travaux
d’Harsanyi en 1967. Harsanyi résout alors les problèmes posés par
l’incertitude inhérente aux jeux en information incomplète grâce à
l’introduction d’un joueur fictif appelé

Nature, qui permet de transformer des jeux en information « incomplète »


en des jeux en information « complète » mais « imparfaite » à travers un
traitement Bayesien.
Il apparait donc une grande variété d’approches théoriques de la prise de
décision dans les organisations, qui dépendent notamment des
hypothèses qui sont faites quant à la rationalité des individus, mais aussi
de la manière dont est traitée l’incertitude.
_______
103
Simon, H., Administrative Behavior, New York, The Free Press, 1947.
104
March, J., Simon, H. A., Organizations, Wiley, 1958, Traduction Française Ed. Dunod, p. 61, 1993.
105
Simon, Herbert A., Administrative Behavior, New York, The Free Press, 1947 ; « A Behavioral model
of Rational choice », Quarterly Journal of economics, 1955, 69 ; « Rational Choice and the
Structure of the environment », Psychological Review, 1956, 63 ; Models of Man, New York, Wiley,
1957 ; « The role of Expectations in an Adaptative or Behavioristic Model », in Bowman, M. J. (ed.),
Expectations, Uncertainity and Business Behavior, New York, Social Science Research Council, 1958 ; «
Theories of Decision-Making in Economics and Behavioral Sciences », American Economic Review,
1959 ; The New Science of Management Decision, New York, Harper, 1960.
106
Simon, Herbert A., Administrative Behavior, New York, The Free Press, 1947.
107
Faucheux, C. et Moscovici, S., Psychologie théorique et expérimentale, Paris, Mouton, 1971.
108
Kohler, W., Psychologie de la forme, Paris, Gallimard, 1964.
109
Kahneman, D., Slovic, P., & Tversky, A. (1982). Judgment under uncertainty : Heuristics and biases.
New York: Cambridge University Press. Tversky, A. & Kahneman, D. (1971). Tversky, A. &
Kahneman, D. (1974). « Judgment under uncertainty : Heuristics and biases ». Science, 185,
11241131. Tversky, A., & Kahneman, D. (1981). « The framing of decisions and the psychology of
choice ». Science, 211, 453-458. Tversky, A. & Kahneman, D. (1983). « Extensional versus intuitive
reasoning: The conjunction fallacy in probability Judgment ». Psychological Review, 90, 293-315. 110
Daniel Khaneman, Système 1 et Système 2 : les deux vitesses de la pensée, Flammarion, 2012.
111
Boudon, R., L’art de se persuader des idées douteuses fragiles ou fausses, Paris, Fayard, Points,
1990.
112
Cialdini, R., Influence: Science and Practice, New York, Harpers Collins, 1993.
113
Illustré notamment par les travaux de M. Mauss sur l’échange de dons, l’obligation de donner,
derecevoir et de rendre.
114
Festinger, L., A Theory of Cognitive Dissonance, Evanston (III), Row and Peterson, 1957.
115
March, J. et Simon, H. A., Organizations, New York, John Wiley and Sons, 1958.
116
Cyert, R. M. and March, J. C., A Behavioral Theory of the Firm, Englewoord Cliffs N.J., Prentice Hall
Inc., 1963.
117
March, J. C., A Primer on Decision Making, New York, The Free Press, 1994 ; March, J. C.,
Cohen, M. D. and Olsen, J. P. « A Garbage Can Model of Organizational Choice », Administrative
Science Quarterly, Vol. 17, n°1, March 1972 ; March, J. C. and Olsen, J. P., Ambiguity and Choice in
Organizations, Bergen, Universitetsforlaget, 1976.
118
L’exemple type d’anarchie organisée qu’ils citent est l’organisation universitaire.
119
Von Neumann, J. et Morgenstern, O., Theory of Games and Economic Behavior, Princeton
University Press, 1944.
120
Voir en particulier Von Neumann, J., Zur theorie der Gesellschaftsspiele, Math. Annalen, Vol. 100,
1928.
121
Von Neumann, J. et Morgenstern, O., opus cit. p. 49.
122
Harsanyi, J. C., “Games with Incomplete Information Played by Bayesian Players I: The BasicModel”,
Management Science, 1967.
123
Harsanyi, J. C, “In defense of game theory”, Rationality and Society, Vol. 14, n°1, p. 53, Janvier
1992.
124
Harsanyi, J. C., “Games with Incomplete Information Played by Bayesian Players I: The BasicModel”,
Management Science, 1967.
125
Aumann, R. J., Maschler, M., Game theoretic aspects of gradual disarmament, Chapter 5, dans
Report to the US Arms Control and disarmament Agency, Princeton, Mathematica Inc., 1966.
126
Myerson, R. B., Game theory - analysis of conflict, Harvard University Press, 1991.
127
Raiffa, H., The art and science of negotiation, Harvard University Press, Cambridge, 1982.
128
Harsanyi, J. C., Selten, R., A general theory of equilibrium selection in Games, Cambridge, MIT
Press, 1988.
129
Shubik, M., Game theory in the social sciences - concepts and solutions, MIT Press, 1982.
130
Shubik, M., Théorie des Jeux et Sciences Sociales, Economica, p. 60, 1991.
131
Guerrien, B., La théorie des Jeux, Economica, pp. 34-35, 2e édition, 1997.
132
Tucker, A. W., A two person dilemna, Mimeographed paper, Standford University, 1950.
La plupart des théories que nous avons déjà passé en revue, soit
portent déjà sur les entreprises, soit portent sur les organisations au sens
large mais peuvent être étendues aux entreprises en particulier.
Néanmoins, les entreprises et la question de l’homme au travail ont suscité
tant d’intérêt et conduit à tant de conceptualisations théoriques, qu’il est
utile de lui consacrer un chapitre spécifique.
L’entreprise est une unité économique, juridiquement autonome,
organisée pour produire et commercialiser des biens ou des services dans
le but de réaliser des bénéfices (ou profits). Elle représente donc une
forme d’organisation parmi d’autres, qui a fait l’objet de beaucoup
d’attention.
Dans une première partie, nous présentons les apports de la théorie
économique à l’analyse des entreprises (ou des firmes). En retenant la
typologie proposée par Favereau, il apparait que si l’entreprise est
considérée comme une « boîte noire » dans les théories économiques
standards, elle devient au centre des réflexions dans les théories
économiques non standards et les théories standards étendues. Outre les
apports précurseurs d’Adam Smith, nous passons en revue la théorie de
l’agence, la théorie des coûts de transaction, la théorie des marchés
internes et la théorie des conventions.
Dans une seconde partie, nous centrons notre attention sur la stratégie
d’entreprise. En reprenant une démarche proposée par Mintzberg dans
l’ouvrage « Safari en pays stratégique », nous abordons successivement les
différents courants théoriques qui se sont développés, au cours du temps,
pour décrire et expliquer l’élaboration et la mise en œuvre de la stratégie
au sein des entreprises.
Dans une troisième partie, nous portons une attention particulière aux
ressources humaines au sein des entreprises, au-delà des théories qui ont
pu être abordées dans le chapitre 2 sur les relations humaines. Nous
exposons ici des travaux plus récents sur le rôle du manager, la justice
organisationnelle, l’implication au travail ainsi que la confiance
organisationnelle ou encore la résilience.
Enfin dans une quatrième partie, nous analysons l’impact de la culture
sur l’entreprise, à travers deux angles d’approche. Le premier consiste à
analyser l’impact de la culture nationale sur les comportements des
individus au sein des entreprises, et le second porte sur l’analyse de la
culture d’entreprise elle-même.

1. La firme dans la théorie économique


Afin de mieux comprendre les apports de la théorie économique à
l’étude des organisations et notamment des entreprises, nous nous
appuyons sur la typologie établie par Favereau133. Celui-ci retient deux
axes. L’axe horizontal oppose la rationalité limitée procédurale (au sens de
Simon) à la rationalité absolue. L’axe vertical oppose deux conceptions
possibles du rôle de l’organisation vis-à-vis du marché. Dans un cas, ce qui
se passe à l’intérieur de l’organisation est négligeable et sans intérêt pour
comprendre ce qui se passe à l’extérieur, sur le marché. Dans l’autre ce qui
se passe à l’intérieur de l’organisation est important. Le croisement de ces
deux axes définit quatre quadrants qui correspondent à quatre
conceptions économiques, dont certaines constituent des apports pour la
théorie de la firme, alors que d’autres centrent l’attention sur les
mécanismes du marché et occultent l’entreprise, considérée comme une «
boîte noire ».

Le quadrant inférieur gauche est celui de la Théorie Standard (TS),


néoclassique où il n’y a aucune place pour la théorie des organisations
et/ou de la firme : la rationalité absolue des comportements individuels
conduit à l’optimisation, leur coordination est de façon suffisante, unique
et nécessaire assurée par le marché.
Le quadrant supérieur gauche est celui de la Théorie Standard Étendue
(TSE). Le critère de rationalité absolue optimisatrice est maintenu, mais un
rôle est accordé à l’organisation, plus ou moins étendu suivant les cas.
Notamment, et pas seulement, la théorie de l’agence est située dans ce
cadran. A la frontière avec le quadrant supérieur droit, l’économie des
coûts de transactions reconnaît la rationalité substantielle limitée, mais
sans doute pas la rationalité limitée procédurale.
Le quadrant supérieur droit (TnS ou Théorie non Standard) est celui qui
reconnaît la rationalité limitée procédurale et qui de ce fait va intégrer une
plus grande prise en compte des mécanismes internes à l’entreprise. C’est
notamment celui de l’économie des conventions et de la théorie des
marchés internes du travail.
Le quadrant inférieur droit (TSe ou Théorie Standard expérimentale)
contient les théories qui accordent une place à la rationalité limitée, mais
qui ne se soucient pas du rôle de l’organisation, au sens de ce qui s’y passe
en interne. Favereau y situe des travaux expérimentaux sur le
fonctionnement des marchés et des recherches portant sur l’effet agrégé
de décisions adaptatives telles que celles de Nelson et Winter.
Les deux quadrants inférieurs s’intéressent donc peu - ou pas - à
l’organisation et/ou la firme, alors que les deux quadrants supérieurs
proposent des analyses de l’entreprise plus développées.

1.1. Les théories standards


Les théories économiques standards regroupent les travaux des
économistes classiques et néo-classiques.
Au sein de l’école classique qui se développe à la fin du XVIII ème et au
début du XIXème siècle, on peut distinguer le courant de l’école anglaise,
dont les principaux représentants sont Smith, Ricardo ou Malthus ; et celui
de l’école française notamment représentée par Say. L’école néo-classique,
quant à elle, se développe à partir de la deuxième moitié du XIX ème siècle et
regroupe des auteurs comme Walras, Pareto, Allais, Arrow et Debreu.
Nous exposons ici tout d’abord les travaux d’Adam Smith, défenseur du
libéralisme et de la théorie de la « main invisible », mais aussi de la théorie
des sentiments moraux. Puis nous passons en revue les travaux de
théoriciens néoclassiques tels que Walras, Arrow et Debreu afin de
montrer que dans les théories économiques standards, l’entreprise est
considérée comme une « boîte noire », c’est-à-dire qu’elle a une fonction
de production qu’il convient d’optimiser. L’essentiel est le jeu de l’offre et
de la demande mis en relation sur un marché libre. Cette approche laisse
peu de place à l’étude des mécanismes internes aux organisations et à
l’entreprise en particulier.

1.1.1. Adam Smith : entre main invisible et théorie de sentiments


moraux
Adam Smith (1723-1790) est considéré comme le fondateur de l’école
classique et un défenseur du libéralisme économique. Dans son ouvrage «
Recherche sur la nature des causes de la richesse des nations » publié en
1776, il recherche l’origine de la croissance économique. Selon lui, le
libéralisme et le jeu de la concurrence permet de créer un contexte
favorable à la croissance. Ainsi, sous la règle de la concurrence capitaliste,
la recherche de l’intérêt particulier conduit à la réalisation de l’intérêt
général. Chacun cherchant la réalisation de son propre intérêt contribue
inconsciemment à la réalisation de l’intérêt collectif. La concurrence, telle
une « main invisible » guide l’activité économique vers une situation
d’équilibre.
Quoi qu’il en soit, on trouve chez Smith un certain nombre de travaux
précurseurs de l’étude des organisations d’une part dans son analyse de la
division du travail, mais aussi dans les apports d’un ouvrage parfois
méconnu et intitulé « la théorie des sentiments moraux » publié en 1759. Il
y montre que la recherche de l’intérêt personnel est cadrée par les
conditions d’existence de la société. Ce faisant, il introduit une prise en
compte de mécanismes internes à l’organisation et notamment
l’entreprise.
Certes pour Smith chacun recherche son intérêt direct et personnel.
Ainsi, « tout pour nous-mêmes et rien pour les autres, semble, à tout âge
du monde, avoir été la vile maxime des maîtres de l’humanité », écrit-il
dans la Richesse des Nations. Cependant, dans la Théorie des Sentiments
Moraux, il indique que l’homme est naturellement destiné à vivre en
société : « (il) a un amour naturel de la société, l’état ordonné et florissant
de la société lui est agréable et il se délecte à le contempler ».
Comment se combinent ces deux catégories de propositions ?
La notion de justice est essentielle pour comprendre la pensée de
Smith. Aucune société ne peut subsister sans que ses lois ne soient
observées afin d’assurer la justice et donc la sécurité de ses membres. Bien
qu’Adam Smith estime que l’intervention de l’État dans l’économie ne soit
pas souhaitable, il est néanmoins légitime que l’État établisse un appareil
légal afin de définir et punir des crimes qui seraient ainsi contraires au
bien-être social général, ou encore qu’il intervienne dans certains
domaines d’intérêt général. La justice est ainsi nécessaire à la protection
contre les préjudices de la part des autres. Elle est cependant équilibrée
par une vertu positive exercée par chacun au sein de la société : la
bienveillance, qui est la recherche positive du bien-être des autres. Justice
et bienveillance sont ainsi les bases nécessaires du jugement moral de
chacun et le produit naturel des individus vivant ensemble en société.
Cette bienveillance à l’égard des autres, est néanmoins équilibrée par le
souci de son bien être individuel.
Pour Smith il y a plusieurs critères de conduite éthique et ils découlent
naturellement des conditions de vie. Les maximes générales de la moralité
sont formées par expérience et induction de l’observation de nombre de
situations particulières, approuvées ou désapprouvées au cas par cas, et
dont elles sont dérivées, à partir de nos propres sentiments moraux. Bien
que nos premières impulsions puissent être étroitement égoïstes, et mues
par notre intérêt individuel, nous apprenons à les équilibrer en fonction
d’un intérêt personnel éclairé et plus socialement conscient.
Selon l’interprétation de Schellenberg134, l’intérêt personnel fournit le
moteur premier pour le fonctionnement efficace du système de marché,
mais il est supposé être un intérêt personnel éclairé d’individus socialisés
vivant en société. De plus, la socialisation de l’intérêt personnel inclut à la
fois l’acceptation de contrôles légaux sur les comportements indésirables
et le développement de normes éthiques positives qui opèrent à partir de
l’intérieur de l’individu. Enfin, des normes éthiques internes se
développent naturellement du fait de la vie avec d’autres en société. Bien
qu’il y ait toujours une tension entre les normes éthiques et les intérêts
personnels immédiats, cette tension n’est pas entre l’individu et un
quelconque principe imposé de l’extérieur, mais elle découle de notre
nature fondamentale d’êtres sociaux.
Selon Smith l’évaluation morale de chacun est associée à sa capacité de
compassion (empathie ou sympathie). Ainsi, les individus sont capables de
ressentir de la sympathie envers les autres à cause de leur capacité
d’imaginer les sentiments des autres. Non seulement nous sommes en
empathie avec les sentiments que nous imaginons être ceux des autres,
mais aussi nous les jugeons. Nous approuvons (ou désapprouvons) ces
sentiments s’ils correspondent (ou s’écartent) des nôtres.
Ainsi, « rien ne nous plaît plus que d’observer chez les autres un
sentiment de solidarité avec toutes les émotions en notre propre sein et
rien ne nous choque plus que la survenance du contraire ». Cette empathie
est à la racine de notre sensibilité particulière d’être humain et dérive de
notre étroite association avec les autres en société. C’est de celle-ci que
vient notre jugement moral. Graduellement, l’individu développe alors une
« voix intérieure », qui lui forge un jugement généralisé de comment les
gens en viennent à avoir certaines formes de conduite. Ce jugement
généralisé du « spectateur impartial intérieur » nous permet de faire une
comparaison adéquate entre nos intérêts et ceux des autres.
Le spectateur intérieur ne devient impartial que graduellement
puisqu’il a suffisamment intégré solidarité et empathie avec les autres.
C’est la base des sentiments moraux qui ne peuvent eux-mêmes être
évalués avec précision que dans les sentiments de sympathie du
spectateur impartial et bien informé.
Ceci dit, le spectateur impartial ne déplace jamais complétement la
recherche de l’intérêt personnel direct, force motrice essentielle de
l’individu, mais en modère les moyens, par le désir d’être considéré
favorablement par les autres.
L’individu est donc au centre de la société, il la constitue en
recherchant ses intérêts personnels concrets (main du marché) et elle le
forme en tant qu’être moral par interactions avec les autres individus
(sympathie).
1.1.2. La théorie néo-classique
L’approche standard de la théorie économique néoclassique est celle
du modèle de l’équilibre général initié par Walras. Ce modèle met en
évidence les conditions sous lesquelles, en situation de concurrence, il
existe un système de prix qui assure l’égalité de l’offre et de la demande.
Léon Walras (1834-1910) estime que la valeur d’un bien est fonction de
son utilité et de sa rareté. Dans « les éléments d’économie politique pure »
(1874), il présente le modèle de l’équilibre général.
Dans sa forme traditionnelle, le modèle de l’équilibre général est
formulé dans le cadre d’une hypothèse de « concurrence pure et parfaite »,
dans laquelle d’une part il y a transparence et gratuité de l’information et
d’autre part l’avenir est certain.
Ainsi, selon Kenneth Arrow135 (1921-2017), « la théorie de l’équilibre
général comme l’essentiel de la théorie économique jusqu’aux environs de
1950, fait l’hypothèse que les agents économiques agissent dans un avenir
certain, c’est à dire que les ménages, les firmes, les investisseurs, etc.
connaissent correctement les conséquences de leurs actions ou, dans
quelque cas, agissent au moins comme s’ils les connaissaient. »
A partir des années 1950, les économistes néoclassiques élargissent les
résultats auxquels ils sont parvenus dans le cadre de l’hypothèse
d’information parfaite, à des situations marquées par une incertitude.
Le modèle Arrow-Debreu136, qui constitue la référence moderne de
l’approche en termes d’équilibre général, s’appuie sur le concept de «
contrats contingents »137. Cette approche permet de transformer «
l’incertitude » sur l’environnement – non assurable – en « risque » –
assurable.
Pour illustrer ce mécanisme, prenons un exemple simple cité par
Hahn138. Un agent souscrit un contrat conditionnel dans lequel il échange
une quantité de travail aujourd’hui contre l’assurance d’obtenir un jus
d’orange demain si (et seulement si) il attrape un rhume. Ainsi, « un
homme qui veut échanger du travail aujourd’hui contre un jus d’orange
demain, au cas où il aurait un rhume, peut le faire aujourd’hui en vendant
son travail actuel et en souscrivant le contrat conditionnel suivant : un jus
d’orange demain si j’ai un rhume et rien si je n’en ai pas. Cet homme doit
former des anticipations sur la probabilité d’attraper un rhume, mais pas
sur les variables du marché. »
Par le biais de ce contrat, l’agent transforme « l’incertitude » qu’il avait
quant au fait d’avoir, ou non, un jus d’orange au cas où il attraperait un
rhume, en un « risque » assurable. La survenance d’un rhume est
l’événement externe assuré. Le montant de la prime prend en compte la
probabilité de survenance de l’événement assuré.
Le fait que l’incertitude soit transformable en risque assurable repose
sur l’hypothèse fondamentale selon laquelle les différents états du monde
et leurs conséquences sont connus par les agents. S’il en était autrement,
certains risques (ceux liés à la survenance des états du monde non connus)
ne seraient pas assurables. Ainsi, le modèle Arrow-Debreu suppose que
l’état de nature qui va être réalisé ne peut prendre qu’un nombre fini
d’alternatives et que les conséquences de chacune de ces alternatives sont
connues par les agents.
Finalement, dans les théories standards, il n’y a dans l’entreprise qu’un
seul individu qui compte, c’est le producteur qui cherche la maximisation
de son profit. Le travail est un facteur de production que l’entrepreneur
s’assure au moyen de contrats individuels éventuellement contingents.
Les entreprises ne sont bien sûr pas absentes des analyses
néoclassiques, mais – sauf exception – elles sont considérées comme des
unités techniques définies par une fonction de production qui combine des
facteurs de production à un coût minimum et fixent le prix de leurs
produits en fonction du marché afin d’atteindre un profit maximum. Les
mécanismes internes qui y opèrent entre les individus n’est donc pas pris
en considération et ne constitue pas l’objet d’étude.
Par conséquent, dans les théories standards, en dehors des apports
d’Adam Smith, l’organisation et l’entreprise sont quasiment toujours
considérées comme une « boîte noire ».
1.2. La théorie standard étendue
On attribue à Berle et Means139 l’idée de considérer la firme comme un
nœud de contrats. Dès lors, le pouvoir décisionnel passe des actionnaires,
propriétaires de l’entreprise, aux dirigeants, aux managers et aux salariés.
Dès lors, il devient nécessaire de comprendre les différentes relations entre
ces acteurs.
Au sein de la théorie standard étendue, nous présentons d’une part la
théorie de l’agence et d’autre part la théorie des coûts de transaction 140.

1.2.1. La théorie de l’agence


Comme son nom l’indique, la théorie de l’agence 141 s’intéresse
spécifiquement aux « relations d’agence ». Cette dernière recouvre toute
situation dans laquelle deux agents économiques sont en présence, le
mandant (ou principal) et le mandataire (ou agent) et où le mandant
délègue une partie (ou la totalité) de son pouvoir de décision au
mandataire.
Ainsi, Jensen et Meckling142 définissent une relation d’agence « comme
un contrat dans lequel une ou plusieurs personnes (le principal) a recours
aux services d’une autre personne (l’agent) pour accomplir en son nom une
tâche quelconque, ce qui implique une délégation de nature décisionnelle à
l’agent ».
La théorie de l’agence s’intéresse donc aux situations où il existe une
asymétrie d’information au profit du mandataire. Un problème d’agence
apparaît alors quand il y a divergence d’intérêts entre le principal et, en
situation d’asymétrie d’information et d’imparfaite observabilité des
efforts de l’agent. On distingue deux types de problèmes d’agence : la «
sélection adverse » et « l’aléa moral ».
Il y a sélection adverse (ou information cachée) lorsqu’une partie
utilise à son profit une information dont il dispose sur un élément qui fait
l’objet du contrat sans la révéler à l’autre, avant la passation du contrat.
Une situation de « sélection adverse » apparaît lorsque le mandataire
dispose d’un avantage informationnel sur une variable exogène, c’est à dire
sur une variable qui ne relève pas d’une décision ou d’une action de sa
part.
Il y a « sélection adverse » lorsque le mandataire utilise à son profit une
information dont il dispose sur un élément qui fait l’objet du contrat, sans
le révéler au mandant, avant la passation du contrat.
Les mécanismes de « sélection adverse » ont d’abord été étudié dans le
cadre des assurances. Ainsi, en ce qui concerne l’assurance sur la vie,
l’assuré (le mandataire) a une meilleure connaissance, que l’assureur (le
mandant), quant à sa santé. Or, pour une prime d’assurance donnée,
l’agent qui anticipe, compte tenu de son état de santé, qu’il a une longue
durée de vie, sera moins enclin à s’assurer que celui qui anticipe une
courte durée de vie. Il s’ensuit que ce sont les personnes qui anticipent une
durée de vie courte qui vont s’assurer et non ceux qui anticipent une durée
de vie longue.
Par conséquent, du point de vue de l’assureur, le marché sélectionne
les mauvais agents. Ainsi, selon Arrow143 : « le problème de la sélection
adverse a d’abord été étudié dans plusieurs cas d’assurances. La population
assurée est hétérogène par rapport au risque. Dans le cas de l’assurance
sur la vie, par exemple, certains ont une probabilité plus élevée que
d’autres de mourir jeune. Au moins dans certains cas, l’assuré a une
meilleure connaissance de cette probabilité que l’assureur qui n’est pas en
mesure de différencier les situations. Si l’on demande à chacun de payer la
même prime, les personnes à haut risque passeront plus de contrats
d’assurance que les personnes à faibles risques ; ce qui conduit à une
allocation inefficace de la prise de risque ».
La notion de « sélection adverse » peut également être illustrée à
travers un exemple célèbre développé par George Akerlof 144 qui a reçu le
prix Nobel d’économie en 2001 (avec Spence et Stiglitz). Ainsi, ce dernier
s’intéresse au marché des voitures d’occasion et fait l’hypothèse que
lorsqu’un individu achète une voiture (qu’elle soit neuve ou d’occasion) il a
une faible connaissance du fait que ce véhicule soit une bonne voiture ou
un « tacot ». En revanche, à partir du moment où il a utilisé cette voiture
pendant un certain temps, son information quant à la qualité du véhicule
s’améliore. Au moment où il revend sa voiture sur le marché des occasions,
il aura alors une information supérieure, à l’acheteur, sur le fait que son
véhicule est, ou non, un tacot. S’il estime que la probabilité que son
véhicule soit un tacot est élevée, il peut alors ne pas en avertir l’acheteur.
Akerlof, montre que la « sélection adverse » conduit à ce que les mauvaises
voitures chassent les bonnes, c’est à dire que les transactions sur le marché
s’effectuent sur des produits de mauvaise qualité.
Il y a aléa moral lorsqu’une partie à la transaction a une incertitude sur
l’action à venir de l’autre partie, après la passation du contrat, dans un
contexte où d’une part le résultat obtenu par le mandant dépend de
l’action du mandataire et d’autre part l’action du mandataire n’est pas
directement observable par le mandant.
La notion d’aléa moral s’applique à de nombreux domaines dont en
particulier les assurances, la relation entre les actionnaires et la direction
d’une entreprise, la relation entre les salariés et l’employeur d’une
entreprise. Dans le domaine des assurances, il existe effectivement la
possibilité que l’assuré adopte un comportement qui augmente sa prise de
risque par rapport au comportement qu’il aurait s’il supportait
entièrement les conséquences négatives du sinistre. Dans la relation
employé/employeur, il existe une incertitude pour l’employeur, sur le fait
que le salarié mettra bien tout en œuvre au service de l’entreprise. Il va
alors développer des stratégies pour contrôler le salarié et réduire son
incertitude.
De même que pour la « sélection adverse », le concept « d’aléa moral »
a été étudié, en premier lieu, dans le cadre des assurances. Ainsi, prenons
par exemple le cas de l’assurance incendie. Après la signature d’un contrat
d’assurance incendie, le bénéficiaire de l’assurance peut avoir tendance à
adopter un comportement moins prudent, puisqu’en cas d’incendie ce ne
sera pas lui mais l’assurance qui supportera les dommages. Il s’ensuit que
l’assureur aura des coûts plus ou moins élevés, selon que l’assuré adopte,
ou non, un comportement prudent (le comportement prudent demandant
un effort supérieur au comportement imprudent, pour le mandataire).
Ainsi Arrow145 indique : « l’assurance incendie réduit l’incitation à la
prudence et peut même constituer une incitation à la mise en place
d’incendies. Cela constitue l’origine du terme aléa moral. L’assurance
maladie crée un problème analogue, incitant à consommer des soins de
façon excessive. Le patient peut choisir des traitements plus coûteux qu’il
ne le ferait s’il devait les payer lui-même au lieu que ce soient les
assurances. ». Mais les mécanismes de « l’aléa moral » s’appliquent à un
grand nombre d’autres domaines, tels que (parmi les plus célèbres) la
relation malade-médecin, la relation entre les actionnaires et la direction
d’une entreprise ou encore la relation contractuelle de travail entre
l’employeur et le salarié.
Il s’ensuit que dans la théorie de l’agence, l’organisation est considérée
comme une fiction légale qui recouvre un ensemble de contrats, écrits ou
non entre propriétaires et acheteurs des facteurs de production. Ces
contrats ou règles internes du jeu, spécifient les droits, performances et
paiements de chacun des agents de l’organisation.

1.2.2. L’économie des coûts de transactions


L’économie des coûts de transaction est associée aux travaux d’Olivier
Williamson146 (1932-2020) à la suite d’une analyse célèbre de Ronald
Coase147 (1910-2013). Elle est fondamentale en ce qu’elle constitue une
théorie explicative de l’existence de la firme.
L’analyse des coûts de transaction, de Williamson, s’insère dans le
prolongement des travaux de Coase qui s’interroge sur les raisons de
l’existence des firmes. Son objectif est de répondre à la question de savoir
pourquoi l’échange ne se réalise pas directement par le marché et à quoi
sert l’entreprise.
Dit autrement, si le marché est le mode le plus efficace d’allocation des
ressources, pourquoi des entreprises existent-elles ?
La réponse fournie par la théorie des transactions à cette question est
la suivante : si des entreprises existent c’est parce qu’elles permettent de
réduire les coûts de transaction. En effet, les transactions, sur un marché,
présentent des coûts. L’apparition de la firme supprime certains coûts de
transaction du marché en les internalisant. Ainsi, Williamson148 nous dit : «
l’économie des coûts de transaction soutient l’hypothèse réfutable que la
variété organisationnelle émerge essentiellement pour réaliser des
économies de coûts de transaction. »
En effet, les transactions sur un marché présentent des coûts. Les coûts
de transaction sont l’ensemble des coûts qui résultent de l’élaboration du
contrat et du contrôle de son application, soit pour l’essentiel :
• Les coûts inhérents à la recherche et au fonctionnement de systèmes
(légaux ou autres) qui garantissent que chacun respectera ses
engagements.
• Les coûts entraînés par la recherche et l’énumération de toutes les
éventualités qui peuvent survenir pendant la période d’exécution du
contrat.
• Les coûts provoqués par la négociation entre les parties.
• Les coûts de contrôle de l’engagement contractuel.
Ainsi, en reprenant les termes de Williamson (1994) : « on distingue
des coûts de transaction ex-ante et ex-post. Les coûts ex-ante sont ceux
occasionnés lors de la rédaction et de la négociation des accords. Ils varient
selon la nature du bien ou du service qui doit être produit. Les coûts ex-post
comprennent les coûts d’organisation et de fonctionnement de la structure
de gouvernance qui a en charge la fonction de contrôle ainsi que le
règlement des conflits ; les coûts de mauvaise adaptation, occasionnés par
l’échec à rétablir les positions sur la courbe mobile du contrat ; les coûts de
marchandage qui accompagnent les ajustements (ou leur absence) ; et les
coûts d’établissement d’engagements sûrs. »
L’apparition de l’entreprise supprime ces coûts de transaction de
marché en les internalisant. Par exemple le contrat de travail est une
relation de subordination qui crée le marché interne du travail. Donc une
organisation à structure hiérarchique, l’entreprise, inclut sous une autre
forme (salaire) ce qui serait le coût des contrats sur un marché. Les
processus internalisés par l’entreprise sont ceux qui ne sont pas réalisés
efficacement par le marché en raison des coûts de transaction. Ceux-ci
couplés aux économies d’échelle conduisent à la création d’organisations.
De plus, l’information est considérée comme un bien rare, elle a de la
valeur, c’est un bien économique. Williamson procède donc à une analyse
en termes de coûts de transaction et en particulier des coûts de
l’information mais aussi ceux liés à la recherche d’un compromis, de
standardisation de qualité du produit, de taxes, etc. Quand ceux-ci
deviennent inférieurs dans une hiérarchie à ceux qui se produiraient en
transactions sur un marché, la forme de l’entreprise est préférable.
Les transactions ne se faisant pas sans friction et donc entraînant des
coûts, l’organisation hiérarchique prévaudra sur le marché quand quatre
facteurs seront présents plus ou moins fortement.
Deux de ces facteurs sont liés à l’environnement :
• L’incertitude et la complexité.
• Le petit nombre de participants au marché, qui entraîne une
indétermination de la transaction.

Les deux autres facteurs sont liés aux hypothèses comportementales


des individus :
• La prise en compte de la « rationalité limitée ».
• L’opportunisme des individus.

En général, très globalement, si ces facteurs sont présents à un degré


suffisant l’entreprise l’emportera sur le marché. En effet, chacun d’entre
eux à son niveau, joue un rôle significatif. Il s’agit d’abord de l’incertitude,
car plus elle règne sur l’exécution d’un contrat une fois conclu sur un
marché et/ou sur la nature et la qualité des prestations, plus il sera
avantageux d’en sortir. Par ailleurs la complexité des transactions rend
difficile de prévoir toutes les possibilités dans un contrat et d’envisager les
conséquences de toutes les éventualités. De plus un risque
d’opportunisme et d’action d’une partie au détriment de ses engagements
existe d’autant plus que les circonstances sont complexes et incertaines. Le
petit nombre d’opérateurs sur un marché rend plus difficile de se protéger
de l’opportunisme car les agents ne peuvent mettre en concurrence
plusieurs contreparties possibles.
Il résulte des hypothèses comportementales et sur l’environnement
une incomplétude contractuelle.
Un comportement opportuniste consiste à rechercher son intérêt
personnel en recourant à la ruse et à diverses formes de tricherie. Ainsi,
Williamson149 indique : « par opportunisme, j’entends une recherche
d’intérêt personnel qui comporte la notion de tromperie. Cette dernière
inclut les formes les plus apparentes telles que le mensonge, le vol et la
tricherie. Mais elles ne se cantonnent pas à ces extrêmes et l’opportunisme
implique plus souvent des formes plus subtiles de tromperie. Il inclut les
deux formes actives et passives, ainsi que les deux types ex-ante et ex-post.
L’opportunisme ex-ante et ex-post est connu dans la littérature d’assurances
sous les termes respectifs de sélection adverse et de risque moral. (...) Ces
deux attitudes sont résumées ici sous le terme d’opportunisme. Plus
généralement, l’opportunisme se réfère à la divulgation d’informations
incomplètes ou dénaturées spécialement aux efforts calculés pour
fourvoyer, dénaturer, déguiser, déconcerter ou semer la confusion. Il est
responsable des conditions réelles ou artificielles d’informations
asymétriques, lesquelles compliquent largement les problèmes
d’organisation économique. (...) Les problèmes d’organisation économique
deviennent plus complexes si on reconnaît que la propension à se
comporter de façon opportuniste varie parmi la population contractante. »
Ces mécanismes d’opportunisme reprennent les logiques associées aux
asymétries d’information déjà décrite dans la théorie de l’agence.
L’asymétrie d’information ex-ante est basée sur l’information cachée et
correspond à la sélection adverse. L’asymétrie d’information ex-post
concerne une action cachée correspond à l’aléa (ou hasard) moral. Il s’agit
d’actions que les parties à la transaction peuvent prendre, après avoir
conclu la transaction. La théorie des coûts de transaction se distingue
néanmoins fondamentalement de la théorie de l’agence dans la mesure où
elle adopte une hypothèse de « rationalité limitée ». Celle-ci est conçue
par Williamson comme telle qu’elle empêche le décideur de prendre en
considération tous les aspects d’une situation. De plus, dans cette situation
l’organisation spécialise la prise de décision et économise sur le coût des
communications, par rapport au marché.
Notons qu’il existe d’autres théories alternatives150 pour expliquer
l’existence des organisations, mais il n’est pas dans notre propos de les
développer ici.
Enfin il faut surtout ajouter, dans l’évolution de la pensée de
Williamson, la spécificité des actifs. Il y a spécificité des actifs quand un
investissement durable (matériel ou immatériel) doit être entrepris pour
supporter une transaction particulière et que cet investissement n’est pas
redéployable sur une autre transaction. La spécificité des actifs change la
nature des relations entre agents. Il se crée un lien de dépendance
mutuelle durable entre les parties qui conduit à des problèmes quant à
l’organisation de leurs relations (contrôle du respect des engagements,
définition des règles de partage des résultats de la coopération etc.).
L’existence d’actifs spécifiques incite à passer par le biais d’organisations
plutôt que par le marché car les garanties sont plus fortes et les coûts sont
moindres.
Par conséquent, il apparait que la théorie de l’agence apporte des
éléments très riches de compréhension des mécanismes liés aux situations
d’asymétrie d’information, entre un mandant et un mandataire,
notamment au sein des firmes (comme la relation entre
actionnaires/dirigeants et employeurs/salariés). Les travaux de Williamson
sur les coûts de transaction, quant à eux, donnent une explication à
l’existence même de la firme, comme réponse à la défaillance du marché.

1.3. Les théories non standards


Au sein des théories non standards, nous exposons d’une part la
théorie des marchés internes du travail et d’autre part la théorie des
conventions.

1.3.1. L’organisation en tant que marché interne de travail


La théorie de Doeringer et Piore 151 met en évidence l’existence de
marchés internes du travail. Ceux-ci s’opposent au marché externe du
travail qui correspond à la gestion de l’emploi en référence au marché.
Les marchés internes se développent à cause de trois facteurs
principaux : la spécificité des qualifications, l’existence d’une formation
sur le tas et les coutumes.
Premièrement, la spécificité de la formation et de la qualification
favorise les marchés internes, car plus une qualification est spécifique à
une entreprise donnée, plus elle lui est utile et elle sera payée par
l’employeur qui en a besoin. Inversement, plus la qualification est
spécifique et moins elle est utilisable ailleurs par le salarié, donc plus
employeur et salarié sont liés.
Deuxièmement, la formation sur le tas, intégrée au processus de
production, informelle, par observation de l’occupant d’un emploi, efface
les distinctions entre les catégories de postes internes, et facilite la
mobilité vers le haut, sans coûts externes de formation, mais à l’intérieur
de l’entreprise seulement.
Enfin, troisièmement, la coutume du lieu de travail constituée d’un
ensemble de règles non écrites basées sur les précédents et les pratiques
suivis dans le passé apparaît quand la relation de travail est stable. Or,
l’apprentissage de ces coutumes demande du temps et leur connaissance
est indispensable au bon fonctionnement de l’entreprise.
L’existence de marchés internes du travail conduit à un double marché
du travail qui, au lieu de considérer le marché du travail, c’est-à-dire de
ceux qui cherchent ou occupent un emploi, comme unique, admet qu’il est
segmenté, en au moins deux sous-ensembles.
D’une part, il existe un marché primaire caractérisé par des emplois
stables, de bonnes conditions de travail, des garanties quant à l’exercice
d’une discipline équitable et éventuellement des syndicats qui défendent
les intérêts des salariés. D’autre part, s’oppose un marché secondaire
caractérisé par des bas salaires, un taux très élevé de rotation du
personnel, de mauvaises conditions de travail et une supervision et une
discipline autocratique et dépourvue de garanties.
Sur le marché secondaire du travail, les postulats néo-classiques
s’appliquent et le marché est fluide. L’employeur embauche et licencie en
fonction des besoins en main d’œuvre de la production. Il n’en est pas de
même sur le marché primaire du travail où la main d’œuvre tend à devenir
un facteur de production à coût quasi-fixe.
Cette dualité du marché du travail est liée à l’existence des marchés
internes du travail dans les entreprises. En effet, le prix et l’usage du travail
(salaire et niveau d’emploi) ne sont plus gouvernés par le marché, mais
dans une entreprise, ou partie d’une entreprise, ils sont gouvernés par une
série de règles administratives, de procédures et de coutumes propre à
cette entreprise ou partie d’entreprise. À l’intérieur du marché interne,
salaires, promotion, droits et privilèges des salariés sont donc gouvernés
par des règles qui ne dépendent pas directement de l’évolution du marché.
Ces marchés internes du travail présentent des avantages pour
l’employeur et les salariés. Pour les salariés, ils amènent des garanties
d’emploi, un traitement et une supervision souvent plus équitables et des
procédures d’avancement et d’évolution de carrières plus prévisibles. Pour
l’employeur, ils présentent des coûts et des contraintes qui peuvent peser
sur la productivité, mais il existe aussi des avantages à stabiliser la relation
de travail et à avoir des salariés dont les qualifications, maitrise des
coutumes et compétences spécifiques sont adaptées aux besoins de
l’entreprise.
Par conséquent, l’analyse en termes de marché internes du travail met
l’accent sur l’organisation interne des collectifs de travail et leur
coordination en vue de créer des richesses.

1.3.2. L’économie des conventions


L’économie des conventions est une approche qui se développe à partir
des années 1980 et qui s’intéresse à la nature des relations de
coordinations entre les individus qui agissent sous la forme de collectifs.
Elle est notamment développée par Favereau152, Orléan153, Dupuy, Salais154,
Boltansky et Thevenot155 ou encore Eymard-Duvernay156.
En retenant l’hypothèse de rationalité limitée des acteurs, la théorie
des conventions considère que les coordinations entre individus prennent
une autre forme que celle du marché. Elles ne sont pas non plus des
contrats, elles sont autre chose, qui est appelé « convention ».
Dupuy157 formalise ainsi une convention :
« Régularité de comportement R qui dans une population P satisfait les
conditions suivantes :
• chacun se conforme à R ;
• chacun croit que les autres se conforment à R ;
• cette croyance que les autres se conforment à R donne à chacun une
bonne et décisive raison de se conformer à R ;
• tous préfèrent une conformité générale à R plutôt qu’une conformité
légèrement moindre que générale et en particulier du type tous sauf un
;
• R n’est pas la seule régularité possible à satisfaire ces conditions,
d’autres sont possibles, elle ne s’impose donc pas de toute évidence ;
• les états de fait précédents sont de « common knowledge ».

La notion de « common knowledge » exige d’être précisée. Ainsi, une


proposition est de « common knowledge » entre deux individus si « l’un la
sait et l’autre la sait et que le premier sait que le second la sait et que le
second sait que le premier la sait et que le premier sait que le second sait
qu’il la sait et que le second sait que le premier sait qu’il sait qu’il la sait…
et ainsi de suite ». Le point important est qu’il ne suffit pas qu’une
proposition ou un état du monde soient connus de chacun pour être de «
common knowledge ». Un fait peut être connu de tous sans que personne
ne soit sûr que tous les autres le connaissent.
Les règles organisationnelles ne se réduisent donc pas exclusivement à
des contrats ni à des contraintes. Elles sont « autre chose », à savoir des «
conventions », c’est-à-dire en fait des dispositifs cognitifs collectifs. En tant
que dispositif cognitif, elles permettent une économie de savoir. Certes le
recensement complet de toutes les éventualités concevables, comme dans
une conception contractuelle est infaisable ou inapplicable. C’est la
constatation de « l’incomplétude des contrats ». Cependant, si les individus
ont l’intention de parvenir à un arrangement, préférable pour tous, à pas
d’arrangement du tout, parmi toute une classe d’arrangements possibles,
ils peuvent contourner cette incomplétude158 : « au lieu de définir leur
relation en extension (par l’énumération des paires de comportements,
pour chaque état de la nature), ils vont la définir en compréhension (par la
qualification de leur domaine de coopération, probablement assortie du
choix d’une procédure de contrôle ex post, de la conformité des
comportements successifs au cadre convenu de coopération (ex ante) ». En
d’autres termes, les partenaires distinguent deux niveaux d’interaction : au
méta niveau on se met d’accord sur un schéma général et simplifié de
coopération et au niveau inférieur, chacun apprécie si les actions qui
découlent des stratégies individuelles de chacun rentrent dans le cadre de
ce schéma, qui sert de grille de lecture à des éléments futurs imprévisibles.
Il s’agit là d’un objet collectif, et non plus simplement interindividuel.
Derrière tout système de règles, il n’y a ni contrat ni contrainte, mais une
convention de ce type qui permet l’action commune et l’apprentissage
collectif.
Ces conventions sont des modèles, des réponses et des outils. Des
heuristiques et non des algorithmes. La véritable raison qui fait que chacun
roule à droite (ou s’arrête aux feux rouges) n’est ni une contrainte
(l’amende) puisqu’il n’y a pas de gendarmes à tous les carrefours, ni un
contrat passé entre tous les automobilistes, ni le « common knowledge »
où chacun sait que chacun sait que chacun sait… qu’il va s’arrêter, à l’infini
(puisque dans certains cas certains ne s’arrêtent pas), mais le fait que, dans
la plupart des cas chacun a intérêt à s’arrêter et reconnaît comme légitime
cette contrainte juridique (qui comporte néanmoins des exceptions, par
exemple dans les cas particuliers, tel un feu en panne bloqué au rouge, où
une nouvelle convention peut s’appliquer).
Une convention est donc un mode de coordination des
comportements, jouant aux deux niveaux de l’établissement d’un principe
(ou règle) et de sa mise en œuvre. Elle est relativement arbitraire car
d’autres principes (ou règles) auraient été possibles et il n’y a pas eu de
débat critique. Elle est par ailleurs située sur une gamme qui va du
formalisé à l’implicite. Enfin, elle est tenue pour acquise par tous, même si
elle n’est pas expressément acceptée par tous.
Par conséquent, la notion de convention répond au problème de
l’incomplétude des contrats. Elle permet une sorte « d’arrangement » sans
chercher à prévoir l’ensemble des cas possible et conduit à un
comportement collectif.
Dans les économies de la grandeur, Boltansky et Thévenot159
s’intéressent aux différentes formes d’accords et montrent qu’il existe
différents objets sociaux et différentes manières de les aborder. Ils
distinguent alors six « cités » et six « mondes » qui répondent à des
logiques d’action différentes160.
Les auteurs distinguent tout d’abord six cités inspirées de la
philosophie politique : la cité marchande, la cité inspirée, la cité
domestique, la cité de l’opinion, la cité civique et la cité industrielle.
La « cité marchande » repose sur l’établissement d’un lien marchand
unissant les individus par l’intermédiaire de biens rares recherchés de tous.
Les hommes sont animés, à la différence des animaux, d’une passion « à
faire des trocs et des échanges ». Ils identifient comme désirables et
convoitent des biens rares pour lesquels ils sont en concurrence. Ces
individus animés par la « sympathie » (au sens des sentiments moraux
d’Adam Smith) sont donc capables de s’examiner du point de vue de l’autre
(spectateur impartial), ce qui définit et donne de la valeur aux biens
communément convoités, mais poursuivant leurs intérêts personnels. Ils
entrent en concurrence pour l’attribution de ces biens, construisant ainsi le
marché de ces mêmes biens. Leur possession crée la richesse, qui confère
la prééminence. Dans cette cité, la commune humanité distingue les
personnes et les biens, qui seuls peuvent être échangés, les différences de
richesses ordonnent des états distincts, la commune dignité de s’enrichir
est ouverte à tous, mais suppose le coût d’y investir son temps quasi
exclusivement. Enfin, le bien commun résulte de ce que les richesses
entretiennent la concurrence sur les marchés et les échanges qui profitent
à la cité.
La « citée inspirée » est fondée sur l’œuvre de Saint Augustin. Son
principe supérieur commun est celui de la grâce. L’état de grandeur est
l’inspiration qui se passe de la reconnaissance des autres et néglige
l’opinion.
La « cité domestique », repose sur les apports de Bossuet. Son principe
supérieur commun est la hiérarchie, fondée par la loi divine. L’état de
grandeur dépend du rang et de la position que les individus y occupent
dans une chaîne de dépendances personnelles et qui fondent leur autorité
et leur soumission. L’état de grandeur du Prince, père de ces sujets,
bénéficie à tous et pèse sur lui qui fait à tous le sacrifice de sa personne.
Bien que non égaux, à cause de leurs fonctions différentes, les membres de
cette cité sont tous semblables et relèvent donc du principe de commune
humanité, et tous peuvent en appeler au Prince.
La « cité de l’opinion », reprend la conception de l’honneur de Hobbes.
Le principe supérieur commun est l’opinion des autres, le renom. La
grandeur est établie par l’estime que les gens se portent, qui détermine le
prix ou la valeur d’un homme. Son niveau dépend du nombre de ceux par
qui l’on est reconnu et de la reconnaissance qu’ils accordent, établissant
ainsi le pouvoir.
La « cité civique » trouve son support dans le contrat social de
Rousseau. Le Prince, devenu désincarné est remplacé par la volonté
générale, obtenue quand chacun se détournant de ses intérêts particuliers,
recherche le bien en général, le bien commun et l’intérêt de tous. La
volonté générale s’oppose ainsi à la volonté de tous, simple somme des
intérêts particuliers. L’état de grandeur est le service par l’individu d’une
cause qui le dépasse. Cette grandeur se mesure au degré auquel on est
exposé au regard d’autrui
Enfin, la « cité industrielle » s’érige en référence à Saint-Simon. Elle est
fondée sur l’objectivité des choses qui se forment naturellement. La
grandeur repose sur l’expertise, la compétence, l’intelligence.
Ces « cités » s’incarnent dans des mondes communs, réels, qui
contiennent personnes et objets. Des « litiges » se produisent dans ces
mondes, désaccords inévitables sur les grandeurs des personnes dans les
situations présentées par un monde commun entre individus justifiant
leurs comportements et attitudes. Ces litiges sont tranchés par des
épreuves, qui règlent le désaccord en clarifiant la situation par appel au
principe supérieur commun. La justification par les personnes de leurs
conduites et de leurs jugements présuppose leur capacité de reconnaître la
nature des situations.
Une grille d’analyse des mondes communs comprend les éléments
suivants :
• Le principe supérieur commun, déjà évoqué, établit une équivalence
entre les êtres, les qualifie et fournit une échelle de mesure.
• L’état de grand incarne le principe supérieur commun de la façon la
plus générale, et dans sa contribution au bien commun.
• La commune dignité des personnes exprime la capacité potentielle de
chacun à s’élever dans le bien commun et son humanité.
• Le répertoire des sujets contient ceux qui sont pertinents dans le
monde considéré et leur grandeur.
• Le répertoire des objets agit de même pour les objets leur agencement
avec des sujets et leur combinaison en dispositifs.
• La formule d’investissement est le sacrifice à consentir pour l’accès à
l’état de grand.
• Le rapport de grandeur précise la relation entre états de grandeurs et
comment ils comprennent les états de petit.
• Les relations naturelles entre les êtres unissent sujets et objets en
rapports d’équivalence et d’ordre.
• La figure harmonieuse de l’ordre naturel est l’image de la réalité qui le
réalise et vers lequel il tend.
• L’épreuve modèle est une situation qui, dans ce monde, se tient en
ellemême.
• Le mode d’expression du jugement, qui sanctionne l’épreuve, est
caractéristique du principe supérieur commun de chaque monde ;
• La forme de l’évidence est la modalité de connaissance propre au
monde considéré.
• L’état de petit se conçoit par opposition à l’état de grand.

Pour étudier la mise en œuvre des principes supérieurs communs dans


des mondes réels et concrets, Boltansky et Thévenot se tournent vers des
guides d’action ou des manuels de comportement à destination des cadres
d’entreprise
Il en découle ainsi que le « monde de l’inspiration », peu stable, soumis
à variations et s’appuyant sur peu d’éléments concrets, a comme principe
supérieur commun le jaillissement de l’inspiration. L’état de grand,
spontané et fascinant a les caractères de l’illumination et de la
transformation intérieure. La commune dignité est le désir de créer et la
création. La formule d’investissement implique de s’évader des habitudes,
rejeter les normes et de prendre des risques. Le rapport de grandeur
englobe les petits dans le génie singulier des grands qui affirme la dignité
humaine. Les relations entre les êtres sont des rencontres de création, de
découverte. La figure harmonieuse est celle de l’imaginaire et de
l’inconscient. Le mode d’expression du jugement est l’éclair de génie, le
dépassement, le chef d’œuvre qui sanctionne l’épreuve modèle de
l’aventure intérieure, la quête mentale. La forme de l’évidence est
l’intuition qui permet de déchiffrer les signes. Enfin, l’état de petit est le
sacrifice au monde de l’opinion et de la routine, le retour sur terre par
rapport à l’envol.
Le « monde domestique » met l’accent sur les rapports entre les gens. Il
a comme principe supérieur commun l’inscription depuis la tradition dans
une chaîne de dépendances personnelles. L’état de grand est la supériorité
hiérarchique due elle-même à l’appréciation des supérieurs. La commune
dignité est l’aisance et le naturel, à sa place propre. Les sujets
comprennent notamment supérieurs et inférieurs dans une relation
d’ordre et les objets les règles du savoir-vivre. Le rapport de grandeur
englobe les petits dans l’identité des grands qui en sont responsables. Les
relations entre les êtres sont le commerce de gens éduqués et bien élevés,
la figure harmonieuse est celle de l’esprit ou de l’âme d’un foyer ou d’un
milieu social, dû à son chef. Le mode d’expression du jugement est savoir
ou non accorder sa confiance et l’épreuve modèle la cérémonie familiale
ou mondaine. Les formes de l’évidence sont celles de l’exemple illustré par
une anecdote. L’état de petit se manifeste par le laisser-aller, le sans-gêne,
la vulgarité, l’ostentation.
Le « monde de l’opinion », à l’inverse, se soucie peu de la tradition et
de la mémoire et ne s’appuie que sur peu d’éléments intrinsèques au
grand. Son principe supérieur commun est l’opinion des autres. L’état de
grand est la célébrité. La commune dignité est celle de l’amour-propre et
du désir d’être reconnu et considéré. Les sujets comprennent notamment
stars, supporters, groupies et personnalités, et les objets les média, les
messages, la marque, les relations publiques et le décor. La formule
d’investissement implique de renoncer au secret et de se découvrir
intégralement ainsi que le fait que les grands aient des devoirs plus que
des droits qu’ils doivent assumer en rejetant l’égoïsme. Le rapport de
grandeur englobe les petits dans leur identification avec les grands. Les
relations entre les êtres sont de persuasion, d’influence, de séduction et
d’amplification. La figure harmonieuse est celle de l’image dans le public et
de l’audience. L’expression du jugement est celle de l’opinion et l’épreuve
modèle la présentation de l’événement sous le regard des autres. La forme
de l’évidence est d’être connu du plus grand nombre et l’état de petit
caractérisé par la banalité ou l’indifférence.
Le « monde civique » s’attache aux collectifs et aux dispositifs qui les
mettent en évidence et les stabilisent. Son principe supérieur commun est
la prééminence du collectif et la volonté générale qui s’y exprime et prime
les volontés individuelles. L’état de grand est leur représentativité unifiée
par organisation des masses et celui des individus solidaires qui adhèrent.
La commune dignité est celle de l’aspiration aux droits civiques et la
participation à ce qui est commun. Les sujets sont les personnes collectives
et leurs représentants et les objets les formes légales qui les stabilisent et
manifestent leur réalité. La figure harmonieuse est celle de la république
démocratique où la volonté émane de la base. L’expression du jugement
est celle du verdict du scrutin et l’épreuve modèle la manifestation pour
une juste cause. La forme de l’évidence est la loi expression de la volonté
générale et l’état de petit est caractérisé par la division, l’isolement,
l’arbitraire ou l’individualisme.
Le « monde marchand » ne se limite pas aux relations économiques qui
comprennent aussi le monde industriel ce qui donne un caractère
équivoque aux objets inclus dans les deux mondes. Son principe supérieur
commun est la concurrence résultant des désirs individuels pour des biens
rares. L’état de grand est la possession égoïste de ce qui est de valeur et
désiré par les autres. Le rapport de grandeur englobe les petits par la
possession de ce que tous désirent. Les relations entre les êtres sont
d’intérêt et des transactions d’affaires. La figure harmonieuse est celle du
marché qui fixe le prix des biens et fait les grands. L’expression du
jugement est celle du juste prix et l’épreuve modèle la conclusion d’une
affaire. La forme de l’évidence est l’argent et l’état de petit celui de
perdant.
Le « monde industriel » s’attache à la technique et à la science et ne
recoupe que partiellement l’entreprise, comme le précédent. Son principe
supérieur commun est l’efficacité. L’état de grand est celui de performant
et fiable. La commune dignité est celle du travail et de l’effort bien dirigé.
Les sujets sont les professionnels, les experts, les opérateurs et les
spécialistes. Les objets sont les moyens, outils, calculs, ressources,
méthodes et normes. La formule d’investissement est l’effort en
investissement (réel et matériel autant qu’en temps) vers le progrès. Le
rapport de grandeur englobe les petits dans la maîtrise du futur par les
grands. Les relations entre les êtres sont celles qui assurent le
fonctionnement à travers les objets. La figure harmonieuse est celle de
l’organisation d’un système stable et prévisible en croissance. L’expression
du jugement est celle du fonctionnement correct et l’épreuve modèle le
test ou le lancement. La forme de l’évidence est la mesure et l’état de petit
celui d’inefficace, improductif, inadapté.
Selon Boltansky et Thévenot, dans chaque monde les jugements et la
validité des justifications des individus sont établis par les épreuves.
Cependant, les mondes ne sont pas isolés et sont en relation. Les individus
dans la société moderne et ses institutions (telle l’entreprise) vont se
trouver placés dans différents mondes face à d’autres. Il peut y avoir aussi
confrontation entre deux mondes et conflit sur le principe supérieur
commun applicable résultant en un « différend ». De plus, chaque monde
peut être critiqué depuis les autres mondes.
Un des éléments les plus intéressants du modèle des économies de la
grandeur est de noter que des formules de coexistence sont réalisées en
permanence dans le cadre des arrangements composites du monde
quotidien, qui résultent de la réalité organisationnelle en particulier, et où
divers mondes sont présents. Dans leurs propres termes, le différend ne
conduit pas à une épreuve, par définition incapable de le résoudre entre
mondes différents, mais résulte en un « compromis ». Le principe de
l’accord ne sera pas clarifié, puisque plusieurs s’affrontent représentant
plusieurs mondes, mais une construction nouvelle dans l’intérêt commun
sera bâtie, justifiable aux yeux de tous, y compris extérieurs au différend.
Elle englobera des objets et sujets des deux mondes en un ensemble qui
les dépasse.
Il apparaît donc que les théories économiques non standards comme
les théories standards étendues, proposent des analyses variées de prise
en compte et d’explication des mécanismes internes à l’entreprise et à ce
titre contribuent à la connaissance des organisations.

2. Les différentes écoles de pensée en stratégie


d’entreprise
De manière synthétique, la stratégie d’entreprise vise à choisir et à
mettre en place un plan d’actions en vue d’assurer sa rentabilité,
l’accroissement de ses parts de marché, son positionnement concurrentiel
et finalement sa pérennité. Il existe un grand nombre d’écoles théoriques
en management stratégique, qui se sont succédées dans le temps. Dix
écoles de pensées sont décrites par Henry Mintzberg et al.161 dans
l’ouvrage « Safari en pays stratégique » : l’école de la conception, l’école de
la planification, l’école du positionnement, l’école entrepreneuriale, l’école
cognitive, l’école de l’apprentissage, l’école du pouvoir, l’école culturelle,
l’école environnementale et l’école de la configuration.
Les trois premières écoles (celles de la planification, de la conception et
du positionnement) ont un point commun : elles sont normatives, c’est-
àdire qu’elles cherchent quelle est la stratégie optimale à mettre en place.
Les six écoles suivantes, plus récentes, laissent plus de place à la
subjectivité, à la vision du manager (École entrepreneuriale), aux effets
émergents et aux interrelations entre acteurs (École de l’apprentissage), ou
bien centrent l’attention sur certains aspects spécifiques comme
l’environnement (École environnementale), ou encore la culture (École
Culturelle). Selon Mintzberg, ces écoles « considèrent les aspects
spécifiques de l’élaboration de la stratégie et s’intéressent moins à la
formulation d’un comportement idéal qu’à la description de véritables
processus d’élaboration de la stratégie ». Enfin, la dixième et dernière
école, l’école de la configuration, est isolée par Mintzberg, en ce qu’elle
combine d’une certaine manière les autres et que « ses partisans tentent
d’intégrer et de rassembler les différents éléments de notre bête – le
processus d’élaboration stratégique, le contenu des stratégies, les
structures organisationnelles et leur contexte – en stades distincts de la
croissance des entreprises et ou de leur maturité stable, par exemple
parfois mis en ordre chronologique pour décrire leurs cycles de vie ». Nous
les passons successivement en revue.

2.1. L’école de la conception


L’école dite de la conception trouve ses prémisses dans les travaux de
Selznick et Chandler162. Mais ses auteurs fondateurs sont Learned,
Christensen, Andrews163 et Guth164 et leurs travaux sont associés à la
Business School de l’Université de Harvard. Ce sont les travaux les plus
anciens sur la stratégie d’entreprise et ils se développent principalement à
partir des années 1960.
Le modèle de l’école de la conception insiste sur la prise en compte des
situations externe et interne à l’entreprise, la première relevant des
opportunités et menaces de l’environnement, la seconde montrant les
forces et faiblesses de l’entreprise. Pour cela elle utilise ce que l’on appelle
usuellement l’analyse SWOT (Streghts and Weaknesses ; Opportunities and
Threats). L’élaboration de la stratégie est donc un « processus délibéré de
réflexion consciente ». L’entreprise doit établir un diagnostic de ses forces
et faiblesses internes et des menaces et opportunités de l’environnement
afin d’identifier la stratégie optimale qu’il convient de mettre en place pour
assurer la croissance et la pérennité de l’entreprise. La responsabilité de ce
diagnostic appartient au chef d’entreprise (ou équipe dirigeante).

Modèle de base de l’école de la conception

Les stratégies sont alors sui generi, c’est-à-dire propre à l’entreprise et à


sa situation interne par rapport à son environnement externe.
Le processus de conception arrive à son terme lorsque la stratégie
parvient à être formulée. C’est uniquement après leur formulation que ces
stratégies sont appliquées. On observe donc d’emblée une séparation
entre le processus de conception et de mise en œuvre de la stratégie dans
l’école de la conception.
2.2. L’école de la planification
L’école de la planification est associée aux travaux de H. Igor Ansoff 165 et
apparaît à peu près en même temps que l’école précédente. Elle repose
sur le principe qu’il doit y avoir un service de la planification stratégique
qui élabore des stratégies, qui les évalue, détermine les modalités de leur
mise en œuvre et contrôle leur application.
Les différentes étapes du processus de l’école de la conception
(diagnostic, prescription et mise en œuvre) sont toujours présentes, mais
les techniques d’évaluation se multiplient et le lieu de l’élaboration de la
stratégie se déplace. Ce n’est plus le chef d’entreprise mais le service de
planification stratégique qui est au cœur de l’élaboration de la stratégie de
l’entreprise. Un exemple célèbre d’entreprise ayant appliqué la
planification peut être trouvé chez General Motors.
Il existe une diversité de modèles possibles, toutefois, le modèle
fondamental de la planification stratégique repose sur les étapes
suivantes :
• La définition quantifiée des objectifs de l’entreprise.
• L’audit de la situation interne et externe. Il s’agit notamment d’utiliser
différents outils de l’analyse financière (gestion des risques, analyse de
la création de valeur etc.) pour réaliser des prévisions.
• La concrétisation, ou opérationnalisation, du plan stratégique. Il s’agit
de construire un ensemble de plans directeurs, à long, moyen et court
terme, afin de décrire et expliciter les différentes étapes de la mise en
œuvre de la stratégie.
• La programmation du processus décline les calendriers et budgets à
respecter.

A partir des années 1980, l’école de la planification est fortement


critiquée, notamment par Mintzberg166 parce qu’elle freine l’innovation et
la flexibilité et devient de moins en moins adaptée à un environnement
incertain et changeant.
2.3. L’école du positionnement
Tandis que pour les écoles précédentes, de la conception et de la
planification, les stratégies sont sui generi, l’école du positionnement
défendue par Michael Porter167 à partir des années 1980, avance qu’il
n’existe que quelques stratégies clés qui permettent qu’une « entreprise
occupant cette position engrange des bénéfices plus consistants que ceux
de ses concurrents du même secteur ».
Ainsi, les principales stratégies génériques sont :
• La stratégie de coût (prix).
• La stratégie de différenciation, qui consiste à jouer non pas sur une
réduction de prix mais sur un différentiel de valeur perçue par le client.
• La stratégie de concentration sur un segment de marché (ou
focalisation) : l’offre est tellement différenciée qu’elle n’attire qu’une
frange particulière de clientèle.

Ces stratégies sont assimilables à des positions génériques, communes


et identifiables sur le marché. L’élaboration de la stratégie consiste alors en
un processus de sélection entre ces différentes positions génériques. Les
choix stratégiques demeurent donc dans les mains des dirigeants, mais ils
se font aider par des « analystes » qui maitrisent les outils nécessaires à
l’analyse stratégique afin de guider le choix vers l’une plutôt que l’autre des
différentes stratégies génériques.
Il est en effet possible d’utiliser divers outils d’analyse stratégique.
Ainsi, un certain nombre de cabinets de conseils, tel que le Boston
Consulting Group (BCG), vont notamment développer des matrices
d’analyse de portefeuilles d’activités.
Porter, lui-même, proposera un outil spécifique consistant à étudier « 5
forces » pour comprendre l’état de la concurrence et déterminer l’avantage
de l’entreprise par rapport à celle-ci. Les 5 forces de Porter sont :
• L’intensité concurrentielle (c’est à dire le degré de rivalité entre firmes
concurrentes).
• La menace des entrants potentiels.
• La menace des produits de substitution.
• Le pouvoir de négociation des fournisseurs.
• Et le pouvoir de négociation des clients.

Porter introduit aussi la notion de chaîne de valeur qui permet de faire


la distinction entre les activités principales et les activités de soutien.
Chaque maillon de la chaîne de valeur correspond à une fonction qui
nécessite la mise en œuvre d’un ensemble de compétences, qui elles-
mêmes nécessitent la mise en œuvre d’un ensemble de ressources. Ces
compétences sont généralement distinguées en trois groupes : les
compétences économiques, les compétences de gestion et les
compétences psychologiques. L’analyse de la chaîne de valeur permet
d’identifier les sources d’avantage concurrentiel de l’entreprise.
Comme dans les deux écoles précédentes, l’école du positionnement
reste normative et sépare les phases de conception et de mise en œuvre
de la stratégie d’entreprise.
En revanche, les écoles de pensée en stratégie qui suivent proposent
une rupture fondamentale avec les précédentes, en ce qu’elles intègrent
des dimensions nouvelles. L’école entrepreneuriale centre l’attention sur la
vision du stratège ; l’école de l’apprentissage met l’accent sur les stratégies
émergentes et les effets d’apprentissage ; l’école cognitive centre
l’attention sur ce qui se passe dans « la tête » du stratège ; l’école du
pouvoir met en lumière les relations interindividuelles et d’influence et de
négociation au sein de l’entreprise ; et enfin l’école culturelle centre
l’attention sur les processus culturels comme source d’avantage
concurrentiel. Par ailleurs, elles mettent fin à la séparation entre
conception et mise en œuvre de la stratégie d’entreprise.

2.4. L’école entrepreneuriale


L’école entrepreneuriale axe le processus d’élaboration de la stratégie
d’entreprise sur la personne du dirigeant, ou de l’entrepreneur, et souligne
l’importance de son intuition, de son jugement, de son expérience et de sa
vision dans le projet stratégique de l’entreprise.
Le stratège est vu ainsi comme un visionnaire, qui a un projet pour
l’entreprise et qui montre la direction. Dès lors il apparait que
contrairement aux écoles précédentes, l’élaboration de la stratégie n’est
plus seulement un processus délibéré, mais peut intégrer des éléments
émergents, pour permettre des adaptations, en cours de route, au fur et à
mesure de sa mise en œuvre.
On trouve les origines de l’école entrepreneuriale dans les travaux de
Joseph Schumpeter168 (1883-1950) qui place l’entrepreneur au centre de
l’analyse. Selon ce dernier, le propre de l’entrepreneur véritable est sa
capacité à définir et à mettre en œuvre une stratégie innovante.
Schumpeter oppose ce type d’entrepreneur véritable à l’entrepreneur
routinier qui n’est capable que d’imitation.
La clé du succès réside dans le leadership personnalisé de
l’entrepreneur ou du dirigeant, qui s’appuie sur son intuition et sa vision
stratégique pour donner une direction à l’entreprise. Bennis et Nanus 169
mettent l’accent sur l’importance de la vision. Ils montrent que la vision est
une idée qui peut être vague, mais qui donne un horizon, c’est-à-dire une
direction pour atteindre un avenir souhaitable pour l’entreprise. La vision a
aussi pour caractéristique d’être innovante et de permettre de mobiliser
les membres de l’organisation vers la réalisation de cet avenir.
Un certain nombre de travaux portent sur la personnalité des
entrepreneurs. Ainsi, par exemple, Collins et Moore 170 réalisent une analyse
des traits de personnalités de l’entrepreneur « à succès » à l’appui d’une
étude portant sur 150 dirigeants. Ils montrent que le profil des
entrepreneurs est la plupart du temps celui d’une personne qui a un fort
besoin de réussite et d’autonomie, qui a une certaine résistance à
l’autorité, qui est enclin à prendre des risques modérés et qui a
généralement dû faire face à une phase de « rupture » (ou détérioration de
rôle) dans sa vie, qui réagit en créant une entreprise. Ces reflexions ont
ensuite donné lieu à de nombreux prolongements et réflexions sur les
entrepreneurs et sur le succès entrepreneurial que nous ne développons
pas ici.
Les principes de base de l’école entrepreneuriale s’appuient sur l’idée
que la stratégie existe dans l’esprit de son dirigeant, qui est le leader et qui
établit des orientations à moyen et long terme, compte tenu de sa vision
de l’avenir de l’entreprise. Il s’ensuit que le processus d’élaboration de la
stratégie, est enraciné dans l’expérience et l’intuition du leader. La mise en
œuvre de la stratégie n’est pas totalement séparée de son élaboration en
ce qu’elle revêt un caractère à la fois délibéré et émergent : délibéré du
point de la vision globale, mais émergent par la manière dont les détails de
la vision se déploient.

2.5. L’école cognitive


L’école cognitive considère que l’élaboration de la stratégie est avant
tout un processus mental et s’intéresse à ce qui se passe « dans la tête »
du stratège. Elle s’inspire largement des travaux de Herbert Simon sur la
rationalité limitée (voir chapitre 6).
Il existe une diversité de travaux dans cette école. Un premier pan de
travaux porte sur les mécanismes de « distorsion » de la réalité qui
influencent la prise de décision stratégique. On y retrouve des travaux
comme ceux de Tversky et Khaneman171 appliqués à la stratégie, Duhaime
et Schwenk172 ou encore Makridakis173.
Un autre pan de travaux en psychologie porte sur les styles cognitifs. A
titre d’exemple, un instrument classique aujourd’hui largement utilisé en
entreprise, a été développé par Myers and Briggs. Cet outil, appelé MBTI
(Myers and Briggs Type Indicator), s’appuie sur les travaux de Jung et
propose de décrire le profil psychologique d’un individu à travers 4 jeux de
préférences : l’extraversion et l’introversion ; la sensation et l’intuition ; la
pensée et les sentiments ; et enfin le jugement et la perception.
L’école cognitive s’intéresse également aux processus de transmission
de l’information, ou encore aux cartes cognitives (au sens de Weick),
c’està-dire à tout ce qui permet d’expliquer la structuration mentale qui
organise les processus de choix dans les décisions stratégiques.
Finalement, l’école cognitive centre son attention sur les mécanismes
cognitifs (concepts, cartes, schémas, cadres) qui modèlent la façon dont
l’individu traite les informations qui proviennent de son environnement et
analyse son impact sur le processus stratégique. Dans cette école, la
stratégie n’est pas nécessairement optimale.

2.6. L’école de l’apprentissage


L’école de l’apprentissage considère que le monde est trop complexe et
incertain pour que la stratégie puisse s’élaborer selon le processus décrit
dans les écoles traditionnelles de la conception ou de la planification.
Notamment, il n’est pas possible que les processus de diagnostic, de
prescription et de mise en œuvre de la stratégie d’entreprise se mettent en
place de manière séparée. A l’opposé, la stratégie est considérée comme
un processus dynamique dans lequel l’entreprise utilise son expérience
passée pour améliorer sa stratégie. Ce faisant, l’entreprise construit sa
stratégie grâce à un processus d’apprentissage continu dans le temps.
L’école de l’apprentissage s’appuie sur la notion d’incrémentalisme
introduite par Charles Lindblom174 puis d’incrémentalisme logique
développé par James Brian Quinn175. L’incrémentalisme caractérise la
démarche de décision de l’individu et le processus dans lequel il se déplace
« par piétinement ». Les décideurs, en effet, partent toujours de quelque
part, d’une situation de fait avec ses conditions, plus ou moins en
équilibre, qu’ils souhaitent modifier, et non d’une table rase. Ils explorent
donc les possibilités autres que la situation présente. Les changements
apportés ne se feront que par étapes très courtes. On ne modifiera que
très peu de choses, marginalement, en choisissant entre un nombre très
limité de branches d’alternatives dont les conséquences ne paraissent pas
bouleverser l’état des choses. À la longue, ceci peut finir par apporter un
changement plus important par accumulation, mais à chaque instant le
raisonnement se fait par « incrémentation », c’est-à-dire par de très faibles
modifications qui ne remettent pas fondamentalement en cause à chaque
étape le statu quo, même si l’addition des étapes finit par avoir un effet de
changement profond.
Quinn reprend cette idée d’incrémentalisme, mais il précise qu’il s’agit
d’un incrémentalisme logique, c’est-à-dire que le changement se fait pas à
pas, étape par étape, dans le cadre d’un processus d’apprentissage
partagé, mais aussi dans un cadre logique qui permet d’agir de manière
consciente vers un but. Cette approche s’oppose à celle de changement
quantique défendue par Miller dans l’école de la configuration (voir plus
loin).
De plus, chacun au sein de l’entreprise peut apporter sa pierre à
l’édifice stratégique qui se construit. L’élaboration de la stratégie prend
alors la forme d’un apprentissage collectif dans le temps et de ce fait, la
formulation et la mise en œuvre de la stratégie deviennent
indissociables. L’apprentissage opère au sein de l’entreprise et ce n’est que
le regard rétrospectif qui permet de comprendre le sens des actions. Le
rôle du dirigeant ne consiste plus seulement à élaborer une stratégie
délibérée, mais aussi et surtout à gérer le processus d’apprentissage qui se
construit et émerge des interrelations au sein de l’entreprise.
Il s’ensuit une distinction entre stratégie projetée et stratégie réalisée.
La stratégie réalisée est celle que l’on peut constater a posteriori. Elle est le
fruit d’une part de la stratégie projetée, et d’autre part de la stratégie
émergente. Cette dernière est une stratégie non délibérée qui émerge du
comportement effectif des acteurs. En effet, une part de la stratégie
projetée ne se réalise généralement pas. Par conséquent, stratégie
projetée et réalisée ne se confondent pas. C’est grâce à ce processus que la
stratégie se construit et constitue un mécanisme d’apprentissage. En
reprenant les termes de Mintzberg176 « le concept de stratégie émergente
ouvre la porte à l’apprentissage stratégique parce qu’il reconnait le droit de
l’entreprise à faire des expériences. Une action isolée sera menée, des
retombées seront observées et le processus continuera jusqu’à ce que
l’entreprise se rassemble sur un modèle, qui deviendra sa stratégie.
Autrement dit, pour reprendre la métaphore de Lindblom, l’entreprise n’a
pas à mordiller au petit bonheur ; chaque bouchée peut influencer la
suivante, le tout débouchant sur un ensemble de recettes assez bien
définies, de sorte que tout se termine par un grand festin ! ».
Au sein de cette école, on peut également citer brièvement les travaux
célèbres sur l’apprentissage de Prahalad et Hamel177 qui considèrent le
management stratégique comme un processus d’apprentissage collectif
visant à exploiter et développer les compétences clés de l’entreprise ; ou
encore de Nonaka et Takeuchi178 qui s’intéressent au processus de création
des connaissances et montrent que le fondement de celui-ci se trouve
dans la transformation des connaissances tacites en connaissances
explicites.

2.7. L’école des relations de pouvoir


L’école de la stratégie en termes de relations de pouvoir se base
notamment sur les travaux de McMillan 179, Pettigrew180, ainsi que Crozier et
Friedberg181. Elle a pour fondement principal le fait que l’élaboration
comme la mise en œuvre de la stratégie sont marqués par des relations de
pouvoir et de négociation. L’analyse des jeux politiques est centrale. Ces
pouvoirs s’exercent non seulement en internes (on parle de micro-
pouvoir), à travers les jeux d’acteurs au sein des entreprises, mais aussi en
externe (on parle de macro-pouvoir), c’est-à-dire dans le cadre des
relations de coopération (alliances, réseaux, partenariats,
fusions/acquisitions…) avec les autres entreprises dans l’environnement.
Dans la lignée de Crozier et Friedberg (voir chapitre 9), cette école
aborde la stratégie comme une situation de négociation au sein de
laquelle, chaque acteur cherche à réaliser ses objectifs individuels, en
fonction de ses contraintes et de ses ressources et dans lequel le produit
du jeu est le résultat commun pour l’entreprise. On peut alors analyser les
stratégies de coopération, d’agression, ou de changement de règles qu’il
est possible d’adopter. Une partie des jeux de pouvoir consiste à passer des
alliances avec d’autres membres de l’entreprise ou acteurs externes. Il en
résulte un processus de négociation le plus souvent implicite à la fois pour
l’élaboration des coalitions et la définition de leurs objectifs et d’autres
part entre les coalitions elles-mêmes en vue d’obtenir une stratégie
acceptable par les différentes coalitions.
2.8. L’école du processus culturel
L’école du processus culturel considère que la culture est un élément
clé de la stratégie, à la fois parce qu’elle peut contraindre la stratégie et
parce qu’elle peut être une ressource clef sur laquelle peut s’appuyer le
changement stratégique. C’est essentiellement à partir des années
19701980 que la culture prend une place croissante en management
stratégique, à l’appui du succès d’un certain nombre d’entreprises à culture
japonaise.
La culture d’une entreprise est l’ensemble des valeurs, des façons
d’interpréter le monde et de se comporter partagées pour l’essentiel par
les membres de l’entreprise. La culture se manifeste de multiples façons,
par le langage, par le comportement, le consensus sur certaines valeurs,
par les façons de faire dans les différentes situations.
Notamment, Barney182, considère que la culture est une ressource clé,
c’est à dire qu’elle peut constituer un avantage concurrentiel durable. Il
estime que la culture est une barrière efficace contre l’imitation. Ceci tient
d’une part au fait que la culture favorise l’innovation et donc la création de
produits ou services nouveaux, donc moins facilement imitables, et d’autre
part que la culture elle-même est souvent difficile à appréhender (ou à
comprendre) par ceux qui ne l’assimilent pas et donc elle est difficile à
copier.
L’école culturelle183 considère que « l’élaboration de la stratégie est un
processus d’interaction sociale, basé sur les croyances et les convictions
partagées par les membres de l’entreprise. Un individu acquiert ces
croyances par un processus d’acculturation, ou de socialisation, largement
tacite et non verbal, bien que renforcé parfois par un endoctrinement
formel. (…) Il en résulte que la stratégie prend surtout la forme d’une
perspective, plus que celle d’une position. Perspective ayant ses racines
dans des intentions collectives (pas forcément explicites) et qui se
retrouvent dans les modèles par lesquels les ressources profondes, ou les
capacités, de l’entreprise sont protégées et utilisées afin de se procurer un
avantage concurrentiel. La culture et surtout l’idéologie encouragent moins
le changement stratégique que la perpétuation de la stratégie existante ;
au mieux, elles tendent à faire bouger les positions à l’intérieur de la
perspective stratégique globale de l’entreprise ».
Par conséquent, pour construire la stratégie il faut agir sur les valeurs
et les croyances des individus ce qui suppose la prise en compte de la
subjectivité des acteurs et des interrelations entre les individus.

2.9. L’école environnementale


Pour l’école environnementale, c’est l’ensemble des forces extérieures
à l’entreprise, c’est-à-dire l’environnement, qui a une place centrale dans la
détermination de la stratégie de l’entreprise. Cette approche s’appuie sur
les travaux de la contingence structurelle externe déjà abordé
précédemment (voir le chapitre 3) aves les études notamment de Burns et
Stalker ainsi que Lawrence et Lorsch ; ou encore sur des théories
organisationnelles où l’environnement est dominant comme dans la
théorie de l’écologie des populations de Hannan et Freeman (voir chapitre
5).
Une différence fondamentale par rapport aux écoles de pensée en
stratégie précédentes tient à ce que l’attention n’est pas portée sur le rôle
du dirigeant de l’entreprise ou du planificateur, qui sont considérés comme
inexistants ou secondaires. En effet, l’entreprise est appréhendée comme
quelque chose de passif, passant son temps à réagir à l’environnement qui
lui dicte ses tâches. Soit le dirigeant (ou l’équipe dirigeante) n’a pas de
véritable action et l’environnement est totalement dominant, soit un rôle
stratégique est possible et dans ce cas, la stratégie de l’entreprise est
principalement orientée vers la compréhension de son environnement et
la recherche des moyens pour s’y adapter.
L’environnement, qui se présente à l’entreprise comme un ensemble
global de forces, est l’acteur principal du processus d’élaboration de la
stratégie. L’entreprise doit faire face à ces forces sous peine d’être éliminée
par la « sélection ». Cette école vise notamment à décrire les différents
types d’environnements auxquels le stratège a à faire face et à saisir leurs
effets possibles sur l’élaboration de la stratégie.

2.10. L’école de la configuration


Selon Mintzberg, l’école de la configuration réconcilie l’ensemble des
écoles de pensée précédentes en ce qu’elle considère que l’organisation
doit prendre différentes formes (ou configurations) et que le processus
d’élaboration de la décision stratégique suit une logique de
transformations. Ainsi, une entreprise peut se décrire comme une certaine
configuration stable de structures et de stratégies, assorties à un type
particulier de contexte. Des périodes de stabilité sont alors parfois
interrompues par un processus de transformation vers une autre
configuration. La clé du management stratégique est alors de maintenir la
stabilité le plus longtemps possible, mais aussi de reconnaître
périodiquement la nécessité de la transformation et de savoir gérer ce
processus.
Il existe différentes phases qui se succèdent dans l’histoire d’une
entreprise :
1. Une phase de développement (embauche de personnel, mise en place
de structures, consolidation de la stratégie)
2. Une phase de stabilité (faibles modifications des structures et
stratégies)
3. Une phase d’adaptation (changements marginaux apportés aux
structures et aux stratégies)
4. Un stade de lutte (tâtonnements avant de changer de direction)
5. Un stade de révolution (changement rapide de nombreuses
caractéristiques en même temps).
Selon Miller et Friesen184, la transformation (ou le changement) est
considérée comme quantique, c’est-à-dire que le changement « affecte
beaucoup d’éléments à la fois ». Ainsi, le changement se fait généralement
sous la forme de « révolution stratégique » pendant laquelle beaucoup de
choses changent d’un seul coup. L’entreprise tâche de gagner d’un bond
une stabilité nouvelle afin de rétablir aussi vite que possible une posture
intégrant un nouvel ensemble de stratégies, de structures et de cultures :
une nouvelle configuration. Cela s’oppose au changement sous forme
d’incrémentalisme logique tel que développé par Quinn, dans l’école de
l’apprentissage décrit plus haut.
Un ensemble de travaux portant sur des configurations d’entreprise se
sont alors développés en management. On y retrouve les configurations
d’organisations de Mintzberg décrites au chapitre 3 avec l’entreprise
entrepreneuriale, l’entreprise mécaniste, l’entreprise professionnelle,
l’entreprise diversifiée, l’entreprise adhocratique, l’entreprise missionnaire
et l’entreprise politique.
On peut également citer la distinction de Miles and Snow 185 entre
entreprises « defender » (ou défenseur) et « prospector » (prospecteur).
Les entreprises « defender » (ou défenseur) cherchent les économies
d’échelle et la minimisation des dépenses de toute nature. Ce faisant, elles
vont avoir une stratégie centrée sur la réduction des coûts et des prix
faibles. Ces entreprises ont généralement des structures stables.
L’efficacité technique est importante ainsi qu’une structure qui permet un
contrôle strict. Selon Mintzberg, les entreprises defender peuvent être
rapprochées des structures mécanistes. Les entreprises « prospector »
(prospecteur) ont une stratégie centrée sur la recherche de nouveaux
produits innovants et de nouveaux marchés (différenciation). L’important
ici est de conserver la flexibilité à la fois dans les techniques et dans les
structures. Selon Mintzberg, les entreprises prospector peuvent être
rapprochées des structures adhocratiques.
Par conséquent, il apparaît qu’il existe une grande diversité
d’approches théoriques visant à conceptualiser le management stratégique
au sein des entreprises.

3. Entreprise et ressources humaines


Bien que de nombreux travaux sur l’homme au travail aient déjà été
présentés dans les chapitres précédents, tel que notamment l’apport de
Fayol sur la fonction administrative (chapitre 1), ainsi que les travaux sur la
motivation et la satisfaction au travail dans les théories des relations
humaines (chapitre 2), nous complétons ici ces approches par des analyses
plus récentes en gestion des ressources humaines et comportement
organisationnel. Nous n’avons bien entendu pas l’ambition de passer en
revue l’ensemble des grands courants en gestion des ressources
humaines186, qui sont très vastes et englobent des travaux notamment sur
le recrutement, la gestion des compétences, les rémunérations,
l’évaluation, la mobilité, la gestion des carrières, la formation, la
négociation collective, mais aussi les discriminations, la RSE,
l’internationalisation, la culture ou encore la santé et le bien-être au
travail. Nous nous limiterons ici à présenter quelques travaux assez récents
qui nous semblent essentiels sur le rôle du manager, les notions de justice
et d’implication organisationnelle, la motivation, la confiance ou encore la
résilience.

3.1. Les « rôles du manager »

3.1.1. Les 10 rôles du manager de Mintzberg


Au-delà des travaux fondateurs de Fayol, l’étude du manager a pris une
importance majeure au sein de l’entreprise. Mintzberg 187 considère que «
les écrits de l’école classique sont de peu d’utilité. Ils ont servi à mettre des
noms sur des zones d’ignorance, et à indiquer à chaque cadre ce qu’il
devrait faire (mais pas ce qu’il fait en réalité). Et l’école classique a,
pendant trop longtemps, bloqué la recherche d’une compréhension plus
profonde du travail du cadre ». Selon ce dernier, l’école classique énonce
des principes généraux qui ne prennent pas en considération les
caractéristiques personnelles des individus. Ils s’appliquent à tous de
manière impersonnelle. De ce fait, la question principale, selon lui n’est
pas abordée. Cette question est celle de savoir : que font les cadres (ou les
managers) dans l’entreprise ?
Mintzberg va alors apporter une approche différente et remettre en
cause la dimension impersonnelle des préconisations de Fayol et de ses
successeurs. Ainsi, il aborde une approche en termes de « rôles » du
manager et distingue trois catégories fondamentales de rôles du manager :
les rôles interpersonnels, les rôles liés à l’information et les rôles
décisionnels.
Pour Mintzberg ces trois catégories de rôles, qui comprennent 10 rôles,
ne sont pas dissociables, ils forment un tout.
Les rôles interpersonnels sont liés au développement de relations
interpersonnelles. Ils incluent les rôles de symbole, de leader et d’agent de
liaison. A cause de l’autorité formelle dont il est investi, le manager est un
symbole, ce qui lui impose des obligations. L’exercice du leadership
entraîne des relations interpersonnelles entre le leader et ceux qu’il dirige.
Il définit « l’atmosphère » dans laquelle l’organisation travaillera. Enfin, le
rôle d’agent de liaison intervient quand on considère l’important réseau
des relations qu’entretient le manager avec de nombreux individus ou
groupes en dehors de l’organisation qu’il dirige.
Les rôles liés à l’information incluent les rôles d’observateur actif, de
diffuseur et de porte-parole. Le manager est le « centre nerveux », les
informations non routinières passent par lui. Il est en permanence en train
de chercher et recevoir des informations qui lui permettent de mieux
comprendre ce qui se passe dans son organisation et son environnement.
Le manager diffuse ensuite l’information vers les subordonnés dans
l’organisation. Enfin, le manager transmet des informations vers
l’extérieur : l’environnement.
Les rôles décisionnels s’insèrent dans le cadre de la prise des décisions
importantes pour l’organisation (stratégie). On distingue quatre facettes :
entrepreneur, régulateur, répartiteur de ressources et négociateur. En tant
qu’entrepreneur, le manager met en place des projets d’amélioration et de
changement pour répondre à une opportunité ou résoudre un problème.
Le rôle de régulateur correspond au traitement des perturbations
imprévues (départ d’un subordonné, incendie, perte d’un client, conflits
internes etc.). En tant que répartiteur de ressources le manager supervise
le système par lequel les ressources (temps, argent, matériel etc.) sont
réparties. Enfin, le manager a un rôle de négociateur, incluant des
négociations avec les syndicats, avec les membres des équipes et avec
l’environnement.

3.1.2. Les rôles situationnels du manager selon Hart et Quinn


Hart et Quinn188 considèrent que le manager va changer de rôle en
fonction de la situation organisationnelle.
Ils proposent une typologie en fonction de deux axes :
• Le premier axe représente le type d’organisation dans laquelle se
trouve le manager, selon qu’elle favorise le contrôle (stabilité) ou la
flexibilité (changement).
• Le second axe représente le fait que l’entreprise est orientée vers
l’interne ou l’externe.

Il en découle quatre modèles qui correspondent à 4 types de


managers, en fonction de ces axes :
• Le modèle des relations humaines.
• Le modèle des systèmes ouverts.
• Le modèle des processus internes.
• Le modèle des buts rationnels.
Hart et Quinn distinguent alors 4 rôles du manager : un rôle de
visionnaire, un rôle de motivateur, un rôle d’analyste et un rôle de maître
des tâches.
Dans le modèle des relations humaines, les entreprises sont centrées
sur l’interne et la flexibilité. Le manager est un motivateur. Il a un rôle de
liaison entre les individus, il est un diffuseur d’information. C’est un agent
de liaison qui va laisser chacun utiliser les ressources de manière
autonome. Le manager, guide, motive, encourage de manière non
directive.
Dans le modèle des systèmes ouverts, l’entreprise est orientée vers
l’extérieur et la flexibilité. Le manager a un rôle de visionnaire. Il doit à
créer une vision, une direction, pour diriger l’action vers le futur et
favoriser l’innovation. Il est demandé aux salariés d’être dans une logique
de proactivité.
Dans le modèle des processus internes, l’entreprise est orientée sur la
dimension interne et le contrôle. Le manager est un analyste, un
planificateur qui cherche l’efficience du système opérationnel. Il est
essentiellement orienté vers le contrôle, mais aussi les encouragements
des collaborateurs pour les amener à réaliser les objectifs.
Dans le modèle des buts rationnels, l’entreprise est orientée vers
l’externe et le contrôle. Il cherche la productivité à travers la clarté des
objectifs. Le manager est maître des tâches, il répartit les ressources et
met en relation les collaborateurs avec les clients et les partenaires
externes.
Cette approche défend l’idée que le rôle du manager n’est pas le même
selon les entreprises et notamment qu’il dépend du niveau de
contrôle/flexibilité et l’orientation interne/externe de l’entreprise. Les rôles
du manager qui en découlent ne sont pas les mêmes.

3.2. La justice organisationnelle


Selon Jerald Greenberg189, la justice organisationnelle correspond à la
perception des individus quant à la justice dans la répartition des
ressources au sein de l’entreprise. Thibault et Walker mettent en évidence
l’importance de la justice procédurale, indépendamment de la justice
distributive au sein de l’entreprise. Les notions de justice distributive et
justice procédurale correspondent à des réalités différentes. La justice
procédurale concerne la perception du caractère juste ou équitable des
procédures utilisées pour arriver à des décisions quel qu’en soit le résultat
et la justice distributive concerne la perception du caractère équitable du
contenu de ces décisions. Les deux constituent la justice organisationnelle.
Un certain nombre d’auteurs ont également étudiés le lien entre le
sentiment de justice et l’implication au travail, l’intention de quitter
l’organisation ou encore la motivation et la satisfaction.

3.2.1. La théorie de l’équité d’Adams


John Adams explique que les individus au sein des organisations,
évaluent le rapport entre d’une part ce qu’ils apportent à l’organisation –
et l’effort que cela leur demande – et d’autre part ce qu’ils en retirent
comme avantage. L’adhésion à l’organisation est vu comme un échange au
sein duquel l’individu apporte des contributions à l’organisation, en
contrepartie desquelles il reçoit une rétribution. L’individu va donc avoir
tendance à évaluer un ratio rétribution/contribution au sein de
l’organisation afin d’évaluer ce que lui rapporte ses efforts, compte tenu de
ses attentes.
Selon la théorie de l’équité d’Adams, l’individu cherche alors à
comparer le ratio rétribution/contribution qu’il perçoit dans l’organisation
avec celui des autres individus autour de lui. Ainsi, il observe les autres
individus dans son environnement pour savoir s’il est traité avec équité par
rapport aux autres. Si l’individu, à l’issu de sa comparaison, constate un
déséquilibre, il va alors ressentir un sentiment d’injustice qui va agir
négativement sur sa satisfaction et peut avoir des répercussions négatives
sur son investissement, voire son intention de rester au sein de
l’organisation.
Dit autrement, si l’individu a le sentiment que ses efforts sont
supérieurs à ceux des autres, mais qu’en termes de résultat, il a des
récompenses inférieures aux autres, il aura alors un sentiment d’injustice
qui impactera sa motivation.
Par conséquent, l’individu attend des récompenses proportionnelles à
son investissement dans son travail, dans une approche comparative par
rapport aux récompenses obtenues par les autres. Cette forme de justice
est dite distributive en ce qu’elle s’intéresse aux résultats eux-mêmes de
l’action des membres de l’organisation. Ces résultats peuvent être
matériels ou immatériels (salaire, promotion, reconnaissance).

3.2.2. La justice procédurale


Contrairement à la justice distributive, la justice procédurale ne porte
pas sur le résultat des décisions elles-mêmes, mais sur les procédures
employées dans la prise de décision. Un ensemble de chercheurs tels que
Folger190, Lynd et Tyler191, Greenberg et Folger192 développent des travaux
autour de la justice procédurale. Il apparaît alors que les individus sont
susceptibles de mieux accepter les décisions, au sein des organisations,
quelles que soient leurs résultats – y compris lorsqu’elles leurs sont
défavorables – si elles appliquent des éléments de justice procédurale.
Quel que soit le domaine concerné (rémunérations, évolution de
carrière etc.) il faut que les procédures soient ressenties comme
équitables. Dit autrement, même, si une décision ne répond pas à ses
attentes en termes de résultat, un individu pourra mieux accepter et
ressentir une décision qui s’impose à lui, s’il estime que la procédure suivie
lors de la prise de décision a été juste.
Roberts et Gleason193 distinguent sept dimensions de la justice
procédurale :
• La représentativité, qui fait référence à l’opportunité qui est offerte à
l’individu de pouvoir influencer la décision au cours du processus. Il
peut s’agir par exemple de pouvoir présenter ses arguments et points
de vue avant que la décision ne soit prise.
• La cohérence du traitement, qui correspond au sentiment qu’a
l’individu d’être traité d’une manière similaire à la manière dont les
autres auraient été traités dans des circonstances proches.
• La convenance éthique, qui correspond au fait que l’individu ait le
sentiment que le décideur n’a pas traité son cas avec négligence,
indifférence ou manque de respect.
• L’impartialité, qui fait référence à l’honnêteté de celui qui prend la
décision pour considérer le cas de manière objective, sans préjugés ou
stéréotypes qui seraient source de discriminations.
• La fidélité, qui correspond au sentiment que le décideur a fait des
efforts suffisant pour rassembler et disposer d’une information
pertinente pour pouvoir prendre une décision juste.
• L’audition publique du cas, qui n’est pas traité en secret mais
ouvertement, à la vue de tous.
• La rectification, qui correspond à l’existence d’une procédure d’appel,
ou tout au moins de modification d’une décision une fois qu’elle a été
formulée.

Par conséquent, les individus acceptent mieux les décisions de leurs


supérieurs qui entraînent pour eux des conséquences tant positives que
négatives quand elles appliquent des éléments de justice procédurale et
distributive.

3.3. La théorie de l’autodétermination de Deci et Ryan


La théorie de l’autodétermination est développée à partir des années
1970 sous l’impulsion des travaux de Deci et Ryan194.
Ces derniers distinguent 3 types de besoins : les besoins de
compétence, les besoins de relations sociales et les besoins
d’autodétermination qui font référence au fait d’avoir besoin d’être à
l’origine de son propre comportement. Dès lors, ils situent différents
niveaux de motivation sur un continuum d’autodétermination qui peut
être découpé en trois formes motivationnelles : l’absence d’autorégulation
(amotivation), la motivation extrinsèque et la motivation intrinsèque.
La motivation intrinsèque correspond à des activités qui sont source de
plaisir en tant que tel, alors que la motivation extrinsèque est associée à la
réalisation d’un but externe à l’individu influencé par des facteurs
externes. Il apparaît que la motivation intrinsèque est particulièrement
source de valeur et de créativité. Elle est plus forte et plus durable.
Deci et Ryan distinguent ensuite la motivation contrôlée et la
motivation autonome. La motivation contrôlée comprend la régulation
externe et la régulation introjectée. La motivation autonome comprend la
régulation identifiée, la régulation intégrée et la régulation intrinsèque.
• La régulation externe correspond à une action d’un individu motivée
par une pression externe ou une crainte de sanction d’où l’importance
de l’environnement social.
• La régulation introjectée est également liée à des pressions externes,
mais elle est plus autodéterminée, en ce qu’elle est motivée par
l’estime de soi et la valorisation de l’ego.
• La régulation identifiée n’est plus liée à un évènement externe mais
autodéterminée par des croyances ou valeurs propres à l’individu.
• La régulation intégrée correspond à l’intégration de ces valeurs par
l’individu, qui vont constituer un tout qui lui est propre, et permettre à
l’individu de se réaliser lui-même.
• La régulation intrinsèque qui fait référence aux comportements qui
sont motivés par leur satisfaction en elle-même et non par des
contingences externes. Elles sont totalement autodéterminées.

La motivation extrinsèque peut donc être décomposée à travers quatre


types de régulation dont deux sont associées à une motivation contrôlée
(régulation externe et régulation introjectée) et deux correspondent à une
motivation autonome (régulation identifiée et régulation intégrée).
Il s’ensuit que « la motivation intrinsèque n’est plus la seule forme de
motivation « positive », « noble », « idéale ». Selon la théorie de
l’autodétermination (SDT), l’individu peut se réaliser, s’épanouir, être en
accord avec lui-même dans son activité, même s’il n’est pas pleinement
heureux dans son travail. Deux formes de motivation autonome
extrinsèque possèdent cette vertu. La SDT fait deux propositions théoriques
en ce sens. La régulation identifiée désigne toute forme de motivation par
laquelle l’individu est en accord avec les valeurs et les buts portés par son
travail et/ou son organisation. La régulation intégrée, quant à elle, désigne
l’intégration de ces valeurs et de ces buts au soi, au point que l’individu est
en accord harmonieux et consenti avec eux. Ainsi, la motivation autonome
peut être de nature extrinsèque et intrinsèque. »195
Le modèle de Deci et Ryan

Cette approche moderne de la motivation va permettre de mettre en


évidence des relations entre la motivation et le bien-être, la performance
durable ou encore la créativité.

3.4. L’implication organisationnelle


A partir des années 1960, une large littérature s’est développée autour
du concept d’implication organisationnelle196 (ou engagement – traduction
du terme anglais de commitment). L’implication organisationnelle197
correspond au degré d’adhésion d’un individu à son organisation. Cette
notion est particulièrement importante parce qu’elle entretient des liens
avec le turnover, la performance ou encore l’intention de quitter
l’organisation. Ceux-ci ont été largement étudiés, notamment par Porter,
Steers et Mowday198 et constituent encore des centres d’intérêts
contemporains en comportement organisationnel.
Allen et Meyer199 définissent l’implication organisationnelle comme «
un état psychologique caractérisant la relation d’un employé avec son
organisation et ayant des implications sur la décision de rester ou quitter
l’organisation ». Ils distinguent trois dimensions de l’implication
organisationnelle : l’implication affective, l’implication calculée et
l’implication normative.
• L’implication calculée fait référence au calcul rationnel de l’individu
anticipant les coûts éventuels de son départ de l’organisation.
• L’implication affective reflète l’identification ou l’attachement affectif
d’une personne vis-à-vis de l’organisation considérée.
• L’implication normative correspond au sentiment d’obligation morale
de demeurer au sein de l’une organisation (en valeurs).

L’implication au travail200 concerne aussi la relation du salarié avec le


poste, la carrière ou la profession qu’il exerce. Dans chacun des cas, il s’agit
d’une identification de type cognitive et psychologique vis-à-vis du travail
réalisé dans le poste, dans la carrière ou dans la profession. Ces notions
revêtent également une importance particulière au sein de l’entreprise
parce qu’elles conditionnent la performance du salarié, mais aussi son
adhésion aux objectifs de l’entreprise.

3.5. La confiance dans la relation d’emploi


L’entreprise et la relation d’emploi entre salarié et employeur ont
largement évoluées au cours du XXème siècle. Dans un environnement
complexe et changeant, avec toujours plus de concurrence et
d’imprévisibilité, il faut trouver de nouveaux moyens pour l’entreprise pour
attirer et fidéliser des talents et des salariés aux compétences clés. De leur
côté, les attentes des salariés ont évolué. Les attentes des jeunes
générations ne sont plus celles de leurs aînés. Dans ce contexte, la relation
de confiance entre le salarié et l’entreprise, mais aussi entre les salariés au
sein de l’entreprise est primordiale. Elle est une condition de la
coopération entre eux et constitue un élément moteur de la gestion
d’équipe, de la cohésion et de la capacité à gérer le changement dans
l’entreprise.
La confiance correspond à un sentiment de sécurité ou de fiabilité par
rapport au comportement à venir d’une autre personne. Ainsi pour
Rotter201
« la confiance interpersonnelle est l’attente par un individu ou un groupe
que la promesse (verbale ou écrite) d’un autre individu ou groupe
d’individus sera respectée ».
Il s’ensuit que la confiance202 est associée à la fois à une attente positive
et optimiste d’un individu quant au comportement à venir d’une autre
personne, dans le cadre d’une situation de vulnérabilité ou de dépendance
associée à une volonté de coopérer avec l’autre.
Une typologie proposée par McAllister203 consiste à distinguer la
confiance cognitive de la confiance affective. La confiance cognitive
s’appuie sur les connaissances disponibles (informations) permettant de
juger de la fiabilité et du sérieux du comportement de l’autre partie. La
confiance affective s’appuie sur des liens plus émotionnels.
Lewicki et Bunker204 quant à eux propose une distinction entre 3 formes
de confiance : la confiance basée sur le calcul, la confiance basée sur la
connaissance et la confiance identitaire. La première est basée sur le calcul,
construit dans le temps, de l’intérêt que l’on a à conserver notre confiance
en l’autre. La seconde s’appuie sur la recherche d’informations permettant
de porter un jugement sur les actions à venir de l’autre. Enfin la dernière
s’appuie sur la présence ou non de valeurs partagées avec l’autre partie.
C’est toute la question de la durabilité de la relation d’emploi qui est
conditionnée par la confiance205.
Notamment, la relation de confiance peut être mise à mal, de façon
implicite, lorsqu’il y a une rupture du contrat psychologique206 entre le
salarié et l’entreprise. Ce dernier correspond « aux attentes et obligations
réciproques non écrites entre un salarié et une organisation » (Schein,
1985). Si ces attentes ne sont pas satisfaites, il peut y avoir rupture de la
confiance, mais aussi de la motivation et de l’implication du salarié dans
l’entreprise, amenant ainsi ce dernier à se désinvestir ou même à quitter
l’entreprise. Une gestion plus individualisée des carrières peut favoriser
une meilleure prise en compte du contrat psychologique et de la confiance
entre le salarié et l’employeur au sein de l’entreprise.

3.6. La résilience dans la relation d’emploi


La notion de résilience a été développée par Boris Cyrulnik 207 en
psychologie afin de comprendre et d’expliquer le comportement de
personnes ayant connu des chocs psychologiques pendant leur enfance.
Cette notion peut être adaptée au monde de l’entreprise. La résilience
correspond alors à une capacité de l’individu à encaisser et à s’adapter à
des chocs de carrière professionnelle tels que la perte d’un emploi, une
reconversion, ou encore à mieux gérer des situations de stress intense.
Pour répondre aux exigences de flexibilité de l’entreprise moderne du
XXème et XXIème siècle, le salarié doit « rebondir », c’est à dire s’adapter en
permanence à des évènements imprévisibles. Une approche en termes de
résilience peut l’y aider.
L’entreprise, si elle met en place des actions en ce sens, peut
accompagner le salarié pour développer sa résilience, anticiper la survenue
potentielle de nouveaux chocs et aider le salarié à dépasser cette période
de vie difficile afin de se sentir mieux. En effet, la résilience comprend une
part individuelle et une part organisationnelle. A un niveau individuel, il est
possible de développer des capacités qui aident à faire face aux difficultés
telles que la capacité du salarié à imaginer et à se projeter dans un futur
meilleur ; à donner du sens à ce qu’il traverse et à son vécu, ou encore à
trouver un équilibre personnel et professionnel. Mais la résilience a aussi
une part organisationnelle, et elle peut être favorisée par des politiques en
termes de Ressources Humaines déployées par l’entreprise. Notamment le
rôle du management direct est très important dans l’identification des
problématiques de souffrance au travail et dans l’accompagnement des
salariés ; la sensibilisation des collaborateurs aux situations de changement
peut renforcer leur résilience, des politiques d’équilibre entre vie privée et
vie professionnelle peuvent renforcer le bien-être au travail et la réduction
des chocs psychologiques etc.

4. Entreprise et culture
La notion de culture a fait l’objet d’une littérature très vaste en
anthropologie, psychologie et sociologie, que nous n’avons pas pour
ambition de retracer ici. Notre propos se focalise sur la relation entre la
culture et l’entreprise tels que développés en management principalement
à partir des années 1970-1980.
La question de la définition de la culture elle-même a fait couler
beaucoup d’encre. Notamment, Maurice Mauviel 208 ou encore Denys
Cuche209 à travers des approches historiques, mettent en évidence la
manière dont la notion de culture a évolué dans le temps. De manière
schématique la culture fait référence à des croyances et valeurs partagées
par un groupe de personnes, qui déterminent implicitement la
représentation que les membres de ce groupe se fait d’elle-même et de
leur environnement. La culture peut être liée à la personne (sous
l’influence de son éducation, son environnement individuel etc.), elle peut
être liée au métier dans lequel elle évolue, à l’entreprise où elle travaille,
aux groupes auxquels elle appartient, ou encore au pays dans lequel elle
vit ou a vécu. Notons d’emblée que chacun de ces aspects culturels
peuvent être mêlés et avoir des influences réciproques. Selon les
approches théoriques, ces mécanismes culturels peuvent être considérés
comme plus ou moins dominants sur le comportement des individus au
travail.
Pour ce qui nous concerne ici, nous centrons l’attention sur l’impact de
la (ou les) culture(s) au sein des entreprises, sur l’appropriation des
méthodes de gestion, les modes opératoires, les savoirs et pratiques, les
langages, la transmission des connaissances, les comportements au travail,
la performance ou encore les résistances au changement des salariés.
Après avoir brièvement rappelé les origines anthropologiques de la
notion de culture, nous présentons premièrement des travaux qui portent
sur l’influence de la culture nationale sur l’entreprise, et d’autre part sur la
culture d’entreprise elle-même.

4.1. L’origine anthropologique de la notion de culture


Il est essentiel de rappeler l’ancrage en anthropologie sociale de la
notion de culture, ainsi que le soulignent Chanlat et Pierre 210 car «
l’influence que cet ancrage a pu avoir sur le champ des définitions actuelles
et des mots constamment utilisés en interculturel est déterminante pour
décrire le monde culturel des institutions et des symboles ».
Sans prétendre à l’exhaustivité, on peut distinguer plusieurs courants
au sein des différentes théories qui étudient la notion de culture dont
notamment : l’approche évolutionniste, l’approche culturaliste, l’approche
fonctionnaliste, l’approche structuraliste, l’approche des Cultural Studies.
• L’approche évolutionniste
L’approche évolutionniste se développe au XVIII ème siècle. La culture est
ici opposée à la nature. Elle fait référence à ce qui est produit par
l’éducation, la connaissance, et le distingue de ce qui ne l’est pas (la
Nature). La notion de culture est associée à celle de civilisation. Ainsi,
Tylor211 considère que la culture est un « ensemble complexe qui englobe
les connaissances, les croyances, les arts, la morale, les lois, les coutumes,
et tout autre capacité et habitude acquise par l’Homme en tant que
membre d’une société ».
• L’approche culturaliste
L’approche culturaliste est développée notamment par Franz Boas
(1858-1942), Margareth Mead (1901-1978), Ruth Benedict (1887-1948),
Abram Kardiner (1891-1981) et Ralph Linton (1893-1953) à partir de 1930.
Ce courant met l’accent sur la diversité des cultures humaines et rompt
avec l’idée évolutionniste qui lui précède et qui sépare d’une part des
sociétés « primitives » et d’autre part de sociétés plus « évoluées ». À
l’opposé, il y a ici une absence de hiérarchisation des cultures. Ce courant
est à l’origine d’un mouvement appelé « Personnalité et Culture », de
conception holiste, selon lequel la culture est ce qui permet aux individus
dans une société donnée d’avoir des modèles de comportement qui
conditionnent leur survie. Ainsi, selon Boas 212 « la culture est vue comme
un apprentissage de modèles de conduites typiques qu’intègre l’individu
dès son enfance et qui lui permet de s’intégrer dans une société donnée ».
• L’approche fonctionnaliste
L’approche fonctionnaliste de la culture est notamment représentée
par Bronislaw Malinowski (1884-1942). Pour ce dernier, chaque élément
culturel répond à de grandes fonctions sociales nécessaires à la société. Les
travaux de Talcott Parsons213 (1902-1979) sont également représentatifs de
ce courant. Selon ce dernier quatre fonctions permettent de décrire la
structure de la société : la latence (production d’un ensemble de valeurs
qui motivent l’action individuelle), l’intégration (nécessaire à la
coordination et la stabilisation du système), la poursuite des buts et
l’adaptation au milieu (où l’on puise ses ressources). Dès lors la
socialisation et la communauté sociétale assurent des fonctions
essentielles de stabilité normatives et de structuration des valeurs.
• L’approche structuraliste
L’approche structuraliste se développe à partir des années 1970. Cette
approche, défendue notamment par Claude Levi-Strauss 214 (1908-2009)
considère que les productions culturelles obéissent à des règles de
construction communes et sont des structures mentales universelles. La
démarche consiste à chercher les invariants de la culture, considérée
comme un construit abstrait. On y trouve notamment un débat entre
Nature et Culture, qui sera développé par Philippe Descola 215, distinguant 4
ontologies : le naturalisme (qui nous rattache aux non humains par les
continuités matérielles et nous en sépare par l’aptitude culturelle),
l’animisme (qui associe une force vitale à tous les êtres vivants humains et
non humains), le totémisme (qui souligne la continuité matérielle et
morale entre humains et non humains) et l’analogisme (qui postule entre
les éléments du monde un réseau de discontinuités structuré par des
relations de correspondances).
• Les Cultural Studies
L’approche des Cultural Studies constitue un regroupement
d’approches pluridisciplinaires qui s’intéressent principalement aux
cultures populaires, minoritaires ou contestataires. Son origine est
attribuée aux travaux de Richard Hoggard216 sur la « culture du pauvre » qui
porte sur les classes populaires anglaises. On y trouve des analyses sur les
communautés professionnelles, en tant que véhicule de représentations
communes dans et hors l’entreprise. L’attention est portée sur la « culture
du quotidien » et l’objet culturel est souvent pensé sous l’angle des
relations de pouvoir.

4.2. La culture nationale


Un certain nombre de travaux en management tentent d’établir des
typologies de cultures nationales et établissent des liens entre certains
comportements de l’individu au travail et leur pays d’appartenance. Tel est
le cas notamment de Hofstede, du projet GLOBE, de Trompenaars, de
Lewis ou encore de d’Iribarne. Enfin, nous relativisons ces approches en
présentant les travaux de Sellier, Sylvestre et Maurice.

4.2.1. L’approche de Hofstede


Geert Hofstede217 (1928-2020) est un des premiers à réaliser des études
statistiques de grande ampleur sur l’impact de la culture dans les
entreprises. Il réalise ainsi des enquêtes dans environ 50 pays auprès de
plus de 100 000 salariés de la société IBM à partir de 1967. Selon Hofstede
la culture est une « programmation mentale » qui distingue les membres
d’une culture par rapport à l’autre. Chaque culture fonctionne selon son
propre système de valeurs et ses membres se comportent selon les règles
qui sont appropriées dans une situation donnée.
L’analyse des résultats amène Hofstede à distinguer quatre dimensions
significatives de la culture nationale : la distance hiérarchique, le contrôle
de l’incertitude, le degré d’individualisme ou collectivisme et la
masculinité/féminité.
La première dimension correspond à la distance hiérarchique, ou le
degré auquel une distribution inégale du pouvoir dans les entreprises est
socialement acceptée. Une faible distance hiérarchique est liée à une faible
centralisation, des structures hiérarchiques plus plates, une supervision
souple, de faibles différences de salaire. Elle est caractéristique, par
exemple des pays scandinaves, de l’Autriche, de l’Allemagne, l’Australie et
du Royaume-Uni. A l’opposé, dans les pays où la distance hiérarchique est
élevée, les salariés ne contredisent pas directement leur supérieur
hiérarchique. Il y a une forte différence entre la base et le sommet. C’est le
cas notamment de la France, la Russie, le Mexique, l’Inde, la Chine.
La seconde dimension est celle du contrôle de l’incertitude, qui mesure
le degré auquel les individus cherchent à éviter les situations ambiguës et
incertaines qu’ils considèrent comme stressantes. Il en résulte, quand il est
élevé, la présence de plus de règles formelles, beaucoup de
comportements ritualisés, moins de tolérance envers les idées et
comportements déviants. En Grande Bretagne, États-Unis, Suède,
Danemark ou en Inde, l’indice est faible, ce qui signifie que les individus
sont à l’aise avec l’incertitude. A l’opposé, en France, Grèce, Portugal,
Pologne, Roumanie, Japon ou en Russie, l’indice de contrôle de
l’incertitude est élevé et il y a une tendance à mettre en place plus des
stratégies pour réduire l’incertitude.
La troisième dimension oppose l’individualisme au collectivisme et
décrit le degré auquel les individus sont intégrés dans des groupes. Quand
l’individualisme est élevé, les individus sont supposés ne s’occuper que
d’eux-mêmes et les relations sociales sont distendues, alors qu’à l’inverse
les individus prennent soin les uns des autres dans le cadre de groupes
d’appartenance liés par une forte loyauté quand le collectivisme domine.
États-Unis, Australie, France, Allemagne, Belgique, Royaume-Uni ont un
plus fort degré d’individualisme que la plupart des pays d’Amérique du
Sud, la Chine, Taiwan, Singapour, Hong-Kong. Il semble exister par ailleurs
un lien entre la richesse du pays et le degré de collectivisme de la culture
nationale. Globalement, il apparaît que les pays les plus pauvres sont plus
collectivistes que les pays plus riches.
Une quatrième dimension oppose la masculinité à la féminité des
valeurs sociales dominantes. Une société est dite masculine lorsque les
rôles attribués aux hommes et aux femmes sont clairement distincts. La
société est dite féminine lorsque les rôles des hommes et des femmes se
confondent et que les deux sexes se préoccupent de la qualité de vie.
Les valeurs dites masculines, sont associées à la compétitivité, l’argent
est essentiel, le management est plutôt autoritaire, la reconnaissance est
importante. Ainsi, dans les nations masculines, telles que le Japon,
l’Autriche, la Chine, l’Italie, le Mexique ou les États-Unis le travail est
central dans la vie et la compétitivité et l’agressivité valorisées. Au
contraire, dans celles qui sont féminines, telles la France et la Scandinavie,
la Russie, les aspects sociaux sont plus valorisés, il y a moins de
différenciation entre les sexes, plus de femmes occupent des emplois
qualifiés et un plus grand intérêt pour l’équilibre vie privée/vie
professionnelle.
Cette dimension a souvent été critiquée par son appellation sexiste.
Hofstede a alors évolué dans le temps et considéré que l’on pouvait
remplacer les termes par « performance » (pour masculin) et «
coopération » (pour féminin).
En 1991 Hofstede218 ajoute une 5ème dimension à son modèle :
l’orientation à long terme ou à court terme qui fait référence à la gestion
du temps. L’orientation à long terme est synonyme d’encouragement vers
les vertus tournées vers l’avenir, en particulier la persévérance,
l’adaptabilité et le sens de l’économie.
L’orientation vers le court terme est orientée vers le présent et le
passé. Notamment, l’on y trouve le respect de la tradition, de la hiérarchie
et le respect des obligations sociales.
Enfin en 2011, en collaboration avec Minkov, il ajoute une sixième
dimension : l’indulgence selon laquelle l’individu se donne plus ou moins
librement la possibilité de réaliser ses plaisirs.

4.2.2. Le projet GLOBE


Initié par Robert House219 dans les années 1990, le projet Global
Leadership and Organizational Behavior Effectiveness (GLOBE) repose sur
une enquête conduite auprès de 17 000 managers dans 62 pays visant à
mieux comprendre les différences culturelles en termes de pratiques de
management et notamment de leadership.
Le projet GLOBE retient 9 dimensions culturelles, élargissant ainsi le
modèle de Hofstede :
1. L’orientation vers la performance : degré auquel le collectif encourage
et récompense les membres du groupe pour leurs performances.
2. L’assertivité : degré auquel les membres du groupe sont assertifs,
conflictuels ou agressifs dans leurs relations avec les autres.
3. L’orientation vers futur : tendance à s’engager dans des processus
tournés vers le futur.
4. L’orientation humaine : degré auquel le groupe récompense et
encourage ses membres à être altruiste et généreux envers les autres.
5. Le collectivisme institutionnel : degré auquel les institutions
encouragent une distribution collective des ressources.
6. Le collectivisme interne au groupe : degré auquel les individus
expriment de la loyauté, ou dévotion envers leur groupe ou leur
organisation.
7. L’égalité de genre : degré auquel l’égalité de genre est présente dans la
société.
8. La distance hiérarchique : degré auquel les membres de l’organisation
ou du groupe s’attendent à ce que le pouvoir soit partagé.
9. Le contrôle de l’incertitude : degré auquel l’organisation ou le groupe
met en place des procédures pour éviter l’incertitude.

Le projet GLOBE conduit à dégager des attributs de leadership qui sont


« désirables ». Il s’agit du charisme, de l’orientation vers l’équipe, de la
capacité à faire participer les membres de l’équipe, de la compassion et la
générosité, de l’autonomie et une capacité de protection vis-à-vis des
membres du groupe.
L’étude distingue alors un certain nombre de « clusters » qui ont des
traits communs sur le plan culturel. Tel est le cas par exemple du « cluster »
regroupant la France, Israël, l’Italie, le Portugal, l’Espagne et la Suisse. On y
observe des scores moyens en termes de pratiques sur les différentes
dimensions culturelles, sauf pour la distance hiérarchique qui est élevée et
l’orientation humaine qui est faible. La distance hiérarchique est le degré
auquel la communauté accepte et approuve l’autorité, les différences de
pouvoir, les privilèges de statut et l’inégalité sociale. Les membres de ces
sociétés ne s’attendent donc pas à ce que le pouvoir soit réparti également
entre ses citoyens et ne récompensent pas particulièrement les individus
pour leur générosité envers les autres. Les scores d’égalité de genre sont
assez faibles, mais restent dans la moyenne des autres clusters. En
synthèse, les sociétés de ce cluster sont quelque peu dominées par les
hommes, pas particulièrement axées sur l’altruisme et le social et
connaissent une répartition inégale du pouvoir et du statut entre les
citoyens.
4.2.3. La typologie de Trompenaars
A l’appui d’une enquête sur 15 000 personnes dans 50 pays, Fons
Trompenaars220 identifie sept dimensions sur lesquelles se situent ces
pays : l’uniformalisme/particularisme, l’individualisme/collectivisme, la
neutralité/affectivité, le degré d’engagement spécifique ou diffus, le statut
attribué ou acquis, l’orientation temporelle et l’orientation interne/externe.
Ces sept choix de comportement correspondent dans sa typologie aux
différentes orientations des cultures nationales.
Les universalistes (USA, Suède, Allemagne) s’opposent aux
particularistes (Chine, Corée, Russie). Ils appliquent une règle universelle à
tous et pour tous au lieu d’adapter leur comportement aux circonstances
du cas particulier qui se présente. En d’autres termes, la règle ou le contrat
dans ses termes précis et littéraux est privilégiée par rapport à la relation.
Les individualistes s’opposent aux collectivistes, les premiers
privilégiant la liberté individuelle au bien collectif.
Les affectifs (Italie, France, Espagne) acceptent les attitudes subjectives
guidées par les sentiments et s’opposent aux neutres (Japon, Royaume-
Uni) qui privilégient les attitudes objectivement rationnelles et craignent
les démonstrations d’affectivité et d’émotions.
Ceux qui ont un degré d’engagement spécifique (US, Royaume-Uni,
France) compartimentent leur vie privée et professionnelle, alors que ceux
qui ont un degré d’engagement diffus (Chine) ne marquent pas – ou peu de
frontières entre les différents aspects de leur vie et donc, par exemple,
n’hésitent pas à mêler vie privée et professionnelle.
Le statut social attribué, en fonction de l’âge, de la profession, des
diplômes, de l’origine sociale s’oppose au statut acquis par des actions, des
succès individuels. Les cultures qui privilégient le statut acquis valorisent
donc la réalisation des individus au travail.
Enfin, dans leurs attitudes vis-à-vis du temps, les séquentiels
s’opposent aux synchrones. D’un côté, pour les séquentiels, le temps
s’écoule de façon linéaire en périodes identifiables et successives. Ils
préfèrent aborder les tâches les unes après les autres. De l’autre côté, pour
les synchrones, le temps est cyclique et se répète. Il est fréquent de gérer
plusieurs tâches en même temps.
Ceux qui souhaitent contrôler leur environnement s’opposent à ceux
qui l’acceptent tel qu’il est et le laissent suivre son cours. Forger la nature à
la dimension de ses souhaits et ses besoins s’oppose ainsi à vivre avec elle
en harmonie, telle qu’elle est en en tirant partie.

4.2.4. La typologie de Lewis


Richard D. Lewis221 met en évidence que le leadership prend des formes
différentes selon les pays et distingue trois types de cultures : la culture
linéaire active, la culture multi-active et la culture réactive.
Dans les cultures linéaires actives (Allemagne, États-Unis, Suède,
Norvège, Pays Bas, GB…) le leadership a pour objectif de répartir les
tâches, formuler des stratégies et guider les membres de l’équipe pour les
amener à réaliser leurs objectifs. Ils recherchent les compétences
techniques, placent les faits avant les sentiments, ils mettent en place des
plannings précis et sont centrés sur la réalisation des tâches.
Dans les cultures multi-actives (Amérique du sud, Espagne, Grèce,
Italie, Portugal…), les leaders sont plus extravertis. Ils s’appuient sur leur
éloquence et leur habilité sociale pour amener les membres du groupe à
réaliser leurs objectifs. Ils sont plus axés sur les sentiments, développent
les contacts interindividuels et laissent le temps si nécessaire.
Dans les cultures réactives (Asie) sont centrés sur la relation
individuelle, mais autour des notions de compétences, de patience, de
courtoisie et de modestie. Le leader est paternaliste et cherche à créer une
ambiance de travail harmonieuse. L’ancienneté est source de respect. Le
leader a souvent occupé diverses fonctions dans l’entreprise avant d’avoir
des responsabilités, il connaît bien son entreprise, et cela contribue à sa
notoriété.
Il existe par conséquent un large éventail de travaux sur l’impact de la
culture nationale sur le comportement des individus au travail. Mais
audelà, l’entreprise peut développer une culture en elle-même.

4.2.5. d’Iribarne et la logique de l’honneur


Philippe d’Iribarne222 propose une réflexion qui porte sur trois pays
(France, Hollande et États-Unis) et qui a pour originalité d’identifier des
logiques d’action distinctes dans ces différents pays. Il se distingue des
études précédentes, quantitativistes, en ce qu’il privilégie une étude de
nature à la fois qualitative et sociohistorique. Selon lui, la France est
caractérisée par une logique de l’honneur, les États Unis par une logique
de contrat et les Pays bas par une logique du consensus. Il en ressort qu’il
convient de tenir compte des traditions et de la culture nationale pour
gérer les entreprises.
La France est caractérisée par une tradition, héritée du Moyen-Âge, qui
oppose ceux dont l’activité est considérée comme « noble » à ceux pour
qui elle est considérée comme « inférieure ». Cette distinction influence
encore très profondément la volonté d’autonomie, le sens du devoir et les
relations hiérarchiques entre individus au travail. Les comportements sont
reliés à la condition sociale. Bien évidemment cette dernière ne reflète
plus la vieille distinction issue de la naissance, mais intègre de multiples
autres facteurs tels les diplômes, l’éducation, la formation, l’ancienneté ou
tout autres facteurs. Le comportement, cependant, est toujours dirigé par
la condition, l’état de l’individu, même si ses déterminants ont changé.
Certes, dans une société en mouvement et en grande croissance
économique les conditions honorables se sont multipliées et leurs
frontières érodées dans une certaine mesure. Dans sa condition, l’individu
accomplit ses devoirs, qui y sont liés, implicites autant qu’explicites et jouit
de ses privilèges, en accord avec les impératifs du sens de l’honneur. Des
honneurs lui sont dus mais un comportement honorable est aussi attendu
de lui, non seulement en tant qu’individu se comportant convenablement
en société, mais essentiellement en rapport avec sa condition de membre
d’un groupe social donné. Ce sens de l’honneur est équilibré par un devoir
de modération qui y est inhérent. Il serait tout aussi déshonorant d’obéir à
un individu dont la condition n’est pas telle qu’il puisse attendre
obéissance de quelqu’un de celle où se trouve la personne concernée. À
l’inverse, un individu d’une condition supérieure qui a le sens de l’honneur
n’est pas supposé donner des ordres ou des instructions que le
subordonné ne pourrait exécuter honorablement luimême dans son état. Il
est de plus attendu de lui qu’il prenne soin des siens et défende et protège
ses subordonnés ainsi qu’il l’est attendu d’un chef se comportant
honorablement.
À ce modèle français, d’Iribarne oppose le modèle des États-Unis
caractérisé par l’image d’échanges libres et équitables entre égaux. La
logique des rapports marchands et du contrat prévaut. Il n’y a aucun
déshonneur à travailler pour quelqu’un d’autre et l’on s’attend à être
informé exactement de ce qui est attendu de soi, de même qu’à des
contrôles précis sur ce qui est fait et comment cela est fait dans ce cadre
contractuel. Ce contrat est passé initialement entre égaux et son respect
autant que le fait qu’il ne soit pas appliqué inéquitablement sont assurés
dans les faits par les impératifs moraux qui dominent la collectivité à
laquelle les deux parties appartiennent.
Encore différent est le modèle des Pays-Bas caractérisé par le devoir
d’expliquer et d’écouter, le dialogue et la recherche du consensus à
l’intérieur d’un groupe de pairs.

4.2.6. L’approche sociétale de Sellier, Sylvestre et Maurice


L’approche de Sellier, Sylvestre et Maurice223 se distingue des
précédentes en ce qu’elle relativise le poids de la culture et met l’accent
sur le rôle de l’environnement éducatif et sociétal. Ces auteurs démontrent
que l’organisation des entreprises varie considérablement d’un pays à
l’autre entre entreprises similaires sur des facteurs essentiels de structure,
de processus de décision et de qualifications.
Ils montrent qu’il n’y a pas de mode d’organisation universel mais des
adaptations d’un mode à des contextes nationaux. Ces structures
d’entreprises sont contingentes à la culture nationale. Toutefois, ceci ne
vient pas principalement de l’hypothèse que chacun des membres de
l’organisation intériorise la culture nationale et y confirme son attitude au
travail mais d’une interdépendance entre entreprise et institutions de la
société.
Cette interdépendance ne joue pas qu’au niveau national mais aussi
entraîne des variations et adaptations en fonction des cultures régionales
et même locales car les institutions nationales peuvent être plus ou moins
présentes à un degré plus ou moins élevé à chacun de ces niveaux.
Hiérarchie, qualification, structure d’emploi et division du travail sont
autant de phénomènes sociaux en interaction. Ils ont donc une cohérence
et cette cohérence est spécifique dans chaque type de société. Les
institutions dans lesquelles on les observe sont elles-mêmes les
manifestations spécifiques de l’agencement des rapports sociaux. Elles ne
sont cependant certes pas des invariants. L’acteur s’y déplace dans les
limites de sa rationalité. Cependant, l’influence exercée par la société sur
les organisations est assez prégnante pour que ni la gestion des
techniques, ni l’accomplissement des buts ne soient vraiment comparables
d’un cas à l’autre. On a dans chaque pays des processus de socialisation
différents.
Sellier et ses collègues pour comparer les systèmes hiérarchiques dans
des entreprises à technologie, taille, marchés identiques entre France et
Allemagne, les mettent en relation avec une série de rapports sociaux
particuliers qui représentent la trame des sociétés allemande et française.
Les liens des individus à travers le système éducatif, le système de division
des tâches dans le cadre productif et le système de constitution des
identités sociales et des oppositions économiques se modulent et se
combinent différemment en constituant des rapports sociaux différents
entre les deux pays. Les notions de stratification du système éducatif,
d’espace organisationnel créent un effet sociétal qui explique des
différences dans la répartition des degrés de qualification dans la main-
d’œuvre, la mobilité des salariés, les niveaux relatifs de salaire, les
structures hiérarchiques, le degré d’autonomie dans le travail d’exécution,
le clivage ouvrier employé et ouvrier maîtrise, etc.
Par conséquent, il apparait des visions différentes, selon les théories,
du rôle de la culture nationale sur les comportements au sein des
entreprises.

4.3. La culture d’entreprise


La notion de culture d’entreprise s’est développée dans les années
1970-80 notamment du fait de l’observation du succès d’un certain
nombre de grandes entreprises japonaises224.
Smircich225 met en évidence deux approches de la culture. Dans la
première l’entreprise EST une culture, elle est une métaphore et à ce titre
peut être étudiée comme toute société humaine, dans la seconde
l’entreprise A une culture, qui est une variable du système et qui interagit
avec d’autres variables (structure, système de gestion…).
Selon Maurice Thevenet226 la culture d’entreprise correspond à « un
ensemble de références partagées dans l’organisation construites tout au
long de son histoire, en réponse aux problèmes rencontrés par l’entreprise
». Celle-ci opère sans que l’on ne s’en rende compte. Ainsi, « la culture
n’est pas une part de connaissance, et il est vain d’interroger les personnes
sur la culture pour la découvrir. Un dirigeant disait un jour être intéressé
par la culture mais doutait de la capacité de son balayeur à en savoir quoi
que ce soit ; c’est probablement vrai comme il est vraisemblable que sa
propre conception de la culture soit tout aussi insuffisante. Toutefois, lui ou
son balayeur agissent chaque jour selon la culture même sans en être
conscients ».
Nous présentons successivement les apports de Schein et de
Sainsaulieu sur la notion de culture d’entreprise.
4.3.1. Les apports de Schein
Selon Edgar Schein227 : « la culture d’un groupe peut être définie comme
le résultat de l’apprentissage partagé et accumulé par ce groupe pour
résoudre des problèmes d’adaptation externe et d’intégration interne ; qui
a suffisamment bien fonctionné pour être considéré comme valide et par
conséquent, peut être transmis aux nouveaux membres comme étant la
manière correcte de percevoir, de penser, de ressentir et de se comporter
pour résoudre ces problèmes. Cette connaissance accumulée est un
système de croyances, de valeurs, de normes de comportements qui
viennent à être considérés comme des postulats de base ».
Pour Schein228, la culture se manifeste à différents niveaux qui incluent :
• Un langage commun.
• Un climat à travers lequel les membres du groupe interagissent.
• Des rituels et célébrations dont la signification dépasse leur finalité
pratique.
• Des valeurs partagées.
• Des normes implicites qui sont intériorisées par les membres du
groupe.
• Des règles du jeu implicites qui conditionnent l’appartenance au
groupe.
• Des symboles et images communes.
• Des principes idéologiques et philosophiques qui guident l’action.
• Des compétences et connaissances internalisées, non écrites, qui sont
transmises entre les membres du groupe.
• Des modes de pensée, des modèles mentaux et des paradigmes
linguistiques communs.
• Des façons de pensées communes qui sont partagées.
• Des symboles, signes, codes qui témoignent de l’appartenance
commune à la culture partagée.
Par conséquent, la culture est le produit de l’histoire partagée d’un
ensemble de personnes qui ont produit ensemble un langage commun,
des valeurs, des règles, des façons implicites de penser, de faire et de se
comporter qui sont partagées. La culture dépendra des personnes qui
composent le groupe, de la durée de leur interaction, de l’intensité
émotionnelle associée à ces relations et aux contenus des expériences,
pratiques et connaissances partagées. Dès lors il apparait que l’entreprise
elle-même peut être le lieu du développement d’une culture propre.
Il convient ensuite de distinguer trois niveaux d’analyse : les artefacts,
les valeurs et les postulats.
Les artefacts correspondent à des régularités comportementales
visibles par les autres. C’est le niveau le plus « visible » de la culture.
Les croyances et les valeurs constituent la base partagée du jugement à
partir duquel les membres de l’entreprise (ou de l’organisation) vont
déterminer ce qui est juste et ce qui ne l’est pas. Ces valeurs sont issues
d’un consensus social.
Enfin les postulats constituent le cœur de la culture mais sont
beaucoup moins apparents et même souvent inconscients. Ils opèrent à un
niveau profond des croyances et hypothèses de base partagées par les
membres de l’entreprise (ou l’organisation), définissant une vue commune
tenue pour acquise de soi-même et de l’environnement qui permet de
résoudre les problèmes qui se posent de façon fiable et répétitive.
La culture d’une entreprise opère donc à différents niveaux. Si les
artefacts sont faciles à observer, les valeurs et postulats sont souvent plus
difficiles à déchiffrer.
Schein met ensuite l’accent sur le rôle du leader pour véhiculer, voire
transformer lorsque cela est nécessaire, la culture de l’entreprise. Ainsi, si
l’environnement évolue – et que les hypothèses ne permettent plus de
résoudre les problèmes – il peut devenir nécessaire de changer de culture.
4.3.2. Sainsaulieu et l’identité au travail
Pour Renaud Sainsaulieu229 (1935-2002) les salariés qui travaillent en
commun « élaborent des règles des valeurs et des pratiques
communément admises pour gérer leurs relations de solidarité, d’entraide,
de complémentarité technique, de dépendance et d’autorité, de formation
et d’information, de contrôle et d’évaluation ». Ce faisant, ils construisent
une culture propre à l’entreprise.
Pour Sainsaulieu230, la culture est « un réservoir intériorisé, transmis et
soigneusement élaboré par l’histoire d’un ensemble de valeurs, de règles et
de représentations collectives qui fonctionnent au plus profond des
rapports humains ».
L’entreprise n’est pas seulement le lieu où des cultures sociétales,
communautaires et professionnelles font sentir leurs effets, mais elle est
elle-même productrice de systèmes de représentations et de cultures.
Elle produit et transmet dans la société ses effets culturels.
Sur la base de l’observation des relations de travail, Sainsaulieu met en
lumière quatre cultures différentes et présentes dans le milieu industriel
dans la période de croissance des années 1960 : la fusion, la négociation,
l’affinité et le retrait.
La culture de la fusion, caractérise les ouvriers non qualifiés, affectés à
un travail simple et répétitif. Elle consiste en un modèle où « le collectif est
valorisé comme un refuge et une protection contre les différences et les
clivages. Les relations entre pairs sont intensément affectives mais peu
orientées vers le débat d’idées. Le rapport au chef ou au leader est
indispensable pour orienter le groupe, et en quelque sorte absorber la
majeure partie des combats d’idées. Les valeurs de la masse, de l’unité, de
la camaraderie l’emportent ».
La culture de la négociation se retrouve chez les ouvriers
professionnels, employés et techniciens ayant un véritable métier et les
cadres ayant de véritables responsabilités d’encadrement. Elle comporte
une « grande richesse cognitive et affective des relations
interpersonnelles ; l’importance de la vie collective de type démocratique,
c’est-à-dire acceptant le débat productif entre majorité et minorité ; un
refus net de toute autorité imposée, par le choix des leaders, ou chefs élus
pour leur aptitude à faire s’exprimer ou à faire vivre des groupes
démocratiques. Cette culture valorise la solidarité mais aussi la différence
et l’expérience du groupe. Le métier sous toutes ses formes est au sommet
de l’échelle des valeurs, et il entraîne avec lui les valeurs annexes
d’autonomie, d’indépendance, de maîtrise de soi et des autres ».
La culture de l’affinité caractérise les autodidactes en mobilité sociale
évolutive, cadres et techniciens. « Ce sont les thèmes de l’exclusion du
groupe et des affinités sélectives qui paraissent marquer la vie
relationnelle. Les rapports interpersonnels avec des collègues sont peu
nombreux mais intenses sur le plan affectif et cognitif. (…) C’est plus en
termes de réussite personnelle dans un vaste ensemble de réseaux
interpersonnels que le travail est en fin de compte apprécié ; le statut et la
carrière sont plus des moyens de stratégies évolutives personnelles que des
formes de protection collective, la création du travail scientifique ou
manuel est remplacée par la valeur intégratrice de toute activité
organisationnelle ».
Enfin la culture de dépendance et de retrait « se caractérise par une
très faible entrée dans le jeu des relations interpersonnelles et collectives
avec les pairs... Le groupe est refusé, le leader aussi, et l’on se cantonne
dans une sorte de séparatisme prudent. Le rapport au chef est alors
d’autant plus important que les autres formes de relations sont minorées,
tout passe par le chef qui doit être à la fois compréhensif et responsable,
voire autoritaire si l’on veut être parfois protégé. Le travail n’est pas une
valeur dans une telle hypothèse de relations, on y voit surtout une nécessité
économique ou le moyen de réaliser un projet extérieur impliquant d’autres
relations et d’autres créations ».
Toutes ces cultures sont présentes dans un même groupe mais avec
des pondérations et des évolutions différentes.
De plus, l’expérience de la vie en organisation, des relations de travail,
va créer des contextes spécifiques d’apprentissage culturel. C’est-à-dire
que, dans l’entreprise, les gens peuvent changer de culture, faire évoluer
leur système de représentation. Ce processus se fait à travers les «
représentations » qui vont au-delà de la simple affirmation de normes,
valeurs et symboles. Elles sont définies par Sainsaulieu comme « une
organisation durable de perceptions et de connaissances qui constituent
des ensembles de significations moins archaïques et totalitaires que ceux
des mythes. Elles peuvent certes inclure des images du monde mais elles
s’en distinguent par une vie et une capacité d’interaction avec l’événement.
Elles ne sont pas seulement de simples opinions ».
Le changement dans les représentations de soi et des autres, résulte de
processus sociaux et relationnels qui se déroulent dans les groupes.
Dans ces apprentissages culturels dans les rapports de travail se forgent
des identités collectives qui se traduisent en modèles culturels. Sainsaulieu
en identifie quatre : l’action de masse qui correspond aux identités de
caractère fusionnel, l’action stratégique qui correspond aux identités de
négociation, l’action de soi qui correspond aux identités d’affinités et enfin
l’action d’ailleurs correspondant aux identités de retrait.
Il s’ensuit qu’au-delà de la production de cultures ou de leur
modification par apprentissage, il peut exister une culture d’entreprise et
non pas des cultures dans l’entreprise. C’est-à-dire une identité collective
d’appartenance à l’entreprise, des représentations, des normes, des
valeurs et des règles créées par l’entreprise, intériorisées par tous ses
membres et indépendantes et différentes des autres entreprises.
Sainsaulieu231 réalise – en collaboration – une vaste série d’enquête
auprès de 81 entreprises entre 1987 et 1994. Ces enquêtes conduisent à
une typologie permettant de décrire 5 mondes sociaux d’entreprise :
l’entreprise communauté, l’entreprise duale, l’entreprise bureaucratique,
l’entreprise modernisée et l’entreprise en crise. Les trois premiers mondes
sociaux sont stables, alors que les deux derniers sont en transformation.
La description de ces différents mondes sociaux permet de mettre en
évidence que les entreprises sont des construits sociaux, qui s’appuient sur
des histoires, des cultures et des systèmes de régulations non uniformes.
En conclusion, l’ensemble des théories qui viennent d’être exposées,
mettent en évidence à quel point l’entreprise a été un objet d’étude
privilégié tant pour les économistes, que les sociologues, ou encore les
psychologues et bien sur les gestionnaires, mais aussi la diversité des
approches théoriques existantes.

Focus : L’essentiel sur les théories des organisations et


l’entreprise
L’entreprise est un objet d’étude qui a attiré l’attention d’un grand nombre
de théoriciens, d’origines disciplinaires variées.
Si on retient la typologie de Favereau (1989), il apparait que les théories
économiques standards considèrent la firme comme une « boîte noire » et
portent l’attention sur le seul fonctionnement du marché. C’est le cas des
théories classiques et néoclassiques, même si on trouve chez Adam Smith
(1723-1790) une analyse à la fois de l’organisation de la production et des
sentiments moraux. Toutefois, dans les théories standard étendue et les
théories non standard, nombre d’approches économiques donnent une
place centrale aux mécanismes qui opèrent au sein de la firme. Tel est le
cas de la théorie de l’agence (Jensen et Meckling, 1976 ; Akerlof, 1970), de
la théorie des coûts de transaction, de la théorie des marchés internes
(Doeringer et Piore, 1971) ou encore de la théorie des conventions.
Williamson (1932-2020) – suite à une interrogation de Coase – propose
une théorie explicative de l’existence de la firme. Ainsi, selon Williamson,
l’apparition de la firme supprime certains coûts de transaction en les
internalisant. Elle résulte donc d’un échec du marché.
On distingue également un ensemble d’approches théoriques
premièrement sur la stratégie de l’entreprise, deuxièmement sur les
ressources humaines dans la relation de travail et enfin troisièmement sur
les aspects culturels.
Pour ce qui concerne la stratégie d’entreprise, Mintzberg (1999) distingue
10 écoles de pensée : l’école de la conception, l’école de la planification,
l’école du positionnement, l’école entrepreneuriale, l’école cognitive,
l’école de l’apprentissage, l’école du pouvoir, l’école environnementale,
l’école culturelle et l’école de la configuration.
Pour ce qui concerne les ressources humaines, les théories sont très vastes
et portent sur une grande diversité de sujets tels que le recrutement, la
gestion des compétences, les rémunérations, la gestion des carrières, la

négociation collective, la RSE, l’internationalisation, la santé au travail,


mais aussi tout ce qui concerne la motivation, la satisfaction au travail, le
rôle du manager et le leadership, la justice organisationnelle (Greenberg,
Adams, Roberts et Gleason) l’implication (Allen et Meyer) ou encore la
confiance (Mc Allister, Lewicki et Bunker) et la résilience (Cyrulnik).
Enfin, pour ce qui concerne la culture, notion issue de l’anthropologie
sociale, l’étude de son impact sur l’entreprise se développe à partir des
années 1970/1980. On distingue d’une part des travaux sur la culture
nationale (Hofstede, Trompenaars, Projet GLOBE, Lewis et d’Iribarne,
Sellier, Sylvestre et Maurice) et d’autre part des réflexions sur la culture
d’entreprise (Schein, Sainsaulieu). Chacune donne à voir une influence
plus ou moins forte de la culture sur le comportement organisationnel.
_______
133
Favereau, O., « Marchés Externes, marchés internes », Revue Économique, Vol. 40, n°2, mars 1989
et « Vers un calcul économique organisationnel », Revue d’Économie Politique, 99, n°2, marsavril
1989.
134
Schellenberg, J. A., The Science of Conflict, New York, Oxford University Press, 1982.
135
Arrow, K., Conférence du 5 novembre 1984, reproduite dans Live of the laureate, MIT Press,1990.
136
Arrow, K., Debreu, G., Existence of equilibrium for a competitive economy, Econometrica, 1954 et
Debreu, G., Théorie de la valeur, Yale University, 1959.
137
Un « contrat contingent » est un contrat qui inclut une clause qui relie les obligations résultant du
contrat à la survenance, ou à la non survenance, d’un événement particulier, extérieur à la volonté
des signataires du contrat.
138
Hahn, F., Théorie de l’équilibre général, cité dans Crise et renouveau de la théorie économique, de
Daniel Bell et Irving Kristol, Bonnel-Publisud, 1986.
139
Berle, A. A., Means, G. C., The Modern Corporation and Private Propriety, NY, MacMillan, 1932.
140
La théorie des coûts de transaction est insérée dans les théories standards étendues, même si
elleest à la frontière avec les théories non standards puisqu’elle retient la rationalité limitée au
moins substantielle si non procédurale des agents, contrairement à la théorie de l’agence qui
retient l’hypothèse de rationalité absolue.
141
Voir Charreaux, G., « La théorie positive de l’Agence, une synthèse de la littérature »,
dansCharreaux, G. et al., CEDAG, De nouvelles théories pour gérer l’entreprise, Paris Economica,
1987.
142
Jensen, M. C. and Meckling, W. H., ‘‘Theory of the firm, managerial behavior, Agency Costs
andOwnership structure’’, Journal of Financial Economics, Vol. 3, n°4, 1976.
143
Arrow, K., The Economics of Agency, in Principals and Agents. The Structure of Business. Ed Pratt &
Zeckhauser, p. 40, 1985.
144
Akerlof, G. A., ‘‘The market for Lemons : Quality, Uncertainity and the Market
Mechanism’’,Quaterly Journal of Economics, 1970, Vol. 84.
145
Arrow, K., The Economics of Agency, in Principals and Agents. The Structure of Business. Ed Pratt &
Zeckhauser, p. 39, 1985.
146
Williamson, O. E., Market and Hierarchies, Analysis and antitrust Implications, New York, The
Free Press, 1975 ; ‘‘Transaction Costs Economics: The Governance of Contractual Relations’’, Journal of
Law and Economics, 1979 et The Economic Institutions of Capitalism, New York, The Free Press, 1985.
147
Coase, R. H., ‘‘The Nature of the Firm’’, Economica, vol. 4, 1937.
148
Williamson, O. E., Les institutions de l’économie, InterEditions, p. 349, 1994.
149
Williamson, O. E., Les institutions de l’économie, InterEditions, pp. 70-71, 1994.
150
Par exemple, Robert Grant présente le management des connaissances comme une théorie
globalede la firme. Ainsi, dans la théorie de Grant les connaissances explicites et tacites et surtout
la capacité d’intégration de ces connaissances individuelles sont les principales sources
d’avantages concurrentiels durables. Grant soutient alors que la firme est l’institution capable de
coordonner, d’intégrer de manière efficiente ces connaissances individuelles spécialisées dans le
cadre d’une production performante de biens vendus sur le marché. Du point de vue de
l’intégration des connaissances, l’entreprise est supérieure au marché du fait de la faible
transférabilité des connaissances tacites et des difficultés de transfert par contrat des
connaissances explicites.
151
Doeringer, Peter B. and Piore, Michael H., Internal Labor Markets and Manpower analysis,
Lexington, Mass, DC Heath and Co., 1971.
152
Opus cit.
153
André Orléan, Analyse économique des conventions, Paris, PUF, 1994.
154
Salais Robert et Thévenot Laurent (eds), 1986, Le Travail : marchés, règles, conventions, INSEE,
Paris, Economica.
155
Boltanski Luc, Thévenot Laurent, De la justification. Les économies de la grandeur, Paris, Gallimard,
1991.
156
Eymard-Duvernay François, 2006, L’économie des conventions, méthodes et résultats, Paris, La
découverte.
157
Dupuy, J.-P., Introduction aux sciences sociales : logique des phénomènes collectifs, Paris, Ellipse,
1992, chapitre 2.
158
Favereau, O., « Marchés externes et internes », Revue Économique, 1989.
159
Boltanski Luc, Thévenot Laurent, Les économies de la grandeur, Cahiers du Centre d’études de
l’emploi, Paris, PUF, 1987 et Boltanski Luc, Thévenot Laurent, De la justification. Les économies de
la grandeur, Paris, Gallimard, 1991.
160
Une cité complémentaire, la cité par projets sera ajoutée dans Boltanski, L., Chiapello, E., Le nouvel
esprit du capitalisme, Paris, Gallimard, 1999.
161
Mintzberg, H., Ahlstrand, B., Lampel, J., Safari en pays stratégie, Village Mondial, 1999.
162
Selznick, P., Leadership in Administration, 1957.
163
Chandler, A. D., Stratégies et structures de l’entreprise, 1962.
164
Learned, Christensen, Andrews et Guth, Business Policy: text and cases, 1965.
165
H. Igor Ansoff, Corporate strategy, 1965.
166
Mintzberg, H., Grandeur et décadence de la planification stratégique, 1994.
167
Porter, M., Choix stratégiques et concurrence, 1980.
168
Schumpeter, J. A., The Theory of Economic Development, Oxford University Press, 1934 ;
Schumpeter, J. A., Capitalism, Socialism, and Democracy, NY, Harper and Row, 3e edition, 1950.
169
Bennis, W., Nanus, B., Leaders: the strategies for taking charge, NY, Harper and Row, 1985. 170
Collins, O., Moore, D. G., The organization Makers, NY, Appleton Century Crofts, 1970.
171
Tversky, A. & Kahneman, D. (1974). ‘‘Judgment under uncertainty: Heuristics and
biases’’,Science, 185, 1124-1131.
172
Duhaime, I. M., Schwenk, C. R., ‘‘Conjectures in Cognitive Simplification an Acquisition
andDivestment Decision Making’’, Academy of Management Review, 10, 2, pp. 287-295, 1985.
173
Makridakis, S., Forecasting, Planning and strategy for the 21th Century, NY, Free Press, 1990. 174
Lindblom, C. E., ‘‘The science of Muddling through’’, Public Administration Review, vol. 19, 1959, pp.
79-88. Dahl, R.A. and Lindblom, C. E., Politics, Economics and Welfare et Braybrook, D. and Lindblom,
C. E., A strategy of decision, Policy Evaluation as a Social Process, New York, The Free Press, 1963.
175
Quinn, J. B., ‘‘Strategic Change: logical incrementalism’’, Sloan Management Review, pp. 7-22,
1978 et Strategies for change: logical incrementalism, Homewood, IL Irwin, 1980.
176
Mintzberg, H. et al., opus cit., 1999.
177
Prahalad, C. K., Hamel, G., ‘‘The core competence of the Corporation’’, Harvard Business Review,
68, 3, pp. 79-91, 1990.
178
Nonaka, I. et Takeuchi, H., The Knowledge-Creating Company, How Japanese companies create the
dynamics of innovation, NY, Oxford University Press, 1995.
179
Macmillan, J. C., Strategy formulation: political concepts, 1978.
180
Pettigrew, A. M., Strategy formulation as a political process, International Studies of Management
and Organizations, 1977.
181
Crozier, M. et Friedberg, E., L’acteur et le système, Paris, Editions du Seuil, 1977.
182
Barney, J. B., ‘‘Organizational Culture: can it be a source of sustained competitive
advantage ?’’,Academy of Management Review, 11, 3, pp. 656-665, 1986.
183
Mintzberg, H. et al., opus cit., p. 272, 1999.
184
Miller, D., Friesen, P. H., ‘‘Structural Change and Performance: Quantum Versus Piecemeal-
Incremental Approaches’’, Academy of Management Journal, 25, 4, pp. 867-892, 1982 et Miller, D.,
‘‘Evolution and Revolution: A Quantum View of Structural Change un Organizations’’, Journal of
Management Studies, 19, p. 131-151, 1982.
185
Miles, R. E., Snow, C. C., Organizational Strategy, Structure and Process, NY, McGrawHill, 1978.
186
Pour un aperçu théorique plus vaste de la gestion des ressources humaines voir notamment :
Igalens, J., Roger, A., Master Ressources Humaines, Editions Eska, 2013.
Cadin, L., Guérin, F., Pigeyre, F., Gestion des ressources humaines, Dunod, 2007.
Beaujolin, R., Oiry E., (Coord.) Les grands courants en gestion des ressources humaines, EMS, 2021.
187
Mintzberg, H., Le manager au quotidien, les dix rôles du cadre, Editions d’Organisation, 1984, p.
25. Correspond à la traduction de The nature of managerial Work, Prentice.
188
Hart, S. L. and Quinn, R. E., Roles Executives Play: CEOs, Behavioral Complexity, and Firm
Performance. Human Relations, 1993.
189
Greenberg, J. ‘‘A taxonomy of Organizational Justice Theories’’, Academy of Management Review,
vol. 12, n°1, pp. 9-22, 1987 ; Greenberg, J. ‘‘Organizational Justice: Yesterday, today and
tomorrow’’, Journal of Management, vol. 16, n°2, pp. 399-432, 1990.
190
Folger, R., “Distributive and procedural justice, combined impact of voice and improvement
onexperienced inequity”, Journal of Personality and Social Psychology, n°35, 1977.
191
Lind, A. E., Tyler, T. R., The social psychology of procedural justice, Plenum Press, 1988.
192
Greenberg, J. et Folger, R., (1983). “Procedural Justice, Participation and the Fair Process Effectin
Groups and Organizations”, in P.B. Paulus (Ed.), Basic group processes, pp. 235-256, New York. 193
Roberts, K. et Gleason, S., “Procedural Justice in the Workers’ Compensation Claims Process”, in
Rojot, J. et Wheeler, H. (Eds.), Employee Rights and Industrial Justice, vol. 28 of the Bulletin of
Comparative Labour Relations, 1994.
194
Deci, E. L., Ryan, R. M., Intrinsic Motivation and Self Determination in Human Behavior, NY, 1985 ;
Deci, E. L., Ryan, R. M., Handbook of Self-Determination Research, University of Rochester Press,
2002.
195
Roussel, P., Fall, A., Théorie de l’autodétermination et recherches en management des
ressourcesHumaines, dans Les grands courants en Gestion des Ressources Humaines, (Coord
Beaujolin, Oiry E. R.), EMS Editions, 2021.
196
Voir Vandenberghe, C., Landry, G., Panaccio, A.-J., « L’engagement organisationnel »,
dansComportement organisationnel, volume 3, Théories des organisations, motivation au travail,
engagement organisationnel, in Rojot, J., Roussel, P. et Vandenberghe, C. (Dir), Bruxelles, De
Boeck, pp. 275-306, 2009.
197
Thévenet, M., Impliquer les personnes dans l’entreprise, Editions Liaisons, 1992.
198
Porter, L.W., Steers, R. M., Mowday, R. T., Boulian, P. V. “Organizational commitment,
jobsatisfaction and turnover among psychiatric technicians”, Journal of Applied Psychology, vol. 59,
n°5, pp. 603-609, 1974 ; Mowday, R. T., Porter, L. W., Steers, R. M., Employee-organization
linkages: The psychology of commitment, absenteeism and turnover, New York, Academic Press,
1982.
199
Allen, N.J., Meyer, J.P., “A three component conceptualization of organizational
commitment”,Human Resource Management Review, vol. 1, n°1, pp. 61-89, 1991.
200
Neveu, J. P., Thevenet, M., L’implication au travail, Vuibert, 2002.
201
Rotter, J. B., A new scale for the mesurement of interpersonal trust, Journal of Personality, 35, pp.
651-665, 1967.
202
Voir Campoy, E., Neveu, V., « La confiance organisationnelle ou le rôle de la confiance du
salariédans la relation d’emploi » dans La confiance en gestion : un regard pluridisciplinaire (Coord
Gratacap, A., Le Flanchec, A.), De Boeck, 2011.
203
Mac Allister, D. J., ‘‘Affect and Cognition Based Trust as Foundations for InterpersonalCooperations
in Organizations’’, Academy of Management Journal, 38 (1), pp. 24-59, 1995.
204
Lewicki, R. J. et Bunker, B. B., Trust in relationships, a model of trust and development anddecline,
Conflict, Cooperation and Justice, Bunker, Rubin and al. (dir.), San Francisco, Jossey Bass Publishers,
1995.
205
Voir Le Flanchec, A., Rojot, J., Voynnet-Fourboul, C. « Rétablir la confiance dans l’entreprise parle
recours à la médiation », Industrial Relations / Relations Industrielles, Université de Laval, Canada,
Vol. 61, n°2, 2006.
206
La notion de contrat psychologique a en particulier été étudiée par Argyris, Levinson, Schein et
Rousseau. Voir Coyle Shapiro, J. A. M., Parzefall, M. R., « Explorer la théorie du contrat
psychologique » dans Comportement Organisationnel, (Coord Delobbe, Herrbach, Lacaze,
Mignonac) Volume 1, De Boeck, 2005.
207
Cyrulnik, B., Un merveilleux malheur, Odile Jacob, 2002 ; Cyrulnik, B., Un jour j’écrirais des soleils,
Odile Jacob, 2019.
208
Mauviel, M., L’histoire du concept de Culture, L’Harmattan, 2011.
209
Cuche, D., Genèse sociale du mot et de l’idée de culture dans La notion de culture dans les sciences
sociales, La découverte, 2010.
210
Chanlat, J. F., Pierre, P., Le management interculturel : évolution, tendances et critiques, EMS, 2018.
211
Tylor, E., Primitive Culture, London, John Murray, 1871.
212
Boas, F., cité dans Dictionnaire des Sciences humaines, Dortier, J. F. (dir.), Paris, Éditions Sciences
humaines, 2004.
213
Parsons, T., Sociétés, Essai sur leur évolution comparée, 1966.
214
Levi-Strauss, Anthropologie structurale, Plon 1958 (et 1973).
215
Descola, P., Par-delà nature et culture, Gallimard, 2005 ; Descola, P., La composition des mondes.
Entretiens avec Pierre Charbonnier, Paris, Flammarion, 2014.
216
Hoggart, R., The Uses of Literacy: Aspects of Working-Class Life with Special to Publications and
Entertainments, 1957.
217
Hofstede, G., ‘‘Motivation, Leadership and Organisation Do American Theories ApplyAbroad?’’,
Organizational Dynamics, 1980.
Hofstede, G. H., Culture’s Consequences. International Differences in Work Related Values, Beverley
Hills, Sage Publications, 1984.
Hofstede, G. H., Hofstede, G. J., Minkov, M., Culture and organizations: software of the mind, 2005.
218
Hofstede, G., Culture et Organisations, Software of the mind, Mc Graw Hill, 1991.
219
Javidan, M., Dorfman, P. W., Sully de Luque, M., House, R. J., ‘‘In the Eye of the Beholder:
crosscultural lessons in the leadership from Project GLOBE’’, Academy of Management
Perspectives, 2006.
Voir aussi : https://globeproject.com
220
Trompenaars, F., Riding the Waves of Culture, London, Economist Books, 1993 ; Trompenaars, F.,
Hampden-Turner, L’entreprise multiculturelle, Maxima, 2003.
221
Lewis, R. D., When Cultures Collide, Leading across cultures, Nicholas Brealey International, 2006.
222
d’Iribarne, P., La Logique de l’honneur, Paris, Editions du Seuil, 1989.
223
Maurice, M. et Sellier, F., Silvestre, J-J., Politiques d’Education et Organisation Industrielle en
France et en Allemagne, Paris, Presses Universitaires de France, 1982 ; « La Production de la
hiérarchie dans l’entreprise : Recherche d’un effet sociétal », comparaison France Allemagne,
Revue Française de Sociologie, vol. XX, 1979, pp. 331-375.
224
Peters, T. J., Waterman, R. H., Le Prix de l’excellence, 1982 ; Ouchi, W. G., Théorie Z, 1981.
225
Smircich, L., ‘‘Concepts of Culture and Organizational Analysis’’, Administrative Science Quarterly,
n°28, 1983.
226
Thevenet, M., Audit de la culture d’entreprise, Editions d’Organisations, 1986 et La culture
d’entreprise, PUF, 2015.
227
Schein, E., Organizational Culture and Leadership, San-Francisco, Jossey Bass, Edition 2015, p. 6.
228
Schein, E., ‘‘Coming to a new awareness of organizational cultur’’, Sloan Management Review,
Winter, 1984 et Schein, E., Organizational Culture and Leadership, San-Francisco, Jossey Bass,
1985.
229
Sainsaulieu, R., Sociologie de l’Organisation et de l’entreprise, Editions Siences Po et Dalloz, 1987,
p. 173.
230
Sainsaulieu, R., Les Relations de travail à l’usine, Paris Éditions d’Organisation, 1982 ; L’identité au
travail, Paris, Presses de la Fondation Nationale des Sciences Politiques, 1977 et Sociologie de
l’Organisation et de l’Entreprise, Editions Sciences Po et Dalloz, 1987.
231
Francfort, I., Osty, F., Sainsaulieu, R., Uhalde, M., Les mondes sociaux de l’entreprise, Desclée de
Brouwer, 1995.
X

Ce chapitre est consacré aux liens entre l’organisation et la société.


Dans un premier temps, nous présentons le débat classique entre
l’individualisme méthodologique et l’approche holiste, qui oppose deux
visions différentes de la société. Dans l’approche holiste, le tout englobe et
dépasse les parties. A l’inverse, l’individualisme méthodologique repose
sur le postulat Wéberien que pour expliquer un phénomène social, il faut
reconstruire les bonnes raisons qu’ont les individus concernés d’agir et
l’appréhender comme le résultat de l’agrégation des comportements
individuels. Entre les deux, on trouve un ensemble de théories qui
dépassent cette opposition et proposent des analyses au sein desquelles
apparait une interaction mutuelle, et parfois complexe, entre l’individu et
l’environnement. Nous centrons notre attention en particulier sur les
approches de Dupuy, Giddens et Granovetter, qui proposent, chacun à leur
manière, une voie alternative à cette opposition.
Dans un second temps, nous exposons un certain nombre de théories
qui établissent des liens entre organisations et société et qui s’inscrivent
différemment les unes des autres dans le débat précédent entre structure
et action. Ainsi, nous abordons successivement l’approche interactionniste,
le néo-institutionnalisme et le marxisme.

1. Le débat entre action et structure


L’approche de l’individualisme méthodologique (dite aussi liée à
l’action) et l’approche holiste (dite aussi liée à la structure) s’opposent
traditionnellement dans la littérature.
Entre les deux, on trouve un ensemble de théories qui dépassent cette
opposition. Ainsi, la théorie de l’auto-transcendance de Dupuy, à travers
l’individualisme méthodologique complexe, et sans renoncer à la liberté de
l’acteur, introduit des éléments qui le situent dans les structures sociales et
le lient à celles-ci. Giddens, à travers la théorie de la dualité du structurel,
montre que les structures marquent les pratiques des acteurs autant que
ces dernières participent à la reproduction et la transformation des
structures. Enfin, Granovetter dépasse l’opposition entre les visions sous-
socialisée (individualisme méthodologique) et sur-socialisée (holisme) en
considérant les individus comme étant encastrés dans des relations
interpersonnelles, des réseaux, des règles formelles, des contingences
historiques et des représentations collectives.

1.1. L’individualisme méthodologique


L’apport de l’individualisme méthodologique dépasse très largement le
domaine de la théorie des organisations, puisqu’il constitue une théorie
sociologique complète et une approche spécifique des problèmes sociaux.
Néanmoins l’exposé de ses principaux fondements éclaire
considérablement tout un pan de l’analyse des organisations.
Introduit par Schumpeter, l’individualisme méthodologique est
principalement représenté en France par Raymond Boudon232 (1934-2013).
Dans cette approche, l’acteur est mis au centre de l’action. Les
phénomènes sociaux sont issus des actions des acteurs au sein des
organisations.
Selon Boudon et Bourricaud233 : « de manière générale, on dira qu’on a
affaire à une méthodologie individualiste, lorsque l’existence ou l’allure
d’un phénomène P, ou lorsque la relation entre un phénomène P et un
phénomène P’, sont explicitement analysés comme une conséquence de la
logique du comportement des individus impliqués par ce ou ces
phénomènes. »
Pour Boudon, il est possible d’expliquer les actions des individus de
deux manières : soit les individus agissent parce qu’ils ont de bonnes
raisons de le faire, soit les individus agissent pour des causes extérieures
et non pour des raisons.
Dans le premier cas de figure, les causes de la croyance ou de l’action
se font pour des raisons. Ce cas se décompose en deux sous-hypothèses :
ces raisons peuvent être objectivement bonnes, constatables, ou bien elles
peuvent être subjectivement bonnes. Mais dans tous les cas, que les
raisons soient objectives ou subjectives (et que ces raisons soient bonnes
ou fausses), l’individu a de bonnes raisons d’y croire et cette croyance est à
l’origine de son action.
Lorsque les croyances sont subjectivement bonnes, il peut alors y avoir
plusieurs cas de figure.
Dans le premier cas, ces causes sont affectives et observables : nous
sommes l’esclave de nos passions, ou de nos vœux. Ici, Boudon cite Pascal
et La Rochefoucauld : « l’esprit est la dupe du cœur ». Othello est convaincu
que Desdémone le trompe, et il l’étrangle. Ce sont nos sentiments,
pulsions, imagination qui guident notre conduite.
Le deuxième cas de figure vise les causes non affectives non
observables, qui sont constituées par des causes extérieures telles que
notamment les usages, la tradition.
Le troisième cas de figure porte sur les causes affectives non
observables. On y trouve un ensemble d’explication des actions
(notamment dans l’approche Freudienne) liées à l’inconscient.
Le quatrième cas de figure est celui des causes non affectives
observables, tel que par exemple l’action sous l’effet de substances
obscurcissant le jeu de la raison.
Or, dès qu’une croyance ou une action paraît étrange, bizarre ou
fausse, note Boudon, l’explication que l’on en donne généralement
spontanément ressort souvent du deuxième cas de figure, et plus
particulièrement de sa deuxième modalité, c’est-à-dire de l’usage et des
traditions. Dit autrement, on a tendance à chercher des causes extérieures
pour expliquer les comportements qui s’imposent à l’individu, plutôt que
des raisons résultant de raisons conscientes ou inconscientes des individus
eux-mêmes.
Un exemple peut être trouvé dans les taux de natalité qui restent
élevés dans les pays en voie de développement. Ces forts taux de natalité,
qui contribuent à la famine et à la perpétuation du sous-développement,
va être le plus fréquemment attribué à l’asservissement à la tradition
ancestrale. Cependant, du point de vue des intéressés, ils ont d’excellentes
raisons de continuer à avoir de nombreux enfants, du fait de la solidarité
intergénérationnelle et du taux de mortalité infantile élevé. L’effet
individuel est globalement positif même si au niveau collectif il est négatif.
L’individualisme méthodologique s’attache, sinon partout, au moins
dans tous les cas où cela est possible, à remplacer les explications
relevant de causes externes par des explications relevant de la raison des
acteurs.
Le principe de l’individualisme méthodologique, consiste à essayer de
rendre compte des comportements par des explications en découlant.
Jusqu’à preuve du contraire, toujours possible, pour l’individualisme
méthodologique les croyances et les actes, même les plus curieux et
incompréhensibles doivent être expliquées d’abord par des raisons que les
individus se donnent, qu’elles soient bonnes ou non, fondées ou non. C’est
ensuite, et à défaut de mieux, que peuvent être envisagées les explications
par des causes extérieures aux raisons d’agir des individus.
L’acteur, le plus souvent domine son comportement, certes, il est
parfois mû par des forces qui le dépassent et échappent à son contrôle, ou
incapable de se dominer, mais il est plus fructueux de tenter de le
considérer, d’abord comme agissant car il a de bonnes raisons de faire ce
qu’il fait, même si ces raisons nous paraissent ou sont objectivement
erronées. Faute du succès de la vérification de cette hypothèse, alors, des
explications liées à des causes extérieures peuvent être recherchées.
Ceci dit, ainsi que l’exprime Boudon 234, l’individualisme
méthodologique n’implique aucune vision atomiste des sociétés. Elle
n’interdit pas et elle exige même que les individus soient considérés
comme insérés dans un contexte social. En outre, elle invite à traiter
comme identiques des individus situés dans la même situation et, ainsi,
permet l’analyse des phénomènes collectifs. Mais elle se distingue de la
méthodologie holiste en ce qu’elle s’astreint toujours à mettre en évidence
les raisons individuelles de ces phénomènes collectifs, et qu’elle refuse, par
principe, de considérer que les phénomènes sociaux s’expliquent
autrement que par les raisons des individus.
L’individualisme méthodologique n’exclut pas que l’on puisse traiter les
acteurs en catégories, s’ils se trouvent dans une situation analogue. Par
exemple, note Boudon, c’est le cas des consommateurs, qui partagent
certains intérêts ou idées, et de la part de qui l’on peut s’attendre à une
attitude commune sur certains points. Il est même nécessaire parfois de
regrouper en idéaux types les individus. Par ailleurs, l’individualisme
méthodologique n’exclut pas non plus automatiquement tous les acteurs
collectifs. Par exemple peuvent notamment être légitimement reconnus
ceux qui sont munis d’un système de décision collective. Cela serait le cas
d’un parti politique ou d’un syndicat, dans une situation d’analyse de choix
politique.
En d’autres termes, l’individualisme méthodologique donne pour
explication des phénomènes sociaux, et donc organisationnels, la primauté
à l’analyse du comportement de l’acteur individuel rationnel. Mais celui-ci
n’est pas dans le vide, il est placé, situé, dans un système d’action concret,
qui n’est pas composé de forces obscures qui dictent ses croyances et
comportements, mais qui constitue des données qu’il doit prendre en
compte. Les organisations sont des structures de systèmes d’interaction
d’individus dont le comportement obéit à des raisons.
Boudon montre également qu’il existe un ensemble de mécanismes,
appelés erreurs de cadre, selon lesquels les raisonnements les plus
logiques peuvent néanmoins conduire à des conclusions fausses (voir
chapitre 6 sur les théories de la décision). Il reste que les décisions prises
par les individus restent rationnelles, même si cette rationalité est limitée
(au sens de Simon). Ce qui compte ce n’est pas que la décision soit bonne
ou mauvaise, mais que les individus agissent pour des raisons, que celles-ci
soient objectivement ou subjectivement bonnes.
L’individualisme méthodologique n’exclut pas l’existence de contraintes
fixées par le système économique et social, mais celles-ci ne font pas
disparaître l’autonomie de l’acteur. Ainsi, selon Bourricaud et Boudon : « il
est vrai que l’action sociale est soumise à des contraintes sociales, il est
rare de pouvoir agir à sa fantaisie. Mais cela n’implique pas que les
contraintes sociales déterminent l’action individuelle ».
Par conséquent, les organisations sont des systèmes d’interaction
d’individus dont le comportement obéit à des raisons. Il faut considérer
les acteurs individuels comme le cœur de l’analyse d’un système
d’interaction. L’individualisme méthodologique s’oppose donc à l’approche
holiste de la société.
1.2. Le holisme
L’approche holiste considère que les caractéristiques d’un phénomène
ne peuvent être connues que lorsqu’on l’appréhende dans son ensemble,
dans sa totalité, et non quand on étudie chaque partie séparément.
L’approche holiste en France a notamment été défendue par Pierre
Bourdieu235 (1930-2002). Ce dernier explique la manière dont l’individu
incorpore des perceptions, des jugements, par apprentissage au cours de
sa socialisation, et comment cette incorporation impacte son
comportement et fait naitre des pratiques sociales.
L’analyse de Bourdieu repose sur la notion d’habitus. L’habitus est « cet
ensemble de dispositions, ou autrement dit, de scèmes de perception, de
pensée et d’action, qui sont le produit de l’incorporation, de
l’intériorisation, de l’assimilation, de l’acquisition de structures objectives,
de régularités objectives (…) ».
L’habitus correspond à l’incorporation par les individus au cours de leur
socialisation (enfance, adolescence, adulte) d’un « capital social » qui
donne des règles de comportement pour se conduire dans le monde. Cet «
habitus » influence alors le comportement des individus dans la société et
leur processus de prise de décision.
L’habitus correspond à un ensemble de règles, codes de
comportements communs (conscientes ou inconscientes) qui sont
partagés par un groupe et qui conduisent à des conduites ordinaires, «
signifiantes sans intention de signifier », automatiques et impersonnelles.
Ces règles de comportement sont intériorisées et conduisent à un « ordre
social ».
L’habitus forme un patrimoine social qui s’exprime dans les pratiques
quotidiennes (habillement, consommation, langage, travail, éducation…).
Dans l’approche holiste, la société (structure) influence le
comportement des individus qui la compose.
Par ailleurs, l’approche sociologique de Bourdieu, conduit également à
une analyse des mécanismes de reproduction des catégories et hiérarchies
sociales. Chaque catégorie sociale ayant des habitus différents, il s’ensuit
l’existence d’une reproduction sociale. Il insiste sur l’importance des
facteurs culturels et symboliques dans cette reproduction.
Il étudie notamment le système scolaire et montre l’existence d’une
corrélation statistique entre l’échec scolaire et les milieux sociaux
défavorisés. Il interprète cette relation comme l’existence d’une
reproduction des élites qui s’appuie sur la domination d’une classe sociale
sur l’autre.
L’approche holiste est donc une manière d’aborder les phénomènes
sociaux, selon laquelle l’individu est le produit des structures sociales. La
société exerce une contrainte sur les individus, dont les règles sont «
intériorisées » et qui expliquent leur comportement. L’approche holiste
s’oppose donc à l’individualisme méthodologique en ce qu’il explique les
comportements sociaux par la structure, alors que l’individualisme
méthodologique place toujours l’individu et l’action au cœur de l’analyse.
Un certain nombre de théories, vont remettre en cause cette
opposition traditionnelle entre individualisme méthodologique et holisme,
afin de proposer une « troisième voie ». Tel est le cas, notamment, des
approches de Dupuy, Giddens et Granovetter que nous exposons ci-après.

1.3. Dupuy et l’auto-transcendance


Le point de départ de l’analyse de Jean Pierre Dupuy 236 se trouve dans
la Science Politique et les relations des individus à la société. Dupuy part
de l’idée que les sociétés primitives, et aussi les sociétés traditionnelles,
parce qu’elles sont dominées par le fait religieux, conçoivent avoir reçu
leur ordre et leur sens d’une volonté supérieure et extérieure à celle des
hommes qui les composent, que ce soient les Dieux ou le sort. Les sociétés
modernes se posent en contradiction. La pensée politique y est dominée
par l’idée que les hommes se sont eux-mêmes donné les lois de leur
société. Il souligne d’ailleurs que « l’apparition dans l’histoire des sociétés à
État marque le début d’un long processus, dans lequel l’extériorité du social
est intériorisée ».
1.3.1. Une « hiérarchie enchevêtrée » entre l’individu et la société
Dupuy reprend l’opposition traditionnelle entre holisme et
individualisme méthodologique. L’approche holiste affirme l’antériorité et
la prédominance de la totalité sociale sur ses parties constitutives. « La
relation hiérarchique, qui en est la « formule logique », est celle qui relie un
tout, vu comme ensemble, et un élément de cet ensemble ». Au contraire,
l’individualisme méthodologique « part d’individus supposés séparés,
indépendants, autonomes, donc dépourvus de leur qualité d’êtres toujours
déjà sociaux, et entend reconstituer la totalité sociale sur cette base ».
Dupuy ajoute que « la reconstitution du tout social sur la base
d’individus séparés a pris dans la pensée politique moderne deux grandes
formes. La première, celle du contrat social, s’est révélée instable. Elle
combine la vision traditionnelle du social comme « fait de conscience »,
voulu expressément par les sociétaires, et l’individualisme et l’artificialisme
(de la société) modernes ». L’auteur constate que « les divers modèles de
contrat social reproduisent la figure même de l’extériorité qu’ils voulaient
abolir. Le Léviathan, chez Hobbes, est au-dessus des lois, il n’est même pas
partie prenante au contrat. Quant à la volonté générale, et à la loi, qui en
est l’expression, Rousseau veut lui donner l’inflexibilité propre aux lois de la
nature et la mettre au-dessus des hommes, alors même que ce sont les
hommes qui font la loi, et qu’ils le savent. Problème qu’il comparait
luimême à la quadrature du cercle ».
La seconde forme outre le contrat est celle du marché. Cependant,
note Dupuy, l’extériorité est ici non moins évidente puisque c’est en dehors
de la volonté et de la conscience des hommes que le lien social se tisse,
comme effet d’un pur automatisme que tous actionnent mais que
personne n’a conçu ni fabriqué. La brèche entre le niveau individuel et le
niveau collectif est comblée par une « main invisible », en référence à
Adam Smith.
Or, selon Dupuy, il existe une manière « radicalement différente de
penser la question ». Elle n’est ni de type « descendant », holiste, qui
implique la subordination des éléments et de leurs réseaux de relations à la
totalité et aux schémas qu’elle impose, ni de type « ascendant »,
individualiste pur, qui part des éléments constitutifs, décrits et chacun
précisément spécifié, et qui détermine les propriétés de la totalité
uniquement sur la base de celles des éléments. Elle ouvre « une troisième
voie, plus complexe en ce qu’elle exclut la facilité qui consiste à se donner
un niveau ultime d’explication. Tout système est hiérarchique, c’est-à-dire
composé de niveaux d’intégration emboîtés les uns dans les autres. Or,
pour réussir à penser l’unité du système, c’est-à-dire son autonomie… il faut
formuler un principe de causalité circulaire entre ces niveaux. Dans un
système matériel (un organisme), les lois de la physique laissent aux
éléments individuels de nombreux degrés de liberté. Cette indétermination
à la base va être réduite par les contraintes exercées par le tout, lesquelles
résultent elles-mêmes de la composition des activités élémentaires. Le tout
et les éléments se déterminent mutuellement. C’est cette codétermination
qui explique la complexité des êtres vivants ».

1.3.2. L’individualisme méthodologique complexe


Selon Dupuy, « l’individualisme méthodologique » bute sur des
difficultés. Le social ne devient réductible à la composition des actions
individuelles que par le jeu d’effets « contre-intuitifs », ou « non
intentionnels ». Ces notions manifestent que les phénomènes collectifs ne
sont pas immédiatement saisissables à partir des seules propriétés des
individus qui y participent. La question de l’extériorité est donc déplacée,
mais se pose tout autant.
Sur la base de cette problématique Dupuy propose une conception de
l’individualisme méthodologique complexe, avec l’idée d’une «
autotranscendance » du social complexe.
Il utilise une série de concepts que nous allons tenter d’isoler.
Le premier est le bouclage permanent du niveau individuel et collectif
qui permet de « concevoir un processus de totalisation, où la totalité, loin
de dominer et de guider depuis toujours son effectuation du haut de sa
présence ontologique, s’engendre dans le mouvement même où elle
s’actualise ».
Un autre est la notion de structure « feuilletée » qui fait que des strates
« radicalement disjointes » sont néanmoins capables de se « compénétrer
», « le niveau englobé étant à même d’engendrer le niveau englobant parce
que celui-ci est déjà à l’intérieur de celui-là, et alors même que le niveau
englobant dépasse « infiniment » le niveau englobé ».
Il s’en déduit la notion de « hiérarchie enchevêtrée », où il y a bouclage
entre niveaux, qui entraînent la confusion et la distinction simultanée
entre cause et effet, individuel et collectif. Pour se construire, le social a
besoin des actions des individus et les actions des individus s’inscrivent
dans les données posées par le social. Il n’y a pas de priorité d’un niveau
sur l’autre.
Ils alternent et se contiennent l’un l’autre.
L’idée d’émergence de « comportements propres » est fondamentale.
Une structure produit de façon purement endogène cela même qui la
dépasse infiniment. Dans le bouclage permanent des éléments et de leurs
relations les uns sur les autres, se produit « la clôture organisationnelle »
qui fait apparaître au niveau du tout des émergences collectives.
L’idée d’auto-référence, ou d’auto-extériorisation renvoie à une
structure qui produit elle-même ce qui la dépasse, sans que le modèle lui
soit antérieur ni imposé en aucune manière. La notion de système
complexe permet de faire tenir ensemble l’idée d’un système auto-
référentiel, la clôture du système sur lui-même qui donne naissance aux
comportements propres et d’une relation système ouvert et
environnement, au sens où l’environnement est « construit » par le
système, dans le cadre de la terminologie constructiviste. La portion
pertinente de l’environnement étant alors isolée dans le même processus
de clôture du système auto-référentiel.
Le concept de la « spécularité », quant à lui, explique que « des
individus indépendants se portent au devant les uns des autres. » Ils se
mettent en pensée à la place de l’autre, ils voient le monde de leur point
de vue, pour anticiper leur comportement. La « spécularité » tend toujours
à se redoubler et à produire des effets de miroirs.
Dupuy met alors la spécularité au service du concept de « mimésis »,
qu’il emprunte explicitement à René Girard. C’est l’imitation qui explique
l’attraction que les hommes exercent les uns sur les autres. Ils s’imitent
réciproquement et constituent les uns pour les autres des modèles. L’un «
s’inquiète du désir de l’autre, qui seul peut désigner une cible à son propre
désir, à un signe fugitif et aléatoire, il croit déceler que les visées de
(l’autre) croient se porter sur un objet donné. Il se précipite pour le
devancer. Il désigne par là même à son alter ego l’enjeu de la rivalité.
Quand ce dernier manifeste à son tour son désir imité, l’illusion est devenue
réalité. Le premier à rêver ne rêvait pas, il en a maintenant la preuve ». En
ce sens, l’objet n’attire pas seulement le sujet du désir, simultanément,
l’objet est création du désir.
Les objets n’ont de valeur que s’ils sont désirés par d’autres. Suivant un
exemple que Dupuy tire de certaines des pièces du théâtre de Corneille, du
point de vue de l’individu, un objet ne peut être désiré que s’il a de la
valeur. Il n’a de la valeur que si d’autres le désirent. Si je le détiens, pour
savoir s’il a de la valeur, je dois m’en défaire en le cédant aux autres. Alors
je veux à nouveau me l’approprier.
Sur cette base, Dupuy propose une conception de l’individualisme
méthodologique complexe, avec l’idée d’une « autotranscendance » du
social complexe. Il fait tenir celle-ci dans la coexistence apparemment
paradoxale de deux propositions :
• D’une part, ce sont les individus qui font, ou plutôt « agissent », les
phénomènes collectifs (individualisme).
• D’autre part, les phénomènes collectifs sont infiniment plus complexes
que les individus qui les ont engendrés, ils n’obéissent qu’à leurs lois
propres (auto-organisation).

Avancer ensemble ces deux propositions permet de défendre la thèse


de l’autonomie du social, l’autonomie de la société et l’autonomie d’une
science de la société, c’est à-dire pour Dupuy sa non-réductibilité à la
psychologie, tout en restant fidèle à ce qu’il considère la règle d’or de
l’individualisme méthodologique : ne pas faire des êtres collectifs des
substances ou des sujets.
L’autonomie du social implique les propriétés auto-organisatrices du
social, c’est-à-dire du fait que le social n’est le produit ni d’un « programme
externe » (volonté d’un Autre quelconque extérieur et préexistant,
impliquant l’antériorité de cet « autre ») ni d’un « programme interne »
(volonté générale, contrat social, activité fabricatrice d’un État, impliquant
sa construction par les individus avant l’apparition du social). Or, pour
Dupuy, cette découverte ne pouvait se faire là où l’ordre social est « voulu
», « su », là où l’idée d’un « insu » est inconcevable, car l’autonomie du
social, au sens de Dupuy, veut dire son objectivité, le fait qu’il résiste aux
efforts des hommes pour le connaître, le façonner, le maîtriser. Il est mû
par ses seules lois propres, émergées.
Cependant, il est né de l’action des hommes. Il convient ici pour Dupuy
d’éviter un malentendu. Lorsqu’il est dit que « l’ordre social, dans cette
conception libérale, ne renvoie qu’à lui-même, cela ne signifie pas qu’on en
fait une totalité close, constituée indépendamment des actions des
hommes, antérieurement à elles, extérieure. Si cela était, on en reviendrait
à la conception traditionnelle de la société, conception « holiste », qui
donne à la totalité sociale une priorité ontologique et logique sur ses
constituants individuels. Pour rester dans le cadre de l’individualisme
moderne, l’ordre social se nourrit de l’action des hommes ».
Il est, selon la formule qu’il cite d’Adam Ferguson, contemporain
d’Adam Smith, « le résultat de l’action des hommes mais non de leurs
desseins ». C’est sans le savoir ni le vouloir que les hommes contribuent à
l’ordre social. Il est produit par des actions individuelles accomplies
séparément, indépendamment les unes des autres, et sans qu’aucune n’ait
cet ordre pour visée, réalisé indépendamment de la volonté des individus
et sans pour autant correspondre à la volonté ou à l’intention d’une entité
supra-individuelle.
La source de l’ordre social est au sein de la société et c’est en ce sens
qu’il s’agit ici d’une conception moderne. Mais elle reste extérieure à
chaque individu. Tout se passe comme si la société se détachait, prenait
une autonomie par rapport aux individus qui pourtant l’alimentent de leurs
actions. C’est ce mouvement que Dupuy nomme « auto-transcendance ».
Tout se passe comme si les hommes prenaient pour repères « extérieurs »
capables de guider leurs actions des formes, des régularités, un ordre qui,
de fait, proviennent d’eux-mêmes.

1.4. Giddens et la théorie de la dualité du structurel


La pensée de Giddens237, se place tout autant que l’analyse précédente
dans le cadre de la sociologie politique. Elle aussi traite des rapports de
l’individu et de la société. A travers sa théorie de la « dualité du structurel
», Giddens, à sa manière, propose de dépasser l’opposition entre
individualisme méthodologique et holisme.

1.4.1. Les notions d’action et de structure sont indissociables


Anthony Giddens part du constat que les sociologies de l’action
retiennent une domination du sujet individuel, alors que le
fonctionnalisme et le structuralisme affirment une domination des
structures sociales. La théorie de la « dualité du structurel » qu’il propose
sort de ces deux cadres qu’il considère tous les deux comme inutilement
limitatifs. En contraste avec un point de vue unique, cette théorie analyse
l’ensemble des pratiques sociales accomplies et ordonnées dans l’espace et
dans le temps, et non séparément soit l’expérience de l’acteur individuel,
soit l’existence de totalités sociétales, chacun de façon isolée. Pour lui, les
notions d’action et de structure se supposent l’une l’autre dans une
relation dialectique. Aucune n’est cause de l’autre car elles sont deux faces
d’une même totalité. Les relations des acteurs en coprésence et les
structures sociales sont indissociables.
Pour comprendre la vie sociale, on peut alors commencer par
s’intéresser soit aux structures, soit aux acteurs, mais dans tous les cas, les
deux devront être explorés.
Ainsi, Giddens montre que « sur le plan méthodologique, l’insertion du
chercheur dans son objet d’étude peut se faire à n’importe lequel des
quatre niveaux indiqués ci-après ».

Selon Giddens, dans la littérature, ceux qui considèrent « l’action »


comme prédominante centrent l’attention sur les niveaux 1 et 2 (prise en
compte du « sujet » à travers ses cadres de signification, ses compétences
et les raisons de ses actions) alors que les auteurs qui considèrent la «
structure » comme dominante centrent l’attention sur les niveaux 3 et 4
(aspects « sociétaux »). Or, pour comprendre le fonctionnement des
organisations, l’on ne peut se passer d’étudier aucun de ces quatre niveaux
à un moment ou un autre.
Pour Giddens, les niveaux 1 et 2 d’une part et les niveaux 3 et 4 d’autre
part ne peuvent pas être séparés. Structure et action ne doivent pas être
opposés.
La société est considérée comme auto-organisée au sens où l’entend
Dupuy : elle émerge de façon autonome, en comportements propres, mais
ceux-ci sont non contrôlés et non contrôlables par les acteurs car trop
complexes. Par ailleurs, les comportements des acteurs ne sont pas
déterminés. Un acteur sait se donner des buts, il « a des raisons de faire ce
qu’il fait et est capable, si on le lui demande, d’exprimer ces raisons de
façon discursive ». Une caractéristique de l’action tient donc à ce que « les
agents auraient toujours pu agir autrement ». De plus, « l’action ne se
conçoit pas et ne se discute pas indépendamment du corps, de ses rapports
de médiation avec le monde environnant et avec la cohérence d’un soi
agissant ».

1.4.2. Élucidation herméneutique des cadres de significations


La phase herméneutique consiste à interpréter ce que signifient les
actions pour l’acteur (analyse du sens des actions et intentions). Pour
Giddens, on ne peut pas se passer de l’analyse subjective du sens des
actions.
Selon Giddens, les individus ont des intentions ou des buts, qui ne sont
pas forcément conscients. Pour lui, l’essentiel du courant d’actions de la
conduite quotidienne est préalable à la réflexion.
Est considéré comme intentionnel tout acte que l’agent sait, ou croit
savoir, à tort ou à raison, notamment en puisant dans sa « conscience
pratique », manifester une qualité ou un résultat particulier. Il n’est pas
nécessaire que les agents soient capables de formuler la connaissance
qu’ils appliquent en propositions abstraites, à destination d’autrui ou
même à leur propre usage.
Par ailleurs, il faut aussi noter que but et action sont aussi souvent
disjoints : d’une part des intentions se voient réalisées parfois
d’ellesmêmes, dans le courant d’événements en cours, sans action de la
part de l’agent et indépendamment de lui, d’autre part des conséquences
non intentionnelles de l’action surgissent.
La conduite intentionnelle peut être conceptualisée comme
l’application de « connaissance » pour s’assurer de certains résultats ou
événements. Rechercher la rationalisation d’une telle conduite à ce niveau
est rechercher, d’une part la connexion logique entre diverses formes
d’actes intentionnels et, d’autre part le fondement technique de la
connaissance qui est appliquée comme « moyen » dans les actes
intentionnels pour s’assurer de résultats particuliers. Les raisons peuvent
donc ainsi être définies comme des principes d’actions fondés, avec
lesquels les acteurs restent en contact en tant qu’éléments de routine de la
surveillance réflexive de leur comportement. Par exemple, cite Giddens,
ouvrir un parapluie est la caractérisation d’un acte. Rester sec est
l’intention. La raison de le faire est la conscience qu’un objet de la forme
voulue, porté au-dessus de la tête écartera la pluie. Un principe d’action
constitue donc une explication de pourquoi un « moyen » est « approprié »
pour obtenir un résultat donné, spécifié tel par une identification d’acte
particulière. Dans la vie courante, le jugement sur l’adéquation des raisons
est fonction des paramètres du sens commun conventionnellement
accepté dans des contextes d’action particuliers.
La signification des raisons dans la conduite humaine doit donc, pour
Giddens, être comprise comme la surveillance réflexive de la conduite dont
les acteurs attendent de chacun qu’ils l’exercent, tel que, si on lui demande
pourquoi il a agi comme il l’a fait, un acteur est capable d’offrir une
explication de son acte fondée sur des principes et d’en rendre compte.

1.4.3. Investigation des contextes et des formes de conscience


pratique
Pour déterminer le sens des actions, il faut faire une investigation de la
conscience pratique, de la conscience discursive et de l’inconscient.
Les acteurs ont une « conscience pratique » de ce qu’ils font, c’est-àdire
une conscience des raisons pour lesquelles ils agissent même si cette
conscience n’est pas discursive (ils ne parviennent pas à exprimer
l’ensemble de leurs raisons à travers le discours). La « conscience discursive
», quant à elle, correspond aux raisons que les individus parviennent à
exprimer sur les raisons de leurs actions (soit par le discours soit par
d’autres moyens, tel que l’ironie). Enfin, l’inconscient intègre les autres
raisons qui motivent l’action et dont l’acteur peut ne pas avoir conscience.
Le contrôle réflexif puise dans la « conscience pratique » qui est la
connaissance tacite qui est appliquée avec compétence dans l’agissement
de conduites, mais que l’acteur n’est pas capable d’exprimer de façon
discursive (dans le discours). Elle est tout ce que les acteurs savent, croient
ou croient savoir au sujet des conditions sociales, y inclus en particulier les
conditions de leur propre action et de celle des autres, et qu’ils utilisent
dans la production-reproduction de leur action.
La « conscience pratique » au sens de Giddens peut être rapproché de
ce que Schütz238 appelle les « stocks de connaissances », c’est-à-dire les
schémas interprétatifs, que possèdent les acteurs et qu’ils appliquent dans
la production de l’interaction. Elle contient pour lui deux éléments
analytiquement séparables : d’une part, la connaissance mutuelle qui se
réfère aux schémas interprétatifs par lesquels les acteurs constituent et
comprennent la vie sociale comme ayant du sens et organisent leurs
perceptions. D’autre part, elle contient aussi le « sens commun » qui est un
corps de connaissance théorique plus ou moins articulé, dont il est fait
usage pour expliquer pourquoi les choses sont comme elles sont, ou se
produisent comme elles le font dans le monde naturel et social.
La plus grande partie de cet énorme réservoir de connaissances, que
Giddens préfère appeler le « savoir mutuel » ou « connaissance mutuelle »,
mis en jeu dans les rencontres, n’est pas directement accessible à la
conscience discursive des acteurs. La quasi-totalité du savoir mutuel est de
nature pratique : il est inhérent à la capacité de continuer à accomplir les
routines de la vie sociale.
La « conscience discursive » est ce qu’il est possible d’exprimer et de
formaliser. Cependant, la frontière entre la conscience discursive et la
conscience pratique est fluctuante et perméable. C’est en ce sens que le
contrôle réflexif de l’action prend sa source presque entièrement dans la
conscience pratique, la rationalisation dans la conscience pratique et (sans
doute) aussi dans la conscience discursive. Il n’y a d’ailleurs, pour Giddens,
pas de barrière entre les deux, comme celle qui sépare la conscience
discursive et l’inconscient.
Enfin, l’inconscient inclut les formes de cognition ou d’impulsion qui
sont totalement refoulées, ou qui n’apparaissent dans la conscience que
déformées.
Ces deux premières phases permettent « d’élucider les compétences
des agents et par là les raisons de l’action ». Ainsi, pour Giddens l’acteur
est « compétent ». Cela signifie que chaque acteur a une forte
connaissance de son environnement et comprend ce qu’il fait lorsqu’il le
fait, ou du moins qu’il a une connaissance pratique, discursive et
inconsciente de ses actions.

1.4.4. La détermination des limites de compétences


Si l’individu est « compétent », au sens que nous venons de définir pour
Giddens, il faut aussi prendre en compte les limites de ses compétences
dont certaines sont structurelles. En effet, il y a des conséquences non
prévues, non intentionnelles de l’action.
Ainsi, nous dit Giddens239 : « la compétence des acteurs humains est
sans cesse limitée, d’un côté, par l’inconscient et, de l’autre, par les
conditions non reconnues et les conséquences non intentionnelles de
l’action. L’étude de ces limites et de leurs connotations idéologiques, et celle
de l’importance des conséquences non intentionnelles pour la reproduction
des systèmes sociaux, comptent parmi les tâches les plus importantes des
sciences sociales. ».
La vie de tous les jours se traduit par un flot d’actions intentionnelles
qui ont cependant des conséquences non intentionnelles. Celles-ci
peuvent rétroagir de manière systématique et devenir des conditions non
reconnues d’actions ultérieures. Giddens va souvent recourir à l’exemple
du langage, même s’il souligne que société et langage ne sont pas
réductibles l’un à l’autre. Ici l’idée s’illustre par le fait que, lorsque l’on
parle ou écrit correctement une langue, l’on contribue, du même coup, à la
reproduire : parler ou écrire correctement est intentionnel, contribuer à la
reproduction de cette langue ne l’est pas.
Giddens propose alors un modèle de la stratification de l’action. Celui-
ci est constitué de trois ensembles de processus qui s’incrustent les uns
dans les autres : premièrement le contrôle réflexif, deuxièmement la
rationalisation et troisièmement la motivation de l’action, qui opèrent dans
le jeu des conséquences non intentionnelles et des conditions non
reconnues de l’action.
La réflexivité est d’abord la conscience de soi, l’exercice de la capacité
de situer l’action par rapport à soi. Mais elle n’est pas seulement et
simplement cela. Elle est aussi et en même temps la capacité de surveiller,
de contrôler, le flot continu de la vie sociale et des contextes et de s’y
situer dans leur déroulement. Pour Giddens, rien n’est plus central à, et
distinctif de la vie humaine que la surveillance réflexive du comportement
qui est attendu de chacun des autres par tous les membres compétents de
la société.
Le contrôle réflexif est un trait caractéristique de toute action ; il porte
à la fois sur la conduite propre de celui ou celle qui exerce ce contrôle et
sur celle d’autres acteurs dans les déroulements des contextes où ils sont
situés.
Les agents ne se contentent pas de suivre de près le flot de leurs activités
et d’attendre des autres qu’ils fassent de même, ils surveillent et
contrôlent aussi, de façon routinière, les dimensions sociale et physique de
leurs contextes d’interaction. Le contrôle réflexif de l’action renvoie au
caractère intentionnel ou orienté vers des buts de l’action humaine. Il met
l’emphase sur l’intentionnalité comme processus, sachant que cette notion
d’intentionnalité ne veut pas dire qu’il s’agisse des buts clairement définis
à l’avance et tenus consciemment présents à l’esprit durant l’activité par
l’agent, mais qu’elle exprime surtout et d’abord sa capacité à tirer sur les
ressources de la conscience pratique.
La rationalisation joue sans doute à deux niveaux. Elle doit d’abord se
comprendre dans le cadre du contrôle réflexif continu de l’action où elle
signifie la capacité ressentie et implicitement présente des agents humains
d’être en situation « d’expliquer », à soi d’ailleurs tout autant qu’aux autres,
pourquoi ils agissent comme ils le font. Elle est alors l’expression causale
de l’enracinement du caractère intentionnel de l’action de l’agent dans la
connaissance de soi et la connaissance des mondes social et matériel qui
sont l’environnement du soi agissant. Elle se démontre par son
comportement dans l’action située.
Le concept de motivation est aussi entendu par Giddens de façon
différente du sens courant qui lui est le plus souvent attribué. Alors que,
dans la terminologie de Giddens, les raisons renvoient aux fondements de
l’action elle-même, les motivations renvoient aux besoins qui l’inspirent, au
potentiel d’action plutôt qu’au mode d’accomplissement de l’action par
l’agent. Les motivations ne vont agir directement sur l’action que dans des
circonstances inhabituelles qui sortent de l’ordinaire (notamment qui
brisent la routine). Les motivations fournissent des plans généraux, des
programmes, des projets. C’est dans leur cadre que vont se réaliser des
ensembles d’activités, rationalisées essentiellement par la conscience
pratique. En ce sens, la plus grande part des conduites de tous les jours ne
sont pas motivées.
Il en ressort que les acteurs compétents, qui peuvent presque toujours
formuler de façon discursive les intentions et les raisons de leur action
(rationalisations au sens précisé plus haut, vraies ou fausses, exactes ou
erronées), n’y parviennent pas nécessairement lorsqu’il s’agit de leurs
motivations. De ces faits, les aspects les plus fondamentaux des activités
sociales dans une collectivité ne sont pas les plus fortement motivés, au
contraire. La plupart des éléments centraux sont les plus profondément
enfouis, sédimentés, de la conduite sociale et sont établis cognitivement,
pas forcément consciemment, plus que fondés sur des « motifs »
déclenchant l’action. Leur continuité est assurée par la récursivité et la
surveillance réflexive à travers la reproduction sociale elle-même. La
routine occupe donc une place très importante dans la reproduction des
pratiques.
Par ailleurs, pour Giddens, une action de routine renforce la capacité
de l’acteur à se situer dans un monde qui fait sens, avec des activités qui
ont un sens pour lui et les autres. De ce fait, logiquement, en conformité
avec l’idée de conscience pratique, la routine tient une place d’importance
considérable dans la conception de Giddens.
1.4.5. La précision des ordres institutionnels
La « constitution de la société » est un accomplissement de ses
membres, qui font preuve de leur compétence. Mais cet accomplissement
prend place dans des conditions qui ne sont ni totalement intentionnelles,
ni totalement comprises de leur part. Les hommes, d’une part, font leur
histoire, mais, d’autre part, ne savent pas qu’ils la font et en conséquence
ne peuvent la diriger.
Pour Giddens, la vie sociale n’est pas assimilable au langage, mais le
langage est un exemple utile. À cette fin, si on le considère sous les aspects
de sa production et de sa reproduction, chacun de ces aspects est aussi
caractéristique de la production et de la reproduction de la société en
général.
Le langage est maîtrisé et parlé par les parleurs. Du point de vue de sa
production comme une série d’actes de parole, le langage est d’une part
une compétence, ou un ensemble très complexe de compétences, que
possède chaque personne qui « connaît » ce langage. D’autre part, il est
utilisé pour donner du sens, littéralement, comme une activité créative de
la part d’un sujet actif. Enfin, il est quelque chose qui est fait, accompli par
celui qui parle, mais pas en pleine connaissance de cause. Il ne maîtrise
que peu comment il le fait. Le parleur n’est probablement capable que de
donner un compte rendu très vague et très fragmentaire de ce qu’il fait, de
comment il le fait et de comment il a appris à le faire quand il parle sa
langue pour exprimer quelque chose. Il illustre donc bien les notions de
connaissance pratique, de réflexivité et de la distinction entre conscience
discursive et conscience pratique.
Le langage est bien sûr aussi un moyen de communication et
d’interaction employé entre les acteurs. Il implique donc l’emploi de
schèmes interprétatifs pour rendre compréhensible non seulement ce que
les autres disent et émettent en fait comme paroles mais aussi ce qu’ils
veulent dire « en situation ». La constitution de sens est un «
accomplissement intersubjectif de compréhension mutuelle dans un
échange continu, et avec l’utilisation d’indices contextuels, comme
propriétés de la situation. »
Le langage a enfin des propriétés structurelles qui sont constituées
comme les modes de parole d’une collectivité dont elle constitue la langue.
De ce point de vue, le langage est une structure qui n’est pas possédée par
un parleur en particulier, mais qui ne peut être comprise que comme une
caractéristique d’une communauté donnée de parleurs. Il peut être conçu
comme un ensemble abstrait de règles qui ne sont pas appliquées
mécaniquement, comme le montrent les cas de faux-sens et de
contresens, mais sont employées pour générer des paroles qui ont du sens
par des parleurs qui les maîtrisent car ils sont membres de cette
communauté de parleurs.
Les concepts centraux de la théorie de la structuration selon Giddens
sont la structure240, la dualité de la structure et les systèmes sociaux.
Une distinction fondamentale découle du caractère double structurant
et structuré des relations sociales. C’est celle qui existe entre les concepts
de structure et de système. Les relations sociales ont deux dimensions : la
première dimension vise le développement de modes de relations sociales
ordonnés et réglés, situés dans l’espace et le temps et qui comportent la
production et reproduction de pratiques concrètement localisées ; la
seconde dimension se rapporte à un ordre virtuel de modes de
structuration envisagés de façon récursive dans la production et la
reproduction des pratiques.
La structure au sens de Giddens renvoie, au sens paradigmatique, aux
propriétés structurantes qui favorisent la « capture » ou la liaison de
l’espace-temps dans des systèmes sociaux qui rendent possible que des
pratiques sociales similaires persistent dans des étendues variables de
temps et d’espace et qui donnent à ces pratiques un caractère «
systémique ». La structure ainsi comprise est un ordre virtuel. Elle est un
ensemble de règles et de ressources organisé de façon récursive, et est
hors du temps et de l’espace, à l’exception de son actualisation et de sa
coordination sous la forme de traces en mémoire des agents. Elle est
caractérisée par une « absence du sujet ». Ceci signifie, d’une part, que les
systèmes sociaux, en tant qu’ensembles de pratiques sociales reproduites,
n’ont pas de structure mais qu’ils présentent plutôt des propriétés
structurelles. Celles-ci sont les traits institutionnalisés qui s’étendent dans
l’espace et le temps. D’autre part, la structure n’a pas d’existence
matérielle et n’est donc pas un groupe, une collectivité ou une
organisation. Elle est certes virtuelle car elle n’existe, en tant que présence
dans un cadre situé dans l’espace et le temps, que lors de son actualisation
et qu’en tant que traces mémorielles mais c’est par cette actualisation que
les agents démontrent leur compétence et orientent leurs conduites, c’est-
à-dire leur connaissance de comment les choses sont dites, faites, écrites.
Cette connaissance est mobilisée récursivement en pratiques sociales
organisées.
Les systèmes sociaux, et non la structure, ont cependant des
propriétés structurelles et peuvent être étudiés comme systèmes
d’interaction. Ils sont des relations entre acteurs ou collectivités,
reproduites et organisées en tant que pratiques sociales régulières. La
structure y est récursivement impliquée. Ils comprennent les activités
situées d’agents humains, produites et reproduites à travers le temps et
l’espace et impliquent des relations d’interdépendance entre individus et
groupes, régularisées en pratiques récurrentes. Un système social, dans
cette terminologie, s’il a des propriétés structurelles, n’est pas une
structure en lui-même. Il existe comme « mis en forme » tant dans le
temps que dans l’espace, à travers les continuités de la reproduction
sociale et l’instanciation de la structure. Un système social est, en ce sens,
structuré.
La structure elle-même, ordre virtuel sans existence matérielle, est
faite de règles et ressources. Celles-ci sont engagées dans l’articulation des
systèmes sociaux, elles sont impliquées de façon récursive dans la
production et la reproduction de ces systèmes. Les termes de règles et
ressources ne doivent pas tromper. D’une part, sur le plan des règles, la
structure ne doit pas être considérée uniquement comme une contrainte.
La structure est facilitante autant que contraignante.
Une des propositions principales de la théorie de la structuration est
que les règles et ressources utilisées par les agents dans la production et
la reproduction de leurs actions sont en même temps les moyens de la
reproduction du système social concerné : c’est l’idée même de la dualité
de la structure. La structure est à la fois le moyen et le résultat de la
conduite qu’elle organise récursivement. Les propriétés structurelles des
systèmes sociaux n’existent pas hors de l’action, mais sont impliquées
chroniquement dans sa production et sa reproduction.
Dans cette conception, les mêmes caractéristiques structurelles
participent dans le sujet (l’acteur) et l’objet (la société). La structure forme
la personnalité et la société en même temps, mais dans aucun des deux
cas exhaustivement en raison des conséquences involontaires et des
conditions non reconnues de l’action. Chaque processus d’action produit
quelque chose de neuf, un acte neuf (la reproduction est production dans
une certaine mesure), mais, en même temps, toute action existe en
continuité avec le passé qui fournit les moyens de son initiation (la
production est reproduction dans une certaine mesure).
La structure n’est donc pas une barrière à l’action, une contrainte, mais
est essentiellement impliquée dans sa production. Une fois encore, elle est
facilitateur autant que contrainte. Elle ne s’oppose pas à l’idée de liberté
de l’acteur, « on ne peut opposer structure et liberté ».
En accord avec la dualité de la structure les règles et les ressources (qui
constituent la structure) sont utilisées par les acteurs dans la production
des interactions mais sont aussi reconstituées par leur action. La relation
entre moment et totalité, entre interaction et règles et ressources
s’exprimant dans la reproduction sociale est la structure.
Il y a, par ailleurs, une triple distinction entre la structure, les structures
et les propriétés structurelles des systèmes sociaux.
Les structures concernent les relations de transformation et de
médiation qui sont les « circuits de commutation » sous-jacents aux
caractères visibles de la production et de la reproduction des systèmes
sociaux. Les structures sont les ensembles structurels propres à des
systèmes sociaux donnés (ensembles de règles/ressources impliqués dans
l’articulation d’un système social donné). Elles sont organisées en tant que
propriétés de systèmes sociaux. Au niveau des acteurs et des relations
sociales, règles et ressources ont des effets de médiation (en face à face ou
à distance, sociale ou systémique) et de transformation des relations.
Toutes les règles sociales sont transformationnelles.
Les propriétés structurelles sont les traits institutionnels des systèmes
sociaux qui s’étendent à travers l’espace et le temps. Enfin, les principes
structurels sont les principes d’organisation des totalités sociétales. Ce sont
les propriétés structurelles les plus profondément ancrées, celles qui sont
les plus présentes et impliquées dans la reproduction des totalités
sociétales. Les institutions sont les pratiques organisées récursivement qui
ont la plus grande extension spatio-temporelle dans ces totalités
sociétales. Elles sont les traits les plus persistants de la vie sociale ; les
propriétés structurelles des systèmes sociaux qui leur donnent solidité
dans le temps et dans l’espace.

1.4.6. La dualité du structurel


La théorie de la « dualité du structurel » de Giddens, exprime que la
constitution des agents et celle des structures ne sont pas deux
phénomènes indépendants : il s’agit d’une dualité. Ils s’impliquent
réciproquement selon la dualité de la structure, les propriétés structurelles
des systèmes sociaux sont à la fois le moyen et le résultat des pratiques
qu’elles organisent de façon récursive. La structure n’est pas extérieure aux
agents. Présente en tant que traces dans leurs mémoires, actualisée dans
la production et la reproduction des pratiques sociales, elle est, dit
Giddens, plus interne qu’externe à leurs activités.
Ainsi, « la structuration est le lieu propre de l’analyse structurelle.
Étudier la structuration consiste à essayer de déterminer les conditions qui
gouvernent la continuité ou la dissolution de structures ou de types de
structures ».
Pour Giddens, l’erreur caractéristique de la philosophie de l’action a été
de traiter le processus de production seul et donc de ne pas développer de
concept d’analyse structurelle. De même, la limitation du structuralisme et
du fonctionnalisme a été de considérer la reproduction comme un résultat
de production autant que de reproduction mécanique, et non un processus
constitutif, actif, accompli par et consistant en, les activités de sujets actifs.
Les éléments apportés ci-dessus permettent de préciser que la
constitution de la société « est un accomplissement compétent de ses
membres, mais qui prend place dans des conditions qui ne sont ni
totalement intentionnelles, ni totalement comprises de leur part ».
Les systèmes d’interaction sociale produits et reproduits à travers la
dualité de la structure dans le contexte des conditions qui les permettent
et les limitent reposent sur l’interdépendance des individus et des groupes.
L’intégration se rapporte au degré plus ou moins élevé d’interdépendance
de l’action constitutif du « caractère systémique ». Elle peut donc être
définie comme « des liens régularisés, des échanges alternés ou des
réciprocités de pratiques d’autonomie et de dépendance entre acteurs ou
collectivités », qui par ailleurs n’impliquent ni cohésion ni consensus,
puisqu’il repose sur la connaissance pratique.
L’intégration sociale consiste en la réciprocité des pratiques entre des
acteurs en contexte de coprésence. L’intégration systémique en la
réciprocité entre des groupes ou des collectivités dans une zone
d’espacetemps plus étendue. L’interaction en face à face s’appuie sur la
signification de l’espace et du temps de la présence dans les relations
sociales. Le caractère systémique s’y affirme par le contrôle réflexif de
l’action et la rationalisation de la conduite, déjà analysés.
La dualité de la structure relie tout élément du comportement
quotidien aux caractères de systèmes sociaux plus englobants. Mais les
conséquences non intentionnelles de l’action s’étendent au-delà des effets
récursifs de la dualité de la structure, ce qui sépare intégration sociale et
intégration systémique. Finalement, la dualité de la structure est
représentée par Giddens dans le schéma ci-dessous :
INTERACTION Communication Pouvoir Moralité/Sanction

(MODALITÉ) Schème interprétatif Facilité Norme

STRUCTURE Signification Domination Légitimation

Les concepts de la première ligne renvoient aux propriétés


d’interaction, ceux de la troisième aux caractérisations de la structure. La
deuxième ligne décrit les modalités, qui permettent la médiation de leur
interaction. La communication de sens dans l’interaction implique
l’utilisation de schèmes interprétatifs au moyen desquels du sens est créé
par les participants à partir de ce que chacun dit et fait. L’application de
tels schèmes cognitifs, dans un cadre de connaissance mutuelle, dépend
d’un ordre cognitif qui est partagé par une communauté, où, ce faisant, en
tirant sur l’application de schèmes interprétatifs, en même temps
reconstitue cet ordre. L’utilisation du pouvoir dans l’interaction implique
l’application de moyens par lesquels les participants génèrent des résultats
en affectant les conduites des autres. Ils sont tirés d’un ordre de
domination et en même temps leur application les reproduit. Il en est de
même pour l’application de normes dans l’interaction qui tirent sur et
créent un ordre légitime.

1.5. Granovetter et la nouvelle sociologie économique


Mark Granovetter241 développe une « nouvelle sociologie économique »
qui ambitionne de s’écarter de l’économie standard en développant une
attitude nouvelle qui inclue les influences sociologiques dans l’analyse
économique. Il développe alors une vision selon laquelle les organisations
sont construites par des individus dont l’action est tout à la fois facilitée et
limitée par la structure et les ressources disponibles des réseaux sociaux
dans lesquels ils s’inscrivent. Nous centrons notre attention d’une part sur
la manière dont son analyse dépasse l’opposition entre individualisme
méthodologique et holisme ; et d’autre part la manière dont il considère
les comportements comme encastrés ou enchevêtrés, dans les
organisations et la société.

1.5.1. Le dépassement des analyses sous-socialisées et


sursocialisées
Granovetter distingue deux visions de la société :
• La vision sous-socialisée, qui place l’individu au cœur de l’analyse.
L’acteur atomisé est coupé de son environnement social. Cette vision
peut être assimilée à l’individualisme méthodologique.
• La vision sur-socialisée des comportements sociaux, selon laquelle les
comportements sont tellement intériorisés qu’il est superflu d’analyser
les relations sociales concrètes et que celles-ci n’ont une influence que
très indirecte ou négligeable sur l’action humaine. Cette vision peut
être rapprochée du holisme. Les influences sociales (culture) sont telles
qu’elles guident naturellement l’action, elles s’imposent et guident les
comportements.
Dans un cas l’individu est manipulé à son insu par les structures
sociales auxquelles il appartient, dont il a internalisé les valeurs et dont son
comportement découle, qu’il le veuille ou non, qu’il en soit conscient ou
non, dans l’autre l’individu parfaitement rationnel est atomisé,
uniquement mû par la maximisation de son utilité qui s’opère sur le
marché concurrentiel sans influences ni contacts sociaux, qui seraient
d’ailleurs des obstacles nuisibles à cette concurrence nécessaire.
Granovetter considère que ni l’approche sur-socialisée ni l’approche
sous-socialisée ne permettent de rendre compte du comportement des
individus. Il faut concevoir l’individu comme un acteur socialisé, lié à un
réseau social au sein duquel il intervient.
La notion de réseau permet de relier l’action individuelle (Action) avec
les cadres plus macro-sociaux (Structure) et de dépasser leur opposition.
L’analyse centre alors l’attention sur les réseaux informels qui se
constituent au sein des organisations. Il ne faut cependant pas opposer les
dimensions formelles et informelles. Les deux sont importantes et
permettent de mieux comprendre le comportement organisationnel.
L’essentiel est de comprendre comment les deux sont articulés entre eux.
Ainsi, par exemple, l’organigramme ne donne pas à voir les relations
d’influence informelles, mais il aide à voir la manière dont les réseaux
informels sont structurés.
Véritables constructions sociales, les organisations résultent d’histoires
humaines singulières et dépendent de contingences historiques. La quête
d’efficacité est souvent supplantée par celle d’autres objectifs non
économiques comme la légitimité, le pouvoir ou encore le statut social.
Granovetter propose une analyse approfondie des mécanismes liés aux
réseaux sociaux. Il montre notamment qu’un réseau se compose de liens
forts et de liens faibles. Les liens forts sont ceux que l’on a avec des amis
proches (il s’agit de relations soutenues et fréquentes). Les liens faibles
sont faits de simples connaissances. La force des liens tient à l’intensité
émotionnelle et à la réciprocité. Granovetter montre alors la force des «
liens faibles » car ils sont diversifiés et permettent de pénétrer de
nouveaux réseaux sociaux. Notamment, il estime que dans la recherche
d’emploi, les individus activent leurs réseaux sociaux. Il existe une relation
entre l’usage des liens faibles et l’importance du poste obtenu (surtout si
ces liens unissent l’individu à des individus bien placés dans l’institution).
L’analyse en termes de réseaux sociaux est fondamentale dans
l’approche de Granovetter, mais elle ne se substitue pas à d’autres analyses
ou influences (historiques, culturelle, institutionnelles etc.), elles les
complètent en permettant de mieux comprendre l’articulation entre les
niveaux micro et macro (entre action et structure).

1.5.2. La notion d’encastrement


Selon Granovetter, la prise de décision d’un acteur n’est jamais isolée
mais se trouve encastrée ou enchassée (embeddedness) dans un contexte
de relations interpersonnelles, de réseaux, de règles formelles, de
représentations collectives.
L’argument de l’enchâssement repose sur le fait que la confiance,
repose sur le rôle de relations personnelles concrètes, qui se sont
structurées en réseau, qui ont une histoire, et qui pénètrent plus ou moins
profondément dans la vie économique, suivant les circonstances de
chaque cas. Bien sûr, ces relations sont susceptibles d’être l’objet de
manipulations, d’abus et de fraude. Par ailleurs, des motifs sociaux d’ordre
non économique viennent s’ajouter à des relations économiques quand
elles deviennent répétées et continuelles. Il en découle que même dans
des relations d’affaires, la force des relations personnelles joue un rôle qui
ne peut être réduit à la transaction en cours, et que cette force est une
propriété non de cette transaction, mais des relations sociales concrètes
des parties, fondées dans leur identités respectives et l’histoire de leurs
relations ainsi que des réseaux sociaux auxquels ils appartiennent.

2. Lien entre organisation et entité sociétale


Comme nous venons de le voir, il existe un débat entre holisme et
individualisme méthodologique. Dans l’approche holisme, le tout englobe,
dépasse et détermine les parties. À l’inverse, l’individualisme
méthodologique repose sur l’autonomie de l’acteur, qui agit selon des
raisons et son comportement peut être appréhendé comme le résultat de
l’agrégation des comportements individuels.
Si certaines théories s’inscrivent clairement dans un courant plutôt que
l’autre, il existe aussi parfois des controverses et certains auteurs ne
prennent pas toujours directement parti, leur classement dans un courant
ou dans l’autre relève alors de l’interprétation. D’autres théories dépassent
par ailleurs ce débat et intègrent structure et action. Nous présentons ici
quelques-unes de ces théories, en choisissant des exemples qui
représentent tant l’approche holiste que celle de l’individualisme
méthodologique.
On trouve à l’origine du courant holiste, la sociologie de Durkheim, les
approches inspirées du structuralisme, où l’homme répète des
comportements inscrits dans des structures qui le dépassent ; et celles
issues du marxisme, où la position de classe détermine les actions et le
futur des individus ou encore un certain nombre d’approches néo-
institutionnalistes. On trouve du côté de l’individualisme méthodologique,
la théorie néoclassique, les théories du choix stratégique ou encore les
théories interactionnistes.

2.1. Les approches interactionnistes


Les approches interactionnistes ne s’intéressent pas seulement au
comportement d’un individu comme unité élémentaire d’analyse, celui-ci
pouvant se combiner en unités organisationnelles. L’objet de l’attention est
l’interaction entre les individus. Ce sont les interactions réciproques
d’individus en présence, qui constituent le tissu organisationnel.
L’interactionnisme constitue un courant théorique important de la
sociologie et de la psychologie sociale. Notre but est d’en présenter
simplement les principaux points qui nous semblent utiles à une meilleure
compréhension des organisations pour les sciences de gestion.
2.1.1. Mead et l’interactionnisme symbolique
Les fondements théoriques pour les organisations de l’interactionnisme
symbolique ont été mis en évidence par George Herbert Mead 242
(18631931). Selon ce dernier, le monde n’est pas une réalité extérieure à
l’individu qui serait quelque part, « là-bas », ailleurs, immuable et
attendant d’être découverte par lui. Certes, il est une réalité, mais celle-ci
est créée activement quand l’individu agit dans et envers ce monde 243.
Environnement et individu sont en interaction, ils se déterminent l’un
l’autre.
L’environnement comprend bien évidemment des choses, d’autres
individus mais aussi des symboles, signes arbitraires, conventionnels
façonnés collectivement par les individus qui les utilisent, dont une
catégorie essentielle est le langage. Ceux-ci permettent donc des
interactions symboliques entre individus. De plus l’utilisation des symboles
est instrumentale dans la création de la conscience de soi par l’individu. En
créant un symbole qui le représente (à ses yeux propres et aussi
collectivement, aux yeux des autres), l’individu acquiert alors la capacité de
penser à lui-même « de l’extérieur ». Il peut, cette condition remplie, alors
se projeter dans l’environnement.
Mead introduit ensuite la notion « d’objet », en un sens différent de
celui qui lui est donné habituellement. Il ne s’agit plus uniquement des «
choses » qui sont physiquement présentes dans l’environnement, il inclut
la catégorie générale de symboles qui peuplent l’environnement et à
travers lesquels celui-ci est perçu : choses, idées, individus, activités et
buts. Un objet ainsi conçu, au sens objet de la pensée, est à la fois créé par
l’individu et le but de ses actions. En d’autres termes, les individus agissent
envers les objets sur la base de la signification que ces objets ont pour eux.
Les objets sociaux, matériels ou non, sont créés par des actes sociaux. Il
en découle deux conséquences importantes pour cette approche
théorique : d’une part, les individus vivent dans un monde qui est peuplé
d’objets, et des seuls objets qu’ils reconnaissent et auxquels ils portent
attention. Ceuxci consistent essentiellement en symboles, et non en choses
et stimuli.
D’autre part, leur conduite est orientée vers des buts et des objectifs. De
ce fait, ce sont les objets qui orientent les conduites. Le langage constitue
un répertoire d’objets disponibles et permet aussi d’en créer de nouveaux.
Il est donc reproducteur mais aussi créateur de la réalité.
Les actes sont une unité discrète de comportement identifiable en tant
que telle, reliée à un ou des objets avec un début et une fin et orientée
vers un objectif (déjeuner, prendre un verre, lire un article). Suivant Mead,
l’acte commence par une impulsion, passe ensuite par des étapes de
perception et de manipulation pour finir en consommation. L’impulsion
provient d’un stimulus de l’environnement, mais il est à noter que
l’individu recherche de tels stimuli et ne se borne pas à les subir
passivement. Ils interagissent par ailleurs avec son état interne (faim, soif,
impression à faire sur les autres, etc.). La plupart des stimuli sont ambigus
et susceptibles de diverses interprétations (par exemple, un cri dans la
rue), la perception le transforme en objet social en l’identifiant (il s’agit du
cri de joie de quelqu’un qui croit reconnaître l’individu concerné comme
un ami perdu de vue, et non d’une manifestation de détresse ou d’une
réaction à un vol). Il va réagir (il est plus ou moins pressé, a plus ou moins
envie de rentrer en relations à nouveau avec cette ancienne connaissance,
en a gardé un plus ou moins bon souvenir). Il peut alors prétendre ne pas «
reconnaître » l’interpellateur, et le processus interne se manifeste alors
extérieurement en une étape de manipulation. Si l’auteur du cri, croit alors
s’être trompé, s’excuse et s’éloigne, l’étape de consommation vient
conclure l’acte. Le cri de l’autre est un objet que l’individu s’indique à lui-
même et à l’égard duquel il agit. Sa signification réside initialement dans la
disposition de l’individu à agir envers lui d’une certaine manière. Elle est
souvent ambiguë et doit être interprétée, même si elle est évidente pour
son auteur initial, qui cependant ne contrôle pas l’interprétation par
l’autre.
La signification est donc ancrée dans le comportement. La signification
d’un acte n’est ni fixe ni invariable, mais est déterminée dans la conduite
des individus envers les objets. La signification peut se transformer alors
que l’acte se déroule. Après l’impulsion, l’individu peut changer d’avis,
redéfinir l’objet et agir autrement. Le comportement doit s’analyser ainsi
en termes non seulement de ses manifestations externes (ce que voient les
autres) mais aussi de ses processus internes (qui le guident vers un but ou
objet).
Un acte est triadique au sens de Mead : il indique aux autres ce que
l’individu prévoit de faire, ce qui est attendu qu’ils fassent en retour et quel
objet social est en train d’être créé (le tout au sens de l’auteur de l’acte, qui
peut ou non être interprété ainsi par le(s) autre(s)).
Des objets sociaux sont créés quand les individus s’engagent dans des
actes sociaux. Ils coordonnent ainsi leurs activités et orientent leur
conduite les uns sur les autres anticipant leurs réponses à leurs actes
individuels et estimant qu’ils feront de même, puis chacun interprétant les
significations en assignant des intentions aux autres.
La création consciente d’objets sociaux à travers des actes sociaux ne se
produit cependant qu’en cas de situation, d’événement ou d’acte initial
problématique et/ou ambigu. Cela n’est pas toujours le cas. Beaucoup de
nos activités quotidiennes sont routinières et répétitives et s’expliquent
plus simplement en termes d’habitudes, plus ou moins complexes, telles
que monter à bicyclette mais aussi se conduire au travail, préparer un
repas, etc. Cependant, une rupture de la routine exige un retour à
l’interprétation pour conduire l’action vers son but.
Un concept additionnel est introduit ici, celui du « self ». Le self est à la
fois un objet au sens Meadien défini plus haut et le processus par lequel
cet objet est créé. Il implique l’idée qu’un individu peut être un objet en
luimême, qu’il peut alors conceptualiser et à l’égard duquel il peut agir. Il
peut éprouver des sentiments à son propre égard, positifs ou négatifs,
s’imaginer dans des situations diverses, être partie de sa propre
expérience ou de son propre environnement. Le rôle du langage est
fondamental. La réponse caractéristique de l’individu confronté à une
situation est de retenir sa réponse impulsive jusqu’à ce qu’un acte puisse
être construit qui paraisse correspondre à la situation (le cri dans la rue ne
déclenche pas de réaction immédiate, mais l’amène à considérer son
auteur avant de réagir). Muni de symboles pour lui-même et pour les
autres, l’individu peut se représenter comme impliqué dans leurs actes et
donc imaginer et décrire l’activité du groupe comme d’un ensemble. Il peut
imaginer des scenarii, ajuster son comportement à ce qu’il pense que les
autres feront et interagir avec luimême.
L’esprit, ou la conscience naît de ce processus d’incorporation du
processus social dans l’organisme individuel. Les individus ont un « esprit »
parce qu’ils ont la capacité d’agir à l’égard d’eux-mêmes, de se parler à eux-
mêmes, d’eux-mêmes et de se prendre en compte dans leurs actions.
L’esprit n’est donc pas une entité distincte et séparée du corps, mais un
comportement social comme les autres dépendant de la capacité
symbolique des humains qui leur permet de se considérer eux-mêmes
comme un objet, le self, créé et recréé quand l’individu agit à son égard.
Ce processus passe par deux phases, celle du « je » où l’individu
répond en sujet agissant envers des objets ou des autres, suivie par celle
du « moi » où l’individu s’imagine en tant qu’objet dans une situation. Le «
je » est le début de l’action en tant que réaction impulsive, spontanée à un
changement perçu, une modification de situation. Cette réponse
inorganisée et sans direction à ce qui n’est alors qu’un stimulus amène
l’individu à prendre conscience qu’il est (spontanément) devenu actif et
déclenche la prise en compte du « moi » dans la situation. « Je » et « moi »
alternent ainsi continuellement. Implicite dans cette analyse est l’idée que
les individus n’ont aucune idée de ce qu’ils vont faire avant d’avoir
commencé à agir. Le self est ainsi un processus : impulsion à agir, réponses
imaginées à l’acte envisagé, actes potentiellement différents possibles
imaginés et cours d’action finalement résultant du dialogue entre les deux
états de conscience du « je » et du « moi », lui-même permis par la
capacité de l’individu de se considérer comme un objet à ses yeux et à
ceux des autres. Ceci n’implique d’ailleurs nullement qu’il se conforme à
leurs attentes : le « je » impulsif peut l’emporter, le « moi » être inadapté
ou erroné, l’acte modifié par défiance ou opposition.
Les actes prennent place non pas dans l’abstrait, mais dans le cadre de
définitions de situations plus ou moins bien établies ou claires, mais
situées (une soirée, un cours, un achat dans un magasin, un trajet dans le
métro). Ceci permet d’anticiper plus facilement les actions des autres et
aussi de mieux se voir (le « moi ») comme partie de la situation. Les
situations sont définies en termes de structures de rôles. Ces derniers sont
eux-mêmes conçus non de façon normative et restrictive, mais de façon
large, comme un ensemble organisé d’idées utilisées par les gens pour
savoir comment agir, une perspective globale. Quand une situation est
définie (et ainsi nommée : salle de cours, cérémonie de mariage), que les
participants savent qui est présent et ce qui est censé se passer, ils peuvent
la structurer cognitivement en termes de rôles (alors nommés) conçus
dans les termes de ce que l’on peut attendre d’eux (un étudiant, la mariée,
dans le cadre d’un cours, d’une messe de mariage), dans ce cadre perçu
comme un tout. Un rôle se définit ainsi comme une perspective abstraite à
partir de laquelle la conduite est construite dans une situation sociale, et
non une simple liste de comportements concrets. La définition de situation
en termes de rôles permet d’anticiper certains des actes des autres
présents et aussi de donner un sens à toutes leurs actions, même
imprévues, de les interpréter dans le cadre de la situation.
La construction de rôle est le processus par lequel, dans une situation,
un individu élabore son activité afin qu’elle se conforme à la définition qu’il
en a donné, son rôle conçu par lui et les actes des autres. La prise de rôle
est le processus par lequel l’individu se place du point de vue d’un autre et
regarde alors tant la situation que lui-même afin de construire son rôle en
coordination avec la situation. Cette première activité est construite sur la
base de la seconde avec laquelle elle est intimement liée et s’exerce avec
pleine conscience de soi.
Cette conception de la prise de rôle implique que l’individu puisse
imaginer ou se représenter une situation depuis une vue perspective
différente de celle qui lui est assignée par le rôle qu’il y tient. Ceci peut se
faire du point de vue du rôle des autres qui y sont aussi impliqués, mais
aussi, plus généralement, du point de vue de la situation elle-même ou
d’actes sociaux dans cette situation et par ce que Mead appelle « l’autrui
généralisé » des groupes, communautés et sociétés auxquels nous
appartenons, ou aspirons à appartenir.
Le « self », la capacité de se considérer et d’agir envers soi-même
comme envers un objet n’est pas innée mais construite. Elle n’existe pas
chez le nouveau-né et se bâtit avec l’acquisition du langage qui englobe les
capacités symboliques et la possibilité d’auto-référence. L’acquisition puis
la maîtrise du langage permettent de nommer les autres, se nommer
soimême, et de concevoir le « self », de se concevoir comme « moi », et de
nommer les objets complexes, nombreux et susceptibles d’étiquettes
multiples qui peuplent le monde. Le « self » continue ensuite à se
développer tout au long de la vie.
Le « self » comprend trois parties : l’identité, l’image de soi et l’estime
de soi. En premier lieu, l’identité constitue la localisation d’un individu
dans la vie sociale. On distingue l’identité située, dans une situation sociale
donnée, de l’identité sociale, dépendant des appartenances aux
communautés et collectivités diverses et de l’identité personnelle, qui,
alors que la précédente est fondée sur l’appartenance et la similitude avec
les autres, se base elle-même sur la différence et l’autonomie de l’individu.
En second lieu, l’individu s’attribue une image de soi, en termes de
qualités, attributs et caractéristiques divers, par rapport aux rôles situés
valorisés par la société où il se trouve. Ceci constitue une influence
puissante. Enfin, l’estime de soi est l’aspect affectif du « self ». L’individu a
envers lui-même des sentiments plus ou moins favorables.
Dans ce cadre, la conduite des individus ne doit se comprendre ni
comme un calcul individuel de rationalité plus ou moins limitée, ni comme
le résultat de contraintes sociales, mais comme le produit d’interactions
situées socialement. En d’autres termes, ici aussi, non seulement les
individus agissent envers les objets sur la base de la signification que ces
objets ont pour eux mais la signification des objets dérive ou émane des
interactions sociales qu’un individu a avec les autres.
Les définitions de situation sont de nature cognitive. C’est l’idée de
l’individu de sa localisation dans l’espace et le temps social qui l’amène à
concevoir les autres, les actes et les objets et à y adapter ses actions. Bien
entendu, ces définitions de situation sont plus ou moins bien partagées par
les individus en présence.
Le cas le plus simple est celui des situations de routine, faciles à
reconnaître, à nommer, à définir, à anticiper dans le déroulement des
actions des présents car elles sont familières, habituelles et répétitives.
Elles ne le sont jamais parfaitement et totalement, cependant, car jamais
absolument identiques. L’habitude ne peut suffire à régler complètement
les conduites car des événements surprenants et nouveaux vont toujours
surgir d’une fois sur l’autre. Un minimum d’interprétation est donc
toujours nécessaire.
Dans les situations routinières nous faisons implicitement l’hypothèse
que notre définition immédiate de la situation est valide, que les autres
présents la partagent et nous ne vérifions pas cette hypothèse, ce qui nous
entraîne à accorder une présomption de sens à ce qui se déroule alors, et
les autres font de même.
Le sens des situations est donc construit et non simplement constaté.
La signification des objets est l’objet d’un processus interprétatif de la part
de l’individu. Elle ne s’impose pas à lui comme intangible244.
Les bases du comportement, de la prise et de la construction de rôle
sont donc cognitives et un large stock de connaissances est partagé entre
les membres d’un groupe social. Il prend plusieurs formes. L’une
fondamentale, est celle de la typification. Les individus savent à quoi
s’attendre de la part les uns des autres dans des situations particulières de
routine parce qu’ils ont une connaissance partagée de la façon dont
certains types d’individus se comportent typiquement dans certains types
de circonstances. En ce sens la prise de rôle est l’adaptation aux
typifications utilisées par les autres pour interpréter le comportement d’un
individu et la construction de rôle la projection d’une typification souhaitée
aux yeux des autres. Celle-ci se complète d’estimations de la probabilité
d’événements pouvant se dérouler dans une situation donnée, de
jugements de causalité, de relations fins-moyens ou « recettes » qui
assument l’existence de ces relations sans en connaître le détail technique,
de préférences et d’exigences normatives.
Même dans les situations de routine, et même en tirant sur le stock
commun de connaissances, les interactions restent complexes et
problématiques à coordonner dans une certaine mesure car certains
accomplissent des actes inattendus et imprévisibles. Le « self » de chacun
est un objet présent dans chaque rencontre où il se trouve impliqué, et des
objets normatifs (vérité, beauté, courage) sont présents de façon latente.
Les individus recourent donc à des activités d’alignement. Celles-ci
comprennent notamment les questionnements et explications de motifs,
verbalisation de déclarations sur les raisons de comportement, de soi et
des autres, mais non des motivations profondes qui causent les réactions
impulsives aux stimuli externes. Des ensembles de motifs sont plus ou
moins appropriés à certaines définitions de situation et plus ou moins
considérés comme légitimes. Ils permettent ainsi, dans leurs différences,
des comportements différents du même individu dans des environnements
variés (en famille et au travail par exemple).
Il reste le problème de la construction de l’ordre social en général, ou
de sous-ensembles sociaux, telles les organisations.
Le postulat, ici, est que l’ordre social est produit et reproduit par les
interactions de la vie quotidienne entre individus qui, participant à ce qui
paraît être des éléments fixes et naturels du monde social, en fait, le
construisent. L’ordre social, et donc ses éléments, les organisations, sont
bien ainsi des construits sociaux. Cependant, une fois constitués, ils
viennent à leur tour contraindre et orienter les activités des individus, qui
cependant restent toujours libres de suivre ou non ces contraintes et ces
orientations, en encourant bien évidemment alors certains coûts.
En ce sens dans la terminologie de Mead, société et organisations sont
des objets sociaux, constitués en tant que tels par ceux qui y participent.
Un élément essentiel, mais non le seul de la constitution de ces objets est
le langage, qui permet les conversations sur les événements, situations
problèmes présents et passés. Comme la réalité sociale et les
organisations, les problèmes sociaux et les communautés sont construits.
Bien sûr ils sont construits dans la répétition des interactions et non
modifiables à volonté par un individu. Une fois constitués, les objets
sociaux, certes peuvent être modifiés dans le moyen ou long terme tout
comme ils ont été créés, mais à court terme, ils s’imposent aux individus.
Ils constituent des modèles pour la coordination des actes des individus en
activités sociales conjointes. Il est possible d’en dévier. Cela se fait, par
exemple, sous l’influence, soit involontaire d’une erreur, soit volontaire
d’un jeu, d’une décision de « faire autre chose » ou de l’innovation. Un
événement problématique est alors constitué. Dans la plupart des cas,
cependant cette question ne se pose pas. Les problèmes sont réglés par
l’application de typifications communes pour résoudre ce qui pourrait
apparaître comme un problème. Des collectivités, des organisations, se
constituent avec ceux qui sont engagés de façon répétitive dans les mêmes
activités sociales conjointes.

2.1.2. L’ethnométhodologie
Harold Garfinkel245 (1917-2011) définit le champ d’investigation de
l’ethnométhodologie comme étant dans le domaine des phénomènes
sociologiques et portant sur « l’investigation des propriétés formelles des
activités de sens commun en tant qu’accomplissements organisationnels
pratiques ». Cette approche donnera lieu à tout un courant
méthodologique d’enquêtes et d’analyse du discours en sciences sociales
et humaines.
Il définit l’ethnométhodologie comme l’investigation des propriétés
rationnelles des expressions indexicales et des autres actions pratiques
(qui constituent les activités de sens commun) considérées comme des
accomplissements contingents, en cours suivi, des pratiques astucieuses
organisées de la vie quotidienne.
L’ethnométhodologie place le concept d’indexicalité au cœur de sa
problématique. L’indexicalité des expressions se réfère au caractère
fondamentalement contextuel, situé, du langage, à leur caractère sensitif
au contexte dans la signification des mots, expressions, gestes.
De plus, les activités par lesquelles les « membres » de chaque groupe
social impliqués dans une situation sociale, produisent et gèrent les cadres
des affaires organisées de tous les jours sont identiques aux procédures
destinées à les rendre « relatables » ou à pouvoir en rendre compte. Il
s’ensuit que la notion de compte rendu ou de relation246, est une autre
notion fondamentale de l’ethnométhodologie. En même temps que
l’action en train de se faire, située dans le déroulement du monde autour
de lui, réflexivement, le membre ne conçoit son action et ne se conçoit
qu’en termes de sa capacité à rendre compte (à expliquer aux autres) son
activité.
Il s’ensuit la reconnaissance du concept éthnométhodologique de «
membre », distinct de celui d’acteur, qui renvoie « non pas à une personne
», mais plutôt « à des compétences », dont la capacité de maîtrise du
langage naturel, situé dans le groupe social dans lequel le « membre »
appartient.
Par conséquent, les études ethnométhodologiques analysent les
activités de tous les jours comme les méthodes que les membres utilisent
pour rendre ces mêmes activités manifestement rationnelles et
descriptibles pour tous, c’est-à-dire relatables, en tant que modes
d’organisation des activités quotidiennes banales.
Pour l’ethnométhodologie, la réalité sociale, est donc perçue comme
l’accomplissement contingent, toujours renouvelé, des pratiques habiles
organisées de la vie quotidienne « et elle ne peut être extérieure aux
récits, comptes-rendus », qui sont situés de fait au cœur même de la
démarche.
Les études ethnométhodologiques des structures formelles, cherchent
à décrire les comptes-rendus que font les membres de ces structures
formelles, effectuées où que ce soit et par qui que ce soit, en s’abstenant
de tout jugement quant à leur adéquation, leur valeur, leur importance,
leur nécessité, leur caractère praticable ou leur succès.
Les ensembles sociaux organisés consistent donc en des méthodes
variées destinées à accomplir l’intelligibilité organisationnelle d’un
ensemble, comme une entreprise concertée ; les membres tout à la fois
produisent et utilisent ces méthodes pour faire en sorte que « leurs
actions et leurs affaires soient intelligibles-pour-tout-but-pratique ». En
d’autres termes, c’est en produisant l’intelligibilité de leurs pratiques
ordinaires que les membres produisent le monde social. La réalité sociale
est donc perçue et créée comme l’accomplissement contingent, toujours
renouvelé, des pratiques habiles organisées de la vie quotidienne. L’ordre
social est le résultat d’opérations interactives effectuées en situation par
les interactants. La réalité objective des organisations est saisie comme un
accomplissement continu d’activités concertées de la vie courante.
Tenter d’appréhender un monde social descriptible, en perpétuelle
construction n’est possible qu’à travers l’analyse des récits, des
comptesrendus des membres qui participent à sa construction par leurs
activités quotidiennes et en produisent pratiquement, localement et
méthodiquement l’intelligibilité du monde et le monde lui-même.

2.2. Les approches néo-institutionnelles


En réaction à la théorie de la contingence structurelle, à partir des
années 1970, un nouveau champ de réflexion organisationnelle se
développe notamment à travers les travaux de Nils Brunsson 247, James G.
March, John Meyer, Johan Olsen, Paul DiMaggio, Walter Powell 248, Richard
Scott249, Brian Rowan ou encore Lynne Zucker 250. Ils placent l’institution au
cœur de l’analyse.
De manière très générale le néo-institutionnalisme 251, conçoit les
organisations comme compréhensibles seulement s’il est tenu compte du
fait qu’elles sont, d’une part, connectées entre elles, et d’autre part,
construites par leur environnement. Cet environnement exerce ainsi des
pressions qui influencent leurs structures et auxquelles elles cherchent à
s’adapter. Bien entendu, différents environnements créent des pressions
différentes. Toutefois, la partie pertinente et prédominante de
l’environnement n’est pas tant matérielle que sociale. Les environnements
sont aussi conçus comme des systèmes culturels, qui, en définissant et en
légitimant des structures organisationnelles, participent à leur création et
leur maintien.

2.2.1. Les principes fondamentaux du néo-institutionnalisme


Certains des travaux initiaux et les plus souvent cités en référence
s’intéressent aux institutions d’éducation : Meyer et Rowan 252 constatent
que celles-ci, au cours de leur histoire, se sont développées à une très large
échelle et ont acquis une légitimité généralisée.
Selon Richard Scott253 : « une institution est un ensemble de processus
régulateurs, normatifs, culturels et cognitifs qui donnent naissance à des
arrangements qui donnent un sens ». L’institutionnalisation repose sur la
notion de répétition et de conception partagée de la réalité. Les
organisations sont conceptualisées comme des institutions évoluant dans
des sociétés au sein desquelles des actions sont répétées de telle sorte
qu’on leur donne une signification analogue, conduisant à une perception
partagée de la réalité.
Les organisations modernes ne sont pas seulement des systèmes
d’activités coordonnées et contrôlées pour accomplir des tâches, mais,
dans les sociétés modernes, elles apparaissent surtout dans des contextes
hautement institutionnalisés. Des professions (par exemple, comptables,
analystes), des politiques (dépenses de publicité, gestion des ressources
humaines, sélection du personnel), des programmes (communication
externe, qualité totale) sont créés en même temps que les produits et les
services qu’elles sont supposées produire rationnellement. Ceci amène la
création de nouvelles organisations et l’adoption forcée de nouvelles
pratiques et procédures par celles qui existent. Les organisations sont ainsi
conduites, indépendamment de leurs besoins et contraintes techniques et
de marché, à adopter des pratiques et des procédures définies par les
concepts prévalants rationalisés du travail organisationnel, qui sont
institutionnalisés dans la société. Celles qui le font avec succès augmentent
leur légitimité et leurs chances de survie, par l’obtention du soutien de leur
environnement, mais sans rapport direct avec la valeur intrinsèque de ces
politiques, procédures et pratiques, ni, d’ailleurs, de ce qu’elles produisent
ellesmêmes en fait.
Les produits, services, techniques et politiques qui ont été
institutionnalisés fonctionnent comme des mythes puissants
omniprésents dans l’environnement et beaucoup d’organisations les
adoptent cérémonieusement afin de marquer ainsi clairement leur statut
de « bonnes organisations ». Cependant la conformité aux éléments ainsi
institutionnalisés entre parfois, et même souvent, en conflit plus ou moins
aigu avec des critères d’efficience ou d’efficacité. Pour maintenir ceux-ci,
les organisations vont avoir à conserver les règles institutionnalisées
reflétées dans leurs structures formelles et, pour faire face à leur
incompatibilité avec l’efficience et notamment avec le règlement des
incertitudes inhérentes au jeu des activités techniques, elles vont relâcher
le couplage de leurs éléments composants et introduire des écarts
volontaires (découplage) entre le jeu de leurs structures formelles (à usage
externe) et les activités de travail réelles telles qu’elles se produisent en
fait en interne.
L’institutionnalisation est le processus par lequel les processus
sociaux, les obligations ou le présent en viennent à prendre un statut de
règle dans la pensée et l’action sociale et semblent « aller de soi ». Ces
processus sont tenus pour acquis et se répétant d’eux-mêmes. Ils
acquièrent le statut de faits sociaux. C’est à la fois un processus et une
propriété254. Bien qu’issus des relations entre acteurs, ils deviennent perçus
comme objectifs et extérieurs. Par exemple, le statut social de quelqu’un
appartenant à une profession (médecin, avocat) est une règle hautement
institutionnalisée, sur les plans à la fois normatifs et cognitifs (pour gérer la
maladie, faire appliquer le droit), aussi bien et tout autant qu’un rôle social
composé de comportements, relations et attentes particulières.
Les règles institutionnalisées peuvent avoir des effets sur les structures
organisationnelles et une implantation dans les activités techniques de
travail réelles qui sont très différents des effets générés par les réseaux de
comportement social et de relations qui, dans tous les cas, composent et
entourent une organisation donnée.
Dans les sociétés modernes, les structures formelles sont aussi
profondément implantées dans, et réfléchies par, des compréhensions
mutuelles très répandues et partagées de la réalité sociale. Ce qui est
généralement tenu pour bon, mauvais, souhaitable, en constitue des
exemples.
Les mythes qui génèrent les structures organisationnelles formelles ont
deux propriétés clés : d’une part, ils sont présents sous forme de
prescriptions rationalisées et impersonnelles qui identifient certains types
de différents objectifs sociaux comme étant techniques et qui prescrivent
sous forme de règles les moyens appropriés de poursuivre rationnellement
ces objectifs maintenant identifiés comme techniques, et non pas
idéologiques ou sujets à opinions potentiellement divergentes. De ce fait
ils sont légitimés quasi universellement ; d’autre part, ils sont fortement
institutionnalisés, et donc, dans une certaine mesure, placés au-delà de la
discrétion d’un participant individuel ou d’une organisation. Ils doivent
donc être tenus pour acquis et légitimes, indépendamment de leur impact
en fait sur les résultats du travail.
Des occupations sont rationalisées en professions et contrôlées tout à
fait indépendamment de l’inspection des résultats obtenus par leurs
membres, par des règles sociales de certification, formation et autorisation
de pratiquer. De nombreux programmes existants dans les organisations
sont aussi institutionnalisés dans la société où des idéologies définissent
les fonctions appropriées à une entreprise, une université, un hôpital, une
association, qui constituent des formules préfabriquées disponibles pour
être utilisées par une organisation. De même des technologies peuvent
être institutionnalisées et devenir des mythes s’imposant aux
organisations. Des procédures techniques de comptabilité, production,
sélection et recrutement ou traitement de données deviennent des
moyens de remplir les fins organisationnelles considérées comme allant de
soi. Indépendamment de leur efficience potentielle, l’emploi des
techniques ainsi institutionnalisées établit une organisation comme étant
appropriée, rationnelle et moderne et démontre un caractère responsable
aussi bien que protège contre l’accusation éventuelle de négligence.
L’impact de ces éléments rationalisés et institutionnalisés est énorme.
Ces règles définissent et redéfinissent des situations organisationnelles et
les moyens de les traiter rationnellement. Elles permettent et souvent
exigent d’organiser suivant les lignes prescrites, et elles se répandent très
rapidement dans la société moderne. Ainsi, les mythes qui sont bâtis en
éléments institutionnels rationalisés créent à la fois la nécessité,
l’opportunité et l’impulsion d’organiser rationnellement, indépendamment
et en plus des pressions nées de la complexité de la gestion de réseaux de
relations, qui existe par elle-même. Ils définissent de nouveaux domaines
d’activité rationalisée où de nouvelles organisations formelles émergent et
où les organisations existantes les adoptent. Plus la société se modernise
plus les domaines se rationalisent et s’institutionnalisent et plus ces
domaines se multiplient. De plus la complexité de la gestion de réseaux de
relations s’accroît, le tout résultant en l’accroissement de structures
organisationnelles formelles.
Les organisations sont donc structurées par leurs environnements et
deviennent isomorphes à ces derniers, non seulement pour résoudre leurs
problèmes de dépendance techniques et d’échange, mais aussi et surtout
parce qu’elles reflètent structurellement une réalité construite
socialement. Elles « agissent » les mythes rationalisés qui envahissent les
sociétés modernes. Elles en incorporent les éléments qui sont légitimés à
l’extérieur, sans rapports directs avec les exigences d’efficience et de
fonctionnement interne.
Ces mythes institutionnels proviennent de plusieurs sources. D’une
part l’élaboration de réseaux relationnels complexes, de plus en plus
densifiés et interconnectés favorise la mythification. D’autre part, elle est
favorisée par la généralisation d’une pratique qui fut efficace, mais en un
temps et un lieu donné et spécifique. Par ailleurs, le degré d’organisation
collective de l’environnement accordant de l’autorité centralisée codifie en
obligations légales les institutions qui légitiment des structures incorporant
certains mythes en licences, autorisations, réglementations. Enfin, les
efforts de leadership des organisations elles-mêmes, font que non
seulement elles s’adaptent à leurs environnements complexes, mais aussi
qu’elles les forment, soit par influence sur leur propre réseau relationnel
immédiat, soit en essayant activement et délibérément d’inscrire
directement dans le tissu social leurs propres buts et procédures comme
règles institutionnelles.
Les organisations tendent ainsi à devenir isomorphes avec leurs
environnements :
• Elles incorporent des éléments qui sont légitimés à l’extérieur, plus
qu’en termes d’efficience et de fonctionnement interne.
• Elles emploient des critères extérieurs ou cérémoniaux d’évaluation (et
non d’efficacité ou d’efficience) pour établir la valeur de ces éléments
de structure.
• Leur dépendance sur des institutions établies extérieurement réduit la
turbulence et maintient la stabilité.

Le résultat de cet isomorphisme est de promouvoir le succès et la


survie de l’organisation. Il augmente l’implication tant des participants
internes que des constituants et mandants externes. L’établissement d’une
structure formelle qui adhère aux prescriptions découlant des mythes de
son environnement institutionnel démontre que l’organisation agit de
manière convenable et adéquate vers des buts valorisés collectivement.
L’incorporation d’éléments institutionnalisés fournit par soi-même un
compte rendu d’activités qui protège l’organisation de suspicion et
d’enquêtes sur sa conduite. Elle est devenue légitime et utilise cette
légitimité pour renforcer ses soutiens et assurer sa survie. Un vocabulaire
commun se développe autour des activités institutionnalisées, équivalent
aux explications données aux motifs des individus, indépendamment de ce
qui est fait.
Plus l’environnement s’institutionnalise, plus il stabilise les relations
internes et externes de l’organisation.
2.2.2. Les apports de Selznick au néo-institutionnalisme
Outre l’influence d’Oliver Williamson255 (1932-2020), qui est très
généralement reconnue comme une source essentielle de ce courant,
Powell et DiMaggio256 trouvent les racines du nouvel institutionnalisme,
dans les travaux de Selznick, vis-à-vis duquel ils se distinguent néanmoins.
Philip Selznick257 (1919-2010) distingue l’organisation de l’institution.
L’organisation est un système d’activités consciemment coordonnées, un
instrument technique pour mobiliser les énergies humaines et les diriger
vers des buts établis, un moyen de coordonner tout ce qui a été divisé.
C’est un outil rationnel pour accomplir une tâche, un outil « jetable »
quand il a rempli son rôle. Une institution au contraire est « le produit
naturel de pressions et de besoins sociaux. Un organisme adaptable et
répondant, influencé par l’environnement social ».
L’institutionnalisation est un processus qui se déroule dans le temps, en
reflétant l’histoire distinctive de l’organisation, les individus qui en ont fait
partie, les groupes qu’elle incorpore, les intérêts acquis qu’ils ont créés et
la façon dont elle s’est adaptée à son environnement.
Institutionnalisé signifie « infusé de valeur » au-delà des exigences
techniques de la tâche à accomplir.
Selznick estime que, quand l’organisation devient une institution, cela
implique l’adoption de valeurs, de façons d’agir et de croire, qui sont
valorisées pour elles-mêmes. Il en découle que l’auto-entretien devient
beaucoup plus qu’un simple souci de survie mais une lutte pour préserver
le caractère unique du groupe dans des circonstances différentes et
nouvelles. Il s’ensuit que les institutions ne sont pas seulement des outils
techniques créées pour un but précis, jugées sur des critères techniques
comme des organisations, elles ont aussi une dimension naturelle. Elles
sont des produits de l’interaction et de l’adaptation, elles deviennent des
réceptacles de l’idéalisme de groupe.
En d’autres termes, que ce soit un groupe ou une pratique, une forme
sociale devient institutionnalisée258, quand, par un processus de croissance
sociale et d’adaptation, elle prend un caractère, une compétence ou une
fonction distinctive et devient chargée de signification en tant que véhicule
de l’identité d’un groupe ou réceptacle d’intérêts constitués. L’institution
est valorisée pour la place particulière qu’elle occupe dans le système
social élargi et pour la façon dont elle sert les aspirations et les besoins de
ceux dont elle touche les vies. Elle perdure car des individus, des groupes
ou des communautés ont un enjeu dans son existence continue.
La conception de Selznick rejoint celle du système de Parsons 259 dans
une conception « holiste » de l’organisation et du social. C’est la société qui
infuse ses valeurs dans l’organisation pour la transformer en institution.
Cette dernière est donc le produit de la société et elle modèle le
comportement des acteurs, tout comme pour Parsons, valeurs et normes
sociales sont internalisées par les individus par un processus de
socialisation conduisant à l’engagement.
Powell and DiMaggio260 considèrent en conséquence que
néoinstitutionnalisme et ancien institutionnalisme ont en commun comme
similarités le rejet du modèle de l’acteur rationnel, l’impact de
l’environnement sur l’organisation, la culture qui forme la réalité
organisationnelle et qui diffère des comptes rendus formels de
l’organisation. Ces derniers font d’ailleurs expressément référence à la
notion d’habitus, telle que l’expose Bourdieu.
Quoi qu’il en soit, certaines conceptions du néo-institutionnalistes tel
que celles de Hauriou261 ou de Commons262, laissent une place plus large à
une analyse compatible avec la théorie de l’action. Ainsi, dans leurs
analyses complexes, il n’y a pas de déterminisme extérieur, simplement
des contraintes dans lesquelles les acteurs restent libres.

2.2.3. La notion de « champs organisationnels »


Une organisation n’existe qu’en interdépendance avec d’autres
organisations de même nature, constituant avec elles un « champ
organisationnel » avec des producteurs, des consommateurs, des
prestataires de service, des agences de régulation et de contrôle, une
administration publique, des normes professionnelles et des règles du jeu.
Le champ organisationnel inclut les idées de connectivité et
d’équivalence structurelle. Il se définit, se structure, en quatre étapes :
l’augmentation des interactions entre les organisations comprises dans le
champ, l’émergence de structures inter-organisationnelles de domination
et de mouvements de coalition nettement définis, une augmentation de la
charge d’information avec laquelle les organisations doivent traiter et le
développement d’une conscience mutuelle d’être inclus dans une
entreprise commune parmi les participants dans un ensemble
d’organisations.
Une fois le champ structuré, des forces puissantes s’exercent sur les
organisations qui y sont incluses pour les rendre plus similaires. Les
organisations présentes peuvent changer leurs buts et/ou introduire de
nouvelles pratiques et de nouvelles organisations peuvent entrer dans le
champ. Cependant, à long terme, les acteurs organisationnels construisent
autour d’eux un environnement qui limite leur capacité à changer dans le
futur. Les premiers à adopter des innovations organisationnelles sont
conduits souvent d’abord par l’amélioration de l’efficacité, mais ensuite ces
innovations sont « infusées avec une valeur qui dépasse les aspects
techniques de la tâche à accomplir » et deviennent source de légitimité.
Les organisations, dans un champ structuré répondent à un
environnement composé d’organisations répondant elles-mêmes à leur
environnement qui lui-même est constitué d’organisations répondant à un
environnement fait de réponses organisationnelles. L’effet agrégé des
efforts de changement individuel crée une diminution de la diversité dans
le champ. L’isomorphisme en résulte, processus contraignant qui force une
unité dans une population à ressembler à toutes les autres unités qui font
face au même ensemble de conditions environnementales.
DiMaggio et Powell distinguent trois types d’isomorphisme :
• L’isomorphisme coercitif, semblable à celui décrit dans l’écologie des
populations d’organisations, consiste en pressions formelles et
informelles des autres organisations situées dans l’environnement
conduisant à un rituel de conformité. Les règles politiques et légales
sont mises en conformité avec ces attentes institutionnelles.
L’isomorphisme mimétique. Quand les technologies et les buts sont
• ambigus et que l’environnement crée de l’incertitude, les organisations
vont alors avoir tendance à se modeler sur les autres organisations qui
s’y trouvent, en réponse à cette incertitude. Les organisations tendent
ainsi à se modeler sur d’autres organisations dans leur champ, qu’elles
considèrent comme plus légitimes ou ayant du succès.
• L’isomorphisme normatif est lié au processus de professionnalisation
des acteurs. Cela correspond à la lutte collective pour définir les
méthodes et conditions de l’exercice de leur travail, en contrôler la
formation et l’accès à l’exercice de la profession, et établir ainsi une
base cognitive et une légitimité pour leur autonomie.

2.3. Marx et la lutte de classes


Les apports théoriques de Karl Marx263 (1818-1883) dépassent très
largement la théorie des organisations et ont un champ conceptuel
considérablement plus vaste. Ils sont notamment associés à l’histoire du
mouvement ouvrier. Pour ce qui concerne l’étude des organisations, nous
centrons ici notre attention sur l’interdépendance qui existe entre
l’économie et les structures sociales dans l’analyse de Marx. Ainsi, pour ce
dernier, l’économie est indissociable de l’analyse globale de la société et de
ses transformations.
Il est usuel de considérer que la théorie de Marx s’inscrit dans une
vision holiste de la société en ce que l’analyse ne se situe pas au niveau
individuel, mais bien plutôt au niveau des classes, conçues comme
catégories sociales.
Le concept de mode de production est au centre de l’analyse de Marx
et constitue la « structure économique de la société ».
Les modes de production comprennent des rapports de production et
des forces productives. Les rapports de production correspondent à la
manière dont les forces productives sont appropriées dans la société. Marx
distingue quatre grandes formes de rapports de production : l’esclavage, le
servage, le fermage et le salariat. Les forces productives se composent des
outils de production (machines), des techniques utilisées pour produire, de
l’organisation du travail et de la force de travail elle-même, incluant les
connaissances et savoirs faire de celle-ci.
Dans le capitalisme, le rapport de production est le salariat qui renvoie
à une situation d’exploitation des salariés, prolétaires, par les détenteurs
du capital, la bourgeoisie. En effet, d’une part l’usage de la force de travail
des ouvriers crée de la plus-value, et d’autre part la bourgeoisie détient les
moyens de production. Il s’ensuit une aliénation264 et une exploitation265 du
travailleur dans la société capitaliste. La société est alors marquée par des
luttes de classes entre d’une part les salariés, prolétaires, et d’autre part
les capitalistes propriétaires des moyens de production.
La théorie de Marx repose sur le postulat que toute valeur vient de
l’usage de la force du travail, et que le temps de travail socialement
nécessaire est la mesure de la valeur, que le travail soit simple, complexe,
qualifié, non qualifié, il se réduit à des unités de force de travail. Dans la
valeur produite on distingue :
• C, le capital constant : absorbé dans le processus de production. Il est
la valeur des moyens de production utilisés pour produire un produit et
incorporés dans ce produit. Il n’est pas source de plus-value.
• V, le capital variable (force de travail) : travail vivant incorporé au
produit. Il est le seul productif de plus-value. Sans lui le capital constant
est inefficace.
• S, la plus-value, produite par les travailleurs et qui va au détenteur des
moyens de production.

Le travail n’est pas une marchandise, mais la force de travail en est une,
sachant que du fait d’un processus historique passé, d’une part le
prolétaire a une liberté contractuelle (il n’est pas esclave) et d’autre part il
n’a que sa force de travail pour survivre. De façon très simplifiée, le salarié
« vend » sa force de travail ce qui suppose l’existence d’un marché du
travail.
Comme toute marchandise, la force de travail a un prix qui est celui du
coût de sa production. Pour Marx, cela représente les sommes nécessaires
pour former le travailleur et répondre à ses besoins afin de lui permettre
d’assurer la reproduction de sa force de travail. Le capital variable du
capitaliste sert à acheter au salarié sa force de travail à travers son salaire.
Sur ces bases, le mécanisme est le suivant : le capitaliste achète l’usage,
de la force de travail aux coûts nécessaires à sa reproduction et l’exploite
en la combinant avec les autres forces de travail formant le collectif de
travail. La plus-value et l’exploitation vient du fait que le capitaliste
consacre à la force de travail une valeur inférieure à celle que fournit
l’usage de cette force de travail. Il tire de cette force de travail une valeur
V+S composée des coûts de production et de la plus-value. Dit autrement,
la force de travail crée plus de valeur qu’elle n’en coûte.
On calcule :
S/(C+V) = taux de profit = P (qui est le pourcentage de plus-value vis-
àvis du capital employé (capital constant + capital variable) En divisant
par V le capital variable (salaire), on obtient : P = S/(C+V) = (S/V)/[(C/V)
+(V/V)] = (S/V)/[1+(C/V)] S/V est ainsi le taux de plus-value (ou
d’exploitation).
La dynamique du système entraîne les capitalistes à utiliser la plusvalue
S pour accroître le capital, C. La concurrence entre eux a pour conséquence
inévitable l’accroissement permanent du capital. C’est le cas car « un
capitaliste ne peut évincer l’autre qu’en vendant meilleur marché ». Or
pour pouvoir vendre meilleur marché, sans se ruiner, il faut produire en
plus grande quantité pour profiter d’économies d’échelles et en même
temps accroître la productivité du travail. Ce qui entraîne :
• Une accumulation du capital.
• Une plus grande division du travail.
• Un emploi accru de machines.
• Un travail à grande échelle.
Ce mouvement se répète par émulation permanente entre les
capitalistes ce qui crée un mouvement de spirale toujours accéléré. Donc le
mouvement de concurrence entre capitalistes tend à ramener la valeur des
produits aux coûts de production, et donc à faire baisser la plus-value S
engendrant une crise de rentabilité du capital C ; sans compter un risque
de crise des débouchés par la surproduction. De leur côté, les salariés
voient leur pouvoir d’achat diminuer.
Ceci veut dire, étant donné que P = (S/V)/[1 + C/V], et que C tend à
toujours croître, que le taux de profit P tend donc inéluctablement à
décroître. Donc, pour maintenir le taux de profit P, S doit augmenter ou V
doit diminuer, c’est-à-dire que le taux de plus-value doit augmenter et
donc aussi le taux d’exploitation ou le salaire doit baisser.
L’opposition entre la nécessaire compression des salaires pour
augmenter la plus-value et la croissance de la production du fait de la
concurrence est au cœur du développement de crises économiques qui
vont conduire à la fin du système capitaliste.
Ainsi selon Marx266 : « une épidémie sociale éclate, qui à toute autre
époque eût semblée absurde. L’épidémie de la surproduction. Les
institutions bourgeoises sont devenues trop étroites pour contenir la
richesse qu’elles ont créées ».
L’analyse des luttes de classe, comme source de changement social, est
déterminant dans la pensée de Marx. Selon lui, la lutte de classe mènera
nécessairement à la dictature du prolétariat, qui elle-même ne représente
qu’une transition vers une société sans classes. Cette approche porte
l’accent sur le rôle actif des groupes sociaux dans l’histoire et dans
l’évolution de la société, qui pour Marx ne peut se faire sans « combat ».
Par conséquent, dans l’analyse de la société capitaliste par Marx, le
travailleur est exploité et cette exploitation ne peut pas disparaitre tant
que le mode de production sera le capitalisme. Le capitalisme est marqué
de manière endogène par la résurgence de crises économiques. Des crises
de plus en plus graves marqueront l’histoire du capitalisme jusqu’à sa
disparition et la mise en place du socialisme, puis du communisme afin de
dépasser les contradictions du mode de production capitaliste.
Enfin, Marx défend une approche de l’évolution historique dans
laquelle l’accent est mis sur la façon dont les hommes organisent la
production, sur l’importance du niveau de développement des forces
productives, et sur le fait que les acteurs de l’histoire sont les travailleurs
eux-mêmes et donc que l’histoire n’est gouvernée ni par des héros ni par
des Dieux.
Pour conclure, il existe une grande diversité d’approches théoriques,
largement d’origine sociologiques, qui relient organisation et société. Elles
portent des visions différentes du rôle des acteurs et du poids des
structures sur les actions individuelles et collectives.
Focus : L’essentiel des théories de l’organisation et la société
Il existe traditionnellement deux visions différentes de la société :
l’individualisme méthodologique (action) et l’holisme (structure).
Boudon (1934-2013) défend la vision de l’individualisme méthodologique
selon lequel les phénomènes sociaux peuvent être expliqués par les
actions des acteurs, qui ont des raisons d’agir comme ils le font, que celles-
ci soient objectivement ou subjectivement bonnes.
L’holisme, quant à lui, consiste à penser qu’un phénomène social doit être
appréhendé dans son ensemble et s’appuie sur l’idée que les structures de
la société influencent le comportement des individus qui la compose.
L’approche holiste, défendue par Bourdieu (1930-2002), s’appuie sur la
notion d’Habitus. L’Habitus correspond à l’incorporation par les individus,
au cours de leur socialisation, d’un ensemble de codes et de règles de
comportements.
Entre ces deux visions, un ensemble d’auteurs proposent des approches
alternatives qui permettent de concilier action et structure. Tel est le cas
de Dupuy, Giddens et Granovetter.
Dans la théorie de l’auto-transcendance, Dupuy (1992) développe un
individualisme complexe selon lequel les individus
agissent les phénomènes collectifs, mais ceux-ci sont bien plus que cela et
n’obéissent qu’à leurs propres lois (auto-organisation). L’ordre social est
produit par les actions individuelles, accomplies séparément,
des membres de l’organisation, mais sans pour autant répondre à
la volonté d’une entité supra-individuelle.
Dans la théorie de la dualité du structurel, Giddens (1984) montre que l’on
ne peut se passer ni de l’action, ni de la structure pour expliquer les
phénomènes sociaux. Ainsi, les notions d’action et de structure se
supposent l’une l’autre, dans une relation dialectique. L’acteur est «
compétent ». Cela signifie qu’il a une connaissance de son environnement
et a une connaissance pratique, discursive et inconsciente de ses actions.

Mais cette compétence a des limites notamment structurelles. Le


structurel est à la fois contraignant et habilitant. Les actions des acteurs
et les structures sociales sont indissociables et doivent être prises en
compte conjointement pour comprendre la dualité du structurel.
Granovetter (1985) développe une nouvelle sociologie économique selon
laquelle les organisations sont construites par des individus dont l’action
est tout à la fois facilitée et limitée par la structure et les ressources
disponibles des réseaux sociaux dans lesquels ils s’inscrivent. Cette
approche place les réseaux sociaux au cœur de l’analyse. Véritables
constructions sociales, les organisations résultent d’histoires humaines
singulières et dépendent de contingences historiques.
Nombre de théories des organisations, issues souvent de la sociologie,
s’inscrivent, explicitement ou implicitement, dans ce débat entre
individualisme méthodologique et holisme. De manière partielle, nous
évoquons ici seulement certaines d’entre elles : les approches
interactionnistes, le néo-institutionnalisme et le Marxisme.
Les approches interactionnistes sont centrées sur les interactions entre les
individus au sein de la société. On y trouve les travaux de Mead (1863 -
1931), selon lequel la société et les organisations sont des objets sociaux,
constitués en tant que tel par les acteurs qui les composent.
L’ethnométhodologie en fait également partie. Son principal représentant,
Garfinkel (1917-2011), considère que la réalité sociale est le résultat des
pratiques organisées de la vie quotidienne et qu’elle émerge des récits et
comptes rendus des agents qui la vivent.
Pour le courant néo-institutionnaliste, et notamment Selznick (1919-2010),
les organisations sont infusées de valeurs par leurs membres et deviennent
des institutions, c’est à dire des univers porteurs d’identités et de culture,
qui échappent partiellement à la volonté de leurs initiateurs. Pour Di
Maggio et Powell (1991), une organisation n’existe qu’en interdépendance
avec d’autres organisations de même nature, constituant avec elles un
champ organisationnel. Ce dernier crée des pressions homogénéisatrices
qui font que les organisations tendent à adopter les mêmes formes et
procédures institutionnelles (isomorphisme), et auront donc tendance à se
rassembler au sein du champ organisationnel. L’ensemble de ces
comportements conduit à une forme de rationalité collective propre au «
champ de force » sous la pression des forces institutionnelles.
Pour Marx (1818-1883), la société est marquée par des luttes de classes
entre d’une part les prolétaires, et d’autre part les capitalistes
propriétaires des moyens de production. Les capitalistes réalisent une
plus-value en exploitant l’usage de la force de travail des salariés. Le
capitalisme est marqué par un ensemble de crises économiques et sociales
endogènes. Ces crises, de plus en plus graves, sont condamnées à se
développer, jusqu’à la disparition du capitalisme et l’émergence d’un
nouveau mode de production.
L’ensemble de ces approches proposent des visions différentes de la
relation entre organisations et société et du rôle de l’acteur et de la
structure.
_______
232
Boudon, R., L’art de se persuader des idées douteuses, fragiles ou fausses, Paris, Fayard, 1990.
Boudon, R., « Action », dans Traité de sociologie, PUF, 1992.
233
Boudon, R., Bourricaud, F., Dictionnaire critique de la sociologie, PUF, 1982.
234
Boudon, R., « Individualisme et holisme dans les sciences sociales », dans Birnbaum, P. et Leca,J.,
Sur l’individualisme, Paris, Presses de la FNSP, 1986.
Boudon, R., « Action », dans Boudon, R. (ed.), Traité de Sociologie, Paris, PUF, 1992.
235
Bourdieu, P., Sociologie générale, Essais, Points, Le Seuil 2015 (Cours au Collège de France 1981-
1983 et 1983-1986).
Bourdieu, P. et Passeron, J. C., Les héritiers : les étudiants et la culture, Editions de Minuit, 1964.
236
Dupuy, J. P., (1992), Introduction aux sciences sociales : logique des phénomènes collectifs,
Paris, Ellipses et Dumouchel, P., Dupuy, J. P. et autres, Colloque de Cerisy : l’auto-organisation, Paris,
Seuil, 1983. Dupuy, J. P., « Vers l’unité des sciences sociales autour de l’individualisme méthodologique
complexe », Revue du MAUSS, n°24, 2, 2004.
237
Giddens, A., La constitution de la société, Paris, PUF, 1987, traduction par M. Audet de The
Constitution of Society, Cambridge, Polity Press, 1984.
Giddens, A., Central Problems in Social Theory, Berkeley, University of California Press, 1979. Giddens,
A., New Rules of the Sociological Method, New York, Basic Books, 1976.
238
Schütz, A., Collected Papers, Den Hague, Nifhoff, 1962, analysé dans Berger, P. L. et Luckmann, T.,
opus cit.
239
Giddens, A., La constitution de la société, 2005.
240
Nous avons choisi ici de traduire le terme employé par Giddens « structure » par le mot français de
« structure ». Notons que le traducteur de l’un de ses principaux ouvrages en français a préféré
traduire « structure » par « le structurel » (Giddens, A., La constitution de la société, Paris, PUF,
1987, traduction de M. Audet). Pour nous, la structure au sens générique et le structurel, en
français, sont donc équivalents.
241
Granovetter, Getting a job : a study of contact and carreers, Harvard University Press, 1974.
Granovetter, ‘‘Economic Action and Social Structure the Problem of Embeddedness’’, American
Journal of Sciology, 91, 3, November, 1985.
242
Mead, G. H., Mind, Self and Society, Chicago, University of Chicago Press, 1934 (paperback edition
1967), voir aussi l’exposé qu’en fait Strauss, A. L., George Herbert Mead: On Social Psychology,
Chicago, University of Chicago Press, 1964.
243
La genèse conceptuelle de l’interactionnisme symbolique est exposée de façon plus complète
etdidactique dans des ouvrages inspirés de Mead, par exemple, Hewitt, J. P., Self and Society,
Boston, Allyn and Bacon, 6th edition, 1994.
244
Blumer, H., Symbolic Interactionism, Berkeley and Los Angeles, University of California Press, 1969.
245
Garfinkel, H., Studies in Ethnomethodology, New York, Prentice Hall, 1967.
246
Au sens de relater, c’est-à-dire rapporter à d’autres et non établir une relation avec d’autres,
bienque bien évidemment les deux concepts soient liés à un certain niveau.
247
Brunsson, N., The Organization of Hypocrisy, Chichester, John Wiley and Sons, 1989.
248
Powell, W., Di Maggio, P. (1991), The new institutionalism in organizational analysis, University of
Chicago Press.
249
Scott, W. R. (1995), Institutions and Organizations, Ideas, Interests and Identities, Sage.
250
Zucker, L. (1988), Institutional patterns and organizations: culture and environment, Ballinger.
251
Meyer, J. W. and Scott, W. R. (1983), Organizational Environments: Ritual and Rationality, Beverly
Hills, Sage Publications et préface à l’édition de 1992 de Organizational Environments.
252
Meyer, J. W. and Rowan, B. (1978), The structure of Educational Organizations, pp. 78-109 ; in
Meyer, M. W. et al., ed. Environments and Organizations, San-Francisco, Jossey-Bass Inc., 1980.
253
Scott, W. R. (1995), Institutions and Organizations. Ideas, Interests and Identities, Sage.
254
Zucker, L. G., ‘‘The Role of Institutionalization in Cultural Persistance’’, ou Jepperson, R.
L.,‘‘Institutions, Institutional Effects and Institutionalism’’, in Powell, W. W. and DiMaggio, P. J.,
(eds), The new institutionalism in organizational analysis, Chicago, the University of Chicago Press,
1991.
255
Williamson, O. E. (1975), Market and Hierarchies. Analysis and Antitrust Implications, New York,
The Free Press, page 3.
256
Powell, W. W. and DiMaggio, P. J., (eds), The new institutionalism in organizational analysis,
Chicago, The University of Chicago Press, 1991.
DiMaggio, P., Powell, W. ‘‘The Iron-Cage Revisited: Institutional Isomorphism and Collective Rationality
in Organizational Field’’, American Sociological Review, vol. 48, April, pp. 147-160, 1983.
257
Selznick, P. K. (1957), Leadership in administration, Evanston, ill., Row, Peterson and Co. ; Selznick,
P. (1949), TVA and the Grass Roots: A Study in the Sociology of Formal Organization, University of
California Press, Berkeley.
258
Selznick, P. K., Law, Society and Industrial Justice, New Brunswick, Transaction Books, 1969.
259
Parsons, T., The Social system, New York, The Free Press, 1964.
260
Opus cit.
261
Hauriou, M. (1910), Principes de Droit Public, Paris, L. Lanoge et L. Lenin, Chap. III, L’institution.
262
Commons, John R. (1931), ‘‘Institutional Economics’’, American Economic Review, December, p.
649 et Commons, John, R. (1990), Institutional Economics, New Brunswick, Transaction Publishers,
(publication originale en 1934).
263
Marx, K., Le manifeste du parti communiste, 1848 ; Contribution à la critique de l’économie
politique, 1859 ; Le Capital, Tome 1, 1867.
264
L’aliénation est la privation des moyens de réaliser son être.
265
L’exploitation est liée au fait que le capitaliste réalise une plus-value en utilisant la force detravail
des salariés.
266
Le Manifeste du Parti Communiste, 1848.
Un certain nombre de théories abordent les organisations à travers les
relations de pouvoir et de négociation qui y opèrent.
Cyert et March sont parmi les premiers à analyser la firme en tant
qu’organisation complexe, constituée de groupes d’acteurs aux intérêts
multiples, qui se trouvent dans des rapports d’interactions marqués par
des conflits et de la coopération et donc par des relations de pouvoir. Ainsi,
ces derniers, qui retiennent l’hypothèse de rationalité limitée au sens de
Simon (voir chapitre 6 sur les théories de la décision), montrent qu’une
organisation est une coalition d’acteurs ayant des intérêts divergents et en
conséquence que les objectifs de l’organisation résultent d’une négociation
entre ses membres. En ce sens, l’organisation est considérée comme un
lieu de relations de pouvoir entre les acteurs qui la compose.
A la suite, un certain nombre d’auteurs se sont intéressés aux logiques
de négociation et de pouvoir pour expliquer les phénomènes qui régissent
les relations inter-individuelles au sein des organisations. Tel est le cas de
Crozier et Friedberg, qui proposent une grille d’analyse stratégique
permettant de mieux comprendre les jeux de pouvoir et de négociation qui
animent les membres d’une organisation, chacun mettant en place des
stratégies, afin d’atteindre leurs objectifs, compte tenu de leurs ressources
et contraintes. Reynaud, quant à lui, aborde l’organisation à travers les
règles et propose une théorie de la régulation conjointe. Enfin, Joules et
Beauvois présentent une vision originale du comportement
organisationnel en mettant l’accent sur les mécanismes d’influence et les
jeux de pouvoirs. A travers leur théorie de l’engagement, ils montrent qu’il
est possible d’agir sur un individu, non pas par la contrainte ou en
cherchant à le convaincre, mais dans le cadre d’une soumission pleinement
consentie.
Après avoir définit les notions de pouvoir et de négociation, nous
présentons ces différentes approches théoriques, qui ont pour point
commun d’aborder les organisations à travers les mécanismes de pouvoir
et de négociation qui s’établissent entre les acteurs au sein des
organisations.

1. Les notions de pouvoir et de négociation


Mary Parker Folett (1868-1933) est une des premières, dès les années
1920, à définir et distinguer les notions de pouvoir et d’autorité, qui est un
préalable à la bonne compréhension de la notion de pouvoir. L’autorité est
conférée à un individu du fait de sa place ou sa fonction, mais elle
n’implique pas forcément un pouvoir. Le pouvoir, quant à lui, est la
capacité de faire que les choses arrivent, d’initier le changement. Ainsi, si
l’autorité peut être conférée à un individu, ce n’est pas le cas du pouvoir. Le
pouvoir se construit en fonction de l’expérience, des connaissances et des
capacités de celui qui le détient, à quelque niveau de la hiérarchie qu’il
soit.
Nous définissons ci-après les notions de pouvoir, de négociation et
explorons rapidement les différentes sources du pouvoir dans les
organisations.

1.1. Définition du pouvoir


Le pouvoir267 a fait l’objet de nombreuses définitions. L’on peut citer
quelques-unes d’entre elles.
« Le pouvoir est la capacité d’une personne A d’obtenir qu’une personne
B fasse quelque chose qu’elle n’aurait pas fait sans l’intervention de A »
(Dahl, 1957).
« Le pouvoir est toute force qui résulte en un comportement qui
n’aurait pas eu lieu si cette force n’avait pas été présente » (Mechanic,
1962).
« Le pouvoir est la capacité d’une personne à influencer une ou
plusieurs autres personnes à exécuter ses ordres » (Parson, 1964).
« Le pouvoir est un processus intentionnel qui affecte au moins deux
acteurs et qui, par une redistribution des ressources obtenue par des
stratégies diverses affecte le niveau relatif des capacités de l’un et de
l’autre d’une manière compatible avec la formule de légitimité en usage. Le
pouvoir est une relation sociale tout à fait générale, mais il va de soit que
c’est par rapport à une situation et non dans l’absolu que ressources et
stratégies peuvent être appréciées. » (Boudon, Bourricaud, p. 462, 1994).
« Le pouvoir d’un individu ou d’un groupe, bref d’un acteur social, est
bien fonction de l’ampleur de la zone d’incertitude que l’imprévisibilité de
son propre comportement lui permet de contrôler face à ses partenaires. »
(Crozier et Friedberg, pp. 61-62, 1977).
Notons, en premier lieu, que le pouvoir n’est pas un attribut, c’est-
àdire qu’il n’existe pas en lui-même. Il n’est pas conservable, stockable et
utilisable indifféremment à tout moment ou dans toute situation à l’égard
de qui que ce soit et envers et contre tous. C’est une donnée relationnelle
qui n’apparaît en fait que dans une situation où deux ou plusieurs acteurs
sont en relation. Un acteur n’est pas puissant ou faible dans l’absolu mais
par rapport à un autre. Un roi sans sujets n’a aucune autorité. Pour exister,
un leader doit avoir des « suiveurs ».
En second lieu, le pouvoir est relatif. Il est d’une part fonction de la
situation dans laquelle se trouvent les acteurs car c’est dans cette situation
que se trouvent leurs sources de pouvoir. Elle détermine par ses
caractéristiques, les ressources et contraintes de chaque acteur. D’autre
part, il est relatif aux acteurs impliqués. Dans une situation similaire des
acteurs différents sont capables de mobiliser des ressources différentes en
fonction en particulier, mais pas seulement, des autres jeux, extérieurs à
l’organisation, dans lesquels ils sont impliqués. Ces différents acteurs
auront donc du pouvoir en quantité différente même s’ils sont placés dans
des situations similaires. Par exemple, il n’y a pas une relation de pouvoir
donnée de type « garagiste/client ». Il ne peut y avoir de relation qu’entre
Monsieur X, garagiste et Mme Y, cliente, chacun avec ses ressources et ses
contraintes propres. Le garagiste peut avoir plus ou moins de travail à
l’avance, peut être seul en ville ou avoir des concurrents, peut avoir un
pressant besoin d’argent etc. Le client peut ou non être pressé, posséder
plusieurs voitures, etc. Enfin, il est relatif aux enjeux, c’est-à-dire à la
valeur, ou l’importance, associée à l’obtention du gain. Si un enjeu est
faible pour un acteur et fort ou très fort pour un autre, la relation de
pouvoir va s’en trouver modifiée.
En troisième lieu, le pouvoir de négociation de chaque partie s’établit
de manière indépendante par rapport à celui de l’autre partie. Ce qui
signifie qu’un pouvoir de négociation fort pour l’une des parties n’implique
pas obligatoirement que celui de l’autre partie soit faible ou fort. En
d’autres termes, connaître le pouvoir de négociation d’une partie ne nous
apprend rien sur le pouvoir de l’autre. Le fait que le pouvoir de négociation
des parties s’établisse de manière indépendante implique que la
connaissance du pouvoir de négociation d’une partie n’est pas suffisante. Il
est nécessaire de le comparer au pouvoir de négociation de l’autre. C’est
l’équilibre des pouvoirs de négociation des parties, c’est-à-dire le rapport
de forces qu’il convient de prendre en considération.
Dans la plupart des circonstances, en pratique, la relation de pouvoir
tend à être déséquilibrée, c’est-à-dire qu’un acteur est plus puissant que
l’autre bien que cela ne soit pas obligatoirement toujours le cas.
Cependant, si les pouvoirs des acteurs tendent à être équivalents, il est à
noter que les chances de conflit augmentent.
En quatrième lieu, et ce point est fondamental, le pouvoir est subjectif.
Il est de nature cognitive. Ce qui veut dire qu’il n’existe réellement que s’il
est perçu comme tel. Une situation donnée peut contenir de multiples
ressources pour un acteur. Si elles ne sont pas perçues, son pouvoir
n’existera pas ou peu.
À ce point il faut se rappeler, en raison notamment de la rationalité
limitée au sens de Simon, que dans des situations similaires de mêmes faits
peuvent être perçus très différemment par des acteurs différents créant
des relations de pouvoir différentes. De plus, le pouvoir d’un acteur n’est
pas fonction des ressources et contraintes qu’il perçoit lui-même, mais de
la façon dont l’autre acteur perçoit ces ressources et contraintes.
En cinquième lieu, le pouvoir est intransitif : ce n’est pas parce que A a
du pouvoir sur B, dans sa relation avec B, et que B a du pouvoir sur C dans
sa propre relation avec C, que A aura du pouvoir sur C. Ceci découle
automatiquement du caractère relationnel du pouvoir. Tout dépend de qui
sont A, B et C et quel réseau de relations les unit.
En sixième et dernier lieu, le pouvoir repose sur une relation de
dépendance mutuelle. Ainsi, le pouvoir fonctionne implicitement de par la
dépendance d’un acteur sur l’autre. Le degré de pouvoir de chacun est
fonction de la dépendance de l’autre sur lui. Ces idées ont été avancées
notamment par Blau268 et par Bacharach et Lawler269.
Le pouvoir d’un acteur est donc basé sur la dépendance de l’autre
acteur sur lui. Un acteur obtiendra d’un autre la conduite qu’il souhaite de
lui si ce dernier, à son tour, dépend de lui pour obtenir ce qu’il souhaite.
Plus un acteur (B) dépend d’un autre acteur (A) pour obtenir ce qu’il
souhaite, ou ce dont il a besoin, plus (B) sera prêt à adopter les conduites
souhaitées par celui dont il dépend (A), donc le plus élevé est le pouvoir de
A.
À son tour, la dépendance est fonction d’un certain nombre de
conditions.
Premièrement, B est dépendant de A si A contrôle des ressources dont
B a besoin (ou croit avoir besoin). Le pouvoir de A est donc fonction d’une
part du besoin de B pour ce que A contrôle (et peut donner) et de la force
de ce besoin. Quand le besoin de B pour les ressources que A contrôle
existe, plus ce besoin est élevé plus le pouvoir de A est élevé.
Deuxièmement, le pouvoir de A dépend aussi du degré auquel B peut
avoir accès à des sources autres que A lui-même pour ce dont il a besoin.
Même si ce besoin est élevé, si B peut se fournir ailleurs de cette
ressource, le pouvoir de A est décru d’autant.
Troisièmement, la capacité d’user d’un pouvoir coercitif, c’est-à-dire
pour B d’obtenir par un processus juridique ou un moyen légal extérieur, ce
qu’il cherche à obtenir de A.

1.2. Définition de la négociation


La négociation270 peut se définir comme le processus dynamique entre
deux parties (au moins) qui sont en conflit et qui cherchent à résoudre ce
conflit par la recherche d’un accord. La négociation est donc un mode de
résolution des conflits, parmi d’autres271.
La négociation peut être individuelle ou collective. Dans ce dernier cas,
le négociateur est une personne qui représente une « partie », c’est-à-dire
un groupe qui a une capacité de décision collective.
Dans une négociation, le négociateur (ou la partie) met(tent) en place
des stratégies, compte tenu de leurs objectifs et leurs intérêts, en fonction
de leurs ressources et de leurs contraintes, et de ceux de leur adversaire.
La négociation combine compétition et coopération, intérêts communs
et intérêts divergents. En effet, les parties ont nécessairement un point de
divergences, le point sur lequel elles sont en conflit et qui les ramène à se
rapprocher pour négocier, mais elles ont aussi tout intérêt à trouver une
solution en commun, donc un minimum de coopération est indispensable.
On distingue deux types de négociations : celles où les conflits peuvent
être surmontés pour faire émerger des solutions qui procurent un bénéfice
mutuel et celles où les aspects conflictuels l’emportent sur la coopération.
Cette distinction est théorisée par R. E. Walton et R. McKersie 272 à travers
les notions de négociations « intégratives » et « distributives ». Ainsi, la
négociation distributive est le processus dans lequel chaque partie cherche
à maximiser la part qui lui revient dans un contexte où la valeur totale du
gain à partager est fixe. Ce que l’un perd, l’autre le gagne. Alors que la
négociation intégrative est le processus par lequel les parties cherchent à
accroître la valeur du gain total sans prendre en compte la façon dont
celuici est partagé entre les parties. Les deux parties peuvent être
gagnantes.
L’approche de la négociation qui cherche à créer de la valeur
(intégratif) et celle qui cherche à revendiquer de la valeur (distributif), sont
indissociables et les négociations sont par nature mixtes.
Le pouvoir est l’essence de la négociation. Il n’y a négociation que
lorsqu’il y a relation de pouvoir, c’est à dire que chacune des parties
détient du pouvoir sur l’autre. C’est le cas dans la relation
employé/employeur. La direction a du pouvoir en termes de salaire,
d’évolution de carrière, de licenciement etc. ; le salarié a du pouvoir en
termes d’arrêt de travail (grève, absentéisme) ou encore de motivation et
d’implication dans son travail. De même dans la relation vendeur/acheteur,
l’acheteur et le vendeur ont un pouvoir réciproque et sont dans une
relation de dépendance au moins partielle.
1.3. Les sources du pouvoir
De nombreuses classifications ou typologies des sources de pouvoir ont
été proposées. Une des premières à rappeler ici est celle de Weber, qui
comme nous l’avons noté dans le chapitre 1 sur les théories traditionnelles,
distingue trois sources d’autorité : charismatique, traditionnelle et
rationnelle/légale. Le pouvoir rationnel-légal de Weber est conféré par la
position hiérarchique, c’est le pouvoir formel.
Une autre conception, très différente, des sources du pouvoir a été
mise en évidence par Barnard273, comme nous l’avons analysé dans le
chapitre 2. Le pouvoir chez Barnard ne trouve plus alors sa source dans le
droit de commander, mais dans la volonté d’accepter les ordres de la part
de celui qui s’y soumet. Suivant Barnard, la décision de savoir si un ordre
doit être suivi ou non trouve sa source non pas dans celui qui formule
l’ordre, mais dans la décision de suivre ou non l’ordre émanent de celui qui
le reçoit.
On retrouve chez Michel Foucault274 (1926-1984) l’idée que le pouvoir
n’est pas seulement placé en haut de la hiérarchie, mais que les relations
de pouvoir existent partout dès qu’il y a interactions entre les individus.
Ces derniers, au sein des organisations, vivent dans des interrelations qui
sont, en elles-mêmes, des relations d’échange et de pouvoir.
Par ailleurs, pour Foucault, le pouvoir n’est pas synonyme de
domination brutale. Cela n’est que sa forme extrême. Dans nombre de cas,
le pouvoir s’exerce non pas de manière totalement dominante, mais dans
une relation plus complexe de pouvoirs toujours réciproques. De plus, le
pouvoir s’exerce et peut être identifié à travers un réseau de relations, des
pratiques et des procédures. Pour Foucault, le pouvoir s’exerce à travers
l’activité qui a pour objectif de modeler ou d’influencer la conduite des
autres. Le pouvoir peut être identifié dans un réseau de relations qui sont
systématiquement interconnectées. Le pouvoir devient apparent quand il
s’exerce à travers de pratiques et des procédures. Enfin, selon ce dernier, le
savoir, les connaissances induisent des effets de pouvoir et
réciproquement l’exercice du pouvoir conduit à accumuler de nouvelles
informations. Si le savoir, c’est à dire la connaissance et l’information,
engendre du pouvoir, le pouvoir en retour est source de nouveaux savoirs.
De multiples autres tentatives ont été faites pour établir puis clarifier
ou classifier les sources du pouvoir.
French et Raven275 distinguent le pouvoir légitime, issu de la position et
équivalent au pouvoir hiérarchique, le pouvoir de récompense (positive ou
négative), le pouvoir de l’expert, de celui qui sait et qui connaît les
solutions, le pouvoir de déférence, de celui à qui l’on défère par respect,
tradition ou sympathie personnelle et le pouvoir de coercition, de celui qui
peut obliger autrui à s’exécuter par la force directe ou indirecte.
Mechanic276 distingue trois éléments : le contrôle de l’accès à
l’information, de l’accès aux personnes, de l’accès aux instrumentalités
(aspects matériels, organisation des ressources, équipements etc.). Notons
que Mechanic insiste sur la relation de dépendance entre les individus,
sous-jacente à toute relation de pouvoir. Cette relation de dépendance
induit que l’individu qui se situe au-dessus dans la ligne hiérarchique de
subordination, dépend également du plus « faible », c’est-à-dire de son
subordonné, pour un certain nombre de raisons. Par exemple, certains
personnels administratifs en bas de l’échelle peuvent avoir du pouvoir sur
un supérieur hiérarchique récemment nommé dans l’organisation, parce
qu’ils connaissent mieux les rouages, les règles et sont plus familiers avec
les routines organisationnelles.
Crozier et Friedberg eux-mêmes fournissent une typologie des sources
de pouvoir dans l’organisation sur une base qui sera explicitée un peu plus
bas. Ils distinguent le pouvoir de l’expert, qui découle de la maîtrise d’une
compétence particulière et résulte de la spécialisation fonctionnelle, le
pouvoir du marginal sécant qui assure les liens entre l’organisation et un
des segments pertinents de son environnement, le pouvoir qui résulte de
la maîtrise de l’information et de la communication et enfin le pouvoir qui
découle de l’existence des règles organisationnelles générales.
2. Crozier et l’analyse stratégique des organisations
Michel Crozier (1922-2013) et Erhard Friedberg 277 proposent une
analyse stratégique des organisations dans laquelle le pouvoir joue un rôle
central. Cette théorie constitue un instrument précieux de compréhension
et d’analyse des organisations. Elle repose sur 4 concepts fondamentaux
qui ceux d’acteurs, d’objectifs, de ressources et contraintes et de
stratégies. A partir de ces concepts, Crozier et Friedberg proposent une
grille (ou méthodologie) d’analyse stratégique qui permet de mieux
comprendre les mécanismes qui interviennent au sein des organisations.

2.1. Les principaux concepts


Le premier concept sur lequel repose l’analyse stratégique de Crozier et
Friedberg278 est celui d’acteur. Un préalable implicite à son analyse est
l’exposé de celui de situation organisationnelle dans laquelle se trouve
situé cet acteur, avec d’autres. Il n’y a d’acteur que parce qu’il se trouve
placé dans une situation organisée. L’organisation définit des relations
entre ceux qui s’y trouvent impliqués. Ils n’ont d’ailleurs de relations avec
les autres membres que parce qu’ils participent à cette organisation, de ce
fait même et de ce seul fait, quelles que soient les raisons de leur
participation. L’organisation est certes un moyen d’action, la réponse au
problème de l’action collective, c’est aussi un construit qui inclut les
individus.
Dans une situation organisationnelle, un certain nombre d’acteurs sont
impliqués. Le nombre et le type d’acteurs pertinents varie avec la situation.
Un acteur important dans une situation donnée peut être absent ou non
pertinent à toute autre situation. Une organisation par son existence met
en situation des acteurs et n’existe que par cela. Cependant, tous les
acteurs ne sont pas pertinents à toutes les situations à tous moments.
Les acteurs peuvent être des individus ou des groupes.
Le niveau hiérarchique n’implique pas non plus obligatoirement la
pertinence de l’acteur. De même les acteurs constitués en groupe peuvent
se décomposer et se recomposer différemment suivant les situations.
Par ailleurs, toute collectivité d’individus ne constitue pas
automatiquement un groupe, acteur pertinent. Car il faut pour constituer
un groupe capable d’action que les individus qui en sont membres aient à
la fois une opportunité qui les rassemble et la capacité d’agir en commun.
Cette capacité d’agir existe et est en quelque sorte donnée en pointillé par
les structures présentes de l’organisation, mais elle n’est pas immuable :
elle peut s’acquérir et se développer et l’action du groupe ou de l’individu
peut à son tour agir sur les structures. Cette capacité collective propre au
groupe constitué par apprentissage collectif peut à la limite se constituer
en identité du groupe.
Notons que l’analyse stratégique centrant l’attention sur l’acteur, il en
découle qu’elle s’inscrit clairement dans le cadre de l’individualisme
méthodologique. De plus l’acteur est considéré comme ayant une
rationalité limitée au sens de Simon.
Le second concept est celui d’objectifs.
Tout d’abord, il est postulé que les acteurs ont toujours des objectifs 279.
Il n’y a pas d’acte gratuit, le comportement de chacun dans une situation
organisationnelle est toujours orienté vers des buts. En d’autres termes, le
comportement humain dans une organisation est stratégique. Chacun est
actif dans une direction qu’il suit vers ses propres objectifs.
Ceci ne veut pas forcément dire que chacun ait des objectifs clairs ni
des idées nettes sur la façon de les atteindre, loin de là. En effet, les buts,
ou objectifs, ne sont ni explicites ni clairs. D’une part, il n’y a pas de
hiérarchie séparant efficacement buts instrumentaux et buts satisfaisants
des valeurs. Jugements de fait et jugements de valeur sont confondus. Fins
et moyens sont le plus souvent au moins partiellement mêlés. De même,
certains objectifs s’élaborent au cours de l’action et n’y préexistent pas.
Par ailleurs, ces objectifs sont diffus. Ils ne sont pas obligatoirement
cohérents dans le temps (situations identiques qui se succèdent) ni dans
l’espace (situations différentes au même moment). Par ailleurs, souvent, ils
ne sont pas clairement définis, formulés explicitement par l’acteur. Il a
certes conscience d’agir dans ce qu’il pense être son intérêt, mais souvent
il serait incapable d’établir un lien entre le sens de l’action exercée et les
étapes qui conduisent à la satisfaction de cet intérêt non clairement
matérialisé par des cibles précises à atteindre. D’autre part les buts
peuvent exister sans être en rien formulés, même implicitement, au-delà
du conscient, et inspirer néanmoins des actions très immédiates.
De plus, une action n’est pas toujours explicite. Elle peut être implicite,
c’est-à-dire non précédée de réflexion, par adaptation spontanée à une
situation.
Enfin, ces objectifs sont multiples et différents. Ils ne sont pas
clairement ordonnés sur une fonction de préférence. Ils peuvent même
être contradictoires.
Il est donc plus réaliste de les représenter comme des directions pour
l’action, des critères, eux-mêmes évolutifs, à l’égard desquels évolue le
comportement, consciemment ou non, que comme des buts précis et
clairement définis.
Ils vont s’exprimer plus en termes de réactions possibles à des
opportunités perçues que comme des cibles définies vers lesquelles
progresser. Cependant, quand ils vont se matérialiser pour orienter le
comportement, ces objectifs vont se réaliser sous forme de préférences
très concrètes, et très à court terme, et non pas par des valeurs ou des
idéaux abstraits à long terme ou théoriques, trop éloignés ou trop diffus.
En effet, il faut rappeler que les acteurs sont mis en relation les uns
avec les autres par leur appartenance à une situation organisationnelle du
fait qu’ils sont impliqués dans une démarche d’action collective. Par
définition même de l’action collective, qui existe parce que les possibilités
individuelles sont insuffisantes, interactions et interdépendances entre
individus sont obligatoirement présentes. Dans cette situation la
dépendance mutuelle entre les acteurs est inévitable pour qu’ils puissent
fonctionner de façon satisfaisante, que ce soit pour accomplir leurs tâches
dans l’entreprise ou simplement continuer à exister en tant que famille,
couple, etc., à tous les niveaux. Ils ont des enjeux immédiats, dans des
relations qui existent concrètement. Chacun a besoin que l’autre fasse
quelque chose qu’il ne peut faire lui-même, car cela lui est soit impossible,
soit trop difficile ou coûteux. Cet élément est implicite dans l’idée d’action
collective. Si l’on pouvait agir tout seul, on le ferait sans plus y consacrer de
réflexion ni d’effort d’analyse.
Autrement dit, en situation d’organisation, il faut qu’un acteur agisse
pour qu’un autre puisse lui-même le faire, qu’un autre acteur fasse
quelque chose pour qu’il puisse agir. En conséquence, dans une telle
situation organisationnelle, il y a une multiplicité d’échanges où chacun a
quelque chose qui est attendu de lui et cherche à obtenir quelque chose
des autres, de nature matérielle ou non. Les objectifs, c’est donc ce que
vise l’acteur dans la situation immédiate. Ils sont très largement les
opportunités que l’acteur découvre dans la situation, ces opportunités sont
elles-mêmes fonction de la capacité de l’acteur à les découvrir à l’état
latent, à assumer et soutenir les risques associés à chaque stratégie et à
établir des relations avec d’autres et donc des relations d’interdépendance.
Les objectifs sont fonction du contexte mais sont aussi construits au fur et
à mesure que la situation organisationnelle évolue. Donc les objectifs sont
changeants, ils varient en fonction des niveaux d’aspiration des acteurs et
du déroulement des situations organisationnelles. Par exemple, en cours
d’action, certains sont rejetés, d’autres ajoutés ou découverts. Il est donc
impossible d’expliquer le comportement des acteurs par un objectif
général unique et lointain.
En conséquence, les objectifs pertinents sont très proches, présents et
concrets et non ce que les acteurs entretiennent comme objectifs lointains
et abstraits Cependant, bien entendu, les objectifs concrets peuvent
parfaitement être rationalisés, consciemment ou inconsciemment sous
forme d’objectifs abstraits à long terme correspondant à des valeurs. Ceci
ne veut pas dire d’ailleurs que des objectifs à long terme n’existent pas,
mais le plus souvent, ils ne sont pas les plus pertinents pour expliquer un
comportement dans une situation donnée. Ceux qui le sont, eux, sont
immédiats. Cela veut dire qu’un individu ne fonctionne pas par référence à
ce qu’il a comme objectifs lointains et abstraits, qui ne sont pas pertinents
à une situation organisationnelle, même s’ils existent, mais qu’il fonctionne
par petits objectifs, séquentiels, parcellaires, parfois contradictoires,
réajustés continuellement en fonction d’une situation et de la façon dont
elle évolue et se modifie, donc changeants et éventuellement
contradictoires.
La plupart du temps, la situation dans laquelle nous sommes impliqués,
nous amène à formuler des objectifs immédiats et concrets, conduisant à
une stratégie qui entraîne un comportement, expliqué dans un discours,
rationalisé en valeurs.
Il faut aussi en outre reprendre ici les conséquences de la distinction
entre objectifs latents et objectifs manifestes. D’une part, l’acteur n’a
généralement pas intérêt à découvrir ses objectifs car cela donne aux
autres acteurs des capacités accrues d’action sur lui, donc ses objectifs
sont à cacher. Si je dis clairement ce que je veux, je permets
éventuellement aux autres de m’en priver.
D’autre part les objectifs manifestes sont aussi ceux que l’acteur avance
pour expliquer son action mais les objectifs latents sont ses objectifs réels,
même si encore une fois il ne les a pas toujours ni clairement formulés ou
explicités, ni même obligatoirement présents consciemment à l’esprit.
De ce fait, l’information n’est généralement jamais complète,
l’information sur une situation donnée n’est jamais disponible totalement.
Le troisième concept est celui de ressources et de contraintes. Dans
une situation organisationnelle donnée, en fonction de ses objectifs un
acteur se trouve en face d’éléments de fait et de données qui vont être
favorables ou défavorables à la progression vers ses objectifs. Ce sont ses
ressources et ses contraintes. Les ressources sont ce dont l’acteur a intérêt
à se servir, et les contraintes ce qui se dresse contre lui et qu’il doit
affronter. Certaines d’entre elles sont inhérentes à l’acteur et à qui il est.
Elles proviennent de ses caractéristiques individuelles, ses capacités
psychologiques, intellectuelles, culturelles. Mais, d’autres proviennent
aussi de ses capacités sociales de mobilisation ou non d’atouts extérieurs à
la situation mais pertinents. D’autres ressources et contraintes sont
extérieures à l’acteur. La situation dans laquelle il se trouve est bien sûr
structurée par l’organisation à laquelle il appartient. L’organigramme, le
règlement intérieur, la tâche à accomplir en elle-même et la règle suivant
laquelle elle doit être accomplie sont sources de ressources et de
contraintes pour les individus membres de l’organisation.
Pour illustrer d’un exemple classique et trivial les notions de ressources
et de contraintes, la règle que fixe une heure de début de travail est une
contrainte pour le salarié à qui elle impose d’être au moment donné à son
poste de travail. C’est aussi une ressource dans la mesure où l’on ne peut
pas lui imposer d’être présent plus tôt sur ce lieu de travail.
Contraintes et ressources donc bien évidemment n’existent pas en
ellesmêmes. Elles ne sont pertinentes qu’en fonction des objectifs et ne
sont jamais abstraites mais toujours très concrètes. N’ayant pas les mêmes
objectifs latents ni les mêmes capacités, dans une situation concrète
identique, deux individus ne verront pas les mêmes contraintes et
ressources.
En effet, contraintes et ressources dépendent non seulement des
éléments favorables et défavorables perçus par individu dans une situation
organisationnelle relativement à ses objectifs, mais aussi de ses capacités à
découvrir et créer des opportunités.
Le quatrième concept est celui de stratégie. Nous avons noté que les
acteurs n’ont pas toujours un projet clair ou des objectifs conscients et
cohérents, mais, d’une part, il n’y a pas d’acte gratuit, et d’autre part ils
sont actifs et non pas prédéterminés. Même s’ils sont inconscients, diffus,
contradictoires, les objectifs inspirent les conduites. Les individus ne sont
pour autant pas toujours en capacité d’énoncer clairement leurs objectifs.
C’est le cas car, d’une part, ils ne le savent peut-être pas eux-mêmes
consciemment, d’autre part des contradictions existent dans leurs
objectifs, par ailleurs, s’ils le savent ils ont sans doute rationalisé leurs
objectifs latents, de plus leurs objectifs manifestes ne révéleront rien, et
enfin ils ont intérêt à les cacher. Pour un acteur, avoir une stratégie ne veut
pas forcément dire avoir conscience de sa stratégie. L’on se persuade soi-
même de ses objectifs manifestes et l’on justifie son propre comportement
vers ses objectifs latents en le rationalisant comme une démarche vers ce
dont on s’est persuadé. Par contre, la compréhension du cadre constitué
par les ressources et contraintes qu’affronte autrui et de ses stratégies
pour les gérer permettra de reconstruire ex-post ses objectifs latents et
donc réels.
L’idée que les individus ne sont pas conditionnés ou totalement
déterminables doit être soulignée car elle va à l’encontre des postulats des
théories traditionnelles. Si les individus ne peuvent pas totalement être
déterminés à l’avance soit par l’action sur les structures de l’organisation,
soit par l’action sur les structures de leur personnalité, cela signifie bien en
effet qu’il ne peut pas y avoir de « one best way ». Donc, quels que soient
les raffinements dans la décomposition du travail, dans l’affinage de
l’organigramme, dans la manipulation des émotions, les individus restent
libres de choisir, d’agir ou non dans le sens « indiqué » en quelque sorte
par l’organisation. L’idée qu’il est possible de presser tel bouton, physique
ou psychologique, monétaire ou émotionnel et d’obtenir tel
comportement est donc erronée. Pour Crozier et Friedberg, les individus
sont (presque) toujours actifs et (presque) jamais prédéterminés. Certes,
dans la plupart des cas les individus agissent dans le cadre des contraintes
posées par l’organisation, ses structures et ses règles, donc dans certaines
limites, plus ou moins étroites. Mais à l’intérieur de ces limites ils restent
libres. Ils ont presque toujours le choix entre plusieurs conduites ou
attitudes pour progresser vers leurs objectifs, avec des coûts variables et
des probabilités de succès variables attachés à chaque conduite.
Il est fondamental de tenir que les individus sont libres, dans des
situations plus ou moins contraintes certes, mais qu’ils conservent presque
toujours des degrés de liberté et une marge de choix. Il est clair que cette
liberté a des limites dues aux caractères plus ou moins contraignants de la
situation mais il est clair aussi que ces limites peuvent être repoussées très
loin.
Il s’ensuit que le comportement et les conduites des individus ne sont
jamais totalement prévisibles, donc jamais totalement déterminables ou
programmables à l’avance, quel que soit le degré de structuration de la
situation.
Puisque les individus ont le choix entre plusieurs conduites dans la
plupart des cas comment donc déterminent-ils ce choix d’une conduite ?
La réponse est simple : ils élaborent une stratégie en fonction des
ressources et contraintes qu’ils perçoivent dans la situation, progressant
vers leurs objectifs, et qui est adaptée à leurs propres actions et à celles
des autres acteurs pertinents impliqués dans la situation. Le fait que ce
soient les perceptions qui comptent confirme d’ailleurs l’impossibilité de
prédéterminer les conduites : dans une même situation, deux individus
n’auraient pas le même comportement car ils auront des objectifs et des
perceptions, de leurs ressources et contraintes différents.
Ces stratégies sont rationnelles, mais elles n’en sont donc pas pour
autant prévisibles et ceci pour deux raisons. D’une part, comme nous
venons de l’indiquer, les perceptions de chaque individu lui sont uniques
en raison de sa vision individuelle de la situation en fonction de ses
objectifs plus ou moins conscients. D’autre part, cette rationalité est
limitée au sens de Simon. Loin d’être maximisatrice et synoptique, elle
fonctionne suivant un mode de satisfaction et elle est séquentielle. Les
critères de satisfaction minimum et l’ordre des séquences sont aussi
particuliers à chaque individu. Tout ceci rend donc non seulement les
conduites imprévisibles et les objectifs quasi impossibles à découvrir, mais
aussi les stratégies difficilement discernables. Or, il importe de se souvenir
que la rationalité de ces stratégies est limitée certes, et donc que ces
limites les rendent difficiles ou impossibles dans certains cas à discerner
par l’observateur ou par les autres acteurs concernés, mais aussi qu’elles
sont cependant parfaitement rationnelles pour l’individu qui les suit, dans
le cadre des paramètres qu’il perçoit et qui ne sont pas forcément ceux
que perçoivent les autres acteurs.
Il convient enfin de noter que ces stratégies peuvent être ou sont à la
fois offensives et défensives, c’est-à-dire que les conduites des individus
tendent à réaliser les objectifs et aussi à échapper aux conséquences des
objectifs recherchés par les autres dans la mesure où ils constituent des
contraintes. Ils cherchent activement à saisir des opportunités pour
améliorer leur situation et ils cherchent aussi à protéger et maintenir leur
capacité à agir librement.

2.2. L’intégration des stratégies permet d’expliquer le


fonctionnement des organisations
Les quatre concepts décrits précédemment (acteurs, objectifs,
ressources et contraintes, ainsi que stratégies) s’articulent entre eux pour
expliquer le fonctionnement des organisations.
D’une part, les stratégies qui tendent vers les objectifs individuels des
acteurs s’intègrent entre elles dans des jeux entre les acteurs. Ceux-ci
mobilisent leurs atouts, mettent en place des stratégies, dans chaque
situation que constitue un jeu pour un certain nombre d’acteurs
pertinents, qui, tous, cherchent à satisfaire leurs objectifs. Chaque acteur
dans le jeu est libre mais veut avancer ses intérêts, gagner, satisfaire ses
objectifs compte tenu de ses ressources et de ses contraintes. Il doit donc,
s’il veut continuer à jouer et gagner, adopter une stratégie rationnelle en
fonction de la nature du jeu et tenir compte d’un certain nombre de
contraintes que cela lui impose. Toute organisation est donc un jeu de
coopération à un certain degré tant que les membres veulent pouvoir
continuer à « jouer », et le produit du jeu est le résultat commun,
l’objectif de l’organisation.
Cet objectif global résulte de la poursuite par les acteurs de leurs
propres intérêts dans le(s) jeu(x)280 d’acteurs où ils sont impliqués. Pour
gagner ils doivent continuer à jouer. Cependant, il existe de multiples jeux,
en conséquence une organisation peut se définir comme un système
d’action concret c’est-à-dire l’ensemble des jeux dans lesquels ses
participants sont acteurs, qui définissent les buts réels de l’organisation et
la façon dont elle affronte les problèmes concrets quotidiens et coordonne
les actions de participants/membres. Une organisation est donc un
ensemble de jeux, qui sont eux-mêmes un ensemble de stratégies
rationnelles des acteurs (en rationalité limitée).
Enfin des mécanismes de régulation maintiennent la structuration des
jeux, leur donnent une certaine stabilité et donc établissent la structure de
l’organisation. Il y a en effet des limites à la poursuite effrénée de ses
objectifs par un membre de l’organisation. Individus et groupes sont
condamnés à vivre ensemble. De plus, maintenir les avantages d’un acteur
dépend du maintien de ceux des autres, pour qu’ils continuent à
collaborer. Par ailleurs, la reconnaissance d’un minimum d’efficacité
s’impose à tous pour la survie de l’organisation. Enfin, les relations entre
acteurs se stabilisent avec le temps. Ces régulations peuvent prendre la
forme de coutumes plus ou moins institutionnalisées ou de mécanismes
automatiques d’ajustement mutuel (tel celui du marché). Elles orientent
les efforts et conditionnent les résultats des efforts de chacun. La
régulation d’un système est donc le choix de modèles de jeux, la
structuration de ces jeux et de leur rapport les uns avec les autres. C’est le
rôle de la direction de l’organisation d’avoir la capacité d’influencer la
survie de l’ensemble des jeux, et la stabilité et la régulation de chaque jeu
dont dépendent les capacités de jouer des autres membres de
l’organisation.
C’est à ce niveau que l’on retrouve l’analyse de système. Par exemple,
les cercles vicieux du système bureaucratique français ou la notion plus
large de cercle vicieux en général où la poursuite des stratégies amène à
des résultats contre intuitifs au niveau du système d’action concret
considéré.

2.3. La conception du pouvoir dans l’analyse stratégique


La notion de pouvoir est centrale dans l’analyse stratégique de Crozier
et Friedberg. C’est ce qui crée l’articulation des jeux entre acteurs.
Les relations entre acteurs dans cette conception sont toujours des
relations de pouvoir. En société, au sein des organisations, les individus
dépendent des autres dans une certaine mesure, pour leurs objectifs mais
aussi pour établir leur identité à travers la perception et la définition de soi
par les autres qui construisent et maintiennent leur propre identité.
Mais, dans cette analyse, la nature du pouvoir est particulière. Au-delà
de la relation de dépendance, Crozier et Friedberg développent une
approche du pouvoir au sein de laquelle l’incertitude a une place
centrale. Ainsi, pour ces derniers, dans les organisations, la source
essentielle, unique de dépendance, c’est l’incertitude. Une incertitude se
définit comme un élément important pour un acteur, mais dont le contrôle
lui échappe. Celui qui a le pouvoir de maîtriser cette incertitude a du
pouvoir sur l’acteur pour qui elle est importante.
Or, une organisation est caractérisée par une multitude d’incertitudes
et leurs interactions. En effet, dans toute organisation les individus sont
interdépendants. L’exécution satisfaisante des tâches de chacun dépend
toujours soit d’une action directe, soit d’une information transmise par
d’autres. Le pouvoir est lié à l’impossibilité d’éliminer l’incertitude du
fonctionnement de l’organisation, elle-même découlant de l’impossibilité
de tout prévoir, c’est-à-dire de la conséquence directe de la rationalité
limitée des acteurs en présence dans toute situation organisationnelle. Le
pouvoir de chacun, c’est la capacité de faire régner l’incertitude sur le fait
de savoir s’il va exécuter cette action ou fournir cette information dont a
besoin l’autre pour agir avec succès à son tour, et s’il le fait, de le faire
correctement. Ce pouvoir de chacun c’est l’incertitude qui existe chez les
autres, sur l’exercice, qu’il fera de sa propre liberté d’agir ou de ne pas agir
conformément à ce que les autres attendent, donc de leur dépendance ou
de son indépendance. Plus un individu est, ou est perçu, comme libre de
faire ou de ne pas faire ce que les autres attendent de lui, plus il est libre,
et plus il peut obtenir des autres des conduites conformes à ses objectifs,
car ils vont agir ainsi en espérant qu’il va satisfaire leurs attentes, donc plus
il a de pouvoir. Il y a un lien positif entre autonomie et pouvoir. Plus un
individu est libre d’agir ou non comme d’autres ont besoin qu’il agisse et
plus son action est imprévisible, plus il a le pouvoir de faire se conformer à
ses propres attentes ceux qui dépendent de son action afin d’obtenir de lui
cette action conforme à leurs besoins.
D’autre part, plus l’incertitude qu’il fait régner est importante,
pertinente au bon fonctionnement de l’organisation plus il a de pouvoir. Le
pouvoir maximum va à ceux qui contrôlent les incertitudes les plus
cruciales pour l’organisation. Mais tout le monde a du pouvoir. Chacun
agissant suivant sa rationalité limitée mais librement et délibérément a
une zone d’autonomie qu’il cherche à protéger (défensivement) et à
étendre (offensivement). Cependant, chacun n’a pas le même pouvoir :
plus l’incertitude que représente cette zone d’autonomie est importante
pour un autre acteur, plus on a du pouvoir sur lui. Plus elle est importante
pour la survie de l’organisation qui existe dans un environnement incertain,
plus elle est importante aux autres pour la réalisation de leurs propres
buts, plus l’acteur a de pouvoir dans l’organisation. Cela bien entendu n’est
pas forcément lié à la hiérarchie et à la position ; ou du moins cela n’y est
lié que dans une certaine mesure. Hiérarchie et positions créées par la
structure formelle de l’organisation, structurent un certain nombre de jeux
mais d’autres jeux multiples se déroulent autour d’elle.
On peut recenser deux types de facteurs d’incertitude, ceux découlant
de la tâche à exécuter elle-même et ceux découlant des règles qui ont été
établies pour l’accomplir. Une organisation n’est donc ni un organigramme
seulement, structure formelle, ni un sociogramme seulement, structure
informelle, mais un réseau de pouvoir, et donc de négociations
permanentes où chacun joue sa participation en échange de conduites
conformes à ses intérêts de la part des autres acteurs. Nous avons vu que
les individus gardent une marge de liberté dans presque toutes les
situations, et ils l’utilisent pour accroître leur pouvoir, mais leur
comportement est cependant fonction de la structure de l’organisation qui
fixe des marges à l’exercice de leur liberté. Dans les termes de Crozier et
Friedberg, le système organisationnel manipule les acteurs, mais les
acteurs manipulent le système. Les acteurs bien entendu sont inégaux. Les
plus puissants jouent sur plusieurs relations de pouvoir cumulables, mais
tous ont des stratégies, tous sont imprévisibles, donc tous contrôlent des
incertitudes et ont un certain degré de pouvoir dans leurs relations
réciproques. Dans la relation de pouvoir entre deux acteurs, l’un va retirer
davantage que l’autre mais l’autre n’est jamais totalement démuni.
L’étendue du pouvoir de l’individu dans une organisation, donc dans
ses relations avec les autres membres de l’organisation, dépend du type
de zone d’incertitude qu’il contrôle. Crozier en distingue quatre catégories
: la maîtrise d’une compétence particulière, la maîtrise du lien entre
l’organisation et une partie pertinente de son environnement (pouvoir à la
frontière du marginal-sécant), la maîtrise de la communication et de
l’information, la maîtrise des zones d’incertitudes qui découlent de
l’existence des règles organisationnelles, qui elles-mêmes créées pour
réduire une incertitude en créent en retour automatiquement d’autres par
leur seule existence et le jeu qui se crée autour de leur application stricte
ou flexible.
Le but des stratégies des acteurs va donc être de manipuler la relation
de dépendance et la prévisibilité de leur comportement propre, et de celui
de l’adversaire, directement ou indirectement, en modifiant les conditions
de la situation et les règles qui régissent les rapports des acteurs entre eux.
Ceci modifie la distribution des ressources et contraintes. Les stratégies
vont tendre pour chaque acteur à élargir sa propre marge de liberté et de
comportement arbitraire possible et à réduire celle des autres. Ceci aura
pour résultat de le placer en situation de garder le choix entre des
comportements variés en limitant autant que possible cette possibilité
autour de lui.
Pour illustrer leur propos, Crozier et son équipe vont réaliser de
nombreuses études de cas. Parmi celles-ci citons celle de la SEITA (dite
aussi Études des Tabacs).
A la fin des années 1950, période à laquelle se déroule l’étude, la SEITA
(Service d’Exploitation Industrielle des Tabacs et Allumettes) est une grande
entreprise industrielle qui fabrique et commercialise des cigarettes et des
allumettes. Elle dispose d’un monopole sur le marché français des Tabacs.
La SEITA répond aux caractéristiques d’une bureaucratie au sens de Weber.
L’équipe de Crozier et Friedberg, qui réalise des entretiens, va mettre
en évidence des tensions et conflits entre deux groupes d’individus : d’une
part les ouvriers de production et d’autre part les personnels d’entretien.
L’analyse stratégique de la SEITA permet de mettre en lumière que des
problèmes liés aux arrêts des machines sont à l’origine des tensions. La
gestion de la panne fait en effet apparaître, à côté de la hiérarchie
officielle, une hiérarchie informelle, au sein de laquelle les ouvriers
d’entretien sont les véritables « chefs » des ateliers car ils sont les seuls à
avoir la compétence de résoudre les pannes. Dit autrement, les ouvriers
d’entretien, qui disposent d’un monopole d’expertise, savent s’emparer de
l’incertitude liée au diagnostic pour exercer leur pouvoir au sein de l’atelier.
D’ailleurs,
Crozier et son équipe s’apercevra que les notices d’entretien et plans des
machines ont disparu, renforçant ainsi le pouvoir des agents d’entretien
des machines.
Les ouvriers de production et les chefs d’atelier ne peuvent que subir le
bon vouloir du personnel d’entretien, qui contrôle le fonctionnement des
machines. Le sentiment de mépris et de supériorité affiché par les ouvriers
d’entretien à l’égard de leurs collègues ne fait que refléter leur position
dominante dans l’atelier. Face à cette supériorité, les chefs d’atelier,
détenteurs de l’autorité légitime, se sentent remis en question dans leur
fonction hiérarchique, ce qui explique la virulence de leurs propos à l’égard
des ouvriers d’entretien.

2.4. Cadre méthodologique découlant de l’analyse stratégique


Une méthode de compréhension des organisations se déduit des
éléments que nous venons de passer en revue : c’est la méthode de
l’analyse stratégique. Si les individus sont imprévisibles, leur rationalité
limitée, leurs stratégies souvent inconscientes et incomplètement
formulées, leurs objectifs latents, il est cependant possible de comprendre
l’organisation.
Pour ce faire, certaines étapes sont à franchir. Tout d’abord, il faut faire
abstraction du plan normatif et de notre propre système de valeur ou
d’évaluation. Le salarié a toujours un intérêt à se comporter de telle ou
telle manière, sa conduite correspond toujours à une stratégie, consciente
ou inconsciente, il convient pour comprendre son comportement, de
découvrir cette stratégie. Par conséquent, il faut reconstuire le jeu des
acteurs. Pour ce faire, une grille d’analyse stratégique, permet pour les
différents acteurs, de reconstruire leurs stratégies en analysant leurs
objectifs manifestes, leurs comportements, leurs contraintes et ressources
afin d’en déduire leurs stratégies et finalement leurs objectifs latents, c’est-
à-dire ceux qui sont les plus profonds mais aussi le plus cachés et difficile à
décoder.

Cette grille ne se remplit pas case par case, de façon linéaire, mais de
façon itérative, au fur et à mesure de l’observation du déroulement des
jeux entre acteurs et quand l’information disponible est validée par
l’analyse. La difficulté est, bien sûr, que nous n’avons jamais tous les
éléments. Les situations organisationnelles ne sont jamais claires, et
l’intérêt de chacun de ceux qui y sont impliqués n’est pas de les clarifier.
Néanmoins, les comportements sont directement observables, les
objectifs manifestes annoncés, et, avec l’aide des outils décrits plus haut
les ressources et contraintes sont plus facilement inférables pour déchiffrer
stratégies et objectifs latents. C’est de cette manière qu’il est alors possible
de comprendre les jeux qui opèrent entre les acteurs et donc de pouvoir
agir sur les relations de pouvoir et de négociation au sein des
organisations.

3. La théorie de l’engagement
L’analyse des relations de pouvoir au sein des organisations peut aussi
conduire à des mécanismes des « manipulation ». Certes, nous avons déjà
vu au chapitre 6 qu’il existe un certain nombre de biais cognitifs (erreurs
de cadre, heuristiques cognitifs, mécanismes d’influence) qui peuvent
influencer les décisions des acteurs et être utilisés de manière
manipulatoire (voir notamment les travaux de Cialdini), mais la théorie de
l’engagement va bien plus loin, et constitue une approche originale et
novatrice, en ce qu’elle met en lumière un certain nombre de mécanismes
qui portent sur les relations de pouvoir au sein des organisations.
La théorie de l’engagement de Joules et Beauvois281 montre qu’il est
possible d’influencer, c’est-à-dire d’amener l’individu à agir dans le sens
souhaité, non pas par la contrainte ou en cherchant à le convaincre, mais
dans le cadre d’une soumission pleinement consentie.

3.1. Les principes de la théorie de l’engagement


La théorie de l’engagement de Joule et Beauvois s’appuie tout d’abord
sur la notion de dissonance cognitive qui est issue des travaux de Kiesler282.
La théorie de la dissonance cognitive énonce que l’individu est à la
recherche d’un équilibre cognitif qui, lorsqu’il est rompu, génère un état de
tension, lequel motive à son tour l’individu à tendre vers un univers
cohérent. Lorsqu’il y a un déséquilibre entre ses croyances, opinions,
comportements ou perceptions du réel, l’individu ressent une tension qu’il
doit résoudre. Pour la résoudre, il peut :
• Soit modifier sa croyance pour l’adapter à sa perception de la réalité;
• Soit réinterpréter la réalité pour l’adapter à sa façon de penser, à ses
croyances.
• Faire comme si l’un des éléments dissonants n’avait pas existé, les
oublier.

C’est cette dissonance cognitive qui va être à l’origine du mécanisme


d’engagement. Selon Joule et Beauvois (2014), « l’engagement correspond,
dans une situation donnée, aux conditions dans lesquelles la réalisation
d’un acte ne peut être imputable qu’à celui qui l’a réalisé. »
La notion d’engagement correspond au fait que lorsqu’on a pris une
décision, on a tendance à la maintenir (plus facilement d’ailleurs par petits
investissements successifs), même si elle n’a pas eu les effets attendus. De
ce fait, les décisions qui suivent, du fait de l’engagement, seront biaisées
pour justifier les précédentes. Il en résulte une escalade de l’engagement
dans un cours d’action qui s’est révélé infructueux après une décision
initiale. On s’y accroche, même quand celle-ci est démentie par les faits et
on persévère dans ce cours d’action qui est indiqué par la décision initiale.
Les décisions successives dans cette direction découlent facilement de la
première, tout en étant tout aussi infructueuses.
Les auteurs donnent de nombreux exemples pour illustrer cette notion.
Nous leur en empruntons ici quelques-uns.

Exemple de la professeure des Écoles


Extrait de Joule et Beauvois 2014
Une professeure des écoles doit partir 10 minutes avant la fin de sa
classe. Elle leur donne un travail et souhaite que les élèves éteignent les
lumières en partant. Pour ce faire, elle se dit que la meilleure méthode
est de les convaincre de l’utilité des économies d’énergie. Elle leur dit :
« Aujourd’hui, une fois n’est pas coutume, je vais devoir vous quitter à 5
heures moins quart. Vous ferez donc seul le prochain exercice de calcul
en attendant la sonnerie de la cloche. Avant de partir, je voudrais vous
dire quelque chose de très important. L’énergie coûte cher, vous vous
souvenez de notre dernier cours de géographie. Je suis sûre que vos
parents vous ont appris qu’il ne faut pas gaspiller l’électricité. Je vous
demande donc de ne pas oublier d’éteindre la lumière en partant… Au
revoir les enfants.
En arrivant le lendemain.... Les lumières de la classe brillent de tous leurs
feux. »
Elle réfléchie et se dit qu’elle n’a pas du assez les motiver et les
responsabiliser. Quelques jours après une situation similaire se présente
à nouveau. « Je suis désolée, ce ne sont pas mes habitudes, mais il me
faut encore vous quitter précipitamment. Vous vous souvenez hier, je
vous ai demandé d’éteindre la lumière en partant. Ce matin en arrivant,
j’ai pu constater que personne ne l’avait fait. Aujourd’hui j’espère qu’il
s’en trouvera un parmi vous suffisamment responsable pour y penser.
Vous savez, une lampe qui brule toute la nuit, c’est de l’argent jeté par
les fenêtres. Je ne vais pas insister, car je sais que vous avez tous, autant
que vous êtes, le sens des responsabilités. Je compte sur vous. A demain.
En arrivant le lendemain.... Même résultat, les lumières sont toujours
allumées ! »
Finalement, voici comment cela fini par marcher :
« Mes enfants, ne m’en veuillez pas... Mais je dois encore partir tôt ce
soir. Qui veut bien éteindre les lumières en partant ? Pierre, tu veux bien
n’est ce pas ?.” Pierre surpris ne peut que dire un “Oui Madame”. Tu es
bien d’accord ? renchérit-elle, sinon je demande à quelqu’un d’autre ? A
nouveau Pierre dit oui.
Le lendemain matin les lumières étaient éteintes. »
Comment expliquer cela ? Ni la persuasion, ni la motivation n’ont
fonctionné. Ce qui a fonctionné, c’est l’acte engageant. En effet, Pierre a
agi en fonction de ses actes antérieurs. C’est parce qu’il a dit « oui
madame » qui a éteint les lumières. Elle a obtenu de Pierre a acté d’une
grande banalité (comment aurait-il pu dire non) et cela l’a amené à faire
l’action souhaité par la Professeure. Bien sûr, elle aurait pu promettre
une récompense (sortie au théâtre si les lumières sont éteintes) ou une
sanction (devoir supplémentaire) et elle aurait pu obtenir un résultat
similaire, mais l’ambiance de la classe n’aurait pas forcément été la
même.

3.2. L’effet de gel, l’amorçage et le pied dans la porte


La notion d’engagement repose principalement sur trois mécanismes
principaux qui sont l’effet de gel, l’amorçage et le pied dans la porte. Nous
les décrivons successivement, en reprenant à nouveau des exemples
donnés par Joule et Beauvois. Un aspect important de la théorie consiste à
montrer que ces mécanismes peuvent être utilisés à des fins
manipulatoires, dans le cadre de jeux de pouvoirs.
L’effet de gel s’appuie sur la tendance spontanée des individus à
adhérer à leurs propres décisions. Cette persévérance dans la décision
repose sur un mécanisme d’autojustification, le besoin de l’individu
d’affirmer le caractère rationnel de sa première décision dont découlent les
autres.
Un tiers peut alors utiliser ce mécanisme à des fins manipulatoires en
amenant l’individu à prendre une « petite décision » engageante, qui le
conduira à d’autres décisions ultérieures, en cohérence avec la première.
Ainsi, plutôt que de reconnaître une erreur initiale de jugement, d’analyse
ou d’appréciation, l’individu préfère la plupart du temps, du fait du
mécanisme d’engagement, continuer dans un cours d’action qui lui est
moins favorable que d’autres possibles : il rationalisera en actes.

L’Effet de gel (exemple de Moriarty 1975)


Vous êtes sur la plage, il fait beau, vous vous reposez tranquillement.
Une personne que vous ne connaissez pas, qui est installée juste à côté
de vous, mais que vous n’aviez pas remarquée, vous demande de bien
vouloir garder ses affaires pendant qu’elle va se baigner. Vous acceptez
bien sur, difficile de dire non.
Un voleur survient. Que faites-vous ?
Vous réagissez bien sûr. Vous vous levez, le poursuivez et lui arrachez le
sac.
Tout le monde autour de vous est en admiration, vous êtes un héros !
Non, vous réagissez simplement à un mécanisme d’engagement.
Auriez-vous eu le même comportement si la personne ne vous avait pas
demandé de garder ses affaires ? C’est parce que vous avez accepté de
le faire que vous avez protégé le sac.
Moriarty montre que 95 % des personnes qui ont accepté de garder le
sac interviennent contre le voleur et 90 % de celles qui ne sont pas
engagées restent les yeux rivés sur leur lecture et font comme si elles ne
voyaient rien.

L’amorçage consiste à faire prendre à quelqu’un une décision sur une


mauvaise base d’information, soit en lui cachant le coût réel de la décision
qu’on souhaite qu’il prenne (on ne dit pas toute la vérité), soit en mettant
en avant des avantages fictifs.
L’importance du sentiment de liberté est ici aussi fondamentale. Seules
les décisions prises en ayant l’impression de les avoir prises librement
induisent chez le sujet un comportement de persévérance. La contrainte
l’efface.
Une fois la décision prise, on rétablit la vérité. Cette vérité fait alors
apparaître la décision comme moins avantageuse qu’elle ne le paraissait
jusqu’alors, mais le phénomène d’amorçage conduit la plupart du temps à
ce que la personne maintienne sa décision, par un mécanisme
d’autorationalisation. On demande alors à la personne amorcée si elle
maintient sa décision. Le phénomène d’amorçage se traduit généralement
par une persévération de la décision initiale.
Le mécanisme du pied dans la porte consiste à obtenir une « première
» petite faveur, afin d’en obtenir d’autres plus importantes par la suite. Un
comportement préparatoire non problématique et fort peu onéreux
extorqué par une demande faite au sujet dans un contexte de libre choix
(qui facilite l’engagement), par exemple du type de ceux qui sont acceptés
de façon routinière dans la vie sociale courante (garder une place dans la
queue, donner du feu, surveiller un paquet quelques instants) est suivi
d’une requête pour un comportement nettement plus coûteux (et/ou plus
problématique), qui n’aurait pas été obtenue aussi souvent et facilement si
elle avait été présentée seule à l’origine.
La théorie de l’engagement met en évidence l’idée qu’il ne sert à rien
de contraindre les individus et ou de chercher à mettre de la pression
pour qu’ils réalisent des actions. Il est plus efficace de les amener à
effectuer des actes engageants, de manière à les amener à une
soumission librement consentie. Cette théorie met aussi en lumière que
les mécanismes de l’engagement peuvent être utilisés par de manière
manipulatoire. Ils permettent d’amener l’autre à faire un certain nombre
d’actions que l’on souhaite lui voir réaliser, et en faisant en sorte qu’il n’ait
pas conscience de cette manipulation, voire pire qu’il est le sentiment
d’agir librement. De ce fait, la connaissance de ces mécanismes
d’engagement est source de pouvoir.
Ainsi, nous disent Joule et Beauvois : « ces procédures permettent
d’amener les gens à faire librement quelque chose qu’ils n’auraient pas fait
spontanément ou à faire, tout aussi librement, quelque chose qu’ils
n’auraient pas aimé faire. (…) Nous parlons de soumission librement
consentie (Joule et Beauvois, 1987), soumission dans la mesure où le
comportement réalisé est bien celui que l’intervenant attendait, librement
consentie dans la mesure où les gens n’ont subi aucune pression et qu’ils
ont, à juste titre, le sentiment d’avoir agi de leur plein gré ».

4. La théorie de la régulation conjointe


Les systèmes sociaux reposent sur des règles qui rendent l’action
collective possible. La théorie de la régulation développée par Jean Daniel
Reynaud283 (1926-2019) s’intéresse à la production des règles et explicite le
fonctionnement de l’action collective. Ces règles se construisent en
permanence. Elles évoluent.
A partir de la négociation, et en intégrant le conflit, les interactions
sociales sont des relations réglées, mais elles ne sont pas réglées de
l’extérieur par des normes qui existeraient en dehors de la société, à
l’opposé elles sont réglées par les acteurs eux-mêmes.
En effet, l’élément essentiel de l’échange réside dans les règles de
l’échange. Un exemple peut être pris dans l’exemple du don contre don de
Mauss. Dans cet exemple, on donne quelque chose, et on attend un contre
don en réponse. Celui qui prend l’initiative du premier don impose à l’autre
d’entrer dans une relation d’échanges réglés. La première décision dans le
don c’est de choisir entre l’acceptation ou non du lien social. Or, cela peut
être généralisé. Un grand nombre des échanges – y compris économiques
– ne sont pas seulement des échanges de produits ou de matières, mais
sont des échanges durables qui tissent un lien social dans lequel les règles
sont essentielles.
Reynaud distingue les règles autonomes et les règles de contrôle.
Les règles de contrôle émanent de la direction de l’entreprise et de
l’encadrement. Ainsi, un groupe de travail reçoit des directives de
l’extérieur (hiérarchie, services fonctionnels) qui ont trait à la répartition
du travail, aux méthodes à appliquer et aux productions à atteindre.
Les règles autonomes correspondent à des règles souvent informelles
qui se créent et qui permettent au groupe de fonctionner. Elles leur
permettent d’acquérir un certain pouvoir.
Toute unité de travail est en permanence le siège de négociations
entre les acteurs porteurs des règles de contrôle et ceux qui sont
producteurs de règles autonomes.
Cela conduit à une lecture du fonctionnement des organisations en
termes de négociation et de jeux de pouvoir entre les acteurs qui les
composent.
La confrontation entre les règles de contrôle et les règles autonomes
sont à l’origine de la régulation conjointe.
En conclusion, les approches en termes de pouvoir et de négociation
qui se sont développées à la suite des analyses de Cyert et March, puis plus
récemment à travers les travaux de Reynaud, Crozier et Friedberg ou
encore de Joule et Beauvois sont très riches d’enseignements et
nourrissent encore actuellement la théorie des organisations de manière
fructueuse. Elles permettent d’analyser les mécanismes d’influence et les
jeux de pouvoir et de négociation qui opèrent entre les acteurs au sein des
organisations.

Focus : L’essentiel sur les théories des organisations, pouvoir et


négociation
Dans le prolongement de Cyert et March, un certain nombre de théories
centrent l’attention sur les relations de pouvoir et de négociation qui
opèrent entre les acteurs au sein des organisations.
Crozier et Friedberg (1977) développent une analyse stratégique des
organisations, qui s’appuie sur 4 concepts : les acteurs, les objectifs, les
ressources et contraintes et enfin les stratégies. Cette démarche, qui
s’inscrit dans une approche en termes d’individualisme méthodologique,
permet de déboucher sur une méthode (ou grille) d’analyse des
organisations, au sein de laquelle les relations de pouvoir et de
négociation sont centrales.
Les stratégies qui tendent vers les objectifs individuels des acteurs
s’intègrent entre elles dans le cadre de « jeux » entre acteurs.
L’organisation est comprise comme un jeu de coopération entre les
acteurs, dans lequel chacun cherche à réaliser ses objectifs personnels
(compte tenu de ses ressources et contraintes) et le produit du jeu est le
résultat commun, l’objectif de l’organisation.
Une organisation est un ensemble de jeux entre acteurs, qui eux-mêmes
constituent un ensemble de stratégies rationnelles des acteurs (dans
lesquelles ils cherchent à satisfaire leurs objectifs personnels en fonction
de leurs ressources et contraintes, dans le cadre d’une rationalité limitée).
Pour Crozier et Friedberg, le pouvoir de chacun réside dans l’incertitude
que l’on crée, pour les autres, sur son action à venir.
Crozier et Friedberg distinguent alors quatre sources fondamentales de
l’incertitude : la maîtrise d’une compétence ou d’une spécialisation
particulière, la connaissance de l’environnement, la maîtrise de la
communication et de l’information et l’existence de
règles organisationnelles.

L’analyse des relations de pouvoir au sein des organisations peut conduire


à des mécanismes de « manipulation ». C’est ce que montrent Joule et
Beauvois (2002) à travers leur théorie de l’engagement. Ainsi, pour ces
derniers, il est possible d’amener l’individu à agir dans le sens souhaité,
non pas par la contrainte ou en cherchant à le convaincre, mais dans le
cadre d’une soumission pleinement consentie.
Enfin Reynaud (1989) propose une théorie de la régulation conjointe au
sein de laquelle s’entremêlent les règles de contrôle et les règles
autonomes. L’ensemble de ces théories permettent de proposer des
analyses modernes du comportement organisationnel à travers les
relations de pouvoir et de négociation qui opèrent au sein des
organisations.
_______
267
Le Flanchec, A., Plane, J. M., Le pouvoir dans les organisations, dans Comportement
Organisationnel, Vol. 3, Collection Méthodes et Recherches, Editions de Boeck, 2009.
268
Blau, Peter M., Exchange and Power in Social Life, New York, John Wiley and Son, 1964.
269
Bacharach, S. B. and Lawler, E., Bargaining, San Francisco, Jossey. Bass, 1983.
270
Le Flanchec, A., Les secrets d’une négociation réussie, Ellipses, 2019.
271
Il existe d’autres manières de résoudre un conflit que la négociation : tirage au sort,
vote,médiation, arbitrage, etc. Il faut également garder à l’esprit que la négociation est un mode
de résolution des conflits pacifique.
272
Walton, R. E., McKersie, R. B., A Behavioral Theory of Labor Negotiations, McGraw Hill, 1965.
273
Barnard, C. I., The Functions of the Executive, Cambridge, Mass., Harvard University Press, 1938.
274
Foucault, M., Dits et écrits, 1975-1988, Gallimard, Edition 2001.
275
French, J. R. P. and Raven, B., ‘‘The Bases of Social Power’’, in Cartwright, D., (ed.), Structure of
Social Power Ann Arbor, Univ. of Michigan, Press, 1959.
276
Mechanic, D., ‘‘Sources of Power of Lower Participants in Complex Organizations’’,Administrative
Science Quaterly, Vol. 7, n°3, december, pp. 349-364, 1962.
277
Crozier, M. et Friedberg, E., L’acteur et le système, Paris, Editions du Seuil, 1977.
278
Michel Crozier, Le Phénomène Bureaucratique, Paris, Editions du Seuil 1964.
Friedberg, E., « L’analyse stratégique des organisations », Pour, n°28, octobre 1981.
Friedberg, E., Le pouvoir et la règle dynamique de l’action organisée, Paris, Seuil, 1993.
279
Les termes buts, fins et objectifs seront considérés comme équivalents.
280
Attention : le terme de « jeu » n’est pas utilisé ici dans le même sens que dans la théorie des jeux
(voir chapitre 6). Notamment, l’hypothèse de rationalité limitée qui prévaut dans l’analyse de
Crozier et Friedberg ne permet pas de traiter les comportements organisationnels en termes de
probabilités.
281
Joule et Beauvois, Petit traité de manipulation à l’usage des honnêtes gens, 2002 (réédition 2014).
Robert Vincent Joule, La soumission librement consentie, 2010.
282
Kiesler, C. A., The psychology of commitment, Experiments linking behavior to belief, Academic
Press, 1971.
283
Reynaud, J. D., Les règles du jeu, 1989.
En conclusion, nous observons que la théorie des organisations est
récente, puisque les premiers grands travaux (Taylor, Fayol, Weber) datent
principalement du début du XXème siècle). Pourtant, en un peu plus d’un
siècle, ils se sont développés de manière fulgurante au point d’en faire un
champ théorique très vaste. Il est alors nécessaire de mettre en relation
l’étude des organisations avec les transformations de la société. Si les
théories évoluent, la société et les organisations évoluent également. Dès
lors, il est essentiel de connaitre d’une part les théories les plus anciennes
car d’un point de vue historique elles sont fondamentales pour
comprendre le processus de construction de la connaissance sur les
organisations, mais il n’est pas suffisant de se limiter aujourd’hui à ces
seules théories si l’on ambitionne de présenter un panorama suffisamment
représentatif des organisations modernes. Les théories plus récentes, qui
sont d’ailleurs encore en développement, sont nécessaires à la
compréhension de la complexité des organisations qui nous entourent et
qui sont marquées par l’incertitude et la variabilité de l’environnement,
mais aussi par des aspects cognitifs, psychologiques ou encore culturels
divers.
Par ailleurs, la théorie des organisations est à la croisée d’un grand
nombre de disciplines. L’économie, la gestion, la sociologie, l’anthropologie
ou encore la psychologie se sont toutes emparées, d’une manière ou d’une
autre, de l’étude des organisations. Certes chacun aborde l’organisation
par le prisme de sa discipline, mais ce constat met aussi en lumière la
grande porosité entre les différentes branches des sciences humaines et
sociales. Il s’ensuit que le développement d’une plus grande
interdisciplinarité des recherches sur les organisations, que nous appelons
de nos vœux, pourrait être source d’enrichissements mutuels et de
stimulation intellectuelle.
De plus, la théorie des organisations est plurielle. Nous avons présenté
successivement un ensemble de travaux et d’analyses diverses tout au long
de cet ouvrage et essayant de développer les arguments que chaque
auteur ou courant de pensée - déploie pour justifier les apports de sa
théorie à la compréhension des organisations. La juxtaposition de ces
travaux doit inviter le lecteur à un regard critique et lui donner des
éléments pour juger par lui-même des théories utiles et appropriées à la
compréhension du monde qui l’entoure.
Enfin force est de constater que la diversité et l’ampleur des théories
des organisations ne permet pas de les passer toutes en revues ici, ce qui
conduit au constat de l’incomplétude de cet ouvrage. Celui-ci reste donc
nécessairement inachevé et nécessitera encore des enrichissements futurs
pour pouvoir englober l’ampleur de ce que représentent les théories des
organisations tant dans leur histoire que dans leur actualité.
A
Action, 296
Adams, 271
Age de l’organisation, 93
Akerlof, 241
Alderfer, 75
Aldrich, 92, 159
Aléa moral, 242
Allen, 276
Ansoff, 258 Apprentissage, 80
Apprentissage organisationnel, 207
Argyris, 79, 80
Arrow, 238, 241
Asch, 61

B
Bamforth, 138
Barnard, 82
Barney, 265
Beauvois, 362
Berle, 240
Blake, 72
Blanchard, 70
Blau, 90
Boltansky, 248
Boudon, 194, 297
Boulding, 133
Bourdieu, 300
Brunsson, 329
Bunker, 277
Bureaucratie, 36, 38
Burns, 111, 266

C
Cercle vicieux bureaucratique, 45
Chandler, 109, 257
Changement quantique, 267
Child, 110
Cialdini, 195
Coase, 243
Coch, 67
Cohen, 209
Collins, 261
Confiance, 276
Configuration, 266
Configurations d’organisations, 121
Contingence structurelle, 89
Contrat psychologique, 277
Crozier, 45, 264, 350
Culture, 265, 278
Culture d’entreprise, 289
Culture nationale, 281
Cycle de vie des organisations, 94
Cyert, 203
Cyrulnik, 278

D
d’Iribarne, 286
Dale, 90
Debreu, 238
Deci, 273
Décision, 180
Dilemme du prisonnier, 228
DiMaggio, 330, 334
Dissonance cognitive, 362
Doeringer, 247
Drucker, 35
Dupuy, 249, 301
E
Ecole cognitive, 261
Ecole d’Aston, 44
Ecole de l’apprentissage, 262
Ecole de la conception, 257
Ecole de la configuration, 266
Ecole de la planification, 258
Ecole des relations de pouvoir, 264
Ecole du positionnement, 259
Ecole du processus culturel, 265
Ecole entrepreneuriale, 260
Ecole environnementale, 266
Ecologie des populations d’organisations, 150
Economie des conventions, 248
Economies de la grandeur, 250
Emerson, 29
Emery, 115
Encastrement, 320
Entreprise, 233
Environnement, 112, 149, 266
Environnement agi, 166
Erreurs de cadre, 194
Esprit de corps, 42
Ethnométhodologie, 328
Expectation, 81
Eymard-Duvernay, 248

F
Favereau, 234, 248
Fayol, 30
Flanerie, 26
Folett, 344
Folger, 272
Fonctions manifestes et latentes, 42
Forces de Porter, 259
Ford, 29
Fordisme, 29
Forrester, 144
Foucault, 348
Freeman, 154, 266
French, 67
Friedberg, 264, 350
Friesen, 267

G
Gantt, 29
Garfinkel, 328
Gestalt, 58
Giddens, 306
Gilbreth, 29
Gleason, 273
Gouldner, 42
Granovetter, 318
Greenberg, 271, 272
Greiner, 94
Gulick, 35
H
Habitus, 301
Hamel, 264
Hannan, 154, 266
Harsanyi, 221
Hart, 270
Hersey, 70
Herzberg, 76
Heuristiques cognitifs, 190
Hiérarchie des besoins, 74
Hofstede, 281
Holisme, 300
House, 283

I
Implication organisationnelle, 275
Incrémentalisme, 262
Individualisme méthodologique, 297
Individualisme méthodologique complexe, 303
Instrumentalité, 81

J
Jensen, 240
Joules, 362
Justice distributive, 272
Justice organisationnelle, 271
Justice procédurale, 272

K
Kahn, 133, 136
Kahneman, 190
Katz, 133, 136
Khaneman, 261
Kiesler, 362

L
Lawrence, 118, 266
Leadership, 65
Learned, Christensen, Andrews et Guth, 257
Lewicki, 277
Lewin, 58
Lewis, 286
Likert, 67
Lindblom, 262
Lippit, 66
Lorsch, 118, 266
Lynd, 272

M
Manager, 268
March, 199, 203, 209, 329
Marx, 337
Maslow, 74
Mauviel, 278
Mayo, 54
McAllister, 277
McGregor, 77
McKersie, 347
McMillan, 264
Mead, 321
Means, 240
Mécanismes d’influence, 195
Mechanic, 349
Meckling, 240
Merton, 41
Meyer, 276, 330
Miles, 267
Milgram, 62
Miller, 267
Mintzberg, 121, 256, 266, 268
Modèle rationnel-légal, 39
Modèles d’autorité, 37
Moore, 261
Moreno, 60
Morgenstern, 219, 221
Motivation, 73
Mouton, 72
Mowday, 275
Myers and Briggs, 262

N
Nash, 227
Négociation, 343, 347
Néo-institutionnalisme, 330
Nonaka, 264
Nouvelle sociologie économique, 318
O
Olsen, 209, 330
Organisation Scientifique du Travail (OST), 25
Organizational Development, 63

P
Parsons, 133
Perrow, 100
Pettigrew, 264
Pfeffer, 160
Piore, 247
Population d’organisations, 150
Porter, 259
Pouvoir, 84, 264, 343
Powell, 330, 334
Prahalad, 264
Psychologie sociale des organisations, 136

Q
Quinn, 262, 270

R
Raiffa, 223
Rationalité absolue (parfaite), 183
Rationalité limitée, 184
Rationalité procédurale, 186
Rationalité substantielle, 186
Relations humaines, 52
Résilience, 278
Resistance à l’autorité, 62
Résistance au changement, 67
Ressources Humaines, 268
Reynaud, 367
Roberts, 273
Rowan, 330
Ryan, 273

S
Sainsaulieu, 291
Salais, 248
Salancik, 160
Schein, 289
Schmidt, 69
Schön, 80
Schumpeter, 260
Scott, 330
Sélection, 155
Sélection adverse, 241
Selten, 223
Selznick, 42, 257, 334
Sensemaking, 170
Sherif, 61
Shubik, 223
Simon, 183, 199
Slack organisationnel, 204
Sloan, 35
Slovic, 190
Smith, 236
Snow, 267
Société, 296
Sociogramme, 60
Sociologie compréhensive, 36
Sous-optimisation, 41
Spécificité des actifs, 246
Stalker, 111, 266
Starbuck, 93
Stinchcombe, 97
Stratégie, 109, 256
Stratégies génériques, 259
Stratégies sui generi, 257
Structure, 296
Structures mécanistes, 112
Structures organiques, 113
structuro-fonctionnalisme, 41
Succès psychologique, 79
Système, 132

T
Taille de l’organisation, 89
Takeuchi, 264
Tannenbaum, 69
Tavistock Institute, 142
Taylor, 25
Taylorisme, 25
Technologie, 99
Théorie bi-factorielle, 76
Théorie comportementale de la firme, 203
Théorie de l’agence, 240
Théorie de l’analyse stratégique, 350
Théorie de l’auto-transcendance, 301
Théorie de l’engagement, 362
Théorie de l’équité, 271
Théorie de l’évolution, 155
Théorie de l’organisation comme une collection de poubelles, 209
Théorie de l’autodétermination, 273
Théorie de la dépendance sur les ressources, 160
Théorie de la dualité du structurel, 306
Théorie de la régulation conjointe, 367
Théorie décisionnelle de l’organisation, 199
Théorie des attentes, 80
Théorie des coûts de transaction, 243
Théorie des flux, 144
Théorie des jeux, 219
Théorie des sentiments moraux, 236
Théorie des systèmes, 132
Théorie du marché interne du travail, 247
Théorie socio-technique, 138
Théories de la décision, 179
Théories de la firme, 234
Théories économiques non standards, 246
Théories économiques standard étendues, 240
Théories économiques standards, 235
Théories interactionnistes, 321
Théories néo-institutionnelles, 330
Théories traditionnelles, 25
Théories X et Y, 77
Thevenet, 289
Thevenot, 248
Thompson, 102
Training Groups, 64
Trist, 115, 138
Trompenaars, 284
Tucker, 228
Tversky, 190, 261
Tyler, 272

U
Urwick, 34

V
Valence, 81
Von Bertalanffy, 132, 135
Von Neumann, 219, 221
Vroom, 80

W
Walras, 238
Walton, 347
Weber, 36
Weick, 165
White, 66
Williamson, 243
Woodward, 98

Z
Zucker, 330

Vous aimerez peut-être aussi