Vous êtes sur la page 1sur 221

© ODILE JACOB, NOVEMBRE 2020

15, RUE SOUFFLOT, 75005 PARIS

www.odilejacob.fr

ISBN : 978-2-7381-5130-8

Le code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-


5 et 3 a, d'une part, que les « copies ou reproductions strictement réservées à
l'usage du copiste et non destinées à une utilisation collective » et, d'autre part,
que les analyses et les courtes citations dans un but d'exemple et d'illustration,
« toute représentation ou réproduction intégrale ou partielle faite sans le
consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite » (art.
L. 122-4). Cette représentation ou reproduction donc une contrefaçon
sanctionnée par les articles L. 335-2 et suivants du Code de la propriété
intellectuelle.

Composition numérique réalisée par Facompo


Introduction

Nous vivons une époque bien mystérieuse.


Nous observons une baisse continue des gains de productivité depuis la
fin des années 1960, dans toutes les économies avancées 1. Aucune vague
d’innovation technologique n’a permis d’inverser la tendance, ce que
Robert Sollow a résumé en une formule devenue célèbre : « You can see the
computer age everywhere but in the productivity statistics 2. »
Il y a de quoi désespérer, car c’est au contraire la perception d’une
accélération qui domine au quotidien : nous courons de plus en plus vite,
nous manquons de temps, nous sommes emportés par un processus
d’intensification du travail que les économistes et les statisticiens
s’efforcent de documenter 3. L’intensification prend diverses formes, comme
l’illustrent ces quelques morceaux de vie :

Sophie est directrice des ressources humaines. Elle court de réunion en


réunion. Les affaires courantes suffisent à remplir ses journées : suivi
des recrutements, conception des prochains programmes de formation,
négociations des accords sociaux… Quand s’ajoute un projet de
changement dans l’entreprise, ça déborde : procédures d’information-
consultation des instances représentatives du personnel, plan de
mobilité, modifications de contrats de travail, entretiens individuels…
Or des projets de changement, il y en a tout le temps.
Marc est ingénieur d’étude. Ces dernières semaines ont été « sport ». Le
chantier sur lequel il intervient a pris du retard. Depuis le début les
échéances sont serrées. Aujourd’hui il est furieux. Furieux et inquiet.
Hier son « client interne » a remis en cause toute une partie du travail
accompli. Il sait qu’il devra avancer à un rythme accéléré pour
compenser. Il sait qu’il fera l’impasse sur certains tests et vérifications.
Il sait qu’il prendra des risques.
Claire est directrice d’agence dans une banque. Elle enchaîne les appels
téléphoniques, les rendez-vous, les tâches administratives. Elle a des
objectifs de vente, elle craint de ne pas les atteindre. Elle est agacée
parce que depuis trois mois elle doit s’absenter régulièrement du
bureau, pour suivre des formations internes : elle découvre de nouveaux
produits, de nouvelles règles, elle apprend à gérer la relation client…
Stéphane est directeur d’usine. Il ne sait plus où donner de la tête en ce
moment. Pour tout dire, il est en panique. Le site n’atteint pas ses
objectifs. Les arrêts de production se multiplient, les défauts de qualité
s’accumulent, et les délais de livraison s’allongent. Les ouvriers
fulminent, ils doivent élever la cadence pour effacer les pertes de temps.

Ainsi, nous travaillerions davantage sans produire davantage, ou plutôt


sans gagner davantage. Il semblerait que nous dépensions une partie de
notre temps pour rien. C’est la thèse que je vais défendre dans ce livre. Les
gisements de gain sont énormes. Le plus incroyable, c’est qu’ils sont restés
intacts malgré tous les efforts de rationalisation. Ils existent parce que nous
construisons des organisations qui ajoutent du travail au travail.
L’existence de ces gisements de gain intéresse tout le monde. Elle
intéresse les salariés, qui souffrent à différents degrés de l’intensification du
travail. Elle intéresse aussi les employeurs, soucieux de réduire les coûts à
coups de restructurations et d’optimisations de process… quitte à dépenser
beaucoup de temps pour cela (beaucoup trop, ce qui est le comble,
j’y reviendrai).
Face à l’intensification du travail et à la multiplication des changements
organisationnels, tous les acteurs de l’entreprise partagent un sentiment
d’impuissance. Encore récemment, j’entendis une phrase résumant
parfaitement les pensées qui nous traversent : « C’est l’économie qui veut
ça, c’est le marché, c’est le monde dans lequel on vit ».
Aux yeux des directions, c’est pour assurer le développement de
l’entreprise, pour assurer sa survie même, que nous devons accélérer,
multiplier les projets, élever les objectifs. C’est pour répondre aux
demandes des clients, à celles des actionnaires, celles des autorités de
régulation, ou encore celles des citoyens réunis en associations, que nous
devons nous démener. Autrement dit, la quantité de travail serait déterminée
par les attentes de l’environnement, par les contraintes extérieures à
l’entreprise. Au bout du compte, on en vient toujours au même argument :
c’est la faute à la concurrence !
Même les salariés ont intériorisé cette idée. Quand Sophie se sent
débordée par les projets de changement qui se succèdent, elle se dit plus ou
moins consciemment qu’elle n’a pas le choix, que personne n’a le choix
parce que les tâches associées sont les fruits d’une nécessité d’adaptation
aux évolutions du marché. Quand Marc houspille les chargés d’affaires qui
ont accepté des délais de livraison très serrés, ces derniers lui répondent que
sans cela l’entreprise n’aurait pas décroché le contrat, et que, sans contrat, il
n’y aurait pas de travail. Quand Stéphane craint de ne pas atteindre les
objectifs, il pense à la fois aux sales quarts d’heure qu’il passera avec sa
hiérarchie, et au risque de délocalisation de la production. Et quand Claire
songe à se plaindre de devoir consulter listings et tableaux de bord après des
journées de formation fatigantes, elle imagine son directeur lui répondre
que le secteur bancaire est en pleine mutation, que la concurrence est rude,
et que les points de vente physiques doivent désormais justifier leur
existence (argument dont Claire déduit que demain les directeurs d’agence
n’auront pas tous une place).
Le postulat selon lequel la quantité de travail est déterminée par les
contraintes extérieures est le siège de notre sentiment d’impuissance. Mais
ce postulat est-il fondé ? Les forces du marché, que nous considérons
comme hors de portée, nous privent-elles de marges de manœuvre ? Sont-
elles même hors de portée ?
Constatant l’intensité du travail de Sophie, de Marc, de Stéphane et de
Claire, nous pourrions faire de tout autres hypothèses que précédemment.
Nous pourrions nous dire que le dernier projet de changement qui encombre
Sophie fut l’idée de quelqu’un dont elle ne connaît pas les motivations.
Nous pourrions envisager que le déroulement du chantier auquel Marc
participe dépende de la manière dont il a été géré dès son lancement, que
l’usine de Stéphane souffre de défauts de conception des produits qu’elle
fabrique, ou que Claire doit lutter parce que la banque qui l’emploie a fait le
choix d’une diversification tous azimuts.
À la différence des premières, ces hypothèses nous invitent à tourner le
regard vers l’intérieur de l’entreprise, suggérant au passage qu’une partie
des causes de la dépense de temps est à la portée des acteurs de
l’organisation. Pensez à votre propre quotidien, et en particulier aux tâches
qui vous occupent le plus en ce moment. Fermez les yeux, et interrogez-
vous : d’où viennent ces tâches ?
En esprit, vous commencez par croiser le collègue qui vous a demandé
de les accomplir, et vous voyez qu’il sort tout juste d’une réunion lors de
laquelle on a décidé de les accomplir. Vous ouvrez la porte de la salle de
réunion et êtes surpris par un décor surréaliste : la porte mène à d’autres
portes, qui ouvrent sur d’autres salles de réunion, dans lesquelles on prend
d’autres décisions. Vous passez une porte, puis deux, voire trois, et finissez
par interrompre le parcours, de peur de devenir fou. En chemin, vous n’avez
pas vu jouer les forces supposées implacables de la fameuse
« concurrence ». Vous avez cru en entendre les échos dans les salles de
réunion, mais ce n’étaient que des murmures émanant de silhouettes à peine
reconnaissables.
Virtuellement, vous avez remonté le cours d’une histoire qui va d’une
somme de tâches à accomplir vers leur origine. Vous avez constaté que ce
n’était pas l’environnement qui vous amenait du travail. Du moins pas en
première instance, pas de façon immédiate. C’étaient des décisions. Des
décisions prises au sein de l’entreprise, par des individus qui n’incarnaient
pas l’environnement, mais qui en parlaient. Des décisions qui portaient sur
le choix des cibles de marché, sur la gamme des produits, sur les arguments
qu’on allait avancer pour se différencier par rapport aux concurrents, sur les
activités qu’on devait internaliser ou externaliser, sur les technologies qu’il
fallait développer, sur les méthodes de travail… Bref, des décisions
stratégiques et organisationnelles.
Sans prendre de risque, on peut supposer que toutes les décisions
n’engendrent pas la même quantité de tâches, ni ne consomment la même
quantité de temps. Cela vaut pour les décideurs eux-mêmes, et pour ceux
qui mettent en œuvre. Il serait donc possible d’économiser des moyens, de
l’énergie et du temps.
Une nouvelle question surgit alors. Une question cruciale : comment
reconnaître le temps ou le travail qui mérite d’être économisé ?
Fondamentalement, la raison d’être du travail est d’améliorer le sort de
tous ceux qui participent à la production : les salariés et les actionnaires. Un
travail qui n’améliore pas le sort des salariés et des actionnaires mérite
d’être économisé.
Que l’amélioration du sort de ceux qui participent à la production passe
par les conditions d’emploi, les conditions de travail ou par la rémunération,
elle suppose toujours que l’entreprise tire de l’activité une « somme
d’argent » supérieure à celle qu’elle verse à ses fournisseurs. Cette somme
d’argent est ce que l’on appelle la « valeur ajoutée », un écart entre deux
valeurs d’échange : la valeur d’achat d’un côté, la valeur de vente de
l’autre. Il est donc une autre façon de désigner le travail qui mérite d’être
économisé : c’est le travail qui ne crée pas de valeur.
De nos jours, tous les économistes s’accordent à dire qu’en
environnement concurrentiel, la valeur d’échange d’un produit est une
fonction de deux variables 4. La première variable est l’« utilité ». Un
produit utile est le fruit d’un travail qui répond aux contraintes externes, ou
qui apporte un surcroît de satisfaction aux acteurs de l’environnement (les
clients, les actionnaires, les autorités de régulation, et parfois les
associations citoyennes).
L’utilité du produit ou du travail est une condition nécessaire, mais pas
suffisante, pour obtenir une somme d’argent de la part du client. En effet, si
un produit est facilement remplaçable par un autre apportant la même
satisfaction, le client choisira le moins cher. La facilité de remplacement,
aussi nommée « substituabilité », alimente une pression qui fait tendre les
prix vers les coûts de revient. C’est pourquoi on peut considérer que le
travail qui ne protège pas l’entreprise contre le remplacement ne crée pas
plus de valeur que le travail sans utilité.
De cela nous tirons une troisième définition du « travail qu’on ajoute au
travail » : il manque d’utilité ou donne naissance à un produit facilement
remplaçable. Ce travail-là, je le nommerai « surtravail 5 ».
Ce livre explore les mécanismes à l’origine du surtravail. Il peut être
aussi lu comme un passage en revue des sources de surtravail et des leviers
d’action permettant de le réduire. Les sources de surtravail et les leviers
d’action sont de trois ordres. De l’ordre de la stratégie tout d’abord
(partie I) : la consommation de temps et d’énergie, le rendement des efforts
commence à se jouer dès que l’entreprise détermine son positionnement de
marché. De l’ordre de l’organisation ensuite (partie II) : le travail dérive
aussi des choix de structure tels que les découpages de fonction, les règles,
les outils de gestion, les méthodes de travail, etc. De l’ordre de la conduite
du changement, enfin (partie III). Naturellement la conduite du changement
n’est pas étrangère aux choix de structure, puisque le changement passe
notamment par la définition d’une organisation cible. Toutefois j’ai cru bon
de lui consacrer une partie distincte, car, au-delà des qualités et défauts des
organisations de départ et d’arrivée, le mouvement peut être par lui-même
générateur de surtravail.
PARTIE I

Stratégie
CHAPITRE 1

Le verrouillage stratégique

Le travail est engendré par des décisions, disais-je. Or les décisions sont
des objets étranges. Si étranges qu’ils ont excité la curiosité de nombreux
chercheurs dans toutes les disciplines des sciences sociales : psychologie,
sociologie, économie, sciences politiques 1. Ces chercheurs sont parvenus à
une conclusion étonnante : la prise de décision est orientée par le jeu des
intérêts particuliers qui, bien qu’animé par une certaine rationalité des
acteurs, finit par renverser totalement notre idéal de rationalité. Dans l’idéal
de rationalité, les problèmes précèdent les solutions : les actions, les tâches,
les efforts qui composent le travail sont des réponses à des contraintes qui
sont déjà là. Ce n’est pas ce qui se passe dans la réalité. Dans une
organisation, les solutions précèdent bien souvent les problèmes 2… Avec
les solutions vient le travail, et parfois le surtravail…

Une succession d’initiatives pour revenir


au point de départ
J’en connais une qui en a fait les frais, c’est Sophie, la directrice des
ressources humaines figurant dans ma petite galerie de portraits. À
l’époque, Sophie exerçait chez Sirache, un cabinet de conseil spécialisé
dans le développement, l’intégration et la maintenance de systèmes
d’information dédiés à la gestion des ressources humaines.
Ses déboires ont commencé en 2010, lorsque Sirache est entrée dans
une longue période de croissance faible. À partir de cette date, les dirigeants
se sont écharpés à propos de la « stratégie » à suivre pour changer le cours
des événements. Chacun a laissé cours à son imagination. Le directeur du
marketing s’appuyait sur les résultats d’une étude de notoriété, pour
proposer des mesures d’amélioration de la communication externe : la
modernisation du site Web, la création d’un forum, le renforcement de la
présence sur des salons professionnels… De son côté, le directeur
commercial insistait sur l’absence d’une culture de développement de la
relation client chez les ingénieurs, chose qu’il fallait compenser par
l’augmentation du nombre de chargés d’affaires. Le directeur de la R&D
rappelait quant à lui que l’entreprise s’était trop reposée sur le produit qui
avait fait son succès dix ans plus tôt, et qu’il fallait intensifier l’effort
d’innovation. Enfin, le directeur technique, responsable des équipes
chargées de l’installation et de la maintenance des systèmes, apportait la
contradiction aux autres, avançant que le déficit de croissance trouvait son
origine dans des accidents de production qui avaient nui à la réputation.
Selon lui, ces accidents avaient été causés par des innovations hasardeuses
portées par « la R&D qui pense beaucoup trop », et par la nécessité de
procéder à des bricolages techniques pour respecter les budgets décrochés
par « des chargés d’affaires qui n’y connaissent rien ».
Il y avait de quoi donner le vertige. Pour Sophie, pour ses collègues
directeurs et pour l’observateur que j’étais, il était extrêmement difficile,
voire impossible, de savoir qui avait raison. Chacun formulait des constats
fondés, chacun faisait des propositions séduisantes, mais aucun n’était
capable de faire la démonstration du succès promis par telle ou telle action.
Chaque initiative ne pouvait être qu’un pari, dont on connaîtrait peut-être la
réussite quelques mois, voire quelques années plus tard.
Au fil des années, chacun a eu « son moment », chacun a obtenu des
moyens pour mettre en œuvre ses propositions d’action. Les premiers servis
furent les gens de la R&D, dont l’argument central avait fait mouche.
D’abord, parce que cet argument était incontestable : personne ne pouvait
nier que l’entreprise avait généré la plus grosse partie de son chiffre
d’affaires sur un produit historique, très concurrencé désormais. Ensuite,
parce que la plupart des acteurs voyaient dans l’innovation l’opportunité de
prendre eux-mêmes des initiatives. Par exemple, les directeurs marketing et
commercial vivaient la création de nouveaux produits et services comme
des occasions de communiquer ou de visiter les clients et prospects.
Seul le directeur technique restait sceptique, car il craignait que les
innovations entraînent de nouveaux accidents de production. Il ne manquait
pas d’exemples étayant ses craintes, mais ses homologues considéraient que
les accidents de production n’étaient pas certains, et qu’après tout il lui
revenait de prévenir le risque. Ils considéraient aussi que, si par malheur des
accidents survenaient, ils ne pouvaient avoir de conséquences sur le chiffre
d’affaires qu’à long terme, puisqu’une partie des clients était captive en
raison du montant très élevé des investissements initiaux. Pour cette
dernière raison, l’urgence était de convaincre de nouveaux clients, et au
regard de cette urgence les préoccupations du directeur technique
paraissaient secondaires.
Un an après le lancement d’une série de nouveaux produits, les résultats
n’étaient pas au rendez-vous, et les ingénieurs R&D semblaient avoir épuisé
leur créativité. Leur patron avait perdu de sa superbe. Quant au directeur
technique, il restait perçu comme un empêcheur de tourner en rond. Il est
alors apparu au P-DG que le problème de l’entreprise ne venait pas des
produits, mais qu’il était d’ordre commercial : on ne s’était pas assez soucié
de la relation client. Cette fois ce furent les directeurs marketing et
commercial qui obtinrent des ressources pour intensifier leur propre effort,
avec notamment un accroissement des effectifs.
Le règne des marketeurs et des commerciaux dura trois ans. Pendant ce
temps, la qualité des prestations se dégrada. En effet les équipes techniques
avaient rencontré de grandes difficultés face à la diversification et à la
complexification des prestations, enclenchées plus tôt sous l’impulsion de
la R&D. Le directeur technique fut remplacé par un homme venu de
l’extérieur, et reconnu comme un « grand professionnel » du conseil en
systèmes d’information. Assez rapidement, le nouveau directeur technique
avança des arguments très comparables à ceux de son prédécesseur : les
membres de ses équipes ne pouvaient être considérés comme responsables
ni des accidents de production ni du déficit de développement de la relation
client. À ces anciens arguments, il en ajoutait un : les difficultés de terrain
et le manque de reconnaissance avaient dégradé les conditions de travail de
ses équipes, au point de faire fuir les individus les mieux placés pour réussir
chez d’autres employeurs… ce qui ne manquait pas de rendre le quotidien
encore plus éprouvant. Le niveau de satisfaction des clients baissait en
fonction.
Face à ces arguments, les autres directeurs étaient désormais en position
de fragilité : leurs initiatives n’avaient pas été suivies de la croissance
escomptée, alors que ce « grand professionnel » avait connu le succès
ailleurs. Ce dernier débuta son règne en prenant la responsabilité de la R&D
en plus de la direction technique, et poursuivit en rationalisant la gamme.
À bien des égards, une fois réduite la gamme des prestations offertes,
l’entreprise était revenue à son point de départ de 2010. Entre-temps,
chaque règne avait apporté son lot de tâches, d’initiatives, de projets
d’amélioration internes. Les salariés avaient consenti beaucoup d’efforts
pour aller dans un sens, puis dans l’autre. Certains avaient même souffert.
Le jeu des intérêts particuliers
D’une certaine manière, dans cette histoire, les membres du comité de
direction n’ont cessé de chercher les problèmes. Le marché leur a certes
offert le meilleur des prétextes : le déficit de croissance et de profits. Mais
ce problème du déficit était si vaste, si indéterminé, si complexe qu’il a été
reformulé à trois reprises : d’abord « nous avons trop peu innové », puis
« nous avons trop peu travaillé la relation client », enfin « nous avons perdu
la maîtrise de notre production ».
Il faut relever ici que chaque formulation du problème a été portée par
un ou plusieurs acteurs qui détenaient déjà les solutions correspondantes.
Ainsi le spécialiste de l’innovation penchait pour un problème d’innovation,
les spécialistes du commerce penchaient pour un problème de relation
client, et le spécialiste de l’exploitation penchait pour un problème de
maîtrise de la production.
Cet enchaînement qui va des solutions aux problèmes n’est pas une
aberration locale. C’est un phénomène qui apparaît dès lors qu’on ne
dispose pas de modèle mathématique permettant de prédire avec certitude
les conséquences d’un choix… c’est-à-dire à peu près dans tous les
environnements organisationnels. Les directeurs de Sirache combinaient des
arguments séduisants, ils avaient appris des techniques, ils avaient une
connaissance du marché… mais ils ne disposaient d’aucun système de
choix aussi précis et fiable qu’une équation 3.
Lorsqu’on prend des décisions sans un tel système, on navigue dans la
brume la plus épaisse. On pose des hypothèses qui ne sont pas mieux que
plausibles, on construit des scénarios qui ne sont pas mieux que
vraisemblables. Dans ces conditions, les idées qui méritent d’être entendues
sont nombreuses, les débats sont inévitables, et les arbitrages sont délicats.
Les parties prenantes des débats défendent des intérêts particuliers dès
que leur sort en dépend, ce qui est généralement le cas. En effet, selon
l’issue des débats, les missions dévolues aux uns et aux autres promettent
d’être plus ou moins passionnantes, plus ou moins valorisantes, les moyens
plus ou moins étendus, l’autonomie plus ou moins forte… Les individus
tireront plus ou moins de plaisir, plus ou moins de légitimité, plus ou moins
de sécurité…
Les acteurs qui parviennent à imposer leur définition du problème, donc
leurs solutions, sont ceux qui montent une coalition dominante ou qui y
participent 4. Chez Sirache, tous les directeurs avançaient des arguments
solides. Dans un premier temps, le directeur de la R&D a fait la différence
parce qu’il a su s’allier les directeurs marketing et commercial, en leur
offrant des opportunités d’action. Dans un deuxième temps, alors que le
directeur de la R&D était affaibli par le manque de réussite, les directeurs
marketing et commercial ont pu tenir en respect le directeur technique, car
eux servaient un enjeu jugé prioritaire (l’acquisition des clients), là où lui
servait plutôt un enjeu considéré comme secondaire dans un contexte où les
clients étaient semi-captifs (la fidélisation des clients). Dans un troisième
temps, le directeur technique a pu profiter à son tour de l’affaiblissement
des directeurs marketing et commercial, pour faire entendre que les
accidents de production nuisaient tout autant à l’acquisition des clients qu’à
leur fidélisation. Parallèlement, il neutralisait un autre concurrent en
emportant la responsabilité de la R&D.

Le jeu qui consiste à promouvoir les problèmes correspondant aux


solutions déjà là charrie son lot de tâches, indubitablement. On est
facilement tenté de voir en ces tâches des doses de surtravail, tant la réalité
heurte nos idéaux. On aurait tort de se laisser aller à cette facilité, car, étant
donné le degré de généralité de ce phénomène qui trouve son origine dans
les limites de la cognition humaine, on en viendrait vite à la conclusion que
tout travail est un surtravail ; la notion même de surtravail s’en trouverait
vidée de sa substance. Même l’histoire de Sirache doit être relue avec
précaution : bien que les efforts consentis en l’espace de six années
paraissent stériles une fois qu’on connaît la fin, un économiste ou un
sociologue pourrait avancer que l’aller-retour fait par l’entreprise fut une
exploration, une expérience de découverte des possibilités d’action sur le
marché. La prudence est donc de mise lorsqu’il s’agit de qualifier de
surtravail une activité engendrée par le jeu des intérêts particuliers.

Jeu des intérêts et perte de la capacité


d’adaptation au marché
Il y a une circonstance dans laquelle j’oserais affirmer qu’il y a
surtravail : lorsque le jeu va jusqu’à priver l’entreprise de sa capacité
d’adaptation aux évolutions du marché, ce qui revient à l’empêcher de
répondre aux contraintes ou aux attentes de l’environnement. La clientèle
finit par déserter, l’offre finit par perdre son utilité, l’entreprise finit par ne
plus créer de la valeur.
C’est ce qui est arrivé à l’entreprise Foster Brothers, étudiée par Gerry
Johnson entre 1980 et 1984 5. Après une longue histoire de succès,
l’entreprise Foster Brothers a souffert d’une crise dans les années 1970.
Pendant dix ans, elle s’est efforcée de rester sur une trajectoire de
croissance profitable. Le fruit des efforts ne fut pas aussi beau qu’attendu, si
bien qu’en 1985 l’entreprise fut rachetée par le Groupe Sears, en meilleure
santé.
Là encore, durant ces dix années, les initiatives ont été nombreuses. La
direction administrative et financière a été mise à contribution, d’abord à
l’occasion de plusieurs acquisitions d’autres entreprises, ensuite à travers le
renforcement du contrôle de gestion. La direction des achats a été mise à
contribution à travers la recherche du moindre coût et de la diversification
des produits. La direction marketing aussi, lorsqu’on a décidé de diversifier
la clientèle cible. La direction des ventes enfin, lorsqu’on a décidé de
procéder à l’extension du réseau puis au réaménagement des boutiques.
En y regardant de plus près, on s’aperçoit que, pendant toute la période,
la direction de Foster Brothers n’a cessé de reproduire sur plusieurs
segments de marché le schéma qui avait conduit au succès sur le segment
d’origine, et qui était celui d’une stratégie de volume : prix contenus,
produits standardisés, économies d’échelle. Les échecs successifs ont certes
provoqué de vives discussions au sein du comité de direction, mais les
critiques portant sur le schéma lui-même, de même que les alternatives ont
été écartées pendant longtemps.
Le résultat est que, pendant dix ans, les salariés de Foster Brothers ont
couru sans avancer.
Au premier rang des acteurs qui ont défendu le maintien d’une stratégie
de volume figurait le directeur des achats. Ce dernier avait tiré grand
pouvoir de cette stratégie, car celle-ci imposait de faire des économies
d’échelle, et la recherche d’économies d’échelle imposait de centraliser la
fonction achat, de la placer tout entière sous une autorité unique. C’est
pourquoi l’homme se dressait contre toute proposition qui amenait à donner
de l’autonomie à des entités portant différentes marques.
Pour contrer les arguments ou éviter toute contestation du
positionnement stratégique historique, le directeur des achats suivait deux
tactiques. La première tactique consistait à remettre en cause les individus :
untel ne connaissait rien au monde du prêt-à-porter, un autre ne connaissait
rien du monde extérieur, etc. La seconde tactique consistait à émettre des
doutes sur les sources d’information des opposants, ou sur le poids des faits
rapportés par eux. Ce fut le cas par exemple lorsque le directeur du
marketing présenta les résultats d’une étude de marché : c’est la méthode
d’enquête et d’analyse qui a été discutée, et non pas les leçons à tirer des
résultats.
Le directeur des achats était entouré par d’autres acteurs qui utilisaient
les mêmes tactiques. Ensemble ils formaient une coalition dominante. La
coalition n’est tombée qu’avec l’épuisement des ressources financières de
l’entreprise et sa conséquence : sa vente au Groupe Sears.
Au final, il apparaît que Foster Brothers a été animée par un mécanisme
de verrouillage stratégique qu’on peut représenter de la façon suivante :

Un outil pour détecter la présence d’un


verrou stratégique
La concordance de plusieurs indices permet de soupçonner la présence
d’un verrou stratégique. Premièrement, avant de rencontrer des difficultés,
l’entreprise a connu une longue période de succès, au cours de laquelle ont
pu s’installer un schéma de pensée (un « paradigme », dirait Thomas Kuhn)
ainsi qu’une coalition tirant son pouvoir de l’application de ce schéma de
pensée.
Deuxièmement, désormais sortie de la période de succès, l’entreprise
multiplie les initiatives sans que reviennent la croissance et la rentabilité.
S’ensuivent le sentiment de ne pas tenir la recette gagnante, le sentiment
d’être perdu. Les décideurs ont alors conscience d’être plongés dans
l’incertitude, conscience de manquer d’un modèle explicatif et prédictif.
Enfin, des tensions apparaissent entre, d’une part, les membres de la
coalition dominante et, d’autre part, des challengers internes. Les membres
de la coalition dominante ne sont pas forcément les plus haut gradés ou les
mieux placés dans l’organigramme ; ils sont rapidement reconnaissables au
fait qu’ils sont les plus écoutés. Voyez le cas de Foster Brothers : jusqu’à
l’acquisition de l’entreprise par le Groupe Sears, seul le directeur des achats
parvenait à faire entendre ses arguments. L’écoute dont jouissent les acteurs
dominants leur procure un sentiment de confort, relativement au sentiment
des autres acteurs de l’organisation, dont les challengers internes. Ces
derniers vivent une plus grande frustration, car ils voient régulièrement
leurs propositions rejetées, leurs méthodes critiquées, leurs raisonnements
interrompus avant d’être entièrement exposés.
Transposés dans une grille d’évaluation rudimentaire, sans ambition
scientifique mais pédagogique, ces arguments donnent :
Indices de présence d’un verrou stratégique

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. L’entreprise a connu une
❒0 ❒1 ❒2 ❒3
longue période de succès
2. On multiplie les initiatives
sans que reviennent la ❒0 ❒1 ❒2 ❒3
croissance et la rentabilité
3. Les cadres dirigeants ont le
❒0 ❒1 ❒2 ❒3
sentiment d’être perdus
4. Il y a des tensions entre les
acteurs qui ont tiré profit des ❒0 ❒1 ❒2 ❒3
succès passés, et les autres
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que les
probabilités de présence d’un verrou stratégique sont élevées.

Une méthode pour faire sauter le verrou


Quiconque souhaite faire sauter un verrou stratégique doit commencer
par y voir clair dans le jeu des intérêts particuliers. La lucidité débute avec
la connaissance de cette vérité qui vaut pour toutes les organisations : les
solutions précèdent les problèmes, personne n’est désintéressé. En
conséquence, tout le monde « tord » la réalité, en partie de façon
inconsciente. Pour tordre la réalité, l’esprit suit de multiples chemins : il
sélectionne les informations, il leur donne plus ou moins d’importance, il
fabrique des interprétations.
Une fois cette vérité reconnue, il reste à deviner dans quel sens tel ou tel
individu tord la réalité. La grille de lecture de chacun dépend de trois
paramètres : ce qu’il a appris, ce qu’il voit, ce qu’il veut.
Pour l’illustrer, prenons au hasard l’exemple du directeur marketing de
Sirache. L’homme a commencé par étudier en école de commerce ; à cette
occasion, il a été initié aux techniques de gestion et à la microéconomie.
Puis il a occupé plusieurs postes dans la fonction marketing, au sein de
différentes entreprises. Au fil de ces expériences, il a testé, combiné et
bricolé des outils de raisonnement. Il en a tiré non seulement un savoir et un
savoir-faire, mais aussi un réseau social qu’il cherche à cultiver et à
valoriser. Voilà pour « ce qu’il a appris » (ou accumulé).
Le poste qu’il occupe au sein de Sirache, comme ses postes précédents,
l’oblige à scruter en permanence le marché, tandis que ses collègues
ingénieurs ont les yeux rivés sur des objets techniques. Ils ne vivent pas
dans le même décor, ils n’ont pas accès aux mêmes informations, ils n’ont
pas en tête les mêmes contraintes. La fonction occupée par un individu agit
comme une lampe torche : elle perce la pénombre dans une certaine
direction mais ne permet de retrouver ses clés que dans cette direction.
Voilà pour « ce qu’il voit ».
Enfin, cet homme a des désirs d’avenir. Or Sirache lui offre peu de
perspectives d’évolution professionnelle, car il occupe déjà la plus haute
fonction marketing au sein de l’organisation, et la plupart des autres
fonctions lui sont interdites en raison des connaissances techniques exigées.
Il sait donc qu’il retournera un jour sur le marché du travail, et que sur ce
marché il aura besoin de sortir ses galons : les tailles des entités et des
équipes dirigées, les montants des budgets gérés, les réussites
emblématiques, les niveaux de rémunération… C’est pourquoi au sein de
Sirache il fait des propositions et prend des initiatives dont il pourra plus
tard se targuer. Voilà pour « ce qu’il veut ».
Pour y voir clair dans le jeu des intérêts particuliers, il faut aussi
identifier les acteurs qui pèsent le plus dans les décisions. J’ai déjà livré les
caractéristiques qu’ils présentent au premier regard : ce sont les plus
écoutés, ceux qui trouvent le plus de confort ou le moins d’inconfort dans
l’organisation.
Vue synthétique des clés de décryptage
du jeu des intérêts particuliers
1. Un individu tord la réalité en fonction de :
Ce qu’il a appris (et accumulé – cela dépend de son parcours).
Ce qu’il voit (cela dépend de son rôle dans l’organisation).
Ce qu’il veut (cela dépend du champ dans lequel il se projette).
2. Les individus qui pèsent le plus dans les décisions sont reconnaissables :
Au fait qu’ils sont les plus écoutés et qu’on leur donne toujours raison.
Au fait qu’ils se sentent mieux dans l’organisation, en comparaison des
collègues.

Quitte à paraître redondant, je tiens à insister sur le fait que le jeu des
intérêts particuliers n’est pas un mal en soi, mais une réalité inscrite dans la
nature des organisations ; en cela il est « normal ». L’existence d’une
coalition dominante n’est pas non plus problématique en elle-même. Le jeu
ne mérite de « contre-jeu » que lorsqu’il interdit à l’entreprise de s’adapter
aux évolutions du marché et d’y tenir une position forte.
Lorsqu’on est insatisfait du produit du jeu des intérêts particuliers,
lorsqu’on estime qu’il génère du surtravail en verrouillant l’organisation, on
peut suivre deux voies d’action :
1. On peut façonner le contenu des intérêts particuliers en modifiant les
contraintes auxquelles les acteurs sont exposés.
2. On peut suspendre les intérêts particuliers, en dressant ce que Morieux
et Tollman nomment « voile d’ignorance », inspirés par John Rawls et
sa théorie de la justice.

Voie no 1 : modifier les contraintes


des acteurs
Pour emprunter la première voie, partons à nouveau du cas de Foster
Brothers, dont le très influent directeur des achats avait tiré profit de la
centralisation des approvisionnements. Son sort était comme attaché à la
stratégie de volume, raison pour laquelle il cherchait à la maintenir, sans
même en avoir pleinement conscience. Une bonne façon de changer sa
ligne de conduite aurait consisté à lui confier le développement d’une
activité prometteuse mais émergente, donc demandeuse d’autonomie et de
souplesse. Il se serait retourné contre la centralisation et sa coalition serait
tombée.
La mobilité n’aurait ici été qu’un moyen d’exposer l’individu à de
nouvelles contraintes, de modifier à la fois le contenu de « ce qu’il voit » et
de « ce qu’il veut ». Un autre moyen peut remplir cette fonction : la
redéfinition des rôles. C’est à une redéfinition des rôles qu’on a assisté chez
Sirache, au début du troisième règne : le directeur technique est devenu
aussi directeur de la R&D. Par l’intermédiaire de cette personne, les équipes
en charge de l’innovation ont été exposées aux contraintes de l’exploitation
et de la maintenance. Par cette exposition, elles ont été obligées de faire
face aux conséquences de leurs actes sur le travail des voisins.

Voie no 2 : dresser un voile d’ignorance


La seconde voie, qui consiste à suspendre purement et simplement le
jeu des intérêts particuliers, ne peut être empruntée que, lors de grands
moments de conception stratégique, quand la lecture des opportunités et des
contraintes de marché devient à la fois problématique et cruciale. Elle n’est
empruntable que dans ces circonstances, car la suspension ne peut être que
temporaire.
Disons-le : l’exercice relève de l’exploit. Je ne connais qu’un seul
dirigeant ayant parfaitement réussi de ce point de vue. Encore une fois, il
est cité dans l’ouvrage d’Yves Morieux et Peter Tollman.
Désireux de transformer profondément l’entreprise, ce dirigeant
souhaitait s’appuyer sur les analyses et sur l’énergie des membres de son
comité de direction. Mais, fin connaisseur de la sociologie des
organisations, il ne se faisait guère d’illusions sur l’impartialité des
individus qui l’entouraient. C’est pourquoi, lors d’un discours inaugural, il
déclara : « Quelle que soit la nouvelle organisation que vous
recommanderez, vous continuerez tous à faire partie du comité de direction,
mais je déciderai plus tard quelle division ou quelle fonction de
l’organisation vous confier. » Ainsi, le dirigeant interdit à chacun de savoir
précisément où était son intérêt personnel, tout en préservant l’engagement.
Paradoxalement, il cherchait la clairvoyance en posant un voile sur les yeux
de chacun, un voile d’ignorance.
Malheureusement, toutes les organisations ne se prêtent pas aussi bien à
l’expérience du voile d’ignorance. Elles s’y prêtent mal notamment lorsque
les dirigeants doivent disposer de compétences techniques très spécifiques à
une fonction, ce qui était le cas chez Sirache.
C’est pourquoi il nous faut imaginer d’autres astuces. Une première
astuce consiste pour chaque membre du comité de direction à désigner le
suppléant de son voisin, employé en dehors de sa propre direction et de la
direction dudit voisin. Une deuxième astuce consiste à établir un
programme d’échanges entre comités de direction de plusieurs entreprises,
programme d’échanges qui serait comparable à ceux proposés aux
étudiants : des collègues en provenance d’autres entreprises viennent
travailler sur la stratégie, et réciproquement. D’autres astuces sont sans
doute imaginables. Dans tous les cas, il s’agit d’organiser un débat
désintéressé.
À défaut d’astuces, on peut faire appel à des consultants. La valeur du
travail de conseil ne réside pas uniquement dans l’expertise, dans ce que les
consultants savent, elle réside aussi dans ce qu’ils ne savent pas, dans le
simple fait que ce sont des agents extérieurs. Les consultants ont certes leur
propre intérêt, qui est de vendre des prestations complémentaires, mais il est
possible de contenir leur appétit en délimitant par avance leur périmètre
d’intervention.
Le jeu des intérêts particuliers produit des résultats si variés qu’il a de
quoi exciter notre curiosité pendant des siècles. Dans le cas de Sirache, il a
permis aux acteurs de valoriser tour à tour leurs solutions. Au contraire,
dans le cas de Foster Brothers, il a interdit aux acteurs autres que le
directeur des achats de valoriser les leurs.
Je vous propose maintenant de découvrir une troisième configuration,
dans laquelle de très nombreux acteurs peuvent simultanément valoriser
leurs solutions et donnent collectivement l’impression de doter
l’organisation d’une extraordinaire capacité d’adaptation.
Cette troisième configuration est courante ; elle a été observée par des
sociologues et économistes dans plusieurs secteurs : dans l’industrie
agroalimentaire, l’électroménager, les équipements technologiques grand
public 6, dans l’automobile 7, ou encore dans les activités financières 8.
Elle donne un goût d’absurdité encore plus prononcé que la deuxième.
Lorsqu’elle est en place, la consommation de temps et d’énergie est
débridée. Tout se passe comme si tous les acteurs de l’entreprise
s’accordaient pour suivre un chemin les menant à l’épuisement.
C’est la banque employant Claire, la directrice d’agence rencontrée en
introduction de ce livre, qui va nous en fournir l’illustration.
CHAPITRE 2

Une course sans fin

Souvenez-vous : lorsque Claire songeait à se plaindre de sa charge de


travail, elle imaginait sa hiérarchie répondre qu’il fallait désormais se battre
pour survivre face à la concurrence.
On peut comprendre pourquoi : entre les années 1970 et le début des
années 2000, le secteur de la banque de détail a bien changé. Il s’est
libéralisé et l’offre est devenue abondante. Le client s’est fait rare, d’autant
plus rare qu’il est de moins en moins venu en agence, éloigné
successivement par la multiplication des distributeurs automatiques de
billets, par la généralisation des cartes de paiement, par la création de
centres d’appels et par la modernisation des interfaces numériques.
Un premier examen du contenu du travail de Claire laisse peu de place
au doute : toutes les tâches qui font déborder son emploi du temps peuvent
être vues comme des réponses aux contraintes de l’environnement. À
première vue, il semble qu’on ne peut en économiser aucune.

Du travail en réponse aux contraintes


de l’environnement
Cela vaut pour les appels téléphoniques qu’elle enchaîne et les rendez-
vous qu’elle tente d’obtenir. Son rythme est celui d’une marche forcée dont
l’objectif explicite est d’« aller chercher » ce client qui ne vient plus en
agence.

« Il faut bien comprendre que la logique est statistique. On se dit que si


un commercial contacte x clients, il obtiendra un certain nombre de
rendez-vous en agence égal à un pourcentage de x, et que parmi ces
rendez-vous un autre pourcentage donnera lieu à une vente. Le point de
départ, c’est donc la prise de contact téléphonique. On n’appelle pas au
hasard. On dresse des listings qui identifient des opportunités. Par
exemple un homme qui a contracté un crédit “auto” il y a cinq ans, et
qui a fini de rembourser il y a un an. Statistiquement, il y a des chances
que cet homme pense à racheter une voiture. On l’appelle. Pour faire
tout ça, le conseiller clientèle doit s’organiser, éditer les listings,
sélectionner les meilleures opportunités, dédier des plages de temps aux
appels sortants, bloquer d’autres plages pour les rendez-vous. » (Claire,
directrice d’agence.)

Le nombre d’appels téléphoniques et le nombre de rendez-vous figurent


dans un tableau de bord, au même titre que le chiffre d’affaires 1, les
indicateurs de rendement, les défauts de paiement, les niveaux de risque,
etc. Les résultats des individus, des agences et des territoires sont comparés,
dans le cadre d’un dispositif nommé « benchmarking ». Au-delà des tâches
de production et d’analyse des indicateurs, le benchmarking génère une
sorte de travail psychologique, une charge émotionnelle faite d’anxiété de
performance, liée au sentiment d’être surveillé et jugé en permanence.
Claire n’est pas la seule concernée :
« Parfois on lance des campagnes commerciales. Pendant deux à trois
semaines, on met le paquet sur un produit donné. Pendant les
campagnes, il y a beaucoup de reporting, encore plus que d’habitude.
Ça peut être tous les jours. Il y a des choses qui se font
automatiquement, mais pas tout. On fait des extractions, on fabrique des
tableaux, on envoie au siège. » (Un directeur d’agence, homologue de
Claire.)
« C’est lourd, on se sent harcelé. Rien que de savoir qu’il va falloir
envoyer ses chiffres, et puis après en discuter pour éventuellement
mettre en place un “plan d’action” avec son manager… Rien que de
savoir cela, c’est lourd. » (Conseiller clientèle, qui aurait pu être dans
l’équipe de Claire.)
« Oui, je leur demande du reporting, et on en discute à tous les niveaux
hiérarchiques. J’entends que c’est du travail, mais le fait est que ça
marche : ça stimule la vigilance, ça met une tension vers les objectifs du
moment. Tout le monde est en concurrence sur les objectifs. Moi aussi
j’ai mes concurrents. Vous croyez qu’ils font quoi nos concurrents ? »
(Directeur de zone, supérieur hiérarchique de Claire.)

Les régions, les agences et les conseillers identifiés comme moins


performants sont invités à participer à des groupes d’échanges sur les
« bonnes pratiques » (entendez : les pratiques des plus performants).
Les formations qui obligent Claire à s’absenter du bureau semblent être
aussi des réponses à la concurrence. Certaines de ces formations sont
d’ordre comportemental : elles portent sur la gestion de la relation client ou
sur l’animation d’une équipe commerciale. D’autres formations permettent
de découvrir et de manipuler les produits, qui deviennent plus nombreux à
mesure que la banque élargit sa gamme. La banque ne proposait à l’origine
que des comptes de dépôt et des livrets d’épargne. Dès les années 1980 elle
s’est mise à faire crédit. Après quoi elle a rapidement diversifié son offre de
produits d’épargne, pour aboutir à une liste assez longue : sicav, PEA, PEL,
assurance-vie… Dans les années 2000, elle a donné accès à de nombreux
fonds de placement, puis est entrée sur le marché de l’assurance.

« Quand il y a un nouveau produit, on suit une formation. Et comme il y


a souvent de nouveaux produits, on n’arrête pas d’être en formation.
Une fois qu’on a intégré, dès qu’on rencontre des clients, il faut penser
à tout. Cela dit, on n’arrive pas à tout retenir. Moi, ça m’arrive d’aller
regarder dans la documentation, pour retrouver les détails techniques. Et
des détails, il y en a ! » (Claire, directrice d’agence.)

L’élargissement de la gamme ne donne pas de travail seulement aux


salariés en agence. Il en donne aussi aux membres des « fonctions
supports » :

« Qui dit nouveau produit ou nouvelle interface dit projet interne, parce
qu’il faut développer, industrialiser et commercialiser. Toutes les
fonctions sont mobilisées : les services informatiques évidemment,
parce que tout ce que nous fabriquons c’est par l’informatique ; le
marketing, qui doit préparer les supports de com’ ; le juridique, qui
veille à ce que les contrats qui vont avec les nouveaux produits soient
bien verrouillés… C’est toute l’entreprise qui se met en branle à chaque
fois. » (Chef de produit, direction marketing.)

Une fois commercialisé, chaque nouveau produit apporte son lot de


procédures : des documents administratifs à remplir, des pièces
justificatives à réunir, des contrats à signer, des délais à respecter, des
courriers à émettre, etc. Les procédures protègent juridiquement à la fois le
client et l’entreprise et, accessoirement, permettent à cette dernière
d’obtenir l’autorisation d’exercer de la part des autorités de régulation.
Indéniablement, le travail accompli par Claire et ses collègues vient
satisfaire les attentes des acteurs externes : les clients qui trouvent des
réponses à tous leurs besoins de financement et de placement ; les autorités
de régulation qui tentent de préserver la santé du secteur bancaire et la
stabilité des marchés financiers ; les actionnaires qui tirent profit des
transactions. Je ne pense pas exagérer si j’écris que les efforts des salariés
ont permis à l’entreprise de survivre dans un milieu hautement
concurrentiel, et continuellement perturbé par les évolutions
technologiques. À tout point de vue, le travail est utile.

L’alignement concurrentiel
Tout de même, il y a de quoi être intrigué. D’un côté, les salariés luttent
au point de dégrader leur santé, comme en témoignent les niveaux de stress
constatés à l’occasion des évaluations des risques psychosociaux conduites
dans les années 2008-2010 2. Une majorité est touchée par la lassitude,
une minorité connaît l’épuisement. D’un autre côté, le chiffre d’affaires et la
profitabilité de la banque restent moyens, figurant chaque année au milieu
du classement français 3. En apparence, la création de valeur n’est pas à la
hauteur des efforts. Il y aurait déperdition d’énergie.
On en vient à soupçonner que Claire et ses collègues ont souffert de
surtravail, alors même que leur travail est indéniablement utile. Cela paraît
invraisemblable : cela supposerait que leurs efforts aient entretenu, voire
renforcé la substituabilité de l’offre de la banque.
Examinons attentivement la logique suivie par la banque. L’entreprise et
ses salariés se sont efforcés d’offrir des crédits aussi bon marché et aussi
faciles à mettre en place que ceux des concurrents. Ils ont proposé des
produits d’épargne adaptés à tous les profils et aux rendements intéressants.
Ils ont fait en sorte que les produits de crédit et d’épargne soient les plus
souples possibles, par exemple avec la possibilité d’anticiper les
remboursements ou les retraits de fonds. En matière de distribution, et à la
suite de l’expérience du Minitel, ils ont ajouté des centres d’appels au
réseau des agences, ils ont développé le portail Web et enfin des
applications. Ce faisant, ils ont permis aux clients d’accéder à un maximum
d’informations et de procéder seuls à une diversité de transactions. Ils ont
augmenté la rapidité de traitement de tous les types d’opérations, qu’il
s’agisse des dossiers de crédit, des ouvertures de placement, des
transactions boursières.
À chaque étape, à travers chaque initiative, la banque a tenté de faire
aussi bien que ses concurrents sur certains critères de performance, et d’en
faire davantage sur d’autres critères, pour « se différencier », comme on dit.
Cependant l’entreprise n’a jamais réussi à se différencier durablement :
chaque initiative a été suivie de ripostes qui ont permis aux concurrents de
s’aligner. Chaque tentative de différenciation provoquant des ripostes,
toutes les entreprises embarquées dans la course ont tendu à offrir les
mêmes choses et selon les mêmes méthodes, donc à étendre le champ de la
substituabilité, donc à diminuer la valeur créée. Le produit des efforts a été
contraire au résultat attendu.
Nous avons sous les yeux un phénomène d’alignement concurrentiel.
Laissée à elle-même, la dynamique est autoentretenue. C’est une course
sans fin. Pour faire image, les salariés pédalent vers un horizon qui, par
définition, est hors de portée. La course ne s’interrompt vraiment que
lorsqu’il reste un seul joueur.

On a les concurrents qu’on se donne


Je devine qu’une question se forme dans votre esprit : « C’est bien beau
de dire qu’une partie du travail accompli par Claire et ses collègues n’a pas
créé de valeur, mais la banque avait-elle le choix ? Si elle n’avait pas pris
d’initiatives, si elle n’avait pas riposté comme les autres, elle serait
morte ! »
Sauf que c’est la banque elle-même qui a choisi ses concurrents. Le
travail a façonné l’environnement autant qu’il a été façonné par lui. En
effet, l’entreprise a fait un choix fondamental : elle a poussé le modèle de la
banque universel jusqu’au bout, en l’occurrence jusqu’à offrir tous les
produits à tous les clients à travers tous les canaux possibles. La gamme
s’est élargie sans limites apparentes. On a cherché à attirer toutes les sortes
de clients, à l’exception des individus présentant un fort risque
d’insolvabilité. En matière de distribution, on a opté pour le multicanal,
voire l’omnicanal : agence, distributeur automatique de billets, centres
d’appels, interfaces numériques. C’est en décidant d’offrir tous les produits
à tous les clients à travers tous les canaux possibles, que la banque s’est
exposée aux attaques de tous les concurrents et à la pression de toutes les
contraintes de performance.
Aussi loin qu’on remonte vers son origine, l’alignement concurrentiel
apparaît comme le résultat d’une suite de décisions qui n’étaient pas
imposées par la loi du marché ou par les nécessités de l’histoire. Dans une
certaine mesure, les dirigeants étaient libres. C’est pourquoi on peut tenir
pour économisable une partie du travail engendré ; c’est pourquoi on peut
considérer qu’il y a eu surtravail.

Un outil pour détecter le surtravail


par alignement concurrentiel
Il n’est pas difficile de détecter la présence d’un surtravail par
alignement concurrentiel. Le phénomène se manifeste à trois niveaux. À
tous les niveaux, on voit combien la dynamique consomme de ressources :
des ressources psychiques et physiques ici, des ressources financières là.
Au niveau sectoriel, macroscopique, l’alignement concurrentiel aboutit
à des mouvements de concentration, visant à la fois la disparition des
concurrents et la réalisation d’économies d’échelle.
Au niveau individuel, microscopique, il s’exprime par le sentiment de
faire beaucoup d’efforts pour pas grand-chose et par une multiplication des
signes de sursollicitation, tels que la hausse des niveaux de stress ou la
montée des symptômes d’épuisement.
Au niveau organisationnel, mésoscopique, les manifestations sont
multiples. Première manifestation organisationnelle : l’alignement
concurrentiel procédant par comparaison et imitation, l’entreprise
investissant lourdement dans la veille, le benchmarking ou le partage de
« bonnes pratiques ». Cela a été le cas pour la banque qui emploie Claire.
Deuxième manifestation organisationnelle : la logique d’alignement
concurrentiel aboutit à un envahissement total des esprits et des agendas par
le vocabulaire de l’« efficacité opérationnelle ». L’efficacité opérationnelle
est le nom donné par l’un des plus grands penseurs de la stratégie
d’entreprise, Michael Porter, à la tentation de faire toujours plus ou toujours
mieux la même chose 4 (de la même chose qu’avant et/ou de la même chose
que les concurrents). Toutes les initiatives visant l’augmentation du débit de
production, l’amélioration de la qualité, la réduction des coûts ou des délais
participent de la recherche d’efficacité opérationnelle. Augmenter le débit
de production consiste à faire plus de la même chose : fabriquer davantage
d’unités, assembler davantage d’objets, faire davantage de mouvements,
combiner davantage de pensées. Améliorer la qualité consiste à faire mieux
de la même chose : réduire des défauts, exploiter davantage d’outils de
contrôle, faire preuve de plus de vigilance. Réduire les coûts et les délais
consiste à faire les mêmes choses avec moins : moins de matière, moins
d’énergie, moins de tâches inutiles, moins de goulots d’étranglement…
Le paroxysme est atteint lorsque naît le culte de l’« amélioration continue »,
expression qui ne laisse aucune ambiguïté quant au caractère interminable
de l’épreuve.
J’insiste sur un point : ça n’est pas la recherche d’efficacité qui doit
vous alerter, mais l’obsession de l’efficacité à l’exclusion de toute autre
réflexion. Vous pouvez soupçonner la présence de surtravail par alignement
concurrentiel lorsque la recherche d’efficacité capte toute l’attention,
occupe toutes les discussions, aspire toutes les énergies, sans laisser l’espoir
d’une victoire finale.
Il est un troisième symptôme organisationnel de la présence de
surtravail par alignement concurrentiel : l’entreprise ne renonce à rien. Elle
ne fait jamais délibérément moins bien que les concurrents dans certains
domaines ou sur certains critères de performance. La direction de
l’entreprise n’écarte aucun projet interne susceptible d’améliorer la
performance dans un quelconque domaine ou sur un quelconque critère de
performance. Tous les gains d’efficacité sont vus comme bons à prendre.
Indices de présence d’un surtravail par alignement concurrentiel

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. L’entreprise intervient sur des
marchés où l’offre est en voie ❒0 ❒1 ❒2 ❒3
de concentration
2. Les individus donnent des
signes de sursollicitation
(lassitude, sentiment de faire
❒0 ❒1 ❒2 ❒3
beaucoup d’efforts pour pas
grand-chose, stress trop élevé,
symptômes d’épuisement…)
3. La direction accorde
beaucoup d’importance à la
comparaison et à l’imitation : ❒0 ❒1 ❒2 ❒3
veille, benchmarking, partage
de bonnes pratiques…
4. Dans l’entreprise, on ne parle
que d’efficacité opérationnelle et ❒0 ❒1 ❒2 ❒3
d’amélioration continue.
5. Jamais nous ne faisons
volontairement moins bien que
les concurrents, dans certains ❒0 ❒1 ❒2 ❒3
domaines ou sur certains
critères de performance
La grille permet d’établir un score compris entre 0 et 15. Un score élevé signifie que la
probabilité de surtravail par alignement concurrentiel est élevée.

Le salut par l’abandon :


la focalisation stratégique
Il n’y a qu’une bonne manière de gagner la course. Elle tient en un mot :
abandonner. Il y a certes une alternative, qui consiste à manger les
concurrents les uns après les autres, mais la victoire ainsi acquise est bien
amère : en même temps qu’on mange les gêneurs, on engloutit les finances
et les vies humaines.
Quand j’observe les pratiques de mes propres clients, je me dis que le
choix de l’abandon est contre-intuitif, angoissant ou douloureux. Il est clair
qu’abandonner fait passer à côté d’opportunités. Pourtant, c’est le seul
chemin qui mène à la croissance profitable, durable, et soutenable. Il ne
s’agit pas de renoncer à l’observation des concurrents et à l’efficacité, ou de
perdre de vue les critères de comparaison. Il s’agit d’opter pour une logique
de focalisation : faire délibérément moins bien que les autres sur certains
critères, pour concentrer toute son attention sur un petit lot d’avantages
comparatifs, un lot spécifiquement adapté à certains besoins de certaines
cibles. C’est une des nombreuses leçons qu’on peut tirer de l’article
lumineux publié par Michael Porter en 1996 dans la Harvard Business
Review 5, ou plus récemment du livre Stratégie Océan Bleu, écrit par Chan
Kim et Mauborgne 6.
Une illustration simple de la logique de focalisation nous est donnée par
deux compagnies aériennes low-cost, Soutwest Airlines 7 et Easyjet 8, qui
ont prouvé qu’on pouvait tirer de gros profits de prix bas. Ces compagnies
ont ciblé une clientèle spécifique, elles ont circonscrit les besoins à
satisfaire, et pour ce faire elles ont suivi des méthodes spécifiques. L’une a
ciblé des particuliers disposant de temps de loisir et d’un budget moyen.
L’autre a ciblé des professionnels effectuant des trajets fréquents et soumis
à des contraintes de coût. L’une ne relie que des aéroports secondaires,
l’autre est implantée sur quelques aéroports de premier rang mais impose
une grande rigidité sur les horaires. Les deux privilégient les courts et
moyens courriers. Les deux ont aussi cessé d’offrir les services de
restauration et font payer le transport de bagages en soute.
Ces compagnies ont pu surclasser les concurrents sur certains critères
parce qu’elles ont décidé de ne pas s’aligner sur tous les critères, parce
qu’elles ont délaissé certains arguments comparatifs, certains besoins,
certains clients. Soulignons que l’abandon a conduit à une certaine forme
d’isolement : la première compagnie a choisi l’isolement en se rabattant sur
des aéroports secondaires, la seconde a choisi l’isolement en se rabattant sur
des créneaux horaires délaissés par les autres compagnies.
Ajoutons que la liste des ingrédients retenus formait un ensemble
extrêmement cohérent. Cohérence d’abord entre avantages et désavantages
comparatifs : dans cet exemple, le confort faible est au service du prix
faible. Cohérence ensuite entre avantages comparatifs, d’une part, et
besoins des cibles privilégiées, d’autre part : les particuliers et les
professionnels visés sont sensibles au prix. Cohérence enfin entre avantages
comparatifs, d’une part, et méthodes de production, d’autre part : l’ancrage
dans les aéroports secondaires permet de contenir les coûts d’infrastructure,
la focalisation sur les courts et moyens courriers permet d’assurer une
rotation rapide des avions, et donc de contenir les coûts d’exploitation, etc.
Bien que chaque ingrédient du succès puisse être importé par les
concurrents, la conjonction d’une forme d’isolement et d’une extrême
cohérence d’ensemble rend l’assemblage difficilement répliquable. Cet
assemblage peut alors garder durablement sa spécificité. Dans le langage
économique, on dit que l’entreprise fait une proposition de valeur unique,
qu’elle se rend non substituable, qu’elle acquiert un monopole restreint.
Les cas des deux compagnies aériennes low-cost sont loin d’être isolés.
La logique de focalisation a été un facteur clé de succès pour de
nombreuses grandes entreprises étudiées par les chercheurs en économie
industrielle. Elle se révèle être aussi un facteur clé de succès pour de
nombreuses entreprises de taille intermédiaire, comme l’ont montré
Hermann Simon et Stéphan Guinchard dans leur ouvrage Les Champions
cachés du XXIe siècle 9.
Les bénéfices de la focalisation et du monopole qui lui est attaché ne
sont pas uniquement économiques, ils sont aussi humains. Le fondateur de
Paypal, Peter Thiel le résume en ces termes : « Les monopolistes peuvent se
permettre de penser à autre chose que de gagner de l’argent ; les
antimonopolistes, non 10. » Les bénéfices humains sont de plusieurs ordres.
La position monopolistique rend d’abord possible un apaisement des
relations, par la voie du relâchement de certaines contraintes externes et
internes. Plus les contraintes sont lâches, plus il y a de « mou
organisationnel 11 », plus il est facile de faire des concessions aux collègues.
La focalisation stratégique permet ensuite à l’entreprise d’alléger son
portefeuille de projets internes. Une entreprise qui ne cherche pas à
s’aligner sur toutes les qualités comparatives, ou dont la gamme est étroite,
suit des voies d’amélioration en nombre limité. Elle prend moins
d’initiatives, libère du temps et réduit la quantité d’information en
circulation.

Le souci du détail
Les bénéfices de la focalisation ont tout de même une contrepartie. Pour
illustrer le propos, partons à nouveau d’exemples, en l’occurrence de
réussites qui ont été si éclatantes qu’elles ont été étudiées minutieusement
par les théoriciens de la stratégie.
Commençons par reprendre le cas de la première compagnie aérienne
low-cost nord-américaine : Southwest Airlines. Cette compagnie a accordé
une grande attention à des catégories de salariés méprisées par les autres
compagnies : le personnel d’entretien et de maintenance.
Traditionnellement, les aristocrates du transport aérien sont les pilotes.
Parfois, hôtesses et stewards sont aussi soignés. Chez Southwest Airlines, le
« petit personnel », la masse des « invisibles », a fait l’objet d’une
valorisation étonnante : les effectifs ont été bien dimensionnés, leurs
équipements ont été maintenus en très bon état, les rémunérations ont été
satisfaisantes. On pourrait se dire que les dirigeants étaient des
philanthropes. Il n’en était rien. Quel que soit le secteur, les entreprises low-
cost laissent rarement s’exprimer la générosité des dirigeants et managers.
Au contraire d’un geste de générosité, l’attention accordée aux invisibles a
été le résultat d’un savant calcul. En l’occurrence, la compagnie Southwest
Airlines a investi sur le « petit personnel » parce qu’elle avait besoin de
maximiser le taux de rotation des avions pour minimiser ses coûts, et parce
que c’est le balai manié par le service de nettoyage qui permet de remettre
rapidement un avion en état de vol.
Si j’avais le goût de la caricature, je conclurais que la compagnie a fait
des millions de profits en pariant sur un balai.
Changeons de secteur, et tournons-nous maintenant vers la distribution
de biens à usage des particuliers. À quoi reconnaît-on par exemple que la
stratégie d’Ikea 12 était aboutie ? À la présence d’un espace de jeu à l’entrée
des magasins, où l’on peut déposer les enfants en bas âge avant de débuter
la visite. Pour qui n’y prête pas garde, c’est au pire un détail anodin, au
mieux une idée judicieuse. Après tout, nous sommes dans le monde de
l’ameublement et de l’aménagement, et la présence d’un bassin rempli de
balles en plastique colorées semble accessoire. En vérité, cet espace de jeu
n’est pas un accessoire, c’est un concentré d’intelligence stratégique.
Rien n’a été fait au hasard. Jusqu’aux couleurs des balles en plastique,
le contenu de cet espace a été pensé pour ressembler aux parcs que les
enfants ont l’habitude de fréquenter. Son emplacement à l’entrée répond à
un besoin criant des jeunes ménages qui sont dans le cœur de cible de
l’entreprise : celui de se débarrasser d’une progéniture encombrante. Une
fois les jeunes enfants déposés dans le bac à balles, les jeunes adultes
entrent dans un circuit dont chaque étape, chaque composant, chaque
stimulus a été pensé pour eux. Bref un circuit sur mesure pour des familles
qui franchissent des étapes de la vie.
Déplaçons-nous enfin sur le terrain esthétique, et revenons au 24 janvier
1984. Ce jour-là a marqué l’histoire de l’informatique personnelle : ce fut la
date de commercialisation du premier Macintosh. Jusqu’au 23 janvier, les
ordinateurs n’affichaient qu’une seule police, une police rudimentaire,
incarnant la grossièreté robotique de l’époque. Le 24 janvier, un écran
révéla aux yeux du monde une variété de typographies, faites de courbes
délimitant des espaces magnifiquement proportionnés. L’allumage de cet
écran fut accompagné d’un son, un son éminemment reconnaissable, qui est
resté gravé dans les mémoires pendant des décennies. Le divorce d’avec les
codes de la robotique a contribué au succès d’Apple parce qu’il a été
parfaitement cohérent avec l’ambition des fondateurs, qui était de « mettre
un ordinateur dans les mains de tout un chacun » : en se rapprochant de la
diversité des formes dessinées par la main de l’homme pour échanger de
l’information, les typographies du Macintosh devaient faciliter la sortie du
cercle fermé des techniciens coutumiers des IBM AS400.
Vingt-quatre ans plus tard, en 2008, les MacBook ont adopté la coque
unibody : arrondie, elle est moulée d’une seule pièce dans l’aluminium
anodisé. Conséquence de quoi, les lignes extérieures ne laissent apparaître
aucune rupture, aucune jonction. Ici, l’attention des designers se déploie à
l’échelle du dixième de millimètre. Il ne s’agit pas là d’un caprice, mais
d’une solution qui répond à un besoin des cibles utilisatrices des Mac :
celles-ci sont abreuvées d’informations et ont besoin d’économiser leurs
ressources cognitives ; or les ruptures et les jonctions sont des informations,
donc les faire disparaître économise des ressources cognitives.
Au fil de ces quelques paragraphes, j’ai évoqué des détails, rien que des
détails : souvent des détails inaccessibles à la conscience comme dans le cas
d’Ikea, parfois des détails de l’ordre du dixième de millimètre comme dans
le cas d’Apple, voire des détails totalement soustraits à la vue des clients
comme dans le cas de Southwest Airlines. La multiplication des détails
signale que le choix stratégique n’a rien d’une décision prise sur un coin de
table. On ne dit pas : « OK, c’est bon, faisons cela. » On ne dit pas : « On
veut être les leaders, on a trois axes de développement. » La stratégie ne
s’exprime pas dans des grandes lignes.
La stratégie est au contraire un exercice obsessionnel. Elle emprunte à
la folie. Elle parle des objets : des produits, tels que l’ordinateur de tout un
chacun ; des process, tels que le nettoyage d’un avion en attente sur le
tarmac ; des outils, tels que le balai utilisé pour le nettoyage. La stratégie
parle de mise en scène : les visites de courtoisie rendues aux « invisibles »
par la direction de Southwest Airlines, le circuit suivi par les jeunes couples
dans le cas d’Ikea, la keynote Apple organisée selon des principes tirés des
neurosciences.
Considérés isolément les uns des autres, les détails ne sortent pas
forcément de l’ordinaire. Vous reconnaîtrez avec moi que les espaces de jeu
Ikea sont banals et que les balais utilisés chez Southwest Airlines restent
des balais.
Ce qui donne un caractère extraordinaire aux détails, c’est leur
agencement, leur combinaison. Ils jalonnent une chaîne qui va de la
conception à la distribution : la « chaîne de valeur ». Les détails qui
caractérisent un maillon de cette chaîne sont pensés en fonction des détails
qui caractérisent les autres maillons. Par la magie de la combinaison,
chaque maillon en vient à renforcer les autres. Par exemple, l’espace de jeu
Ikea facilite l’accès aux produits et rend les clients payeurs disponibles pour
l’acte d’achat. Ainsi le début du parcours détermine ce qui se passe en fin
de parcours. Par cette même magie, les maillons faibles en viennent à
consolider les maillons forts, à la façon des carences des services low-cost,
qui sont là pour permettre des prix bas. C’est bien la somme des détails qui
compose une chaîne de valeur sur mesure et qui protège de l’alignement
concurrentiel.
Naturellement, le souci du détail consomme du temps et de l’attention.
Or le temps et les capacités d’attention de tous les salariés sont limités. Cela
vaut pour tous les statuts : dirigeants, managers, experts, techniciens… Fort
heureusement, la focalisation économise des ressources cognitives, et plus
globalement des ressources humaines, en même temps qu’elle en
consomme. Elle permet d’être obsessionnel en même temps qu’elle le
demande. Car faire un choix stratégique, c’est toujours une façon de
sélectionner : on donne des limites à la variété des cibles, des services, des
techniques… bref, à la variété de ce que l’on fait.
Là où les salariés embarqués dans l’alignement concurrentiel semblaient
monter une pente glissante et sans fin, de plus en plus chargés, les salariés
encadrés par la focalisation stratégique montent les marches pas à pas, et
concluent par échec et mat.
Les réponses à quelques questions simples vous permettront de savoir si
vous êtes sur la bonne voie :
Première question : l’entreprise a-t-elle renoncé à quelque chose ?
renoncé à être performante sur certains points ? renoncé à des segments
de clientèle ? renoncé à servir des besoins ? Si vous ne détectez aucun
renoncement, si vous avez l’impression que l’entreprise « attrape tout ce
qui passe », il y a un souci.
Deuxième question : lorsqu’on vous présente un projet de changement,
un projet d’innovation, un projet d’amélioration des performances […],
ou lorsque vous pensez à un projet passé, êtes-vous capable d’établir un
lien entre, d’une part, les attendus de ce projet et, d’autre part, les
avantages comparatifs que l’entreprise prétend détenir ou acquérir ? Si
vous répondez encore par la négative, il est possible que l’entreprise
progresse par mimétisme.
Troisième question : parle-t-on amoureusement des détails matériels qui
distinguent les produits ou les méthodes de production ? des
matériaux ? des couleurs ? des formes géométriques ? des bruits ? des
distances ? Si vous ne parlez jamais ou n’entendez jamais parler des
détails matériels, c’est que la stratégie n’est pas aboutie.
Pour une culture du refus
Dans ce chapitre, je n’ai fait que rassembler des arguments déjà bien
connus par les économistes, par les stratégistes, par les dirigeants et par bon
nombre d’anciens étudiants d’écoles de commerce. Les arguments sont bien
connus, et pourtant ils peinent à entrer dans les faits. Je dis cela parce que si
les entreprises appliquaient réellement les principes de la stratégie, chacune
jouirait de son territoire et nous aurions l’impression de vivre dans la paix
économique.
Vous comprenez maintenant ce qui sépare la théorie et la pratique : la
seconde est façonnée par le jeu des intérêts particuliers, beaucoup plus que
par les leçons académiques 13. Le jeu qui traverse la banque employant
Claire tire sa puissance du fait qu’il fournit du travail au plus grand nombre.
Sa nature est éminemment paradoxale : il fait vivre en même temps qu’il
tue à petit feu. Tout le monde s’en plaint, mais au fond tout le monde y
tient.
Au passage, c’est aussi toute l’ambivalence de la « concurrence » qui
est révélée. En dehors des cercles académiques et des institutions qui
défendent les principes fondamentaux de l’économie de marché, la
concurrence est perçue surtout négativement : elle apparaît comme une
menace pour les employeurs comme pour les salariés, comme une source de
contraintes. Les contraintes qu’elle apporte sont indéniables, mais elles n’en
sont que la face visible. Sur la face cachée, la concurrence fournit autant
d’opportunités qu’elle n’apporte de contraintes, car chaque comparaison
défavorable avec un compétiteur offre une raison d’agir, et donc une
occasion de se valoriser. C’est vrai pour la rapidité, la qualité, le design, le
prix, l’« expérience client », « la digitalisation », que sais-je encore… On
comprend pourquoi beaucoup de monde trouve son compte dans
l’alignement concurrentiel.
Le nombre de complices dans l’affaire rend l’exercice de focalisation
stratégique particulièrement ardu. On peut difficilement mettre fin à
l’alignement concurrentiel en mutant un seul personnage, comme on l’a fait
dans le cas de Foster Brothers. Plus généralement, on ne peut s’en remettre
à des événements ponctuels tels que des mobilités professionnelles
individuelles, ou des réunions tenues derrière le voile d’ignorance. Les
événements ponctuels ne sont pas d’un grand secours car le jeu des intérêts
particulier exerce dans ce cas une pression continue, qui pousse à la
dispersion des efforts. Certes les événements ponctuels peuvent faciliter la
formulation d’une proposition de valeur unique, mais dans la durée ils
n’empêcheront pas les acteurs d’écarter l’entreprise de cette proposition, à
force d’initiatives et de projets d’amélioration.
L’exemple d’Apple me laisse croire que dans ces conditions, face à
l’inflation des initiatives et des projets internes, on ne peut se dispenser de
pratiques de sélection rigoureuse. Ce sont de telles pratiques qui ont
accouché de la gamme restreinte sur laquelle l’entreprise a construit toute sa
puissance 14 : le Macintosh, l’iMac, l’iPod, l’iPhone…
D’emblée je vois deux méthodes de sélection, non exclusives l’une de
l’autre : s’en remettre à des outils et/ou faire reposer sur les épaules des
individus un devoir de refus.
Un bon outil de sélection des initiatives devra contribuer à la
neutralisation des intérêts. Ce serait le cas par exemple d’un « comité des
innocents anonymes », une institution interne à l’entreprise, dont la
composition serait aléatoire, modifiée fréquemment et à chaque instant
inconnue, comme placée derrière un miroir sans tain. À ce comité les
porteurs de projet présenteraient leur dossier. Les membres du comité
feraient une première évaluation, une évaluation « naïve », au sens où on ne
leur apporterait pas d’informations sur le contexte de marché et sur le
positionnement de l’entreprise, en sus de ce qu’ils savent déjà. Ils feraient
une seconde évaluation, une évaluation « éclairée », après qu’un acteur
autre que le porteur du projet aura apporté des informations sur le contexte
de marché et sur le positionnement de l’entreprise. Les deux évaluations
passeraient par le même questionnement :

Questions guidant le « comité des innocents


anonymes »
1. À quel(s) besoin(s) client(s) vient répondre le projet ?
2. Quels avantages comparatifs peut-on en attendre ?
3. Le gain sera-t-il fort ou faible ?
4. Le risque est-il fort ou faible ?
5. Le projet contribue-t-il à offrir quelque chose d’unique ?

Je sais, vous vous dites que l’installation d’un tel dispositif de sélection
n’est pas chose aisée, voire que cette histoire de comité est somme toute
assez exotique. Et vous avez raison. C’est pourquoi la sélection passera le
plus souvent par vous, ou par d’autres personnes nommément identifiées. Il
faut dire « non », il faut savoir refuser : refuser d’adresser certaines cibles,
refuser de répondre à certains besoins, refuser de développer certaines
techniques, refuser d’investir sur des fonctions secondaires, refuser
d’allouer des ressources à certains projets…
N’allez pas croire que la pratique individuelle du refus est chose plus
aisée que l’installation d’un outil de sélection impersonnel tel que le comité
des innocents anonymes. En effet, le refus est toujours inconfortable, il fait
toujours violence, il génère toujours de la frustration. C’est pourquoi vous
et moi sommes toujours tentés par le compromis.
Afin d’échapper à la tentation du compromis, un individu a besoin de
réunir deux premières ressources : des principes d’évaluation et des
compétences comportementales.
Il a besoin de principes d’évaluation parce qu’à un moment ou à un
autre du processus de décision, il doit estimer si oui ou non les projets ou
les scénarios de changement permettront d’atteindre les résultats qu’ils
promettent ; il doit aussi démontrer la solidité de ses arguments, ou plus
modestement légitimer son point de vue aux yeux de ses interlocuteurs.
Je rappelle que, pour faire une estimation et pour asseoir sa légitimité,
l’individu en question ne dispose d’aucun système de choix fiable. Il ne
peut s’appuyer que sur des « technologies floues » : des modèles non
mathématisables et souvent incomplets, des référentiels plus ou moins bien
formalisés… Dans ce chapitre, je vous ai proposé un référentiel : la théorie
du positionnement stratégique que Michael Porter a exposée dans son
article de 1996, qui formule l’idéal d’une proposition de valeur unique. De
cet idéal dérive le guide destiné au comité des innocents anonymes. Je vous
invite à reprendre ce guide pour conduire vos évaluations.
Concernant les compétences comportementales, j’avancerai que dire
« non » sans faire violence, cela s’apprend. Il existe des techniques pour
cela. Les techniques les plus éprouvées nous viennent de la psychologie
cognitive et comportementale, et sont désignées par les termes
« assertivité » ou « affirmation de soi ». Ces techniques ne permettent pas
de faire des miracles, mais aident à se faire entendre.
Je ne présenterai pas ici en détail les techniques d’affirmation de soi.
D’autres plus compétents que moi l’ont déjà fait 15. Tout au plus donnerai-je
un aperçu de ces techniques dans un débat d’ordre stratégique ou
organisationnel.

– Cela fait maintenant deux ans que notre croissance est atone, nous ne
parvenons pas à progresser sur nos marchés traditionnels, le segment de
clientèle est trop étroit. Il faut sortir de notre niche. Il y a quelque
temps, nous avons évoqué la possibilité d’ajouter une nouvelle ligne de
produit à notre gamme. Nous pensions à une ligne positionnée sur des
niveaux de prix inférieurs, accessible à une clientèle plus large.
Aujourd’hui je voudrais vous présenter les grandes lignes d’un projet
qui irait en ce sens.
[Présentation.]
– Si je comprends bien, l’idée centrale est de profiter d’une capacité de
fabrication que nous avons déjà, pour diversifier notre offre tout en
réalisant des économies d’échelle.
– C’est bien cela
– OK. Personnellement je suis partagé. D’un côté, j’ai été séduit par
plusieurs aspects de la présentation. J’ai particulièrement apprécié la
précision. En termes d’organisation, on arrive tout de suite à se projeter.
Sur le plan économique, on voit tout de suite les grands équilibres
financiers. Tout cela est très rassurant.
– Merci.
– D’un autre côté, je vois des zones d’ombre et j’ai des doutes. Il me
semble que les produits qu’on imagine exigent des circuits
d’approvisionnement qui sont nettement différents de nos circuits
actuels. Et puis aussi, ce que je constate dans d’autres entreprises, c’est
que pour toucher un public aussi large, il faut des pratiques marketing
qui ne sont pas non plus les nôtres.
À mes yeux, cela a deux conséquences. D’abord, nous aurons
probablement un coût d’apprentissage, donc on peut penser qu’il faudra
plus de temps pour atteindre les résultats qu’on souhaite. Ensuite, ça
veut dire qu’on ne réalisera pas les économies d’échelle sur la fonction
marketing, parce qu’il nous faudra deux équipes différentes.
En tout cas, ça donne matière à réfléchir. On peut imaginer deux façons
de poursuivre : ou bien on approfondit la réflexion sur cette nouvelle
ligne de produit, en se penchant sur les zones d’ombre ; ou bien on
considère qu’il faut capitaliser sur nos circuits d’approvisionnement et
sur notre savoir-faire marketing, et on s’ouvre à d’autres idées. À la
limite, on peut faire les deux.

Naturellement, cet aperçu est un condensé de ce que vous entendez en


réalité. À bien des égards, il est caricatural. Néanmoins, il suffit à illustrer
des principes clés du dialogue. Après la présentation, l’auditeur qui prend la
parole commence par reformuler ce qu’il a entendu : « Si je comprends
bien… ». La reformulation a deux objectifs : montrer qu’on a écouté
attentivement et s’assurer qu’on a bien compris.
L’auditeur enchaîne en exprimant son sentiment, de façon transparente
et équilibrée : « je suis partagé », « j’ai été séduit », « je vois des zones
d’ombre et j’ai des doutes ». L’expression des perceptions positives ne doit
pas être un exercice forcé. Restez-en à ce que vous avez réellement
éprouvé. J’attire cependant votre attention sur le fait qu’il y a toujours une
dose de vérité, toujours des qualités dans la présentation d’un projet. Je
vous conseille d’apprendre à relever cette dose de vérité et ces qualités.
Cela vous évitera de vous placer trop souvent en posture critique, et vous
permettra de préserver la confiance du présentateur, de maintenir son esprit
ouvert, de garder son écoute.
L’expression des sentiments est accompagnée d’arguments précis, qui
sont tantôt des références au contenu de la présentation (par exemple, « J’ai
particulièrement apprécié la précision »), tantôt des hypothèses ou des
thèses étayées (par exemple, « Il me semble que les produits qu’on imagine
exigent des circuits d’approvisionnement qui sont nettement différents de
nos circuits actuels »).
À ces références et à ces hypothèses, l’auditeur ajoute des éléments sur
les conséquences : « Donc, nous aurons probablement un coût
d’apprentissage. »
En fin de dialogue, il ménage une ouverture : « En tout cas, ça donne
matière à réfléchir. Je vois deux façons de poursuivre. » De la sorte, il offre
au présentateur une sortie honorable, et là encore garde sa confiance.
Au total, on obtient les séquences suivantes :
– Si je comprends bien – je suis séduit – par la précision – qui facilite la
projection – ce qui me rassure – et ouvre deux pistes de réflexion.
– Si je comprends bien – j’ai des doutes – en raison de zones d’ombre –
qui me laissent soupçonner un coût d’apprentissage – donc une difficulté
d’atteinte des résultats – d’où deux pistes de réflexion.
Ces séquences correspondent au schéma générique suivant :
1. Écoute.
2. Reformulation.
3. Expression des sentiments.
4. Exposition des raisons : des constats, ou à défaut des hypothèses
présentées comme telles.
5. Évaluation des conséquences probables de la décision envisagée.
6. Ouverture de pistes de réflexion.

Le management de la frustration
J’écrivais plus haut que les techniques d’affirmation de soi ne font pas
de miracles. J’avais alors en tête que leur utilisation ne change pas le cours
des événements lorsque les individus qui tentent de se faire entendre se
trouvent face aux membres d’une coalition dominante. Selon toute
probabilité, le directeur technique de Sirache ou le directeur des achats de
Foster Brothers n’étaient ni plus ni moins compétents que leurs
homologues, en matière d’affirmation de soi. Or l’un n’a pas été entendu
jusqu’à la fin du deuxième règne, et l’autre a empêché ses homologues
d’être entendus jusqu’au rachat de l’entreprise par le Groupe Sears. Ce
contraste témoigne de ce qu’aucune technique issue de la psychologie ne
peut vaincre la structure de pouvoir au sein d’une organisation.
La question du pouvoir est incontournable dans une réflexion sur la
pratique du refus, car celui qui refuse risque de s’entourer d’opposants. Tout
décideur se trouve pris dans une situation inextricable en apparence :
simultanément il est obligé de générer de la frustration, de se faire des
alliés… et de se méfier de ses alliés, qui tordent la réalité en sorte de
promouvoir les problèmes dont ils ont les solutions.
Quelle que soit sa ligne de conduite, le décideur est engagé dans une
course contre la montre : plus la réussite tarde, plus les bénéfices
distribuables aux alliés se font attendre, plus la contestation monte, et les
alliances favorables se fragilisent.
Schématiquement, la capacité du dirigeant ou du manager à créer une
alliance tout en pratiquant le refus tient en trois termes : mission, capacités
d’action, valorisation.
Le terme « mission » prend son sens lorsqu’il est associé à un argument
déjà avancé : une stratégie est un assemblage unique de maillons qui
composent une chaîne de valeur. Cela implique que chaque maillon soit une
contribution unique, que chaque fonction réalise quelque chose
d’extraordinaire, pas nécessairement innovant, pas forcément original, mais
toujours marqué par le souci du détail. C’est dans l’obsession et la quête de
l’unique que la mission puise sa force. Du registre de l’organigramme, on
passe au registre du sacré. Le sacré, c’est toute la distance qui sépare la
« fonction » de la « mission ».
Pendant les années 1990, Neutrogena a réalisé un véritable exploit en
confiant une mission à l’une de ses équipes 16. La marque s’est développée
en privilégiant des circuits de distribution spécifiques pour préserver une
image haut de gamme. Parmi ces circuits figuraient par exemple les
pharmacies, mais aussi les hôtels de luxe. Problème : les hôtels de luxe
souhaitaient le plus souvent bénéficier d’un packaging spécifique ; ils
demandaient ni plus ni moins que la disparition des attributs visuels de la
marque. La mission du marketing opérationnel devenait : obtenir des hôtels
qu’ils acceptent de maintenir les visuels de la marque ; en cas de réussite,
« nous serons seuls au monde ». Cette dernière formule n’a sans doute
jamais été prononcée, mais c’est de cela qu’il s’est agi.
Ensuite, les fonctions sont toutes intéressées par l’obtention de
« capacités d’action » en propre. Les capacités d’action ne se mesurent pas
aux moyens matériels ou au budget. Une fonction voit ses capacités
d’action augmenter lorsque les autres fonctions dépendent d’elle pour
répondre à leurs enjeux prioritaires. L’éventail des ressources inclut non
seulement les effectifs, les compétences et les outils, mais aussi l’accès aux
lieux de décision, l’accès voire le monopole des informations, etc.
Le troisième terme qui sous-tend la création et le maintien d’une
alliance est la « valorisation ». En soi, l’attribution de capacités d’action est
déjà un levier de valorisation : elle détermine le capital économique et
social des acteurs. Le capital économique comprend bien entendu le niveau
des dépenses (dont les rémunérations) et la taille des investissements. Le
capital social désigne quant à lui les réseaux auxquels les acteurs ont accès,
au premier rang desquels les circuits d’information et de décision. La
valorisation inclut une composante qui se confond plus difficilement avec
les capacités d’action : l’allocation du capital culturel, ou la rétribution
symbolique de la contribution. Ici, la valorisation relève plutôt de la mise en
valeur. Mise en valeur par les signes distinctifs : le statut, l’uniforme,
l’environnement physique, etc. Mise en valeur par la visibilité : la
communication et le storytelling.
Synthèse des moyens disponibles pour
développer une culture du refus
1. Outils de sélection ; ex : comité des innocents anonymes.
2. Compétences individuelles du refus : principes d’évaluation stratégique et
techniques d’affirmation de soi.
3. Management de la frustration : mission, capacités d’action, valorisation.

Si vous parvenez à faire sauter les verrous stratégiques et à brider, voire


briser la dynamique d’alignement concurrentiel, si vous évitez à la fois le
déficit d’adaptation et l’adaptation frénétique, alors vous aurez fait un bon
bout de chemin. Dans la liste des sources de surtravail, ce sont les deux
seules d’ordre stratégique que je connaisse.
Toutefois nous n’en avons pas fini avec les sujets relatifs au
positionnement de marché. J’ai une mauvaise nouvelle : il ne suffit pas de
réduire le surtravail pour améliorer la santé de l’entreprise et de ses
membres.
Il faut aussi aménager des poches de sous-travail. Impérativement.
CHAPITRE 3

La nécessité d’un sous-travail

Pas plus que le surtravail n’était la surcharge, le sous-travail n’est la


sous-charge. Ni le premier ni le second ne donnent de mesure de la charge.
Le sous-travail tel que je l’entends n’est pas une simple absence de
surtravail, mais son symétrique : tandis que l’un rassemble les tâches qui ne
créent pas de valeur, l’autre désigne plutôt une somme de tâches qui créent
de la valeur… alors même qu’elles ne sont pas accomplies ! Une
organisation peut contenir le surtravail tout en souffrant grandement de
l’absence de sous-travail. Au point même d’en mourir.

L’absence de sous-travail comme


problème
La mort par absence de sous-travail, c’est l’expérience qu’ont vécue des
intermédiaires financiers apparus à l’aube de la « nouvelle économie », à la
fin des années 1990 : les discount brokers, qui ont profité de l’essor du Web
pour offrir aux particuliers des services de courtage boursier à prix cassés 1.
Les discount brokers ont démontré une efficacité sans faille. En l’espace
d’une année, ils ont développé des services comparables aux outils utilisés
par les traders professionnels. Ils ont commencé par offrir un accès
extrêmement rapide aux places boursières (« temps réel » étaient leurs
maîtres mots). Ils ont continué en fournissant toutes sortes d’aides à la
décision : des fils d’actualité, des outils d’analyse technique ou graphique,
des avis d’experts, etc. Ils ont proposé tous ces services à faible coût. Et
aussi ils se sont parfaitement conformés aux règles édictées par l’Autorité
des marchés financiers.
Derrière l’image d’une efficacité sans faille, on devine sans peine
l’alignement concurrentiel observé dans tant d’autres secteurs d’activité.
Tout de même le mouvement était exceptionnel par sa vitesse. Rendez-vous
compte : ils ont bouleversé le marché du courtage en l’espace d’une année
seulement !
La période de gloire n’a pas duré, c’est le moins qu’on puisse dire : au
bout de quatre ans, le discount brokerage avait disparu. Ce ne sont pas
forcément les entreprises elles-mêmes qui ont disparu, mais le modèle
qu’elles incarnaient. Une partie d’entre elles a investi dans le conseil à
l’investissement, à la manière des sociétés de bourse traditionnelles. Une
autre partie a élargi la palette des services au-delà des transactions
boursières, avec des contrats d’assurance-vie, des placements collectifs ou
encore des moyens de paiement… Toutes sortes de produits qui les
rapprochaient de la banque universelle.
Quel comble de voir les acteurs fuir l’alignement concurrentiel en
rejoignant un secteur lui aussi très affecté. Il faut être fou ! Qu’allaient-ils
donc chercher ? Certainement pas l’absence de compétiteurs, alors quoi ?
Des cachettes. Ils cherchaient des cachettes. Tant qu’ils s’en tenaient à
la gestion des transactions boursières, les clients voyaient tout, les discount
brokers étaient comme nus, contraints d’assumer leurs promesses à chaque
minute qui passait. Tout relâchement de l’effort était interdit, le sous-travail
impossible.
À première vue, les technologies de l’information ont joué un grand rôle
dans cette mise sous tension permanente. D’abord, elles ont joué un grand
rôle parce que, à travers l’interface Web, les clients jouissaient d’une vue
imprenable sur la chaîne de traitement de l’information, donc sur le
déroulement des opérations. Les clients avaient les moyens de percevoir la
moindre erreur, le moindre ralentissement, la moindre interruption de flux,
bref le moindre accident de production, la moindre imperfection. En cas
d’imperfection, certains n’hésitaient pas à contacter les centres d’appels, ne
serait-ce que pour obtenir des renseignements, parfois pour se plaindre,
parfois pour demander réparation. Certains clients allaient jusqu’à prendre
contact avec l’Autorité des marchés financiers, qui pouvait contrôler
l’activité très facilement, puisque les technologies numériques gardaient les
traces de toutes les opérations.
Un économiste dirait que les asymétries d’information étaient très
faibles. Le marché du discount brokerage était transparent, comme rarement
ce fut le cas dans l’histoire économique. Et cette transparence s’est révélée
insupportable.

Quand le sous-travail compense


le surtravail
Il est un secteur au sein duquel on ne fait pas tout ce qu’on promet au
client, c’est le celui de la construction.
Dans ce secteur, les conditions de travail sont éprouvantes, notamment
dans les bas de cycle, lorsque les entreprises sont obligées de comprimer les
devis à l’extrême pour décrocher des affaires. Plus les devis sont
comprimés, plus les contraintes sont fortes. Ce sont les fonctions placées en
aval de la chaîne de valeur qui en souffrent le plus, car à mesure que les
chantiers avancent, la difficulté de reporter les problèmes à plus tard
augmente. La tension monte inexorablement, pour atteindre un paroxysme
dans les semaines ou les mois qui précèdent la livraison.
Et pourtant les individus en bout de chaîne survivent. Ils survivent parce
qu’ils gardent des marges de manœuvre. Savez-vous lesquelles ? Savez-
vous précisément ce qui se passe sur un chantier de construction ? Le plus
souvent, la réponse est non. Si vous avez déjà fait bâtir une maison, vous
savez que la réponse est non. Vous savez aussi que cela vous a rendu
furieux, parce qu’à plusieurs reprises le livrable s’est révélé non conforme à
vos attentes, et parce que vous aviez l’impression de ne pas pouvoir y faire
grand-chose.
Votre sentiment d’impuissance tenait à deux éléments de circonstance.
Premier élément : même lorsque vous vous rendiez sur les lieux, vous ne
pouviez voir ce qui se cachait entre les parois déjà érigées, ou sous les
revêtements déjà posés. Vous ne pouviez observer tous les résultats du
travail des prestataires, vous pouviez encore moins observer les efforts.
Second élément : même lorsque vous voyiez quelque chose, vous n’aviez ni
les compétences ni les outils de mesure pour évaluer la situation. Ces deux
éléments réunis dressaient un épais voile d’opacité entre les entrepreneurs
du bâtiment et votre personne. Vous pâtissiez d’asymétries d’information,
au contraire de ce que vous auriez pu vivre face à un discount broker.
En votre absence, le conducteur de travaux, le chef de chantier et les
ouvriers prenaient des libertés avec le contrat qui vous liait : ou bien ils
importaient des ressources depuis un chantier moins avancé, ou bien ils en
exportaient vers des chantiers plus avancés ; dans le même temps ils
utilisaient d’autres matériaux que ceux prévus initialement, ils modifiaient
des circuits de câblage, ils ne mettaient qu’une couche de peinture au lieu
de deux, ils faisaient l’impasse sur des mesures, des vérifications… Dans
l’hypothèse où le devis initial avait été fortement comprimé grâce à vos
talents de négociation, ces libertés leur ont permis de vous livrer avec juste
« un peu » de retard et de ne pas perdre « trop » d’argent. Dans l’hypothèse
où vous aviez manqué de talent de négociation au lancement du projet, ces
libertés leur ont permis de dégager des marges qui ont été consommées sur
d’autres chantiers.
Derrière le voile d’opacité qui séparait les prestataires de votre personne
se logeaient des « poches de sous-travail », que Susan Shapiro nomme avec
plus d’élégance « niche temporelle 2 ».

Indices de présence de sous-travail

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Il y a une partie de l’activité
❒0 ❒1 ❒2 ❒3
que le client ne voit pas
2. Les clients peuvent
difficilement évaluer nos
❒0 ❒1 ❒2 ❒3
résultats (ex : les qualités du
produit)
3. Les clients peuvent
❒0 ❒1 ❒2 ❒3
difficilement évaluer nos efforts
La grille permet d’établir un score compris entre 0 et 9. Un score élevé signifie que les
chances de présence de sous-travail sont élevées.

Le terme « niche » est couramment utilisé en sciences économiques,


mais, à la suite des travaux de Harrison White 3, il désigne le plus souvent la
« niche de positionnement ». Être sur une niche de positionnement, c’est
prendre une position singulière au sein d’un espace comparatif qu’est le
marché ; c’est occuper un terrain d’où les compétiteurs sont absents ; c’est
assumer une proposition de valeur unique ; c’est échapper à la
substituabilité des offres. L’espace du marché est structuré par autant de
dimensions qu’il y a de critères de performance ou d’avantages comparatifs.
La notion de niche temporelle fait quant à elle référence à l’activité qui
est soustraite au regard du client. Elle est une durée pendant laquelle le
prestataire peut détourner les moyens que le client lui confie, à d’autres fins
que celles que le client lui a assignées. C’est ce que font les acteurs de
chantier dans le secteur de la construction.
Un entrepreneur heureux n’est pas nécessairement celui qui dispose des
méthodes et des salariés les plus efficaces, c’est celui qui jouit à la fois
d’une niche de positionnement et d’une niche temporelle. La plupart des
entreprises du secteur de la construction manquent de la première, mais
survivent grâce à la seconde. Les discount brokers manquaient des deux,
cela les a tués. On ne survit pas sans asymétrie d’information, sans
possibilité d’un sous-travail. Je le répète : la transparence est un poison
mortel. Son culte sert les intérêts des acheteurs, pas ceux des vendeurs.

La véritable erreur des discount brokers


Rien ni personne n’a imposé la transparence aux discount brokers. Pas
même les technologies de l’information. Les technologies ont été placées au
service d’un choix, un choix qui revenait aux entrepreneurs de la nouvelle
économie. Ce choix fut celui d’une spécialisation extrême, en largeur
comme en profondeur. En largeur, à l’horizontale du marché, ils se sont
spécialisés dans les transactions boursières, contrairement aux banques
universelles qui offraient à la même clientèle toute une palette de produits
de paiement, d’épargne ou de crédit. En profondeur, à la verticale du
marché, ils ne fabriquaient en propre que l’interface Web qui permettait au
particulier de mener des transactions. Ils avaient externalisé toutes les autres
fonctions : bien sûr la gestion du carnet d’ordres, toujours prise en charge
par une entreprise de cotation telle que Euronext, NYSE, Nasdaq… Mais
aussi la transmission des ordres, la tenue de compte et la production des
informations d’aide à la décision.
C’est le fait de ne couvrir qu’un seul maillon de la chaîne de valeur qui
a privé les discount brokers de niche temporelle. On voyait parfaitement à
travers les murs parce que ces murs n’avaient aucune épaisseur, parce que
les courtiers ne transformaient rien ou pas grand-chose.
Ils étaient privés de niche de positionnement pour la même raison. Les
concurrents s’alignaient avec une facilité déconcertante non seulement
parce qu’ils voyaient tout des tentatives de différenciation, mais aussi parce
qu’ils avaient accès aux mêmes fournisseurs, parce que tout le monde
assemblait des pièces identiques.
Les axes de développement qu’ont suivis les discount brokers pour
sortir du discount brokerage n’ont pas été choisis par hasard : offrir du
conseil à l’investissement, distribuer des produits de placement collectif…
tout cela revient à étendre en profondeur la couverture de la chaîne de
valeur. Tout cela revient par la même occasion à réintroduire de l’opacité :
qui sait ce qui se passe dans le cerveau d’un conseiller financier lorsqu’il
formule des recommandations ? Qui sait ce qui se passe dans les bureaux
des sociétés de gestion qui fabriquent les produits de placement ? Vous n’en
savez pas davantage que vous n’en saviez à propos des chantiers de
construction.

Un levier stratégique :
le choix de type make or buy
Le réglage du degré de profondeur est un ensemble de décisions de type
make or buy : des arbitrages entre internalisation et externalisation. En
général, les acteurs économiques arbitrent en fonction de deux critères. Un
critère financier tout d’abord : on peut avoir intérêt à externaliser pour
réduire les coûts de revient, ou pour limiter l’investissement notamment
lorsque la demande est variable. Un critère de maîtrise ensuite : on garde un
intérêt à internaliser pour entretenir des compétences, ou pour sécuriser
l’approvisionnement et la production.
Je dois insister sur un troisième critère, qui est l’opacité : la notion de
« niche temporelle » invite à internaliser lorsque cela permet de renforcer
les asymétries à son profit, et/ou lorsque cela permet de réduire les
asymétries qui profitent aux autres. Les asymétries apparaissent quand
l’activité de production est à la fois non observable et non quantifiable par
le client. Une activité non observable mais quantifiable n’apporte aucun
confort : l’acheteur n’a besoin de connaître que les prix unitaires ou les
indicateurs de performance pour « mettre la pression » ou dicter ses
conditions.
C’est d’ailleurs la raison pour laquelle les approvisionnements en gros
volumes ont fait l’objet des premières externalisations : dans l’industrie
automobile par exemple, les pièces destinées à être assemblées pouvaient
être mesurées, pesées, dénombrées, tarifées à l’unité ; les cadences et les
délais pouvaient être aussi quantifiés… C’est encore la raison pour laquelle
beaucoup d’entreprises ont rapidement externalisé des centres d’appels : il
est possible de mesurer le nombre d’appels entrant et sortant, le taux de
décrocher, la durée d’attente des appelants, la durée moyenne des
conversations téléphoniques, la durée de pauses des salariés… jusqu’à la
satisfaction des clients.
Dans le secteur de la construction, au contraire, l’opacité offre des
protections ou des marges de manœuvre parce que le travail échappe
largement à la mesure. Largement mais pas totalement : c’est bien pour
respecter des contraintes de budget ou de délai (les éléments les plus
quantifiables) que les prestataires jouent sur des contraintes de qualité (les
éléments les moins quantifiables).
Un levier organisationnel à actionner avec
modération : rester chez soi
Le positionnement dans l’espace du marché et sur la chaîne de valeur
relève de la stratégie d’entreprise. Une deuxième façon de dresser un voile
d’opacité face au client relève davantage de l’organisation. Dans la
fabrication industrielle ou artisanale, le voile s’impose au premier regard :
les ateliers sont entourés de murs épais. Dans les services, la présence du
voile n’a rien d’une évidence : un restaurateur ou toute autre entreprise
accueillant le client dans ses murs ne peut profiter que d’une opacité
partielle.
D’autres types de prestataires ont le choix. Ainsi, un consultant, un
avocat ou un expert peut travailler sur deux lieux : au bureau ou chez le
client. C’est en travaillant au bureau qu’il s’offre une niche temporelle.
L’aménagement d’une niche temporelle est une ressource précieuse pour
lui. Pour le comprendre, il faut d’abord rappeler qu’un consultant, un avocat
ou un expert facture ses services au temps passé. Il faut ensuite ajouter que
sur certaines tâches, ce type de prestataire a intérêt à passer moins de temps
que la durée stipulée dans le devis initial, non pas tant pour maximiser son
profit, que pour dépenser le temps gagné sur de nombreuses autres tâches
mal facturées ou non facturées. Ce jeu est plus difficile à mener lorsqu’on
travaille sous le regard du client. Ça n’est pas impossible, mais c’est
difficile. C’est pourquoi il est bon de se cacher ; au bureau en l’occurrence.
Dissipons un malentendu : se cacher du client n’implique pas de couper
le contact avec lui, mais revient à le tenir à bonne distance, ou à le cadrer.
La coupure de contact est hautement risquée, pour deux raisons.
Premièrement, elle fait perdre de vue les besoins du client. Dans le monde
industriel, celui de la production en séries longues, la perte de vue se traduit
par la recherche de l’exploit technique. Dans la production en mode projet,
la perte de vue se nomme « effet tunnel », et la longueur du tunnel est un
facteur de divergence entre attentes des donneurs d’ordre et réalisations des
preneurs d’ordre. Deuxième facteur de risque lié à la coupure de contact :
un client avec lequel on n’interagit pas régulièrement est infidèle. L’écoute
qui lui manque sera offerte par les concurrents, et ces derniers auront un
jour ou l’autre l’occasion de lui dire qu’ils font « mieux ».

D’autres leviers pour garder le contact


avec le client
Il faut donc trouver le moyen de rester chez soi tout en gardant le
contact avec le client. Deux solutions s’offrent à vous. La première consiste
à choisir le moment des rencontres : on lève le voile d’opacité de temps à
autre ; on garde le contact et les marges de liberté qui s’étendent entre deux
contacts. La deuxième solution consiste à structurer le parcours du client en
sorte qu’il ne voie que ce qu’on veut bien lui montrer. C’est la méthode
suivie par un conducteur de chantier ou un directeur d’usine lorsqu’il
organise une visite guidée. C’est aussi la méthode suivie par Disney lorsque
sont dessinés les plans de ses parcs de loisirs : on voit rarement l’envers du
décor.
Notons que les sites Web peuvent être autant des voiles d’opacité que
des fenêtres grandes ouvertes sur la chaîne de valeur. Un site Web permet
par exemple d’orienter les flux de demandes clients vers des serveurs mail
plutôt que vers des centres d’appels, ou vers des centres d’appels plutôt
qu’au guichet. Le courrier électronique présente un avantage en
comparaison des autres canaux : il peut être traité en asynchrone, ce qui
offre des marges de temps aux salariés. Quant au centre d’appels, il présente
au moins un avantage en comparaison des agences : le client ne peut peser
physiquement pour obtenir gain de cause.
Synthèse des leviers permettant d’aménager
des poches de sous-travail
1. Internalisation des activités difficilement observables ET difficilement
mesurables.
2. Séparation physique d’avec le client.
3. Structuration du parcours du client (« visites guidées »).

Ces derniers arguments nous ont fait glisser de la stratégie à


l’organisation, et je vous propose de poursuivre dans cette direction. Depuis
l’introduction du livre, je me suis beaucoup reposé sur la métaphore de
l’écoulement : les salles de réunion sont des sources d’où jaillissent des
flots de tâches, tâches qui longent ensuite la chaîne de valeur. La métaphore
de l’écoulement prête à malentendu. Elle laisse penser que les tâches
s’écoulent jusqu’à sortir de l’entreprise, comme si les décisions n’avaient de
conséquences que passagères. Malheureusement, certaines tâches ne sortent
jamais de l’entreprise, certaines conséquences ne sont pas passagères.
Parfois, les flots transportent des sédiments qui se déposent tout au long de
la chaîne de valeur, et qui finissent par gêner la circulation. C’est
l’alourdissement des structures, un phénomène auquel je voudrais consacrer
le chapitre suivant.
PARTIE II

Organisation
CHAPITRE 4

L’alourdissement des structures

Les « structures » que vous allez voir s’alourdir sont ces assemblages de
règles et d’outils qui peuplent votre quotidien de travail : organigrammes,
instances de décision, process, systèmes d’information, dispositifs de
pilotage, plans de formation, équipements de production, etc. Ces éléments
consomment du temps et des efforts, non seulement pendant leur
conception et leur mise en place, mais plus important peut-être : tout au
long de leur durée de vie, jusqu’à leur démontage, qui est lui-même un
travail.
Naturellement les règles et outils sont nécessaires : ils cadrent les
comportements 1, ils permettent le gouvernement de grandes organisations,
ils aident les cerveaux humains à traiter une grande quantité
d’informations 2 et, plus globalement, ils démultiplient la force de travail.
Pourtant vous et moi nous en plaignons fréquemment : « On est étouffés
par les procédures », « Je ne sais même pas de qui je dépends », « On passe
notre temps en réunion »… Vous connaissez les rengaines. Toutes suggèrent
la présence de surtravail.
Dans leur ouvrage Smart Simplicity 3, Yves Morieux et Peter Tollman
ont apporté les preuves de cette présence. Leur démonstration m’a
impressionné : elle combine concepts éclairants, données quantitatives et
données qualitatives, pour ne laisser aucun doute au lecteur. Comme le
disait l’un de mes anciens patrons : « C’est un livre que j’aurais aimé
écrire. »

Le goût de la complication
Les deux auteurs sont partis d’un étonnement. Ils ont relevé que, dans
certaines entreprises, les managers pouvaient passer « plus de 40 % de leur
temps à rédiger des rapports, et entre 30 et 60 % de leur temps de travail
total en réunion de coordination ». Les écarts constatés entre les entreprises
incluses dans l’échantillon étaient difficilement explicables par la taille ou
par la nature des activités.
De cet étonnement, ils ont tiré une hypothèse : les organisations les plus
consommatrices de temps se compliquent la vie. Forts de cette hypothèse,
ils ont conçu un « indice de complication », agrégeant le nombre de
procédures, de couches de décision verticales, de structures d’interface,
d’organes de coordination, de fiches de suivi et de processus de contrôle des
décisions, ainsi que le temps passé en réunion et reporting. Ils ont ensuite
tenté d’établir un lien statistique entre d’une part, cet « indice de
complication » et, d’autre part, un « indice de complexité », équivalant au
nombre d’indicateurs de performance, et censé donner la mesure des
contraintes de marché 4. L’absence de lien significatif entre complications et
contraintes de marché a permis de conclure qu’une partie du temps passé à
façonner et à animer les structures méritait d’être économisé.

De grandes organisations menacées


par la lourdeur des structures
Parmi les cas détaillés par Morieux et Tollman, celui d’InterLodge est le
plus frappant. Jusqu’à l’intervention d’une équipe du Boston Consulting
Group, son activité d’hôtellerie souffrait d’un gros déficit de rentabilité.
Trois indicateurs étaient fortement dégradés : le taux d’occupation des
chambres, le prix moyen par chambre et le niveau de satisfaction des
clients. Face à ces difficultés, les dirigeants ont commencé par entreprendre
deux séries de changements.
La première série de changements consista en des évolutions
techniques. Les auteurs en citent trois : la création de centres de services
partagés, censés apporter aux hôtels un support à moindre coût ; la
redéfinition des rôles et la redistribution des responsabilités, censées
renforcer l’attention sur la productivité et sur la qualité ; le déploiement
d’un nouvel outil de gestion, visant à augmenter le taux d’occupation des
chambres.
Les résultats ne furent pas au rendez-vous : les trois indicateurs clés
sont restés à des niveaux très insuffisants.
C’est pourquoi la direction décida d’autres changements. Cette fois, ce
sont les individus qui furent mis en cause, et en particulier les
réceptionnistes. Ces derniers étaient des acteurs clés du fonctionnement des
hôtels : ils étaient les seuls en interaction avec les clients, ils attribuaient les
chambres et ils établissaient les factures. Leur conduite avait
nécessairement un impact sur les trois indicateurs dégradés.
Or cette population présentait plusieurs caractéristiques laissant croire
en sa défaillance. De sa jeunesse, on tirait l’idée qu’elle manquait de
compétences de gestion et de compétences relationnelles. D’un turn-over
élevé et du nombre de démissions précoces, on déduisait qu’ils manquaient
de loyauté. Et parce que leur rémunération était faible, on avançait qu’ils
manquaient de motivation.
De toute évidence, ces jeunes gens méritaient qu’on leur taille un
costume sur mesure. Puisqu’ils manquaient de compétences, notamment en
gestion de la relation client, on a dispensé des formations. Pour qu’ils
comprennent bien ce qu’on attendait d’eux, on a dépoussiéré les fiches de
poste. Pour leur rappeler tous les jours ce qu’ils avaient appris en formation,
on a ajouté des procédures. Enfin, pour les motiver, on a fabriqué des fiches
d’évaluation et mis en place un système de récompense.
Surprise : les résultats ne furent toujours pas au rendez-vous. Pire : les
trois indicateurs clés qu’étaient le taux d’occupation, le prix moyen et le
niveau de satisfaction se sont encore dégradés. En prime, le turn-over des
réceptionnistes a augmenté.
Pour réussir là où d’autres avaient échoué, Yves Morieux a appliqué un
principe clé de la sociologie des organisations, ramassé dans cette formule :
« Trop souvent, les diagnostics ne s’arrêtent que sur ce que les personnes ne
font pas […]. Dès lors, on ne peut pas comprendre pourquoi elles font ce
qu’elles font. Et donc on ne peut pas changer ce qu’elles font 5. »
En suivant cet enseignement, il a découvert que les réceptionnistes
passaient beaucoup de temps à répondre aux réclamations des clients, et que
pour leur apporter satisfaction ils avaient trois possibilités d’action. La
première était de régler eux-mêmes les problèmes signalés par les clients :
remplacer une ampoule, remplacer les piles de la télécommande de la
télévision, régler le chauffage, bricoler la robinetterie, etc. Ce faisant, ils
s’absentaient du poste d’accueil… ce qui irritait les nouveaux arrivants. La
deuxième possibilité d’action consistait à proposer une autre chambre au
client… ce qui supposait de garder des chambres en réserve et donc de
réduire le taux d’occupation de l’hôtel. La troisième était d’offrir des
ristournes aux clients qui témoignaient encore leur mécontentement au
moment de régler la note… ce qui diminuait le prix moyen.
En somme, les réceptionnistes passaient leur temps à gérer un
problème : offrir des chambres en bon état. Ce problème était central, et
c’était la façon dont ils traitaient le problème qui conduisait à la dégradation
des indicateurs de gestion. Chez InterLodge, avant l’intervention du Boston
Consulting Group, ce problème se posait d’une façon particulière : le
concours des équipes de nettoyage et des équipes de maintenance faisait
défaut. Or leur contribution était indispensable. Seules les équipes de
nettoyage étaient en mesure de constater les défauts des chambres avant les
clients. Seules les équipes de maintenance étaient en mesure de réparer un
défaut.
D’où on peut être tenté de déduire que c’étaient les équipes de
nettoyage et de maintenance qui étaient défaillantes : elles manquaient
d’attention, elles manquaient de rigueur, elles manquaient de souci du
client, etc. Cependant, une telle déduction ne fait que déplacer l’erreur de
diagnostic. À nouveau, il fallait s’intéresser à ce que ces autres fonctions
faisaient plutôt qu’à ce qu’elles ne faisaient pas.
On pouvait alors s’apercevoir que si les équipes de nettoyage ne
remarquaient pas les défauts ou si elles omettaient de les signaler à la
maintenance, c’était parce qu’elles économisaient leur temps pour atteindre
les objectifs qu’on leur avait imposés, à savoir des objectifs de productivité.
On pouvait aussi s’apercevoir que si les équipes de maintenance
n’étaient pas disponibles au moment où les clients signalaient les défauts,
c’était parce que ces signalements arrivaient après la fin de service, et que
les horaires de service étaient définis en sorte d’atteindre les objectifs
imposés, à savoir la maîtrise des coûts. Au passage, on pouvait noter que le
souci de maîtrise des coûts amenait à faire durer les équipements le plus
longtemps possible, et enfermait dans une maintenance curative plutôt que
préventive.
On ne pouvait donc considérer que les équipes de nettoyage et de
maintenance étaient défaillantes. C’était même le contraire : elles
poursuivaient en toute intelligence les objectifs qu’on avait fixés pour elles.
La cause n’était ni le manque de qualités individuelles, ni le manque de
règles et d’outils. La cause était la divergence des objectifs.
À la suite de l’intervention du Boston Consulting Group, la direction
commença par revenir sur les décisions passées : elle supprima les
procédures ajoutées lors de la première série de changements, elle supprima
les programmes de formation lancés lors de la seconde série de
changements, et elle supprima les primes qui devaient motiver les
réceptionnistes. Ensuite, pour que chaque fonction comprenne mieux les
contraintes des autres, elle conditionna les promotions hiérarchiques au fait
d’avoir travaillé dans plusieurs services. Enfin, on permit aux
réceptionnistes de contribuer à l’évaluation et à la récompense des équipes
de nettoyage et de maintenance. En conséquence de quoi, ces dernières ne
pouvaient réussir sans répondre aux objectifs des réceptionnistes. On
assurait une certaine convergence d’intérêts, là où régnait auparavant la
divergence.
Matérialisée par des procédures, par des documents, par des batteries
d’indicateurs, par des plans d’action, par des systèmes d’incitation, la
structure d’InterLodge a fini par perdre du poids.

Des petites organisations qui ne sont


pas épargnées
Avant de tirer toutes les leçons du cas d’InterLodge, il faut souligner
que le goût de la complication n’est pas propre aux organisations de grande
taille. Il est perceptible aussi dans les petites. Afin d’illustrer la chose, je
vous emmène dans un cabinet de conseil en management qui n’employait à
l’époque des faits qu’une cinquantaine de personnes.
Pendant de longues années, la direction a constaté des taux de
production facturable très inégaux selon les consultants (ces taux désignent
la proportion de temps de travail directement rémunérée par le client).
Notamment, les taux des consultants les plus gradés étaient de loin
supérieurs aux taux des moins gradés. Or on attendait le contraire : les plus
gradés étaient censés consacrer davantage de temps au développement
commercial, qui n’est pas une activité facturée.
Dans un premier temps, la direction a considéré que les inégalités de
taux de production facturable venaient d’une mauvaise allocation des
ressources humaines en interne, et que l’allocation souffrait d’une double
opacité : l’information sur les projets clients circulait mal, de même que
l’information sur les disponibilités de chacun. C’est pourquoi elle a créé un
bureau de staffing, dont les buts étaient de centraliser l’information et
d’orienter les tâches vers les consultants les moins occupés.
Malheureusement, la mise en place de cet élément de structure n’a pas eu
les effets escomptés : les inégalités ont perduré. Immédiatement, on
considéra que le responsable de staffing ne faisait pas correctement son
travail et on lui enjoignit de démontrer plus de vigilance, plus de
dynamisme et plus d’autorité dans les affectations. Sans plus de résultats.
La direction ne tarda pas à trouver une deuxième explication : autant
que les réceptionnistes d’InterLodge, les consultants de ce cabinet
manquaient des qualités requises pour la fonction. On avançait que les
moins gradés d’entre eux dépensaient trop de temps pour accomplir les
tâches qui leur étaient confiées, ce qui créait un décalage entre leur niveau
d’occupation réel et leur taux de production facturable. Ils dépensaient trop
de temps ou bien parce qu’ils étaient trop lents, ou bien parce qu’ils
faisaient de la « surqualité ». Ils manquaient aussi de bonne volonté, ils ne
cherchaient pas activement les occupations. On attribuait cela à leur
jeunesse : ils ne connaissaient rien à la vie des affaires, ils n’avaient pas
idée de l’âpreté de la concurrence, ils n’avaient pas encore appris à lutter
pour le succès, etc.
Ces manques supposés fournissaient autant d’arguments pour les
encadrer plus étroitement. À cette fin, la direction créa un nouvel échelon
hiérarchique, composé des plus gradés. Aux nouveaux responsables
hiérarchiques, il fut demandé de tenir des « entretiens de management »
mensuels. Mais, pour conduire ces entretiens efficacement, les managers
devaient réunir les informations portant sur les contributions des moins
gradés. La tâche était d’autant plus difficile que tous les consultants
participaient à de multiples projets. Il fallait donc multiplier les échanges
avec les chefs de projet, c’est-à-dire organiser d’autres réunions… Rien n’y
a fait.
La direction n’eut d’autre choix que de trouver une troisième
explication, qui tenait en deux propositions : trop souvent les consultants
s’affichaient comme non disponibles (on disait « qu’ils posaient des
options ») parce qu’ils avaient réservé des créneaux pour des projets qui
finissaient par être retardés ; trop souvent les projets étaient retardés parce
qu’ils étaient mal gérés. Pour réduire ce qu’elle considérait être un coût
d’opportunité, la direction prit trois décisions. La première fut d’établir une
nouvelle règle : lorsqu’un consultant « posait une option » pour un client, ce
dernier ne disposait que de trois jours pour confirmer, faute de quoi le
consultant devait lever l’option. La deuxième décision fut de renforcer les
compétences de gestion de projet à travers des formations dédiées (tout
sentiment de déjà-vu serait purement fortuit). La troisième décision fut de
tenir des réunions hebdomadaires entre chefs de projet pour s’assurer qu’on
planifiait au mieux et que la production avançait aussi vite que possible.
Bien qu’elle ait fait l’objet d’une large communication, la nouvelle règle
ne fut appliquée que pendant trois semaines. Les formations en gestion de
projet n’ont pas fait évoluer les pratiques. Quant aux réunions
hebdomadaires entre chefs de projet, elles tombèrent en désuétude au bout
de quelques mois. Au final, il n’est rien resté de la troisième série de
changements.
Comme dans le cas précédent, la direction a ignoré le problème central
des acteurs clés. Les consultants chefs de projet avaient une priorité
absolue : « sécuriser » les opérations, en plaçant les bons profils aux bons
endroits. La tâche était rendue ardue par la rencontre entre deux formes de
diversité : la diversité des contextes d’intervention et la diversité des profils
parmi les consultants.
Aucune règle simple, aucun critère formel tel que le diplôme ne suffisait
à identifier les profils les mieux adaptés aux situations complexes. Faute de
critère formel simple, les chefs de projet puisaient l’information dans des
sources informelles, c’est-à-dire dans leurs réseaux de contacts. Par
conséquent, ils avaient tendance à ne travailler qu’avec des consultants
qu’ils avaient déjà vus à l’œuvre, ou qui leur avaient été chaudement
recommandés par des proches. Après avoir vérifié les disponibilités des
consultants ainsi jugés dignes de confiance, les chefs de projet allaient
exprimer leurs besoins en staffing auprès du bureau dédié, et prenaient alors
soin de décrire la mission en sorte que leurs candidats s’imposent. À ce
jeu, les consultants qui sortaient le plus souvent gagnants étaient les plus
expérimentés, donc les plus gradés.
Pour égaliser les taux de production facturable, il convenait de se libérer
de l’emprise des réseaux informels, et corollairement de faciliter
l’identification des « bons profils » grâce à des critères formels simples. Dit
grossièrement, il fallait dessiner des cases et faire rentrer les individus dans
des cases. Dit avec plus d’élégance, cela impliquait de standardiser ou,
disons, de réduire à la fois la diversité des missions et celle des profils. On
pouvait procéder de deux façons.
Une méthode radicale aurait consisté en une restriction de la gamme des
prestations du cabinet. Cette méthode était inenvisageable par la direction,
qui craignait une raréfaction des opportunités commerciales, donc une
baisse du chiffre d’affaires. Selon moi, cette crainte était fondée sur le court
terme, mais pouvait être dissipée assez rapidement si le cabinet parvenait à
surclasser ses concurrents sur une gamme plus étroite.
Une méthode plus douce aurait consisté à créer des équipes spécialisées
sur le plan technique, ce qui aurait mécaniquement limité le champ
d’intervention de chaque consultant. La méthode douce a elle aussi été
écartée par la direction, qui craignait cette fois que la volatilité des
commandes affectant les différents types de prestations génère des
inégalités dans les plans de charge des équipes. Cette autre crainte méritait
d’être entendue, mais n’était pas insurmontable (on pouvait par exemple
identifier quelques consultants très polyvalents, capables de servir de
variables d’ajustement).
La réduction de la diversité aurait permis d’éviter l’addition d’un niveau
hiérarchique supplémentaire, la formulation de nouvelles règles et la
formation à la gestion de projet. Elle aurait peut-être conduit à des
changements, à des choix organisationnels tels que la spécialisation
technique, mais ces choix auraient été suivis d’effets, contrairement aux
règles et à la formation, et ils auraient facilité la vie de tous.

L’impasse des diagnostics d’insuffisance


Dans les cas d’InterLodge et du cabinet de conseil, les changements ont
échoué parce qu’ils reposaient sur des diagnostics erronés. L’erreur de
diagnostic fut annoncée dès la prononciation d’un des premiers mots
utilisés pour décrire les situations : « dysfonctionnement ». Partant de ce
mot, toutes les explications avancées par les directions ont été des
explications « par l’insuffisance » ou « par la défaillance ». Ainsi les
réceptionnistes manquaient de compétences, manquaient de loyauté,
manquaient de motivation. Ainsi les consultants manquaient
d’informations, de sens de l’organisation, de bonne volonté, de
compétences, de fermeté face aux clients.
Dès lors qu’on utilise le mot « dysfonctionnement », on adopte une
posture qui consiste à dénoncer la réalité plutôt qu’à la comprendre.
Rapidement, on voit le manque partout. Inévitablement, on tente de combler
les manques supposés par des éléments de structure. À force de chercher la
plénitude, on finit avec un trop-plein.

La sociologie des organisations nous a enseigné que, pour comprendre


la réalité, on gagne à postuler que les acteurs ont de bonnes raisons d’agir
comme ils le font 6. Tout comportement doit être considéré comme une
conduite rationnelle, au sens d’une réponse adaptée à son contexte ; sans
doute pas la meilleure des réponses, mais une réponse satisfaisante du point
de vue de celui qui agit 7. C’est ce postulat qu’a retenu Morieux.
Le postulat de rationalité renverse la perspective sur les
« dysfonctionnements ». Là où le gestionnaire voit dans les indicateurs
dégradés le reflet de comportements qui font problème, le sociologue voit
dans les mêmes comportements des solutions aux problèmes posés par
l’activité de production.
Considérer les comportements non souhaités comme des solutions
invite à rechercher systématiquement le problème auquel ils répondent. Ce
n’est pas le « problème de gestion » qui mérite le plus d’attention, mais le
« problème de production ». Non pas le problème du chiffre, mais le
problème concret. Non pas le problème de celui qui juge, mais le problème
de celui qui conduit l’activité jugée.
Le problème de production des réceptionnistes était d’offrir des
chambres en bon état. Le problème de production des consultants chefs de
projet était de placer les bons profils aux bons endroits. Retenez cette
formule : les problèmes de gestion sont des solutions de production.

Un outil pour détecter le surtravail


par alourdissement des structures
Quatre signaux permettent de détecter la présence d’un surpoids des
structures. Les trois premiers signaux sont les plus évidents et peuvent tenir
en un mot et un seul : « trop ». Les salariés déclarent qu’il y a trop de
procédures, trop de formations, trop de réunions. Ce sont les signaux les
plus évidents, mais pas forcément les plus fiables, car face à la lourdeur
organisationnelle, nous avons la plainte facile.
C’est pourquoi vous prendrez en compte un quatrième signal : le
nombre de décisions qui ont été prises pour répondre à des
« dysfonctionnements ». Ce quatrième signal porte en fait deux
informations. La première information est la simple présence du terme
« dysfonctionnement », qui est un indicateur de la propension à dénoncer la
réalité. La seconde information est la fréquence perçue des changements
structurels, qui donne une indication de la quantité de sédiments déposés
par le flot des tâches sur la chaîne de valeur.

Indices de présence de structures en surpoids

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Les gens se plaignent de la
multiplication des procédures,
❒0 ❒1 ❒2 ❒3
des manuels, des fiches
techniques, etc.
2. Les salariés passent du
temps en formation sans qu’on ❒0 ❒1 ❒2 ❒3
en voie les bénéfices
3. Les managers estiment
❒0 ❒1 ❒2 ❒3
passer trop de temps en réunion
4. On a pris de nombreuses
décisions pour répondre aux ❒0 ❒1 ❒2 ❒3
dysfonctionnements
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que les
chances de présence de structures en surpoids sont élevées.
Une méthode pour mettre au jour
le problème central
La découverte des problèmes de production a des avantages. Elle a aussi
un inconvénient : elle exige la patience de l’écoute et de l’observation. Pour
comprendre l’activité des réceptionnistes d’InterLodge, il fallait s’entretenir
avec eux, les questionner, les écouter. Il fallait aussi s’entretenir avec leur
entourage professionnel : les équipes d’entretien et de maintenance, voire
les commerciaux et les directeurs d’hôtels. Pour découvrir le problème
central des chefs de projet au sein du cabinet de conseil, il fallait tout autant
écouter les dirigeants et les fonctions support, au premier rang desquelles le
responsable du bureau de staffing. Cela pour recomposer le fonctionnement
du « système » au sein duquel les comportements des uns déterminent les
comportements des autres.
La recherche des problèmes de production et le postulat de rationalité,
l’écoute et l’observation sont les bases de l’approche dite
« compréhensive », théorisée par Max Weber en sociologie. Cette approche
ne conduit pas à approuver les propos entendus ou les actes observés, mais
à les accueillir avec neutralité, dans l’attente de saisir la logique des
comportements, c’est-à-dire leur caractère adapté à la situation de travail.
Les psychologues traduiront sans doute la notion de compréhension par le
terme empathie, qu’ils distingueront de la sympathie. Accueillir des propos
avec neutralité est un exercice extrêmement difficile, pour ne pas dire
contre-nature.
Les chercheurs utilisent principalement deux ficelles pour incarner cette
posture. La première est une simple question : « Racontez-moi votre
travail. » Cette question contient tout l’esprit d’un entretien d’écoute : la
finalité n’est pas de recueillir des opinions, des analyses ou des résumés,
mais d’obtenir des récits, des descriptions. Ce peut être le récit d’une
journée de travail, du déroulement d’un projet, du traitement d’un dossier…
Bien sûr, l’interviewé est libre d’émettre des opinions, de proposer des
analyses, de formuler des résumés, mais là n’est pas le centre de l’attention.
S’inspirant d’un ouvrage plus ancien, publié par Erhard Friedberg 8,
fondateur avec Michel Crozier de l’école française de sociologie des
organisations, Morieux et Tollman précisent le propos en livrant un guide
d’entretien. Pour résumer, disons que ce guide repose sur un triptyque :
travail – relations – problèmes. À ce triptyque, j’ajoute souvent un
quatrième thème : le parcours (parcours passé, perspectives futures). Je
reproduis ici le guide presque à l’identique, en les remerciant :

1. Pouvez-vous me décrire votre travail ? une journée typique ? un


dossier typique ? un projet typique ?
2. Quels sont les aspects les plus intéressants de votre travail ?
3. Quels sont les aspects les plus difficiles, les plus frustrants ?
4. Quelles sont vos relations de travail les plus importantes ?
5. Les relations les plus faciles, les plus satisfaisantes ?
6. Les relations les plus compliquées, les plus éprouvantes ?
7. Quelles sont les difficultés que vous devez surmonter, les problèmes
que vous devez résoudre ?
8. Comment faites-vous ?

C’est en utilisant ce guide que l’équipe du Boston Consulting Group a


compris que, pour les réceptionnistes, les interactions avec les clients
étaient éprouvantes ; qu’elles étaient éprouvantes parce que les chambres
étaient trop souvent dans un état insatisfaisant ; qu’elles étaient dans un état
insatisfaisant parce que les équipes de nettoyage ne signalaient pas les
défauts, et parce que la maintenance intervenait trop tard ; que ces acteurs
entretenaient le problème des réceptionnistes parce qu’ils poursuivaient des
objectifs qui leur étaient propres ; que les réceptionnistes palliaient en
s’absentant de l’accueil, en proposant de changer de chambre (donc en en
gardant en réserve), en offrant des rabais.
C’est en utilisant ce guide qu’on pouvait comprendre que pour les chefs
de projet du cabinet de conseil, les relations avec les clients et le
déroulement des projets étaient imprévisibles et même risqués ; que le
risque naissait de la grande diversité des contraintes techniques, des
comportements des clients et des profils de consultants ; que pour contenir
le risque, les chefs de projet identifiaient les consultants qui leur inspiraient
le plus confiance ; que les consultants qui inspiraient le plus confiance
étaient en moyenne plus gradés ; que, pour se voir affecter ces consultants,
les chefs de projet décrivaient les missions en sorte de réduire l’éventail des
choix possibles pour le responsable du staffing.
La deuxième ficelle utilisée par les chercheurs pour incarner la
neutralité consiste à consigner le récit à mesure qu’il se déroule. Il ne s’agit
surtout pas de « prendre des notes », mais de retranscrire mot à mot.
Naturellement il est impossible de retranscrire l’exhaustivité des propos : le
débit de l’interviewé est toujours trop fort, les mots s’enchaînent toujours
trop vite, si bien qu’on en perd une partie. Mais l’enjeu principal n’est pas
l’exhaustivité. L’intervieweur qui reporte la totalité des propos se fait lui-
même prisonnier d’une attitude : il ne lâche jamais son crayon ni ne délaisse
son clavier, il fixe continuellement du regard son support d’écriture. La
posture neutre est en première instance une posture corporelle ; l’esprit suit.
En adoptant cette posture corporelle, l’intervieweur s’interdit deux
choses. Parce qu’il ne lève jamais le crayon mais passe son temps à courir
après l’interviewé, l’intervieweur s’interdit d’abord de sélectionner
l’information de façon volontaire et visible. Ce faisant, il n’envoie à
l’interviewé aucun signal indiquant ce qu’il considère être pertinent ou non
pertinent. Par la même occasion, il rend inaudibles ou invisibles les
hypothèses causales qui lui viennent en tête. Parce qu’il ne lève jamais les
yeux, il s’interdit ensuite d’exprimer un jugement de valeur. Tentez une
expérience : écoutez quelqu’un les yeux dans les yeux. Vous verrez qu’il est
presque impossible d’éviter de signaler un accord ou un désaccord : ou bien
vous hocherez la tête en glissant un « mmmh », signe d’approbation, ou
bien vous lèverez les épaules en grommelant « mmarf », signes de
désapprobation. Baissez les yeux, vous y parviendrez plus facilement.
Écrivez tout ce qui se dit, vous aurez une excuse pour baisser les yeux.
Lorsque les interviewés se sentent jugés, ils ne se livrent pas, ils passent
sous silence toute une partie de leur existence. En particulier, ils taisent les
comportements clandestins ou honteux. Or ces comportements sont
essentiels à la compréhension. Au sein du cabinet de conseil, les chefs de
projet ne racontaient pas grand-chose de leur travail. Lorsqu’ils
s’exprimaient auprès de la direction, on leur répondait qu’ils avaient tort de
se conduire comme ceci ou comme cela. Ils en tiraient la conclusion que
leurs pratiques étaient illégitimes, et qu’il fallait dissimuler ces pratiques.
En dénonçant la réalité, les dirigeants n’obtenaient que de l’opacité. Il est
arrivé qu’un membre du comité de direction décrive cette réalité et avance
des éléments de compréhension. On lui rétorqua : « En disant ça, tu
normalises la situation. Ça reste un dysfonctionnement, ça n’est pas
acceptable. Tu es là pour faire changer les choses, pas pour défendre les
points de vue des consultants. » Ainsi soit-il. Ce dirigeant n’a plus jamais
ouvert la bouche sur le sujet, et s’est contenté d’opiner du chef face aux
décisions qui compliquaient inutilement la vie.

Tous complices de l’alourdissement


des structures
Les décideurs ne sont pas seuls responsables de l’alourdissement des
structures. Tous les niveaux hiérarchiques sont tentés par les solutions qui
compliquent tout. Je l’ai constaté à de nombreuses reprises, dans le cadre de
groupes de travail dont le but était d’améliorer le fonctionnement de
l’organisation.
À titre d’illustration, voici le contenu d’un plan d’action proposé par des
salariés qui ont participé à ce genre de groupe de travail, dans une
entreprise qui propose à d’autres entreprises d’externaliser les tâches
administratives les plus routinières. L’une des problématiques qu’il
s’agissait de traiter était la charge de travail. Parmi les solutions proposées,
on comptait : installer des outils d’évaluation de la charge de travail, et
rendre l’évaluation exhaustive ; organiser des entretiens et des réunions
pour discuter de la charge de travail ; communiquer régulièrement le
contenu du plan de charge ; former les managers à la reconnaissance des
efforts ; former les salariés à la gestion de la relation client ; associer le plus
grand nombre à la résolution des dysfonctionnements ; diffuser des notes
techniques sur les changements réglementaires ; systématiser les réunions
d’équipe ; formaliser les processus, etc. Bref, les réponses données à la
problématique de charge étaient… des tâches supplémentaires. Des plans
d’action comme celui-ci, j’en ai vu des dizaines. Des plans d’action suivis,
je n’en ai vu aucun.
Je suis sûr que vous avez fait la même expérience. Et je vous soupçonne
d’avoir déjà contribué à ces plans d’action. Qu’est-ce qui vous a poussé à
contribuer, selon vous ? Qu’est-ce qui incite les salariés de tous niveaux
hiérarchiques à proposer autant d’actions qui n’ont aucune chance de tenir
dans la durée ?
En général, la première explication que l’on donne consiste à dire que
ceux qui proposent des actions coûteuses ne sont pas ceux qui les mettront
en œuvre. Je ne suis pas convaincu par cette explication. J’ai trop souvent
assisté à des séances lors desquelles les participants acceptaient des idées
qui impliquaient des dépenses de temps pour eux-mêmes.
Je repose donc la question : lorsque vous avez participé à des groupes
de travail, qu’est-ce qui vous a poussé à accepter ou à faire des propositions
irréalistes ?
Je me propose de vous aider en décrivant la scène. Vous étiez assis dans
une salle, les tables disposées en « U ». À votre gauche, un jeune consultant
prenait des notes sur un paper-board. En face de vous, un collègue a
proposé d’organiser des réunions pour résoudre un certain type de
problèmes. Deux heures plus tôt, vous vous plaigniez encore de passer trop
de temps en réunion. Et pourtant vous n’avez pas réagi à la proposition de
votre collègue. Pourquoi ? Parce que selon les lois du brainstorming on ne
porte pas de jugement sur les idées des participants ? Non. Vous souhaitiez
éviter de passer pour un rabat-joie. Voilà la vérité.
Rassurez-vous, vous n’avez fait preuve d’aucune lâcheté. Vous avez
juste été sous l’emprise de deux biais cognitifs et sociaux. D’abord, le biais
de « désirabilité sociale », qui incite les individus à se présenter sous un
jour favorable à leurs interlocuteurs 9. C’est ce biais que les chercheurs
tentent d’inhiber en adoptant une posture neutre. À l’origine, l’idée d’un tel
biais a été envisagée pour expliquer les décalages observés aux États-Unis
entre, d’une part, les intentions de vote exprimées au bénéfice des candidats
non blancs et, d’autre part, les suffrages effectivement recueillis par ces
mêmes candidats ; les suffrages étant bien entendu inférieurs aux intentions
exprimées.
Dans le contexte d’un groupe de travail dont le but assigné est de
proposer des actions, le biais de désirabilité sociale agit dans le sens où il
est très mal venu de ne rien proposer ou de contester les propositions des
autres. Le plus souvent, un tel comportement est perçu au mieux comme
l’expression d’une mauvaise volonté, au pire comme une conduite
réactionnaire.
Vous et moi comprenons que dans le groupe de travail auquel vous avez
participé, il aurait été coûteux d’ignorer le biais de désirabilité sociale : il
est désagréable de passer pour un rabat-joie. Or vous et moi sommes un tant
soit peu rationnels : nous cherchons à éviter les coûts (les coups aussi
d’ailleurs). Mais si vous étiez parfaitement rationnel, vous vous seriez
rendu compte que le coût représenté par le fait de passer pour un rabat-joie
est très faible, comparé au coût de participation aux réunions proposées par
votre collègue. Malgré cela, vous avez préféré jouer les bons camarades.
La raison en fut que vous avez été sous l’emprise d’un second biais, qui
induit chez les individus une préférence pour les bénéfices présents en
comparaison de bénéfices futurs supérieurs. Dit plus simplement, il invite à
reporter les problèmes dans le temps. L’hypothèse de ce second biais a été
posée pour rendre compte de comportements tels que les conduites
addictives ou la tendance au surendettement 10 : de la fumée de cigarette, je
tire une petite satisfaction immédiate, au risque d’une pathologie grave dans
le futur ; de l’acquisition à crédit d’un bien de consommation, je tire une
satisfaction immédiate, au risque de grandes difficultés financières dans le
futur.
Dans le contexte d’un groupe de travail, l’acceptation d’une proposition
d’action permet d’obtenir immédiatement l’approbation des participants, au
risque d’une complication de la vie future. Ce qui est vrai pour les groupes
de travail est vrai pour toutes les réunions au cours desquelles on prend des
décisions, y compris celles qui impliquent des dirigeants.
La psychologie sociale nous a livré une méthode pour contenir les biais
cognitifs et sociaux dans le cadre d’un groupe de travail, dont le mandat
serait d’améliorer le fonctionnement de l’organisation : la procédure pre-
mortem 11. Cette procédure intervient une fois les propositions d’action
accumulées. Elle débute par une consigne : « Imaginez que nous décidions
aujourd’hui de mettre en œuvre le plan d’action tel qu’il est. Imaginez
ensuite que nous soyons dans un an, et que nous constations que rien n’a été
fait, ou que rien n’a été efficace. Prenez dix minutes pour rédiger une
histoire de cet échec ». La procédure pre-mortem a pour vertu d’encourager
l’identification des inconvénients des propositions d’action, et de légitimer
la critique.
Dans les pages qui précèdent, vous avez aperçu une composante des
« structures » qui fait débat plus que toute autre : l’appareil de contrôle.
L’importante ou la place de l’appareil de contrôle fait débat non seulement
sur le terrain, dans les ateliers et les bureaux, là où le travail se fait, mais
aussi dans la littérature. Pour des économistes adeptes de la théorie des
contrats, le contrôle est nécessaire : lui seul permet de discipliner les parties
prenantes, notamment celles à qui l’on délègue les tâches (les salariés, les
prestataires, les fournisseurs). Pour certains penseurs du management, le
bilan du contrôle est négatif : son coût excède ses bénéfices 12.
Évidemment, le bilan coûts/bénéfices du contrôle est difficile à dresser.
Je ne crois pas à la possibilité d’un calcul rigoureux. En revanche, je crois
qu’il est possible de mettre au jour les mécanismes qui rendent le contrôle
inutile, et sur cette base d’identifier des leviers d’action permettant de
contenir le poids du contrôle. Le chapitre qui suit en est une tentative.
CHAPITRE 5

Le poids du contrôle

Le contrôle a pris une telle place dans les entreprises contemporaines


qu’il laisse les plus pessimistes craindre la création d’un monde cruellement
transparent 1. Il est vrai qu’avec la numérisation, la surveillance touche à la
fois l’infiniment grand et l’infiniment petit. D’un côté, les technologies de
l’information lui donnent une dimension industrielle et mondiale : des
organisations présentes en tout point de la planète deviennent capables de
produire des rapports de gestion synthétiques tous les trois mois, comme le
demandent les marchés boursiers. D’un autre côté, ces mêmes technologies
permettent d’entrer dans l’intimité des individus : les employeurs ont accès
sous conditions aux courriers électroniques des salariés 2, les serveurs
enregistrent toutes sortes d’interactions avec les clients, les outils de
géolocalisation tracent précisément les mouvements de troupes. Vu sous cet
angle, le contrôle paraît ne pas avoir de limites.

Le contrôle, une activité coûteuse


Ses limites apparaissent pourtant dès qu’on s’intéresse à son coût. J’ai
souvenir d’une visite chez un équipementier télécoms lors de laquelle j’ai
découvert une machine à produire des indicateurs qui était tout bonnement
gigantesque. Cette machine embarquait des dizaines de managers, avant de
mobiliser des équipes entières. Tous les ans, les échelons hiérarchiques
supérieurs commençaient par se réunir pour retranscrire la « stratégie » en
objectifs opérationnels pour chaque direction. Ensuite, au sein de chaque
direction, chaque équipe se devait de préciser sa contribution à l’effort
collectif, et de traduire cette contribution en sous-objectifs. Dans un
troisième temps, chaque manager s’entretenait avec chaque collaborateur
pour clarifier son rôle et ainsi décliner les sous-objectifs en sous-sous-
objectifs. À la mi-année, chaque manager était censé s’entretenir avec
chaque collaborateur pour apprécier le degré d’avancement du « plan de
performance ». En fin de cycle, de nouveaux entretiens étaient organisés
pour dresser les bilans et noter les individus sur une échelle de un à cinq.
Aussitôt les bilans individuels dressés, on recommençait. Le coût du
contrôle était récurrent et colossal. Au vu des médiocres résultats en termes
de chiffre d’affaires comme de profits, la machine semblait tenir davantage
du Titanic que du char d’assaut…
Le coût du contrôle n’est pas toujours aussi important, et il est sans
doute plus élevé dans les grandes entreprises, qui en plus d’avoir besoin de
faire circuler des informations sur de longues distances, ont les moyens de
dédier des équipes entières au travail de reporting. Dans les grandes
entreprises, la consommation de temps est telle qu’elle a inspiré aux salariés
une belle analogie : « Ici, il y a neuf barreurs pour un rameur ! » J’ai
entendu cette analogie pour la première fois en 2009. Je ne me doutais pas
qu’elle était répandue au point d’être consignée dans un ouvrage devenu
célèbre depuis : Liberté & Cie 3.
Après avoir entendu cela, je n’ai pas cessé de m’interroger sur les
bénéfices du contrôle. J’ai pu observer deux types de pratiques qui le
rendaient inopérant, générant ainsi un surtravail : le sabotage et le
désamorçage.
Le sabotage du contrôle
Le sabotage du contrôle est observable dès que les contrôlés renseignent
eux-mêmes le système de reporting : soit qu’ils remplissent des tableaux de
bord ou des feuilles de temps, soit qu’ils consignent des consommations de
matériel, de sous-traitance ou d’autres approvisionnements. Dans ces
circonstances, plusieurs possibilités d’action s’offrent à eux : ils peuvent
apporter de fausses informations, tarder à apporter les informations, voire
ne pas livrer les informations du tout.
Les pratiques de sabotage sont particulièrement répandues dans un
certain type de milieux : celui des prestations sur devis, aperçu dans le
chapitre 3 à travers le cas du secteur de la construction. Une prestation sur
devis est un produit qui n’existe pas au moment où on le vend : un
bâtiment, un système d’information, une mission de conseil, etc. Elle est
gérée en mode projet et comporte toujours une part de sur-mesure, à
l’opposé de la production industrielle, qui préside par exemple à la
fabrication de biens tels qu’une bouteille d’eau, une automobile ou un
vêtement.
Dans le monde de la prestation sur devis, il arrive que le sabotage du
contrôle soit vital pour la survie de l’entreprise, et qu’à ce titre il soit
cautionné par la hiérarchie elle-même. Pour comprendre comment le
sabotage du contrôle en vient à devenir vital, il faut tout d’abord se rappeler
que les marchés de prestations sur devis sont souvent cycliques : ils
connaissent des hauts et des bas. En bas de cycle, la concurrence devient
vite insupportable, et conduit les offreurs à comprimer les devis, au point de
les rendre irréalistes. Le respect d’un cahier des charges irréaliste devient le
problème de production central ; les dérives de coût, de délai et de qualité
deviennent la norme. Les acteurs ont alors tendance à reporter le problème
d’amont en aval de la chaîne de valeur, de maillon en maillon : la fonction
commerciale est la première à porter le problème (voire elle le crée), les
fonctions de conception et de développement en héritent, avant de confier la
chose aux fonctions de fabrication et de livraison. L’image de la « patate
chaude » a toute sa place ici. Plus un projet ou un chantier avance, plus il
est difficile de reporter le problème, comme si la patate chauffait plutôt
qu’elle ne refroidissait. Passé un certain stade, on reporte non plus de
maillon en maillon, mais de projet en projet, ou de chantier en chantier, en
prélevant des ressources humaines et matérielles sur les projets les moins
avancés, pour les affecter aux projets les plus avancés, qui connaissent déjà
des dérives.
Quand on en arrive là, ce qui est chose courante, on constate
immanquablement que les feuilles de temps sont truffées d’erreur, que des
relevés de consommation manquent, que les acteurs des projets font appel à
des sous-traitants ou à des intérimaires sans en avoir averti qui que ce soit,
que les clôtures comptables tardent, etc. Autant de façons d’ôter la réalité
du terrain à la vue des contrôleurs de gestion.
Les contrôleurs de gestion sont rarement dupes, et le font remarquer de
temps à autre. Mais lorsqu’ils insistent, lorsque émerge une tension entre
« fonctionnels » et « opérationnels », ces derniers obtiennent le soutien de
la direction. Tout le monde s’accorde sur un argument : « Ce sont les
opérationnels qui ramènent à manger, ce sont eux qui font tourner la
boutique 4. »
Les pratiques de sabotage sont moins répandues dans les milieux
industriels, qui incluent les usines, les centres d’appels, les agences
bancaires ou d’autres réseaux de grande distribution. Dans ces milieux, la
production d’unités standard selon des procédés routinisés facilite la
comptabilité et l’automatisation du reporting, ce qui tend à priver les
contrôlés du renseignement manuel des systèmes d’information. Cependant,
le sabotage n’en est pas totalement absent, comme en témoigne le cas de
cette usine au sein de laquelle les opérateurs de fabrication ont utilisé à
outrance le code « causes diverses » pour rendre inopérant un dispositif de
relevé d’incidents 5.

Le désamorçage et l’inflation du contrôle


Dans les milieux industriels fleurit une pratique autre que le sabotage
par le renseignement des systèmes : le désamorçage. J’ai observé le
phénomène dans plusieurs entreprises, dans des activités tantôt
administratives, tantôt commerciales. Par un paradoxe qui n’est
qu’apparent, le désamorçage du contrôle consiste à demander plus de
contrôle. Lorsque les indicateurs produits par l’appareil de contrôle sont
défavorables aux opérateurs de production, ces derniers demandent ou
invoquent d’autres indicateurs, notamment des indicateurs d’effort :

« Dans l’acte de vente, il y a des choses qui ne dépendent pas de vous.


Ça dépend aussi de ce qui se passe chez les clients. Ils ont des projets ou
pas. Vous, tout ce que vous pouvez faire, c’est aller les voir, écouter,
être présent. C’est important qu’on rende tous ces efforts visibles, parce
que sinon c’est décourageant. Depuis peu, on compte le nombre de
rendez-vous. » (Conseiller clientèle professionnelle, compagnie
d’assurances.)
« C’est toujours possible d’abattre du dossier. Simplement, le traitement
ça n’est pas qu’une question de quantité, c’est aussi une question de
qualité. La qualité, c’est quoi ? La qualité c’est ne pas se tromper dans
les calculs. C’est pas un exercice facile, parce que les règles sont
touffues, et parce qu’elles changent souvent. Quand vous vous trompez,
vous vous rendez compte ? On ne joue pas avec l’argent des gens. Ce
qui s’est passé, c’est qu’on a mis en place des indicateurs de non-
qualité, dans le cadre des contrôles de conformité. » (Chef de groupe,
organisme de prévoyance.)

Cela donne le schéma suivant :

À mesure que les tableaux de bord s’enrichissent, ils deviennent moins


lisibles et exigent plus d’efforts intellectuels. À la limite, on ne sait plus
interpréter, on ne sait plus tirer de conclusion :

« C’est devenu difficile d’en dire quoi que ce soit, parce que le plus
souvent les indicateurs évoluent dans des sens différents. Vous pouvez
toujours faire des commentaires, mais vous arrivez à des lectures
nuancées. Et le problème c’est qu’avec des lectures nuancées, vous ne
discriminez plus rien ni personne, vous nivelez. Ça soulève une
question : si vous nivelez et que donc les individus se retrouvent à peu
près au même niveau dans les évaluations annuelles, à quoi ça sert de
produire autant d’indicateurs et d’en discuter ? » (Directeur associé,
cabinet de conseil.)
Arrêtons-nous sur ces dernières observations. Tout cela signifie que les
directions versent dans le contrôle non pas uniquement pour exercer une
pression sur les salariés, mais aussi pour répondre à la pression des salariés.
Il s’agit d’une action réciproque. Dans une certaine mesure, contrôleurs et
contrôlés sont complices dans l’inflation du contrôle.

Indices de présence d’un surtravail de contrôle

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Les individus dont on cherche
à contrôler l’activité renseignent
❒0 ❒1 ❒2 ❒3
eux-mêmes les outils de
reporting
2. Beaucoup estiment que les
chiffres produits par l’appareil ❒0 ❒1 ❒2 ❒3
de contrôle ne sont pas parlants
3. Les tableaux de bord
contiennent de nombreux ❒0 ❒1 ❒2 ❒3
indicateurs d’effort
4. Les tableaux de bord
permettent rarement de tirer des ❒0 ❒1 ❒2 ❒3
conclusions claires
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que les
chances de présence d’un surtravail de contrôle sont élevées.

Pour réduire le surtravail de contrôle, on peut suivre deux méthodes.

La méthode douce pour réduire


le surtravail de contrôle
Vient d’abord la méthode douce, qui ne met pas en question la raison
d’être du contrôle, mais vise à en contenir l’inflation. Cette méthode peut
être résumée en deux principes.
Le premier principe est le refus de toute prétention cybernétique. La
prétention cybernétique se nourrit d’un fantasme : l’idée qu’à partir d’une
stratégie d’entreprise, on peut déduire des objectifs quantitatifs qui se
déclinent en cascade jusqu’au contributeur individuel. La prétention
cybernétique accouche d’un appareil de contrôle construit comme une
poupée russe, à l’image de la gigantesque machine élaborée par
l’équipementier télécoms vu en introduction du chapitre. Un des multiples
défauts d’une telle machine est sa consommation de temps. Plus la
consommation de temps est forte, plus les acteurs sont tentés de délaisser
l’appareil, plus il faut d’énergie pour les rappeler à l’ordre. C’est une
menace à laquelle s’exposent les utilisateurs de la balanced scorecard
inventée par Kaplan et Norton au début des années 1990 6. Un bon appareil
est un dispositif léger, voire rudimentaire.
Le second principe devant guider l’évolution du contrôle est la
réflexivité : il s’agit de maintenir un appareil conscient de ses bénéfices et
de son coût, capable de répondre simplement aux questions suivantes :
1. Quel est le principal enjeu que sert explicitement l’appareil ?
2. Comment savoir si l’appareil répond aux enjeux ?
3. Parmi tous les indicateurs que nous avons produits grâce à l’appareil de
contrôle, lesquels avons-nous véritablement exploités ?
4. L’exploitation de ces indicateurs a-t-elle permis de répondre aux enjeux
de l’entreprise ?

La méthode radicale :
la libération d’entreprise
Des entrepreneurs audacieux ont suivi une méthode plus radicale que
l’application de ces deux principes : ils ont fait le choix d’une alternative au
contrôle, celle de l’« entreprise libérée 7 ». 3M, FAVI, Gore, Chaparral Steel,
Harley-Davidson, Sea Smoke Cellars, Zappos… autant de firmes qui n’ont
ni cherché à prescrire aux salariés la façon dont ils devaient travailler, ni
investi dans des procédures de contrôle méticuleux, préférant miser sur une
très grande autonomie. Comment ont-elles réussi leur pari ?
La réponse nous est livrée par une théorie des motivations issue de la
psychologie sociale : la théorie de l’autodétermination, élaborée par Edward
Deci et Richard Ryan 8. Ces deux auteurs distinguent d’une part les
motivations de sanction-récompense, et d’autre part les motivations du
plaisir et de la fierté. L’appareil de contrôle déclenche et oriente les efforts
des salariés en activant les motivations de sanction-récompense. Les
entrepreneurs fournissant les exemples d’entreprises libérées ont privilégié
les motivations du plaisir et de la fierté pour se dispenser de contrôle.
Leur méthode est presque tout entière contenue dans la formule
employée par l’un des personnages mis en scène par Getz et Carney : Bob
Davids, le propriétaire du vignoble Sea Smoke Cellars. À son viticulteur en
chef qui sollicitait un arbitrage opérationnel et financier, Davids répéta
inlassablement :

« Je vais vous préciser votre mission. Votre mission est de faire pousser
le meilleur raisin qu’il est humainement possible de faire pousser sur ce
site. »

Par cette formule, Davids laissait le problème entier sur les bras du
viticulteur. Un problème, c’est une nouvelle situation, c’est un phénomène
inattendu, c’est une zone d’incertitude, bref, c’est quelque chose qui
sollicite la créativité ou l’ingéniosité. Or le plaisir vient avec la créativité et
l’ingéniosité.
Le problème offert par l’entrepreneur à son viticulteur aurait très bien
pu être un cadeau empoisonné ou un geste pervers. Il ne l’a pas été parce
que le viticulteur disposait de compétences pertinentes, et d’un pouvoir de
décision sur les méthodes et sur l’utilisation des moyens.
Par la même formule, Davids offrait un idéal, une grande cause. Le
caractère idéaliste de sa proposition ne résidait pas tant dans le caractère
grandiose de la réalité qu’il appelait de ses vœux que dans le caractère sacré
du but : l’homme tenait à ne rien sacrifier de la qualité, il semblait prêt à
tout pour obtenir le « meilleur raisin », il ne tolérait aucun compromis.
Ainsi annonçait-il au viticulteur que plus tard il serait fier de son travail,
ainsi donnait-il envie de bien faire, ainsi allumait-il la flamme.
Dans le monde du travail, les grandes causes sont de natures très
diverses, bien différentes par exemple de la lutte contre la faim ou de la
défense nationale. Apple s’est donné un idéal dès sa création : « Placer un
ordinateur dans les mains de tout un chacun. » Puis, plus tard : « Placer
dans les mains de tout un chacun un appareil électronique disponible à
chaque instant. » Google s’est donné un autre idéal : « Mettre le monde
entier, puis l’univers à portée de clic. » Starbucks aussi : « Placer un
troisième lieu entre le domicile et le bureau. » Ou encore Amazon : « Livrer
n’importe quel produit, en n’importe quel endroit du monde, à n’importe
quel moment, en n’importe quelle quantité. »
Même parées des plus beaux problèmes et des idéaux les plus
mobilisateurs, les entreprises libérées ne peuvent se dispenser totalement du
contrôle, car vient toujours un moment où l’on doit savoir si oui ou non les
objectifs sont atteints. Faute de quoi, en milieu concurrentiel, on risque la
mort de l’entreprise. L’activation des motivations du plaisir et de la fierté
vient plutôt desserrer l’étau : le contrôle peut ne porter que sur les résultats
atteints, pas sur la manière dont on atteint les résultats, c’est-à-dire ni sur la
quantité d’efforts ni sur la qualité des efforts. En matière d’efforts, on laisse
ou bien les individus ou bien les équipes décider. On organise le partage des
« bonnes pratiques », mais on décentralise l’initiative de la décision du
« comment » faire. Le centre ou le sommet se concentre sur la définition du
« pourquoi ».
On en vient à crier haut et fort que le fonctionnement de l’entreprise
repose sur la « confiance ». Tout le monde est heureux…
CHAPITRE 6

L’impossible libération

Les récits d’entreprises libérées sont séduisants. Ils donnent de l’espoir.


L’espoir d’éloigner définitivement le spectre du surtravail issu du contrôle.
En même temps ils interrogent : jusqu’où peut-on relâcher le contrôle ? Les
sceptiques ne manqueront pas de donner de la voix : « C’est bizarre, ça
fonctionne tellement bien la libération d’entreprise qu’on se demande
pourquoi tout le monde ne fait pas la même chose. » La remarque mérite
qu’on s’y attarde. Elle s’appuie sur un raisonnement relevant du darwinisme
économique : si les entreprises peuvent atteindre leurs objectifs de résultat
en économisant du contrôle, et si la loi du marché favorise un tant soit peu
les entreprises qui présentent les meilleurs bilans coûts/bénéfices, alors
celles qui économisent le contrôle devraient dominer la planète ; or ça n’est
pas ce qu’on observe. Il y a là une énigme.

L’énigme du contrôle
Cette énigme n’a pas échappé aux auteurs de Liberté & Cie. À propos
de l’entreprise contrôlante, ils nous disent : « Par quel prodige une
organisation si imparfaite a-t-elle pu se maintenir aussi longtemps ? » À
cette question, ils apportent deux éléments de réponse, qui à l’examen se
révèlent difficilement compatibles.
Leur premier élément de réponse est spécifique à la période
d’industrialisation, qui s’est étendue depuis les dernières heures du
e 1
XVIII siècle jusqu’aux années 1960 . Les dirigeants de cette époque sont

décrits comme n’ayant eu d’autre choix que de privilégier le système de


sanction et de récompense, qui implique le contrôle méticuleux, parce qu’ils
avaient détruit les fondements des motivations alternatives : le plaisir et la
fierté. Ils avaient détruit ces fondements par la segmentation du travail, qui
consiste à découper les processus de production en tâches élémentaires, et
par la prescription formelle, qui consiste à décrire avec une extrême
précision le bon déroulement de l’activité.
Selon les auteurs, les premiers industriels étaient contraints à la
segmentation et à la prescription formelle, parce qu’ils recrutaient en masse
des paysans ou des artisans. Les paysans avaient leurs défauts : ils n’étaient
pas qualifiés pour des ouvrages manufacturiers complexes, raison pour
laquelle on devait réduire le coût d’entrée technique par la segmentation.
Les artisans en avaient d’autres : ils avaient leurs propres habitudes, à la
fois en termes d’emploi du temps et de façon de faire, ils avaient tendance à
n’en faire qu’à leur tête, raison pour laquelle on devait prescrire avec
précision.
En somme, les dirigeants ont investi dans le contrôle parce que cela
était adapté aux circonstances, parce qu’ils étaient dotés d’une capacité
d’adaptation et d’évolution, donc d’une certaine rationalité.
Le second élément de réponse de Getz et Carney à l’énigme de la
longévité des cultures de contrôle implique l’opposé. Le propos des deux
auteurs peut être résumé ainsi : les humains contrôlent parce que, depuis la
première industrialisation, ils ont toujours contrôlé ; ils ont été
conditionnés. Pour introduire cet argument, ils évoquent une expérience qui
n’est très vraisemblablement qu’une expérience de pensée. C’est une
histoire de macaques : « Cinq macaques sont dans une cage. Une banane est
pendue au plafond, accessible par quelques marches. » Lorsqu’un macaque
de première génération tente d’atteindre la banane, il reçoit une douche
froide. Rapidement, les cinq macaques renoncent. Après quoi, on les
remplace un par un. Les nouveaux s’interdisent rapidement de monter les
marches, non pas suite aux douches froides, mais parce que les anciens se
jettent sur eux avant la douche. Progressivement, on fait complètement
disparaître l’obstacle de la douche froide, mais l’interdit perdure, entretenu
par la pression des pairs. En résumé, le mécanisme qui assure la longévité
des cultures de contrôle procède de l’imitation et de l’intériorisation.
Quand on prend un peu de recul, on se dit que les mammifères ici mis
en scène sont un peu idiots : ils ne s’adaptent pas car ils ne questionnent
jamais leur pratique ; seuls les observateurs questionnent les pratiques. La
rationalité, qu’on attribuait précédemment aux dirigeants de la première
industrialisation, cède ici place à la tradition, qui elle-même tourne à
l’absurde : seuls les disparus savent quelles circonstances ont amené à
contrôler. À la manière des singes, les humains qui contrôlent ou se laissent
contrôler sont piégés par une illusion d’évidence.
Entre les deux éléments d’explication, il faut choisir : ou bien les
acteurs de l’entreprise sont intelligents, ou bien ils sont idiots. L’une des
explications de Getz et Carney est nécessairement fausse. Quant à l’autre,
elle n’est pas nécessairement bonne.

La raison d’être du contrôle


Pour juger de la seconde explication, il faut souligner en premier lieu
que la mise en scène impliquant les singes diffère d’une entreprise
collective sur un point qui va s’avérer crucial : pour atteindre la banane, les
macaques n’ont pas à mettre en commun des capacités qui distingueraient
chacun. Les fonctions sont peu différenciées. Il n’y a pas un singe qui place
les marches, tandis qu’un autre éclaire la banane, qu’un troisième porte le
quatrième sur ses épaules et que le dernier coordonne tout ce monde. Il n’y
a pas d’un côté des actionnaires et une direction qui apportent le capital, et
d’un autre côté des salariés qui apportent la force de travail.
Faute de différencier les rôles, et faute aussi de s’interroger sur ce que
les macaques feraient de la banane s’ils l’attrapaient, Getz et Carney
passent à côté d’une problématique majeure, intrinsèque à l’action
collective : le partage des efforts et des gains 2. Cette problématique crée
une tension entre intérêts particuliers.
Partant de cette tension entre intérêts particuliers, on peut faire une tout
autre lecture des premiers temps de l’industrialisation. Ça n’était pas des
paysans ou des artisans ignorants de la production industrielle qui causaient
du souci aux dirigeants, mais les ouvriers qualifiés. Ils leur causaient du
souci parce que eux seuls avaient la maîtrise d’une pièce centrale de la
mécanique organisationnelle : l’outil de production. Cette pièce, les auteurs
de Liberté & Cie la laissent dans l’ombre : sur la scène impliquant les
macaques, la présence d’une échelle pour accéder à la banane n’a aucune
importance ; aucun des singes ne songe à la confisquer. Or la présence de
l’outil de production change tout et révèle la raison d’être du contrôle.
Il faut savoir que les machines qui peuplaient les usines aux premiers
temps de l’industrialisation présentaient un défaut majeur : elles se
déréglaient facilement, et tombaient souvent en panne. Les ouvriers
devenaient rapidement familiers de leurs machines, et apprenaient les tours
de main nécessaires à leur relance. Ce savoir-faire leur conférait une sorte
de monopole technique.
Profitant de ce monopole, ils étaient libres de donner aux chefs d’atelier
leurs propres explications aux ralentissements et aux accidents. Comme
bien d’autres acteurs rencontrés depuis le début de ce livre, ils dressaient un
voile d’opacité autour de leur action et tenaient en respect la hiérarchie.
Même lorsqu’on les soupçonnait de mauvaise foi ou de mauvaise volonté, il
était risqué de les tancer puisqu’ils étaient difficilement remplaçables. Ils
tiraient de tout cela un certain pouvoir. Un pouvoir qui gênait les
employeurs 3.
Contrairement aux macaques tout juste capables de reproduire des
comportements ancestraux, les ouvriers manifestaient une intelligence. Au
contraire des paysans ou des artisans, les ouvriers jouissaient d’un savoir-
faire tout à fait pertinent en milieu industriel.
C’est dans ce contexte que la segmentation, la prescription et le contrôle
prenaient sens. L’étude minutieuse et la reprise en main des processus de
production par des bureaux des méthodes centralisés étaient un moyen de
lever l’opacité liée au monopole technique des ouvriers. L’enjeu central
était le pouvoir. La perte d’intérêt et de sens au travail, et donc
l’affaiblissement des motivations, du plaisir et de la fierté, ne fut qu’un
dégât collatéral.
Cette situation typique de la première industrialisation illustre un
phénomène général. Les « histoires » racontées par les ouvriers qualifiés
pour relâcher la pression sont des manières de ne pas répondre aux attentes
de la hiérarchie, ou dit plus techniquement, de se dérober à la relation de
subordination qu’implique le contrat salarial. En sciences économiques, on
qualifie ces comportements d’opportunistes 4. Les comportements
opportunistes se développent dans l’espace délimité par le voile d’opacité.
Le contrôle vient contrer la menace opportuniste, en levant l’opacité 5.

Un mouvement de balancier coûteux 6


Il s’ensuit que tout mode d’organisation ou de management venant
épaissir le voile d’opacité, ou venant créer une dépendance forte de la
direction vis-à-vis des salariés, sera contesté un jour ou l’autre. Or
l’« entreprise libérée » génère de l’opacité dans la mesure où elle éloigne la
hiérarchie des lieux de production. Le cas de FAVI, l’un des plus souvent
cité, est exemplaire de ce point de vue : deux des premières décisions du
libérateur furent de faire disparaître les pointeuses et l’encadrement
intermédiaire. Cela fait de l’« entreprise libérée » une construction instable,
condamnée à perdre un jour ou l’autre sa spécificité.
Alors que le contrôle serré invite au relâchement en raison de son coût,
le relâchement du contrôle invite au resserrement en raison du pouvoir qu’il
fait perdre. La culture de l’un(e) porte en germe la culture de l’autre.
L’organisation est un champ de forces qui alimentent une oscillation
perpétuelle entre les deux 7. Cette oscillation est en elle-même une dépense
d’énergie, car chaque changement de sens demande de modifier la structure.
Cette dépense est inutile, car on en revient toujours au même point. Par la
libération, nous escomptions nous débarrasser du surtravail de contrôle.
Finalement nous découvrons une autre source : le surtravail de changement.
De là vient un enjeu : contenir le mouvement de balancier. Restons
humbles : il est sans doute impossible de mettre définitivement fin au
mouvement. Pour qui cherche à réduire le surtravail de changement, une
ambition réaliste est de réduire l’ampleur et la vitesse du mouvement, et
par-là la dépense d’énergie. L’idéal est de ne faire que des mouvements
petits et lents.

Un outil pour anticiper le mouvement


de balancier entre resserrement
et relâchement du contrôle
Pour contenir le mouvement, la première chose à faire est d’apprendre à
l’anticiper, c’est-à-dire reconnaître les resserrements qui donneront
inévitablement lieu à relâchement, et inversement. Ces resserrements-là et
ces relâchements-là sont des changements inutiles.
Commençons par repérer les resserrements contenant les prémices du
relâchement. À mes yeux, les resserrements les plus suspects sont ceux qui
s’attaquent à un problème de gestion endémique ; par exemple, la difficulté
de mesurer la rentabilité d’un chantier ou d’un projet complexe. On doit
toujours se méfier des outils présentés comme des réponses à un mal
ancien. Un mal ancien est un mal qui a une fonction, qui procure des
bénéfices. Cet argument dérive d’une observation déjà faite dans ce livre :
avant d’être des problèmes de gestion, les comportements bien ancrés sont
des solutions de production. Ainsi, dans le cadre d’une production en mode
chantier ou projet, les comportements qui nuisent à la mesure de rentabilité
sont aussi les comportements qui permettent de travailler sur la base de
devis irréalistes (cf. chapitres 3 et 5). Vous ne pouvez les faire disparaître à
moins de renforcer le pouvoir de marché de l’entreprise. Tant que la
concurrence est vive, l’effort de contrôle vient percuter le problème de
production. À ce jeu, les contrôleurs peuvent gagner un set, pas le suivant ;
la partie est sans fin.
La probabilité d’un relâchement suivant un resserrement est augmentée
lorsque le contrôle renforcé promet de donner du travail aux contrôlés. Bien
sûr, ce travail sera dénoncé comme un vecteur de surcharge, mais il y a
plus : parce qu’il consistera au moins en partie à renseigner les outils, il
offrira les occasions de saboter le système.
Indices permettant de reconnaître un resserrement qui donnera lieu à relâchement

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Les nouveaux outils de
contrôle ciblent des problèmes ❒0 ❒1 ❒2 ❒3
de gestion endémiques
2. Le resserrement du contrôle
❒0 ❒1 ❒2 ❒3
donnera du travail aux contrôlés
3. Les nouveaux outils de
contrôle contiendront beaucoup ❒0 ❒1 ❒2 ❒3
d’indicateurs d’effort
La grille permet d’établir un score compris entre 0 et 9. Un score élevé signifie que les
probabilités de relâchement après resserrement sont élevées.

La probabilité est encore augmentée lorsque le resserrement doit


accoucher de tableaux de bord contenant de nombreux indicateurs d’effort.
Dans ce cas, ce sont les contrôleurs qui se plaindront du poids des chiffres.
Procédons maintenant à l’inverse, en repérant les relâchements qui
promettent un resserrement futur. Les deux premiers indices ne sont que des
façons de présenter à nouveau le voile d’opacité : la direction en vient à
dépendre de nombreuses couches hiérarchiques pour l’obtention des
informations de terrain, et elle perd les moyens de comparer les résultats
des entités de production. Je serais tenté d’ajouter un troisième indice, qui
dérive du constat suivant : un indicateur facile à produire techniquement
finit toujours par être produit. Sortez un tel indicateur des tableaux de bord,
il reviendra. C’est ce qui s’est passé au sein du cabinet de conseil que
j’évoquais dans le chapitre 4. Historiquement, la hiérarchie de ce cabinet
suivait de près les taux de production facturable individuels. Surfant sur une
vague de libération d’entreprise, une coalition dominante obtint que ces
indicateurs ne soient plus suivis qu’à l’échelle collective, en l’occurrence à
l’échelle d’équipes composées de huit personnes environ. L’idée de jouer la
solidarité était généreuse. La seule difficulté, c’est que pour produire les
indicateurs collectifs il fallait être capable de produire les indicateurs
individuels (les premiers étant des agrégats des seconds). Une fois qu’on
disposait d’un outil adapté, il suffisait d’appuyer sur un bouton pour
afficher tous les chiffres. Que s’est-il passé, croyez-vous ? La direction a
évité de porter à voix haute des jugements sur la base des taux individuels,
mais les a toujours gardés à l’œil. On a masqué le contrôle, on ne l’a pas
vraiment allégé.

Indices permettant de reconnaître un relâchement qui donnera lieu à resserrement

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Lorsque les outils de contrôle
auront disparu, la direction
dépendra de plusieurs couches ❒0 ❒1 ❒2 ❒3
hiérarchiques pour obtenir des
informations de terrain
2. Lorsque les outils de contrôle
auront disparu, la direction sera
incapable de comparer les ❒0 ❒1 ❒2 ❒3
résultats des différentes entités
de production
3. Le relâchement du contrôle
fait disparaître des indicateurs ❒0 ❒1 ❒2 ❒3
qui sont faciles à produire
La grille permet d’établir un score compris entre 0 et 9. Un score élevé signifie que les
probabilités de resserrement après relâchement sont élevées.

Le soutien, une méthode pour contrôler


sans en avoir l’air
Il existe un moyen pour contenir durablement le mouvement de
balancier resserrement-relâchement, c’est de contrôler sans en avoir l’air.
J’ai découvert cette possibilité à l’occasion d’une mission au sein d’une
usine sidérurgique. Cette usine réunissait deux types d’ateliers : des ateliers
de fonderie et des ateliers de tréfilerie. À l’occasion d’une discussion sur les
besoins des agents de maîtrise en matière de compétences managériales, le
directeur d’usine me dit : « Mais les besoins sont différents selon l’activité.
À la fonderie, ça se passe mieux que dans les ateliers de tréfilerie. En
tréfilerie, c’est plus tendu, il y a comme une défiance entre les deux
premières couches hiérarchiques. » À l’en croire, les agents de maîtrise en
tréfilerie créaient de la défiance parce qu’ils manquaient de compétences
psychologiques et comportementales. Pendant la conversation, je n’ai pas
mis en question le constat d’une différence de climat relationnel. En
revanche, je ne croyais pas en l’explication par les compétences. À mes
yeux, cette explication supposait que le hasard eût réuni les bons managers
d’un côté, les mauvais managers de l’autre. L’hypothèse me semblait peu
plausible.
Je suis parti d’une autre hypothèse, selon laquelle le hasard avait
distribué également des deux côtés les compétences psychologiques et
comportementales. Dans cette seconde hypothèse, l’explication ne pouvait
pas résider dans les individus, mais à l’extérieur d’eux : dans la façon dont
le contexte de travail façonnait les relations. Suivant cette seconde
hypothèse, j’ai relevé des différences majeures entre le fonctionnement des
ateliers de fonderie et celui des ateliers de tréfilerie.
Les deux environnements de travail étaient soumis à des exigences de
performance comparables, si bien que les deux catégories d’encadrants se
devaient d’exercer à peu près la même dose de contrôle. Dans les deux
ateliers, on pouvait entendre : « Le chef il sait ce que je fais, il est à côté de
moi. » Mais tandis que dans les ateliers de tréfilerie le rapprochement
physique de l’agent de maîtrise était vécu comme une intrusion, dans les
ateliers de fonderie les ouvriers n’avaient pas le sentiment d’être contrôlés.
L’écart venait de ce que dans les ateliers de fonderie, les agents de
maîtrise exerçaient leur contrôle en même temps qu’ils apportaient un
soutien. Ces derniers suivaient exactement les mêmes rythmes horaires que
les ouvriers ; les deux populations étaient synchronisées ; chaque encadrant
avait « son » équipe, et réciproquement. De plus, les agents de maîtrise
étaient positionnés au bord du bassin de fonderie, aux côtés des ouvriers. Ils
participaient directement à la production. Le travail était dangereux, il
exigeait beaucoup de finesse. Le danger et le besoin de finesse rendaient
précieuse leur présence : tantôt ils apportaient des solutions encore
inconnues des autres, tantôt ils désignaient un ouvrier reconnu pour tel
savoir-faire, tantôt ils ajoutaient leur force motrice à celle des ouvriers.
C’est ce soutien qui rendait le contrôle indolore.
Au contraire, dans les ateliers de tréfilerie, les agents de maîtrise ne
suivaient pas exactement les mêmes rythmes que les ouvriers. Surtout, ils
ne participaient pas directement à la production : ils étaient physiquement
positionnés en retrait, dans le dos des ouvriers ; ils étaient là pour observer,
pour rectifier. Les occasions de rectifier quoi que ce soit étaient rares, car le
travail était répétitif. Les interventions des encadrants relevaient
principalement du rappel de la règle et des cadences attendues. Et, pour
procéder aux rappels, ils avançaient de quelques pas, tels des contremaîtres
du XXe siècle.
Le soutien hiérarchique présente deux avantages pour ceux qui
l’exercent. Le premier avantage est la présence qu’implique la collaboration
entre échelons (l’argument pourrait être élargi à toutes les relations entre
contrôleurs et contrôlés). Sans doute le manager n’est-il pas présent
physiquement et en permanence aux côtés des collaborateurs, mais au
moins les interactions sont-elles fréquentes et touchent-elles au contenu
même du travail. Ces interactions sont autant d’occasions de voir ce qui se
passe, de lever le voile d’opacité dont souffraient les premiers industriels.
Ça n’est pas tout. S’il ne s’agissait que de présence, la relation
hiérarchique pourrait très bien ressembler aux ateliers de tréfilerie. Dans la
perspective d’un équilibrage entre contrôle et absence de contrôle,
l’efficacité du soutien vient de la nature de l’échange qu’il établit entre deux
échelons hiérarchiques. Fondamentalement, le travail hiérarchique consiste
à acheter la bonne volonté des collaborateurs. Le verbe « acheter » indique
que la bonne volonté n’est jamais offerte gratuitement : elle n’est obtenue
que lorsque l’échange est perçu comme réciproque par les membres de
l’équipe. Sans réciprocité, l’échange vire à la lutte : les collaborateurs
versent dans la résistance, le manager dans la coercition, et le bilan
coûts/avantages de la relation se dégrade. Le soutien est un moyen
d’instaurer la réciprocité au même titre que la distribution de sanctions et
récompenses.
J’ajoute que le levier du soutien est plus facile à actionner lorsque
l’offre rencontre une demande d’aide. Stimuler cette demande devient alors
un enjeu. Les demandes émergent d’autant plus facilement qu’elles sont
accueillies positivement par les managers, interprétées par eux comme des
signes de maturité plutôt que d’insuffisance. Rien n’est plus destructeur
qu’un reproche ou une menace du type : « Si vous ne parvenez pas au
résultat, c’est que vous n’avez pas compris ou que vous n’avez pas fait ce
qu’il fallait faire. » L’attitude du manager est déterminante.

Organiser le soutien hiérarchique


Cela dit, il ne suffit pas d’enjoindre aux managers d’adopter la
« positive attitude ». Encore faut-il offrir un milieu organisationnel
favorable à la pratique du soutien. Tous les milieux ne se valent pas. Les
plus favorables partagent deux caractéristiques : d’abord l’existence d’un
objet ou d’une tâche qui exige une présence physique du manager, ensuite
un degré de sophistication des tâches impliquant un apprentissage de la part
des membres de l’équipe. Ces deux caractéristiques réunies invitent les
échelons hiérarchiques contigus à coopérer. Alors que les ateliers de
fonderie fournissent un exemple de milieu réunissant les deux
caractéristiques, les ateliers de tréfilerie en fournissent un contre-exemple :
les opérateurs travaillent parallèlement, et les tâches sont répétitives.
Le plus souvent, les organisations du travail se positionnent sur un
continuum reliant ces deux situations extrêmes. Autant dire que les milieux
qui ne réunissent pas spontanément les deux caractéristiques sont
nombreux. Il y a donc matière à réflexion.
Dans cette réflexion, les illustrations offertes par la fonderie et la
tréfilerie peuvent méprendre, car elles suggèrent que la réunion ou non-
réunion des deux caractéristiques dépend de la nature du produit, ce qui est
faux.
Prenons l’exemple d’une direction au sein de laquelle on traite deux
catégories de dossiers : les dossiers simples, confiés aux collaborateurs ; les
dossiers complexes, confiés au personnel encadrant. Les échelons
hiérarchiques partagent le portefeuille d’ensemble, mais ils mènent les
tâches séparément. Ici, c’est un choix spécifique de division du travail qui
bride les pratiques de soutien hiérarchique. Un autre choix est
envisageable : confier les dossiers complexes aux collaborateurs et placer
les managers en appui. C’est une manière de relier les échelons
hiérarchiques dans l’action même de production.

Implications pour le recrutement


des managers
Une tâche complexe, un problème de production ne relie effectivement
deux échelons hiérarchiques que lorsque le manager a quelque chose à
apporter à ses subordonnés : une expérience, des compétences, des
informations, des contacts à l’extérieur de l’équipe…
La détention par les candidats managers de ressources pertinentes de ce
point de vue doit donc être un critère de recrutement. Les compétences
techniques ne sont certes pas les seules dans la liste, mais j’éprouve le
besoin de leur rendre honneur, car, durant ces quinze dernières années, j’ai
entendu trop de directions des ressources humaines dire : « Nos managers
sont des techniciens, nous avons besoin de vrais managers. » Les directions
qui formulaient les choses ainsi ne se contentaient pas de développer les
compétences psychologiques et comportementales d’individus qui étaient
par ailleurs de bons techniciens. Elles souhaitaient aller plus loin : elles
niaient l’intérêt de la compétence technique pour obtenir de bons résultats
dans l’animation d’équipe et s’apprêtaient à modifier les circuits de
recrutement des cadres intermédiaires. Ces directions se fourvoyaient : elles
se préparaient à priver les responsables hiérarchiques d’un levier de soutien,
au risque de renforcer l’inflation du contrôle.
Érigée en politique d’entreprise, la spécialisation technique des
managers présente tout de même un inconvénient majeur. Elle invite à
privilégier la mobilité à l’intérieur d’une même direction fonctionnelle ou
d’un même métier, ce qui conduit au cloisonnement et à l’ignorance des
contraintes d’autrui. C’est le fameux « travail en silo ».
C’est pourquoi il convient d’introduire un deuxième critère de
recrutement dès que cela fait sens sur le plan technique : le fait d’avoir servi
plusieurs fonctions dans l’entreprise. Un manager remplissant ce critère a
d’autres ressources à apporter à ses collaborateurs : la capacité à recourir à
l’environnement pour obtenir des éléments de solution aux problèmes de
production.
Pendant plusieurs années j’ai travaillé avec une compagnie d’assurances
qui est allée très loin dans la mobilité interfonctionnelle : de nombreux
managers étaient passés de fonctions commerciales à des fonctions de
production telles que la gestion de sinistres, en passant par des fonctions
transverses comme la direction des ressources humaines. D’année en année,
ils étendaient leur réseau de contacts au sein de l’entreprise et utilisaient ce
réseau pour obtenir des informations et des décisions profitables à leur
équipe.

Implications pour la localisation


des managers
La localisation du manager et des collaborateurs est un autre facteur
important de développement des pratiques de soutien. Dans la perspective
du soutien hiérarchique, la place idéale est au milieu de l’équipe, et le
« management à distance » fait naître un risque majeur. Si le « management
à distance » ne concernait que les cadres dirigeants de multinationales, nous
pourrions nous consoler en pensant que le problème est réservé aux riches.
Mais il concerne en réalité d’autres statuts, notamment au sein des très
nombreuses entreprises qui ont connu une ou plusieurs fusions au fil de ces
dix dernières années. Les entreprises fusionnées ayant historiquement
distribué les fonctions selon une géographie spécifique, l’organisation
résultante garde sur plusieurs sites des équipes exerçant la même activité, et
les liens hiérarchiques à distance touchent quasiment toutes les catégories
de salariés.
Malgré la disponibilité d’outils de communication très puissants, je ne
connais à ce jour aucune technique qui compense la distance. Cela pour
deux raisons. D’abord parce que les interactions à distance sont plus
souvent planifiées (lorsqu’elles passent par la tenue d’une réunion) ou
asynchrones (lorsqu’elles passent par le courrier électronique ou la
messagerie téléphonique). Or, puisque le soutien se développe autour de
situations inattendues, il se nourrit plus volontiers des interactions non
planifiées et synchrones. Seconde raison pour laquelle les outils de
communication compensent difficilement la distance : ils transportent une
information moins riche que le face-à-face ; par exemple, le courrier
électronique est fort peu propice au traitement d’une question complexe ou
à la gestion des tensions relationnelles ; le téléphone est plus adapté pour
cela, mais il prive d’un regard sur une partie des messages non verbaux et
sur l’environnement physique immédiat des interlocuteurs.
La distance qui sépare les individus ne dépend pas seulement de
données géographiques. Elle dépend aussi de la taille des équipes, qui a
augmenté dans les entreprises soucieuses de raccourcir les lignes
hiérarchiques. Elle dépend enfin de la diversité fonctionnelle, du degré de
différenciation des rôles. Au-delà d’un certain seuil de différenciation,
l’activité de chaque collaborateur devient si étrangère au manager que ce
dernier ne peut y contribuer. C’est typiquement le cas au sein des holdings,
des sièges sociaux ou plus largement des fonctions dites « support » : les
directions administratives et financières.

Élargir la perspective à tout rapport entre


contrôleurs et contrôlés
Ce que je dis des rapports de contrôle hiérarchique me semble valoir
plus largement pour les rapports de contrôle. En dehors des circonstances
qui rendent le contrôle automatique, les contrôleurs ont besoin des contrôlés
pour obtenir des informations sur le déroulement de la production.
L’obtention de ces informations est d’autant plus aisée que les contrôleurs
sont capables d’apporter un soutien aux contrôlés : des informations venues
d’ailleurs, des conseils, des comptes rendus nuancés, des accès à des
décisionnaires, à des détenteurs de ressources…
« C’est à nous de tisser les réseaux pour percer l’opacité. Il faut montrer
qu’on ne fait pas que demander de l’information. On leur donne aussi
des informations. C’est donnant-donnant. On les aide. Par exemple en
faisant le reporting avec eux. De toute façon ils ont des cases à remplir.
Alors on les aide à remplir les cases, on s’occupe d’une partie de leurs
tâches administratives. On les alerte aussi, pour qu’ils pensent par
exemple à facturer les clients. Autre exemple : quand les
consommations dérivent, on les alerte, on rassemble des explications
avant d’alerter la hiérarchie. » (Un contrôleur de gestion dans l’industrie
nucléaire.)

Les contrôleurs hors hiérarchie ont les mêmes cartes à jouer que les
managers : maîtrise d’une compétence, maîtrise de l’information, maîtrise
8
des relations avec l’environnement, maîtrise des règles . L’origine et le
profil des contrôleurs conditionnent là encore les degrés de maîtrise, et la
distance géographique ou sociale pèse là encore sur la qualité de la relation.

Un outil pour détecter les conditions


organisationnelles favorables
aux pratiques de soutien
Pour sentir la présence ou l’absence des conditions organisationnelles
favorables au développement des pratiques de soutien, vous pourrez vous
en remettre à la grille suivante.

Détection des conditions organisationnelles favorables au développement des


pratiques de soutien

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. La hiérarchie/les contrôleurs ❒0 ❒1 ❒2 ❒3
sont proches du terrain, soit
physiquement, soit
intellectuellement
2. L’activité de production
amène la hiérarchie à travailler
❒0 ❒1 ❒2 ❒3
avec les équipes (sur des
dossiers, sur des projets…)
3. Le travail des opérateurs de
production exige un
❒0 ❒1 ❒2 ❒3
apprentissage que la hiérarchie
de proximité peut faciliter
4. La hiérarchie/les contrôleurs
ont des ressources à apporter
aux opérateurs de production
(des informations, des ❒0 ❒1 ❒2 ❒3
connaissances et compétences,
des accès à l’environnement,
des outils…)
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que
l’organisation offre un terrain propice aux pratiques de soutien.

Pour être honnête, je ne crois pas que la coopération étroite entre


contrôleurs et contrôlés stabilise totalement l’organisation, car
l’ambivalence relationnelle ainsi créée ouvre une brèche par laquelle
peuvent s’insinuer la connivence et la collusion. Or de la collusion à la
reprise de contrôle, il n’y a qu’un pas. L’organisation parfaitement
stationnaire n’existe pas. C’est une triste nouvelle pour nous, car cela
signifie qu’une organisation sans aucun surtravail n’existe pas non plus.
J’ai une autre nouvelle, à la fois bonne et mauvaise : l’oscillation entre
contrôle et absence de contrôle n’est pas la seule cause de déperdition
d’énergie dans le changement, loin de là. Elle n’en est peut-être qu’un
aperçu…
PARTIE III

Changement
CHAPITRE 7

Les changements voués à l’échec

Nous dépensons une énergie folle dans le changement. La veille


d’entreprendre ce chapitre, je participai à une table ronde rassemblant des
directeurs des ressources humaines employés par de grandes entreprises.
Sophie était de la partie. Le thème qui les réunissait était le suivant : « Les
clés de réussite des projets de réorganisation. » Au cours des premières
discussions, Sophie déclara : « Un projet de réorganisation, c’est une charge
de travail énorme ; et c’est une surcharge qui peut rester là pendant très très
longtemps. »
Le constat n’avait rien d’étonnant, mais je fus tout de même surpris par
les réponses non verbales de ses homologues : ils exprimèrent leur
assentiment très ostensiblement, comme s’ils étaient soulagés qu’on
verbalise une de leurs grandes difficultés. Un autre a enchaîné : « D’autant
plus que les affaires courantes ne disparaissent pas pendant ce temps-là. »
Ils ont poursuivi en évoquant deux modes d’activité : le « Run » qui désigne
les tâches récurrentes, et le « Build » qui consiste à faire évoluer la
structure. Il y avait surcharge parce que le plus souvent, les effectifs de
l’entreprise sont dimensionnés pour gérer les tâches récurrentes, le Run.
Un troisième participant ajouta quelques instants plus tard : « Et on a à
peine terminé qu’un autre changement se profile. » Autant dire que la
surcharge n’était plus vraiment temporaire. Les périodes de répit étaient si
courtes qu’on peinait maintenant à distinguer clairement le Run et le Build.
Le coût du second devenait équivalent au coût du premier. Toute économie
de temps serait la bienvenue.
Au quotidien, chacun de vous est touché de près ou de loin par des
projets de centralisation, d’externalisation, de montée en polyvalence, ou de
mise en place d’une structure matricielle. Je ne connais aucune entreprise
ayant échappé à toutes ces formes de changement.
Ces diverses formes sont guidées par un seul et même principe : la
mutualisation des ressources. Toutes consistent en effet à étendre le
domaine d’exploitation d’une ressource : on demande à un service support
de servir plusieurs zones géographiques, on approvisionne plusieurs
entreprises concurrentes entre elles grâce à un même outil de production, on
affecte un salarié sur plusieurs lignes de production, on partage le temps
d’un expert entre plusieurs projets…
La mutualisation est une tendance de fond, une tendance très forte, car
elle est une réponse au renforcement des contraintes de coût. Toutes ses
formes sont censées générer des économies d’échelle : on augmente les
chances d’amortir des investissements productifs, on réduit les poches de
sous-charge ; et, lorsque la mutualisation est couplée à la spécialisation
technique, on facilite l’acquisition d’une maîtrise du contenu de l’activité.
La mutualisation apporte son lot de surtravail, car une partie des projets
guidés par son principe sont voués à l’échec. Avant de poursuivre,
accordons-nous sur la définition de ce qu’est un échec. Je considérerai ici
qu’un projet manqué est un changement qui ou bien n’apporte satisfaction à
personne, ou bien accouche d’une organisation qui demande plus de travail
que l’organisation de départ (pour un résultat équivalent), ou bien invite à
rebrousser chemin. Ces trois définitions de l’échec ne sont pas exclusives
l’une de l’autre : il y en a qui se cumulent…
Prévenons deux malentendus possibles. Premièrement tous les projets
de mutualisation ne connaissent pas l’échec. Deuxièmement, la
mutualisation n’est pas le seul principe qui apporte son lot de surtravail. Si
j’ai décidé de consacrer un chapitre entier à ce type de changement, c’est
que les projets de mutualisation voués à l’échec ont le mérite d’être
reconnaissables à l’aide de quelques critères simples.
Reprenons une par une les quatre sortes de mutualisation évoquées plus
haut.

Deux critères pour reconnaître


les centralisations vouées à l’échec
Commençons par les projets de centralisation, dont on peut prévoir le
destin grâce à deux critères.

Critère no 1 : la diversité du réel


Le premier critère m’a été révélé par la comparaison entre deux projets
très proches : deux créations de centres de services partagés (« CSP »)
spécialisés dans la gestion de paie, l’un dans une entreprise du secteur de
l’armement, l’autre chez un équipementier télécoms. Malgré de fortes
similitudes, les deux CSP ont connu des destins contrastés.
Les deux centres avaient non seulement en commun un métier, mais
aussi l’organisation. Tous deux étaient en effet composés d’un front-office
et d’un back-office. Le front office était un plateau téléphonique, qui
employait des profils généralistes pour répondre aux questions très diverses
des salariés. Ces questions pouvaient porter sur le décompte des jours de
congés, le montant des indemnisations en cas d’arrêt maladie, le calcul des
primes, l’actualisation des coordonnées personnelles, etc. Le back-office
rassemblait des profils plus spécialisés, qui géraient la fabrication des fiches
de paie. On y trouvait des opérateurs de saisie, des spécialistes de la
rémunération variable, des individus chargés de surveiller l’évolution des
règles, des individus chargés du paramétrage des logiciels, et d’autres
encore…
Chez l’équipementier télécoms, le fonctionnement du CSP apportait
satisfaction à ses membres comme à ses clients :

« Comme on a concentré les compétences à un endroit donné, quand on


est absent, qu’on soit en congé ou en arrêt maladie, il y a toujours un
back-up. Quand je reviens de congé, je ne me demande pas ce qui s’est
passé, je ne me dis pas que je vais retrouver une pile de dossiers en
retard sur mon bureau. En un sens, on est plus libres. Et puis c’est plus
facile de s’entraider, c’est plus facile d’apprendre. » (Gestionnaire
de paie, front-office, équipementier télécoms.)

Dans l’entreprise du secteur de l’armement, c’était le désastre. Les élus


du personnel ont alerté la direction à plusieurs reprises : des individus
souffraient, les arrêts maladie se multipliaient, les accidents de production
aussi. Sur le front-office, on entendait :

« Ça m’arrive souvent de ne pas savoir répondre, c’est très difficile à


vivre, j’ai l’impression d’être nul, et le fait que mes voisins n’en sachent
pas plus que moi, ça ne me console pas. C’est d’autant plus difficile à
vivre que, d’une façon ou d’une autre, on parle toujours d’argent. Même
les congés c’est de l’argent. Et les gens, quand il s’agit d’argent, ils sont
très vite pas contents. Ils ne tolèrent pas qu’on ne sache pas répondre.
Ils ont tout de suite l’impression qu’on gère leur paie n’importe
comment. » (Gestionnaire de paie, front-office, secteur de l’armement.)
Un propos qui trouvait écho du côté du back-office :

« En fait, c’est assez compliqué de comprendre comment est faite la


fiche de paie. Il y a une grande diversité de cas. Quand on suspecte une
anomalie, ou quand un salarié pose une question à laquelle on ne sait
pas répondre, il faut faire un chemin : c’est quoi le statut de cette
personne ? c’est quoi les règles applicables ? Je peux toujours y arriver
si j’ai les moyens de me concentrer, mais je suis souvent interrompu.
C’est encore pire pour mes collègues qui répondent au téléphone. »
(Gestionnaire de paie, back-office, secteur de l’armement)

Officiellement, au sein de cette entreprise du secteur de l’armement,


l’organisation en CSP n’était pas remise en cause. Officieusement, elle
l’était. En effet les établissements clients du CSP avaient reconstitué un
embryon de gestion de paie en local, composé de quelques individus en
provenance du service comptabilité et de la fonction ressources humaines.
De facto, ils avaient redécentralisé une partie des tâches, notamment celles
d’information et de conseil aux salariés. Le changement s’était fait
surtravail : on était allé dans un sens, et on commençait le chemin en sens
inverse.
Vous imaginez bien que je me suis interrogé sur les écarts entre les deux
cas. Le responsable du centre de services partagés qui n’apportait pas
satisfaction m’a livré une première explication :

« Dans mon équipe il y en a un certain nombre qui n’arrivent pas à


s’adapter. Par exemple, on a changé de logiciel de gestion il y a un an.
Pour partie, ils ne s’y sont toujours pas faits. Ce ne sont pas forcément
des profils très évolutifs, vous voyez… » (Responsable CSP, secteur de
l’armement.)
L’explication donnée par ce responsable est celle qui domine dans
beaucoup d’entreprises : les choses ne se déroulent pas comme prévu parce
que les individus sont défaillants. Le réflexe du diagnostic d’insuffisance
aboutit ici à une hypothèse proche de celle que faisait implicitement le
directeur de l’usine sidérurgique : les membres du CSP dans l’armement
seraient de moindre qualité que ceux du CSP chez l’opérateur télécoms.
L’un des deux employeurs aurait multiplié les accidents de recrutement,
l’autre non. Dans le domaine des sciences, on dit qu’il s’agit là d’une
« hypothèse lourde ».
Laissons cette hypothèse de côté et examinons à nouveau le contexte
organisationnel de la centralisation. Chez l’équipementier télécoms, nous
avons entendu :

« On a profité de la création du CSP pour harmoniser nos pratiques, on


a consolidé les process. Aujourd’hui ça nous permet de travailler de
façon plus fluide. » (Gestionnaire de paie, équipementier télécoms.)

Dans l’entreprise du secteur de la défense, on nous a dit :

« En fait, c’est assez compliqué de comprendre comment est faite la


fiche de paie. Il y a une grande diversité de cas. » (Gestionnaire de paie,
secteur de l’armement.)

Le premier CSP a réussi à digérer la diversité des situations rencontrées


en « harmonisant », le second peinait grandement. Il y avait des raisons
« objectives » à cela : l’entreprise du secteur de l’armement employait à la
fois des salariés de droit privé, et des agents aux statuts très particuliers, tels
les ouvriers d’État, les militaires ou les ingénieurs détachés du ministère de
la Défense.
La leçon à tirer est la suivante : lorsqu’on centralise une fonction, on se
propose le plus souvent d’utiliser des moyens ou des ressources homogènes
pour répondre à des besoins ou à des contraintes hétérogènes, et on cherche
des économies d’échelle par un effort de standardisation ; à partir d’un
certain degré de différenciation des besoins, à partir d’un certain degré
d’hétérogénéité des contraintes, la réalité résiste à la standardisation, et les
règles foisonnent jusqu’à dépasser les capacités de gestion des individus.

Critère no 2 : les écarts de maturité entre


les activités servies par la fonction centrale
Le deuxième critère permettant de prévoir le funeste destin d’une
fonction centralisée n’est sans doute qu’une extension du premier.
Pour découvrir ce critère, je vous invite maintenant à entrer dans la peau
d’un salarié d’une compagnie d’assurances. Au fil des années, la compagnie
a élargi sa gamme. Elle a commencé par distribuer des produits d’assurance
dommages : des assurances auto, des assurances habitation. Après avoir
étendu l’éventail des dommages couverts, elle est entrée sur le segment de
l’assurance santé et de la prévoyance, pour finir par l’assurance-vie (qui est
un produit d’épargne plus qu’un contrat d’assurance).
Vous travaillez au sein de la direction assurance-vie, la petite dernière,
en tant que gestionnaire de contrats. Vous êtes sur un plateau, en contact
avec les clients, et accomplissez par ailleurs des tâches administratives.
Votre outil de production est votre ordinateur. Votre matériel informatique,
vos logiciels, vos droits d’accès sont fournis par la direction des systèmes
d’information (DSI). La DSI servant toutes les directions, on peut la
considérer comme une fonction centralisée.
Vous avez un souci : les logiciels fournis ne sont pas bien adaptés à
votre activité. Au départ, ils ont été développés pour les activités
d’assurance dommages. Votre hiérarchie a beau relayer les plaintes, les
outils plus spécifiques se font attendre. Vous n’avez pas tardé à comprendre
que les projets de développement concernant l’assurance-vie passaient
toujours après ceux qui concernent l’assurance dommages, tout simplement
parce que la première activité pèse 5 % du chiffre d’affaires, tandis que la
seconde pèse 75 %.
Vous avez mis plus de temps à comprendre que votre propre direction
ne facilitait pas la tâche de la DSI. Un jour, à la cafétéria, un collègue
informaticien vous a lancé :

« C’est pas si évident de développer des outils pour vous, parce que vos
besoins ne sont pas clairs. À chaque fois qu’on en parle avec vos
managers, ça change. » (Développeur SI, compagnie d’assurances.)

Sa réponse vous a troublé, et vous avez cherché une explication. Vous


vous êtes alors aperçu que les pratiques de la direction assurance-vie, qui
était jeune, n’étaient pas stabilisées. Vous cherchiez encore à « améliorer les
processus ».
Le résultat final, c’est que sur votre plateau, il se dit :

« Pour enregistrer ce type d’opérations, pour l’instant, on bidouille. On


commence par saisir sur feuille Excel avant de saisir sur une autre
interface. On est obligés parce que le “système d’info” ne permet pas
d’enregistrer toutes les données, et nous il faut qu’on garde trace de
toutes les données. Bon, c’est sûr que ça ajoute du travail, et que ça
nous oblige à penser à des choses. » (Gestionnaire de contrats
d’assurance-vie, compagnie d’assurances.)

« On bidouille », cela veut dire qu’on redécentralise quelque chose : on


développe des outils indigènes, pour accomplir des tâches d’enregistrement.
Ici encore, on rebrousse chemin. Lorsque la compagnie voudra accélérer
son développement sur cette gamme de produits, le mouvement se
poursuivra : les besoins de réactivité, d’outils spécifiques et évolutifs seront
plus forts et pousseront à dédier une équipe au sein de la DSI.
Retranscrit dans l’outil de détection dont vous avez maintenant
l’habitude, tout cela donne :

Évaluation des probabilités d’échec de la centralisation

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. La fonction centralisée
fait/fera face à des situations
❒0 ❒1 ❒2 ❒3
extrêmement diverses/ à des
pratiques très hétérogènes
2. La fonction centralisée
sert/servira des clients internes
qui ont des poids très différents ❒0 ❒1 ❒2 ❒3
dans le chiffre d’affaires de
l’entreprise
3. Certains clients ont besoin
❒0 ❒1 ❒2 ❒3
d’une grande réactivité
4. Certains clients internes
évoluent encore dans leur
❒0 ❒1 ❒2 ❒3
pratique, tandis que d’autres ont
des pratiques stabilisées
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que les
chances de voir la centralisation échouer/de voir se déclencher un mouvement de
redécentralisation sont élevées.

En cas d’évaluation pessimiste, trois options s’offrent à nous.


1. Écarter l’idée d’une centralisation. Je ne vous cache pas que cette
option a ma préférence. J’ai un certain goût pour les réponses binaires,
et celle-là en est une belle. Plus sérieusement, je pense que la décision
de centraliser ou non dépend de la hiérarchie des enjeux de l’entreprise.
Si les enjeux de réactivité, de rapidité, d’adaptabilité sont prioritaires,
alors préférez la décentralisation. Si les enjeux de rentabilité, de
maîtrise des coûts et de productivité sont prioritaires, alors préférez la
centralisation.
Il faut se méfier tout de même des solutions jusqu’au-boutistes. Comme
c’était le cas des pôles contrôle et absence de contrôle, les positions
extrêmes sont des repoussoirs : plus on s’en , plus approcheon souffre
des effets négatifs, plus on est tenté de repartir dans l’autre sens. La
centralisation engendre la rigidité, et la décentralisation est coûteuse.
Les deux autres options sont des solutions intermédiaires.
2. Préparer soigneusement le terrain pour la centralisation. L’option qui
consiste à préparer le terrain pour la centralisation est adaptée lorsque le
risque vient de la résistance que la diversité du réel oppose à la
standardisation. La préparation du terrain consiste alors en un long
travail d’harmonisation des pratiques, en amont de la restructuration
proprement dite.
3. Aménager la centralisation. Dans cette option je range deux types de
solutions. J’y range d’abord les solutions qui permettent aux membres
de la fonction centrale de personnaliser quelque peu la relation avec
leurs interlocuteurs. Regardez ce que font les administrations publiques
et privées de nos jours : lorsqu’elles vous envoient un courrier, elles y
inscrivent le nom et les coordonnées de la personne en charge de votre
dossier. C’est une façon de procéder. Une autre façon est d’attribuer un
ou plusieurs segments de clientèle à chaque membre de la fonction
centrale ; on découpera les segments par statut, par zone géographique,
etc.
Dans cette option, je rangerai ensuite les solutions qui consistent à isoler
une équipe pour la dédier à une activité émergente, en voie de conquête, sur
laquelle on compte pour assurer la croissance de l’entreprise dans les
années à venir. Par exemple, dans la compagnie d’assurances, il s’agirait
d’identifier au sein de la DSI des individus qui ne travailleraient que pour la
direction assurance-vie.

Trois critères pour reconnaître


les externalisations vouées à l’échec
L’externalisation est une autre forme de mutualisation, une
mutualisation à l’échelle du marché : on partage un fournisseur avec
d’autres entreprises qui en sont clientes. Les avantages recherchés dans
l’externalisation sont nombreux, et les risques le sont tout autant. La
littérature consacrée au sujet est abondante, tant en sciences économiques
qu’en sociologie, et cette abondance est à la mesure de la multiplicité des
causes de réussite ou d’échec. De cette littérature, on peut tout de même
tirer les critères simples qui nous aideront à prévoir l’avenir 1.

Critère no 1 : le degré d’incertitude


À nouveau, je tirerai le premier critère d’une comparaison. D’un côté, je
vous ferai remarquer que quelle que soit l’entreprise qui nous emploie, nous
sommes entourés par les résultats d’une externalisation réussie. Réussie au
point de n’être contestée par personne. Mieux, nous ne sommes même pas
conscients qu’il s’agit d’une externalisation. Cette externalisation porte sur
la fabrication des consommables : les crayons, le papier, le mobilier, les
ordinateurs, etc. Tous ces produits partagent une caractéristique : ils sont
standard. Bien sûr, chaque consommable est décliné sur de multiples
modèles, qui diffèrent par les formats, les couleurs, les matériaux, etc., mais
chaque modèle est susceptible d’être utilisé dans un grand nombre
d’entreprises acheteuses. Réciproquement, il est aisé de mettre plusieurs
fabricants ou vendeurs en concurrence, et l’on trouvera toujours un mieux-
disant. Le produit est banal, il s’agit d’une « commodité », et le marché en
tant qu’outil de transaction fonctionne à merveille.
D’un autre côté, j’attirerai votre attention sur les résultats d’une
externalisation qui pose problème à beaucoup de monde : celle de tout ou
partie du développement des systèmes d’information. D’après une étude
parue en 2013 2, 57 % des responsables informatiques se révélaient très
insatisfaits. Les termes rapportés étaient éloquents : « projets ingérables »,
« casse-tête », « catastrophes »… Seuls 27 % considéraient que leurs projets
en cours étaient gérés correctement. À l’opposé des commodités, produites
en masse, les projets comportent par définition une part de sur-mesure.
Dans ces exemples, ce qui distingue l’externalisation réussie de
l’externalisation décevante, c’est d’abord le degré d’incertitude. Lorsque
vous achetez un consommable, vous savez exactement ce que vous allez
obtenir. Parallèlement, le fabricant sait exactement comment la production
va se dérouler. Lorsque vous développez un système d’information, vous
entrez dans le cadre d’une prestation sur devis ; ni vous ni le prestataire ne
savez exactement sur quoi et comment vous allez atterrir ; parfois, en début
de prestation, l’acheteur ne sait même pas exactement ce sur quoi il veut
atterrir.
L’incertitude grandit avec le degré de nouveauté et de complexité de la
prestation vendue. Avec l’incertitude vient la probabilité de dérive. En
témoigne le cauchemar vécu par Boeing entre 2004 et 2011, à l’occasion du
développement du 787 Dreamliner. Le développement et la mise en
fabrication d’un aéronef de cette taille sont toujours extraordinairement
complexes. À la complexité, Boeing a ajouté des nouveautés radicales :
premier avion majoritairement fabriqué en matériaux composites, système
de distribution d’électricité révolutionnaire, extension significative de la
surface des hublots, recours à des matériaux dont la teinte varie en fonction
de la luminosité externe, refonte de l’aménagement intérieur de la cabine…
Pour donner naissance au Dreamliner, l’entreprise a poussé
l’externalisation plus loin que quiconque dans les secteurs de l’aéronautique
et de l’aérospatiale : en valeur, 70 à 80 % de la production ont été confiés à
des prestataires extérieurs. Avec pour résultat : sept ans de travail, sept
reports de livraison, trois ans de retard sur le calendrier initial, un
dépassement de budget de plusieurs milliards de dollars et… une
réinternalisation par l’acquisition d’un fournisseur clé et par la reprise sous
contrôle d’un site de fabrication majeur 3.
Le cauchemar de Boeing ne fut pas un accident. Il était prévisible. Tout
aussi prévisible furent les difficultés rencontrées par EDF, par Orano et
leurs partenaires dans la construction des réacteurs nucléaires de troisième
génération (les EPR de Flamanville, en France, et de Olkiluoto, en
Finlande).
En cas de dérive, les deux parties ont des doutes sur l’efficacité et/ou
sur la bonne volonté du partenaire 4. Ces doutes alimentent des tensions
entre celui qui fait et celui qui fait faire. Les tensions se manifestent à
l’occasion de rudes débats, qui portent sur l’attribution des responsabilités
ou sur la répartition du coût de la dérive, et nourrissent la tentation de
réinternaliser.

Critère no 2 : la difficulté d’évaluation


de l’efficacité et des efforts du fournisseur
Même dans la production de masse, qui affiche un degré d’incertitude
bien moindre que la prestation sur devis ou les activités de développement,
le mouvement d’externalisation n’a pris de l’ampleur qu’à partir des
années 1980, soit un siècle après la première vague d’industrialisation.
L’explication qui vient spontanément à l’esprit est le renforcement des
contraintes de coût à cette époque. L’externalisation aurait été un moyen de
faire des économies, surtout lorsqu’elle s’accompagnait de délocalisation.
C’est une autre façon de dire que jusqu’aux années 1980, les industriels
n’avaient pas vraiment besoin d’externaliser.
L’explication n’est pas dans le besoin, mais dans la capacité à faire (à
externaliser, en l’occurrence). Sans doute, la pression concurrentielle a-t-
elle augmenté durant cette période, mais là n’était pas l’essentiel. Une cause
majeure a été qu’auparavant les industriels n’avaient pas la maturité
suffisante pour évaluer à la fois les quantités produites par les fournisseurs,
leur efficacité et leurs efforts. Jusque dans les années 1980, les industriels
étaient dans une position comparable à celle de leurs ancêtres face aux
ouvriers des premières manufactures : ils étaient dépendants de ce que les
fournisseurs voulaient bien raconter sur les difficultés de production, ils
souffraient des asymétries d’information, ils étaient à la merci de
l’opportunisme.
Pour se protéger contre la menace opportuniste, pour voir et pour savoir
comment se déroulait la production, les industriels avaient gardé l’activité
entre leurs murs. L’externalisation a attendu qu’eux-mêmes maîtrisent
parfaitement les processus, qu’ils soient en mesure de formaliser en détail
des référentiels de qualité ou de conformité, et donc de demander des
comptes précis à des acteurs externes.

Critère no 3 : le degré de spécificité


de la production
J’écrivais plus haut que, dans le cas de Boeing, la catastrophe était
prévisible en raison du degré d’incertitude. Toutefois, l’incertitude ne suffit
pas à expliquer pourquoi Boeing a choisi de réinternaliser la production de
composants stratégiques. Après tout, la firme aurait pu changer de
fournisseur. Elle ne l’a pas fait parce qu’elle n’avait pas d’alternative et
qu’elle manquait d’alternative, car les composants du Dreamliner étaient à
l’opposé des commodités. Ils étaient totalement spécifiques, au même titre
que les équipements nécessaires pour les fabriquer. La spécificité des
produits et des outils de production faisait prisonnier non seulement Boeing,
mais aussi ses fournisseurs, car eux non plus ne pouvaient changer
facilement d’acheteur.
Je ne sais si cela vous est arrivé de douter ou d’être insatisfait par un
partenaire que vous rémunérez, ou qui vous rémunère, et dont vous êtes
prisonnier. Cela rend fou. Cela a rendu fous les dirigeants de Boeing. Cette
relation qui rend fou peut perdurer pendant longtemps car elle est forcée.
Mais elle est structurellement menaçante et contestable.

Évaluation des probabilités d’échec de l’externalisation

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. L’activité que l’on songe à
externaliser est une production
❒0 ❒1 ❒2 ❒3
dont le déroulement est
imprévisible
2. L’activité que l’on songe à
externaliser doit accoucher d’un ❒0 ❒1 ❒2 ❒3
produit complexe
3. L’activité que l’on songe à
❒0 ❒1 ❒2 ❒3
externaliser est innovante
4. L’activité que l’on songe à
externaliser est mal codifiée et ❒0 ❒1 ❒2 ❒3
difficilement mesurable
5. Dans l’activité que l’on songe
à externaliser, il est difficile de ❒0 ❒1 ❒2 ❒3
changer de fournisseur
La grille permet d’établir un score compris entre 0 et 15. Un score élevé signifie que les
chances de voir l’externalisation échouer/de voir se déclencher un mouvement de
réinternalisation sont élevées.

L’incertitude et la capacité d’évaluation des fournisseurs sont des


grandeurs qu’il est difficile de mesurer sans aller sur le terrain. S’il en était
besoin, ces deux critères sont de nouvelles invitations à identifier les
problèmes de production, et à étudier les conditions réelles de leur
résolution.
Enfin, la vie serait ennuyeuse s’il n’y avait les dilemmes : des situations
dans lesquelles différents critères de choix mènent à des conclusions
opposées. Le développement d’un système d’information en est un, le plus
courant qui soit : d’un côté, il y a incertitude et difficulté à évaluer les
efforts et les compétences des prestataires ; d’un autre, l’internalisation est
souvent trop coûteuse. Ces circonstances forcent à l’externalisation plutôt
qu’elles n’y incitent, et elles nous éclairent sur l’origine de l’insatisfaction
exprimée dans les sondages. Dans le chapitre 9, je présenterai en détail
toutes les ficelles qu’on peut tirer pour contenir les dérives nées de
l’incertitude. Ici, je serai bref. Je dirai que, lorsque vous êtes forcé
d’externaliser une production qui s’y prête mal, vous devez faire deux
choses : d’abord, placer à vos côtés une ou plusieurs personnes ayant une
expérience de prestations comparables ; ensuite, interagir fréquemment
avec les prestataires, autour de livrables, afin d’ajuster les attentes et les
réalisations.

Deux critères pour reconnaître les montées


en polyvalence vouées à l’échec
L’augmentation du degré de polyvalence est une troisième forme de
mutualisation et l’un de ses avantages est la réduction des poches de sous-
charge (la sous-charge étant une notion toute relative…). Les illustrations
sont innombrables, j’en retiendrai deux, qui nous révèlent chacune un
critère de décision.
Critère no 1 : la hauteur des barrières
techniques
Le premier cas est un bureau d’ingénierie spécialisé dans la sécurité
industrielle, qui a obligé ses membres à servir plusieurs secteurs de
clientèle : le transport ferroviaire, le transport aérien et l’énergie. Dans ce
cas, l’augmentation du degré de polyvalence a fait de sérieux dégâts : les
défauts de qualité du service ont été nombreux et ont fini par forcer la
direction à revenir au schéma organisationnel initial, qui privilégiait la
spécialisation technique.
À l’origine du changement, la direction avait considéré que les normes
auxquelles devaient répondre les clients du bureau étaient très semblables.
Après tout, les certifications ISO portaient les mêmes numéros.
L’observation attentive des activités a permis de dresser deux constats
principaux. Premièrement, la sécurisation des équipements et des processus
mis en place par les clients passait par le respect d’un grand nombre de
règles et par l’attention portée sur des centaines de détails. Deuxièmement,
les règles et les points de vigilance étaient spécifiques à chaque segment de
clientèle. Il était impossible pour un individu de connaître toute la diversité
des règles, a fortiori de connaître tous les détails qui méritaient attention.
Au total, l’instauration d’un haut niveau de polyvalence interdisait
d’acquérir une maîtrise technique suffisante. Pour cette raison, elle appelait
un retour à la spécialisation.
Une fois qu’elle est formulée, cette idée passe pour une évidence. La
vraie difficulté réside dans l’évaluation des risques de perte de maîtrise. Il
n’existe aucune métrique, aucun outil de quantification en la matière. On
dépend donc des appréciations individuelles. Or, comme vous le savez, les
individus ont tendance à tordre la réalité, en fonction de leurs intérêts
personnels. En particulier, ils ont tendance à surestimer la hauteur des
barrières techniques pour se protéger de la concurrence d’autres salariés,
voire pour acquérir un monopole local, et donc pour augmenter leur pouvoir
et leur valeur d’échange. On ne peut donc leur faire pleinement confiance.
Dans ces circonstances, deux méthodes sont offertes aux managers qui
participent aux décisions organisationnelles.
La première méthode est l’estimation personnelle et subjective du
« niveau de technicité ». Une telle estimation peut être trompeuse. D’abord,
parce que le manager est influencé par ses propres capacités, qui ne sont pas
représentatives des capacités détenues par les collaborateurs. Ensuite, parce
qu’il est fait de la même trempe que les collaborateurs, qui ont intérêt à
surestimer le niveau de technicité : lui a intérêt à sous-estimer.
Reste la seconde méthode, qui est fondée sur un principe : lorsqu’on
doute de ses sources, il convient de les multiplier. En l’occurrence, il s’agit
d’aller voir « ailleurs » ce qui s’y passe pour pouvoir comparer. L’ailleurs
peut être un autre site, une autre entreprise ou même une autre époque. La
comparaison permet de répondre à la question : d’autres ont-ils réussi à
atteindre le niveau de polyvalence que nous souhaitons ?

Critère no 2 : la nécessité d’être à plusieurs


endroits en même temps
Le second cas est une usine agroalimentaire, au sein de laquelle on a
décidé d’affecter chaque opérateur simultanément sur plusieurs circuits de
production. Contrairement à la situation précédente, les techniques
nécessaires pour piloter les différents circuits étaient très proches non
seulement sur le papier, mais aussi en réalité. Pourtant, la montée en
polyvalence a là aussi abouti à un échec. En effet chaque circuit demandait
une vigilance continue de la part des opérateurs, ainsi qu’une grande
réactivité en cas de souci. Si l’on manquait de l’une ou de l’autre, les
interruptions de flux devenaient plus nombreuses et plus longues, et la
rentabilité de l’usine en souffrait.
Évaluation des probabilités d’échec de la montée en polyvalence

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Avant de répondre aux
questions suivantes, nous
avons comparé le
❒3 ❒2 ❒1 ❒0
fonctionnement de notre
organisation à des
environnements comparables
2. Les tâches que nous
souhaitons confier à un même
❒0 ❒1 ❒2 ❒3
individu exigent des
compétences différentes
3. La polyvalence demande
d’être en plusieurs endroits en ❒0 ❒1 ❒2 ❒3
même temps
La grille permet d’établir un score compris entre 0 et 9. Un score élevé signifie que les
chances de voir la montée en polyvalence échouer sont élevées.

Deux critères pour reconnaître


les structures matricielles vouées à l’échec
La structure matricielle est une forme très sophistiquée et très aboutie
de mutualisation des ressources : le plus souvent, on fait en sorte que les
« métiers » servent tous les « projets », ou que les « lignes produits »
traversent toutes les « zones géographiques ». La structure matricielle
emprunte parfois à la polyvalence et présente alors les mêmes
inconvénients. La structure matricielle emprunte toujours à la centralisation,
et expose donc aux mêmes risques.
Les esprits critiques ajouteront qu’elle se distingue à la fois de la
polyvalence et de la centralisation par la redondance des circuits de
reporting. La remarque est fondée, mais ce désavantage n’est pas prédictif
de l’échec et passe peut-être à côté de l’essentiel.
Il est un élément plus déterminant pour l’efficacité et la solidité de la
structure : la difficulté d’arbitrage. Dans toute organisation, les acteurs ont
besoin de faire ou de faire faire des choix : des choix techniques, des choix
d’allocation de ressource, des choix commerciaux… Au sein d’une matrice,
les choix sont particulièrement délicats, pour plusieurs raisons.

Critère no 1 : la divergence entre


les objectifs des différents acteurs
La première raison est consubstantielle à la matrice : c’est la
concurrence entre les clients internes (les projets ou les zones
géographiques) pour l’obtention des ressources détenues par les
fournisseurs (les métiers ou les lignes produits).
La vie au sein d’une matrice devient très inconfortable lorsqu’une
deuxième raison se greffe à la première : la tension entre d’une part les
objectifs des clients internes, et d’autre part ceux des fournisseurs internes.
Cette tension est aisément perceptible lorsque les objectifs sont par nature
contradictoires ; par exemple, les uns visent la standardisation tandis que les
autres cherchent l’adaptation à des besoins spécifiques. La tension est
moins évidente lorsque les objectifs sont de même nature. Supposons
qu’une ligne produit et qu’une zone géographique aient toutes deux un
objectif de chiffre d’affaires. Supposons que la ligne produit ait déjà atteint
son objectif, mais que le pays n’ait pas encore atteint le sien. Supposons
enfin que les commerciaux du pays aient besoin d’un fort soutien de la ligne
produit pour répondre à un appel d’offres important mais risqué.
Vraisemblablement la ligne produit ne verra pas le même intérêt dans
l’affaire, et il faudra remonter jusqu’à l’autorité commune à la ligne produit
et à la zone géographique pour obtenir un engagement à la hauteur du
besoin.

Critère no 2 : l’éloignement des points


d’arbitrage
La vie au sein de la matrice devient carrément insupportable lorsque
cette autorité commune est éloignée du terrain. Quand les clients et les
fournisseurs sont en désaccord, il n’est pas rare qu’on se tourne vers le
directeur général, qui a bien d’autres préoccupations en tête. Plus l’arbitre
est éloigné, plus pauvre est son information, et plus lents sont les arbitrages.
L’éloignement est fort dans les matrices qui se déploient à l’échelle
internationale. Ce ne sont pas

Évaluation des probabilités d’échec d’une structure matricielle

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. Les objectifs des fournisseurs
internes (métiers ou lignes
❒0 ❒1 ❒2 ❒3
produits) et des clients internes
sont divergents
2. Les points d’arbitrage sont
très éloignés des lieux de ❒0 ❒1 ❒2 ❒3
production
La grille permet d’établir un score compris entre 0 et 6. Un score élevé signifie que les
chances de voir la matrice échouer sont grandes.

simplement les kilomètres qui séparent les acteurs, mais aussi la langue.
Comme je l’annonçais en introduction de ce chapitre, le principe de
mutualisation n’est pas le seul susceptible de conduire à des échecs. À vrai
dire, le manque de réussite semble être le lot de la grande majorité des
projets de changement. En 1995, une étude publiée par la Harvard Business
Review établissait que 70 % des projets n’atteignaient pas leur cible 5. En
2006, un sondage commandité par le cabinet de conseil McKinsey montrait
que 70 % des 1 546 dirigeants interrogés se déclaraient insatisfaits des
résultats des changements qu’ils avaient entrepris 6.
J’aurais aimé pouvoir vous livrer des critères simples valables pour tous
types de projets, mais je n’en ai pas la capacité. Toutefois, à bien y réfléchir,
tous les échecs qui m’ont paru prévisibles avaient un dénominateur
commun : ils faisaient l’objet d’un « management abstrait ».
CHAPITRE 8

La foi aveugle en l’organigramme

Le « management abstrait » semble être une tendance répandue 1, qui


fait du travail des cadres supérieurs et des consultants une activité
principalement symbolique. Cette activité consiste à concevoir, fabriquer et
distribuer des tableaux de bord, ainsi qu’à élaborer des « plans » pour faire
progresser les indicateurs : des quantités à atteindre, des marches à suivre,
et des messages pour emporter l’adhésion et déclencher la participation au
changement. La conduite du changement par le biais des tableaux de bord et
des plans rend le « travail invisible 2 ». Transposé dans le vocabulaire que
j’ai utilisé à partir du chapitre 4, cela signifie que les problèmes de gestion
en viennent à recouvrir les problèmes de production.
De ce point de vue, cadres supérieurs et consultants sont les héritiers
d’une longue lignée. Dans cette lignée, on trouve les comptables du
e
XIX siècle, et les ingénieurs qui ont porté l’étendard du tayloro-fordisme au
e
XX siècle. Les membres de la technostructure contemporaine dépassent

cependant les comptables en ce qu’ils disent comment l’organisation doit


fonctionner ; et ils dépassent les ingénieurs en ce qu’ils étendent l’emprise
du formalisme au-delà des ateliers d’usine.
Vous ne serez pas surpris si j’écris qu’à mes yeux l’ignorance des
problèmes de production est annonciatrice de gâchis. Pour le dire
succinctement, j’avancerai que la foi aveugle en l’organigramme est un
critère prédictif de l’échec du changement.

Comment la foi en l’organigramme détruit


de la valeur
Comme d’habitude, je vais partir d’un cas concret : celui d’une
entreprise qui fabrique et commercialise du matériel bureautique.
Historiquement, cette entreprise a vendu des machines relativement
standardisées. Inévitablement, ses produits sont devenus banals, la
concurrence par les prix s’est intensifiée, et les marges unitaires ont fondu.
À la pression sur les marges, l’entreprise a commencé par répondre en
élargissant sa gamme et en procédant à des acquisitions d’autres entreprises.
Ces initiatives n’ont pas permis d’inverser la tendance, et les profits sont
restés insuffisants.
Face à cela, l’entreprise s’est lancée dans un projet de transformation
visant la restauration des marges sous deux angles : par le bas, avec
l’allègement des coûts de structure ; par le haut, avec une montée en gamme
consistant à offrir des systèmes d’éditique complexes et sur mesure, plutôt
que des machines à l’unité.
Au cours de la réflexion sur la réduction des coûts de structure, une
fonction a attiré l’attention de la direction générale : les ingénieurs de
développement. Cette fonction était double : les ingénieurs accompagnaient
les chargés d’affaires dès qu’une opportunité était détectée chez un client de
bonne taille, et ils accompagnaient les techniciens dès qu’il fallait procéder
à la mise en place des systèmes vendus. À lire l’organigramme, elle était
redondante : elle chevauchait aussi bien la fonction commerciale que la
fonction d’installation. Sa disparition ne serait donc pas une grande perte.
L’affaire était entendue : on allait la supprimer.
L’observation du travail réel et l’identification des problèmes de
production ont montré que les ingénieurs de développement avaient
grandement contribué aux premiers succès de la montée en gamme, dont la
direction voulait faire l’axe de développement majeur. Pour apprécier leur
contribution, il fallait d’abord comprendre que la montée en gamme
impliquait une évolution fondamentale du modèle productif de l’entreprise.
Tant que celle-ci commercialisait des unités standard, elle était dans
l’univers de la série longue et avait donc besoin d’un mode de gestion
industriel. La production industrielle liait les fonctions de façon
séquentielle : les chargés d’affaires vendaient, puis les logisticiens
approvisionnaient, ensuite les techniciens installaient, enfin les
administrateurs des ventes facturaient. Le plus souvent, tout se passait bien,
et tous pouvaient procéder machinalement.
À partir du moment où l’entreprise commercialisait des systèmes sur
mesure et complexes, elle entrait dans l’univers de la série courte, de la
prestation sur devis, gérée en mode projet. Et, en mode projet, la qualité
d’une prestation dépend notamment de la capacité de dire clairement au
client ce qu’il est possible de faire et de la capacité à faire ce qu’on lui a
promis. Cela suppose que tous les acteurs placés sur la chaîne de valeur
partagent leurs informations et leurs contraintes. L’efficacité ne peut être
que collective. Pour faire image, disons qu’il faut réunir les acteurs autour
d’une même table.
Or les ingénieurs de développement étaient les seuls capables d’obtenir
et d’organiser la coopération entre tous. Cela parce qu’ils concentraient des
ressources dont les autres avaient besoin pour résoudre leurs propres
« problèmes de production ». Aux chargés d’affaires dont le problème était
de décrocher des contrats, ils apportaient des connaissances techniques dans
un langage compréhensible par le client. Aux logisticiens dont le problème
était d’éviter les erreurs dans la passation de commande, ils apportaient la
connaissance fine des références de composants. Aux techniciens dont le
problème était de compléter les tâches d’installation dès leur première
visite, ils apportaient non seulement les bénéfices d’une logistique
rigoureuse (tous les composants étaient disponibles aux bons moments et
aux bons endroits), mais aussi des conseils pratiques.
La fonction d’ingénieur de développement obtenait la coopération des
autres non seulement parce qu’elle détenait les ressources pertinentes, mais
aussi parce qu’elle était irremplaçable. Laissés à eux-mêmes, les chargés
d’affaires étaient incapables de communiquer sans erreur les références aux
logisticiens, ce qui réduisait la qualité du travail de ces derniers, aux dépens
des techniciens. Les chargés d’affaires avaient aussi des difficultés à évaluer
les difficultés d’installation de tel ou tel assemblage de composants, ce qui
rendait la tâche des techniciens encore plus ardue. De leur côté, les
techniciens ne pouvaient accompagner les chargés d’affaires, ces derniers
estimant que les premiers manquaient de tenue, d’étiquette ou de langage
pour se présenter face aux clients. Les techniciens n’avaient d’ailleurs
aucune envie d’aider les chargés d’affaires, tant il semblait que ces derniers
ne voulaient rien entendre des contraintes d’installation. En bout de chaîne,
les administrateurs des ventes souffraient des erreurs survenues en amont.
Tous finissaient par se dresser contre tous.
À l’occasion du glissement vers le mode projet, les ingénieurs de
développement étaient devenus les agents intégrateurs de l’organisation.
Leur absence causerait des accidents de production et un ralentissement du
développement commercial. En cela, le projet de restructuration était sur le
point de détruire de la valeur. Pour éviter cette destruction de valeur, il
fallait maintenir la fonction et trouver des gisements d’économie ailleurs.
Ce fut le choix final de la direction.
Comment la foi en l’organigramme
tue l’organigramme
Dans un autre cas, les dirigeants ont fait mieux que précédemment. Ils
avaient conscience du problème de production central ; ils en avaient déduit
une cible organisationnelle susceptible au moins de réduire les coûts sans
détruire de valeur, et peut-être même de créer de la valeur en améliorant la
qualité du service. Pourtant, ils couraient à l’échec, faute d’avoir bien
compris la différence entre autorité formelle et pouvoir réel.
Cette fois, nous nous rendons dans une entreprise de transport
ferroviaire, dont une partie de l’activité consiste à gérer des gares. Les gares
sont animées par des agents aux profils et aux rôles divers : tandis que les
uns assurent la vente au guichet, d’autres assurent une présence sur les
quais pour guider les voyageurs, et d’autres encore assurent la maintenance
des équipements. Jusqu’à une date récente, l’affectation des agents faisait
l’objet d’une planification centralisée et rigide : chacun était positionné
longtemps à l’avance sur un poste donné pendant une période donnée,
toujours dans la même gare.
La rigidité de l’affectation des agents sédentaires entrait en tension avec
le problème de production central, qui était la gestion des aléas. Les sources
d’aléas étaient multiples : le climat, l’affluence, les accidents de personnes,
les incidents techniques et… l’absentéisme, dont le niveau était élevé. Pour
compenser la rigidité locale, le « centre » fournissait des capacités
d’ajustement à travers l’entretien d’équipes de réserve, lesquelles
apportaient du renfort là où un besoin se faisait sentir.
Désireuse de réduire les coûts, la direction souhaitait faire d’une pierre
deux coups : supprimer les équipes de réserve et réduire l’absentéisme. Elle
avait bien compris que la suppression des équipes de réserve supposait de
déporter la contrainte et la capacité d’ajustement depuis le centre vers le
local. Dans cet esprit, elle a judicieusement proposé d’organiser les agents
par équipe, chaque équipe couvrant une zone géographique composée de
plusieurs gares et devant faire face aux imprévus en distribuant les rôles au
fil de la journée. Les tailles d’équipes étaient fixées en sorte que toutes
puissent se dispenser d’aide extérieure.
On imaginait que la création d’équipes autonomes allait par la même
occasion contribuer à la réduction de l’absentéisme, car la « solidarité
forcée » devait rendre les absences pénibles pour les plus assidus et ainsi
générer ce que les sociologues nomment une « pression entre pairs ».
On se disait enfin que la décentralisation ne serait effective qu’en
présence de décisionnaires locaux, de « vrais managers ». C’était une autre
nouveauté, car jusque-là les agents des plus hautes classifications parmi
ceux en gare n’avaient pas de responsabilité hiérarchique sur les collègues.
Ils étaient les « premiers d’entre les pairs ». Couplée à l’ancienne volonté
de rendre prévisibles les affectations des agents, et plus globalement à la
rigidité, l’absence d’autorité locale rendait manifeste un héritage
bureaucratique et corporatiste, typique des secteurs longtemps restés dans le
giron public 3. Le projet de transformation témoignait d’une volonté de
débureaucratisation, mais gardait en même temps un trait bureaucratique :
la foi en l’organigramme, qui diminuait significativement les chances de
réussite du changement.
Qu’allait-il se passer en effet ?
Il paraissait évident que la réforme allait être mal accueillie. D’abord,
parce qu’elle impacterait négativement les conditions de vie des individus :
les agents sédentaires ne le seraient plus vraiment, ils risquaient de voir se
multiplier et s’allonger leurs déplacements quotidiens ; les membres des
équipes de réserve seraient partiellement sédentarisés, ils perdraient leurs
primes de mobilité et d’astreinte. Plus globalement, la déstabilisation
de l’ordre ancien allait être reçue comme un coup d’État institutionnel, dont
l’introduction d’une autorité locale n’était qu’un aspect parmi d’autres. La
direction avait négligé ce deuxième point.
Elle avait aussi négligé le fait que les nouvellement nommés managers,
autrefois les « grands frères », allaient passer pour des traîtres. Certains
agents haut classifiés en avaient une conscience si claire qu’ils refusaient de
se porter candidats.
Ceux qui endosseraient le rôle hiérarchique auraient la vie dure. On
pouvait s’attendre à ce que des agents traînent les pieds, discutent chaque
décision, affichent leur mécontentement. Certains iraient jusqu’au refus
d’obtempérer. Face à ces comportements, quelques managers se mettraient
aussitôt en retrait, comme par soumission. D’autres hausseraient le ton.
Parfois, ces derniers iraient jusqu’à l’agression verbale. Ici ou là,
l’agression engendrerait l’agression. Ce serait l’escalade, avec à la clé : la
plainte pour « harcèlement », soit directement auprès de la direction, soit
auprès des délégués syndicaux qui interviendraient auprès de la direction.
Au moindre doute concernant la responsabilité du manager dans le conflit,
la direction procéderait à un arbitrage favorable à la base. Il en irait de
même lorsqu’un manager recourrait à la sanction. Les responsables
hiérarchiques ne tarderaient pas à se dire qu’ils manquaient de soutien. En
conséquence, une nouvelle partie d’entre eux lâcherait l’affaire.
À ce stade, seuls resteraient debout les plus braves et les plus habiles.
Même ceux-là pouvaient perdre la partie, car les agents finiraient par user
de leur arme la plus puissante : l’absentéisme. Au sein des équipes, la
solidarité ne jouerait pas contre l’absentéisme. Au mieux, elle ne jouerait
pas du tout : les agents se côtoyant peu, ils auraient peu d’occasions de faire
pression les uns sur les autres pour qu’une présence minimale soit assurée.
Au pire, la solidarité jouerait contre l’autorité : les agents organiseraient
collectivement la résistance par l’absence, éventuellement avec le soutien
des délégués syndicaux.
Face à l’absentéisme, la direction finirait par reconstituer des équipes de
réserve. Retour au point de départ, et avec ça une bonne dose de surtravail
de changement.
À moins qu’on réunisse une demi-douzaine d’ingrédients…
Premièrement, il était possible de protéger les managers contre le
discours de trahison, en dépersonnalisant la bascule relationnelle
qu’impliquait la prise en charge du rôle hiérarchique. La dépersonnalisation
supposait de rompre les liens sociaux établis historiquement au sein des
gares, en déplaçant géographiquement les futurs managers.
Deuxièmement, il fallait disperser les forces d’opposition déjà en place,
en évitant ici que certaines équipes solidaires réunissent plusieurs délégués
syndicaux.
Troisièmement, il fallait s’assurer que les managers disposent de
monnaies d’échange pour obtenir la bonne volonté des agents. La capacité
de soutien technique pouvait faire partie des monnaies d’échange. C’est
pourquoi il importait que les managers soient compétents sur ce plan et
connaissent suffisamment l’organisation pour apporter des solutions. Les
marges de manœuvre en termes de sanction-récompense pouvaient
constituer une autre monnaie d’échange. Toutefois, ces marges ne pouvaient
exister sans offres d’évolution professionnelle : des augmentations
salariales, des avancements, des promotions ou d’autres mobilités. De plus,
les agents de maîtrise ne pouvaient exploiter les marges de manœuvre sans
soutien de la direction, soutien que j’anticipais faillible.
Quatrièmement, les agents de maîtrise devaient disposer des
compétences psychologiques et comportementales permettant d’éviter
l’alternance entre actes d’agression et actes de soumission. Ces
compétences ont un nom : l’assertivité ou l’affirmation de soi, qui peut faire
l’objet d’un apprentissage comme je l’ai montré dans un chapitre
précédent 4.
Ces quatre premiers ingrédients pouvaient contribuer au pouvoir des
managers. Il en fallait encore deux autres pour qu’une solidarité d’équipe
joue contre l’absentéisme : l’interdépendance et l’interaction.
L’interdépendance signifie que les agents présents sont gênés par les
absences, soit parce que leur travail en pâtit, soit parce que leur quotidien
est chamboulé. Des liens d’interdépendance pouvaient être aisément établis
autour des plannings et des affectations. L’interdépendance crée un intérêt à
faire pression sur les pairs, mais n’offre pas l’occasion de faire pression.
Pour que la pression s’exerce effectivement, il faut lui ajouter l’interaction.
Cela était possible si on empêchait quiconque de s’enfermer dans « sa »
gare et si on réunissait physiquement et fréquemment l’équipe.

L’objet du changement :
l’organisation profonde
De chapitre en chapitre, une leçon devient claire : quand on se lance
dans un projet de transformation sans avoir identifié les problèmes de
production cachés en deçà des problèmes de gestion, sans avoir compris la
logique qui anime les comportements, sans avoir pris en compte les enjeux
de pouvoir, on peut obtenir trois résultats, tous décevants.
1. Le premier résultat est celui qu’aurait obtenu l’entreprise de
bureautique : la méconnaissance accouche de choix de structure qui
dégradent les conditions de résolution des « problèmes de production ».
L’impact du changement aurait été contraire au but recherché.
2. Un deuxième résultat est celui qu’ont obtenu le petit cabinet de conseil
figurant au chapitre 4 et InterLodge avant l’intervention du Boston
Consulting Group. C’est aussi celui qu’aurait obtenu l’entreprise de
transport ferroviaire que je viens d’évoquer. Dans ces cas, l’impact du
changement est resté ou serait resté nul.
3. Dans des cas peut-être plus nombreux, les plans de changement
élaborés par la technostructure sont ni contraires au but recherché ni
sans conséquences, mais ont une influence limitée sur les
comportements. Le changement est superficiel.
« Superficiel ». Ce terme rappelle à mon bon souvenir une
représentation de la vie organisationnelle qui me vient d’Erhard Friedberg
et qui n’apparaît que dans les supports des cours dispensés par ce dernier à
l’Institut d’études politiques de Paris.

Selon Erhard Friedberg, une organisation peut être décomposée en trois


couches. La première est la plus superficielle, elle relève du discours et de
l’intention. On formule des idéaux, tels que la vision stratégique, les chartes
de valeurs ou le portrait d’un bon manager. C’est la couche rhétorique, qui
se distingue par la vitesse à laquelle elle peut évoluer : d’un jour à l’autre on
peut changer de discours.
La deuxième couche, que je qualifierai de technique, rassemble les
organigrammes, les règles et les process, les outils de gestion et de
fabrication. Comme la précédente, elle repose sur l’écriture et sur des objets
matériels, ce qui la rend aisément perceptible et manipulable. En revanche,
elle n’évolue pas aussi vite que la rhétorique, car elle exige non
seulement des investissements plus lourds, mais aussi et peut-être surtout
des négociations portant sur les caractéristiques de ses éléments (par
exemple les rattachements hiérarchiques ou les fonctionnalités des outils).
La troisième couche est celle qu’on découvre lorsqu’on part à la
recherche des problèmes de production, lorsqu’on tente de saisir la logique
des comportements et des relations, bref lorsqu’on étudie les jeux
d’acteurs : c’est l’organisation profonde. Elle est difficilement accessible,
comme vous l’avez constaté, et son évolution est difficilement prévisible,
comme vous l’avez expérimenté à maintes reprises au cours de votre vie
professionnelle. On baigne ici dans la complexité.
Dans la plupart des cas d’entreprise, on entre dans le changement par
les couches rhétorique et technique. Exemples : on ambitionne de
« fluidifier la chaîne de production » en modernisant les « systèmes
d’information » ; on projette d’augmenter l’« agilité » de l’entreprise en
créant des « communautés innovantes ». Le changement est superficiel
lorsqu’on reste coincé dans ces couches. Il devient contraire au but
recherché lorsque les choix techniques induisent des effets pervers, par
définition non anticipés.
L’entrée par la rhétorique et la technique est inévitable lorsqu’on
souhaite provoquer délibérément le changement. À aucun moment je ne
propose de s’en dispenser. La question est de savoir comment faire évoluer
intentionnellement l’organisation profonde, en s’appuyant un peu sur la
rhétorique et davantage sur la structure technique (son influence sur les
relations et les comportements est globalement plus durable et plus
régulière).
Nous savons qu’il est possible de jouer sur les conditions techniques
pour obtenir des comportements souhaitables : les derniers changements
chez Sirache ont été obtenus entre autres grâce à une fusion des directions
de la R&D et de l’exploitation ; le succès chez InterLodge est venu d’une
modification des règles concernant l’évaluation des équipes de nettoyage et
de la maintenance ; la montée en gamme de l’entreprise de bureautique a
été concrétisée grâce à une fonction apparue puis maintenue dans
l’organigramme, etc.
Une première façon de résumer les choses consiste à dire que le
changement par la technique est un succès lorsque les règles et les outils
invitent à la coopération entre maillons de la chaîne de valeur
(l’horizontale) et entre échelons hiérarchiques (la verticale). C’est un
argument récurrent chez les sociologues passés par le Centre de sociologie
des organisations (CNRS/FNSP 5), parmi lesquels ceux que j’ai cités :
Erhard Friedberg, François Dupuy, Yves Morieux et, dans une moindre
mesure, Michel Devigne et Jean-Philippe Neuville.
En tant qu’elle est une tentative de mise en commun de ressources
individuelles pour l’atteinte d’un objectif collectif (autrefois tuer une grosse
proie, désormais gagner un client), une organisation tire son efficacité, voire
sa raison d’être, de la coopération entre ses membres. Partager des
ressources et coopérer reviennent au même. J’ajouterai que plus les
ressources sont rares au sein d’une entreprise, plus ses membres doivent
coopérer.
La structure technique invite à la coopération lorsqu’elle rend les
acteurs dépendants les uns des autres, c’est-à-dire lorsqu’elle crée des liens
d’interdépendance équilibrés.
Cela vaut d’abord pour les relations horizontales. Le cas d’InterLodge
nous en a fourni la plus belle illustration : la participation des
réceptionnistes à l’évaluation du nettoyage et de la maintenance a eu des
effets vertueux parce qu’elle a permis aux premiers d’obtenir la complicité
des seconds dans la gestion du problème de production central ; avant cela,
les réceptionnistes dépendaient du nettoyage et de la maintenance, mais la
réciproque n’était pas vraie.
Cela vaut ensuite pour les relations verticales. C’est peut-être le cas des
ateliers de fonderie qui en fut le meilleur exemple dans ce livre : les chefs
d’équipe bénéficiaient de la complicité des ouvriers parce qu’ils
travaillaient à la résolution du même problème de production (ils étaient
réunis autour du même bassin), et parce que les supérieurs hiérarchiques
disposaient de ressources dont les subalternes avaient besoin (le soutien, les
conseils dans le cadre d’une activité dangereuse). La coopération révélait ici
deux de ses conditions : premièrement la distribution inégale des
ressources ; deuxièmement la pertinence des ressources des uns au regard
des contraintes des autres. Par la même occasion, elle révélait sa nature : la
coopération est un échange de bonnes volontés.
C’est donc par la distribution des ressources et des contraintes que la
structure technique façonne l’organisation profonde : la fusion des deux
directions chez Sirache était un moyen de faire peser les contraintes de
l’exploitation sur la R&D, ou, dit autrement, de mettre les ressources de la
R&D au bénéfice de l’exploitation ; la mutation du directeur des achats de
Foster Brothers était un moyen de modifier ses contraintes pour qu’il ait
intérêt à soutenir le mouvement de décentralisation ; la spécialisation
technique des consultants RH aperçus dans le chapitre 4 était un moyen de
leur offrir des ressources autres que l’accès aux réseaux informels », etc.
Tout cela peut être résumé grâce au schéma suivant :
Nous n’insisterons jamais assez sur l’importance de la coopération. Les
déficits en ce domaine ont un coût. Les auteurs que j’ai cités ont bien
entendu évoqué ce coût, mais ont eu tendance à l’envisager principalement
sous l’angle du manque de performance : la non-coopération empêchait
d’aller vite, de dépenser moins, de garantir un niveau de qualité… Ce
faisant, lesdits auteurs ont accordé peu d’attention à la quantité de travail
générée. Quand au contraire on s’y attarde, on s’aperçoit que la déperdition
d’énergie est énorme.
Le déficit de coopération est un carburant de l’alourdissement des
structures, car c’est souvent pour le pallier qu’on invente des comités de
décision, des process et des indicateurs. Il alimente aussi une source de
surtravail que je ne vous ai pas encore exposée. De cette autre source
comme des précédentes jaillit un flot de tâches. Toutefois, le surtravail que
je vais vous décrire maintenant présente une caractéristique étonnante : il
consiste à remonter le temps.
CHAPITRE 9

Des millions de microchangements


économisables

Tous les jours, nous apportons des corrections au travail que nous avons
accompli la veille : nous corrigeons les défauts de pièces fraîchement
usinées, nous modifions les réglages des outils, nous changeons des plans,
nous recommençons un test, nous reprenons un PowerPoint…
Une partie de ces tâches de correction est le produit de causes purement
externes à l’entreprise, telles que les aléas climatiques. Ces aléas pourront
amener un pilote d’avion à modifier sa trajectoire, un vigneron à avancer ou
à retarder la période des vendanges, un technicien d’une station d’épuration
à changer les paramètres d’un processus de traitement des eaux usées, etc. Il
ne viendrait à l’esprit de personne de chercher à supprimer ces tâches.
Parmi les tâches qui sont le produit de causes non pas externes mais
internes à l’entreprise, je distinguerai deux sous-ensembles : les erreurs
humaines isolées et les erreurs répétées 1. J’écarterai de mon propos les
erreurs isolées, partant de l’idée qu’on ne peut attendre des humains qu’ils
soient infaillibles.
En revanche, les erreurs répétées disent quelque chose du
fonctionnement régulier de l’entreprise ; elles sont les produits de causes
internes durablement installées, elles sont des effets de structure. Bien que
prises une par une les corrections faisant suite aux erreurs répétées puissent
être vues comme utiles (comme les autres types de corrections, elles sont là
pour apporter satisfaction à quelqu’un), les mécanismes qui en sont à
l’origine peuvent être considérés inutiles, car en l’absence de ces
mécanismes, on aboutirait au même résultat avec moins de travail. C’est
pourquoi je me permettrai de désigner les erreurs répétées comme des doses
de travail non créateur de valeur, comme du surtravail. Du surtravail de
correction, en l’occurrence.

Une usine dans l’ornière


Une caractéristique remarquable du surtravail de correction est qu’il
peut se manifester très loin de sa source. Pour vous le montrer, je vous
emmène dans une usine perdue au fin fond d’une région pluvieuse. Cette
usine fabrique des connecteurs de très haute précision, capables de résister à
des conditions extrêmes de température, de pression, de vibration. Une fois
fabriqués, les connecteurs entrent dans la composition d’engins
aérospatiaux, aéronautiques ou nautiques, civils ou militaires. Ici, c’est d’un
engin militaire qu’il s’agit.
Vous connaissez déjà le directeur de cette usine, c’est Stéphane, le
quatrième et dernier personnage de notre galerie de portraits. Quand je l’ai
rencontré, Stéphane ne savait plus où donner de la tête. Il était en panique.
Tous les jours, il recevait de la part de ses fournisseurs des composants non
conformes aux cahiers des charges. Dans certains cas, ses équipes pouvaient
« rattraper le coup », en réusinant des pièces. Dans d’autres cas, il fallait
renvoyer le colis à l’expéditeur. Quel que soit leur traitement, les défauts de
qualité déstabilisaient tout le planning de fabrication. Les chefs d’atelier
enrageaient, parce qu’ils étaient contraints de multiplier les ruptures de
charge et les réglages. Les réglages consommaient du temps, nuisaient à la
productivité et augmentaient aussi les risques d’erreur. Par le biais de ces
erreurs, les défauts de qualité à l’entrée de l’usine entraînaient des défauts à
l’intérieur de l’usine. Les seconds défauts dérivés des premiers défauts
perturbaient à leur tour les plannings. Les ouvriers avaient beau augmenter
la cadence pour compenser, on ne s’en sortait pas.
Alors que Stéphane me montrait à quoi ressemblaient les connecteurs, il
me dit :

« J’ai la responsabilité de six sites de fabrication à travers l’Europe,


donc je peux vous dire que le problème n’est pas propre à cette usine.
La cause, c’est une mauvaise conception du produit qu’on assemble
pour l’un de nos principaux clients. Le end-over a été beaucoup trop
light. Là, on est en mode de production en série, alors qu’on devrait être
en présérie. Alors on essuie les plâtres. Et ça, c’est pas spécifique non
plus au produit qu’on fournit. C’est globalement la fin du
développement de l’engin qui a été trop light. » (Stéphane, directeur
d’usine.)

Une réunion gravée dans les mémoires


Si l’on en croit Stéphane, les causes de ses difficultés sont à chercher en
amont de la chaîne de valeur. Lorsque nous suivons la direction qu’il
indique, lorsque nous remontons le temps, nous croisons un autre
personnage de notre galerie de portraits : Marc, qui travaille au sein d’un
bureau d’études chez le client de Stéphane.
Marc a été au cœur du processus de développement dont se plaint
Stéphane. Il s’occupait en particulier d’un sous-ensemble de l’engin devant
recevoir les connecteurs fabriqués par l’usine. Ce sous-ensemble, c’était le
« système de combat », qui fait le lien entre, d’une part, les appareils de
détection tels que les radars et les sondes et, d’autre part, l’armement qui
inclut des missiles et des canons ; cela en passant par les interfaces
hommes-machines, comme les écrans de contrôle. Au centre du système de
combat, siège une espèce de cerveau : un appareillage électronique animé
par des logiciels, qui doit prendre en compte une quantité faramineuse de
paramètres, et qui doit permettre une réaction extrêmement rapide à toute
menace. Le « cerveau » doit présenter les plus grandes qualités : gestion de
la complexité, précision, vélocité, fiabilité.
En comparaison de la génération précédente, le système de combat sur
lequel Marc a travaillé a introduit quelques innovations :

« On a été face à deux contraintes un peu contradictoires. D’un côté, il


nous fallait un système capable de tracer de très petits objets, donc avec
des capteurs plus puissants et des capacités de calcul plus importantes.
D’un autre côté, on nous demandait une infrastructure matérielle plus
compacte, avec un centre névralgique éclaté en plusieurs endroits de
l’appareil. On a donc construit une architecture bien différente, à la fois
sur le plan logiciel et sur le plan matériel. » (Marc, ingénieur d’étude.)

Tout comme Stéphane, Marc a été amené à travailler pour remonter le


temps. Un jour de l’année 2009, au cours d’une réunion qui restera
longtemps dans les annales, Marc assista à la remise en cause de trois mois
du travail accompli par des dizaines de collègues. Sur le plan des logiciels,
on entendit des critiques portant sur la « gestion de l’engagement
coopératif », un ensemble de fonctions permettant à un engin de guerre
d’intégrer des données issues d’appareils de détection embarqués sur
d’autres engins. Sur le plan matériel, on craignit que les circuits fussent trop
exposés aux forces électrostatiques.
Fait surprenant pour le non-initié, une partie des attentes du client furent
découvertes au cours même de la réunion. Ainsi, le système devait
permettre de piloter des drones dont le développement venait seulement
d’être lancé. Aussi devait-il être capable d’accueillir les prochaines
générations d’écrans tactiles, dont on ne savait pas grand-chose encore.
On parla de malentendus, de sous-qualité, de problèmes de
communication. On discuta des responsabilités : le client aurait mal
exprimé ses attentes, le fournisseur aurait fait des choix discutables, le sous-
traitant aurait mal compris la demande. On chercha à savoir lequel paierait
l’addition. Et l’addition serait salée. Trois mois de travail, c’était beaucoup
d’argent.
Par la suite, les difficultés allaient s’accumuler. Désireux de limiter le
retard ou de contenir la charge de travail, Marc et d’autres ont pris des
risques, en faisant l’impasse sur certains tests et vérifications. Parfois la
prise de risque a payé, parfois elle a coûté. Parfois elle a coûté dans
l’immédiat, parfois elle a coûté quelques mois plus tard, ailleurs. Dans
l’usine de Stéphane par exemple.

D’amont en aval, une succession d’écarts


entre attentes et réalisations
Les premières causes des déboires de Marc et Stéphane sont apparues
quelques années encore en arrière, dans la relation entre le client et les
premiers acteurs de la chaîne de valeur côté fournisseur (les chargés
d’affaires et les ingénieurs de conception). Au tout début de l’histoire, le
client et ces premiers acteurs se sont entendus sur l’acquisition de quelques
exemplaires d’une nouvelle génération d’engins de guerre. Ils se sont
accordés dans un premier temps sur les grandes propriétés des engins.
Comme souvent dans ce milieu, une partie des attentes exprimées par le
client lui étaient spécifiques ; pour le même produit, un autre client aurait
exprimé des attentes différentes. Au total, l’accord comportait une bonne
dose d’innovation et de production sur mesure.
Je marque à peine le trait si j’écris que le client s’apprêtait à recevoir un
objet qu’il n’avait jamais acheté auparavant, et que l’entreprise s’apprêtait à
fabriquer un objet qu’elle n’avait jamais produit auparavant. Nous étions
dans le cadre d’une prestation sur devis, d’une production en série très
courte, voire d’une production sur mesure, forcément gérée en « mode
projet ». Aucun des deux partenaires ne savait exactement ce qui l’attendait.
Aucun ne connaissait toutes les difficultés à venir. Tous deux étaient
plongés jusqu’au cou dans l’incertitude.
L’incertitude était d’autant plus grande que le produit était aussi
complexe qu’un Boeing Dreamliner (cf. chapitre 7). Ici, l’engin de guerre
intégrait des dizaines de milliers de composants et son développement
mobilisait une très grande diversité de spécialités techniques :
thermodynamique, électromécanique, énergétique, informatique,
chaudronnerie, ergonomie, logistique… La complexité était immense.
Face à tant de nouveauté et de complexité, le client s’est révélé
incapable de formaliser l’exhaustivité de ses attentes. La formalisation
exhaustive est devenue tout simplement hors de portée du cerveau humain 2.
Inévitablement, le cahier des charges initial manquait de précision. Dans le
cas étudié, l’imprécision touchait bien des domaines, dont entre autres la
définition des fonctionnalités de « gestion de l’engagement coopératif », qui
était un concept relativement récent et dont on mesurait mal les implications
au début des années 2000.
Non seulement le cahier des charges initial manquait de précision, mais
en plus il évoluait au gré des changements dans la manière de gérer les
opérations militaires, ou au gré de mutations technologiques qui étaient
imprévisibles au moment de l’expression des besoins. Ce fut le cas pour
l’intégration des drones et des écrans tactiles, qui ont connu des progrès
rapides après la signature du contrat. Si nous étions dans le secteur
automobile, nous aurions cité les changements affectant les normes de
sécurité ou dans les normes antipollution.
De son côté, le fournisseur avait du mal à localiser dès le départ toutes
les imprécisions, car celles-ci fourmillaient sur des centaines de pages. Par
exemple, « sur la page no 827 de l’annexe no 3 au cahier des clauses
techniques du lot no 2 » (sic !), le client manquait de chiffrer certains seuils
de résistance à des contraintes physiques telles que la température, les
forces de frottement, la pression barométrique, etc.
Le fournisseur a profité des imprécisions autant qu’il en a pâti.
Lorsqu’il en détectait une, il n’avait pas forcément intérêt à ouvrir
immédiatement une discussion à ce sujet. Il procédait au moins à des
simulations avant d’en parler, pour évaluer ses propres capacités à faire, et
se mettre au clair quant à ce qu’il était prêt à accepter du client.
Dans tous les cas, le fournisseur faisait des choix techniques qui
semblaient à sa portée ou qui lui permettaient de respecter les budgets ou de
tenir les délais. Possiblement, le client aurait préféré d’autres choix.
Possiblement aussi, il allait changer d’avis entre deux rencontres. Ce qui est
sûr, c’est que le client en apprendrait davantage sur ce qui lui convenait ou
ne lui convenait pas au moment même où il découvrirait les réalisations
concrètes du fournisseur. Un économiste dirait que nous étions en situation
de « découverte progressive des préférences ».
Puisque d’un côté les attentes du client se précisaient et évoluaient en
cours de projet, puisque d’un autre côté les réalisations avançaient au fil de
décisions qui n’avaient pas toutes été discutées avec le client, devait venir
inévitablement un moment où l’on constaterait des écarts entre les attentes
et les réalisations. Ces écarts, il faudrait les corriger. Ce serait du temps et
de l’argent. Parfois les écarts seraient si importants qu’ils déclencheraient
une crise. C’est ce qui s’est passé lors de la réunion à laquelle Marc a
participé en 2009. Les parties prenantes ont pu se déchirer à propos de la
responsabilité des uns et des autres parce que toutes étaient responsables. Et
toutes étaient responsables parce que toutes souffraient de la même
incertitude : celle qui était née de la nouveauté et de la complexité.

Le phénomène est courant : il est observable dans toutes les activités de


conception et de développement, dans des prestations sur devis aussi
différentes que la construction et le consulting, ou plus généralement encore
dans toutes les productions qui comportent une part de sur-mesure.
Pour ne rien arranger, les forces qui font diverger les attentes et les
réalisations traversent toute la chaîne de valeur. Cela parce que la situation
réunissant le client et son premier interlocuteur se reproduit à chacune des
étapes de production, sur chaque interface amont/aval, dans chaque lien
entre deux maillons. Pour simplifier, disons que chaque étape réunit un
donneur d’ordre et un preneur d’ordre. Dans un premier temps, le client est
le donneur d’ordre d’une fonction que nous nommerons ingénieur amont,
architecte ou high level designer. Dans un deuxième temps, le high level
designer devient le donneur d’ordre d’un autre preneur d’ordre qui est le
detail designer. Ce dernier deviendra donneur d’ordre à son tour, face à des
acteurs aussi divers que les achats, la logistique, les fabricants, etc.
Tout au long de la chaîne, chaque fois qu’un donneur d’ordre rencontre
un preneur d’ordre autour d’un livrable, les constats d’écart exigent des
corrections. Par effet de ricochet, les corrections appellent d’autres
corrections. Cela jusque dans les ateliers d’usine dirigés par Stéphane, en
passant par le bureau de Marc. Au final, la quantité de travail engendré est
faramineuse.

L’enjeu d’efficacité des interfaces amont-


aval
Une évolution organisationnelle visant la réduction du surtravail de
correction devra diminuer les forces qui font diverger les attentes des
donneurs d’ordres et les réalisations des preneurs d’ordres. La présence de
ces forces est certes inévitable, car inscrite dans les données de la condition
humaine en contexte de grande incertitude, mais on peut les contenir en
réunissant les conditions d’une bonne coopération entre maillons de la
chaîne de valeur. L’enjeu est de ramener l’une contre l’autre les deux
courbes, le plus souvent et le plus longtemps possible, afin d’éviter les
constats de grands écarts.
La réponse organisationnelle à cette problématique a déjà été formalisée
et diffusée dans les détails. Je pense aux « méthodes Agile ». Les pratiques
rassemblées sous ce label sont diverses (RAD, Scrum, Extreme
Programming, etc.), mais partagent quelques principes qui ont été
formalisés dans un manifeste dédié 3, rédigé par dix-sept experts en
provenance du monde du logiciel. La provenance de ces experts ne doit rien
au hasard : le développement logiciel est un archétype de la production
d’objets complexes et nouveaux.
Le Manifeste Agile prône le respect de quatre grands principes
fondamentaux : l’abandon de l’idéal d’une formalisation exhaustive,
l’abandon d’une ambition de cadrage total par le contrat, l’acceptation des
déviations par rapport aux plans initiaux et l’importance des interactions
entre individus.
Les trois premiers principes sont des façons de prendre acte de la
présence d’une incertitude irréductible et de toutes ses implications. Notons
que les tenants de ces méthodes n’ignorent pas le besoin de formalisation et
de contractualisation, mais reconnaissent que ces ingrédients ne peuvent
suffire à programmer le cours des événements et à garantir la réussite d’un
projet. Le cadre formel est vu comme une délimitation d’un espace de jeu,
plutôt que comme une fermeture du jeu.
Le quatrième principe, portant sur les interactions entre individus, est
celui qui permet de jouer efficacement à l’intérieur de l’espace de jeu et qui
a les implications organisationnelles les plus importantes. La fréquence des
interactions réduit l’« effet tunnel », qui dans le langage des ingénieurs
désigne la durée séparant deux rencontres entre donneurs d’ordre et
preneurs d’ordre. Plus un tunnel est long, plus les écarts découverts à sa
sortie sont grands.
Propriété organisationnelle no 1 :
la proximité
Pour raccourcir le tunnel, on pourra bien entendu s’en remettre à des
réunions formelles, mais la préparation, l’animation et les comptes rendus
des réunions sont autant de consommations de temps prises sur le budget.
Et surtout les réunions sont des interactions planifiées, or les questions ou
les difficultés rencontrées par les acteurs sont difficilement prévisibles. À
nouveau, l’idéal est de favoriser les interactions informelles, non planifiées,
donc la proximité, non seulement entre salariés d’une même entreprise,
mais aussi entre salariés d’entreprises distinctes, liées par la chaîne de
valeur.
Dans un contexte de production mondialisée 4, vous serez peut-être
étonné que j’accorde autant d’importance à la proximité. Je ne suis pas naïf,
je n’imagine pas ramener des chaînes de valeur entières à l’échelle d’un
bassin d’emploi. En revanche, mon propos invite à répartir
géographiquement les activités en fonction du degré d’incertitude.
L’incertitude est forte dans les activités de développement, c’est pourquoi il
convient de réunir les individus qui y participent, chose que les inventeurs
du plateau projet ont comprise dès les années 1980. Par définition,
l’incertitude est faible lorsque le produit est stabilisé, lorsque la production
est routinisée, lorsque les échanges sont codifiés au point de se résumer à
des envois de fiches techniques. Dans ce cas, vous pouvez sans difficulté
éloigner les parties en interaction de plusieurs milliers de kilomètres.

Propriété organisationnelle no 2 :
la vitesse d’arbitrage
La proximité doit relier non seulement les maillons de la chaîne de
valeur, mais aussi les différents niveaux de responsabilité. L’enjeu est
d’augmenter la vitesse d’arbitrage. La production sur devis d’objets
complexes et nouveaux, tout comme l’organisation matricielle qui lui donne
souvent son enveloppe, est très consommatrice d’arbitrages. Cela pour deux
raisons. La première est qu’elle laisse toujours apparaître des tensions entre
contraintes : contraintes de coût, de qualité et de délai bien sûr ; mais
contraintes plus spécifiques aussi, telles que la résistance aux vibrations, à
la torsion, à la dilatation… Les arbitrages sont là pour hiérarchiser les
contraintes et pour valider les choix dérivés de la hiérarchisation des
contraintes. La seconde raison pour laquelle la production sur devis d’objets
complexes et nouveaux consomme des arbitrages est que les aléas, les
constats d’écart, les dérives ont des conséquences sur le plan de charge et
sur le rythme de travail, conséquences auxquelles il faut s’adapter
continuellement en redéployant les ressources.
À une époque où les structures matricielles s’étendent à l’international,
la vitesse d’arbitrage fait problème. J’ai souvenir d’une entreprise très
comparable à celle de Marc, qui a intégré les équipes françaises en charge
du développement de satellites au sein d’une structure plus vaste. Un
ingénieur que j’ai rencontré au lendemain de la restructuration a résumé les
conséquences comme suit :

« Avant, la ligne de décision de mes collègues et ma ligne se croisaient


sur le site même, ici, chez un directeur qui couvrait un périmètre de 500
salariés. On savait qu’au pire on pouvait obtenir des arbitrages tous les
lundis, parce que le lundi il y a comité de direction. Maintenant, le point
de croisement des lignes est à 500 kilomètres, dans le bureau d’un type
qui couvre 5 000 personnes, un type qu’on n’a jamais rencontré, qui est
loin du terrain, et qui accessoirement ne parle pas français (ce n’est pas
une tare, mais ça complique sérieusement la discussion). » (Ingénieur
d’étude, secteur aérospatial.)

La distance géographique n’était pas un obstacle insurmontable ; le


véritable obstacle était dans la longueur du circuit menant au lieu
d’arbitrage, c’est-à-dire dans la localisation dans l’organigramme de
l’individu ayant un pouvoir de décision.

Propriété organisationnelle no 3 :
la stabilité des individus clés
Sans le savoir, Marc a mis le doigt sur un autre levier d’action, en
quelques phrases :

« On a souffert aussi d’une vague de départs. Avant même le lancement


du projet, il y a eu des départs en retraite. On a perdu beaucoup de
compétences. Les jeunes qui les ont remplacés sont très bien formés,
mais ils arrivent principalement avec des compétences de formalisation
de process. Ils ne savent pas ce que c’est qu’un engin de guerre. Ce que
je veux dire par là, c’est qu’ils ne savent pas à quelles difficultés
s’attendre, et donc ils ne savent pas sur quoi être vigilant. » (Marc,
ingénieur d’étude.)

Marc évoquait l’importance de la gestion des compétences. De fait, il


identifiait deux types de compétences. Il y avait d’abord les compétences
des « anciens » qui, de par leur expérience de l’objet, étaient capables de
prendre la mesure de l’incertitude, de s’y retrouver un peu dans la brume. Il
y avait ensuite les compétences de formalisation, grâce auxquelles on gérait
une série d’opérations de traduction : traduction des besoins clients en
spécifications fonctionnelles, traduction des spécifications fonctionnelles en
spécifications techniques, traduction des spécifications techniques en
procédés de fabrication. Chaque traduction était un exercice délicat et
exigeait des connaissances spécifiques, au premier rang desquelles la
connaissance des langages de chacun et celle des fonctionnalités
envisageables (ou plus largement du champ des possibles).
Au cours du même entretien, alors qu’il me parlait encore des départs,
Marc m’apporta un élément de compréhension essentiel :

« Il y a eu ensuite des départs en cours de projet. Ce n’était pas des


départs en retraite, mais des gens qui voulaient sortir du projet parce
que ça faisait longtemps qu’ils en étaient, et parce qu’ils n’en pouvaient
plus. On n’a pas vraiment maîtrisé le flux, et le résultat ça a été qu’on a
perdu des hommes clés. » (Marc, ingénieur d’étude.)

J’ai interrogé Marc sur les caractéristiques de ces individus clés. Je suis
sorti un peu de la posture neutre dont je vantais les mérites dans le chapitre
4, et nous avons réfléchi ensemble. Nous nous sommes aperçus qu’il y avait
deux sortes d’individus clés : les individus-interfaces et les individus-
mémoires.
Les individus-interfaces sont ceux qui font le lien entre des groupes
travaillant sur différents maillons de la chaîne ou différents sous-ensembles
du produit. Ils sont en quelque sorte des nœuds, des points de passage
obligés pour le partage d’informations et pour la prise de décision (les
adeptes de la network analysis diraient qu’ils sont des « ponts
structuraux 5 »). Ils sont donc les mieux placés pour répondre à deux
questions majeures : qui sait quoi ? qui fait quoi dans les autres groupes ?
Les individus-mémoires ont été témoins de décisions nombreuses et
parfois anciennes. Ils peuvent être positionnés sur des interfaces, comme
précédemment, mais ils peuvent tout autant se loger discrètement « au
fond » des groupes entre lesquels les individus-interfaces établissent les
liens. Même lorsqu’ils sont logés discrètement, les individus-mémoires
prennent une importance cruciale dès lors que l’on abandonne l’ambition
d’une traçabilité totale des décisions par la formalisation. En effet, ils sont
capables de rappeler le contenu des décisions et, surtout, de restituer les
raisonnements qui ont abouti à ces décisions. Ces capacités sont souvent
mobilisées, car au cours d’un projet il arrive souvent qu’on questionne a
posteriori le bien-fondé d’un choix de priorité, ou d’un choix technique.
La disparition d’un individu-interface ou d’un individu-mémoire génère
toujours des perturbations chez l’ensemble des participants au projet.
Lorsqu’un individu-interface disparaît, c’est toute la structure sociale qui
doit se reconfigurer pour contourner un vide. L’établissement de nouveaux
liens consommera du temps et de l’énergie, ne serait-ce que parce que
chaque membre du réseau devra trouver à plusieurs reprises la réponse à la
question du « qui fait quoi ? ». Lorsqu’un individu-mémoire disparaît, on
perd le sens de décisions prises par le passé, et lorsqu’on en vient à
questionner ces décisions, on est contraint de reconstituer tout ou partie du
chemin intellectuel suivi par le passé.
La stabilité de ces deux catégories est donc un facteur clé de réussite.
Cette stabilité peut être maintenue à un bon niveau à deux conditions.
D’abord, si on limite les mobilités professionnelles en cours de projet.
Naturellement, la mobilité ne peut pas être réduite à rien. Dans les grandes
entreprises au moins, elle est une pratique courante et saine. Cependant, elle
peut être soigneusement dosée par un micromanagement des talents, qui
consiste à limiter le nombre de personnes concernées par les mobilités, au
moins sur une période donnée, et à privilégier les mobilités à l’intérieur de
la structure sociale qui sous-tend le projet.
Ensuite, la stabilité des individus-interfaces et des individus-mémoires
peut être maintenue en préservant leur santé. Cette dernière est souvent
menacée en cas de dérive d’un projet, car les exigences du travail
augmentent tandis que les marges de manœuvre diminuent, ce qui génère
une tension psychologique. À la suite de Karasek, les psychologues du
travail nomment cette tension job strain 6. Conjuguée à d’autres facteurs,
cette tension augmente les niveaux de stress, et par-delà les probabilités
d’apparition de pathologies psychosomatiques telles que les troubles
anxieux, la dépression ou le burn-out 7.

Propriété organisationnelle no 4 :
un nombre d’interfaces réduit
Jusqu’ici dans ce chapitre, j’ai simplifié le propos en considérant qu’un
seul acteur était positionné sur chaque maillon de la chaîne de valeur : les
clients, les ingénieurs amont, les ingénieurs aval, les fabricants. En réalité,
c’est rarement le cas. Le plus souvent, les interfaces amont/aval se doublent
d’interfaces latérales : le produit est décomposé en sous-ensembles, chaque
sous-ensemble est pris en charge par au moins une équipe, et chaque équipe
est soumise à des aléas. Si les sous-ensembles du produit sont
interdépendants, alors les équipes le sont. Et si les équipes sont
interdépendantes, alors les corrections opérées par les unes affectent les
autres. Plus les équipes sont nombreuses, plus les effets de ricochet sont
importants, plus les itérations sont fréquentes, comme le suggère la figure
suivante. La fréquence des itérations est une mesure du surtravail de
correction.
Propriété organisationnelle no 5 :
des liens d’interdépendance équilibrés
La fréquence des itérations n’est pas strictement proportionnelle au
nombre d’équipes impliquées dans la production. Elle dépend aussi de la
volonté ou de la capacité de chacune à prendre en compte les répercussions
de ses corrections sur les voisines. Moins une équipe est tenue de prendre
en compte les répercussions, moins elle hésite à faire des corrections, plus
elle oblige les autres à faire d’autres corrections.
C’est pourquoi l’on peut dire qu’une organisation économe en travail de
correction est une organisation qui force chacun à considérer les
conséquences de ses actes, ou pour reprendre les termes de Morieux et
Tollman, qui étend l’« ombre du futur » de chacun. Cela passe par des choix
de division du travail ou de répartition des rôles. Deux grandes options sont
envisageables.
La première consiste à confier à chaque équipe un plus grand nombre de
composants ou de sous-ensembles interdépendants, donc une plus grande
diversité de contraintes. Cela revient tout bonnement à réduire le nombre
d’acteurs. Cette première façon de procéder est adaptée à la production
d’objets dont la complexité est limitée.
La seconde consiste à équilibrer les liens d’interdépendance entre
fonctions. J’ai déjà présenté une méthode d’équilibrage dans un ouvrage
précédent 8. Cette méthode est aussi celle qu’utilise Morieux, et sans doute
d’autres consultants formés par Michel Crozier et Erhard Friedberg.
Appliqué au cas qui nourrit ce chapitre, l’équilibrage passera par une
certaine distribution des rôles de conception (en amont de la chaîne de
valeur) et de test/validation (en aval de la chaîne de valeur).
Il s’agira d’éviter un schéma de distribution linéaire, dans lequel les
rôles les plus en amont et les plus en aval sont confiés à des équipes
distinctes.

Ce schéma présente un inconvénient : l’équipe A n’est pas intéressée à


ce qui se passe en bout de chaîne. Elle a tout loisir d’ignorer les contraintes
des voisins ainsi que les conséquences de ses actes sur eux. Les liens
d’interdépendance sont déséquilibrés à son profit.
Un autre choix consiste à confier ces rôles à la même équipe. On obtient
un schéma en « V ». Dans ce schéma l’équipe en amont subit les
conséquences de ses propres actes, à travers les répercussions sur les autres.
Elle doit se soucier du sort des voisins. Les liens d’interdépendance sont
équilibrés.

En synthèse, une entreprise économe en tâches de correction présentera


les caractéristiques suivantes :
1. La proximité entre maillons de la chaîne de valeur (hormis les plus routinisés).
2. La vitesse d’arbitrage.
3. La stabilité des individus-interfaces et des individus-mémoires.
4. Un nombre d’interfaces réduit.
5. Des liens d’interdépendance équilibrés.

Avant de terminer ce chapitre, je vous laisse la grille à laquelle vous


êtes désormais attaché affectivement :

Indices de présence du surtravail de correction

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. En production on passe
beaucoup de temps à revenir ❒0 ❒1 ❒2 ❒3
sur ce qui a déjà été fait
2. Les fonctions de la chaîne de
production se plaignent
❒0 ❒1 ❒2 ❒3
continuellement les unes des
autres
3. Les acteurs qui participent
aux grands projets sont très ❒0 ❒1 ❒2 ❒3
éloignés les uns des autres
4. On met toujours trop de
temps à prendre ou à obtenir
❒0 ❒1 ❒2 ❒3
des décisions quand on doit
faire des choix
5. On manque de gens
expérimentés dans les grands ❒0 ❒1 ❒2 ❒3
projets
6. L’organisation de la
❒0 ❒1 ❒2 ❒3
production est très fragmentée
7. Les acteurs qui interviennent ❒0 ❒1 ❒2 ❒3
en amont dans les projets ont
tendance à travailler comme
s’ils filaient une patate chaude
aux acteurs en aval
La grille permet d’établir un score compris entre 0 et 21. Un score élevé signale que le
surtravail de correction est important

S’il en était encore besoin, les expériences de Stéphane et de Marc


démontrent une fois de plus que lorsqu’elle s’attaque au surtravail (de
correction en l’occurrence), une évolution organisationnelle peut être
créatrice de valeur : elle réduit la consommation de temps et d’énergie, tout
en améliorant les conditions de résolution des problèmes de production,
donc la qualité du service rendu aux donneurs d’ordre.
Le surtravail de correction conclut la liste des mécanismes qui ajoutent
du travail au travail : le verrouillage stratégique, l’alignement concurrentiel,
l’alourdissement des structures (dont l’appareil de contrôle), les projets de
mutualisation voués à l’échec, la foi aveugle en l’organigramme. Ces
sources sont les seules que je suis capable d’analyser sérieusement.
J’en identifie déjà deux autres, qui feront peut-être l’objet d’une
prochaine publication : la « surqualité », qui consiste à aller bien au-delà
des seuils de satisfaction des clients ; les « technomodes », qui amènent les
directions à investir des millions d’euros dans des nouvelles technologies,
par mimétisme, sans réflexion patiente, ni sur la contribution des outils à la
création de valeur, ni sur les difficultés d’appropriation des outils par les
acteurs de l’entreprise.
CHAPITRE 10

L’entreprise libérée du surtravail

Face à la diversité et à la complexité des mécanismes à l’œuvre, vous


qui prenez ou contribuez à des décisions organisationnelles êtes pris de
vertige. Vous pensez sans doute que si demain l’on vous demandait de
mettre en place un programme de réduction du surtravail, vous ne sauriez
pas par quel bout le prendre. Je vous comprends.
Dans ce chapitre je voudrais vous livrer de quoi jeter les bases d’une
organisation libérée du surtravail. Il s’agit de quelques lignes de conduite,
que vous pouvez suivre quels que soient votre fonction ou votre niveau
hiérarchique, et que vous pouvez suivre dès demain.

La (re)connexion des managers


et dirigeants au terrain
Les organisations et les individus qui les peuplent souffrent du
management abstrait. Tout se passe comme si plus on montait dans la
hiérarchie, plus on avait tendance à ne regarder le terrain qu’à travers des
tableaux et des plans masquant la complexité du réel ; comme si plus on
pénétrait la technostructure occupée par les cadres supérieurs et les
consultants, plus on risquait de s’enfermer dans un univers de symboles régi
par un principe de cohérence interne (il faut que les symboles et les plans se
combinent bien entre eux).
On aurait tort d’attendre le salut de l’entreprise des « innovations
managériales ». La plupart sont des discours censés valoir quel que soit le
contexte de travail : l’entreprise holistique, les communautés collaboratives,
l’intelligence collective… La seule idée de prolonger la liste m’irrite. Parce
qu’elles sont censées valoir quel que soit le contexte, parce qu’elles sont des
recettes qu’on projette sur l’existant, toutes ces approches participent du
mouvement d’abstraction qui détourne l’attention de l’élément le plus
structurant dans la vie d’une organisation : le problème de production,
qu’on doit toujours regarder comme un cas particulier.
La (re)découverte des problèmes de production suppose un
(re)connexion des managers et dirigeants au terrain. Cela paraît difficile car
leur temps est compté, mais il faut se souvenir qu’il s’agit ici de gagner du
temps, en limitant le surtravail.
Le premier moyen de reconnecter les managers au terrain consiste à les
former à une certaine pratique de l’écoute (jusqu’aux dirigeants !) et à
l’analyse socio-organisationnelle (celle que j’ai pratiquée dans ces pages).
Il faut s’entendre sur ce que signifie ici le mot « écoute ». Il ne s’agit
pas simplement de prêter une oreille attentive aux états d’âme. Bien sûr, les
sentiments importent, mais on a trop tendance à les considérer comme les
expressions de dynamiques individuelles et à transformer l’exercice en
« psycho-papouille ». Il faut considérer les sentiments comme des
révélateurs de dynamiques collectives, qui nous informent sur la structure
de pouvoir, et nous offrent par là une perspective sur l’organisation
profonde. Cela dit, les sentiments ne livrent d’information sur l’organisation
profonde qu’à condition d’être liés à des éléments de description de
l’activité, c’est-à-dire du travail tel qu’il se fait, et non tel qu’on le souhaite
ou tel qu’on l’imagine.
Il est là, l’objet central de l’écoute : dans la description du déroulement
de l’activité. Attardez-vous sur ce mot « description ». Sa définition vous
semble évidente, mais c’est la chose la plus difficile à faire. Dans mon
quotidien, j’ai parfois l’impression que la description est méprisée, au profit
de l’interprétation ou de l’explication et au profit de l’évaluation ou du
jugement. L’explication serait la marque de l’intelligence ; le jugement
serait la marque de l’autorité. On méprise la description sans même en avoir
conscience. On est persuadé de décrire l’activité quand on tourne autour de
l’activité. Voyez cette phrase : « Le problème, c’est qu’ils délaissent les
tâches de reporting parce qu’ils ne comprennent rien aux enjeux de
rentabilité des projets. » Elle se prétend description, mais en fait mélange
les trois registres de perception : la description (« ils délaissent »),
l’explication (« parce que… ») et le jugement (« le problème, c’est
que… »). Pour bien écouter, oubliez vos explications et vos jugements,
oubliez-les le plus longtemps possible. Écouter, c’est recueillir des récits et
des anecdotes, c’est reconstituer l’enchaînement des événements, sans rien
en penser. « Un sage est sans idée », nous dit la pensée chinoise 1.
En sus des formations à l’écoute et à l’analyse socio-organisationnelle,
je vous invite à prendre une mesure simple : interdire l’usage du mot
« dysfonctionnement ». Ce terme est un obstacle à la compréhension. S’il
était un geste, il serait un revers de la main par lequel on balaie l’existant.
La prohibition pure et simple de ce terme a un avantage : elle peut être un
mot d’ordre lancé au plus grand nombre.
Toutefois, la (re)connexion des managers et dirigeants au terrain ne peut
se faire à l’aide uniquement d’un mot d’ordre et d’un apport de
compétences. Cela reviendrait à se cantonner dans les couches rhétorique et
technique de la vie d’entreprise. La connexion au terrain, cela s’organise
avec plus de subtilité, dans la construction des liens d’interdépendance entre
niveaux hiérarchiques. L’information la plus concrète sur les réalités de
terrain est obtenue lorsque managers et collaborateurs travaillent ensemble
à la résolution d’un ou plusieurs problèmes de production.
L’ingénierie des liens d’interdépendance hiérarchiques est un exercice
délicat, et vous risquez fort de vous sentir à nouveau dépassé par la
complexité. Cependant, vous pouvez attendre des formations à l’analyse
socio-organisationnelle qu’elles aident les managers à conduire eux-mêmes
cet exercice. Si les priorités pédagogiques le permettent, ces formations
peuvent amener les participants à imaginer une nouvelle distribution des
rôles au sein de leur équipe, en sorte que les échelons hiérarchiques
contigus partagent les problèmes de production, plutôt qu’ils ne se les
partagent.
Bien que la réunion des niveaux hiérarchiques autour des problèmes de
production soit souhaitable, il faut parier qu’une partie des managers est
forcée de s’en tenir à la périphérie de l’activité ; les dirigeants de vastes
périmètres, par exemple. Coup de malchance, ces managers-là prennent
beaucoup de décisions. Quand on réfléchit à l’organisation de la connexion
au terrain, il faut donc penser à eux.
Leur difficulté majeure est qu’ils dépendent des informations qu’on veut
bien leur donner. Deux précautions permettent d’atténuer leur dépendance.
La première est un effort de lucidité : ils doivent se souvenir que tous les
membres de leur entourage tordent la réalité en fonction « de ce qu’ils ont
appris, de ce qu’ils voient et de ce qu’ils veulent ». La seconde est de
multiplier les sources d’information, pour n’être à la merci de personne.
Parmi les sources d’information peuvent figurer des consultants ou des
experts. Mais prenez garde : la plupart des consultants en organisation et
management ont une approche technique et, comme tout le monde, ils
cherchent les problèmes correspondant aux solutions qu’ils ont à vendre.
Dans ces circonstances, on privilégiera ceux qui n’ont pas vraiment de
solution en tête avant d’aller sur le terrain et qui proposent de l’écoute avant
toute autre chose.
Tant qu’à faire appel à des consultants, j’irai jusqu’à conseiller de placer
l’organisation « sous écoute » régulière, voire permanente. Je ne parle pas
d’un sondage tel qu’une étude d’engagement ou de climat social, mais d’un
examen continu et approfondi du fonctionnement de l’entreprise. L’idée
n’est pas d’instaurer un régime de surveillance, mais de disposer d’éléments
de description avant même que les décideurs soient gagnés par une certaine
vision du changement et avant même que les employés ne soient perturbés
par la rumeur d’un changement. Imaginez-vous un contrôleur de gestion
questionner l’utilité de ses tâches en présence d’un consultant, alors même
que court le bruit d’une restructuration des fonctions support ? Vous
devinez sans peine que la suspicion brouillerait les pistes conduisant aux
problèmes de production.

Le partage des contraintes


À la suite d’autres sociologues, j’ai posé que la coopération était un
enjeu central. Cela vaut non seulement pour les liens hiérarchiques, mais
aussi pour les relations entre fonctions. Dans un chapitre précédent, je l’ai
présentée comme un moyen de partager des ressources : des compétences,
des informations, des accès à l’environnement, ainsi qu’une maîtrise de
règles. J’aurais pu dire aussi qu’elle était un partage des contraintes. Cela
revient au même, mais lorsqu’on passe par cette deuxième formulation, on
voit quelques leviers d’action simples à manipuler.
On atteint un premier niveau de partage lorsqu’on met en place un
dispositif de type « vis ma vie ». La proposition est quelque peu tarte à la
crème, mais, si l’on fait les choses sérieusement, ce qui n’a rien d’évident,
on peut éveiller la conscience qu’ont les uns des contraintes des autres.
On accède au deuxième niveau de partage lorsqu’on favorise la mobilité
des salariés au long de la chaîne de valeur. Au minimum on obtient à
nouveau l’éveil des consciences. Au maximum on invite les individus à
envisager que les contraintes des voisins seront les leurs le lendemain. Cet
effet maximal est obtenu lorsque le rythme des mobilités correspond au
cycle de vie des produits (pour reprendre un exemple utilisé par Yves
Morieux, songez à un directeur de projet travaillant sur un nouveau
véhicule, que l’on mute ensuite vers une fonction de production ou de
distribution du même véhicule).
L’accès au troisième niveau de partage passe par l’ingénierie des liens
d’interdépendance, cette fois sur un plan horizontal. Vous aurez du mal à
accéder à ce troisième niveau sans le renfort de consultants experts du
domaine.

La participation des cadres intermédiaires


au changement
Le principe d’une participation des cadres intermédiaires au
changement fait consensus. Malheureusement, j’ai constaté que très souvent
le consensus était de façade. En réalité, les cadres intermédiaires sont
mobilisés tardivement dans les processus de transformation : on se souvient
d’eux lorsqu’il s’agit de mettre en œuvre les plans dessinés par le sommet,
supposé plus éclairé. Il est judicieux qu’ils contribuent le plus tôt possible à
un stade où il reste des marges de manœuvre dans la définition de
l’organisation cible. Cela pour trois raisons au moins.
Une première nous vient sans peine à l’esprit : ce sont les cadres
intermédiaires qui détiennent les informations les plus concrètes sur le
déroulement de l’activité.
Une autre est un peu moins évidente : parce que l’organisation profonde
est un univers de complexité, les conséquences du changement sont en
partie imprévisibles. Il convient donc d’en suivre le déroulement, de rester
attentif dans la durée et de s’appuyer sur des acteurs proches du terrain pour
ajuster continuellement le tir.
Une troisième justification de la participation des cadres intermédiaires
au changement est encore moins présente à notre esprit : elle réduit les
chances qu’ils adoptent des stratégies d’agent double. Lorsque la conduite
du changement est centralisée et exclusive, ces cadres ont à la fois intérêt à
rejeter la responsabilité vers le sommet et la possibilité de le faire. À leurs
collaborateurs, ils disent : « Je sais, c’est un mauvais choix, mais je ne peux
rien y faire. » Au sommet, ils affirment : « De nombreux salariés de mon
périmètre résistent au changement, ils manquent d’adaptabilité. » Ce
faisant, ils donnent au sommet une vision caricaturale de la base, et à la
base une vision caricaturale du sommet. La tension entre base et sommet en
sort grandie, de même que le mépris réciproque, qui fournira les prétextes
d’un maintien de la centralisation et de l’exclusion.
Le rôle du sommet est double : il donne une impulsion et une vision.
L’impulsion du changement est la mise en scène d’une rupture, c’est une
série d’actes et de communications qui rendent illégitimes le statu quo. La
vision est une série d’orientations : une définition des enjeux, une
formulation des axes de progrès et une désignation des acteurs dont on
attend qu’ils se mobilisent.
La participation n’est pas la création d’une arène au milieu de laquelle
des groupes d’intérêts expriment sans frein leurs frustrations et leurs
attentes. Elle est explicitement mise au service du projet, cadrée par la
vision des enjeux et des axes de travail, cadrée aussi par un calendrier. En
ce sens, c’est une prise de parole placée sous contrainte.
Il faut se départir de toute naïveté lorsqu’on envisage la participation.
D’abord, parce que les cadres intermédiaires ne sont pas des égaux : on
sélectionnera ceux qui ont de l’influence et des compétences. Ensuite et
surtout parce que la participation n’échappe pas aux lois socio-
organisationnelles : les acteurs qui participent ont un intérêt dans l’affaire,
ils ont une position à défendre, des équilibres de pouvoir à maintenir ou à
modifier. L’arène est bien davantage un espace de négociation que de libre
expression. Chaque partie prenante fait ses comptes, et réclame une
réciprocité (réciprocité entre niveaux hiérarchiques, entre fonctions ou
maillons de la chaîne de valeur). La règle est celle du donnant-donnant.

La pratique du refus
Dans la plupart des organisations, lorsqu’un supérieur ou même
lorsqu’un collègue fait une proposition de changement, il est illégitime de
dire « non ». En conséquence, les plans d’action foisonnent et les tâches
s’accumulent. L’acquiescement est à l’origine des pires maux : il est
susceptible de diluer ou de brouiller le positionnement stratégique de
l’entreprise, de congestionner les agendas, ou d’alourdir les structures. Dans
un contexte rendant le « non » illégitime, l’intelligence est de laisser
tranquillement mourir les tâches les moins utiles. Mais cela prend du temps,
et en attendant on surtravaille.
Plus tôt dans ce livre, j’ai cité deux instruments utiles à la pratique du
refus. L’un était l’apport de compétences d’assertivité ou d’affirmation de
soi. L’autre était la procédure pre-mortem, qui consiste à réfléchir sur les
causes du futur échec du plan d’action qu’on vient d’établir (voir chapitre
4).
Je n’ai rien d’autre à ajouter ici à propos des conditions génériques de la
pratique du refus, mais l’importance du sujet n’est pas du tout
proportionnelle au nombre de paragraphes que je lui consacre. Le « oui »
est une plaie.
Conclusion

Par un jeu sur les effets de système, toute entreprise a les moyens
d’économiser du travail sans dégrader ses résultats, ce qui revient à gagner
en productivité sans efforts ni investissements supplémentaires. Une partie
des tâches que nous accomplissons chaque jour est générée par des
mécanismes qui n’ont qu’un rapport lointain avec les « lois du marché » ou
les « forces du capitalisme ». Deux de ces mécanismes me semblent mériter
un rappel. Le premier naît de la tentation qui anime tous les acteurs de
l’entreprise, et qui est de promouvoir les problèmes dont ils ont déjà les
solutions. Ce premier mécanisme charge l’agenda de l’entreprise, de ses
dirigeants et in fine d’une grande partie des salariés. Le second mécanisme
naît de l’indignation face aux comportements à l’origine des difficultés de
gestion. L’indignation est une sorte d’aveuglement car elle interdit l’accès
au travail réel. Elle ouvre sur des « diagnostics par l’insuffisance », sur des
explications par le manque : manque d’information, manque de
compétences, manque de bonne volonté… Autant de manques qu’il faudra
combler, en ajoutant des circuits d’information, des procédures, des outils
de contrôle, des programmes de formation, des chartes de valeurs… Les
deux mécanismes provoquent le remplissage et la déperdition d’énergie.
Je ne suis certainement pas le premier à proposer une démarche pour
économiser le temps et les efforts. L’ambition d’économie a motivé ou
motive des méthodes parmi les plus célèbres et les plus répandues : la
rationalisation taylorienne (dont les ingrédients principaux sont la
segmentation et la formalisation des modes opératoires), le lean
manufacturing (je pense en particulier à sa forme initiale, couramment
nommée toyotisme), ou plus récemment les méthodes Agile (notez la
majuscule et l’absence du pluriel).
Les méthodes Agile ont ma sympathie car elles ouvrent un chemin vers
la réduction du surtravail (cf. chapitre 9). Cependant leur terrain
d’application est limité. D’abord, parce qu’elles conviennent aux grands
projets, aux prestations sur devis, aux productions comportant une bonne
dose de sur-mesure. Ensuite, parce qu’elles permettent principalement de
réduire le surtravail de correction.
Avec la rationalisation taylorienne et le lean manufacturing, mon
approche partage l’idée d’un gâchis ou d’un gaspillage. Hormis ce point de
convergence, je vois trois différences majeures.
Premièrement, ces deux approches accordent une place centrale aux
outils et à la formalisation de processus. Or outils et process sont
potentiellement des remplissages. Il ne suffit pas de réfléchir à la qualité des
processus, comme si leur existence était une évidence ; il faut questionner
jusqu’à leur raison d’être. Dans les pires des cas, on s’apercevra que la
formalisation est une tentative échouée de pallier des difficultés de
coopération. C’est dans les meilleurs des cas qu’on aboutira à la conclusion
selon laquelle la formalisation est une condition d’efficacité.
Cette dernière remarque m’amène au deuxième point, au deuxième trait,
que partagent la rationalisation taylorienne et le lean manufacturing. Les
deux approches visent l’efficacité opérationnelle. Mais la recherche
d’efficacité opérationnelle peut être en elle-même un symptôme
d’alignement concurrentiel, donc un surtravail (cf. chapitre 2). Comme je
l’ai écrit à plusieurs reprises, loin de moi l’idée d’abandonner la recherche
d’efficacité opérationnelle. En revanche, la recherche d’efficacité
opérationnelle est suspecte lorsqu’elle envahit l’agenda, aux dépens
notamment de la réflexion sur le positionnement stratégique.
Troisièmement, les tenants des deux approches partagent une aversion
pour les « temps morts », une méfiance vis-à-vis du relâchement. Or je crois
que le relâchement est une nécessité. Le contraire du relâchement est la
tension totale et permanente. La tension totale et permanente implique une
surconsommation de ressources psychologiques et physiques, qui aboutit
inévitablement à l’épuisement individuel et organisationnel. Je n’ai observé
une telle tension qu’au sein des discount brokers, où elle était solidaire non
pas simplement d’une concurrence frontale, mais pire : d’une concurrence
parfaite. Les entreprises concernées ne l’ont pas supporté. Celles qui ont
survécu ont changé de modèle économique d’affaires.
Mon idéal est de vider le temps, de réduire sa densité, de revenir au
strict nécessaire, à l’essentiel, en faisant disparaître « le travail qu’on ajoute
au travail ». Dans un monde qui sursollicite le corps et l’esprit, le retour à
l’essentiel devient un besoin fort. Si j’osais, je dirais que je suis partisan du
moindre effort. À vrai dire, je le suis depuis l’âge de 14 ans, depuis qu’un
professeur de lycée m’a dit : « C’est bien d’être paresseux, ça force à être
intelligent. » Il savait ce qu’il disait : c’était un professeur d’économie !
Cette phrase qui m’a tant plu aurait fait tomber Taylor de sa chaise. Lui
aurait dit : « Il faut être intelligent pour discipliner les paresseux. »
La partie la plus résignée de moi a l’espoir que la réduction du
surtravail limite les dommages occasionnés par les restructurations. Le
terme « restructuration » est associé dans notre esprit à des émotions
négatives : la peur (d’en être victime), la tristesse (d’en avoir été victime),
la colère (vis-à-vis des coupables). On peut comprendre pourquoi : trop
souvent la restructuration est une frappe à l’aveugle, un coup du
management abstrait.
Une frappe à l’aveugle est une réorganisation décidée sur la base de
ratios et de quotas : un dirigeant estime que ses coûts fixes sont plus élevés
que ceux de ses concurrents ; il décide de réduire sa masse salariale de 10 %
à horizon d’un an et applique uniformément ce pourcentage à ses divisions
ou à ses directions ; prises par le temps, ces divisions ou directions font de
même en leur sein, si bien qu’au final la répartition des suppressions de
postes est déconnectée des nécessités de la production. Le risque de frappe
à l’aveugle me paraît plus fort dans les grandes entreprises, car les
dirigeants sont très éloignés du terrain, donc très tentés, voire forcés de
gouverner par les indicateurs.
Quand on songe aux conséquences des frappes à l’aveugle, on pense
immédiatement aux impacts humains : des salariés perdent leur emploi,
d’autres sont amenés à travailler plus intensément. On a moins conscience
des dommages qui affectent l’appareil de production : suite aux pertes
brutales d’effectifs, c’est dans la précipitation que les équipes redistribuent
les rôles et modifient leurs modes opératoires ; cela ne se fait pas sans mal,
il y a un temps d’apprentissage et, parfois, des accidents.
Dans une économie ouverte, je ne crois pas qu’on puisse se dispenser de
changements de structure. En revanche, je milite pour des restructurations
pragmatiques, fondées sur l’observation du travail réel, sur la connaissance
des problèmes de production autant que des problèmes de gestion. Nous
rêvons tous de restructurations respectueuses de l’humain. Commençons
par des restructurations respectueuses du travail, cela ira déjà bien mieux, y
compris sur le plan économique, puisqu’une restructuration pragmatique est
une transformation qui évite la destruction de valeur et qui chasse les tâches
non créatrices de valeur.
Grille de prédiagnostic du surtravail

1. Ordre de la stratégie
Indices de présence d’un verrou stratégique

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
1. L’entreprise a connu une
❒0 ❒1 ❒2 ❒3
longue période de succès
2. On multiplie les initiatives
sans que reviennent la ❒0 ❒1 ❒2 ❒3
croissance et la rentabilité
3. Les cadres dirigeants ont le
❒0 ❒1 ❒2 ❒3
sentiment d’être perdus
4. Il y a des tensions entre les
acteurs qui ont tiré profit des ❒0 ❒1 ❒2 ❒3
succès passés et les autres
Indices de présence de surtravail par alignement concurrentiel

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
5. L’entreprise intervient sur des
marchés où l’offre est en voie ❒0 ❒1 ❒2 ❒3
de concentration
6. Les individus donnent des
signes de sursollicitation
(lassitude, sentiment de faire
❒0 ❒1 ❒2 ❒3
beaucoup d’efforts pour pas
grand-chose, stress trop élevé,
symptômes d’épuisement…)
7. La direction accorde
beaucoup d’importance à la
comparaison et à l’imitation : ❒0 ❒1 ❒2 ❒3
veille, benchmarking, partage
de bonnes pratiques…
8. Dans l’entreprise, on ne parle
que d’efficacité opérationnelle et ❒0 ❒1 ❒2 ❒3
d’amélioration continue.
9. Jamais nous ne faisons
volontairement moins bien que
les concurrents, dans certains ❒0 ❒1 ❒2 ❒3
domaines ou sur certains
crItères de performance

2. Ordre de l’organisation
Indices de présence de structures en surpoids

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
10. Les gens se plaignent de la
multiplication des procédures,
❒0 ❒1 ❒2 ❒3
des manuels, des fiches
techniques, etc.
11. Les salariés passent du
temps en formation sans qu’on ❒0 ❒1 ❒2 ❒3
en voie les bénéfices
12. Les managers estiment
❒0 ❒1 ❒2 ❒3
passer trop de temps en réunion
13. On a pris de nombreuses
décisions pour répondre aux ❒0 ❒1 ❒2 ❒3
dysfonctionnements

Indices de présence du surtravail de contrôle

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
14. Les individus dont on
cherche à contrôler l’activité
❒0 ❒1 ❒2 ❒3
renseignent eux-mêmes les
outils de reporting
15. Beaucoup estiment que les
chiffres produits par l’appareil ❒0 ❒1 ❒2 ❒3
de contrôle ne sont pas parlants
16. Les tableaux de bord
contiennent de nombreux ❒0 ❒1 ❒2 ❒3
indicateurs d’effort
17. Les tableaux de bord
permettent rarement de tirer des ❒0 ❒1 ❒2 ❒3
conclusions claires
Indices permettant de reconnaître un resserrement du contrôle qui donnera lieu
à relâchement

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
18. Les nouveaux outils de
contrôle ciblent des problèmes ❒0 ❒1 ❒2 ❒3
de gestion endémiques
19. Le resserrement du contrôle
❒0 ❒1 ❒2 ❒3
donnera du travail aux contrôlés
20. Les nouveaux outils de
contrôle contiendront beaucoup ❒0 ❒1 ❒2 ❒3
d’indicateurs d’effort

Indices permettant de reconnaître un relâchement du contrôle qui donnera lieu


à resserrement

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
21. Lorsque les outils de
contrôle auront disparu, la
direction dépendra de plusieurs
❒0 ❒1 ❒2 ❒3
couches hiérarchiques pour
obtenir des informations de
terrain
22. Lorsque les outils de
contrôle auront disparu, la
direction sera incapable de ❒0 ❒1 ❒2 ❒3
comparer les résultats des
différentes entités de production
23. Le relâchement du contrôle
fait disparaître des indicateurs ❒0 ❒1 ❒2 ❒3
qui sont faciles à produire
La grille permet d’établir un score compris entre 0 et 9. Un score élevé signifie que les
probabilités de resserrement après relâchement sont élevées.
Détection des conditions organisationnelles favorables au développement des pratiques
de soutien (antidote au mouvement de balancier relâchement-resserrement du contrôle)

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
24. La hiérarchie/les contrôleurs
sont proches du terrain, soit
❒0 ❒1 ❒2 ❒3
physiquement, soit
intellectuellement
25. L’activité de production
amène la hiérarchie à travailler
❒0 ❒1 ❒2 ❒3
avec les équipes (sur des
dossiers, sur des projets…)
26. Le travail des opérateurs de
production exige un
❒0 ❒1 ❒2 ❒3
apprentissage que la hiérarchie
de proximité peut faciliter
27. La hiérarchie/ les
contrôleurs ont des ressources
à apporter aux opérateurs de
production (des informations, ❒0 ❒1 ❒2 ❒3
des connaissances et
compétences, des accès à
l’environnement, des outils…)
La grille permet d’établir un score compris entre 0 et 12. Un score élevé signifie que
l’organisation offre un terrain propice aux pratiques de soutien.

3. Ordre de la conduite du changement


Évaluation des probabilités d’échec de la centralisation

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
28. La fonction centralisée
fait/fera face à des situations
❒0 ❒1 ❒2 ❒3
extrêmement diverses/ à des
pratiques très hétérogènes
29. La fonction centralisée
sert/servira des clients internes
qui ont des poids très différents ❒0 ❒1 ❒2 ❒3
dans le chiffre d’affaires de
l’entreprise
30. Certains clients ont besoin
❒0 ❒1 ❒2 ❒3
d’une grande réactivité
31. Certains clients internes
évoluent encore dans leur
❒0 ❒1 ❒2 ❒3
pratique, tandis que d’autres ont
des pratiques stabilisées

Évaluation des probabilités d’échec de l’externalisation

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
32. L’activité que l’on songe à
externaliser est une production
❒0 ❒1 ❒2 ❒3
dont le déroulement est
imprévisible
33. L’activité que l’on songe à
externaliser doit accoucher d’un ❒0 ❒1 ❒2 ❒3
produit complexe
34. L’activité que l’on songe à
❒0 ❒1 ❒2 ❒3
externaliser est innovante
34. L’activité que l’on songe à
externaliser est mal codifiée et ❒0 ❒1 ❒2 ❒3
difficilement mesurable
36. Dans l’activité que l’on
songe à externaliser, il est
❒0 ❒1 ❒2 ❒3
difficile de changer de
fournisseur
Évaluation des probabilités d’échec de la montée en polyvalence

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
37. Avant de répondre aux
questions suivantes, nous
avons comparé le
❒3 ❒2 ❒1 ❒0
fonctionnement de notre
organisation à des
environnements comparables
38. Les tâches que nous
souhaitons confier à un même
❒0 ❒1 ❒2 ❒3
individu exigent des
compétences différentes
39. La polyvalence demande
d’être en plusieurs endroits en ❒0 ❒1 ❒2 ❒3
même temps

Évaluation des probabilités d’échec d’une structure matricielle

Pas
Plutôt pas Plutôt Tout à fait
du tout
d’accord d’accord d’accord
d’accord
40. Les objectifs des
fournisseurs internes (métiers
❒0 ❒1 ❒2 ❒3
ou lignes produits) et des clients
internes sont divergents
41. Les points d’arbitrage sont
très éloignés des lieux de ❒0 ❒1 ❒2 ❒3
production

4. Potentiel de gain de temps


par la restructuration
Indices de présence du surtravail de correction (et donc d’un potentiel de gain)

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
42. En production on passe
beaucoup de temps à revenir ❒0 ❒1 ❒2 ❒3
sur ce qui a déjà été fait
43. Les fonctions de la chaîne
de production se plaignent
❒0 ❒1 ❒2 ❒3
continuellement les unes des
autres
44. Les acteurs qui participent
aux grands projets sont très ❒0 ❒1 ❒2 ❒3
éloignés les uns des autres
45. On met toujours trop de
temps à prendre ou à obtenir
❒0 ❒1 ❒2 ❒3
des décisions quand on doit
faire des choix
46. On manque de gens
expérimentés dans les grands ❒0 ❒1 ❒2 ❒3
projets
47. L’organisation de la
❒0 ❒1 ❒2 ❒3
production est très fragmentée
48. Les acteurs qui
interviennent en amont dans les
projets ont tendance à travailler ❒0 ❒1 ❒2 ❒3
comme s’ils filaient une patate
chaude aux acteurs en aval

5. Présence de sous-travail
Indices de présence de sous-travail

Pas du tout Plutôt pas Plutôt Tout à fait


d’accord d’accord d’accord d’accord
49. Il y a une partie de l’activité
❒0 ❒1 ❒2 ❒3
que le client ne voit pas
50. Les clients peuvent
difficilement évaluer nos
❒0 ❒1 ❒2 ❒3
résultats (ex. : les qualités du
produit)
51. Les clients peuvent
❒0 ❒1 ❒2 ❒3
difficilement évaluer nos efforts
Remerciements

J’adresse mes premiers remerciements aux membres du Centre de


sociologie des organisations (Sciences Po/CNRS), qui m’ont accueilli et
m’ont fait grandir pendant des années. Chapitre après chapitre, ils
reconnaîtront leur empreinte. Je pense en particulier à Erhard Friedberg, qui
a dirigé ma thèse de doctorat, il y a vingt ans de cela, et m’a appris le sens
du mot « discipline » dans l’expression « discipline scientifique ». Sans son
enseignement, je n’aurais été capable d’écrire ni ce livre, ni le précédent,
publié en 2010 aux Éditions Odile Jacob. Je pense ensuite à Henri
Bergeron, qui dirige aujourd’hui le master « Organisation et ressources
humaines » de Sciences Po, et qui m’a offert de son temps en lisant une
version intermédiaire de mon manuscrit. Je pense enfin à ceux qui
promeuvent l’analyse sociologique des organisations dans le monde du
conseil, parmi lesquels François Dupuy et Yves Morieux.
Je remercie aussi les consultants du Groupe Human & Work Project, qui
m’ont accompagné durant les missions dont est tirée la majorité des cas
d’étude.
Mes dernières pensées vont aux quelques personnes qui m’ont rappelé
les préoccupations et les attentes des lecteurs que j’espère convaincre. Il y a
bien entendu mon éditrice, Gaëlle Jullien, dont les doutes et les
encouragements m’ont fait progresser. Et puis Éric Sauvage, ancien
consultant et dirigeant d’une très grande entreprise française, dont j’ai
retenu les remarques.
Je terminerai par une dédicace spéciale à celle qui a posé son regard
pragmatique sur toutes les versions intemédiaires et qui a accepté que j’aie
un peu trop souvent l’esprit « dans mon bouquin » : Clothilde Van
Lerberghe, spécialiste de l’accompagnement humain de transformation.
DU MÊME AUTEUR
CHEZ ODILE JACOB

Au-delà de la souffrance au travail. Clés pour un autre management, 2010.


Inscrivez-vous à notre newsletter !

Vous serez ainsi régulièrement informé(e)


de nos nouvelles parutions et de nos actualités :

https://www.odilejacob.fr/newsletter
TABLE

Introduction

Partie I - Stratégie

Chapitre 1 - Le verrouillage stratégique

Une succession d'initiatives pour revenir au point de départ


Le jeu des intérêts particuliers

Jeu des intérêts et perte de la capacité d'adaptation au marché

Un outil pour détecter la présence d'un verrou stratégique

Une méthode pour faire sauter le verrou


Voie n° 1 : modifier les contraintes des acteurs

Voie n° 2 : dresser un voile d'ignorance

Chapitre 2 - Une course sans fin


Du travail en réponse aux contraintes de l'environnement

L'alignement concurrentiel

On a les concurrents qu'on se donne

Un outil pour détecter le surtravail par alignement concurrentiel

Le salut par l'abandon : la focalisation stratégique


Le souci du détail

Pour une culture du refus

Le management de la frustration
Chapitre 3 - La nécessité d'un sous-travail

L'absence de sous-travail comme problème

Quand le sous-travail compense le surtravail

La véritable erreur des discount brokers

Un levier stratégique : le choix de type make or buy


Un levier organisationnel à actionner avec modération : rester chez soi

D'autres leviers pour garder le contact avec le client

Partie II - Organisation

Chapitre 4 - L'alourdissement des structures

Le goût de la complication
De grandes organisations menacées par la lourdeur des structures

Des petites organisations qui ne sont pas épargnées

L'impasse des diagnostics d'insuffisance

Un outil pour détecter le surtravail par alourdissement des structures

Une méthode pour mettre au jour le problème central

Tous complices de l'alourdissement des structures

Chapitre 5 - Le poids du contrôle

Le contrôle, une activité coûteuse

Le sabotage du contrôle
Le désamorçage et l'inflation du contrôle
La méthode douce pour réduire le surtravail de contrôle

La méthode radicale : la libération d'entreprise

Chapitre 6 - L'impossible libération

L'énigme du contrôle
La raison d'être du contrôle

Un mouvement de balancier coûteux


Un outil pour anticiper le mouvement de balancier entre resserrement et relâchement
du contrôle

Le soutien, une méthode pour contrôler sans en avoir l'air


Organiser le soutien hiérarchique
Implications pour le recrutement des managers
Implications pour la localisation des managers

Élargir la perspective à tout rapport entre contrôleurs et contrôlés


Un outil pour détecter les conditions organisationnelles favorables aux pratiques de soutien

Partie III - Changement


Chapitre 7 - Les changements voués à l'échec

Deux critères pour reconnaître les centralisations vouées à l'échec


Critère n° 1 : la diversité du réel

Critère n° 2 : les écarts de maturité entre les activités servies par la fonction centrale
Trois critères pour reconnaître les externalisations vouées à l'échec

Critère n° 1 : le degré d'incertitude

Critère n° 2 : la difficulté d'évaluation de l'efficacité et des efforts du fournisseur


Critère n° 3 : le degré de spécificité de la production

Deux critères pour reconnaître les montées en polyvalence vouées à l'échec


Critère n° 1 : la hauteur des barrières techniques

Critère n° 2 : la nécessité d'être à plusieurs endroits en même temps

Deux critères pour reconnaître les structures matricielles vouées à l'échec

Critère n° 1 : la divergence entre les objectifs des différents acteurs


Critère n° 2 : l'éloignement des points d'arbitrage
Chapitre 8 - La foi aveugle en l'organigramme

Comment la foi en l'organigramme détruit de la valeur

Comment la foi en l'organigramme tue l'organigramme

L'objet du changement : l'organisation profonde


Chapitre 9 - Des millions de microchangements économisables

Une usine dans l'ornière


Une réunion gravée dans les mémoires

D'amont en aval, une succession d'écarts entre attentes et réalisations


L'enjeu d'efficacité des interfaces amont-aval

Propriété organisationnelle n° 1 : la proximité


Propriété organisationnelle n° 2 : la vitesse d'arbitrage

Propriété organisationnelle n° 3 : la stabilité des individus clés


Propriété organisationnelle n° 4 : un nombre d'interfaces réduit

Propriété organisationnelle n° 5 : des liens d'interdépendance équilibrés

Chapitre 10 - L'entreprise libérée du surtravail


La (re)connexion des managers et dirigeants au terrain

Le partage des contraintes

La participation des cadres intermédiaires au changement

La pratique du refus

Conclusion

Grille de prédiagnostic du surtravail

Remerciements

Du même auteur chez Odile Jacob


1. Bergeaud A., Cette G., Lecat R. (2016), « Productivity trends in advanced countries between
1890 and 2012 », Review of Income and Wealth, 62 (3), p. 420-444.
2. Ce qu’on peut traduire par : l’âge de l’informatique est partout sauf dans les statistiques de la
productivité. Robert Solow, « We’d better watch out », New York Times Book Review, 1987.
3. Askenazy P., « Sur les sources de l’intensification », Revue économique, 2005/2, vol. 56,
p. 217-238.
4. Je fais référence ici à la théorie de la valeur qui est au fondement de toute la microéconomie
contemporaine, celle héritée du « courant marginaliste », celle retenue par les premiers
économistes dits « néoclassiques », tels Jevons, Menger ou Walras.
5. Le terme « surtravail » a été utilisé récemment dans un ouvrage important à mes yeux, Smart
Simplicity. Six règles pour gérer la complexité sans devenir compliqué, écrit par Yves Morieux
et Peter Tollman (Manitoba/Les Belles Lettres, 2016). De façon plus ou moins explicite, les
deux auteurs partagent cette définition du surtravail comme non créateur de valeur.
Si vous avez le goût des sciences sociales et des mots techniques, vous noterez que cette
acception diffère de sa première définition, que nous devons à Marx. Pour ce dernier, le
surtravail désigne la dépense d’énergie qui est non strictement nécessaire à la « reproduction des
forces de travail », et dont les détenteurs du capital tirent leur plus-value. La reproduction des
forces de travail recouvre l’alimentation, le logement et l’habillement des travailleurs. Cette
autre définition du surtravail était solidaire d’une théorie de la valeur qui a perdu la bataille des
idées en sciences économiques face au courant marginaliste. La théorie que Marx partageait
avec les auteurs dits « classiques », dont Adam Smith, posait que la valeur d’une marchandise
correspondait peu ou prou à la quantité de travail incorporé dans la matière transformée. Cela
revenait à dire que la valeur est une propriété intrinsèque de la marchandise. Dans le cadre
néoclassique, la valeur est une perception de la marchandise par l’acheteur potentiel, ce qui en
fait une propriété extrinsèque.
1. On en trouvera un bon panorama dans Friedberg E., Le Pouvoir et la Règle, Seuil, 1993.
2. Hickson D. J., Butler R. J., Wilson D. C. (dir.), The Bradford Studies of Strategic Decision
Making, Routledge, 2017.
3. En cela, leur mode de raisonnement relevait de ce qu’en théorie de la décision on nomme
« technologie floue ». Les connaisseurs retrouveront dans cette section quelques éléments du
« modèle de la poubelle » ; Cohen M. D., March J. G., Olsen J. P., « A garbage can model of
organizational choice », Administrative Science Quarterly, 1972, 17 (1), p. 1-25.
4. En ce sens, il est affaire de politique. Cf. Fligstein N., « Markets as politics : A political-
cultural approach to market institutions », American Sociological Review, 1996, 61 (4), p. 656-
673.
5. Johnson G., Strategic Change and the Management Process, Basil Blackwell, 1987.
6. Cochoy F., Une histoire du marketing. Discipliner l’économie de marché, La Découverte,
1999.
7. Callon M., Meadel C., Rabeharisoa V., « L’économie des qualités », Revue Politix, 2000, 52,
p. 211-239.
8. Tirmarche O., Le Discount Brokerage. Un modèle économique génétiquement mort-né, thèse
pour le doctorat de sociologie de l’IEP Paris, 2004.
1. Ou plutôt le « produit net bancaire ».
2. Je ne peux divulguer les résultats détaillés des évaluations spécifiques à cette banque, car ces
dernières ont été conduites dans un cadre privé. Je me permettrai tout juste de signaler que là où
en moyenne 25 % des salariés français présentent un niveau de stress entraînant un risque pour
la santé, les taux étaient au minimum de 30 % dans la banque, et atteignait 40 % dans certaines
régions, ce que je n’ai observé que dans les environnements les plus rudes.
3. Les produits nets et les résultats des banques sont surveillés et publiés régulièrement par les
instances de régulation : conseil de stabilité financière du G20, banques centrales, autorités de
tutelle… Pour une rapide synthèse de ces chiffres, voir par exemple :
https://ww.culturebanque.com/banques/classement/banques-francaises/.
4. Porter M., « What is strategy », Harvard Business Review, novembre-décembre 1996.
5. Telle que je l’utilise ici, la notion de focalisation s’avère plus large que la stratégie générique
du même nom, que Michael Porter plaçait aux côtés des stratégies de domination par les coûts et
de différenciation, dans son célèbre ouvrage Competitive Strategy paru en 1980 (The Free
Press). À cette époque, la stratégie de focalisation était définie comme consistant à s’adresser à
un segment de clientèle restreint. Dans l’article publié en 1996 par la Harvard Business Review,
« What is strategy ? », Michael Porter a lui-même délaissé la distinction entre les trois stratégies
génériques, au profit de la distinction entre positionnement stratégique et efficacité
opérationnelle. Le raisonnement qu’il expose dans cet article invite à considérer la focalisation
comme une concentration des efforts au service d’une proposition de valeur unique et comme
une caractéristique essentielle d’un bon positionnement stratégique. La focalisation en vient à
désigner une somme de choix, de renoncements, d’arbitrages. La sélection étroite de cibles,
auparavant considérée comme spécifique et distinctive de la stratégie de focalisation, devient
alors une modalité de focalisation parmi d’autres, et le prix, un critère de différenciation parmi
d’autres. La focalisation n’est plus une alternative à la différenciation ou à la domination par les
coûts, mais le moyen de faire durablement la différence, éventuellement par les coûts. Cela
revient à dire que la focalisation n’est pas une stratégie parmi d’autres, c’est l’essence même de
la stratégie, ce qui la distingue de l’efficacité opérationnelle.
6. Chan Kim W., Mauborgne R., Stratégie Océan Bleu, Pearson, 2010.
7. Freiberg K., Freiberg J., Nuts ! Southwest Airlines’ Crazy Recipe for Business and Personal
Success, Bard Press, 1996.
8. Jones L., Easyjet, the Story of Britain’s Biggest Low-Cost Airline, Aurum, 2006.
9. Simon H., Guinchard S., Les Champions caché du XXIe siècle, Economica, 2012.
10. Thiel P., De zéro à un, J.-C. Lattès, 2016.
11. R. M. Cyert, J. G. March, A Behavioral Theory of the Firm, Carnegie Institute of
Technology, 1963.
12. Bartlett C. A., Nanda A., « Ingvar Kamprad and Ikea », Harvard Business Review,
mai 1990.
13. Il va de soi que je ne suis pas le premier à pousser cet argument. À vrai dire, c’est une
hypothèse qu’on pouvait poser dès les travaux des pères fondateurs de la théorie de la décision :
James March, Richard Cyert, Johan Olsen, Herbert Simon, etc. L’hypothèse a été rapidement
étayée et fit consensus dès les années 1980. Voir par exemple Cyert R. M., Williams J. R.,
Strategic Management Journal, numéro spécial Organizations, Decision Making and Strategy,
1993, 14.
14. Lashinky A., Inside Apple, Dunod, 2013.
15. Cariou A.-M., Chaperon A.-F., Duchesne N., L’Affirmation de soi par le jeu de rôle,
Dunod, 2014.
16. Je dois à nouveau cet exemple à Michael Porter.
1. Tirmarche O., Le Discount Brokerage. Un modèle économique génétiquement mort-né, op.
cit.
2. Shapiro S., « The social control of impersonal trust », American Journal of Sociology, 1987,
93 (3), p. 623-658.
3. White H. C., « Where do markets come from ? », American Journal of Sociology, 1981, 87
(3), p. 517-547.
1. Friedberg, E., Le Pouvoir et la Règle, op. cit.
2. Cette propriété des outils de gestion et de production est moins connue. On doit sa
découverte à l’anthropologie cognitive, et notamment aux travaux de Hutchins ; Hutchins E.,
Cognition in the Wild, MIT Press, 1995.
3. Morieux Y., Tollman P., Smart Simplicity, op. cit.
4. Les indicateurs de performance agrégés dans l’indice de complexité portent sur la rapidité, la
qualité, la productivité, etc. Les auteurs relèvent que, entre 1955 et 2010, sur la base d’un
échantillon représentatif d’entreprises américaines et européennes, l’indice de complexité est
passé d’une fourchette de 4 à 7 à une fourchette de 25 à 40.
5. Morieux Y., Tollman P., Smart Simplicity, op.cit.
6. Pour un propos spécifique à la théorie des organisations, voir Crozier M., Friedberg E.,
L’Acteur et le Système, Seuil, 1977 ; pour un propos plus général, voir Boudon R., Raisons,
bonnes raisons, PUF, 2002.
7. Simon H., Models of Man : Social and Rational, Wiley, 1957.
8. Friedberg E., L’Analyse sociologique des organisations, L’Harmattan, 1987.
9. Paulhus D. L., « Socially desirable responding : The evolution of a construct », in Braun H.,
Jackson D. N., Wiley D. E. (dir.), The Role of Constructs in Psychological and Educational
Measurement, Erlbaum, 2002, p. 67-88.
10. Loewenstein G., Elster J., Choice Over Time, Russel Sage, 1992.
11. Gary Klein, cité dans Kahneman D., Système 1/Système 2, Flammarion, 2016.
12. Getz I., Carney B. M., Freedom Inc., Crown Business, 2009 ; trad. fr. Liberté & Cie,
Flammarion, 2016.
1. Gomez P.-Y., Le Travail invisible, François Bourin, 2013.
2. Cour de cassation, arrêt du 10 juin 2008.
3. Getz I., Carney B. M., Liberté & Cie, op. cit.
4. La thèse intitulée Fragile contrôle. Approche sociologique des efforts de contrôle, soutenue
en 2004 par Michel Devigne, à l’IEP de Paris, fournit une magnifique illustration du phénomène
de sabotage.
5. Moullet M., Le Management clandestin, InterÉditions, 1992.
6. Kaplan R. S., Norton D. P., The Balanced Scorecard. Translating Strategy Into Action,
Harvard Business School Press, 1996.
7. Getz I., Carney B. M., Liberté & Cie, op. cit.
8. Edward L., Deci E. L., Ryan R. M., Handbook of Self-Determination Research, University of
Rochester Press, 2002.
1. Getz I., Carney B. M., Liberté & Cie, op. cit., p. 73.
2. Olson M., Logic of Collective Action, Harvard University Press, 1965.
3. Friedberg E., L’Analyse sociologique des organisations, op. cit.
4. Williamson O., The Economic Institutions of Capitalism, Free Press, 1985.
5. Les partisans de la libération d’entreprise argueront que les économistes et les sociologues
qui brandissent la menace d’opportunisme donnent une image sombre et irréaliste de la nature
humaine. Il m’est difficile de répondre à cet argument sans faire un détour par des débats
techniques qui ont agité les sciences sociales pendant plus de vingt ans. Pour faire simple, je
dirais que l’opportunisme n’est ni une caractéristique du genre humain, ni une description
d’individus qui manqueraient particulièrement de morale, mais un certain type de
comportement, qu’on rencontre plus souvent dans certains contextes que dans d’autres,
notamment dans les espaces entourés d’opacité. Sur ce point, voir Williamson O. E.,
« Economics and organization : A primer », California Management Review, 1996, 38 (2),
p. 131-146. À cette première réponse, les critiques du « management des 3 % » répondront à
leur tour que les comportements opportunistes sont ultraminoritaires et ne méritent pas qu’on
construise une lourde structure de contrôle et d’incitation. Ce nouvel argument est contestable
sous deux angles. D’abord, les inventeurs de l’expression « management des 3 % » ne
considèrent pas vraiment le contrôle en général, mais plutôt une forme particulière de contrôle :
le contrôle de conformité aux règles. Ensuite et surtout, leurs constats d’une minorité des
comportements opportunistes sont établis dans des contextes où un contrôle subsiste.
6. Encore une fois, Morieux et Tollman m’ont précédé dans l’usage de cette expression (Smart
Simplicity, op. cit.).
7. Cette observation était déjà contenue dans la thèse de Michel Devigne, citée plus tôt dans ce
chapitre. Quelques années auparavant, la même observation était livrée dans une étude portant
sur les relations interorganisationnelles, conduite par un autre sociologue. Cf. Neuville J.-P.,
« La tentation opportuniste : figures et dynamique de la coopération interindividuelle dans le
partenariat industriel », Revue française de sociologie, 1998, 39 (1), p. 71-103.
8. Ces quatre maîtrises résument selon Michel Crozier et Erhard Friedberg les sources de
pouvoir au sein d’une organisation ; cf. L’Acteur et le Système, op. cit.
1. Le lecteur féru de sciences économiques reconnaîtra dans ces critères les bases de la théorie
des coûts de transaction.
2. « La face cachée de l’externalisation des projets de développement et tests d’applications »,
étude MicroFocus, novembre 2013.
3. Bruno Trévidic, « Boeing revient sur sa stratégie d’externalisation à outrance », Les Échos,
3 juillet 2009.
4. C’est le problème de l’« aléa moral ». Le modèle principal-agent insiste davantage sur les
doutes de celui qui confie les tâches (le principal) que sur les doutes de celui qui accomplit les
tâches (l’agent). Nous verrons dans le chapitre 8 que l’« agent » a aussi de bonnes raisons de
douter.
5. Kotter John, « Leading change : Why transformation efforts fail », Harvard Business Review,
1995.
6. Isern J., Pung C., « Organizing for successful change management : A McKinsey global
survey », The McKinsey Quarterly, 2006.
1. Dujarier M.-A., Le Management désincarné, La Découverte, 2015 ; Dupuy F., Lost in
Management, Seuil, 2011 et La Faillite de la pensée managériale, Seuil, 2015 ; Gomez P.-Y., Le
Travail invisible, op. cit.
2. Gomez P.-Y., Le Travail invisible, op. cit.
3. Crozier M., Le Phénomène bureaucratique, Seuil, 1971.
4. Cariou A.-M., Chaperon A.-F., Duchesne N., L’Affirmation de soi par le jeu de rôle, op. cit.
5. www.cso.edu.
1. Par souci de simplification, pour l’instant je ne traiterai pas différemment les erreurs répétées
par un seul et même individu et les erreurs répétées par un groupe dans son ensemble.
2. March J. G., Simon H. A., Organizations, Wiley, 1958 ; March J. G., « Bounded rationality,
ambiguity, and the engineering of choice », Bell Journal of Economics, 1978 (9), p. 587-608.
3. Beck K. et al., Manifesto for Agile Software Development, 2001, http://agilemanifesto.org/.
4. Berger S., Made in monde. Les nouvelles frontières de l’économie mondiale, Seuil, 2006.
5. Burt R. S., Structural Holes : The Social Structure of Competition, Harvard University Press,
1995.
6. Karasek R.-A., « Job demands, job decision latitude, and mental strain : Implications for job
redesign », Administrative Science Quarterly, 1979, 24, p. 285-308.
7. Légeron P., Le Stress au travail, Odile Jacob, 2001.
8. Tirmarche O., Au-delà de la souffrance au travail. Clés pour un autre management, Odile
Jacob, 2010.
1. Jullien F., Un sage est sans idée, Seuil, 1998.

Vous aimerez peut-être aussi