Vous êtes sur la page 1sur 67

Introduction

1 L e contrôle de gestion est né à la fois d'un environnement qui l'a rendu


nécessaire ou utile et d'outils, disponibles, qui l'ont rendu possible.
L'apparition de cette discipline s'inscrit donc dans une évolution du monde
technique, économique et social dont on peut très schématiquement retenir
les quelques repères qui figurent dans l'encadré page suivante. Ces repères
sont bien sûr discutables dans la mesure où ils impliquent des choix, c'est-
à-dire le renoncement à citer d'autres auteurs ou praticiens de génie dont
l'apport a pu aussi être significatif. Mais peut-on les citer tous ?
2Ces repères historiques sont évidemment contestables et de nombreuses
polémiques existent quant à l'antériorité de telle pratique, dans tel pays, par
rapport à des pratiques comparables observées dans un pays voisin. Il n'y a
pas à proprement parler de découvertes en sciences de gestion, mais des
prises de conscience conduisant à une évolution des pratiques auxquelles
les recherches et les théories donnent du sens. La gestion s'invente dans
l'action un peu comme le potier qui conçoit son ouvrage tout en le réalisant
selon l'image de Mintzberg [1990]  [*][*]Les références entre crochets
renvoient à la bibliographie en…. De plus, avoir mis au point un outil ne
signifie nullement que l'on ait pu l'exploiter pleinement. Ces dates illustrent
simplement :
3–que le développement des outils qui accompagne les transformations de
l'industrie entre les deux guerres a été particulièrement rapide ;
4–que les innovations postérieures à la Seconde Guerre mondiale sont
souvent le fait de chercheurs en sciences de gestion ou se sont développées
avec leur concours actif. L'artisan de génie laisse donc, ici comme ailleurs,
place à des équipes aux profils variés capables de mettre en uvre des
démarches scientifiques ;
Genèse du contrôle de gestion

1. L'apparition du management scientifique


1853-1915 Frederick W. Taylor introduit la notion de norme dont découle
l'idée de la mesure des écarts et de la gestion par les exceptions. La
surveillance à distance par les chiffres se substitue, en tout cas
partiellement, à la surveillance directe par les chefs. Enfin, Taylor essaie de
réconcilier l'intérêt individuel des travailleurs avec l'intérêt collectif de
l'entreprise grâce à des systèmes de primes.
1903 Le point mort fait son apparition dans le calcul économique aux
États-Unis.
1909 Louis Renault applique les principes tayloriens dans un atelier
d'outillage de 150 ouvriers, mais abandonne vers 1912 à cause de la hausse
des frais généraux (ou coûts de structure) que cela entraîne.

2. L'apparition des grandes structures conglomérales


1910 Le raisonnement en coût variable apparaît, toujours aux États-Unis.
1912 Du Pont introduit le concept de return on investment (ROI) ; il
existait déjà sous une forme moins systématique en France au début
du XIXe siècle chez Saint-Gobain.
1915 Henry L. Gantt propose un traitement des charges de structure qui
deviendra l'imputation rationnelle des charges fixes. Ce travail sera repris
par Émile Rimailho en 1928.
1920 General Motors (GM) adopte une structure par divisions.
1921 Du Pont, très lié à GM, adopte à son tour une structure par divisions
débouchant sur des centres de profit. On apporte ainsi une réponse
satisfaisante au besoin paradoxal et simultané d'autonomie et de synergie
ou de décentralisation accompagnée d'une recentralisation. Les cadres de
ces entreprises découvrent les pressions résultant d'une injonction
paradoxale du type : « Je vous donne l'ordre d'être autonomes et
responsables. »
1923 GM mensualise les budgets commerciaux et introduit les budgets
flexibles.
1924-1925 GM accélère la remontée des informations (l'état des
commandes et des stocks remonte tous les dix jours) et améliore ses
procédures de prévision (les écarts mensuels passent à moins de 1 %).
1932 Alsthom adopte une structure par divisions.
1935 Saint-Gobain fait de même.

3. La croissance et le plein emploi


1954 Abraham Maslow se rend célèbre par sa pyramide des besoins.
1960 Douglas Mc Gregor publie sa fameuse théorie Y.
1965 Robert Anthony, de la Harvard Business School, formalise les liens
entre contrôle et stratégie.

4. La mondialisation de la concurrence et la crise


1980 Début de la littérature sur la qualité reprenant les expériences
japonaises.
1983 Michel Berry souligne la force des technologies invisibles, c'est-à-
dire des outils de gestion par opposition aux machines.
1987 Publication des travaux de Thomas Johnson et Robert Kaplan
critiquant les pratiques de comptabilité de gestion des entreprises
américaines et reconstruction du modèle comptable sur la base des coûts
d'activité.
1992 Robert Kaplan et David Norton remettent à l'honneur le tableau de
bord sous le nom de Balanced score card.
5–que les innovations du début du siècle ont porté avant tout sur des outils
relatifs à l'organisation du travail et de la production ou au système
d'information alors que par la suite la littérature s'est faite plus attentive
aux problèmes de comportement.
6Cette présentation qui laisse la place belle aux « grands hommes » ignore
qu'au fil du temps des évolutions technologiques, économiques et sociales,
de l'expérience acquise par les organisations, les outils se transforment : la
comptabilité industrielle est devenue analytique en quittant le domaine de
la seule industrie puis comptabilité de gestion dans la mesure où elle
alimente de nombreux domaines de la prise de décision. Le contrôle de
gestion a également évolué puisqu'il peut, en s'appliquant aussi bien à des
entreprises aux niveaux de complexité variés qu'à des organisations
publiques ou à des organismes sans but lucratif, englober beaucoup plus
que de simples comptes prévisionnels.
7Aujourd'hui, les auteurs et les praticiens voient généralement dans le
contrôle de gestion un système de régulation des comportements applicable
dans les organisations exerçant une activité économique. Il dépasse donc
largement le domaine de compétence du contrôleur de gestion et implique
très fortement les directeurs des ressources humaines, dont la mission
ayant la plus forte valeur ajoutée consiste précisément à mobiliser des
hommes en vue de réaliser certains objectifs. Il voisine également avec la
fonction organisation puisqu'il touche au découpage de l'entreprise et avec
la fonction de direction générale et ses stratégies car elle a des besoins
spécifiques d'information à satisfaire. Mais il suppose également un
engagement très fort de la direction générale et la collaboration de
l'ensemble des autres services. À défaut, le système d'information risque
d'être tellement « pollué » par différents effets pervers que son utilité sera
remise en cause.
8Le contrôle de gestion, comme l'ensemble des sciences de gestion, se
rattache au domaine des sciences humaines et sociales. Cette discipline ne
traite donc pas un objet qui s'offrirait objectivement à l'observateur, mais
une construction intellectuelle cherchant à décrire des pratiques tout en
essayant de prescrire des règles de comportement qui seraient meilleures
que d'autres. Elle est le produit du travail des chercheurs et des praticiens
qui projettent leurs conceptions, leur expérience et leurs préférences. Nous
n'échappons pas à cette règle de la prise en compte, souvent inconsciente,
de systèmes de valeurs non révélés propres à certains acteurs ou
observateurs.
9C'est pourquoi nous avons pensé indispensable de définir ce que nous
entendions par contrôle de gestion et de présenter les hypothèses qui sous-
tendent le modèle retenu (chap. I) avant d'aborder les outils classiques de
la discipline, c'est-à-dire les aspects techniques (chap. II). Pour prendre un
peu de recul, nous réfléchirons ensuite sur les limites techniques et
idéologiques du contrôle de gestion (chap. III) et les possibilités de son
dépassement (chap. IV).

N ous avons déjà qualifié le contrôle de gestion de système de régulation des


comportements. Cette définition est évidemment insuffisante car nos comportements sont
contrôlés, au sens de maîtrisés, par de nombreux moyens. La première section sera consacrée
à une réflexion sur la définition du contrôle de gestion. Dans une seconde section, nous
verrons que le modèle repose sur des hypothèses implicites tant en matière de prise de
décision que d'organisation.

Définition du contrôle de gestion

2Le contrôle de gestion peut se définir de façon positive en décrivant ce qu'il est, le cas
échéant en idéalisant un peu la pratique, ou de façon négative en l'opposant à d'autres
systèmes de régulation des comportements. Toutefois, cette opposition entre ce qu'est le
contrôle de gestion et ce qu'il n'est pas est à nuancer. C'est pourquoi nous mettrons la
définition positive en perspective grâce à quelques réflexions sur l'histoire du concept.

Définition positive du contrôle de gestion


3En premier lieu, le contrôle de gestion est un système de régulation des comportements de
l'homme dans le seul exercice de sa profession et, plus particulièrement, lorsque celle-ci
s'exerce dans le cadre d'une organisation : entreprise, service public, association sans but
lucratif, etc. Même s'il n'est conceptuellement pas impossible pour un entrepreneur individuel
de faire du contrôle de gestion, l'ensemble des techniques que recouvre ce terme suppose
généralement une formalisation des procédures trop coûteuse pour mériter d'être mise en
place dans une très petite structure. Le fait que la discipline s'intéresse aux seuls aspects
professionnels de l'activité humaine suppose qu'elle privilégie la rationalité économique. Dans
sa vie familiale, par exemple, l'homme peut utiliser certains des outils du contrôle de gestion
telles les techniques budgétaires ou comptables, mais les règles de décision relèvent pour tout
ou partie d'une autre logique. Le comportement de l'homme de la rue est hors de notre champ
d'observation.

4Le contrôle de gestion est un contrôle finalisé. L'autorité qui le met en place doit avoir des
objectifs qu'elle doit pouvoir et vouloir communiquer. Elle doit avoir une vision des
évolutions à moyen ou long terme et une volonté de cheminement. Bref, le contrôle de gestion
est au service d'une stratégie. La direction est une direction par objectifs (DPO) même si elle
ne respecte pas toutes les règles de cette technique qui s'est développée dans les années 1960.

5Le contrôle de gestion s'appuie sur un ensemble de techniques qui ont en commun de
concourir à un contrôle à distance des comportements, sur la base d'indicateurs quantifiés (en
unités monétaires ou physiques), dans une optique contractuelle ou plus exactement pseudo-
contractuelle car le lien de subordination demeure et brise l'autonomie de l'un des
contractants. L'échange se résume à un peu plus de liberté ou d'autonomie au prix d'un peu
plus de responsabilité. La délégation s'accompagne de l'obligation de rendre compte, de
rendre des comptes. Il y a un engagement préalable portant sur un résultat à atteindre, une
explicitation des modalités d'évaluation puis, a posteriori, l'évaluation ou la mesure de
performance (souvent qualifiée de postévaluation). Comme dans tout contrat, il peut y avoir
une dissymétrie de l'information et un rapport de force inégal. Même si l'échange des
consentements n'est pas toujours absolument... librement consenti, il y a une forme plus ou
moins parfaite d'échange. Cette économie contractuelle tend à faire d'un groupe une somme
de PME, valorisant ainsi l'esprit d'entreprise ou plus précisément la volonté d'entreprendre. La
mise sous tension n'est plus réservée aux commerciaux puisque dans l'entreprise chacun est à
la fois « fournisseur » et « client ». Ainsi, les services d'approvisionnement sont les clients des
fournisseurs et les « fournisseurs » des ateliers. Les ateliers sont « clients » de
l'approvisionnement et « fournisseurs » des services commerciaux. À chaque étape, il y a
comparaison avec des concurrents externes. Un management par l'autocontrôle se substitue au
management par la domination.

6Le contrôle de gestion est aussi un langage qui exerce un pouvoir sur ceux qui l'utilisent car
« une langue porte déjà en elle une vision du monde qu'adoptent nécessairement ceux qui la
parlent » [Rocher, 1970, p. 92]. Pour être efficace, ce langage « doit être à la fois
suffisamment naturel et suffisamment culturel » [Laufer et Paradeise, 1982, p. 81]. Dans notre
cas, il est naturel dans la mesure où il véhicule des normes externes à l'entreprise et culturel
quand il s'agit des valeurs produites dans l'entreprise. Une langue se compose d'une
sémantique (des mots, un vocabulaire) et d'une syntaxe (une grammaire, des règles de
combinaison). À travers les mots qu'il impose, le contrôle de gestion unifie les préoccupations
et les comportements, ce qui est d'autant plus important que le groupe est grand, diversifié
(variété des métiers et donc des cultures) et géographiquement éclaté. Si le contrôle de gestion
impose des mots, c'est parce que, selon l'image utilisée par Philippe Lorino, « un phare n'est
utile pour le navigateur que s'il est reconnaissable » [Lorino, 1995, p. 60] et permet de se
positionner. Les mots doivent donc avoir une signification concrète et univoque pour
permettre un contrôle des comportements des opérationnels. La syntaxe, c'est-à-dire, dans
notre cas, les modes de raisonnement, est également unifiée. Par exemple, les règles du calcul
financier (actualisation des flux, taux interne de rentabilité) obéissent à une logique
parfaitement définie, d'autant mieux définie qu'elle est externe à l'organisation. René-Victor
Pilhes [1980] montre bien le rôle du langage dans la construction de l'unité de pensée d'une
organisation dans son roman, L'Imprécateur, qui met en scène le fonctionnement d'une
multinationale. Il ironise en particulier beaucoup sur le vocabulaire anglo-saxon simpliste en
vigueur dans le milieu professionnel des gestionnaires.

7Tout n'est cependant pas aussi simple. « La fiction selon laquelle tous, au sein de
l'entreprise, parlent la même langue, n'est qu'une approximation plus ou moins acceptable (...).
L'uniformité syntaxique peut masquer une tour de Babel sémantique » [Pilhes, 1980, p. 67].
De plus, un langage n'échappe pas à des mécanismes de différenciation-unification
permanents. La langue française n'a pas échappé à ce phénomène puisqu'on a constamment
constaté qu'à côté des efforts d'unification (par la scolarisation, les médias, etc.) naissaient des
formes déclinées de la langue en fonction des particularismes régionaux, professionnels,
sociaux, etc. Dans l'entreprise, on trouve des indicateurs répercutés de façon à peu près
identique tout au long de la hiérarchie qui ont ces fonctions d'intégration à côté d'indicateurs
« au pied des machines » qui rendent compte de situations concrètes rencontrées par les
intéressés dans leur travail quotidien et servent à l'autocontrôle plus qu'à rendre des comptes.

8La définition du contrôle de gestion que nous venons de donner est-elle atemporelle ou
datée ? Y a-t-il une histoire du contrôle de gestion et une évolution de cette définition ?

La mise en perspective historique du contrôle de gestion


9Comme nous le verrons ci-dessous (p. 15), le contrôle de gestion n'est que l'un des modes
de contrôle des organisations et les frontières entre ces différentes formes de contrôle sont
floues, comportent de larges zones de recouvrement. De plus, l'idée même d'une histoire du
contrôle de gestion suppose que l'on puisse dater des changements. Or la chronologie que
nous avons donnée dans notre introduction ne doit pas conduire à des conclusions simplistes
car nous sommes dans un domaine où la notion d'invention ou de découverte n'a guère de
sens, à supposer qu'elle en ait dans d'autres domaines... Le contrôle de gestion est un langage
et les théoriciens du contrôle de gestion n'inventent pas, pas plus que le linguiste n'invente les
mots. Les mots nouveaux émergent de la pratique des locuteurs, et les théoriciens
interviennent comme des observateurs qui donnent un sens au changement, qui interprètent
les faits, qui rendent les choses intelligibles. Mais, inversement, et c'est ce qui fait la
complexité et la richesse de cette évolution, on ne peut pas considérer l'observateur comme
neutre. Il influence la réalité qu'il observe ; pour une part, il crée même cette réalité. Nous
sommes dans le cadre d'une relation dialectique entre connaissance et action ou représentation
et réel.

10La définition que nous avons donnée du contrôle de gestion ci-dessus laisse suffisamment
de degrés de liberté pour qu'il y ait une histoire du contrôle de gestion mais, en même temps,
elle limite cette histoire et la borne dans le temps. Le contrôle de gestion est donc
contemporain de certaines formes de production.

11Une autre difficulté tient au fait que l'histoire des outils de gestion n'est pas linéaire. Les
innovations ne sont pas apparues dans un ordre logique a posteriori, mais au gré d'un
foisonnement d'essais et d'erreurs qui traduisent le foisonnement de la vie. Toute référence
historique risque donc d'être critiquable dans la mesure où l'on peut toujours trouver un
exemple antérieur, un ancêtre de tel ou tel outil.

12Le contrôle des comportements est une activité aussi ancienne que la vie des hommes en
groupes organisés. Mais ici, il s'agit uniquement d'organisations obéissant à une rationalité
économique. De ce fait, les armées romaines ou les ordres religieux du Moyen Âge avaient
des objectifs qui les plaçaient en dehors du champ du contrôle de gestion. Il a donc fallu
attendre la constitution des grandes manufactures du XIXE siècle pour justifier l'émergence
de cette discipline qui suppose le recours à des techniques de gestion formalisées. Or ces
manufactures ne se sont développées que lorsque la maîtrise de l'énergie, plus précisément la
machine à vapeur, a permis des économies d'échelles conduisant à concentrer la production en
un même lieu. Inversement, on voit aujourd'hui le contrôle de gestion évoluer vers des formes
atrophiées dans des entreprises qui se délocalisent et ont un recours massif à la sous-traitance
pour variabiliser leurs charges ou profiter des faibles taux de salaires ou d'avantages fiscaux
dans certains pays. Il laisse alors la place au contrôle par le marché. L'augmentation des
transports et du nombre des transactions que cela engendre est rendue plus supportable grâce
aux gains de productivité énormes réalisés dans le domaines des télécommunications et des
transports.

13L'organisation doit être finalisée, c'est-à-dire avoir des objectifs et une stratégie articulée
sur ces objectifs et déclinée à différents niveaux. Cela suppose, dans certains cas,
des relations contractuelles entre les différents niveaux hiérarchiques et une délégation de
l'autorité car, à défaut, la finalisation peut rester parfaitement occulte. Il est compréhensible
que les entreprises aient évolué sur ce point, sous la pression des faits. En effet, dans le cas
d'une production standardisée avec un très faible niveau de variété, le degré d'implication
requis des différents salariés est très faible et la recherche opérationnelle fournit aisément
le one best way. Les exemples sont nombreux dans l'automobile avec notamment la Ford T
apparue en 1908 et qui était le modèle unique et sans options du constructeur. Plus près de
nous, il en était de même en France entre 1945 et 1965 pour Peugeot qui ne commercialisait
également qu'un seul modèle à la fois : les 203, 403 puis 404. On pouvait alors se passer de
contrôle de gestion, le contrôle direct par la hiérarchie étant suffisant. Aujourd'hui, la variété
extrême de la production (il existait au début des années 1990 près de 200 000 combinaisons
de toutes les couleurs et options possibles de l'AX Citroën et on dénombre en 2012 plus de
300 yaourts différents !) et la segmentation très fine du marché conduisent à abandonner par
nécessité la « planification centralisée » et à déléguer, ce qui ne peut aller sans finalités
partagées. Les premières expériences sur la motivation du personnel autrement que par des
primes sont imputées à l'école des relations humaines et aux expériences d'Elton Mayo à la
Western Electric à Hawthorne près de Chicago entre 1920 et 1930. Mais c'est plus
particulièrement après la Seconde Guerre mondiale que les phénomènes collectifs ont retenu
l'attention. Le terme de « comportement organisationnel » n'est apparu qu'au début des
années 1960.

14Le contrôle de gestion est aussi un contrôle à distance. Il suppose l'existence d'outils
d'information capables précisément de réduire l'obstacle de la distance. Ce fut le rôle de la
comptabilité industrielle apparue dans la première moitié du XXE siècle (cf. par exemple
Zimnovitch [1996]), devenue comptabilité analytique dans les années 1960 et enfin
comptabilité de gestion dans les années 1990 avec l'influence de la normalisation comptable
américaine (management accounting). Le transfert de technologie entre les États-Unis et la
France fut accéléré entre 1948 et 1951 avec les « missions de productivité » qui ont permis à
environ 3 000 experts français d'aller étudier outre-Atlantique les méthodes de gestion et,
entre autres, les budgets. Toutefois, le coût du traitement de l'information, largement manuel
jusqu'à la fin des années 1960, limitait le développement des systèmes d'information.

15Enfin, le contrôle de gestion, qui est un langage, porte la marque de l'histoire des mots. Le
marketing d'une idée ou d'un outil suppose un mot. Le concept de standard, pouvant désigner
aussi bien des unités physiques que des coûts, a structuré les outils de gestion autour de la
gestion de la production. Mais, très schématiquement, à partir de la fin des années cinquante
ou des années 1960, le marketing devient la préoccupation majeure dans de nombreux
secteurs d'activité. Les coûts partiels, le concept de contribution, de marge, de point mort se
développent. Ils ne sont pas « inventés » mais ils viennent au premier rang des préoccupations
des entreprises et des discours des consultants. Les années 1980 sont marquées par la menace
japonaise sur l'industrie américaine et européenne et la concurrence par la qualité. Le contrôle
de gestion se fait l'interprète de ces nouvelles priorités en intégrant la mesure de la qualité
dans les tableaux de bord, en révisant le mode de calcul du coût de la qualité grâce aux
« coûts cachés » qui déplacent les règles d'arbitrage entre coût et qualité, en intégrant le total
quality control (TQC). Toujours aussi schématiquement, on pourrait caractériser les années
1990 par l'importance des préoccupations financières et la mise en vedette du concept
de performance. Ce concept est plus large que celui de rentabilité et il inclut la mise sous
tension des services administratifs ou, plus généralement, fonctionnels qui doivent participer à
la création de valeur.

16Le contrôle de gestion a donc un caractère contingent important. Ces quelques éclairages
ont montré ses facultés d'adaptation. Pour autant, on ne peut en conclure que cet outil survivra
à toutes les évolutions techniques, économiques et sociales. Il est apparu dans un certain
contexte historique, le capitalisme industriel occidental, mais pourrait disparaître dans un
système qui saurait trouver d'autres modes de régulation. Mais, même dans ce contexte
favorable, il n'a jamais pu faire disparaître complètement d'autres modes de contrôle.

Le contrôle de gestion opposé à d'autres formes de contrôle


17Le contrôle de gestion n'est évidemment pas le seul mécanisme de contrôle des
comportements car, tout au moins dans sa forme héritée du taylorisme, il suppose que soient
réunies les quatre conditions suivantes [Hofstede, 1981, p. 193-211] :

18

 caractère non ambigu des objectifs ;


 possibilité de mesurer les résultats ;
 possibilité de prévoir les effets des actions correctives ;
 répétitivité de l'activité ou, au minimum, possibilité de capitaliser une expérience.

19Pour sa part, Philippe Lorino retient deux hypothèses principales qui fondent ce qu'il
appelle un paradigme de contrôle :

20

 une hypothèse de simplicité : le fonctionnement de l'entreprise, notamment du point de vue


de sa performance, est suffisamment simple et stable pour être modélisable de l'extérieur ;
 une hypothèse de stabilité : les lois auxquelles obéit l'organisation sont stables.

21La simplicité fonde la possibilité de décomposer (la performance globale est la somme des
performances locales) et la combinaison de la simplicité et de la stabilité fonde la certitude
[Lorino, 1991, p. 21].
22Ces différentes conditions étant rarement réunies, le contrôle de gestion coexiste avec bien
d'autres formes de contrôle des comportements que nous allons schématiquement détailler ci-
après afin d'en mieux comprendre le contexte.

23À la complexité du système contrôlé répond la complexité du dispositif de contrôle ou de


régulation. Le contrôle de gestion n'ayant pas la possibilité de saisir le réel dans toutes ses
dimensions, il faut organiser la complémentarité des systèmes de régulation des
comportements.

24Le contrôle par la hiérarchie. – C'est évidemment le premier mécanisme de régulation à


venir à l'esprit quand on considère l'homme dans son milieu professionnel. Il s'agit, selon la
terminologie actuellement en vigueur, d'un pilotage direct réduisant au maximum l'autonomie
formelle des acteurs. Il n'a pas que des aspects négatifs pour ces derniers dans la mesure où il
« remplace l'incertitude objective » (par exemple, celle du chef d'entreprise face aux réactions
du marché qu'il ne peut bien sûr pas connaître, mais seulement deviner, ou sur lesquelles il
peut faire des paris) « par une certitude subjective » (par exemple, la certitude d'avoir bien fait
en suivant scrupuleusement des directives venues de la hiérarchie sans avoir à se soucier du
fait que ces directives peuvent changer si la hiérarchie change) selon les expressions de
Martin Landau et Donald Chisholm [1992]. Bien utilisé, le contrôle par la hiérarchie apporte
un équilibre entre l'initiative individuelle, qui ne peut jamais totalement disparaître, et une
coordination évidemment nécessaire. Le contrôle de gestion ne se substitue pas complètement
au contrôle par la hiérarchie, mais vient en atténuer certaines caractéristiques. En effet, il
allège les contrôles a priori et permet une accélération des processus de prise de décision ainsi
qu'une meilleure motivation et responsabilisation des personnels.

25Le contrôle par le règlement et les procédures. – Il est caractéristique des organisations
bureaucratiques, correspond à un pilotage mécanique. Il s'impose dans certaines formes
d'organisations et notamment dans les services publics où la légitimité du pouvoir des
dirigeants, les élus en l'occurrence, a besoin de cette médiation du règlement qui « objective »
le jugement. Mais il existe aussi dans toutes les entreprises qui ont des procédures de contrôle
interne qui évitent aussi bien les erreurs que les tentations de fraude, et dont la bonne
application est vérifiée par le service d'audit interne. Les limites de ce mode de contrôle
tiennent au fait qu'il ne porte pas sur l'action elle-même « mais sur la procédure par laquelle
chaque acteur définit la substance de son action » [Lorino, 1995, p. 197] et tiennent à sa
rigidité, peu compatible avec la flexibilité requise par une concurrence active et une
mobilisation des capacités de création du personnel. Le règlement a d'autres qualités :

26- en formalisant le savoir-faire, il permet sa capitalisation dans l'organisation ;

27- en dépossédant les individus de l'exclusivité du savoir-faire, il permet des substitutions


dans le personnel et par conséquent, une certaine flexibilité.

28L'audit. – C'est l'une des formes de contrôle par le règlement les plus populaires depuis le
début des années 1960. « Nous définirons l'audit comme l'activité qui applique en toute
indépendance des procédures cohérentes et des normes d'examen en vue d'évaluer
l'adéquation et le fonctionnement de tout ou partie des opérations menées dans une
organisation par référence à des normes » [Becour et Bouquin, 1991, p. 11]. Il se décline sous
différentes formes : audit comptable ou financier (conformité des comptes annuels avec le
droit comptable ou avec des normes comptables internes à un groupe, une entreprise, un
réseau, etc.), audit interne (conformité du système d'informations de gestion aux règles et
procédures internes à l'entreprise), audit fiscal et juridique (contrôle de la bonne application
des différentes règles de droit), etc. Par la suite, le sens du mot s'est élargi et il englobe
également aujourd'hui des activités d'évaluation par rapport à des objectifs (finalité) et non
plus seulement par rapport à des normes portant sur le mode de production de l'information
(moyen) : audit opérationnel (appréciation de la manière dont les objectifs sont fixés et
atteints ainsi que des risques qui pèsent éventuellement sur la capacité de l'entreprise à définir
des objectifs pertinents et à les atteindre), audit stratégique, etc., et même... audit total ! Le
système de contrôle de gestion peut faire l'objet d'un audit. Théoriquement, on pourrait aussi
concevoir un audit des activités d'audit...

29Le contrôle par le marché. – Il permet une mise sous tension du personnel et une flexibilité
maximale. Il suppose le découpage de l'organisation en de multiples entités autonomes
(filiales ou divisions) ayant chacune un compte d'exploitation ou de résultat. Chaque filiale
peut s'approvisionner ou vendre librement à l'intérieur du groupe ou en dehors du groupe. La
société holding gère un portefeuille de participations et se défait des filiales les moins
rentables pour en acquérir d'autres. Sous peine de sanction, dans chacune des filiales le coût
doit ainsi nécessairement rester inférieur au prix du marché. Ce type de contrôle est souple,
clair et efficace, mais il ne peut traduire une stratégie industrielle ou commerciale à long
terme pouvant amener à supporter pendant plusieurs années des déficits en vue d'un avantage
ultérieur parfois déterminant. Les perpétuels changements de frontières du groupe s'opposent
aussi à un apprentissage organisationnel parfois long mais source de gains de productivité.
Les effets de synergie sont minimes.

30Le contrôle par la culture d'entreprise. – Il s'appuie sur un ensemble de valeurs


généralement partagées par le personnel d'une organisation ou un sous-ensemble de ce
personnel se reconnaissant dans un métier, un service ou une fonction. Pour une part
probablement essentielle, ces valeurs émergent et se construisent progressivement au sein de
la collectivité, reflétant l'expérience du groupe. Mais pour une part aussi, ces valeurs peuvent
être manipulées au sens de modelées. Ainsi, les différents projets d'entreprise cherchent à
expliciter et développer certaines d'entre elles ou à en réduire d'autres. La communication
interne (journaux d'entreprise, etc.) peut avoir les mêmes objectifs. Nous voyons peu de
différences entre ce que l'on appelle aujourd'hui la culture d'entreprise et ce que l'on appelait
autrefois l'esprit d'entreprise ou, dans la fonction publique, le sens du service public. La
création d'un langage commun mettant à la mode certaines expressions (orales mais aussi
gestuelles ou vestimentaires) est un instrument essentiel de contrôle de la culture. Le langage
façonne la pensée. Par exemple, en introduisant le langage de la finance dans une organisation
(les mots mais aussi des indicateurs servant de repères), on place sur le devant de la scène les
préoccupations financières et on ouvre la porte à des stratégies financières. D'ailleurs, on
constate d'une façon générale que les grandes réformes ou les grandes mutations comportent
presque toujours un volet sémantique. René-Victor Pilhes le montre de façon romancée dans
le cas de la société multinationale Rosserys & Mitchell. Mais il va au-delà. Cette entreprise
est présentée comme une société au sens sociologique du terme. Serge Tchakhotine dans « le
viol des foules par la propagande politique » [1968] montre aussi comment une pensée
totalitaire s'impose dans une société grâce au langage. Un autre exemple est donné par
Romain Laufer et Catherine Paradeise [1982, p. 286] qui expliquent que remplacer
« manipulation génétique » par « génie génétique » relève autant du génie que de la
manipulation... et n'est donc pas tout à fait innocent.

31Le contrôle clanique. – Décrit par William Ouchi [1982], il peut être une forme de contrôle
par la culture, celle d'un milieu professionnel, mais il peut également être un contrôle par un
corps de professionnels se plaçant au-dessus et généralement en dehors des règles de
l'entreprise. Tel est évidemment le cas des médecins, mais également des chercheurs parfois
plus sensibles à la reconnaissance de leur milieu professionnel qu'à celle de leurs employeurs,
des directeurs de comptabilité qui, dans les pays anglo-saxons, sont membres de l'équivalent
de notre ordre des experts-comptables ou encore des auditeurs internes qui sont également
membres d'une organisation professionnelle ayant ses propres règles (codes d'éthique ou de
déontologie, codes de « bonne conduite », etc.). Le schéma suivant, emprunté à Henri
Bouquin [2010], montre que selon deux variables, la possibilité de mesurer des résultats et la
connaissance du processus de transformation ou de production, les modalités du contrôle
changent. Plus la quantification est difficile et la fonction de production « molle », plus le
contrôle clanique joue un rôle important.

32Enfin, l'éthique est également une forme de contrôle des comportements de plus en plus
présente dans le discours gestionnaire actuel qui emprunte au contrôle par le règlement dans
la mesure où elle est codifiée, au contrôle par la culture interne ou externe à une organisation
et au contrôle clanique lorsqu'elle est à l'origine de l'identité et de la légitimité d'une
profession.

33La définition que nous avons donnée du contrôle de gestion et la présentation des formes
alternatives de contrôle témoignent de leur coexistence dans la réalité. Seules les proportions,
les combinaisons de chacune d'entre elles varient et font la spécificité de chaque organisation
en fonction de contingences techniques, économiques et sociales mais aussi d'un équilibre des
pouvoirs à l'intérieur de toute organisation. L'idée d'une contingence du modèle de contrôle
est essentielle [Thevenet, in V.A., Encyclopédie du management, 1992, p. 506]. Il en découle
qu'il n'y a pas de solution idéale, mais une recherche permanente de solution adaptée à des
situations qui, par nature, évoluent sans cesse.

34Nous allons maintenant détailler les hypothèses de base du modèle de contrôle d'une
organisation par le contrôle de gestion.

Les hypothèses implicites du modèle

35Le contrôle de gestion, défini comme un système finalisé de régulation des comportements,
suppose implicitement une certaine représentation du fonctionnement de l'entreprise que nous
allons essayer d'expliciter en distinguant le processus de prise de décision et la structure de
l'organisation.

Les hypothèses relatives au modèle de prise de décision


36Le modèle sous-jacent est tout d'abord un modèle cybernétique. L'entreprise est un
système. Le contrôle de gestion procède par ajustements successifs selon une démarche en
boucles consistant à faire des prévisions, à comparer ces prévisions aux réalisations, puis à
prendre des mesures correctrices afin d'ajuster l'action aux objectifs. Cette démarche est
généralement illustrée dans la littérature spécialisée par l'action du pilote qui détermine une
trajectoire idéale, corrige les écarts et, éventuellement, redéfinit en fonction de la situation
constatée une nouvelle trajectoire. Le temps est une variable discrète puisque les trois
périodes sont nettement individualisées. Le modèle ainsi élaboré a cependant une limite : ce
n'est pas un processus de conduite du changement menant à des évolutions radicales, mais
plutôt une démarche adaptative et progressive ou d'ajustement.
37Le contrôle de gestion est aussi, comme nous l'avons déjà évoqué, un modèle
contractuel ou « proconsulaire » (selon l'expression de Lorino [1995, p. 23]). L'entreprise est
considérée comme une somme de « contrats » mettant ses différentes cellules en contact dans
une relation « client-fournisseur ». Cette représentation n'exclut pas le modèle cybernétique.
Le sommet délègue à des « agents » (au sens de la théorie de l'agence présentée notamment
par Charreaux et Pitol-Belin, in V.A., Encyclopédie du management [1992, p. 265 sq.]) une
mission et des moyens en contrepartie d'une obligation de résultat. Il est donc adapté à la
gestion de situations complexes car le mandant n'a plus à contrôler une multitude de variables
d'action qu'il ne maîtrise pas ou pour lesquelles il n'a pas toujours la compétence technique
requise. Le contrôle de gestion permet une réduction de complexité nécessaire au
fonctionnement des échelons supérieurs de la hiérarchie. Les indicateurs de succès se
réduisent alors à des performances simples à mesurer telles que les quantités produites, le
délai, la marge ou toute autre expression du résultat. Le contrôle stratégique de l'organisation
peut ainsi s'opérer sans avoir à entrer dans le détail des problèmes techniques. Un système de
sanction-récompense de l'agent, préalablement défini, est associé aux indicateurs de succès et
fait partie intégrante du « contrat ».

38Le revers de la médaille tient d'abord au fait même que cette réduction de complexité prive
le mandant de la possibilité de capitaliser une expérience puisque, par définition, il veut
l'ignorer. Par ailleurs, la responsabilité individuelle et la « propriété déléguée des ressources »
(selon l'expression de Lorino [1995, p. 272]) introduisent une culture de chasse gardée et de
territoire qui met en danger la cohérence d'ensemble de l'organisation.

39Le modèle suppose qu'il soit possible de décliner les facteurs clés de succès sur l'échelle
du temps : long, moyen et court terme. Ainsi, dans le cas d'une stratégie de domination par les
coûts (long terme), on va par exemple s'intéresser à la maîtrise des coûts de transport
[Bouquin, 2010]. Cette dernière variable constitue alors un facteur clé de succès si, dans notre
exemple, les économies potentielles les plus fortes se situent dans ce domaine. À moyen
terme, on aura à se prononcer sur des choix tels que faire ou sous-traiter (avoir son propre
service de transport ou faire appel à des prestataires externes), organiser un partenariat
logistique durable, etc. À horizon un an, le problème se déplace vers la gestion d'un parc de
véhicules : nombre et caractéristiques des véhicules, rythme de remplacement, politique
d'entretien, mode de financement (achat, location, crédit-bail), etc. Enfin, au quotidien, le
problème devient celui de l'optimisation des tournées.

40Le contrôle de gestion suppose que la stratégie et les objectifs qui en découlent soient
explicités afin que puissent fonctionner tant le modèle cybernétique que le modèle contractuel.
De plus, le travail de formalisation nécessité par l'explicitation et donc la publicité donnée à la
démarche stratégique la soumettent à la critique. Il y a là une exigence de validation par un
public qui alimente le processus d'apprentissage dans la mesure où on ne peut se réfugier
derrière la seule autorité hiérarchique pour masquer des insuffisances ou des zones d'ombre.

41Mais par ailleurs, nous savons que la « formalisation d'une organisation n'est jamais que la
partie visible de sa régulation effective » [Friedberg, 1997]. Les causes tiennent tant à
l'incapacité réelle de modéliser une situation complexe qu'à la recherche d'une réduction des
conflits. L'explicitation d'un choix suppose bien évidemment le renoncement à d'autres
possibilités qui ont, elles aussi, leurs partisans. L'ambiguïté peut être un mode de gestion
consensuelle. Enfin, nous l'avons déjà mentionné, le volontarisme cher à de nombreux
gestionnaires n'explique pas tout : il y a aussi des stratégies émergentes qui viennent s'opposer
aux stratégies explicites et ne doivent pas être assimilées à des pathologies propres aux formes
dégradées d'organisation. Les stratégies émergentes sont le fruit d'un « gauchissement de la
stratégie antérieure sous l'influence de décisions successives non gérées de façon globale »
(Stratégor, 2009). Pour Philippe Lorino [1995, p. 169], « la stratégie émerge de l'action tout
autant que l'action émerge de la stratégie. Henry Mintzberg parle de la stratégie du potier : le
potier élabore la stratégie de son pot tout en le créant, au fur et à mesure que la forme émerge
de ses mains ». Ce ne sont là que des illustrations de la relation entre connaissance et action
développée par Jean Piaget. Si « une stratégie délibérée exclut l'apprentissage une fois que la
stratégie est formulée, la stratégie émergente l'encourage » [Mintzberg, 2009].

42Le modèle de prise de décision n'est pas indépendant de la structure de l'organisation.

Les hypothèses relatives à la structure de l'organisation


43Le modèle du contrôle de gestion, en particulier à travers la notion de contrat, suppose
un découpage de l'organisation en centres de responsabilité dont la définition varie avec les
objectifs et le niveau d'autonomie. On distingue ainsi généralement (comme nous le verrons
de façon plus détaillée ci-dessous, chapitre II, troisième section) :

44

 les centres de coûts standard qui correspondent généralement à des ateliers dont le
responsable ne maîtrise que la productivité ;
 les centres de dépenses discrétionnaires, le plus souvent des services administratifs dont
l'activité est difficilement mesurable ;
 les centres de recettes ou de chiffre d'affaires, habituellement des services commerciaux
lorsque le responsable n'a pas la maîtrise des prix et des coûts de distribution ;
 les centres de profit qui se rencontrent à un niveau assez élevé de la hiérarchie des grandes
entreprises lorsque le responsable dispose d'une large délégation de pouvoir ;
 les centres d'investissement qui correspondent à des centres de profit, dans lesquels le
responsable aurait en outre la maîtrise des investissements, se situant au niveau le plus
élevé.

45Ces différences, qui feront l'objet de plus amples développements dans le chapitre III,
troisième section, peuvent être récapitulées dans le tableau suivant [Bouquin, 2010] :

46Les échanges entre ces centres sont réglés par les prix de cession internes, internes par
rapport à l'entreprise ou au groupe (cf. sur ce sujet Burlaud et Simon [2003, p. 280 sq.]).

47Cette logique du découpage en centres pousse à la volonté d'indépendance, d'autonomie.


Selon la formule imagée de Philippe Lorino, chaque centre souhaite disposer « d'une réserve
de ressources et de temps importante (un slack) lui permettant de faire facilement face à des
situations imprévues dues au manque de communication : stocks, surcapacités, sous-emploi
des personnes, bases d'information maîtrisées localement... Chaque territoire devient ainsi une
île, avec son gibier, ses sources et ses fruits, et l'entreprise a la cohérence d'un archipel, au
prix, bien sûr, d'un probable gaspillage de ressources » [Lorino, 1995, p. 198].

48Ayant présenté les fondements du modèle de régulation à distance et par les chiffres des
comportements dans une organisation, nous allons maintenant voir les outils mis en œuvre.
N ous entendons par « outils classiques » ceux actuellement mis en œuvre, de façon
explicite, dans la plupart des organisations : calculs de coûts, budgets, reporting, organisation
en centres de responsabilité, etc. Le plus souvent, les systèmes de contrôle de gestion sont
formés d'une combinaison de ces différents outils qui résulte soit d'un choix délibéré et
imposé, par exemple, par la société mère, soit d'une évolution plus ou moins maîtrisée. Mais,
au-delà de leur rationalité apparente, ces outils façonnent les comportements et les relations
au sein de l'organisation. Nous les aborderons en mettant en relief leur impact principal,
même si celui-ci ne correspond pas toujours à la finalité initiale de leur mise en œuvre.

2Le premier point traitera des outils, principalement des coûts, dont la fonction essentielle est
de procurer des informations à la hiérarchie pour rationaliser ses décisions à l'égard de
l'environnement de l'entreprise.

3Le deuxième point sera consacré aux outils permettant un contrôle des opérationnels :
les standards, les budgets et le reporting.

4Le troisième point étudiera les outils destinés à susciter des comportements plus proactifs :
les centres de responsabilité, les cessions internes et l'externalisation.

5Enfin, le quatrième point proposera des pistes menant à une adéquation entre les structures
types (entreprise unifiée, stabilisée, planifiée ou éclatée) et les modes de contrôle adoptés.

6Les techniques liées à la mise en œuvre de l'ensemble de ces outils ne seront ici que
rapidement décrites (pour plus de détails, consulter Mevellec [1995] ou Burlaud et Simon
[2003]).

Les outils d'information de la hiérarchie

7Dans une conception classique de l'économie, les mots entreprise, firme, entrepreneur ou
décideur recouvrent à peu près la même réalité. L'entreprise est à la fois une boîte noire (son
contenu et son fonctionnement interne sont neutres, ils n'influent pas sur l'économie et sont
donc dénués d'intérêt) et un automate qui réagit mécaniquement aux fluctuations du marché.
Ce dernier est stable ou, tout au plus, peut enregistrer des variations de volume, seul cas
d'instabilité envisagé ici.

Le cas d'un environnement stable


8Dans un premier point, on considérera que l'entreprise est constituée de rouages simples que
l'on peut à la limite ignorer (« boîte noire »), avec une direction très hiérarchisée donnant des
ordres exprimés en modes opératoires et en unités physiques. Le contrôle est principalement
opérationnel. L'entrepreneur a besoin de deux informations essentielles :

 l'une relative à la gestion de l'interface entre l'entreprise et son marché aval, c'est-à-
dire relative à la fixation des prix de ses produits ou services,
 l'autre lui permettant de surveiller globalement la productivité ou les rendements.
10Dans un second point, on introduira la prise en compte de ces rouages, on ouvrira la « boîte
noire ».

11Quand l'entreprise reste une « boîte noire ». – La méthode des coefficients (les mots
techniques sont définis dans le lexique en fin d'ouvrage) répond à ces deux objectifs. Elle
consiste à déterminer un facteur unique permettant de mesurer toute l'activité de l'entreprise et
à en calculer le coût partiel direct. Le rapport entre les quantités de facteurs consommés et
vendus permet une mesure de la productivité. Le prix de vente est obtenu en multipliant le
coût du facteur par un coefficient fixe propre à chaque profession. Ce procédé est simple, peu
onéreux et procure au décideur deux outils ou informations majeures :

12

 l'une pour surveiller l'efficience de son entreprise (la productivité),


 l'autre pour gérer la relation avec le marché.

13Les exemples de mise en œuvre de cette méthode sont encore très nombreux. Ainsi, dans le
commerce de détail, le prix de vente toutes taxes comprises, étiqueté sur le produit, est
déterminé en appliquant un coefficient standard au prix d'achat hors taxes. Régulièrement,
après inventaire, le coefficient global constaté et recalculé est comparé au coefficient
standard. La différence s'explique par les éventuelles remises de prix accordées mais surtout
la perte, la casse ou le vol (démarque inconnue). De même, dans les activités artisanales ou de
service, l'heure de main-d'œuvre directe est considérée comme le facteur unique de facturation
(le coût de l'heure est multiplié par un coefficient) et le contrôle de la production par le ratio :
heures facturées/heures payées au salarié. Dans l'industrie, cette méthode inspire encore un
grand nombre de pratiques où le facteur d'activité central est l'heure de main-d'œuvre directe.
On en mesure aisément la quantité et son coût s'obtient en appliquant au coût de la main-
d'œuvre elle-même un coefficient standard souvent appelé « taux de charge », déterminé par
l'expérience ou la comptabilité et permettant d'« absorber » ou de « couvrir » l'ensemble des
autres charges. Les coûts de revient et prix de vente des différents producteurs sont alors
calculés aisément. Mais le développement de l'automatisation et la désertification des usines
qui en découle font que le coût de la main-d'œuvre directe ne représente plus qu'une partie très
faible (souvent moins de 10 %) du coût total. Elle devient alors un mauvais critère de mesure
de l'activité et un mauvais outil de répartition de l'ensemble des coûts. Les tenants de la
méthode ABC (développée ci-dessous chapitre IV, troisième section) font d'ailleurs de ce
constat le principal argument de promotion de leur technique.

14Une variante de la méthode des coefficients se retrouve dans la méthode GP, ainsi baptisée
par son concepteur : Georges Perrin [1962]. Il possédait et dirigeait une entreprise lyonnaise
de soierie dont la production était à la fois très homogène (exclusivement filature et tissage de
soie) et très diversifiée (séries courtes et constamment renouvelées). Cette méthode consiste à
déterminer une production standard de référence, par exemple le tissage d'un mètre de soie
« de base » baptisé « unité GP » et à évaluer toute autre production en « équivalent GP ».
Ainsi, un mètre de soie plus élaboré pourra valoir 1,2 GP. Dès lors, comme l'explique
Georges Perrin, les fabrications multiples se ramènent à un produit unique dont le coût de
revient est égal à l'ensemble des charges répertoriées par la comptabilité générale et divisé par
un seul chiffre : la somme de tous les points GP. Cette méthode semble avoir été
particulièrement bien adaptée au métier et à l'époque de son auteur. Elle avait un rapport
avantage/coût particulièrement élevé. Son erreur est d'avoir voulu l'ériger en technique
universelle.
15Sous une forme à peine plus élaborée, ces méthodes simples, parfois simplistes, sont
encore d'un usage très courant y compris dans de grandes organisations à structure complexe.
Elles présentent cependant quatre inconvénients majeurs.

16

1. Elles ne permettent qu'une allocation très sommaire des charges indirectes, reposant
sur une conception figée de l'entreprise et de son environnement. Implicitement, elles
considèrent que tous les produits, toutes les activités créent des charges indirectes dans
une même proportion que les charges directes. Georges Perrin était conscient de ce
postulat qu'il dénommait le « principe des constantes occultes » et qu'il énonçait ainsi :
« Quels que soient les prix unitaires, les efforts de production dégagés par les diverses
opérations élémentaires théoriques de travail d'une usine sont entre eux dans des
rapports constants dans le temps » [Perrin, 1962, p. 33]. L'univers et l'entreprise sont
réputés stables à la fois dans le temps, puisque les coefficients sont peu ou pas
évolutifs, et dans l'espace dans la mesure où les produits changent peu. Mais si l'outil,
le calcul des coûts et le contrôle de la gestion, suppose la stabilité, il engendre à son
tour l'immobilisme.
2. Le deuxième inconvénient découle du premier. Dans une telle approche, une
segmentation du marché, une différenciation des produits n'a pas sa place. Dans le
commerce de détail traditionnel, tous les produits, tous les espaces de vente sont gérés
uniformément, produisant la même marge. En revanche, la grande distribution
distingue les achats de nécessité, d'impulsion, etc., et différencie leur gestion par
l'implantation dans les rayons, la présentation et le prix. Pour remédier à cette rigidité,
le commerce traditionnel réalise une différenciation dans le temps par la pratique des
soldes. Mais elles concernent de façon uniforme l'ensemble des produits, pratiquement
à la même date et pour tous les concurrents. Même la différenciation devient
uniforme ! Elle est d'ailleurs prévue et anticipée par la clientèle.
3. Le troisième inconvénient est plus d'ordre stratégique. Ces méthodes reviennent à
répercuter fidèlement et mécaniquement l'amont, la production, vers l'aval, c'est-à-dire
la demande et le marché. Dans une économie de pénurie ou de l'offre, ce système est
cohérent. Mais dans une économie dominée par la demande, le contrôle de gestion doit
au contraire s'efforcer de répercuter, voire de faire anticiper les évolutions de l'aval
vers l'amont faute de quoi la sanction est d'autant plus brutale qu'elle est tardive.
4. Le quatrième inconvénient, corollaire du troisième, est que ces techniques faussent la
perception du produit et de l'activité. Ainsi, le détaillant croit vendre des vêtements
alors que le client achète du conseil ou de la proximité ; le peintre vend des heures de
travail alors que le client achète la peinture et la remise à neuf d'une pièce. Il y a
confusion entre le moyen et le résultat. C'est pourquoi les garagistes qui vendent
essentiellement des heures de main-d'œuvre se font de plus en plus concurrencer par
des entreprises qui ne facturent plus l'heure mais le produit-service : changement de
pot d'échappement, d'amortisseur, forfait vidange, etc.

17En conclusion de cette partie, on notera que les utilisateurs de ces approches sont souvent
comme monsieur Jourdain : ils estiment disposer d'un système si simple que ce n'est pas du
contrôle de gestion. La technique n'a pas véritablement de coût sauf que le coût caché peut
être considérable à cause des effets négatifs induits qu'elle peut avoir sur la gestion.

18La mise à nu des rouages dans la « boîte noire ». – Les méthodes fondées sur un coefficient
unique simplifiaient à l'extrême l'entreprise, réduite à une « boîte noire ». Une autre méthode,
à d'autres égards d'inspiration proche, va au contraire démonter les rouages de l'organisation :
la méthode des sections homogènes ou des centres d'analyse. Son principe est simple, même
si sa mise en œuvre est parfois lourde et complexe.

19Elle a pour objectif le calcul du coût complet de chacun des produits comprenant
l'ensemble des charges directes et indirectes selon l'équation :

20Par définition, les charges directes peuvent être allouées, affectées aux différents produits
sans trop de difficultés ; une bonne organisation sur le terrain (bons de travaux, bons de
consommation, compteurs adaptés, etc.) doit permettre de déterminer cette partie du coût avec
une précision suffisante.

21La répartition des charges indirectes est en revanche plus délicate. La méthode des sections
ou centres d'analyse est l'une des solutions à ce problème. Le principe consiste à ne plus
procéder globalement, selon un seul critère comme dans la méthode des coefficients, mais au
contraire à différencier les critères et à procéder par étapes ou tris successifs en appliquant la
méthode analytique cartésienne à la structure de l'entreprise. La figure de la page 29
schématise le principe de la technique.
Les rouages de la « boîte noire »

22Les charges qui sont indirectes par rapport aux produits sont directes par rapport aux
différents centres. Ainsi, le salaire du comptable, indirect par rapport au produit fabriqué,
devient direct par rapport au centre « comptabilité ». Les centres principaux sont ceux qui
concourent à l'activité fondamentale de l'entreprise : acheter, produire, vendre. Les centres
auxiliaires correspondent aux fonctions générales de l'entreprise, aux activités de soutien ou
de « support » : administration, entretien, etc. Ils sont répartis ou déversés éventuellement
entre eux mais surtout finalement entre les centres principaux au moyen de critères (« clés »)
aussi significatifs que possible du service rendu par le centre auxiliaire aux différents centres
principaux. Par exemple, un centre « DRH » peut être réparti entre les autres centres au
prorata des effectifs. Puis, les coûts des centres principaux sont à leur tour imputés aux
différents produits au moyen de critères (« unités d'œuvre ») représentatifs de l'activité et donc
des coûts du centre (heures machine, tonne kilométrique pour des transports, etc.). Comme le
montre le schéma de la page suivante, le découpage de l'entreprise en centres peut être
grossier ou très fin. Par rapport à une méthode globale des coefficients, cette technique
multiplie les critères de répartition et surtout les fait correspondre aux caractéristiques
techniques de chacun des centres.

23Cette méthode, d'origine française, fut mise au point par Émile Rimailho notamment dans
le cadre de ses fonctions à la Compagnie générale de construction et d'entretien de matériel de
chemin de fer (CGCEM) au cours des années 1920 (sur ces aspects historiques, cf. Bouquin
[1995]). L'atelier de Nevers, qui lui servait de référence principale, était lié par un contrat de
longue durée à la compagnie de chemin de fer PLM. Ce contexte n'est pas neutre. Dans cet
environnement stable, Rimailho va chercher une méthode précise et rigoureuse permettant
une facturation équitable des travaux d'entretien réalisés. Mais cette équité vis-à-vis du client
est également répercutée à l'intérieur de l'entreprise. Selon Rimailho, l'une des fonctions de la
section est de « veiller aux meilleures relations des hommes entre eux, de rendre justice aux
compétences de chacun et, enfin, d'assurer l'équitable partage des avantages matériels
résultant des initiatives et des efforts réalisés » [Bouquin, 1995, p. 22].

24Comme nous l'avons déjà souligné dans le cadre des méthodes des coefficients, il s'agit de
répercuter vers l'aval (le
Schéma
la taille des
comparatif
entreprises
des conceptions de structure fonctionnelle selon

Source : PCG, 1982, p. 285.


25client) les conditions de l'amont (la production) ; cette fois, l'entreprise n'est plus une boîte
noire simple, mais au contraire un ensemble de rouages complexes dont les coûts doivent
fidèlement rendre compte. Le principal grief fait à cette méthode tient à cet objectif même de
fidélité. En effet, puisqu'une méthode prétend déterminer le « juste coût » (qu'il ne faut pas
confondre avec la « juste valeur » définie par les normes comptables internationales), quelle
décision prépare-t-elle ou permet-elle ? Fondée sur le constat du passé et une stabilité de la
technique et des volumes d'activité, elle informe mal sur d'éventuels nouveaux produits,
procédés de fabrication ou nouveaux marchés. Par ailleurs et dans le cadre d'une plus grande
rigueur, elle conduit souvent à une multiplication importante des centres d'analyse ou
sections ; la pratique de la méthode devient d'une complexité telle qu'on perd de vue sa
signification.

Le cas d'un environnement instable


26Nous entendons ici par instabilité essentiellement celle des volumes de production et
ventes, l'instabilité technologique étant davantage abordée dans le quatrième chapitre.

27Les variations de volume perturbent les coûts unitaires ; en effet, par définition, les charges
variables sont fixes au niveau unitaire (par exemple, la consommation d'essence, variable, est
fixe au kilomètre, quel que soit le kilométrage parcouru) alors que les charges fixes sont
variables au niveau unitaire (le coût kilométrique de l'assurance diminue avec le kilométrage
parcouru) ainsi que le montrent l'encadré et l'équation suivants :

28Par ailleurs, dans un environnement instable, les coûts et le contrôle de gestion doivent
aider à des décisions du type : quelle est la limite inférieure pour un prix de vente acceptable ?
Quel est l'impact de tel marché sur le résultat de l'entreprise ? Aux logiques de coût complet
adaptées à un univers planifiable et modélisable parce que stable, vont se substituer des
logiques et techniques de coûts partiels ; c'est en particulier en Amérique du Nord qu'elles se
sont le plus développées.
Le direct costing
Le direct costing ne se fonde pas, comme son nom pourrait le laisser penser, sur le critère
direct/indirect, mais sur celui de fixe/variable. Il consiste en effet à n'analyser au niveau de
chacun des produits que ses charges variables, les charges fixes étant considérées comme
globales. Sa mise en œuvre peut conduire à une présentation des informations sous la forme
suivante (voir tableau ci-dessous).
Lorsque l'on raisonne sur l'ensemble de l'entreprise, l'analyse fixe/variable se traduit par le
concept de seuil de rentabilité (voir encadré ci-après). Le modèle du direct costing est orienté
vers le futur ; il permet bien l'élaboration de prévisions ou de simulations en mettant en
exergue le principal facteur de bénéfice ou perte d'une entreprise : le volume de l'activité et
des ventes. Par rapport au coût complet, il correspond à une logique d'approche des coûts et
marges totalement opposée : les charges fixes, très liées à la structure, sont en quelque sorte
« redescendues » au niveau des produits par la méthode des centres ou sections alors que
dans le direct costing les produits doivent dégager une marge ou contribution destinée à
absorber ou financer les charges fixes ; la logique est en quelque sorte remontante. Le coût
variable s'inspire d'une conception marginaliste permettant bien une différenciation des
produits ou marchés et donc de mieux s'intégrer à une démarche marketing plus offensive.
Pour autant, cette démarche est souvent dangereuse : chaque produit peut dégager une marge
sur coût variable positive sans que pour autant l'ensemble des charges fixes soit couvert et l'on
voit parfois des entreprises la pratiquant où « tout le monde gagne de l'argent... mais où
l'entreprise fait des pertes ».
Par ailleurs, le modèle volume/coût/profit qui le sous-tend est en réalité très simplificateur et
réducteur : les facteurs de variabilité des charges sont nombreux et les prix de vente, comme
les coûts, ne sont pas indifférents aux quantités.

29Le coût direct évolué ou coût opérationnel est une autre approche de coût partiel qui a
trouvé son origine dans les pratiques des entreprises anglo-saxonnes. Il consiste à allouer à
chaque produit non seulement ses charges variables, mais également ses charges fixes directes
ou opérationnelles, c'est-à-dire liées à la gestion courante : achat-production-distribution et à
distinguer les charges de structure (le siège social pour simplifier) globales.
Le seuil de rentabilité
Définition : Le seuil de rentabilité (ou point mort) est le niveau d'activité pour lequel le
résultat est nul.
Calcul :
Soient :

Intérêt et limite : Le seuil de rentabilité est un modèle représentant une réalité indiscutable ;
pour autant, comme tout modèle il est très simplificateur :
il s'applique mal ou pas aux entreprises multi-produits ;

 il suppose une stabilité des prix de vente par rapport aux quantités ;
 il suppose une stabilité des coûts unitaires par rapport aux quantités ;
 il suppose une parfaite fixité des charges fixes ;
 le facteur de variabilité des charges ne peut être réduit aux quantités de produits.

30La synthèse de sa mise en œuvre se résume par un schéma du type :

31Toutes les charges fixes non directes (overhead en anglais) se répartissent le plus souvent
selon un coefficient global, unique, habituellement l'heure de main-d'œuvre directe, l'attention
étant surtout concentrée sur les charges variables et directes qui sont soumises, elles, au
contrôle le plus strict conformément aux principes tayloriens (voir ci-après).

32Cette méthode peut apparaître séduisante, mais l'évolution technique en réduit


considérablement la pertinence pour trois raisons principales.
33La première est que la distinction opérationnel/structure s'émousse progressivement.
Traditionnellement, opérationnel était plus ou moins synonyme de récurrent à horizon très
court, lié au cycle achat-production-vente. Or qu'en est-il des frais de conception, de
marketing, de contrôle de gestion... ?

34La conception dichotomique de l'entreprise, ceux qui pensent et décident du long


terme/ceux qui gèrent et assurent le quotidien, est de moins en moins réelle et efficace. Au
contraire, on demande de plus en plus d'intégrer les horizons court et long terme ; le temps
doit être géré comme ce qu'il est, c'est-à-dire une variable continue, non discrète
(cf. chapitre III, deuxième section). Il ne s'agit plus d'accentuer la division du travail
opérationnel/structurel mais au contraire de l'intégrer dans le cadre d'une gestion par projet
(cf. chapitre IV, troisième section).

35La deuxième raison de sa perte de pertinence est que cette méthode focalise l'attention, le
contrôle, sur les coûts alloués aux produits ; or ceux-ci sont, pour l'essentiel, prédéterminés
lors de la conception et, de plus, l'automatisation de la production rend les écarts de
rendement faibles ou exceptionnels. Le contrôle de gestion est dès lors peu utile et peu
efficace.

36La troisième critique réside dans la pertinence des coûts calculés au niveau des produits. La
méthode anglo-saxonne la plus usuelle consistait à calculer les coûts des produits en
répartissant les coûts indirects opérationnels selon un coefficient simple, l'heure de main-
d'œuvre directe, comme nous l'avons vu. Or les développements de l'automation font que
celle-ci ne représente plus qu'une partie très réduite des coûts et qu'elle constitue un très
mauvais critère d'allocation des charges indirectes, qui, elles, ne cessent de croître. Les
décisions concernant les produits sont donc fondées sur des coûts dont la validité est pour le
moins discutable.

37Ces critiques ont été mises en avant par deux universitaires américains, Thomas Johnson et
Robert Kaplan [1987] dans un ouvrage qui eut un grand retentissement et dont le
titre Relevance Lost (« La pertinence perdue ») constituait un véritable jeu de mots :
l'expression usuelle, consacrée, était en effet de parler de relevant cost (coût pertinent). Outre
le contenu de leur ouvrage, cette expression choc a contribué à la déstabilisation des
théoriciens comme des praticiens.

38L'imputation rationnelle des charges fixes peut être considérée comme une synthèse entre
les méthodes s'inscrivant dans une logique d'univers stable (cf. ci-dessus) et celles s'inscrivant
dans une logique d'univers instable. Elle consiste à calculer un coût complet (en recourant à la
technique des sections) mais à variabiliser les charges fixes par un coefficient dit d'imputation
rationnelle, égal au rapport activité réelle/activité normale. Il s'agit en quelque sorte de
calculer un coût complet désaisonnalisé. Cette technique est principalement utilisée par les
entreprises ayant une activité fortement marquée par des saisonnalités régulières et connues.

39Les techniques des coûts complets ou partiels visent principalement à fournir de


l'information orientée sur les produits, pour le ou les décideurs ; elles constituent des
instruments de contrôle, au sens de maîtrise de l'entreprise et de ses produits, mais non de
contrôle au sens de surveillance des hommes et de l'organisation. D'autres techniques du
contrôle de gestion sont davantage orientées vers cette finalité.
Les outils de contrôle des opérationnels

40Les outils étudiés ci-dessus permettent une information de la hiérarchie, souvent la


direction générale, sur le coût des produits et l'efficience globale de l'entreprise. Mais ils ne
permettent pas un contrôle précis conduisant à une mise sous tension de l'ensemble de
l'organisation. Celle-ci est réalisée par les standards pour les tâches répétitives (généralement
de production) et les plans et budgets pour les autres fonctions.

Les standards, le taylorisme et le fordisme


41Le développement et l'utilisation d'une énergie (hydraulique puis thermique) non humaine
ou animale sont généralement considérés comme le facteur décisif de la concentration de la
production et de l'avènement de l'ère industrielle. Mais, dans un premier temps, les moyens
matériels étaient réduits – l'industrie était peu capitalistique – et les charges étaient par
conséquent essentiellement variables. De plus le mode de rémunération de la main-d'œuvre
était le salaire à la pièce. Pour l'entrepreneur, ce système, d'une part, minimisait les risques
(les charges fixes sont génératrices de risques en cas de baisse d'activité) et, d'autre part,
reportait sur l'ouvrier le système de contrôle. En effet, dans un tel système, la variation du
rendement n'affecte pas les coûts, mais la rémunération du salarié. La mécanisation
progressive engendra davantage de charges fixes (amortissements, rémunération du capital...)
que seul un rendement minimum permettait de couvrir ; l'instauration de primes s'inscrivit
dans ce contexte ; David Rowan en Angleterre et F. E. Halsey aux États-Unis en furent les
précurseurs. Mais pour déterminer des primes il faut fixer des normes – ou standards en
anglais – de rendement. L'un des grands apports de Taylor fut d'intégrer l'organisation du
travail par le bureau d'études (planning, gammes opératoires, organisation du travail à la
chaîne, ordonnancement) et le système de rémunération. Le standard devient à la fois un outil
d'organisation, un ordre et un instrument de mise sous tension de la main-d'œuvre productive.
À la base, c'est un instrument réalisé pour le contrôle opérationnel (cf. encadré) mais réutilisé
par le contrôle de gestion pour parvenir à un contrôle plus global (méta-contrôle) réalisé sur
base journalière dans les entreprises à cycle de production court, ou mensuelle dans les autres
cas. La valorisation de la production à partir des standards et le calcul régulier des écarts
(cf. encadré p. 39) permettent de sensibiliser aux incidences financières du non-respect des
normes et surveiller l'encadrement ou la maîtrise qui est le principal relais du contrôle
opérationnel. Partout, et à chaque instant, tout dysfonctionnement ou toute performance est
évalué en unités monétaires. Ces techniques de standard se généralisent aux consommations
de matière, d'énergie... et de l'ensemble des ressources de l'entreprise. Elles deviennent dès
lors un instrument central du contrôle de la gestion.
Exemple de standards utilisés
type
dans
jeans
la fabrication d'un pantalon de

Notes :
Il s'agit là d'un cas réel, actuel, non emprunté à Zola ou aux Temps modernes de Chaplin.
L'unité de temps, le dmh, correspond à 1/10 000 d'heure, c'est-à-dire à approximativement un
tiers de seconde.
La première colonne de temps indique les temps théoriques déterminés par chronométrage ou
à partir de tables (MTM). Le coefficient de repos est fonction de la pénibilité de la tâche
élémentaire, le temps alloué est égal au produit des trois premières colonnes.
La chaîne est ici à peu près bien équilibrée : les temps de travail de chacune des ouvrières sont
proches ; les meilleures ouvrières sont affectées aux tâches les plus longues (Mme Y) afin de
parvenir à un flux continu.
Si l'on considère ici une base de fragmentation (temps moyen par opérateur) de 60 dmh, cela
équivaut à 21,6 secondes, soit approximativement un tiers de minute. Chaque opératrice
renouvelle donc la même opération trois fois par minute, soit encore 1 440 fois par jour.
Des standards techniques augestion
suivi des écarts par le contrôle de
Les données du problème
Soit l'entreprise qui fabrique le pantalon décrit dans l'encadré ci-dessus, le total des temps
élémentaires pour un pantalon s'élevant à 30 minutes.
Le coût standard direct du pantalon a pu être ainsi déterminé :

Au cours d'une journée 50 opérateurs ou ouvriers ont travaillé et ont été payés 8 heures pour
un coût total de 4 400 i ; la production s'est élevée à 820 pantalons.
L'écart et son analyse

Remarque : dans le cadre d'un contrôle à rythme rapide (jour, semaine) les prix ou salaires
réels ne sont pas toujours connus ou faciles à déterminer et donc l'écart sur prix n'est pas
calculé : il n'engendrerait d'ailleurs pas de décision (les salaires sont négociés à un autre
niveau hiérarchique et selon une autre périodicité) ; seul l'écart sur rendement sera calculé car
il permet une mise sous tension permanente des cadences. C'est pourquoi il est calculé par
référence au salaire standard qui, lui, est connu.
42Les standards permettent de calculer des coûts préétablis – a priori – ce qui est beaucoup
plus utile pour la gestion des produits – notamment nouveaux – que le calcul a posteriori. Ils
facilitent l'élaboration de budgets et d'une façon plus générale des simulations ou prévisions,
par exemple pour l'étude de la rentabilité d'un investissement projeté. Ils simplifient le calcul
des coûts : il est en effet plus facile, et moins onéreux, de calculer des coûts unitaires à partir
de normes que d'observer ou recenser les consommations réelles (par des bons de travaux, de
sortie...) qui par ailleurs évoluent constamment.

43Certes, du fait notamment de l'automation, le champ du taylorisme a diminué, la division et


la parcellisation extrêmes du travail ont montré leurs limites. Mais le travail répétitif subsiste
dans de nombreuses activités et s'étend même aux activités du secteur tertiaire (banques,
centres d'appels téléphoniques...). Par ailleurs, une organisation du travail plus collective, par
équipes, n'exclut pas le contrôle des rendements par les standards.

Les plans, les budgets, le reporting et l'analyse des écarts


44Face à l'incertitude et au risque du futur, l'Homo œconomicus ne peut s'empêcher de
prévoir, d'anticiper. Certains en ont même fait une condition et une définition – réductrice –
de la gestion.

45Mais, dans les organisations, plans et budgets vont plus loin qu'une simple prévision du
possible. Ils ne caractérisent d'ailleurs pas le possible le plus probable, mais plutôt un possible
le plus souhaitable. Il s'agit d'un volontarisme formalisé, qui renforce l'autocontrainte (selon
une expression attribuée au général de Gaulle, un plan serait une « ardente obligation ») et
simultanément en fait un contrat collectif qui coordonne l'organisation. Enfin, cette
formalisation permettra ultérieurement la mise en œuvre d'un contrôle budgétaire
(comparaison réel-budget), outil de responsabilisation de toutes les fonctions et de tous les
niveaux de l'entreprise.

46Surtout dans les grandes organisations, plans et budgets sont différenciés selon les horizons
et les objectifs.

47On distingue ainsi le plan stratégique du plan opérationnel. Le premier fixe les grands
objectifs et les grands choix (spécialisations/diversifications...) à moyen terme (souvent à trois
ou cinq ans, mais en réalité à un horizon cohérent avec les cycles fondamentaux
– d'investissement, de vie des produits – de l'entreprise ; ainsi EDF réalise des plans à quinze
ans, durée de vie minimale d'une centrale) ; ce plan comporte peu de chiffres mais est
cependant le plus confidentiel. Le plan opérationnel est généralement surtout un instrument
de coordination des actions entre les différentes fonctions ou divisions de l'entreprise axé sur
les moyens humains (gestion prévisionnelle des effectifs, GPE) et les investissements.

48Le budget correspond, lui, au cadre annuel et ajuste les objectifs aux moyens (et l'inverse)
en termes monétaires. À la fois pour des raisons techniques d'élaboration, mais aussi et surtout
pour être un moyen de décentralisation et de contrôle, le budget est décliné selon toutes les
fonctions et les entités ou unités de l'entreprise (pour des développements plus complets sur le
système budgétaire, on pourra consulter Burlaud et al. [2004]).

49Le reporting consiste, essentiellement dans les grands groupes, à rendre compte des
résultats sur une base mensuelle ; ce sont surtout les filiales qui ont à le réaliser, mais pour ce
faire elles doivent souvent elles-mêmes organiser un système de suivi des différentes entités
qui les composent. La base du reporting est généralement un contrôle budgétaire qui compare
les objectifs du budget aux données de la comptabilité générale et analyse les
différents écarts. Au-delà des entreprises il permet de mettre sous tension les cadres
supérieurs et moyens ; le budget et le reporting reproduisant, en quelque sorte, à leur niveau,
les mêmes effets que les standards vis-à-vis du personnel d'exécution.

50Le système standards-plans-budgets-reporting est actuellement dominant. La plupart des


entreprises y ont recours et le considèrent comme la référence en matière d'outil de gestion.
Pourtant de nombreux théoriciens et praticiens émettent de sérieuses réserves et critiques.

51Pierre Massé, longtemps commissaire général au Plan, définissait celui-ci comme un


« anti-hasard » [Massé, 1967] ; dans la période de croissance continue de l'époque (années
1950-1960) cette fonction de prévision associée à une volonté apparaissait de nature à mieux
orienter l'économie et surtout à mieux gérer les goulots d'étranglement caractéristiques d'un
tel contexte économique. Mais, poussés à l'extrême, le plan, les budgets et les standards
favorisent l'immobilisme et développent une véritable résistance au hasard, c'est-à-dire au
changement. En effet, celui-ci perturbe le référentiel et complexifie donc l'élaboration des
budgets, mais surtout crée des différences ou écarts dont il faut se justifier dans le cadre d'un
contrôle budgétaire pointilleux. « Tenir son budget » devient l'objectif central qui prime sur
les autres performances et notamment celles d'anticiper ou de s'adapter aux modifications de
l'environnement. Comme le Plan, macroéconomique et national, le budget est un bon outil en
période de stabilité ou de croissance régulière ; il est en revanche nettement moins adapté
pour engendrer des comportements favorables dans un contexte de volatilité et surtout de
changements de technologie, de produits ou de marchés.
52Peu ou prou jugés sur la base de la réalisation de « leur budget » (chiffre d'affaires, marge
ou enveloppe de dépenses selon les cas) les cadres ont tendance à se ménager des réserves
occultes (« matelas budgétaires ») au moment de la préparation des budgets : surestimation
des charges prévisibles, dissimulation de marchés ou de facteurs de croissance du chiffre
d'affaires hautement probables... À ces pratiques courantes s'ajoute parfois celle de fausser
l'information comptable elle-même : sur- ou sous-estimation des stocks, décalages dans les
facturations ou l'enregistrement des charges... Ces manipulations introduisent autant de biais
dans l'information et donc dans la gestion de l'organisation.

53Comme celui de l'État, le budget de l'entreprise fait l'objet de réunions de cadrage,


d'arbitrages et de navettes entre les services concernés, le contrôle de gestion et les décideurs
(direction générale). Ce rituel est généralement l'occasion pour chacun de mesurer son
audience et de chercher à l'amplifier, fût-ce au détriment des autres. Ainsi au-delà de
nouveaux moyens alloués (investissements, recrutements) le fait d'être responsable d'une
entité budgétaire (ou a contrario d'être « noyé » dans une entité plus vaste) ou d'élargir le
périmètre de celle-ci sont les signes d'une reconnaissance (ou défiance). On reproche souvent
au processus budgétaire sa lourdeur et les rivalités internes ou égoïsmes qu'il fait naître, mais
en réalité il constitue l'un des modes de régulation des tensions internes et des rapports de
pouvoir qui grâce à lui deviennent plus feutrés et plus acceptables en étant plus techniques. Le
cadre supérieur lésé à l'occasion de l'élaboration du budget percevra le signal qui lui est
adressé (et peut-être réagira, ce qui constitue l'objectif recherché) mais pourra s'abriter
derrière la rationalité gestionnaire incarnée par le budget pour considérer que sa dignité est
respectée. Cette fonction implicite, et souvent occultée, du budget est en fait essentielle
notamment dans les grandes entreprises ou organisations.On reproche également au système
budget-reporting de ne mesurer qu'une partie des performances : celles que traduisent les
données monétaires et comptables, c'est-à-dire les flux immédiats au détriment des actions
dont les retombées sont plus lointaines (qualité, formation du personnel et d'une façon
générale ensemble des éléments immatériels favorables, à terme, à la pérennité et au
développement de l'entreprise). Cette critique est largement fondée et nous y reviendrons plus
loin (cf. infra, chap. III) mais a contrario le système favorise un apprentissage de la
gestion (économie de moyens, interactions, contraintes imposées par l'environnement...)
notamment au niveau des opérationnels qui seraient davantage et naturellement tentés par la
prouesse pour elle-même.

54Par cet effet d'apprentissage, le budget commence à développer un mode de contrôle plus
subtil, moins centré sur le repérage des dysfonctionnements (les écarts) et d'éventuelles
sanctions, et consistant davantage à favoriser un autocontrôle. Il participe donc à l'orientation
des comportements dans le sens souhaité par la direction générale ; d'autres outils
complémentaires vont s'assigner cet objectif.

Les outils de contrôle des comportements

55Ici, l'idée de base est que, au lieu de chercher les bonnes informations permettant d'aider la
hiérarchie dans ses décisions ou de contrôler les opérationnels pour maîtriser les
dysfonctionnements, on va mettre en place un système susceptible d'engendrer, dans
l'ensemble de l'entreprise, les comportements attendus.

56Les mots clés vont devenir : responsabilité, marché, prix (et non coûts) ; on remarque
qu'ils trouvent leurs racines dans le vocabulaire du droit et non plus dans celui réservé à la
gestion (comme le sont ceux de coût, budget, standard, écart...). Il s'agit en effet de simuler, à
l'intérieur de l'entreprise, un fonctionnement d'entreprises dotées d'une relative autonomie
mais corrélativement ayant à rendre des comptes et étant soumises aux aléas de la vie
économique. Dès lors, le lien de subordination, propre au salariat, et l'obligation de
moyens qui en découle vont se muter en obligation de résultat.

57Mais cette dernière est, en réalité, beaucoup plus contraignante : il ne suffit plus d'être
présent aux heures requises, de respecter les ordres avec diligence, mais il faut atteindre les
objectifs assignés avec en contrepartie une relative autonomie de moyens qui comprend celle
de faire des heures supplémentaires non déclarées. La gestion des ressources humaines a
intégré cette nouvelle dimension et substitue la gestion des compétences (terme qui a
également une origine juridique) à celle des qualifications.

58Trois approches s'inscrivent dans cette logique : l'organisation en centres de responsabilité,


la création d'un marché interne par les prix de cession (ou de transfert) et la mise en
concurrence par l'externalisation ; elles seront abordées successivement.

Le découpage en centres de responsabilité


59Découper l'entreprise en entités n'induit pas forcément la création d'une structure
indépendante. Ainsi les sections homogènes, ou centres d'analyse de la méthode des coûts
complets constituent une partition de l'entreprise ; mais elle n'a pas d'autres fonctions que de
faciliter le tri des charges indirectes. Les sections peuvent ne pas correspondre à la structure
organisationnelle de l'entreprise (ainsi on crée souvent une section « locaux ou bâtiments »
pour regrouper et répartir toutes les charges qui s'y rattachent) et être ignorées des
responsables opérationnels ou fonctionnels.

60De même, le découpage classique de l'entreprise ou organisation en divisions, directions ou


services peut être conçu de façon essentiellement hiérarchique où la logique de « courroie de
transmission » l'emporte sur celle de la délégation.

61Pour autant les frontières entre sections, directions hiérarchiques et centres de


responsabilité sont ténues et derrière des vocabulaires identiques ou voisins se cachent
souvent des réalités très dissemblables.

62Nous définirons un centre de responsabilité comme une entité dotée d'une délégation de
pouvoir et soumise à des objectifs contrôlés par un reporting spécifique.

63La direction par objectifs (DPO) ou la direction participative par objectifs (DPPO) sont des
systèmes d'organisation où l'ensemble de l'entreprise est structuré en centres de responsabilité.
Il n'y a pas de limite claire entre la DPO et la DPPO ; dans cette dernière, toutefois,
l'introduction du concept « participatif » laisse entendre que les objectifs ne sont pas
autoritairement assignés mais négociés et, peut-être, acceptés. Les fonctions de fixation des
objectifs et de contrôle restent donc centralisées, mais le « pilotage » de l'organisation est, lui,
décentralisé. On retrouve là une des modalités du couple intégration/différenciation dont
R. Lawrence et J.W. Lorsch [1989] ont montré que la bonne mise en œuvre constituait un
facteur de performance des organisations.

64Mais cette différenciation doit adapter les objectifs assignés à la nature des centres ; il
existe donc une typologie des centres de responsabilité fondée sur le niveau de maîtrise qu'ils
peuvent avoir. Elle fait l'objet du développement ci-dessous qui complète la présentation faite
au chapitre I, deuxième section (p. 22).

65Les centres de coûts. – Ce sont ceux qui ne peuvent avoir de maîtrise réelle que sur leurs
intrants (les coûts) mais peu ou pas sur leurs extrants.

66Parmi ceux-ci on distingue généralement les centres de structure ou fonctionnels


(administration générale, GRH, recherche et développement...) dont l'horizon est en principe
éloigné et dont l'activité est peu ou pas mesurable notamment par
un reporting essentiellement comptable. Leur gestion est délicate car elle ne peut s'appuyer
sur une relation volumique. Ainsi, dans une démarche de calcul de coûts complets et de
sections, le coût de la GRH est réparti en fonction du nombre de salariés des autres centres ;
mais, en cas de baisse des effectifs, peut-on réduire dans la même proportion les moyens
alloués à cette fonction ? La réponse sera probablement négative, la gestion d'une diminution
des effectifs constituant une activité consommatrice de moyens. La technique du budget-base
zéro (BBZ) est une tentative pour résoudre cette difficulté. Pour l'essentiel, elle consiste à
déterminer ou reconstruire le budget (moyens alloués) à partir des différentes missions et
fonctions du centre en retenant comme point de départ sa suppression pure et simple (base
zéro).

67Mais cette démarche lourde et traumatisante ne se prête pas à la routine. En effet, d'une
part, elle ne peut habituellement être mise en œuvre qu'avec le concours de consultants
externes (sous peine d'accuser son réalisateur de parti pris) et, d'autre part, elle provoque dans
le centre concerné un effet d'apprentissage : en cas de récidive de l'opération, les agents du
service impliqué, ayant anticipé la démarche et ses questions, ont pris le soin de prévoir les
réponses appropriées légitimant non seulement leur maintien mais surtout l'extension de leurs
moyens.

68Il s'agit donc d'un « fusil à un coup ». Par ailleurs, ce réflexe d'autodéfense face à une
agression forte risque d'amplifier les tensions internes ; chaque centre s'efforçant de conquérir
de nouveaux territoires sur les autres en cherchant à démontrer que telle ou telle tâche ou
fonction assurée par un autre le serait plus efficacement si elle était faite en son sein. D'autres
approches (cf. ci-dessous et chapitre IV) sont mises en œuvre pour gérer les services
fonctionnels.

69Les centres de soutien (ou de « support » selon un anglicisme courant). – Ils constituent un
autre type de centre de coûts mais correspondent à des activités connexes telles que
l'entretien, l'ordonnancement-lancement, l'informatique, etc. Ils disposent théoriquement de la
maîtrise de leurs intrants (coûts) pour lesquels une relation volumique peut être plus ou moins
établie avec les extrants (prestations de service aux autres centres) mais sans véritables
moyens d'action sur ceux-ci, davantage déterminés par les services consommateurs. Leur
régulation ou mise sous tension s'opère, le plus couramment, par la création d'un marché
interne, voire l'externalisation (cf. ci-dessous).

70Les centres de chiffre d'affaires. – A contrario, ils disposent, eux, davantage de la maîtrise
des extrants (les ventes) que des intrants. Ce sont typiquement les services commerciaux
habitués à se voir fixer des objectifs de ventes.

71Les centres de profit. – Ils sont réputés avoir la maîtrise à la fois des intrants et des
extrants. Leurs objectifs sont donc appréciés en termes de marge ou contribution (dans une
logique de coût partiel) ou de résultat (lorsque le système est organisé en coûts complets).
Plus que les centres de coûts ou de chiffre d'affaires, ils traduisent la mutation de l'obligation
de moyens à celle de résultat, celui-ci étant, dans ce cas, entendu au sens comptable du terme :
produits moins charges.

72L'organisation en centres de profit est d'autant mieux adaptée que l'entreprise peut
segmenter ses marchés (par type de clientèle ou par zone géographique) ou produits-marchés
(intégration de la production et de la commercialisation). Ainsi, elle constitue la forme
dominante du système d'organisation et de contrôle dans les activités de services (consultants,
publicité...) ou dans celles qui sont naturellement organisées par projet (BTP) ; elle est en
revanche moins bien adaptée (ou sous des formes moins achevées) aux secteurs produisant
des biens en grandes séries. Dans certains cas, l'autonomisation du centre de profit va jusqu'à
son aboutissement juridique en en faisant une société autonome sous la forme de filiale. Les
motivations pour la filialisation peuvent être de plusieurs ordres :

73–!nécessité juridique, tel est le cas notamment d'implantations étrangères où les conflits de
droits (fiscalité, nécessité d'avoir la personnalité morale dans le pays concerné pour y disposer
d'un maximum de droits...) imposent l'existence d'une personnalité juridique ; tel est
également le cas dans certaines professions réglementées (professions libérales, banque,
assurance, laboratoires pharmaceutiques, etc.) ;

74

 volonté d'afficher, pour des raisons commerciales, une grande autonomie de gestion et
de négociation ; ainsi certaines banques, dont la HSBC, ont filialisé leurs activités sur
certaines régions (le Sud-Ouest dans le cas de l'HSBC) ou certains métiers (le crédit-
bail) ;
 motivation des responsables qui passent ainsi du grade, largement banalisé, de
directeur à celui, plus envié, de P-DG ;
 possibilité d'alliances à la marge en faisant rentrer des partenaires dans le capital des
filiales ;
 flexibilité plus grande des contours du groupe qui peut ainsi plus facilement acquérir
ou céder des entités en quelque sorte préemballées.

75Pour autant, le P-DG de la filiale reste tributaire de son actionnaire, c'est-à-dire de la


direction générale du groupe dont il n'est, en fait, qu'un cadre supérieur. Mais la mutation
juridique soulignée plus haut trouve là son accomplissement ; l'obligation de résultat y est
formellement plus grande, le P-DG, mandataire social, est en effet juridiquement révocable ad
nutum, c'est-à-dire à discrétion et sans préavis. Derrière l'ascension sociale et le prestige se
cache parfois une précarisation réelle.

76Les centres de rentabilité. – Ils correspondent à une délégation plus complète encore.
L'objectif devenant non plus un résultat ou une marge mais une rentabilité, c'est-à-dire un taux
(10 %, 20 %...) exprimant le rapport du résultat aux capitaux engagés, le responsable est dès
lors supposé disposer d'une maîtrise portant également sur les capitaux investis. En réalité, au
sens littéral du terme, cette forme est assez rare (ainsi beaucoup de filiales ne sont pas, de fait,
des centres de rentabilité), la direction générale se réservant le droit de contrôle et de décision
sur les capitaux investis. En effet, ceux-ci concrétisent le risque et l'on touche ici aux limites
usuelles de la délégation qui s'applique davantage au pilotage à court terme (dont la
performance peut être appréciée par un résultat) qu'à une décentralisation complète. Ainsi, la
plupart des P-DG de filiales disposent d'une dotation en capital minimale et relèvent pour leur
gestion financière du pool de trésorerie du groupe ; mais ils n'ont pas la faculté de rechercher
librement des capitaux hors du groupe, ni auprès des banques, ni sur les marchés.

77Comme toute typologie, celle présentée ci-dessus correspond à certaines réalités, mais
relève largement d'une commodité conceptuelle et académique. La réalité est fluctuante à la
fois dans l'espace (d'une entreprise à l'autre) et dans le temps. La délégation est rarement
totalement formalisée et, par essence, mouvante au gré des événements et des personnes. Les
luttes internes d'influence jouent un rôle important et la conquête de marges de manœuvre ou
de pouvoir (traduit dans le langage du contrôle de gestion par l'expression « avoir la maîtrise
de ») est un jeu subtil et permanent.

78Par ailleurs, la maîtrise des intrants ou extrants est le plus souvent une maîtrise négociée et
en réalité à la marge. Ainsi, un responsable de centre de profit ne peut librement décider des
salaires de ses collaborateurs ou des conditions commerciales vis-à-vis des clients en dehors
d'un cadre étroit ; il doit davantage « vendre » ses propositions à sa hiérarchie supérieure. Le
contrôle de gestion s'efforce d'ailleurs de développer, et de clarifier, ce comportement en
simulant un marché interne.

La création d'un marché interne et les prix de cession internes


79L'organisation de l'entreprise en centres de responsabilité et a fortiori en groupe de sociétés
fait naître des transactions internes. À quel prix de cession interne (PCI ou « prix de
transfert », selon un regrettable anglicisme) prendre en compte ces opérations dans le cadre de
l'appréciation des résultats ou des performances de chacun ? Ce problème connaît plusieurs
solutions théoriques et fait l'objet d'innombrables débats et conflits dans la pratique des
entreprises.

80En bonne logique comptable, le niveau des PCI est neutre puisque les achats des uns
correspondent aux ventes des autres et que l'ensemble s'annule dans les comptes de
l'entreprise ou du groupe (comptes consolidés).

81Selon la théorie économique, la transaction doit se faire au coût marginal puisqu'un prix
supérieur à celui-ci pourrait faire renoncer l'acheteur et faire perdre, au niveau de l'ensemble,
une marge ou une absorption de charges fixes. Mais un coût marginal peut être considéré dans
une optique à court terme (coût d'une unité supplémentaire le plus souvent bien appréciée par
le seul coût variable) ou long terme (dès lors, il faut prendre en compte une partie des charges
fixes et indirectes qu'il engendre, ce qui conduit à un coût complet ou « assez complet »).

82En théorie gestionnaire mécaniste, il existe un prix, déterminable par la programmation


linéaire, qui optimise le profit global compte tenu des contraintes de volumes de production
ou d'écoulement. Mais cette théorie ignore le temps et notamment l'adaptation des conditions
de production qui permet de lever les contraintes ainsi que les phénomènes de motivation.
Elle n'a de sens que dans une économie d'offre et de pénurie, ce qui est rarement le cas.

83En théorie organisationnelle, la libre négociation entre le vendeur et l'acheteur (création


d'un marché interne) permet seule de trouver le « juste prix » motivant et rationnel à la fois
pour le vendeur et l'acheteur. Malheureusement, pour cette théorie du moins, il n'existe pas
toujours de marché externe permettant la véritable concurrence que cette approche par le
marché nécessite ; pour des transactions internes, les positions de monopole ou de monopsone
sont les plus courantes.
84Mais si les théories n'offrent pas de réponse unique et simple, la pratique révèle également
des solutions très différenciées. Deux paramètres paraissent déterminer les choix :

 le premier est relatif à l'existence d'un marché hors groupe pour des produits ou
prestations similaires (la mise en concurrence est alors envisageable et, dans les autres
cas, le prix de marché fournit une référence) ;
 le second relève de la politique interne (intégration/ décentralisation).

85Concrètement, les solutions appliquées sont souvent classées dans l'une des catégories
suivantes :

 coût réel ou standard (plus ou moins complet selon les usages de l'entreprise) ;
 coût + marge « normale », ce qui correspond d'ailleurs à la pratique fiscale qui
s'efforce de distinguer le « bénéfice de fabrication » du « bénéfice de vente » ;
 prix de marché, lorsqu'il existe ;
 prix négocié ;
 prix administré, c'est-à-dire déterminé par un niveau hiérarchique supérieur parfois en
fonction de raisons de stratégie industrielle (favoriser telle ou telle activité, ce qui
conduit parfois à des prix asymétriques – les prix d'achat et de vente sont différents –
correspondant à une politique de subventionnement) ou financière et fiscale (ainsi,
dans un groupe multinational connu, l'intéressement aux résultats du P-DG de la filiale
française n'est pas calculé sur la base de ses résultats officiels et fiscaux, mais de
résultats recalculés après prise en compte de prix de cession « normaux »).

86Mais cette classification usuelle ne traduit qu'une partie de la réalité. En effet, chaque
coéchangiste cherche surtout à défendre les intérêts de son entité. Même un centre de coûts
(non réputé dégager une marge) s'efforce de maximiser les prix de cession de ses produits ou
prestations de façon à dégager du « mou » pour la gestion de ses charges. Or si la base de
référence est le coût, il n'y a pas de véritable symétrie d'information entre le vendeur (qui sait
comment il calcule ses coûts et ce qu'il y intègre) et le vendeur ; un coût reste une opinion et
non un fait. De même, si la référence est la négociation sur le marché, de nombreux facteurs
vont interférer dans la négociation tels que la qualité, les délais, les possibilités de
modifications. Enfin, il faut également tenir compte du fait que, même lorsqu'un marché
existe, des raisons de politique interne et de confidentialité empêchent souvent d'y recourir :
on imagine mal les services commerciaux d'une entreprise de BTP faisant appel au bureau
d'études d'un concurrent pour préparer la réponse à un appel d'offres.

87Malgré tous les conflits internes qu'elles engendrent, les cessions (ou facturations) internes
se développent parfois dans le cadre d'une politique délibérée mais souvent également par une
pression des centres opérationnels. Ainsi, les services fonctionnels (achats, recrutement, etc.),
qui avaient pris l'habitude de « facturer » leurs prestations par des pourcentages immuables et
résultant davantage d'une logique de comptabilité analytique (les « taux de frais »), sont-ils de
plus en plus conduits à négocier leurs prestations sous peine d'être concurrencés par des
entreprises externes offrant le même type de service à des prix moindres.

La mise en concurrence élargie par l'externalisation


88L'externalisation consiste à sous-traiter, par définition à une entreprise autonome et
externe, une (ou des) production(s), activité(s) ou fonction(s) de l'entreprise. Ses motivations
peuvent être d'ordre stratégique, de gestion des ressources humaines ou de contrôle de
gestion.

89Dans le domaine stratégique, l'externalisation correspond généralement à une volonté de se


recentrer sur les métiers de base de l'entreprise, de favoriser le recours à un professionnalisme
externe réputé plus grand pour la fonction considérée et, d'une façon générale, de mettre en
œuvre une « cure d'amaigrissement » (lean management) dans l'entreprise. Nous n'insisterons
pas sur ces aspects qui sortent du champ ici considéré.

90Dans le domaine des ressources humaines, il s'agit parfois de limiter les effectifs
bénéficiant d'un statut ou d'une convention collective considérés comme privilégiés et
onéreux ou plus simplement de diminuer l'effectif à gérer.

91Dans le domaine du contrôle de gestion, il s'agit, d'une part, de flexibiliser des charges et
d'autre part, et surtout, d'envoyer un signal général selon lequel personne n'est irremplaçable.
Certaines entreprises se sont faites championnes de l'externalisation jusqu'à ne plus gérer que
leur marque (les chaussures de sport Nike, par exemple) et le vent de l'externalisation souffle
actuellement fort. Les services fonctionnels, en particulier, s'étaient habitués à une position de
monopole et d'impossibilité de sous-traitance ; ils sont pourtant aussi touchés. Ainsi,
l'externalisation concerne parfois tout ou partie des « grands services » habituels tels que
publicité, marketing, comptabilité, achats..., mais aussi des fonctions telles que secrétariat,
accueil, standard téléphonique, etc. Même la direction générale n'y échappe pas totalement, de
bons consultants pouvant compléter une direction amaigrie.

92Mais lorsque l'externalisation devient structurelle, il faut négocier avec les fournisseurs,
souvent devenus très dépendants, à la fois les prix, les services associés, la qualité... dans des
conditions qui ne sont pas sans rappeler celles des cessions internes.

La relation entre la structure et les outils

93Les techniques de calcul des coûts et du contrôle de gestion n'offrent pas de solution
unique : les coûts calculés peuvent être plus ou moins complets ou partiels, réels ou
prédéterminés (standards) ; le plan et le budget peuvent être impératifs ou souples ; la mise en
œuvre de centres de responsabilité peut induire des degrés variables de décentralisation.

94Face à cette boîte à outils très fournie, l'entreprise se doit de réaliser des choix déterminés,
pour partie, par ses caractéristiques (technologie mise en œuvre, nombre de produits, stabilité
ou instabilité des marchés, etc.) mais aussi par le style de direction dont elle entend se doter.
Mais ces choix de techniques de contrôle de gestion ne sont pas neutres ; ils modifient à leur
tour la façon d'aborder les problèmes et d'y apporter des solutions. Ainsi, une véritable
dialectique s'instaure entre le mode d'organisation de l'entreprise et les outils du contrôle de
gestion dont elle se dote.

95Nous ne prétendons pas refaire ici une nouvelle théorie ou histoire des structures
d'entreprise qui a été faite par ailleurs [Chandler, Lawrence et Lorsch, Mintzberg,
H. Simon...], mais nous estimons que les outils du contrôle de gestion permettent de dresser
une typologie des entreprises qui peuvent, de ce point de vue,
être unifiées, stabilisées, planifiées ou éclatées.
L'entreprise unifiée et son contrôle
96Plusieurs facteurs peuvent contribuer à l'unification de l'entreprise :

97- une technologie lourde (secteur capitalistique) et corollairement stable : l'importance des
capitaux investis constitue une barrière à l'entrée importante et conduit à un horizon long de
retour sur investissements ;

98- des produits en nombre restreint ou proches dans leur conception et leur élaboration (par
exemple : différentes qualités différenciées par leur grammage dans la papeterie) ;

99- une clientèle limitée en nombre ou très dépendante (énergie, armement) avec laquelle les
relations et négociations sont espacées et prennent la forme de plans d'approvisionnement
conclus pour de longues durées ;

100- une conception hiérarchisée de l'entreprise dans laquelle tous les rouages sont solidaires,
sans que l'on fasse ressortir la part de chacun dans la création de valeur.

101Il n'est pas nécessaire que chacun de ces facteurs existe, mais il suffit que l'un (ou
plusieurs) d'entre eux structure l'ensemble.

102Dans ce contexte, la méthode des coûts complets (technique des sections homogènes)
permet de refléter et d'accentuer la solidarité des fonctions (sections) entre elles. Le schéma
descendant des charges (les coûts des sections amont « se vident » sur ceux de l'aval)
correspond à la structure de l'entreprise. L'information produite (des coûts par produit) permet
une surveillance globale par les dirigeants et leur permet de fixer des prix de vente assurant la
couverture des charges fixes (équipements) sur longue période. Le vocabulaire traduit (trahit)
souvent cette conception de stabilité et de hiérarchie : prix (et non coût) de revient, résultat (et
non marges) par produit, coefficients ou taux (pour transformer les « prix » de revient en prix
de vente, pour répartir des charges indirectes), section (et non centre d'analyse) ; d'une façon
générale, une culture empreinte de certitudes et de foi dans la vérité des chiffres fournis par le
système de contrôle imprègne ce type d'entreprise. Dans cette conception de l'organisation, le
contrôle est essentiellement opérationnel, il se réalise par la hiérarchie et la supervision
directe mais rarement par une comptabilité de gestion ; on s'y exprime davantage en termes
d'unités physiques que d'unités monétaires, en termes de moyens que d'objectifs ; le concept
même de contrôle de gestion y est peu répandu.

103Ce type d'organisation se trouve essentiellement dans l'industrie lourde : sidérurgie,


chimie, mécanique, automobile, BTP. Tous les coûts calculés y sont « chargés », c'est-à-dire
prennent en compte :

104- d'une part, des coûts directs tels les déchets et rebuts pour les matières, l'improductivité
pour le personnel,

105- d'autre part, une quote-part des charges de structure réparties par l'intermédiaire des
centres auxiliaires, les « frais généraux ».

106Ainsi, le technicien dont le salaire brut est de 15 euros par heure pourra être pris en
compte pour 50 euros par heure. La différence s'explique par :

107- les charges patronales qui constituent un coût direct indiscutable ;


108- le coût des heures improductives payées et non imputées à un ordre de fabrication ou
une commande (un taux de productivité de 60 % est courant) ;

109- une quote-part des frais de structure (services fonctionnels, impôts, etc.).

110On retrouve également ce type d'approche dans des activités tertiaires. Ainsi, dans la
plupart des banques, les frais opérationnels administratifs (coût de traitement des chèques,
d'établissement des relevés, etc.) sont calculés de façon comparable pour leur refacturation
aux centres de profit que constituent les agences.

L'entreprise stabilisée et son contrôle


111Des variations, saisonnières ou conjoncturelles, du niveau d'activité introduisent des
perturbations dans les coûts (liaison volume/coût).

112La maîtrise de ces fluctuations passe par l'évaluation de leur impact (coût de la sous-
activité) pour, d'une part, déterminer les palliatifs envisageables (travaux en sous-traitance,
production d'immobilisations pour soi-même, etc.) et, d'autre part, retrouver des repères
stables dans un environnement perturbé. Dans ce contexte, la recherche d'une solidarité dans
le temps (et non plus seulement dans l'espace interne comme dans l'entreprise unifiée) par la
technique de l'imputation rationnelle des charges fixes apparaît comme une réponse
appropriée.

113Pour surveiller l'organisation, on va isoler les effets du niveau d'activité (sur- ou sous-
absorption des charges fixes) par l'application d'une norme ou d'un coefficient (on retrouve ici
le vocabulaire de l'entreprise unifiée).

114Pour gérer les produits sur leurs marchés, on va lisser les coûts fixes unitaires (ce qui
s'apparente à un calcul statistique en données corrigées des variations saisonnières) pour
trouver la référence du coût permettant une « juste » fixation des prix de vente sur une base
stabilisée.

115Par rapport à l'entreprise unifiée, l'environnement (technologie, produits, clientèle) et la


conception de l'organisation (hiérarchisée) sont souvent identiques ; la prise en compte du
temps (et de ses aléas) représente toutefois une différence sensible dans l'appréhension du
système de contrôle et de ses fonctions.

116Ce sont surtout les entreprises dont la saisonnalité de l'activité est prévisible mais
inévitable qui cherchent ainsi à stabiliser leurs coûts. Ainsi, dans le secteur agro-alimentaire,
les charges fixes (amortissements, loyers, etc.) et de structure (services fonctionnels) sont
souvent budgétées puis réparties sur chacun des douze mois de l'année selon des
« abonnements » qui prennent en compte le niveau prévisible de l'activité : surpondération des
mois de pleine activité, sous-pondération des autres. Ainsi les coûts unitaires calculés sont
lissés ou corrigés des variations saisonnières et leurs variations doivent traduire des
performances internes non perturbées par une influence exogène non maîtrisable.

L'entreprise planifiée et son contrôle


117La diversité est caractéristique d'un nombre croissant d'organisations. Elle peut se
manifester à propos des différents facteurs que nous avons évoqués pour l'entreprise unifiée :
118- les technologies mises en œuvre peuvent être variées (ainsi dans l'industrie automobile,
mécanique à la base, l'informatique pénètre de plus en plus tant au niveau de la production
– GPAO : gestion de production assistée par ordinateur – que dans le produit lui-même
– « ordinateur » de bord des véhicules) ;

119- les produits se présentent sous forme d'une gamme importante et évolutive (hautes
technologies) ;

120- la clientèle est diversifiée et volatile (produits de grande consommation, informatique).

121Dans ce contexte, l'entreprise va se complexifier et devant la multiplicité des tâches et


fonctions, la réponse réside, le plus souvent, dans la division et la spécialisation du travail
ainsi que dans la formalisation des instructions.

122L'organisation taylorienne est une réponse à ces besoins pour le personnel et les fonctions
d'exécution. Le budget en est la forme la plus élaborée aux niveaux hiérarchiques supérieurs.
Le plan est l'instrument de coordination des directions fonctionnelles et opérationnelles. Dans
ce type d'entreprise, les ordres et instructions sont davantage exprimés par des chiffres et des
unités monétaires que dans les cas précédents. Face à la diversité et à la complexité, l'unité
monétaire est la seule référence commune à l'ensemble permettant des comparaisons et des
additions dans l'espace et dans le temps. Le système budget-contrôle budgétaire-
reporting devient à la fois un langage interne et un instrument de surveillance de la
décentralisation.

123C'est surtout au niveau des services centraux et fonctionnels que les budgets constituent
l'instrument privilégié du contrôle de la gestion. Comme dans l'administration ou les services
publics, ne pouvant mesurer la performance par les coûts ou la production, on a recours à une
délégation de moyens formalisée par le budget qui est en réalité une autorisation de dépense
(budget limitatif). Mais, surtout dans les grands groupes, la culture du budget que vivent les
services centraux conduit ces derniers à reproduire le modèle dans les unités opérationnelles,
filiales ou divisions, et à leur imposer un reporting davantage conçu en fonction des besoins
centraux que des besoins locaux. Dès lors, les entités décentralisées considèrent ces budgets
plus comme un mal nécessaire que comme un outil d'aide à la décision.

L'entreprise éclatée et son contrôle


124Lorsque, à la diversité, s'ajoute une turbulence (nouvel effet du temps) subie de
l'environnement ou voulue par la direction dans le cadre d'une stratégie offensive, la
planification nuit à la réactivité de l'organisation.

125Ce besoin de réactivité va susciter une multiplication des informations nécessaires à la


prise de décision : le coût variable (considéré comme équivalent du coût marginal) informe
sur la limite inférieure du prix de vente, le coût direct évolué élargit l'horizon du temps et de
l'espace, mais surtout le raisonnement en termes de contribution modifie complètement
l'optique. Les charges de structure ne sont plus « descendues » vers l'opérationnel, mais celui-
ci doit remonter une marge ou contribution finançant la structure et le développement de
l'entreprise.

126En termes de contrôle, il s'agit de substituer la bonne structure orientée vers des résultats
décentralisés à la bonne solution décidée par la direction mais qui aurait perdu de sa
pertinence en cheminant tout au long de la hiérarchie. L'obligation de résultat va donc prendre
le pas sur l'obligation de moyens et la rationalité procédurale du contrôle sur sa rationalité
instrumentale. Tel est l'objet de l'organisation en centres de responsabilité très décentralisés.

127On trouve surtout ce mode d'organisation dans les entreprises disposant d'un réseau de
distribution étendu. Ainsi, les points de vente des chaînes commerciales ou les agences des
banques sont généralement organisés selon ce modèle. De même, dans les activités de conseil,
chaque cellule de consultants – voire chaque consultant – est souvent contrôlée en isolant,
d'une part, ses coûts spécifiques ou directs et, d'autre part, ses produits, le solde constituant
une contribution à la couverture des charges de structure et au bénéfice. La maîtrise de tous
les coûts et produits améliore la réactivité et accentue la responsabilisation ou mise sous
tension.

128Mais les grandes organisations sont complexes et non homogènes ; elles peuvent, et
souvent souhaitent, être à la fois unifiées (par exemple, par les produits) et éclatées (par
exemple, par les marchés) ; la réponse adaptée, en termes de systèmes de contrôles, est donc
souvent protéiforme et évolutive.

L e modèle comporte une double limite qu'il est nécessaire de connaître afin d'en faire un
usage « prudent et avisé » : des limites techniques et des limites liées à une idéologie qui
survalorise le côté volontariste du manager.

Les limites techniques du modèle

2La comptabilité industrielle puis analytique et enfin le contrôle de gestion sont nés dans des
entreprises industrielles travaillant en série et vendant sur stocks. Le modèle sous-jacent du
contrôle de gestion est donc celui de la répétition continue du cycle :

3Achats \ stocks \ production \ stocks \ ventes

4Ce modèle repose sur la méthode analytique clairement exposée par Descartes : « Diviser
chacune des difficultés que j'examinerais, en autant de parcelles qu'il se pourrait et qu'il serait
requis pour les mieux résoudre. » Elle présuppose que le tout est égal à la somme des parties
et que l'on peut segmenter puis réagréger sans perte d'informations.

5Ce présupposé va engendrer trois hypothèses techniques implicites :

6- le temps y est conçu comme une répétition, à l'identique, de ce cycle et dès lors il
est sécable et agrégeable (l'année est la somme de douze mois, le mois une somme de jours
ou de cycles, etc.) ;

7- l'entreprise peut s'analyser en une somme d'entités étanches et aux frontières nettes (les
sections ou centres de responsabilité) ;

8- la fonction du contrôle de gestion est la mesure ou allocation des intrants et extrants des
entités, simple problème technique ayant des solutions précises.

9Ces trois hypothèses sont, elles-mêmes, discutables et l'évolution technique et sociale les
rend de moins en moins pertinentes.
Le temps et les cycles de l'entreprise
10En réalité, l'entreprise ne s'organise pas autour d'un mais de nombreux cycles qui
interfèrent et qui ne se renouvellent pas à l'identique.

11Le cycle achat-production-distribution est certes structurant pour beaucoup d'entreprises


mais, à côté de lui, d'autres ont des rythmes et des processus de décision et de pilotage très
différents.

12Tel est le cas des investissements qui ont des durées de vie variables et imbriquées (la
durée de vie du moteur peut être différente de celle de la machine d'où l'amortissement par
composants introduit par les normes comptables internationales IFRS). Dès lors, on peut se
demander de quel niveau hiérarchique relève leur gestion. La réponse usuelle et formelle est
que les investissements de développement ou de capacité relèvent de la stratégie (le futur
éloigné) et des niveaux élevés de la hiérarchie alors que les investissements courants et de
productivité relèvent du pilotage et des opérationnels (le présent ou le futur immédiat). En
réalité, ces césures sont le plus souvent artificielles et la réponse des organisations est de
segmenter par tranches de montants les lieux de décision de l'investissement. Mais cette
réponse de la pratique n'est guère satisfaisante et fait l'objet de contournements fréquents :
morcellement d'un investissement en petits éléments non soumis à l'approbation supérieure,
recours au crédit-bail ou à la location qui dissimulent la nature réelle de l'opération, accord
avec des sous-traitants ou partenaires pour qu'ils réalisent l'investissement et le mettent à la
disposition de l'entité en échange de contreparties convenues sur les prix des opérations
courantes, etc.

13La durée de vie des produits est encore un autre cycle d'ailleurs de moins en moins
saisissable : les produits A ne sont plus remplacés par B mais évoluent de façon plus
continue en A', A''... Ces évolutions et mutations n'ont pas le même sens ou la même portée
pour les différentes entités de l'entreprise. Une grande modification technique peut avoir une
faible portée commerciale ou vice versa.

14D'autres rythmes ou cycles existent dans l'entreprise tels que celui des saisons, de la durée
de maintien à un poste ou une fonction. Or, le contrôle de gestion cherche généralement à
imposer un rythme unique : le sien, c'est-à-dire celui qui s'adapte le mieux à sa propre
fonction. Ainsi, la généralisation du système de budget et de reporting structure toute
l'entreprise en années et mois calendaires.

15Mais ce découpage unique du temps fait que chacune des fonctions est perçue de façon
asynchrone. Il en résulte d'une part que le contrôle de gestion traduit mal les réalités (nous y
reviendrons plus loin, p. 64) mais aussi qu'il engendre les dysfonctionnements.

16Ainsi, il sait mal (ou pas du tout) gérer les charges ou produits dont les effets sont différés
dans le temps. Par exemple, le contrôle de la gestion de la recherche-développement reste à
inventer et illustre les limites de l'outil. Pour le moment, les recettes usuelles sont composées
d'un panachage plus ou moins subtil et variable (selon les entreprises mais aussi dans le
temps) de budget de dépenses (allocation de moyens) et de facturations internes. Le centre de
recherche de la société Toshiba est géré grâce à un budget ainsi réparti : 10 % de ressources
externes (subventions, etc.), 45 % de ressources obtenues et négociées par des prestations
« facturées » aux entités opérationnelles et 45 % allouées par le conseil d'administration (la
plus haute instance de la société). Cette répartition ménage les différents horizons de la
recherche : le court et moyen terme (développement de nouveaux procédés, etc.), s'inscrit
dans une logique de marché interne qui suppose que l'on trouve des « clients » et que l'on soit
compétitif alors que le long terme (l'invention et la création des produits futurs) relève de la
stratégie et doit être financé et contrôlé par l'instance qui en a la responsabilité.

17Les services fonctionnels (ou de structure) dont l'horizon normal est le long terme se
prêtent mal à un contrôle routinier. La suppression d'un poste ou d'une fonction de leur ressort
se traduit, dans le budget, par une économie à due concurrence mais où et quand situer le
manque à gagner ? Ne sachant répondre à ces questions, le contrôle les ignorera et donnera
l'illusion de leur inutilité. L'image prend le pas sur le réel et les services fonctionnels en
subissent actuellement les effets par des réductions drastiques de leurs effectifs.

18Si le contrôle de gestion cherche à réduire la réalité à un seul cycle, il présuppose


également que celui-ci se reproduit de façon invariante selon une conception très newtonienne
de l'univers ; plus précisément le futur est une transformation homothétique (B x %) au
présent. L'hypothèse de base des sections est l'homogénéité (en réalité l'homothétie), c'est-à-
dire que les extrants (en unités d'œuvre) sont réalisés à partir d'intrants mixés dans des
proportions stables. Il en est de même des budgets qui non seulement supposent mais
engendrent également une stabilité globale de l'organisation ; les changements qui font
obstacle aux comparaisons dans le temps sont des perturbations. En réalité, les effets
d'apprentissage, par exemple, prennent rarement la forme d'une courbe continue que le BCG
(Boston Consulting Group) a cru observer mais procèdent par ruptures erratiques et dont les
effets sont certes quantitatifs (diminution du volume des intrants) mais aussi qualitatifs.

19Par ailleurs, le contrôle de gestion parvient généralement à estimer l'occurrence d'un fait et
d'un coût mais rarement sa date exacte (par exemple, un entretien ou le remplacement d'une
pièce importante) et il étale donc ce type de coût sur une période (technique dite de
l'abonnement annuel) ; pour limiter les écarts, le responsable va adopter un comportement
opérationnel calqué sur celui de son budget mais qui n'est pas nécessairement le plus efficient.
Le développement de contrats d'entretien externalisés n'est pas étranger à ce fait. Dans le
secteur public où le budget est très prégnant, la pratique s'est développée d'associer à chaque
investissement important (un lycée, un éclairage public, un réseau d'égouts...) un marché
d'entreprise de travaux publics (METP) conclu pour plusieurs années qui rend le bénéficiaire
responsable du maintien en l'état moyennant un abonnement annuel en général constant alors
que les coûts d'entretien sont généralement faibles au début (équipement neuf). Dans ce type
de décisions, il est difficile de faire la part entre la rationalité économique et l'impact indirect
du système de contrôle, qui, détestant l'imprévu et le non-routinier, conduit à des décisions
non nécessairement efficientes mais faciles à prendre en compte dans le système de contrôle.

20Sachant mal intégrer les différentes dimensions du temps ainsi que le long terme, le
contrôle de gestion privilégie le court terme en présupposant que la maximisation des profits
instantanés induit ceux sur la durée.

Le découpage en entités
21Que ce soit pour des raisons de commodité opératoire (les sections du calcul des coûts) ou
de commodité de l'organisation et du suivi de la délégation (centres de responsabilité), le
contrôle de gestion procède par découpage (parcellisation, dirait Descartes) de l'entreprise.

22La validité de cette technique repose sur deux principes du contrôle de gestion :
23- dans son rôle passif (mieux appréhender les coûts et produits), il ne déforme pas le réel
(les centres ou sections sont à la fois homogènes et non poreux : tous leurs flux d'intrants et
d'extrants sont bien recensés) ;

24- dans son rôle actif (accentuation de la motivation et des performances dans le sens
souhaité), il suppose que l'optimum global est égal à la somme des optimums locaux et qu'il
n'y a pas de synergie positive ou négative.

25Plusieurs caractéristiques de la plupart des entreprises validaient ces postulats.

26Dans les productions de biens en séries, des stocks tampons (produits semi-ouvrés)
disposés tout au long du processus isolaient les différentes étapes. Une rupture de rythme à
l'un des stades était absorbée par le stock (dont c'était la fonction) et par conséquent non
communiquée vers l'aval et l'on pouvait mesurer la production (et donc la productivité) de
chacun en limitant les risques de parasitage sur l'environnement immédiat. Le zéro stock, les
flux tendus et l'automatisation ont compacté l'ensemble en provoquant une globalisation qui
dramatise les incidents et rend artificielle la mesure des extrants à chacun des stades. « Aussi
faut-il regrouper sur une même équipe les tâches d'entretien, diagnostic, dépannage avec le
moins de division du travail possible, car c'est la seule manière d'assurer à la fois un
diagnostic rapide en cas d'incident et un bon entretien préventif. Gérer la panne c'est aussi
essayer de regrouper dans la mesure du possible les services de conception et les services
d'exploitation » (Y. Lasfargues, « De la peine à la panne », Le Monde, 22 août 1987). Dans
un système très automatisé et intégré, l'obligation de moyen (présence et productivité
individuelles) se transforme, de fait, en obligation de résultat (assurer le bon fonctionnement)
dont la responsabilité est diffuse et confuse : la défaillance a-t-elle une origine opérationnelle,
de conception, d'entretien préventif ?

27Cette globalisation (ici antonyme de fragmentation, spécialisation et non dans le sens de


l'anglais global qui signifie mondialisation) de l'organisation se retrouve également dans la
circulation de l'information : autrefois celle-ci circulait sous forme de liasses de papier selon
un schéma très linéaire et parallèle à celui des biens matériels eux-mêmes : l'ordre de
fabrication et la « fiche suiveuse » accompagnaient le processus d'élaboration et consignaient
le travail de chacun qui souvent en gardait une trace pour preuve de son rôle (un exemplaire
de la liasse). Aujourd'hui chacun consulte et met à jour la boîte noire que constituent les bases
de données : l'information est plus globale et moins individualisée.

28Face à cette globalisation de l'organisation et de l'information, le découpage de l'entreprise


rend mal compte (rôle passif), contrarie (rôle actif) les transversalités et replie les entités sur
elles-mêmes.

29En particulier, l'effet réseau qui traduit les interdépendances plus ou moins importantes
selon les organisations et les métiers y est ignoré. Ainsi dans les entreprises de transport,
l'organisation en différentes agences qui couvrent un territoire en centres de responsabilité est
souvent illusoire ou dangereuse. À qui attribuer la marge d'une opération partie de A et livrée
par B ? Chacun va s'organiser pour maximiser le service (délais) à ses clients réguliers (ou
aux opérations pour lesquelles la marge lui est attribuée) au détriment de ceux des autres ; la
qualité globale du service va en être affectée.

30De même, l'effet d'arrosage (par exemple, l'impact d'une publicité ou promotion nationale)
perturbe toute mesure des performances de commerciaux.
31Le découpage par entités dont procède tout contrôle de gestion rend compte de moins en
moins bien des entrants et extrants mais surtout risque, s'il s'accompagne d'un système de
sanction-récompense puissant cherchant à développer la motivation, de développer
des comportements égoïstes sans cohérence globale.

La mesure
32Initialement, en comptabilité analytique, l'essentiel de la technique reposait sur la saisie des
informations de base et le traitement comptable de l'allocation des charges. L'absence
d'informatique rendait ce travail lourd et plus onéreux que celui de la comptabilité générale.
Ainsi, alors que cette dernière ne réalisait qu'un seul enregistrement par bulletin de paie, la
comptabilité analytique devait le ventiler en de multiples imputations par produits ou sections.
Du côté des extrants, le problème était plus simple : la production se mesurait en unités
physiques, moins différenciées qu'aujourd'hui, et plus stables dans le temps.

33Aujourd'hui, le problème du traitement des entrants s'est considérablement réduit sous


l'effet, d'une part, de la globalisation de la production soulignée plus haut et, d'autre part, du
recours à une informatique décentralisée qui saisit les faits à la base et les traite directement.

34En revanche, le nouveau problème est celui de la mesure des extrants. Comment mesurer la
« production » d'un fonctionnel, d'un service d'entretien préventif ou responsable de la
qualité ? Le contrôle de gestion a centré toute son instrumentation sur la mesure des coûts, en
réputant aisée la mesure de la production ou de l'activité, alors que l'enjeu actuel n'est plus de
savoir combien cela a coûté mais combien cela a produit.

35Ainsi, dans les activités de services (logées dans le secteur tertiaire mais aussi dans le
primaire et le secondaire) intrants et extrants se confondent. Quelle est la « production » d'une
heure (ou d'une journée) de conseil, de service en informatique ou de formation ? La réponse
est simple : une heure (ou une journée) ! Mais, dès lors, comment mesurer un rendement, une
activité ou une performance ?

36Dans l'industrie automobile, on peut facilement mesurer le coût d'une option, plus
difficilement celui de l'existence d'options diverses qui permettent une personnalisation des
produits ; mais comment évaluer l'effet de l'offre d'options sur l'ensemble des ventes ? Dans
les banques, l'utilisation des distributeurs automatiques est refacturée par l'établissement
propriétaire de l'appareil à celui qui détient le compte de l'utilisateur. Une grande banque a
ainsi décidé de facturer à ses clients l'utilisation de guichets d'autres réseaux. Le gain
(économie de coûts) a été facilement mesuré mais non l'effet sur la clientèle qui, déçue par ce
comportement de sa banque, a préféré changer d'établissement (perte de produits).

37Dans les décisions, le mesurable est surpondéré par rapport au non-mesurable et en


focalisant l'attention sur les coûts, le contrôle de gestion ne montre qu'une des faces de Janus
et introduit un biais dans la rationalité qui le fonde.

Les limites liées à l'idéologie véhiculée par le modèle

38Les modèles les plus classiques du contrôle de gestion supposent que l'on puisse isoler le
lieu et l'instant de la prise de décision et que, par ailleurs, on puisse décrire un raisonnement
qui objectivise la relation entre connaissance et action. Le contrôle de gestion n'est pas seul en
cause ; ce sont les sciences de gestion qui succombent souvent aux charmes simples du mythe
du décideur ou à l'image valorisante du pilote [Burlaud, in Ducrocq et Levant, 2012, p. 105
et suiv.]. Ces héros des temps modernes sont censés savoir tout ce dont ils ont besoin, en
temps et en heures, et peuvent décider de la meilleure solution (le fameux one best way) qui,
sans discussion, sera inévitablement appliquée. Le pilote, seul et responsable, décide ; la
machine obéit.

39Face à cette idéologie, car il s'agit véritablement d'une idéologie, il y a l'antihéros que
Tolstoï dépeint dans Guerre et Paix [1][1]Le renvoi aux grandes oeuvres littéraires est
également à noter…. « Une idéologie est un système, plus ou moins cohérent d'idées,
d'opinions ou de dogmes, qu'un groupe social ou un parti présentent comme une exigence de
la raison mais dont le ressort effectif se trouve dans le besoin de justifier des entreprises
destinées à satisfaire des aspirations intéressées [...]. L'idéologie est une offre
intellectuelle répondant à une demande affective. Tout se passe comme si l'idéologie
était fabriquée pour répondre à certains besoins sociaux » [Foulquié, 1982, p. 337]. Revenons-
en à notre antihéros. Il est sans doute moins conforme aux clichés hollywoodiens de la
littérature sur l'entreprise, mais il est sans
40doute plus vrai, en tout cas plus humain. Dans ce qui suit, nous emprunterons beaucoup à
Tolstoï qui, selon nous, fut un grand théoricien des organisations.

Du temps discret au temps continu


41Le temps du héros se découpe en tranches. Veni, vidi, vici, a dit Jules César. Le modèle du
contrôle sépare le temps de la décision de celui de l'action. Nous sommes dans une logique de
l'anticipation qui correspond à un environnement planifiable. Cela est illustré par le cycle de
gestion (ou la roue) de Deming :

42

43Mais en découpant le temps en tranches, on explique aussi qu'Achille ne rattrapera jamais


la tortue [Tolstoï, 1987, tome 2, p. 268]. Le temps réel décrit par Tolstoï est continu et la
personnalisation du héros ne résiste pas à l'analyse que l'auteur fait des campagnes
napoléoniennes en Russie. « Ceux qui pensent ainsi oublient ou ignorent les conditions dans
lesquelles s'exerce inévitablement l'activité d'un grand chef. Cette activité n'a rien de commun
avec l'image que nous nous en faisons lorsqu'assis paisiblement dans notre cabinet, nous
étudions sur la carte une campagne quelconque, connaissant le nombre des troupes de chaque
camp et la région, et considérant l'événement comme ayant commencé à tel moment
déterminé. Les conditions dans lesquelles est placé le général en chef sont toutes différentes :
il ne se trouve pas au commencement mais toujours au milieu d'une série mouvante
d'événements, et de telle sorte que jamais, à aucun moment, il n'est en état de saisir toute la
signification de ce qui se passe. La signification se dessine progressivement, insensiblement,
de façon continue, se précisant de minute en minute ; et à chaque moment de cette
progression, le général en chef se trouve au centre d'un jeu complexe d'intrigues, de
préoccupations, d'influences, d'autorités diverses, de projets, de conseils, de menaces, de
mensonges, et est constamment obligé de répondre aux innombrables questions qu'on lui
pose, souvent contradictoires » [ibid., p. 273].
44Cette idée d'un temps continu qui lie étroitement la connaissance et l'action correspond
aussi à l'image du potier de Mintzberg, à laquelle nous avons déjà fait référence, et qui (le
potier mais peut-être aussi Mintzberg...) conçoit son ouvrage tout en le réalisant. « Qui dit
activité et apprentissage de l'activité dit enchaînement continu de milliers de microtâches, de
microdécisions, de gestes, d'intuitions, de réflexes, d'essais, d'observations, tout cela
étroitement emmêlé. Le temps qui nous intéresse n'est alors plus une séquence discrète
d'événements individualisés et instantanés [...], mais le déroulement de processus dans la
durée » [Lorino, 1995, p. 33]. À une logique de l'anticipation fondée sur un enchaînement
« plan ou décision \ action » se substitue une « logique de la réactivité [qui] repose sur une
vision différente du temps qui tend à estomper l'opposition classique court terme-long terme »
[Baranger et Chen, 1994, p. 22].

45Concrètement, une des conséquences pratiques d'une prise en compte différente du temps
parmi bien d'autres est l'apparition de l'ingénierie simultanée. Cette technique, née dans
l'automobile, a pour but de rechercher à « adapter l'objet à fabriquer dès sa phase de
conception aux contraintes de la production automatisée connues de l'équipementier.
Relativement à une procédure classique d'appel d'offres [...] l'ingénierie simultanée consiste à
choisir une collaboration technique précoce, avant même que la solution technique ne soit
élaborée. L'investisseur accepte donc une perte de flexibilité vis-à-vis du choix de
l'équipementier et parie sur une activité d'ingénierie commune permettant d'aboutir à la
solution technologique la plus satisfaisante. Le développement simultané d'une pièce et d'un
outil doit permettre de mieux adapter le produit fabriqué à la production automatisée et, ainsi,
d'économiser du temps de développement pour l'équipementier » [ECOSIP, 1990, p. 113].
L'application de cette démarche aurait permis par exemple de gagner dix mois dans la
conception du moteur de la Fiat Uno par rapport à une approche séquentielle du problème.

De la transparence vers l'opacité du réel


46Le modèle du contrôle de gestion suppose une réalité connue. Le décideur est informé ou a
les moyens de l'être pour décider de façon rationnelle.

47Or l'antihéros tolstoïen est sous-informé. L'auteur décrit ainsi la bataille de Borodino. « Les
aides de camp envoyés par l'empereur et les ordonnances que lui dépêchaient ses maréchaux
arrivaient sans cesse du champ de bataille et l'informaient de la marche des opérations ; mais
tous ces rapports étaient faux, et parce qu'il est impossible dans le feu du combat de dire ce
qui se passe à un moment donné, et parce que beaucoup de ces aides de camp n'allaient pas
jusqu'au lieu du combat et rapportaient ce qu'ils avaient entendu dire ; de plus, tandis que
l'aide de camp parcourait les deux ou trois verstes qui le séparaient de Napoléon, la situation
avait changé et les renseignements qu'il rapportait à l'empereur n'étaient plus exacts. Ainsi, un
aide de camp du vice-roi vint annoncer la prise de Borodino, et que le pont sur la Kolotcha
était aux mains des Français, et il demanda si les troupes devaient traverser la rivière ;
Napoléon donna l'ordre aux troupes de prendre position sur l'autre rive et d'attendre.
Cependant, bien avant que Napoléon eût donné cet ordre, alors que l'aide de camp venait
seulement de quitter Borodino, les Russes avaient repris et brûlé le pont [...]. Tenant compte
de ces rapports nécessairement faux, Napoléon prenait des mesures qu'on avait déjà prises
avant qu'il les eût ordonnées, ou bien qui s'avéraient inexécutables » [Tolstoï, 1987, tome 2,
p. 243-244].

48Nous laissons au lecteur le soin de transposer ce récit au cas d'une entreprise de son choix...
Il pose le problème des systèmes d'information de gestion qui, pour être fiables et rigoureux,
demandent du temps de conception et de collecte, mais livrent l'information après la bataille !
Les immenses progrès dans les technologies de l'information ne sont pas en cause. Malgré les
ordinateurs et les télécommunications, l'interprétation des informations comptables et de
gestion reste longue et difficile. En matière d'informations de gestion, la rétention n'a pas
disparu. Les comptables essaient de résoudre en partie ces problèmes grâce à la technique des
coûts préétablis et à celle de l'abonnement des charges, mais elles supposent que l'avenir ne
diffère pas trop du passé.

Du décideur au jeu d'influence


49Au modèle simpliste du pilote s'oppose celui de l'autonomie des acteurs : « autonomie
cognitive (chaque acteur détient en propre sa part de la connaissance nécessaire à l'action) et
autonomie politique (chaque acteur détient sa part du pouvoir) » [Lorino, 1995, p. 41].

50Le « héros » tolstoïen, qui raisonne sur un temps artificiellement fractionné avec des
informations incomplètes, partiellement fausses et parfois contradictoires, est au centre d'un
jeu d'influences qu'il ne maîtrise pas, ce qui pose la question de son pouvoir réel. Par une
métaphore, Tolstoï montre que l'existence concomitante de grands hommes et de grands
événements ne suffit pas à établir un lien de cause à effet. « Pourtant, chaque fois qu'il y eut
des conquêtes, il y eut des conquérants, chaque fois que des bouleversements se sont produits
dans un État, il y eut de grands hommes, disent les historiens. En effet, toutes les fois
qu'apparaissaient des conquérants, il y avait des guerres, répond l'esprit humain, mais cela ne
prouve pas que les conquérants soient la cause des guerres et que l'examen des actes d'un
homme puisse nous permettre de découvrir les lois de la guerre. Toutes les fois que,
consultant ma montre, je vois que l'aiguille a atteint le chiffre dix, j'entends sonner les cloches
de l'église voisine ; mais du fait que toutes les fois que l'aiguille est sur dix les cloches
sonnent, je n'ai pas le droit de conclure que la position de l'aiguille est la cause du mouvement
des cloches » [Tolstoï, 1987, tome 2, p. 270]. Les grands événements seraient-ils donc le fruit
de la somme des actions de milliers d'acteurs largement autonomes dont les gestes, pris
séparément, sont insignifiants ? Pour Tolstoï, il y a là une part de vérité. Il l'explique d'ailleurs
plus précisément. « Napoléon [...] ne fut pour rien dans la direction de la bataille, parce
qu'aucun point de son dispositif ne fut exécuté et que lui-même ignora pendant le combat ce
qui se passait. En conséquence, le fait que ces gens ont massacré leurs semblables s'est
produit sans intervention de sa part, non point par la volonté de Napoléon, mais bien par celle
de centaines de milliers d'hommes qui participaient à l'affaire. Napoléon eut seulement
l'illusion que tout se faisait par sa volonté » [Tolstoï, 1972, p. 1023].

Un décideur n'est pas là pour décider


51Le « héros » tolstoïen n'est-il alors que le jouet des événements ? Tolstoï a l'intelligence de
ne pas répondre de façon simpliste, par l'affirmative, à cette question. La réalité est plus
subtile. « Le prince André écoutait attentivement les paroles que Bagration échangeait avec
les différents chefs et les ordres qu'il leur donnait, et il remarquait avec étonnement qu'aucun
ordre n'était donné en réalité et que Bagration essayait seulement de faire croire que tout ce
qui se produisait par nécessité ou par hasard ou sur l'initiative des commandants subalternes,
que tout cela se faisait sinon sur ses ordres, du moins conformément à ses intentions. Et le
prince André s'aperçut qu'en dépit de la part que tenait le hasard dans le déroulement des
événements qui ne dépendaient pas de la volonté du général en chef, grâce au tact de
Bagration, sa présence avait une importance considérable. Ceux qui arrivaient auprès de lui le
visage bouleversé se rassérénaient, les soldats et les officiers le saluaient gaiement, et tenant
évidemment à manifester devant lui leur courage, se montraient plus ardents » [Tolstoï, 1987,
tome 2, p. 252].

52Le décideur, ici Bagration, n'est pas le jouet des événements. Mais il n'y a pas cette relation
mécanique entre la décision et l'action propre au modèle du pilote. Le général en chef a
une influence sur les événements dans la mesure où il influe sur la représentation que les
acteurs se font de la situation. Mais il n'influe pas librement, selon son bon vouloir. « Ils
accomplissaient une œuvre dont le sens leur échappait. [...] Tel est le sort invariable de tous
les hommes d'action, et ils sont d'autant moins libres qu'ils occupent un poste plus élevé dans
la hiérarchie sociale » [Tolstoï, 1972, p. 891]. Le thème des chefs dont la volonté est
contredite et dominée par un « destin » qui leur échappe est également magnifiquement
illustré par Jean Giraudoux : La Guerre de Troie n'aura pas lieu.

53En conclusion de cette section, quand on transpose à l'entreprise ce que Tolstoï décrit dans
une organisation bien particulière, l'armée, on découvre la naïveté des représentations de
l'autorité dans une partie importante de la littérature économique et managériale y compris
dans celle consacrée au contrôle de gestion. L'autorité, pour s'exercer, doit être légitime ou,
autrement dit, s'inscrire dans des forces collectives qu'il faut savoir utiliser. Ainsi apparaissent
à côté des stratégies volontaristes, les stratégies émergentes, la réalité étant probablement, en
général, un mélange des deux.

54En conclusion de ce bref détour par l'œuvre de Tolstoï, on en revient au problème de fond
qui est celui de la source du pouvoir dans les organisations ou entreprises. Nos grandes
organisations sont-elles dirigées par des « héros » comme Louis Renault, André Citroën,
Marcel Boussac, Marcel Dassault et bien d'autres ou dérivent-elles au gré de forces collectives
qui les dépassent comme le montrait déjà Tolstoï en 1869 ? La première vision est la plus
populaire car la plus spectaculaire, la plus médiatique ; la seconde est moins souvent décrite
car elle est plus difficile à mettre en scène. La question est pourtant essentielle pour nous car,
selon la nature du « vrai » pouvoir, le modèle de contrôle ne sera pas le même.

L 'évolution d'une technique est extrêmement complexe à comprendre et à décrire. De


nouveaux outils, intellectuels il va de soi, mais aussi physiques comme l'ordinateur, sont
apparus et ont modifié le contenu du contrôle de gestion. Si nous prenons l'exemple
précisément de l'informatique, elle n'a pas été développée pour les besoins du contrôle de
gestion ; mais du fait de la disponibilité de cette technologie, le contrôle de gestion s'est
transformé dans un sens différent de celui que nous aurions pu autrement observer. Par
ailleurs, les besoins des gestionnaires ont aussi évolué avec l'environnement économique,
social et culturel. De nouvelles demandes ont donc stimulé la création de nouveaux outils de
contrôle. Mais s'il n'y avait pas eu une offre, il n'y aurait probablement pas eu de demande. Le
phénomène est bien connu : nous n'avons pas besoin des produits qui n'existent pas encore
même si nous ne sommes pas toujours satisfaits de ceux que nous avons !

2L'évolution que nous allons décrire schématiquement se situe dans une perspective de
changement lent. Le contrôle de gestion est une technologie qui relève des sciences de
l'homme et qui, de ce fait, se diffuse extrêmement lentement, peut-être plus lentement que ce
que l'on peut observer dans les sciences de la matière. Cela a d'ailleurs des conséquences dans
le domaine de la pédagogie. Il n'y a pas plus difficile et plus long que de faire comprendre
concrètement à des étudiants les mécanismes du contrôle d'une organisation ou de la prise de
décision alors qu'ils apprennent très vite à mettre en équation un calcul du stock optimal, par
exemple.

3Dans ce qui suit, il a fallu faire un choix : faut-il privilégier l'offre instrumentale (la
propulsion) ou la demande (la traction) dans le développement d'une technologie telle que le
contrôle de gestion ? Symboliquement, nous avons placé les instruments en tête pour
souligner le fait que, bien souvent, ils manipulent les hommes à leur insu. Dans un premier
point, nous verrons les sources du dépassement du modèle classique de contrôle de gestion :
l'apparition de nouveaux outils ou concepts. Puis, nous présenterons les besoins nouveaux qui
sont ainsi satisfaits. Enfin, nous illustrerons notre propos avec une étude un peu plus
technique du contenu d'un contrôle de gestion rénové.

Les sources du dépassement du contrôle de gestion

4En schématisant un peu, on peut dire que la discipline a été plus particulièrement perturbée
par les emprunts à deux disciplines :

5- la sociologie des organisations ;

6- les réflexions sur la structure et la stratégie.

7Il faut y ajouter un travail méthodologique sur le rôle des outils et de la mesure en sciences
sociales.

8Les choix que nous faisons ici sont évidemment simplificateurs tant la littérature est
abondante et souvent de qualité dans ces disciplines. Mais un souci d'exhaustivité nous
conduirait bien au-delà des limites d'un ouvrage de sensibilisation aux principes du contrôle
de gestion.

L'intégration des apports de la sociologie des organisations


9Le contrôle de gestion et, d'une façon plus large, les sciences de gestion ont évolué au cours
des dernières décennies en intégrant un peu de la vision tolstoïenne des organisations et des
processus de prise de décision pour mieux prendre en compte la complexité du réel.

10En France, les travaux de Michel Crozier ont été déterminants pour cesser de faire des
organisations des « boîtes noires ». Ils ont montré qu'à l'intérieur il y avait un équilibre
complexe de pouvoirs et de contre-pouvoirs, que les différents acteurs avaient des stratégies
propres et qu'ils savaient utiliser les zones d'incertitude pour se ménager des espaces de
liberté.

11Aux États-Unis, l'application des théories de la psychologie du comportement à l'étude des


processus de prise de décision fut notamment l'un des apports essentiels de l'œuvre de Herbert
Simon aux sciences de gestion [Scheid, 2002, p. 133 sq.]. Il a été conduit à souligner la
« rationalité limitée » des acteurs. Cette dernière expression est d'ailleurs contestée par Patrick
Besson qui lui préfère le terme de « rationalité informée » par la culture et par l'institution
« afin de clairement signifier que ce qui constitue en premier lieu la rationalité et donc ses
limites, c'est la connaissance et donc l'information dont l'acteur dispose effectivement sur sa
situation d'action » [ECOSIP, 1990, p. 191]. Parallèlement aux travaux de Michel Crozier et
Herbert Simon, Richard Cyert et James March ont essayé d'expliquer le comportement
« réel » des firmes et ont ainsi poursuivi la critique du modèle issu de la théorie
microéconomique. Cela ne signifie pas que le modèle soit dépassé ; simplement, il n'a pas la
capacité de rendre compte de tous les phénomènes observés et doit donc être complété. La
théorie behavioriste qu'ils ont élaborée « représente la firme comme une coalition interactive
de différents groupes d'individus aux objectifs conflictuels » [Charreaux et Pitol-
Belin, in V.A., Encyclopédie du management, 1992, p. 264].

12Ces travaux, d'une grande richesse, et bien d'autres encore ont accompagné l'évolution du
contrôle de gestion vers la direction par objectifs à la fin des années 1960 et au début des
années 1970. Ils ont sensibilisé aux notions de motivation, d'adhésion, d'engagement
personnel que l'on retrouve dans les développements plus récents de la gestion de projet.

L'intégration d'une réflexion sur les structures et la stratégie


13Le contrôle de gestion a été bâti essentiellement dans un cadre taylorien qui supposait la
stabilité des organisations, une information parfaite, une stratégie fondée presque
exclusivement sur la minimisation des coûts par la productivité et un niveau faible des
charges indirectes ou charges de structure [Lorino, 1991, p. 9 sq.]. Il faut compléter ce cadre
en parlant de la structure de l'entreprise : stricte séparation des instances de décision et
d'exécution, du fonctionnel et de l'opérationnel. La complexité croissante des processus de
production, la diversification des stratégies et bien d'autres facteurs encore ont fait apparaître
un décalage entre ce modèle d'organisation et la réalité observable. Afin de mieux comprendre
ces phénomènes, diverses théories ont été formulées. Nous voudrions ici résumer ces
différentes étapes et peut-être rationaliser a posteriori cette histoire de la pensée (cf. à ce sujet
Bouchikhi [1990]) car elle n'est pas sans incidence sur les conceptions que l'on peut avoir du
contrôle tel que nous l'avons défini.

14Les travaux les plus anciens expliquent la structure d'une organisation par des facteurs
internes. Dans le cadre de cette conception endogène, le courant rationaliste fait découler la
structure de choix formulés consciemment par les dirigeants. Ainsi, selon Alfred Chandler,
« la structure suit la stratégie » [Chandler, 1962], elle est voulue. Ce schéma est repris par
Igor Ansoff [1968]. Selon les tenants du courant psychanalytique qui a pris naissance à la
suite d'un article de D. Miller, M. Kets de Vries et J.-M. Toulouse [1982], les structures
reflètent la personnalité des dirigeants. Le raisonnement est tout aussi mécaniste, mais
abandonne l'aspect volontariste des approches précédentes. Dans les deux cas, il est fait peu
de cas de l'influence de l'environnement et à l'intérieur de l'organisation, des autres catégories
d'acteurs que les dirigeants.

15En réponse à cela, on peut opposer des explications à la naissance de telle ou telle structure
fondées sur des facteurs externes, sur l'environnement (conception exogène). Ce dernier peut
être défini par bien des variables. Les travaux les plus anciens et notamment ceux de Joan
Woodward privilégient dans l'environnement l'état des connaissances, de la technologie
(l'étude des relations entre technologie et structure fut l'un des principaux apports de
Woodward ; cf. à ce sujet Scheid [2002, p. 33 sq.]). D'autres, dont Lawrence et Lorsch, ont
plutôt cherché des facteurs de causalité dans les conditions économiques et l'état du marché
[Lawrence et Lorsch, 1973]. L'entreprise devient un système ouvert, comparable à un
organisme vivant. Toutefois, les capacités d'adaptation des systèmes vivants sont limitées et
l'environnement, plutôt que source de cette adaptation devenue impossible, devient la cause
d'une sélection naturelle. Afin d'illustrer sa thèse, Freeman [1982] explique que si l'adaptation
était le seul principe de relation avec l'environnement, on verrait progressivement des églises
en déclin se transformer en stations-service, des universités en aciéries, etc. Si cela ne se fait
pas, c'est qu'il y a des inerties : les structures elles-mêmes, le caractère irréversible de
l'investissement matériel et immatériel, les systèmes d'information qui ne transmettent que
certaines informations, les normes de comportement, la légitimité externe (qui interdit, par
exemple, à une université de devenir un centre commercial), etc. L'adaptation laisse donc
place à la sélection. La sélection est d'ailleurs elle-même un processus d'adaptation mais
complété par un processus démographique. Or Freeman n'explique pas la naissance des
structures. D'une façon générale, la faiblesse des approches externes est d'oublier que les
dirigeants jouent quand même un rôle, même si ce rôle n'explique pas tout comme nous
l'avons déjà montré.

16La prise de conscience des limites des approches internes et externes que nous venons de
voir conduit à une approche constructiviste des structures des organisations qui rejette les
liens de causalité simples et partiels au profit d'une conception dialectique, inspirée de
l'épistémologie génétique de Jean Piaget [1979]. Biologiste, philosophe et psychologue, il
s'est intéressé à la genèse des connaissances chez l'homme. Sont-elles innées ou acquises ? Il a
dépassé cette question en montrant que les structures cognitives se construisaient
(constructivisme) dans l'interaction entre un sujet et son milieu, que la connaissance
détermine l'action mais que l'action enrichit la connaissance. La transposition des travaux de
Piaget à la sociologie des organisations débouche sur des conceptions proches de celles de
Henry Mintzberg.

17La réflexion sur le lien entre stratégie et structure peut être transposée aux relations entre
stratégie et contrôle, le modèle de contrôle étant, dans un premier temps, considéré comme au
service d'une stratégie. Peu importe alors, d'un point de vue pratique, la « vérité » des coûts ou
des indicateurs d'un tableau de bord. Il s'agit plutôt de produire des messages, des signaux, qui
vont induire les comportements désirés pour promouvoir la stratégie choisie. On peut ainsi
être conduit à produire de faux signaux pour obtenir un « bon » comportement. À titre
anecdotique, cela peut se comparer à la pratique de certaines personnes qui avancent leur
montre de cinq minutes pour ne pas être en retard. L'information produite par la montre est
fausse, elles le savent, mais cette erreur leur est nécessaire. Dans le domaine de la gestion, à
titre d'exemple, on peut citer le cas d'entreprises qui introduisent un système de taxation
interne qui sanctionne l'auteur d'une décision ou d'un comportement indésirable. Ainsi, si la
stratégie consiste à se lancer dans une concurrence par les prix grâce à une diminution des
coûts provenant de la standardisation des pièces, on « taxera » d'une certaine somme le bureau
d'études pour tout emploi d'un nouveau composant, d'une nouvelle référence. La volonté
stratégique est véhiculée par un signal porté à la connaissance des acteurs. On retrouve ici,
appliqué à la gestion des entreprises, le vieux débat sur la relation dialectique entre
connaissance et action, entre connaissance et pouvoir. Ce débat fut déjà abordé par Karl
Marx : « Penser et être sont certes distincts, mais en même temps ils sont unis l'un à l'autre. »
[« Économie et philosophie », in œuvres, La Pléiade, tome 2, p. 81.] Le lien nécessaire et
indissoluble entre connaissance et action est également au cœur de la réflexion de Jean Piaget
sur l'apprentissage de l'enfant [Piaget, 1971.] Cela pose aussi, à travers la notion de pouvoir,
le problème de la légitimité du message : est-il légitime parce que « vrai » (légitimation par le
mode de production, par la technique qui garantit l'exactitude) ou légitime parce qu'« utile »
(légitimation par les fins) ?

18Le caractère contingent du modèle de contrôle a également été souligné par de nombreux
auteurs, les variables explicatives les plus couramment avancées étant l'environnement, la
technologie, la taille, la structure, le « style » de management, la culture et la stratégie. La
contingence du modèle de contrôle par rapport au contexte économique est illustrée dans
Laufer et Burlaud [1980, p. 97]. On peut aussi, par exemple, s'interroger sur les possibilités de
transposition du modèle de contrôle d'une entreprise hiérarchique à une entreprise
multidivisionnelle ou en réseau.

19Les réflexions sur les relations entre stratégie, structure et contrôle ont aussi amené à
promouvoir d'autres valeurs que l'autorité, la formalisation et le caractère univoque de la
communication. Ainsi, les participants au projet CAM-I (Computer Aided Manufacturing-
International) ont cherché à dépasser les modèles mécanistes (sur l'évolution des systèmes de
contrôle, d'un modèle mécaniste à un modèle biologique, cf. Burlaud et Simon [1985]) pour
« développer des systèmes de production qui empruntent aux systèmes vivants trois qualités
fondamentales : la spontanéité (ou l'autonomie locale, la décentralisation), la versatilité (ou
l'adaptabilité) et l'harmonie (ou l'intégration). Ces trois qualités sont le résultat de certaines
caractéristiques fondamentales des organismes biologiques :

20

 leur décentralisation (la biologie minimise les fonctions centrales) ;


 l'intégration en réseau d'éléments fonctionnels qui peuvent directement échanger de
l'information entre eux, sans passer par un centre ;
 la possession par chaque centre d'une intelligence locale lui conférant une capacité
autonome et dynamique d'adaptation ;
 le fonctionnement en parallèle des éléments du système ;
 leur recours à une base d'information partagée, en l'occurrence
l'information héritée contenue dans l'ADN » [Lorino, 1995, p. 118 et 119].

21À notre connaissance, l'exploitation des approches constructivistes pour concevoir une
nouvelle théorie du contrôle reste encore à faire.

L'intégration d'une réflexion sur les outils de gestion


22L'hypothèse centrale a longtemps été celle de la neutralité des outils de gestion qui se
soumettaient à la volonté de ceux qui les concevaient et décidaient de leur mise en œuvre. Dès
1981, nous avons eu des doutes sur la solidité de cette hypothèse en exprimant l'idée que
l'analyse des coûts et le contrôle de gestion (qui ne sont, bien sûr, pas les seuls outils de
gestion) pouvaient être la « source d'une évolution économique et sociale » (cf. à ce sujet
Burlaud et Simon [1981]). Cette voie a été explorée de façon plus systématique par Michel
Berry et l'équipe du Centre de recherche en gestion qui ont donné naissance au concept de
« technologie invisible » [Berry, 1983]. Des idées comparables ont été développées à propos
du système comptable en interaction avec le milieu économique et social par des auteurs
comme Michel Capron [2006] qui intitule le dernier chapitre d'un de ses ouvrages : « La
comptabilité comme pratique sociale ». Dès que l'on admet ces points de vue, les outils de
gestion perdent leur caractère de technique « dure ». La légitimité d'un management
scientifique, apportant la solution (one best way) aux problèmes, loin des débats idéologiques
et des rapports sociaux, est en crise.

23Par ailleurs, il y eut tout le mouvement issu de la théorie des relations humaines dont on
situe généralement le début aux expériences réalisées à partir de 1924 à l'usine de Hawthorne
(près de Chicago) de la Western Electric sous la direction d'Elton Mayo qui a popularisé une
vision plus soft des techniques de management des ressources humaines. Cette approche
expérimentale a apporté de nombreux enseignements, mais nous n'en retiendrons ici qu'un
seul : le fait d'observer un individu en modifie le comportement. La même constatation a bien
sûr été faite dans de nombreuses autres branches des sciences humaines et notamment en
ethnologie. Vers la fin des années 1930, l'apparition de la mécanique quantique pose des
questions similaires. « On sait que Laplace avait mis l'accent sur le strict déterminisme qui
régit la mécanique classique : partant des lois de la dynamique d'un certain système classique
(les forces qui s'y exercent), la connaissance de son état à un instant donné détermine de
façon unique son état à tout instant ultérieur (et antérieur d'ailleurs). [...] Les relations de
Heisenberg interdisent évidemment à cette assertion de garder un sens en mécanique
quantique : suivant leur interprétation courante, la connaissance des positions à un certain
instant suppose la méconnaissance des quantités de mouvement ou des vitesses, et empêche
donc toute prévision rigoureuse, ruinant ainsi le déterminisme classique » [Encyclopedia
Universalis, 1969, tome 13, p. 865.] De là naquit une théorie quantique de la mesure selon
laquelle « l'opération de mesure modifie l'état du système » [ibid.].

24Pour en revenir à notre sujet et en définissant le contrôle de gestion comme un système de


régulation des comportements, nous ne pouvons ignorer l'importance de deux constats :

25- l'existence de l'interface contrôle de gestion et gestion des ressources ou relations


humaines ;

26- le rôle particulier que joue le contrôle de gestion comme outil d'observation et d'incitation
ou de motivation.

27La réflexion sur les outils de gestion in situ ou in vivo et non pas seulement sur leur logique
interne (modélisation comptable, mathématiques financières, statistiques, recherche
opérationnelle) a donc permis de faire évoluer la perception que nous en avions et de les
concevoir en interaction avec l'organisme vivant auquel ils s'appliquent et non plus seulement
comme les pièces d'une organisation mécaniste.

28En conclusion, ces travaux sur la sociologie des organisations, sur la stratégie et les
structures des firmes, mais aussi sur les outils du management, ont permis de mieux prendre
en compte le déplacement de la source de leurs richesses qui trouvent plus leur origine dans la
création que dans la production et de conduire une adaptation des systèmes de contrôle à la
nouvelle situation.

Les objectifs du dépassement : l'intelligence organisationnelle

29L'industrie s'est construite sur la base d'un avantage concurrentiel décisif par rapport à
l'artisanat : la maîtrise de l'énergie. Cette dernière supposait une concentration de la
production en un lieu : l'usine. Les économies d'échelle ont été un facteur essentiel du
développement industriel de la seconde moitié du XIXE siècle et de la première moitié
du XXE. On ne peut pas dire qu'aujourd'hui la maîtrise de l'énergie et les économies d'échelle
ne soient plus une préoccupation des industriels, mais un nouvel avantage concurrentiel est
apparu à l'occasion du passage d'une économie de masse à une économie de variété :
l'intelligence organisationnelle. Il ne s'agit pas de l'intelligence de l'ingénieur qui fait œuvre de
génie ou tout simplement de création comme Gustave Eiffel ou bien d'autres, mais d'une
intelligence collective. À partir du milieu du XXE siècle, la production scientifique qui était
l'œuvre d'individus devient plus systématiquement l'œuvre de groupes d'hommes. Un rapide
examen du « tableau synchronique » des inventions [Gille, 1978, p. 1482 sq.] montre que les
noms de personnes laissent fréquemment la place à des noms d'organisations à partir de la
Seconde Guerre mondiale : ordinateurs IBM, conquête de l'espace avec la NASA, électricité
nucléaire, forages off shore, génie génétique, etc. « Le progrès technique devient toujours
davantage l'affaire d'équipes de spécialistes entraînés qui travaillent sur commande »
[Schumpeter, 1951, p. 229]. Les moyens techniques et financiers nécessaires à la recherche
scientifique ont dépassé les capacités des « artisans de la science » et la complexité des
problèmes (tout au moins une complexité d'abondance) est devenue telle qu'il a fallu faire le
travail en équipe. Cette évolution du mode de production des connaissances scientifiques ne
résulte pas d'une volonté mais d'une nécessité. La conséquence fut en tout cas que les
organisations se sont mises à produire des connaissances et que cette production est devenue
un enjeu majeur.

30Nous avons essayé de caractériser cette intelligence organisationnelle par :

 la capacité de création ;
 la capacité d'apprentissage et d'accumulation de l'expérience ;
 la capacité à faire face aux ruptures ;
 la capacité à faire évoluer les modes d'exercice de l'autorité.

L'organisation créatrice
31« La connaissance s'affirme comme la première des ressources stratégiques. Elle n'est plus
seulement le fondement d'une capacité d'innovation dans le domaine de procédés ou de
produits. Elle est aussi un gage de flexibilité » [Afriat, 1992, p. 18]. Dans la mesure où l'on
peut assimiler l'investissement dans l'intelligence à l'investissement immatériel, on constate la
très forte progression de ce dernier dans le tableau page suivante.

32Les grandes entreprises mais aussi beaucoup de PME déposent un grand nombre de brevets
chaque année et y consacrent une

Investissements immatériels et matériels dans l'industrie manufacturière française


(sommes en milliards d'euros)
Source : MENRT, Sessi, Scees, Cereq.
33partie importante de leur activité. Il faut y ajouter les créations non brevetables (ce qui ne
veut pas dire qu'elles ne puissent pas faire l'objet d'une protection) : design, logiciels,
procédures, etc. La fonction de production de ces innovations est difficilement maîtrisable ;
les délais sont imprévisibles, les processus mal connus (les analogies et métaphores sont aussi
importantes que les raisonnements déductifs) et les moyens mis en œuvre sans rapport stable
avec la production. Nous sommes donc sur un terrain hostile à toute notion de standard ou de
norme, peu propice au développement du contrôle de gestion. Pourtant, c'est là que se fait une
part essentielle de l'avantage compétitif de la firme et sa capacité à dégager des profits.

34La haute technologie ou plus précisément la connaissance scientifique devient un facteur


de production au même titre que le travail d'exécution et le capital. Mais contrairement à ce
qui se passe pour les facteurs physiques de production, le fait de transmettre des
connaissances à un tiers ne vous prive pas nécessairement de son usage. Cela peut diminuer
la valeur d'usage car on perd le monopole d'une innovation. Ce n'est donc pas tant la quantité
des connaissances qui fait leur valeur économique, mais le fait d'en disposer avant les
concurrents (time based competition). La meilleure façon d'avoir une avance et de la
conserver est de produire soi-même des connaissances (knowledge-creating company, selon
l'expression d'Ikujiro Nonaka).

35La difficulté tient au fait que les nouvelles connaissances viennent d'individus et qu'il faut
les transformer en connaissances collectives pour les exploiter économiquement. Le manager
n'est pas l'inventeur mais sa tâche est précisément de créer les conditions favorables à cette
transformation. Pour cela, il faut distinguer deux types de connaissances [Nonaka, 1991,
p. 96-104] :

36- les connaissances explicites qui sont formalisées et faciles à communiquer ;

37- les connaissances tacites ou implicites difficiles à formaliser (nous savons plus que ce
que nous pouvons exprimer), à communiquer, appropriées par des individus, liées à l'action
(savoir-faire) et à des modèles de comportement.

38Il résulte de cette distinction quatre modèles de transmission de connaissances :

Les modèles de transmission de la connaissance


Cf. aussi Lorino [2000].
39- Le modèle 1 correspond à la socialisation dans l'art (l'apprentissage chez l'artisan, le
compagnonage). La diffusion de la connaissance est lente et se fait dans un environnement qui
attache beaucoup d'importance aux valeurs comportementales (déontologie). Les capacités
d'innovation sont faibles.

40- Le modèle 2 correspond à la diffusion rationnelle (rapide et peu coûteuse) de la


connaissance rationalisée. L'enseignement fonctionne essentiellement selon ce schéma. La
création résulte de combinaisons originales (effet de « Lego » ou « Mécano ») et les
découvertes révolutionnaires sont rares.

41- Le modèle 3 correspond à une intuition qui se transforme en nouvelles connaissances


scientifiques. C'est un processus de création majeur.

42- Le modèle 4 correspond à une intuition induite par des connaissances scientifiques. Il
précède souvent le modèle 3 et constitue également un processus de création majeur.

43Une entreprise qui innove doit pouvoir combiner ces quatre modèles. Le rôle du manager
est donc de créer des structures favorables à leur coexistence et surtout, des structures qui
permettent les transformations des modèles 3 et 4 en modèle 2.

44Les structures qui favorisent la créativité doivent donc nécessairement laisser une place à
la connaissance implicite, à ce qui ne peut être exprimé totalement. Le modèle de
l'organisation n'est plus alors le mouvement d'horlogerie (toutes les pièces sont en
permanence utiles et la défection d'une seule pièce immobilise le mécanisme), mais
l'organisme vivant qui comporte de multiples mécanismes compensateurs lui conférant une
capacité d'adaptation.

45Le management doit favoriser la création en ne bannissant pas tout ce qui n'est pas factuel
et quantifiable (facts and figures) donc d'apparence non scientifique. Il doit laisser place à des
projets fondés sur une métaphore, œuvre de l'imagination qui suggère le rapprochement de
deux concepts sans lien apparent. En circulant, la métaphore peut s'enrichir des évocations
qu'elle suscite chez les différents individus. À titre d'exemple, le slogan de l'équipe qui mit au
point la Honda City était : « Theory of Automobile Evolution » [Nonaka, 1991]. Cette
métaphore associait deux concepts contradictoires : celui d'une machine, l'automobile, et celui
d'un organisme vivant capable d'une évolution. Elle posait la question suivante : si
l'automobile était un organisme vivant, comment évoluerait-elle ? Cette approche de la
conception d'un nouveau modèle a permis de concevoir un véhicule original.

46Le management doit aussi savoir accepter des projets fondés sur l'analogie qui permettent
de transférer une innovation d'un domaine à un autre. Ikujiro Nonaka cite le cas de l'analogie
entre le cylindre de photocopieur Canon et la boîte de bière qui a donné naissance au cylindre
jetable.

47La métaphore et l'analogie sont des modes de raisonnement dangereux s'ils sont une façon
de se soustraire à une validation scientifique des résultats, à l'enchaînement rigoureux d'un
raisonnement. Mais ils peuvent initier un processus d'innovation fondé sur la richesse
inexprimée et inexprimable que procurent l'expérience et l'intuition qui en découle.

48Enfin, pour ne pas stériliser le potentiel de création, le management ne peut éliminer


l'équivoque et l'ambigu, contrairement à ce que l'on a souvent dit et enseigné. Au contraire, il
faut réhabiliter l'ambiguïté qui est une réponse à la complexité et en considérer les deux faces.
Elle peut être source de désordre et perturber le déroulement d'un plan. Mais la multiplicité
des interprétations peut aussi être une source d'enrichissement (elle laisse s'exprimer et
émerger des conceptions différentes) et de paix (car elle laisse des espaces de liberté et de
négociation pour la résolution des conflits). En ce sens, la gestion des organisations publiques
peut servir de modèle à la gestion des organisations privées car ceux qui ont le pouvoir dans
les premières, les hommes politiques, ont depuis déjà longtemps fait de l'ambiguïté un art.
Peut-être parfois trop... L'ambiguïté est source de consensus. C'est un nouveau paradoxe :
après avoir produit du désordre, l'ambiguïté crée de l'ordre grâce au consensus. Mais on ne se
situe pas au même niveau dans les deux cas. Dans le premier, il s'agit d'un désordre au niveau
des décisions élémentaires. Dans le second, il s'agit d'un ordre au niveau de la conduite
générale de l'organisation.

49Il ne faut pas en conclure que les activités de création échappent au contrôle de gestion ou
en sont protégées. Les consommations doivent respecter des limites budgétaires. La
production, certes difficilement quantifiable, peut être valorisée par des cessions à l'extérieur
du groupe ou des prix de cession internes négociés. La mise sous tension des acteurs se fait
grâce aux contraintes budgétaires, aux impératifs du calendrier d'une gestion de projets et à la
pression d'une gestion des carrières qui conditionne les progressions, par exemple, vers la
production d'innovations commercialisables en permettant à une équipe de chercheurs de
suivre leur « enfant » dans les phases aval : du laboratoire à l'usine, puis de l'usine au client.

L'apprentissage organisationnel
50La structure de l'organisation et le contrôle de gestion doivent encourager la capitalisation
ou l'accumulation du savoir-faire et non sa dispersion (qui n'est pas synonyme de diffusion car
cette dernière est contrôlée). Si cet apprentissage organisationnel, qui ne se confond pas avec
les courbes d'apprentissage, est essentiel, il ne se fait pas sans résistances : chaque individu est
dépossédé d'un petit monopole lié aux connaissances qu'il est seul à détenir et se trouve privé
du pouvoir qui lui est associé. Comment amener les acteurs à s'engager dans ce processus ?
Trois solutions sont envisageables : contracter (modèle contractuel de la DPO), contraindre
(modèle bureaucratique ou hiérarchique) ou convaincre (par exemple, dans le cas d'une
structure par projet).

51L'apprentissage organisationnel est un phénomène collectif qui s'oppose à la tradition d'une


responsabilité individuelle propre à un schéma contractuel d'organisation de l'entreprise tel
que nous l'avons déjà vu et tel qu'il est décrit par les tenants de la théorie de l'agence.

52La voie bureaucratique vers l'apprentissage organisationnel consiste à rédiger des


procédures réglant la circulation et la conservation de l'information. Elles permettent de
« collectiviser » le savoir-faire. Mais elles jouent difficilement un rôle de stimulant et peuvent
même devenir un frein car elles n'ont pas la souplesse leur permettant de tirer au fur et à
mesure les leçons de l'expérience. « Ainsi, la normalisation, comme la langue d'Ésope, est la
meilleure et la pire des choses : elle peut permettre de capitaliser un savoir collectivement et
rapidement, ou imposer une pensée par axiomes bloquant tout changement » [Lorino, 1995,
p. 262]. Ce n'est qu'en cas de crise que le décalage entre la procédure et la réalité éclate et
amène une révision de ces procédures. L'organisation est alors réactive au lieu d'être
proactive.

53Même si la formulation stratégique peut émerger du quotidien, la planification est l'un des
outils les plus puissants de l'apprentissage organisationnel. Ainsi, le directeur de la
planification de Shell déclare-t-il « qu'il est moins important de produire des plans parfaits
que d'utiliser la planification pour accélérer l'apprentissage dans son ensemble » [de Geus,
1988]. « Les organisations essaient de perpétuer les fruits de leur apprentissage en les
formalisant » [March, 1991]. Les processus structurés et anarchiques étant complémentaires,
on doit faire « coexister deux mouvements inverses, aussi nécessaires et essentiels l'un que
l'autre pour l'apprentissage organisationnel : un mouvement de normalisation, passage du
domaine heuristique au domaine normé, et un mouvement de déréglementation, de critique
des normes, passage du domaine normé au domaine heuristique » [Lorino, 1995, p. 247].

54La capitalisation des connaissances dans l'organisation, condition d'une activité créatrice
soutenue, doit passer par d'autres voies que la voie hiérarchique. « Il n'y a pas de grand
ordonnateur de l'apprentissage organisationnel » [ibid., p. 249]. De même, conflits et
désaccords qu'une structure hiérarchique a pour vocation de réduire ou, plus exactement,
d'ignorer peuvent être constructifs et apporter une richesse d'expérimentation. D'ailleurs,
contrairement à ce que l'on peut conclure par un raisonnement primaire, la connaissance peut
aussi apporter la paix en utilisant ou plutôt en captant et canalisant l'énergie des conflits. Elle
peut réduire le niveau d'inquiétude ou d'anxiété en donnant une représentation crédible du
futur.

55Le jeu sur les structures comme, par exemple, la mobilisation sur des projets, doit
permettre l'échange et donc cette capitalisation collective. L'objectif est de ne pas stériliser la
« rationalité diffuse » et le « déterminisme lâche » (ces expressions sont de Bertrand Gille
[1978, p. 42]) de la création par la rationalité figée et le déterminisme formel des procédures
administratives.

La conduite du changement plutôt que le pilotage


56Les systèmes techniques se saturent [ibid., p. 997], c'est-à-dire atteignent des limites qui ne
peuvent être franchies que par un saut technologique. Il y a des ruptures dans le progrès
technique comme par exemple le passage de la traction à vapeur à la traction électrique, de la
voile au bateau à moteur, de l'électromécanique à l'électronique, etc. Il en est de même dans
les systèmes sociaux que sont les États comme le montre l'effondrement récent des économies
à planification centrale. Il en est de même aussi dans les organisations ou les entreprises qui
doivent nécessairement passer par des ruptures dans leur développement (pour une réflexion
d'ensemble sur la continuité et la discontinuité, cf. Simon [1992]). Tout le problème est de
savoir si l'organisation peut évoluer en profondeur ou si la rupture passe par sa disparition.

57Malheureusement, outre la résistance au changement des acteurs, l'instrumentation de


gestion est pauvre en matière de conduite du changement alors qu'elle est riche en matière de
pilotage, avec l'analyse des écarts par rapport à des normes, les simulations budgétaires ou
même les approches kaizen consistant à progresser de façon continue et par petits pas ou les
approches « qualité » fondées sur l'idée que l'ensemble ne vaut que ce que vaut le plus faible
des détails. Autrement dit, les outils permettant de rester sur une trajectoire sont plus
nombreux et présents que ceux qui permettent de modifier ou de changer plus radicalement de
trajectoire. Cette dernière mission relève certes de l'analyse stratégique, mais les relais pour
véhiculer ces inflexions sur le terrain du quotidien grâce à des indicateurs de gestion ou des
tableaux de bord fonctionnent souvent assez mal. Toute la difficulté est d'ailleurs d'avoir à
gérer une double contrainte (double bind) : assurer la continuité pour préserver l'acquis tout en
impulsant un profond changement.

58La gestion des ruptures peut dans certains cas se faire en souplesse grâce à un
foisonnement de tentatives de changement couplé avec un processus de sélection de type
darwinien. C'est ce que tentent de faire certains constructeurs d'automobiles japonais qui
multiplient les nouveaux modèles et laissent au marché le soin de faire le tri. Cela n'est
évidemment possible que si les coûts du développement ne sont pas trop élevés et si sa durée
est relativement faible. Par opposition à cela, les constructeurs européens préféraient
traditionnellement étudier le marché pour proposer un seul modèle qui devait être le bon pour
de nombreuses années. Si possible ! SAAB, constructeur suédois, filiale de General Motors,
était un des derniers survivants de cette stratégie. Le changement par un processus d'essai-
erreur et de sélection correspond aussi au modèle des grands groupes au périmètre variable
qui gèrent des portefeuilles de participations représentant des portefeuilles d'activités. Cette
stratégie permet de concilier les ruptures (l'acquisition ou la cession d'une participation) avec
une certaine stabilité qu'apporte la division des risques.

59La conduite du changement est également facilitée par la maximisation de la flexibilité


[Cohendet et Llerena, 1987]. Elle peut être statique : stocks importants, surdimensionnement
des unités de production, etc., ce qui coûte cher. Elle peut aussi être dynamique : réduction
des délais de conception, d'approvisionnement, de production, etc., différenciation retardée
[Baranger et Chen, 1994, p. 54-55] qui reporte les choix irréversibles, déspécialisation et
polyvalence des ressources. Tous ces efforts permettent des réactions plus rapides qui
facilitent le changement.

60Enfin, la possibilité d'impulser de grands changements avec relativement peu de moyens


est parfois décrite sous le nom de « théorie du gouvernail ». En effet, un bateau n'est
manœuvrant que s'il se déplace par rapport à la surface de l'eau ; à défaut, le gouvernail est
sans effet. De la même façon, une organisation ne peut être gouvernée que s'il y a des marges
de manœuvre, si les dirigeants ont effectivement le pouvoir d'allouer discrétionnairement une
partie du budget en fonction de leurs objectifs et des résultats obtenus par telle ou telle
division. Certains praticiens ont estimé que le matelas budgétaire nécessaire était d'environ
2 % à 5 % de l'ensemble des ressources. Cette fourchette est le résultat d'observations qui
n'ont évidemment rien de scientifique mais constituent un ordre de grandeur. Au-delà de cette
image et en quelques mots, la théorie du gouvernail peut se décrire comme suit.

61Lorsqu'un système de financement F alimente un ensemble de destinataires D (les


responsables d'unités, par exemple), il se crée progressivement un rituel de négociation N
dans lequel les arguments sont figés et qui aboutit à une répartition des crédits sur la base de
ce qui avait été fait l'année précédente. Or bien des gens ont la faiblesse de croire qu'en
accédant au pouvoir ils vont être en mesure de modifier de façon importante la répartition du
financement F entre les différents destinataires. En théorie, ils le peuvent. En pratique, ils y
renoncent presque toujours sauf à utiliser des méthodes très conflictuelles. En effet, un
changement important remet en cause l'existence de certains des destinataires de
l'ensemble D.

62En revanche, il est possible de bâtir un gouvernail G, c'est-à-dire un système de


financement à la marge portant sur des montants compris entre 2 % et 5 % du flux de
financement F, géré autrement, selon des vues prospectives. Il faut plus de 2 % pour que le
rôle de ce financement soit non négligeable et moins de 5 % pour ne pas compromettre la
survie des éléments les plus fragiles de l'ensemble D. Si le gouvernail G est tenu fermement,
il peut agir comme le gouvernail d'un bateau qui, en déviant quelques filets d'eau à l'arrière,
fait progressivement tourner l'ensemble alors que le flux F à destination de D agit comme un
propulseur et consomme l'essentiel des ressources.

63En conclusion, nous constatons que la conduite du changement, tout comme l'apprentissage
organisationnel ou les conditions d'une organisation créatrice posent le problème du mode
d'exercice de l'autorité ou, si l'on préfère, du pouvoir.

L'évolution de l'exercice de l'autorité


64Le management est considéré ici, avant tout, comme un ensemble de règles d'exercice de
l'autorité, un processus permettant de « remplacer l'incertitude objective par une certitude
subjective » [Landau et Chisholm, 1992]. En effet, l'environnement n'a jamais été totalement
déterminé ou déterminable, ce qui fait que les décisions se sont toujours heurtées à
l'incertitude des évolutions et des réactions de cet environnement. C'est l'incertitude objective.
Mais pour néanmoins réduire la complexité et rendre l'organisation modélisable, donc
contrôlable, il a fallu créer des règles de décision, des procédures qui s'appliquent à des
situations dont on ignore volontairement les écarts par rapport au modèle. C'est la certitude
subjective. Elle répond au besoin de sécurité des acteurs de l'organisation mais n'est pas sans
dangers. À la limite, quand les faits ne se conforment pas à la théorie, ce sont les faits qui ont
tort. Selon Landau et Chisholm, la conduite de la guerre du Viêt-nam illustre les
dysfonctionnements résultant de ce mode d'exercice de l'autorité. En ignorant trop
systématiquement les informations décrivant une réalité non conforme aux plans de l'état-
major, la hiérarchie a perdu le contrôle des opérations et n'a été rappelée aux réalités que par
la défaite (politique, sinon militaire, dans cet exemple).

65Le management a utilisé des outils scientifiques sans adopter globalement une démarche
scientifique. C'est ce que l'on a désigné à tort comme étant le management scientifique. Le fait
de faire appel aux statistiques, à la recherche opérationnelle, à l'algèbre linéaire ou à la théorie
des graphes n'implique pas nécessairement que la démarche soit globalement scientifique. Ce
n'est pas parce que les outils utilisés sont scientifiques que le management (l'utilisateur)
devient ipso facto scientifique. L'image suivante illustre le problème soulevé : il est inutile
d'exiger d'une clé anglaise de 10 mm qu'elle soit usinée avec une précision de l'ordre de
1/100e mm si c'est pour dévisser un écrou de 9 mm. Le résultat sera de toute façon
globalement catastrophique !

66L'histoire du management est jalonnée d'outils magiques aujourd'hui oubliés après avoir
connu une gloire souvent éphémère. Tous ont permis d'accroître plus ou moins modestement
l'efficience des entreprises (économiser des ressources pour une activité donnée) dans un
contexte particulier. Mais rarement la démarche fut globalement scientifique car elle
consistait à juxtaposer des techniques généralement empruntées à d'autres disciplines et à les
utiliser jusqu'à l'échec suivant. La régulation s'est faite et se fait encore par les crises.

67Le management ne sera probablement jamais une science au sens où on l'entend lorsque
l'on parle des sciences de la matière, c'est-à-dire ayant une capacité prédictive. Il lui manque
pour cela une dimension essentielle : la possibilité de vérifier expérimentalement que, toutes
choses égales par ailleurs, les mêmes causes produisent les mêmes effets. En revanche, le
management appartient aux sciences de l'homme et de la société. Elles n'ont pas pour objectif
de mettre en équation le comportement de l'homme mais, grâce à une démarche scientifique,
d'aboutir à une meilleure intelligence des faits observés. Ainsi, l'histoire est-elle une science
non par ses résultats, car il n'y a bien sûr pas de déterminisme, mais par sa méthode. Le
management peut prétendre au même statut.

68La complexité croissante des rouages d'une économie moderne rend plus que jamais
nécessaire cette intelligence des faits. Mais une démarche scientifique n'est possible que si
certaines valeurs traditionnelles du management cessent d'y faire obstacle.

69Tout d'abord, il faut valoriser le doute, l'incertitude, l'inquiétude et la critique. La


discipline qu'est la gestion, valorise traditionnellement plutôt les attitudes « positives » qui
sont celles de l'homme d'action, la certitude subjective de celui qui commande, du héros.
Comme nous l'avons déjà vu, tout ce qui risque de semer le doute et le désordre est passé sous
silence. En revanche, la démarche scientifique est une recherche de tout ce qui peut faire
douter des théories établies. C'est dans les anomalies, les erreurs que se trouve la source de
tout progrès. Martin Landau illustre ce concept d'organisation tolérant les erreurs à l'aide de
l'anecdote qui suit. Un porte-avions est en pleine mer et fait faire des exercices à ses avions.
Alors que tous sont en vol, un matelot fait savoir aux officiers qu'il a perdu une clé sur le
pont. Plus aucun appareil ne peut se poser sur le porte-avions car la clé risque d'être projetée
en l'air et d'être prise dans un réacteur ce qui peut gravement endommager l'avion et présente
un danger pour le pilote. Par radio, tous les pilotes sont informés et obligés de se poser sur des
bases dans des pays amis. Pendant ce temps, l'équipage du porte-avions cherche la clé sur le
pont et finit par la retrouver. Le lendemain, le matelot qui avait perdu son outil et a ainsi causé
des coûts importants est décoré. Si cela n'avait pas été fait, dans un cas similaire le coupable
n'aurait pas signalé sa faute pour échapper à une sanction au risque de causer un grave
accident.

70La démarche scientifique peut contrarier notre conception de l'autorité, de la discipline et


de la division des tâches. Notamment, dans l'organisation « rationnelle », chacun a toute
l'information dont a priori il a besoin pour remplir sa mission et seulement cette information.
Cela correspond au contexte pédagogique classique du « problème » dont l'énoncé contient
tout ce qui est utile à la recherche de la solution et rien que ce qui est utile. De plus, dans les
organisations, la séparation entre la conception et l'exécution fait que les exécutants n'ont pas
à critiquer leurs supérieurs hiérarchiques mais uniquement à porter à leur connaissance des
faits et non des opinions. Or les sciences ne progressent que dans la mesure où l'information
est accessible au plus grand nombre et chacun peut critiquer les travaux de tout autre à
condition d'être rigoureux dans sa démonstration.

71Le problème est maintenant de savoir comment rendre compatibles les valeurs de l'homme
d'action (l'esprit de décision) et celles du scientifique (le doute méthodique). Les grandes
entreprises modernes apprennent à jouer sur ces deux registres à la fois comme elles ont déjà
appris à vivre avec les conflits entre la gestion à court terme et la stratégie à long terme grâce,
par exemple, à des structures de groupe où le court terme relève des filiales ou des divisions et
le long terme de la société holding. Elles essayent également de rendre compatibles la
recherche des intérêts particuliers et celle de l'intérêt général grâce à des procédures comme
les prix de cession internes. Pour revenir à notre propos, on constate déjà que la distinction
traditionnelle entre les opérationnels qui s'identifient à l'homme d'action et les cadres
fonctionnels qui ont plus un profil de chercheur s'atténue avec la gestion par projet dans le
secteur de la haute technologie comme nous le verrons plus loin. Le potentiel de recherche
des universitaires en gestion est également plus souvent utilisé par les entreprises. On observe
d'ailleurs aussi et depuis longtemps dans les universités et les grands établissements
d'enseignement supérieur, tant en France qu'à l'étranger, le mélange des fonctions entre
l'action (l'enseignement, les publications et les contrats), la recherche fondamentale et les
travaux de gestion de la structure. Bref, les entreprises découvrent progressivement que la
variété est souvent plus utile que dangereuse. Elle est indispensable pour équilibrer les
rigidités d'une grande organisation qui doit évoluer dans un environnement instable. Elle est
utile car elle est source de richesse comme la biologie nous l'a enseigné. Elle est dangereuse
car elle peut aussi être source de conflits et d'incompréhensions. Les entreprises doivent donc
être gérées en jouant sur l'équilibre

72L'efficience (atteindre un niveau d'activité en consommant le minimum de ressources),


mesurée par la productivité d'un facteur de production ou d'un ensemble de facteurs, a pu
croître grâce à des techniques de gestion plus sophistiquées. Mais l'efficience ne se confond
pas avec l'efficacité (atteindre les objectifs fixés). Théoriquement, on devrait avoir un schéma
linéaire du type :

73En réalité, les objectifs sont souvent implicites et ambigus, comme nous l'avons déjà dit.
Les moyens ne sont pas choisis librement. Le résultat est fonction des moyens mais aussi des
interactions avec l'environnement. Enfin, l'information est très imparfaite. La démarche
scientifique commence par perturber, semer le doute, mettre du désordre dans ce beau jardin à
la française. Elle agit dans le fonctionnement d'une entreprise comme la démocratie dans le
fonctionnement de l'État. Tous les citoyens ont la possibilité de s'interroger, d'interroger, de
critiquer et de douter. Mais ce qui aura résisté à un aussi dur traitement sera incontestablement
ce qui reste de meilleur (et non de parfait).

74En conclusion, l'innovation devenant l'une des sources essentielles du progrès économique,
il faut investir non seulement dans la recherche et le développement, mais aussi dans des
structures qui favorisent ce que nous avons appelé l'intelligence organisationnelle. Cette
dernière ne se confond pas avec l'intelligence des hommes qui composent l'organisation et
n'en constituent pas la somme.

Les modalités du dépassement : quelques exemples


75Le dépassement des limites du contrôle de gestion passe aujourd'hui par une réflexion ou
une remise en cause de son articulation avec les structures, avec les nouvelles formes
d'organisation. Tant les praticiens que les universitaires ont ouvert plusieurs voies. Nous
avons choisi d'en explorer quatre :

 le contrôle de gestion de projet ;


 le contrôle des activités ;
 le management socio-économique ;
 la gestion des entreprises en réseau.

Le contrôle de gestion des projets


76Tout d'abord, pour fixer les idées, voici à titre d'exemple quelques chiffres illustrant
l'importance d'un projet dans une industrie de production de masse, l'automobile. Le projet
Twingo (cf. Midler [2004] ou ECOSIP [1993, p. 37]) qui est considéré comme ayant été
particulièrement peu onéreux, a pourtant coûté 600 millions d'euros à Renault. Certains
projets peuvent, dans le secteur de l'automobile, dépasser 2 milliards, comme celui de la
Mégane, en 1996. C'est encore peu à côté du projet Saturn de General Motors lancé au début
des années 1980 qui comportait un engagement de 40 milliards de dollars sur sept ans
[Laufer, 1993, p. 263 sq.] ! Habituellement, la conception d'un véhicule dure environ trois
ans pour une durée de vie des modèles qui est de l'ordre de six ans. Le cash-flow cumulé ne
devient positif que plusieurs années après le lancement du projet (début de la conception). Le
constructeur doit coordonner un vaste réseau d'acteurs externes. « 85 % environ des
600 millions nécessaires pour concevoir et industrialiser la Twingo correspond à des
prestations assurées par des fournisseurs extérieurs (sous-traitance d'études, fourniture de
pièces prototypes, achats de machines ou de systèmes industriels complets), 70 % du coût de
fabrication de la Twingo résulte d'achat de matières ou de sous-ensembles » [Midler, 2004].
140 fournisseurs ont travaillé sur ce projet et ont apporté 330 composants incluant plusieurs
pièces élémentaires. Il y a au total environ 3 000 pièces élémentaires.

77Mais un projet n'est pas nécessairement un produit fabriqué en série. Ce peut être aussi un
objet unique comme, par exemple, un chantier dans le BTP. Certaines sociétés gèrent en
parallèle plusieurs chantiers si possible à des stades d'avancement différents alors que d'autres
ne sont constituées que pour un seul chantier (le tunnel sous la Manche, par exemple).
D'autres projets se définissent comme une activité de gestion non répétitive : un événement
sportif, la participation à une manifestation commerciale importante, un investissement tel
l'ouverture d'une nouvelle usine ou un désinvestissement s'il s'agit de la fermeture, une
réorganisation administrative, etc. « On considérera donc comme relevant de la problématique
de gestion de projet, toute activité complexe orientée vers la production d'un ou plusieurs
biens ou services mobilisant, sur une période assez longue mais finie, un ensemble conséquent
de ressources, dont la gestion peut être considérée comme sans interférence forte ou non
maîtrisée avec celle du reste de l'entreprise » [Giard, 1991, p. 8]. Il faut enfin souligner que la
gestion de projets n'a rien à voir avec les « projets d'entreprise » qui relèvent de la politique de
communication interne et externe ou d'une version très soft de la planification et du contrôle.

78Le problème, en matière de gestion de projets, est qu'une conception hâtive peut permettre
de gagner du temps et de l'argent lors de la phase d'étude et de développement mais coûtera
(plus) cher lors de la fabrication (difficultés d'usinage ou d'assemblage) ou, pis, lorsque par
exemple les véhicules seront chez les clients (service après-vente et coût d'opportunité lié à la
dégradation de l'image de marque). En résumé, les erreurs des services d'études sont invisibles
dans les comptes de ces services mais sont sanctionnées plus tard, trop tard, et en aval. Or le
contrôle de gestion « classique » est essentiellement conçu pour contrôler des charges
récurrentes. Il a donc fallu penser des structures et des modalités adaptées au problème, à la
mise sous tension d'une activité qui est stratégique.

79Les structures, habituellement fonctionnelles (par métier) ou divisionnelles (par produit,


marché ou couple produit/marché) ont été modifiées avec l'adoption d'une structure
matricielle qui, dans le cas de Renault, croise le découpage habituel par métiers (moteurs,
mécanique, carrosserie, etc.) avec un découpage par projet. La rupture avec une longue
tradition de spécialisation et de cloisonnement fut, dans cette entreprise, qualifiée de
révolution culturelle. Les objectifs de chaque projet se déclinent en qualité, coût et délai.
Habituellement, dans les entreprises ayant adopté cette structure, la direction (project
management) est assurée par un cadre ayant le rang de directeur (heavyweight project
manager) et la gestion (project control) est suivie par un contrôleur de projet. Lorsque la
structure fonctionnelle prédomine, le projet n'est piloté que par un coordinateur (lightweight
project manager) et, dans le cas inverse, le projet devient commando (tiger team
organization).

80En matière de contrôle de gestion, les progrès sont également importants et se caractérisent
par :

81- l'effacement de la frontière entre la planification stratégique et le contrôle opérationnel


car c'est la même équipe qui intègre en permanence ces deux fonctions ;

82- la variabilité des périodes de contrôle qui sont fonction des phases du projet alors que
dans le cadre d'activités récurrentes la périodicité est habituellement mensuelle, donc fixe ;

83- la nécessité de valoriser les écarts au coût des charges futures qu'ils génèrent en suivant le
cumul des coûts engagés et non celui des coûts décaissés ;

84- à l'intersection du contrôle et de la structure, par le fait que les opérationnels se contrôlent
eux-mêmes. Il leur faut simplement une aide méthodologique pour concevoir les outils de
pilotage dont ils ont besoin pour leur propre usage, indépendamment des outils qui servent à
rendre compte et qui, eux, sont définis de manière externe.

85Le système de contrôle des projets doit prendre en compte les spécificités de ce mode
d'organisation qui sont bien mises en lumière par le tableau page suivante [ECOSIP, 1993,
p. 20].

86Le suivi des budgets et notamment des coûts engagés devient essentiel. De plus, les
variables coût, qualité et délais ne sont plus considérées comme des variables indépendantes.
La maîtrise de la qualité et des délais entraîne des coûts supplémentaires, mais
Évolution
de gestion des coûts engagés et décaissés et articulation des contrôles

La dynamique de l'activité projet

87elle réduit les coûts de régulation (rattrapage des défauts ou des retards, diminution des
marges de sécurité devenues inutiles). Les coûts ont une incidence sur le prix, ce qui a un
impact sur la demande (élasticité de la demande par rapport au prix) et en retour sur les coûts
du fait de l'étalement plus ou moins important des charges fixes (n'oublions pas les coûts de
conception énormes, par exemple dans l'automobile, comme nous l'avons vu).

88À partir d'une réflexion sur les structures, la gestion de projet intègre à la fois des
perspectives stratégiques et opérationnelles. Elle contribue au développement de
l'organisation créatrice puisqu'un projet est avant tout la traduction organisationnelle d'une
volonté d'innovation ou de changement. La gestion de projets permet de gérer
l'expérimentation selon une démarche heuristique alors que la gestion des opérations ne
permet que de gérer l'expérience (acquise) selon une démarche normée [Koenig, 1994]. Il faut
aussi noter que la pluridisciplinarité de l'équipe réunie autours du projet favorise un
apprentissage et mobilise les énergies hors des routines puisque « la mort du projet est
annoncée dès sa naissance » [ECOSIP, 1993, p. 145].

89L'activité au quotidien des acteurs est largement modifiée par ces changements de structure
et l'introduction du concept de « concourance », c'est-à-dire la mobilisation des différentes
expertises liées aux différents métiers à toutes les étapes du développement. Plus
concrètement, à titre d'exemple, voici le cas du projet Twingo. « Dès 1988 ont été créés les
"plateaux", réunissant dans un même lieu, au moment de l'élaboration des plans, des
techniciens de bureaux d'études, de services des méthodes, des représentants d'usines et des
"techniciens résidents", des fournisseurs en charge des principaux ensembles sous-traités :
planche de bord, câblage par exemple. En 1990 s'est instituée une procédure de pilotage
mensuel du triptyque qualité-coût-délais, impliquant non la hiérarchie mais les acteurs
opérationnels, et reposant sur la décomposition du projet en sous-ensembles cohérents (la
planche de bord, le moteur, la caisse...). Cette procédure vise à intégrer le processus de
décision technique (les acteurs de base : les techniciens du bureau des études, du service des
méthodes, l'acheteur, le représentant de l'usine) et le processus d'évaluation et de contrôle du
projet (des experts des fonctions de contrôle de l'économie, de la qualité ou du planning, ou la
hiérarchie). On retrouve aussi ce principe d'une contribution simultanée de toutes les
expertises dans le processus de réalisation des prototypes, montés aujourd'hui par des
personnels d'usine, et qui permettent, dès la deuxième vague, de tester les processus de
montage conçus par le service des méthodes. Plus tard, la procédure de réception des pièces
est aussi l'occasion d'un travail collectif à partir des premiers échantillons réalisés par les
fournisseurs » [ECOSIP, 1993, p. 49].

90Finalement, il ne faut pas non plus sous-estimer afin de mieux en tenir compte « que le
développement de la logique projet déstabilise profondément la gestion du personnel dans les
entreprises : mise en cause de la notion de poste de travail, clé de voûte de la plupart des
systèmes de gestion des ressources humaines ; déplacement de l'espace de la carrière,
autrefois inscrite dans le métier technique ; multiplication des dépendances, et donc de
l'évaluation des individus » [ECOSIP, 1993, p. 29].

Le retour aux sources : le contrôle des activités


91Les méthodes de calcul des coûts et plus particulièrement les coûts complets qui passent en
France par des « sections homogènes » sont bien sûr nécessaires à la valorisation des stocks et
des immobilisations faites par l'entreprise pour elle-même. Mais elles permettent surtout un
contrôle des coûts, une sensibilisation aux risques de dérive des coûts qui, en tout état de
cause, ne peuvent excéder le prix du marché moins une marge. Ces idées, qui ne sont pas
nouvelles, sont renforcées par l'introduction de mots nouveaux tels que le benchmarking (se
donner pour objectif un seuil égal à la pratique des meilleurs concurrents) ou le target
costing (coûts cibles).

92Malheureusement, l'allongement du détour productif, la complexité des opérations de la


conception à la vente et l'alourdissement des organigrammes ont conduit progressivement à
une dilution des responsabilités. L'accumulation des coûts permettait de constater que le coût
complet était par exemple excessif, mais ne permettait pas de voir où les performances étaient
insuffisantes. Sur le plan technique, la notion d'unité d'œuvre s'est pervertie au fil des
décennies. L'introduction des prix de cession internes a permis de décomposer le tout en
parties et de faire apparaître les marges (c'est-à-dire la valeur ajoutée au sens économique et
non comptable du terme ou, mieux, la valeur créée) aux différents niveaux intermédiaires. La
mise sous tension par le marché s'est ainsi étendue. La méthode bute cependant sur le fait que
le découpage de l'entreprise ne correspond pas nécessairement à des activités ayant leur
équivalent sur un marché et qu'il peut y avoir des complicités entre « client » et
« fournisseur » interne. Les prix de cession, négociés mais non validés par le marché,
permettent à certains centres d'« exporter » leur faible productivité, de la faire supporter aux
centres en aval. De plus, la méthode n'apporte pas de réponse satisfaisante à l'accroissement
des charges de structure qui sont souvent un véritable lieu de la création de la valeur même si
l'on parle de « gras ».

93Afin d'y remédier, Michael Porter [2003] a proposé un autre découpage de l'entreprise, non
pas en fonction de l'organigramme pour faire coïncider le découpage comptable et les
responsabilités budgétaires, mais à partir des « activités de base économiquement
significatives » qui sont la source de la différenciation compétitive de la firme. Il est ainsi
amené à « distinguer les notions de "valeur" et de "coût", et plus précisément d'identifier les
coûts à valeur ajoutée d'un côté, et les coûts sans valeur ajoutée de l'autre » [ECOSIP, 1990,
p. 14]. Un coût sans valeur ajoutée est un coût engendré par une activité dont la suppression
n'entraînerait aucune perte d'attribut du bien ou service : performance, fonction, qualité, etc.
Patrick Besson [ibid., p. 204] note à juste titre que l'expression « coût sans valeur ajoutée » est
impropre et qu'il faudrait parler d'« activité sans utilité ajoutée ». Ainsi, le stockage (sauf
lorsqu'il s'agit de bon vin !) est une activité sans valeur ajoutée qu'il faut donc essayer
d'éliminer. Le problème n'est cependant pas aussi simple car, en se privant du stock, on
s'oblige à faire des séries plus courtes et on peut perdre le bénéfice des économies d'échelle.
La différence entre les valeurs créées et les valeurs consommées mesure la rente d'efficacité
de l'entreprise dans un univers monétarisé qui ne cherche pas à gommer les effets-prix comme
dans la méthode des comptes de surplus. La traduction gestionnaire de la chaîne de la valeur,
qui constitue un système d'activités interdépendantes et non une simple juxtaposition
d'activités, trouve cependant une limite. « La chaîne de valeur est trop complexe et trop
diversifiée en fonction des marchés, des produits et des entreprises pour obéir à un modèle
d'activités unique. La valeur se crée par agencement en réseau d'une multiplicité de
processus » [Lorino, 1995, p. 182]. Par ailleurs, la notion de générateur ou inducteur de coût
qui donne à la méthode son caractère opérationnel n'est en réalité qu'un retour aux sources de
la comptabilité industrielle qui ne se révèle pratiquement pas si simple, ce qui explique la
dérive observée dans la définition des unités d'œuvre. La difficulté de rendre compte des liens
de causalité était déjà soulignée par Pierre Lassègue [1962, p. 319].

94Il fallait donc une réponse tant en termes de structure qu'en termes d'indicateurs de coûts,
une réponse qui joue sur ces deux leviers (que nous allons aborder successivement ci-après)
pour mieux contrôler les activités, pour « gérer les causes des coûts et non les coûts eux-
mêmes » selon l'expression de Thomas Johnson [1990].
95Le travail sur les structures se fait dans deux directions qui ne s'excluent pas :

96- la réduction du nombre d'échelons dans la hiérarchie ;

97- la constitution d'équipes polyvalentes organisées autour du concept de création de valeur.

98L'exemple de Renault, ancien mais toujours d'actualité, illustre ces changements. De


l'opérateur au directeur de l'usine, on est passé de huit niveaux hiérarchiques à cinq entre 1983
et 1992.

99L'écrasement de l'organigramme élargit les responsabilités et accroît la qualité et la vitesse


de circulation de l'information entre le sommet et la base. La conduite du changement en est
facilitée.

100Par ailleurs, Renault a redessiné l'organigramme en introduisant le concept d'« unité


élémentaire de travail » (UET). Un concept comparable, le « module Mercure », a été
développé chez Citroën [Baranger et Chen, 1994, p. 79 sq.]. Une UET est :

101

 une équipe d'une vingtaine de personnes au maximum ;


 dont la production est parfaitement identifiée ;
 ayant ses clients et fournisseurs internes et/ou externes ;
 dont les performances sont mesurables ;
 réunissant des compétences évolutives et polyvalentes ;
 avec un dispositif d'animation participatif et contractuel.

102Chaque groupe ou UET réfléchit régulièrement à sa propre valeur ajoutée et suit les
indicateurs d'activité qu'il s'est donnés dans le cadre d'un plan de progrès. Même si chaque
amélioration est modeste à l'échelle de l'entreprise entière, les petits pas (démarche kaizen)
peuvent avoir de grandes conséquences, un peu comme l'effet « papillon » en météorologie,
mis en évidence par Edward Lorenz, qui fait l'hypothèse que les battements d'aile d'un
papillon à Paris peuvent, par suite d'un enchaînement invraisemblable d'événements,
provoquer une tempête à New York un mois plus tard. L'activité des UET s'inscrit dans une
recherche de qualité totale définie comme une démarche de progrès permanent que
l'entreprise met en œuvre pour satisfaire ses clients en qualité, coût et délais par la maîtrise du
processus et par l'implication des hommes. Les UET, ou tout autre concept comparable,
réintroduisent l'esprit d'entreprise et la notion de performance collective dans l'ensemble de
l'organisation. La polyvalence permet une capitalisation et une collectivisation des
connaissances.

103Par ailleurs, mais en liaison avec le travail sur les structures, il faut adapter le mode de
traitement des coûts aux nouvelles orientations stratégiques. Une mise sous tension globale,
cohérente avec le concept de qualité totale, découle des coûts d'activité (activity based
costing, ou méthode ABC) qui mettent en lumière la participation de chaque activité à la
création de valeur. Les liens de causalité entre les décisions d'actions, qui sont le fait
générateur d'une consommation de ressources, et les coûts sont rendus plus lisibles. Le
vocabulaire aussi montre que les activités de soutien ne sont que des ressources à la
disposition des activités principales et que, à défaut, elles doivent disparaître.
104Un grand débat sur le caractère novateur de la méthode traverse les milieux académiques
et vient parfois critiquer ou contester l'enthousiasme de certains consultants. Nous partageons
l'avis de nombreux collègues qui n'y voient qu'un restyling (comme on dit dans l'automobile)
des sections homogènes, un retour aux sources d'un modèle de traitement des coûts dont les
praticiens ont au fil des années perdu de vue les principes fondamentaux (cf. à ce sujet
Burlaud et Simon [2003, p. 213 sq.] ou Mevellec [1994]). À titre d'exemple, l'idée que le
stockage n'est pas une activité créatrice de valeur et qu'en le supprimant ou tout au moins en
le réduisant on peut redéployer plus utilement des ressources a été développée par Jeffrey
Miller et Thomas Vollmann [1985] avec un certain retentissement. Ainsi, Hewlett-Packard à
Vancouver aurait, après deux ans de juste-à-temps, baissé les encours de 82 %, l'espace
utilisé de 40 % et les rebuts de 30 % [Horngreen et Foster, 1987, p. 590]. Le stock cachait
donc bien des ressources inexploitées. Mais l'idée n'est pas si neuve ! Avant la Seconde
Guerre mondiale, Auguste Detœuf, industriel français connu pour son humour, écrivait déjà :
« Généralement, un produit qu'on fabrique en un mois n'exige qu'un jour de travail véritable.
Le reste est préparation, circulation ou stagnation de papiers, retards de fournisseurs, défaut
de coordination du travail : la surface d'une usine est souvent proportionnelle au temps qu'on
y perd » [Detœuf, 1989, p. 173].

Le contrôle de gestion et le management socio-économique


105La concurrence se joue essentiellement sur trois dimensions que l'on appelle chez Renault
le « triangle d'or QCD » :

106

 la qualité, qui se définit ici comme l'aptitude du produit ou service à satisfaire les
besoins exprimés ou implicites du client ;
 le coût dans le cadre d'une concurrence par les prix ;
 les délais qui selon le cas peuvent être la réactivité, la vitesse de rotation des actifs
d'exploitation ou la rapidité de mise sur le marché des innovations.

107Traditionnellement, le contrôle de gestion oppose ces trois variables en faisant apparaître


que la qualité ou la rapidité coûte cher, que la vitesse sacrifie la qualité, etc. L'exemple le plus
illustratif de ce conflit est le fameux modèle de Wilson qui montre que posséder un stock
coûte cher (coût de l'argent immobilisé, coût des installations de stockage, etc.) mais
qu'approvisionner souvent par petites quantités pour avoir moins de stock coûte également
cher (frais administratifs, coût de livraison, coût de mise en production de petites séries, etc.).
La mise en équation permet de calculer l'optimum qui minimise la somme de ces deux coûts,
c'est-à-dire le coût de la gestion globale du stock.

108Mais le calcul issu de ce modèle est aujourd'hui démenti par les pratiques de juste-à-temps
et de zéro-stock empruntées aux entreprises japonaises. Auraient-elles omis la rationalité du
calcul économique ? En fait, elles ont su voir qu'au-delà des chiffres il y avait les
comportements. Quand il n'y a pas de stock, on ne peut plus masquer les défauts du produit ou
du processus. Quand on ne peut plus masquer les défauts, on est fortement incité à les
supprimer. Enfin, l'espace libéré grâce à la suppression des stocks peut être consacré à une
activité créatrice de valeur. On voit donc que l'augmentation des coûts d'approvisionnement
liée au zéro-stock permet de réduire bien sûr le coût de possession du stock mais aussi le coût
de la non-qualité et le coût d'opportunité des locaux libérés [Miller et Vollmann, 1985]. Le
stock avait un coût caché [Savall et Zardet, 2010].
109Dans la même logique que ce que nous venons de voir sur les stocks, Henri Savall avec
son équipe de l'Institut de socio-économie des entreprises et des organisations (ISEOR) a
développé une réflexion globale sur les coûts cachés. Ils se définissent par opposition aux
coûts visibles qui ont la triple caractéristique d'être dénommés (par leur nature ou leur
affectation), mesurés et surveillés. « Les coûts cachés sont la traduction monétaire des
activités de régulation dont la gestion des stocks n'est qu'un exemple :
dysfonctionnements 1 régulations 1 coûts cachés. » [Savall et Zardet, 2010]. Les
dysfonctionnements élémentaires sont décrits par les auteurs à l'aide de cinq indicateurs :

 l'absentéisme ;
 les accidents de travail ;
 la rotation du personnel ;
 la non-qualité ;
 les écarts de productivité directe.

110Les coûts de ces dysfonctionnements sont cachés dans la mesure où la comptabilité de


gestion « classique » les noie ou les dilue dans les coûts des activités, produits ou services.
Pour remédier aux dysfonctionnements, l'organisation met en place des activités de régulation
coûteuses en temps et en produits ou services (non-production). Le coût de l'ensemble
dysfonctionnement et régulation est égal à la somme du coût historique des
surconsommations (ou du gaspillage de facteurs de production) et des coûts d'opportunité
(manque à gagner dû à la baisse de l'activité). Il constitue un potentiel d'amélioration de la
performance économique globale.

111La réduction des coûts cachés [1][1]À propos de coûts cachés, notons qu’il y a une
catégorie que la… dans la démarche de l'ISEOR passe par une mise en relation du contrôle de
gestion avec la gestion des ressources humaines grâce à un « système d'informations
opérationnelles et fonctionnelles humainement intégrées et stimulantes » (SIOFHIS) et à un
système de motivation, les « contrats d'activité périodiquement négociables » (CAPN)
permettant de réaliser le triple objectif de création, d'apprentissage et de changement [ibid.].
Un CAPN est un accord passé entre un salarié et son supérieur hiérarchique direct au terme
duquel le salarié obtient des moyens supplémentaires et un complément de salaire en échange
d'un accroissement de son efficacité. Il doit être entièrement autofinancé dans la mesure où les
gains d'efficacité rapportent au moins le montant des charges supplémentaires. Le « contrat »
précise les modalités d'évaluation.
112Les travaux d'Henri Savall et, plus généralement, le management socio-économique
renvoient au mouvement sur la gestion de la qualité. Même si le total quality
management (TQM) a eu son heure de gloire dans les années 1980, les préoccupations de
qualité sont anciennes. Sans remonter aux normes de qualité des corporations ou au
colbertisme, le concept de qualité totale trouve son origine aux États-Unis dans les années
trente. Le mouvement ne devient toutefois significatif qu'à partir de 1943 où l'on voit se
développer dans l'industrie de l'armement, soumise à de très fortes contraintes de coût, de
productivité et de délai, un contrôle systématique de la qualité par des méthodes
d'échantillonnage. Il se confirme dans les années 1950 et 1960, en particulier dans l'industrie
aéronautique et dans le nucléaire, pour des raisons évidentes. Le Japon fera appel aux
spécialistes américains de la qualité dans les années 1950, puis développera son propre
système de normes. Les cercles de qualité y apparaîtront dans les années 1960, puis feront le
bonheur des consultants dans les années 1980 en Europe.
La gestion des entreprises en réseau
113L'entreprise en réseau est une structure flexible et adaptative constituant une forme
hybride entre des relations régulées par le marché et des relations administrées au sein d'un
ensemble intégré. « Elle s'inscrit dans des modèles de management beaucoup plus réactifs
pour lesquels les politiques interfirmes ne se réfèrent qu'en partie aux signaux du marché [les
prix]. [...] Si les organisations réticulaires connaissent aujourd'hui un tel engouement, c'est
qu'elles sont portées par une puissante dynamique : la réduction tendancielle des coûts de
transaction, c'est-à-dire la réduction des coûts inhérents à la gestion des relations d'échange
nouées entre eux par différents agents économiques » [Paché et Paraponaris, 1993, p. 7].
Depuis longtemps, les entreprises savent arbitrer entre des coûts de transaction qu'il faut
supporter lorsque l'on s'approvisionne « à l'extérieur » et des coûts d'organisation lorsque les
approvisionnements ou plus généralement les fonctions sont intégrés. Mais depuis
approximativement le début des années 1980, l'équilibre se déplace du fait des progrès
réalisés en matière de traitement et de transmission des données. L'entreprise en réseau ne se
confond pas avec le phénomène de sous-traitance ou avec les délocalisations.

114Plus concrètement, un réseau comprend une entreprise ayant le rôle de coordinateur, la


firme pivot ou le broker, entourée d'opérateurs spécialisés : fournisseurs, sous-traitants,
distributeurs, bureaux d'études, consultants, etc. Même la fonction administrative qui
constitue d'habitude le noyau dur d'une entreprise peut être en réseau : c'est le facilities
management. La firme pivot peut prendre en charge une ou plusieurs des activités du réseau,
mais peut aussi se limiter à son rôle d'organisation de la coopération. Dans tous les cas, le
réseau est là pour apporter la variété de compétences requises pour affronter une concurrence
élargie qui, au-delà des prix, porte sur la variété de l'offre, la qualité, les délais, le service,
etc., et apporter aussi la souplesse nécessaire à la compensation des rigidités de la production
en flux tendus. Le réseau apporte en effet un certain niveau d'indétermination : un problème
n'a plus une seule solution (comme habituellement dans le cas du modèle du simplex) mais
une pluralité de solutions ou de combinaisons puisqu'il y a plus d'inconnues que de relations.
Les fonctions de production redeviennent un peu plus « molles ».

115Il est évident qu'un réseau n'existe que par son système nerveux, nous voulons dire son
système d'information. Cela est aussi bien vrai dans le transport (exemple : les systèmes de
réservation des compagnies aériennes qui sont l'élément le plus précieux de leur fonds de
commerce) que dans l'industrie (gestion des stocks coordonnée au plan mondial, par exemple)
ou dans la distribution (le franchiseur imposant son système d'information et de gestion aux
franchisés afin de rendre tout transparent pour lui, il va de soi). Dans le cas des produits de
grande consommation, le système ALLEGRO, plus connu comme le code-barres, organise un
langage commun aux distributeurs et producteurs. L'ensemble de ces systèmes ne fonctionne
que grâce à l'échange des données informatisées (EDI).

116Du point de vue de la théorie des outils de gestion, cette mutation vers l'entreprise en
réseau est intéressante à plus d'un titre. Trois points nous semblent devoir retenir ici
l'attention.

1171)!D'une part, elle illustre le phénomène de domination par le système d'information. Tout
se passe en quelque sorte comme si l'entreprise pivot pouvait capter le système sensoriel de
ses opérateurs et bénéficier d'une rente liée à une asymétrie de l'information à son profit. Ceci
est bien illustré par le cas de la franchise.
1182)!D'autre part, elle montre à quel point des investissements immatériels peuvent être
stratégiques. Dans certains secteurs, le potentiel de développement est autant lié à la capacité
d'exploitation des informations qu'à la qualité ou au prix des produits. La gestion des fichiers
de clients est par exemple essentielle dans une activité comme la vente par correspondance.
Le système de réservation et tarification est fondamental pour améliorer le coefficient de
remplissage des avions qui conditionne la rentabilité des vols. Les autres éléments de
différenciation du produit sont par ailleurs quasi inexistants puisque les avions des différentes
compagnies sont les mêmes et les conditions d'exploitation étroitement normalisées.

1193)!Enfin, le phénomène des réseaux porte en lui un nouveau débat sur la normalisation
des outils de gestion. Jusqu'à présent, la comptabilité de gestion, pour nous limiter à ce seul
outil, était une affaire « intérieure » à une entreprise ou à un groupe. Avec les réseaux et en
particulier les réseaux ouverts, la résolution des problèmes de compatibilité devient la
condition d'accès au réseau. Afin de remplir cette condition, il faut régler des problèmes
techniques (compatibilité des logiciels ou existence d'interfaces) et des problèmes conceptuels
de définition.

120Ce renforcement des modes de coopération interentreprises explique en partie que depuis
1989, le Financial and Management Accounting Committee (FMAC) de l'International
Federation of Accountants (IFAC), devenu Professional Accountants in Business Committee
(PAIB), ait publié des recommandations ou avis de comptabilité de gestion. En 2012, on
trouve en particulier des publications dans les domaines suivants (www.ifac.org) :

 Financial and Performance Management ;


 Business Reporting ;
 Governance and Ethics ;
 Sustainability and Corporate Responsibility.

121Le PAIB ne produit pas de normes car, dans les domaines ouverts, il n'y a pas une seule
bonne pratique et il n'y a pas de possibilité de rendre ces pratiques obligatoires. Il s'agit de
« guides internationaux de bonnes pratiques » à but pédagogique pour les praticiens.

122Une recherche sur les représentations de l'entreprise et de sa gestion qui sont sous-
jacentes aux normes et avis de l'IFAC reste à faire. Un travail comparable pourrait être fait sur
d'autres organismes de normalisation tel l'International Standards Organisation (normes ISO).

123En conclusion de ce chapitre IV, nous voyons bien comment, selon une démarche
constructiviste, apparaissent et évoluent les outils de gestion. Ils intègrent les idées nées dans
d'autres disciplines, les besoins des entreprises et, plus généralement, des organisations, mais
ils restituent une forme de remise en ordre des connaissances qui, à son tour, fera son chemin
dans les esprits et guidera les actions.

N os réflexions sur le contrôle de gestion et, plus généralement, le


contrôle des organisations posent la question de la source du pouvoir. D'un
côté, nous avons l'image de la littérature managériale mettant en scène le
« décideur », président d'un grand groupe ou homme politique. Cette vision
ignore le poids des structures, le fait que la communication est imparfaite
et que tous les systèmes de contrôle engendrent des effets pervers. D'un
autre côté, nous avons une représentation modeste du rôle du chef que nous
avons illustrée à l'aide de quelques citations extraites de Guerre et Paix.
Une main invisible, peut-être divine pour Tolstoï qui était un auteur dévot,
conduit les événements. La sociologie des organisations a donné des noms
à cette main invisible qui dépossède le chef de ses attributs : les contre-
pouvoirs, le slack organisationnel défini comme un excès de ressources et
autres possibilités de résistance au changement.
2Nous considérons qu'aucun de ces deux modèles de l'autorité, ni l'image
simpliste et napoléonienne du pouvoir, ni la réaction tolstoïenne faisant de
Napoléon un antihéros, sur laquelle il y aurait encore beaucoup à dire, ne
représentent la réalité d'une grande organisation. Il faut compléter le
tableau en représentant les outils permettant l'exercice du pouvoir, les
technologies invisibles qui, autant que le langage, ont un pouvoir
structurant sur la pensée et le comportement.
3Bien sûr, ce modèle intermédié par l'outil reste simpliste et incapable de
rendre compte de la complexité du réel. Les décisions n'apparaissent pas
dans le néant et ne débouchent pas sur des actions qui s'appliquent à des
organismes sans réaction. Mais notre propos est limité et nous intéressant
exclusivement aux problèmes du contrôle des organisations, nous pouvons
valablement réduire notre champ.

4Ainsi constatons-nous qu'il « existe un effet de couple entre un


instrument de gestion et l'organisation qui l'utilise » [ECOSIP, 1990,
p. 317]. La décision est interprétée par l'outil qui émet le signal de l'action
et l'outil n'accepte pas ou induit certaines décisions parce qu'il ne reconnaît
pas ou n'interprète pas certaines actions. Ce n'est que l'application à une
situation particulière d'un constat fait par Jean Piaget : « Le milieu
n'influence la conduite du sujet que dans les limites de perception de ce
dernier » [Bouchikhi, 1990, p. 74]. Or la perception passe par un outil
d'observation. L'outil a donc un rôle central, tant et si bien que l'on peut
parfois observer un renversement de la séquence problème-solution. « On a
des solutions (ici, des outils de gestion), il faut trouver les problèmes qui y
correspondent. Le choix d'une solution précède alors la mise à l'agenda et a
fortiori l'identification du problème. [...] Si l'on insiste sur ce renversement
fréquent de l'ordre des facteurs du couple problème-solution, c'est pour
suggérer qu'il en est des politiques publiques comme des biens privés (et
des outils de gestion) : la demande est largement conditionnée par l'offre
[...]. Elle s'exprime en réaction à l'offre et non dans l'absolu » [Gibert,
1989, p. 364].
5Ces « technologies invisibles », ici les sciences (ou techniques ?) de
gestion, sont d'autant plus puissantes que le message est cohérent. En
particulier, nous insistons sur l'importance de la congruence entre les
outils, que sont les structures et le modèle de contrôle de gestion, et la fin,
la stratégie. Nous insistons aussi sur les interactions entre structure,
contrôle et stratégie, et sur la complexité du processus de prise de décision.
Enfin, il ne faut pas oublier que les « technologies invisibles » ont aussi
tendance à vivre leur vie, échappant à la volonté de ceux qui les ont mises
en place...
6Ces idées ne sont pas neuves. La compatibilité des structures et du
modèle de contrôle, du choix des indicateurs de performance était déjà au
centre des expériences d'Alfred Sloan à la General Motors vers 1920 (cf. à
ce sujet Johnson et Kaplan [1987]). Mais on trouve des traces beaucoup
plus anciennes d'expérimentation sociale. Nous utilisons cette dernière
expression car tous les ancêtres de la gestion du XXE siècle, Taylor et les
autres, avaient un projet de transformation de la société.

7Ainsi, E. Stevelinck rapporte qu'à la fin du XVIIIE siècle, Jean Philippe


Vilain XIV, conseiller d'État et grand bailli de la ville de Gand, ayant
appris la comptabilité auprès des meilleurs auteurs de l'époque, Savary et
Laporte, eut l'idée de mettre la comptabilité analytique au cœur des
principes de fonctionnement d'une prison modèle destinée à socialiser plus
qu'à punir (cf. à ce sujet Foucault [1981, p. 124]). Il « préconisait le travail
comme principe essentiel. Les prisonniers devaient apprendre un métier
qui leur permette de pourvoir à leur subsistance, une fois libérés. Il était en
effet opposé aux peines perpétuelles [...] et puisque l'Autorité n'a pas jugé à
propos de les priver de la vie, pourquoi chercherait-on à la leur rendre
insupportable ? » [Stevelinck, 1978, p. 9]. En tenant pour chaque
prisonnier un compte dans lequel on notait la valeur des matières premières
qu'il consommait et la valeur des produits qu'il livrait, on leur donnait
l'habitude de travailler pour vivre et de vivre de son travail. À leur
libération, les prisonniers avaient un métier et une épargne leur permettant
d'investir et de s'installer. Les comptes étaient le langage unificateur d'un
comportement entrepreneurial, d'un esprit d'entreprise au service d'une
stratégie de réinsertion (cf. Comptabilité, contrôle, audit, mars 1999,
p. 142).
8Une entreprise ou une organisation publique ne sont certes pas une prison
mais le problème de la régulation des comportements humains dans une
collectivité n'est ni nouveau, ni spécifique lorsqu'on prend un peu de recul
comme nous avons essayé de le faire. Les techniques de gestion sont une
des nombreuses façons de faire la passionnante découverte de la nature
humaine et peuvent conduire à l'intelligence organisationnelle dans les
deux sens que peut prendre cette expression :

 comprendre le fonctionnement des organisations ;


 concevoir des organisations ayant des capacités intellectuelles
collectives de création, d'apprentissage et d'adaptation.

9Enfin et en conclusion, l'importance de l'immatériel dans le processus de


création de la valeur et les réflexions que nous avons menées jusque-là sur
le contrôle et la gestion laissent entrevoir l'émergence d'un nouveau profil
de dirigeant qui ait à la fois les aptitudes du chercheur en sciences sociales
pour créer de la connaissance et celles du pédagogue pour la diffuser mais
aussi pour la faire émerger. Ce dernier point nous ramène bien en arrière
dans l'histoire de la pensée puisque déjà Socrate définissait
la maïeutique comme « l'art d'accoucher les esprits, c'est-à-dire de les
amener à prendre conscience de ce qu'ils savent implicitement, à l'exprimer
et à le juger [1][1]Paul Foulquié [1982, p. 418]. Il faut compléter par
cette… ».

 Alain Burlaud, Claude J. Simon


 Dans Le contrôle de gestion (2013)

Vous aimerez peut-être aussi