Académique Documents
Professionnel Documents
Culture Documents
2Le contrôle de gestion peut se définir de façon positive en décrivant ce qu'il est, le cas
échéant en idéalisant un peu la pratique, ou de façon négative en l'opposant à d'autres
systèmes de régulation des comportements. Toutefois, cette opposition entre ce qu'est le
contrôle de gestion et ce qu'il n'est pas est à nuancer. C'est pourquoi nous mettrons la
définition positive en perspective grâce à quelques réflexions sur l'histoire du concept.
4Le contrôle de gestion est un contrôle finalisé. L'autorité qui le met en place doit avoir des
objectifs qu'elle doit pouvoir et vouloir communiquer. Elle doit avoir une vision des
évolutions à moyen ou long terme et une volonté de cheminement. Bref, le contrôle de gestion
est au service d'une stratégie. La direction est une direction par objectifs (DPO) même si elle
ne respecte pas toutes les règles de cette technique qui s'est développée dans les années 1960.
5Le contrôle de gestion s'appuie sur un ensemble de techniques qui ont en commun de
concourir à un contrôle à distance des comportements, sur la base d'indicateurs quantifiés (en
unités monétaires ou physiques), dans une optique contractuelle ou plus exactement pseudo-
contractuelle car le lien de subordination demeure et brise l'autonomie de l'un des
contractants. L'échange se résume à un peu plus de liberté ou d'autonomie au prix d'un peu
plus de responsabilité. La délégation s'accompagne de l'obligation de rendre compte, de
rendre des comptes. Il y a un engagement préalable portant sur un résultat à atteindre, une
explicitation des modalités d'évaluation puis, a posteriori, l'évaluation ou la mesure de
performance (souvent qualifiée de postévaluation). Comme dans tout contrat, il peut y avoir
une dissymétrie de l'information et un rapport de force inégal. Même si l'échange des
consentements n'est pas toujours absolument... librement consenti, il y a une forme plus ou
moins parfaite d'échange. Cette économie contractuelle tend à faire d'un groupe une somme
de PME, valorisant ainsi l'esprit d'entreprise ou plus précisément la volonté d'entreprendre. La
mise sous tension n'est plus réservée aux commerciaux puisque dans l'entreprise chacun est à
la fois « fournisseur » et « client ». Ainsi, les services d'approvisionnement sont les clients des
fournisseurs et les « fournisseurs » des ateliers. Les ateliers sont « clients » de
l'approvisionnement et « fournisseurs » des services commerciaux. À chaque étape, il y a
comparaison avec des concurrents externes. Un management par l'autocontrôle se substitue au
management par la domination.
6Le contrôle de gestion est aussi un langage qui exerce un pouvoir sur ceux qui l'utilisent car
« une langue porte déjà en elle une vision du monde qu'adoptent nécessairement ceux qui la
parlent » [Rocher, 1970, p. 92]. Pour être efficace, ce langage « doit être à la fois
suffisamment naturel et suffisamment culturel » [Laufer et Paradeise, 1982, p. 81]. Dans notre
cas, il est naturel dans la mesure où il véhicule des normes externes à l'entreprise et culturel
quand il s'agit des valeurs produites dans l'entreprise. Une langue se compose d'une
sémantique (des mots, un vocabulaire) et d'une syntaxe (une grammaire, des règles de
combinaison). À travers les mots qu'il impose, le contrôle de gestion unifie les préoccupations
et les comportements, ce qui est d'autant plus important que le groupe est grand, diversifié
(variété des métiers et donc des cultures) et géographiquement éclaté. Si le contrôle de gestion
impose des mots, c'est parce que, selon l'image utilisée par Philippe Lorino, « un phare n'est
utile pour le navigateur que s'il est reconnaissable » [Lorino, 1995, p. 60] et permet de se
positionner. Les mots doivent donc avoir une signification concrète et univoque pour
permettre un contrôle des comportements des opérationnels. La syntaxe, c'est-à-dire, dans
notre cas, les modes de raisonnement, est également unifiée. Par exemple, les règles du calcul
financier (actualisation des flux, taux interne de rentabilité) obéissent à une logique
parfaitement définie, d'autant mieux définie qu'elle est externe à l'organisation. René-Victor
Pilhes [1980] montre bien le rôle du langage dans la construction de l'unité de pensée d'une
organisation dans son roman, L'Imprécateur, qui met en scène le fonctionnement d'une
multinationale. Il ironise en particulier beaucoup sur le vocabulaire anglo-saxon simpliste en
vigueur dans le milieu professionnel des gestionnaires.
7Tout n'est cependant pas aussi simple. « La fiction selon laquelle tous, au sein de
l'entreprise, parlent la même langue, n'est qu'une approximation plus ou moins acceptable (...).
L'uniformité syntaxique peut masquer une tour de Babel sémantique » [Pilhes, 1980, p. 67].
De plus, un langage n'échappe pas à des mécanismes de différenciation-unification
permanents. La langue française n'a pas échappé à ce phénomène puisqu'on a constamment
constaté qu'à côté des efforts d'unification (par la scolarisation, les médias, etc.) naissaient des
formes déclinées de la langue en fonction des particularismes régionaux, professionnels,
sociaux, etc. Dans l'entreprise, on trouve des indicateurs répercutés de façon à peu près
identique tout au long de la hiérarchie qui ont ces fonctions d'intégration à côté d'indicateurs
« au pied des machines » qui rendent compte de situations concrètes rencontrées par les
intéressés dans leur travail quotidien et servent à l'autocontrôle plus qu'à rendre des comptes.
8La définition du contrôle de gestion que nous venons de donner est-elle atemporelle ou
datée ? Y a-t-il une histoire du contrôle de gestion et une évolution de cette définition ?
10La définition que nous avons donnée du contrôle de gestion ci-dessus laisse suffisamment
de degrés de liberté pour qu'il y ait une histoire du contrôle de gestion mais, en même temps,
elle limite cette histoire et la borne dans le temps. Le contrôle de gestion est donc
contemporain de certaines formes de production.
11Une autre difficulté tient au fait que l'histoire des outils de gestion n'est pas linéaire. Les
innovations ne sont pas apparues dans un ordre logique a posteriori, mais au gré d'un
foisonnement d'essais et d'erreurs qui traduisent le foisonnement de la vie. Toute référence
historique risque donc d'être critiquable dans la mesure où l'on peut toujours trouver un
exemple antérieur, un ancêtre de tel ou tel outil.
12Le contrôle des comportements est une activité aussi ancienne que la vie des hommes en
groupes organisés. Mais ici, il s'agit uniquement d'organisations obéissant à une rationalité
économique. De ce fait, les armées romaines ou les ordres religieux du Moyen Âge avaient
des objectifs qui les plaçaient en dehors du champ du contrôle de gestion. Il a donc fallu
attendre la constitution des grandes manufactures du XIXE siècle pour justifier l'émergence
de cette discipline qui suppose le recours à des techniques de gestion formalisées. Or ces
manufactures ne se sont développées que lorsque la maîtrise de l'énergie, plus précisément la
machine à vapeur, a permis des économies d'échelles conduisant à concentrer la production en
un même lieu. Inversement, on voit aujourd'hui le contrôle de gestion évoluer vers des formes
atrophiées dans des entreprises qui se délocalisent et ont un recours massif à la sous-traitance
pour variabiliser leurs charges ou profiter des faibles taux de salaires ou d'avantages fiscaux
dans certains pays. Il laisse alors la place au contrôle par le marché. L'augmentation des
transports et du nombre des transactions que cela engendre est rendue plus supportable grâce
aux gains de productivité énormes réalisés dans le domaines des télécommunications et des
transports.
13L'organisation doit être finalisée, c'est-à-dire avoir des objectifs et une stratégie articulée
sur ces objectifs et déclinée à différents niveaux. Cela suppose, dans certains cas,
des relations contractuelles entre les différents niveaux hiérarchiques et une délégation de
l'autorité car, à défaut, la finalisation peut rester parfaitement occulte. Il est compréhensible
que les entreprises aient évolué sur ce point, sous la pression des faits. En effet, dans le cas
d'une production standardisée avec un très faible niveau de variété, le degré d'implication
requis des différents salariés est très faible et la recherche opérationnelle fournit aisément
le one best way. Les exemples sont nombreux dans l'automobile avec notamment la Ford T
apparue en 1908 et qui était le modèle unique et sans options du constructeur. Plus près de
nous, il en était de même en France entre 1945 et 1965 pour Peugeot qui ne commercialisait
également qu'un seul modèle à la fois : les 203, 403 puis 404. On pouvait alors se passer de
contrôle de gestion, le contrôle direct par la hiérarchie étant suffisant. Aujourd'hui, la variété
extrême de la production (il existait au début des années 1990 près de 200 000 combinaisons
de toutes les couleurs et options possibles de l'AX Citroën et on dénombre en 2012 plus de
300 yaourts différents !) et la segmentation très fine du marché conduisent à abandonner par
nécessité la « planification centralisée » et à déléguer, ce qui ne peut aller sans finalités
partagées. Les premières expériences sur la motivation du personnel autrement que par des
primes sont imputées à l'école des relations humaines et aux expériences d'Elton Mayo à la
Western Electric à Hawthorne près de Chicago entre 1920 et 1930. Mais c'est plus
particulièrement après la Seconde Guerre mondiale que les phénomènes collectifs ont retenu
l'attention. Le terme de « comportement organisationnel » n'est apparu qu'au début des
années 1960.
14Le contrôle de gestion est aussi un contrôle à distance. Il suppose l'existence d'outils
d'information capables précisément de réduire l'obstacle de la distance. Ce fut le rôle de la
comptabilité industrielle apparue dans la première moitié du XXE siècle (cf. par exemple
Zimnovitch [1996]), devenue comptabilité analytique dans les années 1960 et enfin
comptabilité de gestion dans les années 1990 avec l'influence de la normalisation comptable
américaine (management accounting). Le transfert de technologie entre les États-Unis et la
France fut accéléré entre 1948 et 1951 avec les « missions de productivité » qui ont permis à
environ 3 000 experts français d'aller étudier outre-Atlantique les méthodes de gestion et,
entre autres, les budgets. Toutefois, le coût du traitement de l'information, largement manuel
jusqu'à la fin des années 1960, limitait le développement des systèmes d'information.
15Enfin, le contrôle de gestion, qui est un langage, porte la marque de l'histoire des mots. Le
marketing d'une idée ou d'un outil suppose un mot. Le concept de standard, pouvant désigner
aussi bien des unités physiques que des coûts, a structuré les outils de gestion autour de la
gestion de la production. Mais, très schématiquement, à partir de la fin des années cinquante
ou des années 1960, le marketing devient la préoccupation majeure dans de nombreux
secteurs d'activité. Les coûts partiels, le concept de contribution, de marge, de point mort se
développent. Ils ne sont pas « inventés » mais ils viennent au premier rang des préoccupations
des entreprises et des discours des consultants. Les années 1980 sont marquées par la menace
japonaise sur l'industrie américaine et européenne et la concurrence par la qualité. Le contrôle
de gestion se fait l'interprète de ces nouvelles priorités en intégrant la mesure de la qualité
dans les tableaux de bord, en révisant le mode de calcul du coût de la qualité grâce aux
« coûts cachés » qui déplacent les règles d'arbitrage entre coût et qualité, en intégrant le total
quality control (TQC). Toujours aussi schématiquement, on pourrait caractériser les années
1990 par l'importance des préoccupations financières et la mise en vedette du concept
de performance. Ce concept est plus large que celui de rentabilité et il inclut la mise sous
tension des services administratifs ou, plus généralement, fonctionnels qui doivent participer à
la création de valeur.
16Le contrôle de gestion a donc un caractère contingent important. Ces quelques éclairages
ont montré ses facultés d'adaptation. Pour autant, on ne peut en conclure que cet outil survivra
à toutes les évolutions techniques, économiques et sociales. Il est apparu dans un certain
contexte historique, le capitalisme industriel occidental, mais pourrait disparaître dans un
système qui saurait trouver d'autres modes de régulation. Mais, même dans ce contexte
favorable, il n'a jamais pu faire disparaître complètement d'autres modes de contrôle.
18
19Pour sa part, Philippe Lorino retient deux hypothèses principales qui fondent ce qu'il
appelle un paradigme de contrôle :
20
21La simplicité fonde la possibilité de décomposer (la performance globale est la somme des
performances locales) et la combinaison de la simplicité et de la stabilité fonde la certitude
[Lorino, 1991, p. 21].
22Ces différentes conditions étant rarement réunies, le contrôle de gestion coexiste avec bien
d'autres formes de contrôle des comportements que nous allons schématiquement détailler ci-
après afin d'en mieux comprendre le contexte.
25Le contrôle par le règlement et les procédures. – Il est caractéristique des organisations
bureaucratiques, correspond à un pilotage mécanique. Il s'impose dans certaines formes
d'organisations et notamment dans les services publics où la légitimité du pouvoir des
dirigeants, les élus en l'occurrence, a besoin de cette médiation du règlement qui « objective »
le jugement. Mais il existe aussi dans toutes les entreprises qui ont des procédures de contrôle
interne qui évitent aussi bien les erreurs que les tentations de fraude, et dont la bonne
application est vérifiée par le service d'audit interne. Les limites de ce mode de contrôle
tiennent au fait qu'il ne porte pas sur l'action elle-même « mais sur la procédure par laquelle
chaque acteur définit la substance de son action » [Lorino, 1995, p. 197] et tiennent à sa
rigidité, peu compatible avec la flexibilité requise par une concurrence active et une
mobilisation des capacités de création du personnel. Le règlement a d'autres qualités :
28L'audit. – C'est l'une des formes de contrôle par le règlement les plus populaires depuis le
début des années 1960. « Nous définirons l'audit comme l'activité qui applique en toute
indépendance des procédures cohérentes et des normes d'examen en vue d'évaluer
l'adéquation et le fonctionnement de tout ou partie des opérations menées dans une
organisation par référence à des normes » [Becour et Bouquin, 1991, p. 11]. Il se décline sous
différentes formes : audit comptable ou financier (conformité des comptes annuels avec le
droit comptable ou avec des normes comptables internes à un groupe, une entreprise, un
réseau, etc.), audit interne (conformité du système d'informations de gestion aux règles et
procédures internes à l'entreprise), audit fiscal et juridique (contrôle de la bonne application
des différentes règles de droit), etc. Par la suite, le sens du mot s'est élargi et il englobe
également aujourd'hui des activités d'évaluation par rapport à des objectifs (finalité) et non
plus seulement par rapport à des normes portant sur le mode de production de l'information
(moyen) : audit opérationnel (appréciation de la manière dont les objectifs sont fixés et
atteints ainsi que des risques qui pèsent éventuellement sur la capacité de l'entreprise à définir
des objectifs pertinents et à les atteindre), audit stratégique, etc., et même... audit total ! Le
système de contrôle de gestion peut faire l'objet d'un audit. Théoriquement, on pourrait aussi
concevoir un audit des activités d'audit...
29Le contrôle par le marché. – Il permet une mise sous tension du personnel et une flexibilité
maximale. Il suppose le découpage de l'organisation en de multiples entités autonomes
(filiales ou divisions) ayant chacune un compte d'exploitation ou de résultat. Chaque filiale
peut s'approvisionner ou vendre librement à l'intérieur du groupe ou en dehors du groupe. La
société holding gère un portefeuille de participations et se défait des filiales les moins
rentables pour en acquérir d'autres. Sous peine de sanction, dans chacune des filiales le coût
doit ainsi nécessairement rester inférieur au prix du marché. Ce type de contrôle est souple,
clair et efficace, mais il ne peut traduire une stratégie industrielle ou commerciale à long
terme pouvant amener à supporter pendant plusieurs années des déficits en vue d'un avantage
ultérieur parfois déterminant. Les perpétuels changements de frontières du groupe s'opposent
aussi à un apprentissage organisationnel parfois long mais source de gains de productivité.
Les effets de synergie sont minimes.
31Le contrôle clanique. – Décrit par William Ouchi [1982], il peut être une forme de contrôle
par la culture, celle d'un milieu professionnel, mais il peut également être un contrôle par un
corps de professionnels se plaçant au-dessus et généralement en dehors des règles de
l'entreprise. Tel est évidemment le cas des médecins, mais également des chercheurs parfois
plus sensibles à la reconnaissance de leur milieu professionnel qu'à celle de leurs employeurs,
des directeurs de comptabilité qui, dans les pays anglo-saxons, sont membres de l'équivalent
de notre ordre des experts-comptables ou encore des auditeurs internes qui sont également
membres d'une organisation professionnelle ayant ses propres règles (codes d'éthique ou de
déontologie, codes de « bonne conduite », etc.). Le schéma suivant, emprunté à Henri
Bouquin [2010], montre que selon deux variables, la possibilité de mesurer des résultats et la
connaissance du processus de transformation ou de production, les modalités du contrôle
changent. Plus la quantification est difficile et la fonction de production « molle », plus le
contrôle clanique joue un rôle important.
32Enfin, l'éthique est également une forme de contrôle des comportements de plus en plus
présente dans le discours gestionnaire actuel qui emprunte au contrôle par le règlement dans
la mesure où elle est codifiée, au contrôle par la culture interne ou externe à une organisation
et au contrôle clanique lorsqu'elle est à l'origine de l'identité et de la légitimité d'une
profession.
33La définition que nous avons donnée du contrôle de gestion et la présentation des formes
alternatives de contrôle témoignent de leur coexistence dans la réalité. Seules les proportions,
les combinaisons de chacune d'entre elles varient et font la spécificité de chaque organisation
en fonction de contingences techniques, économiques et sociales mais aussi d'un équilibre des
pouvoirs à l'intérieur de toute organisation. L'idée d'une contingence du modèle de contrôle
est essentielle [Thevenet, in V.A., Encyclopédie du management, 1992, p. 506]. Il en découle
qu'il n'y a pas de solution idéale, mais une recherche permanente de solution adaptée à des
situations qui, par nature, évoluent sans cesse.
34Nous allons maintenant détailler les hypothèses de base du modèle de contrôle d'une
organisation par le contrôle de gestion.
35Le contrôle de gestion, défini comme un système finalisé de régulation des comportements,
suppose implicitement une certaine représentation du fonctionnement de l'entreprise que nous
allons essayer d'expliciter en distinguant le processus de prise de décision et la structure de
l'organisation.
38Le revers de la médaille tient d'abord au fait même que cette réduction de complexité prive
le mandant de la possibilité de capitaliser une expérience puisque, par définition, il veut
l'ignorer. Par ailleurs, la responsabilité individuelle et la « propriété déléguée des ressources »
(selon l'expression de Lorino [1995, p. 272]) introduisent une culture de chasse gardée et de
territoire qui met en danger la cohérence d'ensemble de l'organisation.
39Le modèle suppose qu'il soit possible de décliner les facteurs clés de succès sur l'échelle
du temps : long, moyen et court terme. Ainsi, dans le cas d'une stratégie de domination par les
coûts (long terme), on va par exemple s'intéresser à la maîtrise des coûts de transport
[Bouquin, 2010]. Cette dernière variable constitue alors un facteur clé de succès si, dans notre
exemple, les économies potentielles les plus fortes se situent dans ce domaine. À moyen
terme, on aura à se prononcer sur des choix tels que faire ou sous-traiter (avoir son propre
service de transport ou faire appel à des prestataires externes), organiser un partenariat
logistique durable, etc. À horizon un an, le problème se déplace vers la gestion d'un parc de
véhicules : nombre et caractéristiques des véhicules, rythme de remplacement, politique
d'entretien, mode de financement (achat, location, crédit-bail), etc. Enfin, au quotidien, le
problème devient celui de l'optimisation des tournées.
40Le contrôle de gestion suppose que la stratégie et les objectifs qui en découlent soient
explicités afin que puissent fonctionner tant le modèle cybernétique que le modèle contractuel.
De plus, le travail de formalisation nécessité par l'explicitation et donc la publicité donnée à la
démarche stratégique la soumettent à la critique. Il y a là une exigence de validation par un
public qui alimente le processus d'apprentissage dans la mesure où on ne peut se réfugier
derrière la seule autorité hiérarchique pour masquer des insuffisances ou des zones d'ombre.
41Mais par ailleurs, nous savons que la « formalisation d'une organisation n'est jamais que la
partie visible de sa régulation effective » [Friedberg, 1997]. Les causes tiennent tant à
l'incapacité réelle de modéliser une situation complexe qu'à la recherche d'une réduction des
conflits. L'explicitation d'un choix suppose bien évidemment le renoncement à d'autres
possibilités qui ont, elles aussi, leurs partisans. L'ambiguïté peut être un mode de gestion
consensuelle. Enfin, nous l'avons déjà mentionné, le volontarisme cher à de nombreux
gestionnaires n'explique pas tout : il y a aussi des stratégies émergentes qui viennent s'opposer
aux stratégies explicites et ne doivent pas être assimilées à des pathologies propres aux formes
dégradées d'organisation. Les stratégies émergentes sont le fruit d'un « gauchissement de la
stratégie antérieure sous l'influence de décisions successives non gérées de façon globale »
(Stratégor, 2009). Pour Philippe Lorino [1995, p. 169], « la stratégie émerge de l'action tout
autant que l'action émerge de la stratégie. Henry Mintzberg parle de la stratégie du potier : le
potier élabore la stratégie de son pot tout en le créant, au fur et à mesure que la forme émerge
de ses mains ». Ce ne sont là que des illustrations de la relation entre connaissance et action
développée par Jean Piaget. Si « une stratégie délibérée exclut l'apprentissage une fois que la
stratégie est formulée, la stratégie émergente l'encourage » [Mintzberg, 2009].
44
les centres de coûts standard qui correspondent généralement à des ateliers dont le
responsable ne maîtrise que la productivité ;
les centres de dépenses discrétionnaires, le plus souvent des services administratifs dont
l'activité est difficilement mesurable ;
les centres de recettes ou de chiffre d'affaires, habituellement des services commerciaux
lorsque le responsable n'a pas la maîtrise des prix et des coûts de distribution ;
les centres de profit qui se rencontrent à un niveau assez élevé de la hiérarchie des grandes
entreprises lorsque le responsable dispose d'une large délégation de pouvoir ;
les centres d'investissement qui correspondent à des centres de profit, dans lesquels le
responsable aurait en outre la maîtrise des investissements, se situant au niveau le plus
élevé.
45Ces différences, qui feront l'objet de plus amples développements dans le chapitre III,
troisième section, peuvent être récapitulées dans le tableau suivant [Bouquin, 2010] :
46Les échanges entre ces centres sont réglés par les prix de cession internes, internes par
rapport à l'entreprise ou au groupe (cf. sur ce sujet Burlaud et Simon [2003, p. 280 sq.]).
48Ayant présenté les fondements du modèle de régulation à distance et par les chiffres des
comportements dans une organisation, nous allons maintenant voir les outils mis en œuvre.
N ous entendons par « outils classiques » ceux actuellement mis en œuvre, de façon
explicite, dans la plupart des organisations : calculs de coûts, budgets, reporting, organisation
en centres de responsabilité, etc. Le plus souvent, les systèmes de contrôle de gestion sont
formés d'une combinaison de ces différents outils qui résulte soit d'un choix délibéré et
imposé, par exemple, par la société mère, soit d'une évolution plus ou moins maîtrisée. Mais,
au-delà de leur rationalité apparente, ces outils façonnent les comportements et les relations
au sein de l'organisation. Nous les aborderons en mettant en relief leur impact principal,
même si celui-ci ne correspond pas toujours à la finalité initiale de leur mise en œuvre.
2Le premier point traitera des outils, principalement des coûts, dont la fonction essentielle est
de procurer des informations à la hiérarchie pour rationaliser ses décisions à l'égard de
l'environnement de l'entreprise.
3Le deuxième point sera consacré aux outils permettant un contrôle des opérationnels :
les standards, les budgets et le reporting.
4Le troisième point étudiera les outils destinés à susciter des comportements plus proactifs :
les centres de responsabilité, les cessions internes et l'externalisation.
5Enfin, le quatrième point proposera des pistes menant à une adéquation entre les structures
types (entreprise unifiée, stabilisée, planifiée ou éclatée) et les modes de contrôle adoptés.
6Les techniques liées à la mise en œuvre de l'ensemble de ces outils ne seront ici que
rapidement décrites (pour plus de détails, consulter Mevellec [1995] ou Burlaud et Simon
[2003]).
7Dans une conception classique de l'économie, les mots entreprise, firme, entrepreneur ou
décideur recouvrent à peu près la même réalité. L'entreprise est à la fois une boîte noire (son
contenu et son fonctionnement interne sont neutres, ils n'influent pas sur l'économie et sont
donc dénués d'intérêt) et un automate qui réagit mécaniquement aux fluctuations du marché.
Ce dernier est stable ou, tout au plus, peut enregistrer des variations de volume, seul cas
d'instabilité envisagé ici.
l'une relative à la gestion de l'interface entre l'entreprise et son marché aval, c'est-à-
dire relative à la fixation des prix de ses produits ou services,
l'autre lui permettant de surveiller globalement la productivité ou les rendements.
10Dans un second point, on introduira la prise en compte de ces rouages, on ouvrira la « boîte
noire ».
11Quand l'entreprise reste une « boîte noire ». – La méthode des coefficients (les mots
techniques sont définis dans le lexique en fin d'ouvrage) répond à ces deux objectifs. Elle
consiste à déterminer un facteur unique permettant de mesurer toute l'activité de l'entreprise et
à en calculer le coût partiel direct. Le rapport entre les quantités de facteurs consommés et
vendus permet une mesure de la productivité. Le prix de vente est obtenu en multipliant le
coût du facteur par un coefficient fixe propre à chaque profession. Ce procédé est simple, peu
onéreux et procure au décideur deux outils ou informations majeures :
12
13Les exemples de mise en œuvre de cette méthode sont encore très nombreux. Ainsi, dans le
commerce de détail, le prix de vente toutes taxes comprises, étiqueté sur le produit, est
déterminé en appliquant un coefficient standard au prix d'achat hors taxes. Régulièrement,
après inventaire, le coefficient global constaté et recalculé est comparé au coefficient
standard. La différence s'explique par les éventuelles remises de prix accordées mais surtout
la perte, la casse ou le vol (démarque inconnue). De même, dans les activités artisanales ou de
service, l'heure de main-d'œuvre directe est considérée comme le facteur unique de facturation
(le coût de l'heure est multiplié par un coefficient) et le contrôle de la production par le ratio :
heures facturées/heures payées au salarié. Dans l'industrie, cette méthode inspire encore un
grand nombre de pratiques où le facteur d'activité central est l'heure de main-d'œuvre directe.
On en mesure aisément la quantité et son coût s'obtient en appliquant au coût de la main-
d'œuvre elle-même un coefficient standard souvent appelé « taux de charge », déterminé par
l'expérience ou la comptabilité et permettant d'« absorber » ou de « couvrir » l'ensemble des
autres charges. Les coûts de revient et prix de vente des différents producteurs sont alors
calculés aisément. Mais le développement de l'automatisation et la désertification des usines
qui en découle font que le coût de la main-d'œuvre directe ne représente plus qu'une partie très
faible (souvent moins de 10 %) du coût total. Elle devient alors un mauvais critère de mesure
de l'activité et un mauvais outil de répartition de l'ensemble des coûts. Les tenants de la
méthode ABC (développée ci-dessous chapitre IV, troisième section) font d'ailleurs de ce
constat le principal argument de promotion de leur technique.
14Une variante de la méthode des coefficients se retrouve dans la méthode GP, ainsi baptisée
par son concepteur : Georges Perrin [1962]. Il possédait et dirigeait une entreprise lyonnaise
de soierie dont la production était à la fois très homogène (exclusivement filature et tissage de
soie) et très diversifiée (séries courtes et constamment renouvelées). Cette méthode consiste à
déterminer une production standard de référence, par exemple le tissage d'un mètre de soie
« de base » baptisé « unité GP » et à évaluer toute autre production en « équivalent GP ».
Ainsi, un mètre de soie plus élaboré pourra valoir 1,2 GP. Dès lors, comme l'explique
Georges Perrin, les fabrications multiples se ramènent à un produit unique dont le coût de
revient est égal à l'ensemble des charges répertoriées par la comptabilité générale et divisé par
un seul chiffre : la somme de tous les points GP. Cette méthode semble avoir été
particulièrement bien adaptée au métier et à l'époque de son auteur. Elle avait un rapport
avantage/coût particulièrement élevé. Son erreur est d'avoir voulu l'ériger en technique
universelle.
15Sous une forme à peine plus élaborée, ces méthodes simples, parfois simplistes, sont
encore d'un usage très courant y compris dans de grandes organisations à structure complexe.
Elles présentent cependant quatre inconvénients majeurs.
16
1. Elles ne permettent qu'une allocation très sommaire des charges indirectes, reposant
sur une conception figée de l'entreprise et de son environnement. Implicitement, elles
considèrent que tous les produits, toutes les activités créent des charges indirectes dans
une même proportion que les charges directes. Georges Perrin était conscient de ce
postulat qu'il dénommait le « principe des constantes occultes » et qu'il énonçait ainsi :
« Quels que soient les prix unitaires, les efforts de production dégagés par les diverses
opérations élémentaires théoriques de travail d'une usine sont entre eux dans des
rapports constants dans le temps » [Perrin, 1962, p. 33]. L'univers et l'entreprise sont
réputés stables à la fois dans le temps, puisque les coefficients sont peu ou pas
évolutifs, et dans l'espace dans la mesure où les produits changent peu. Mais si l'outil,
le calcul des coûts et le contrôle de la gestion, suppose la stabilité, il engendre à son
tour l'immobilisme.
2. Le deuxième inconvénient découle du premier. Dans une telle approche, une
segmentation du marché, une différenciation des produits n'a pas sa place. Dans le
commerce de détail traditionnel, tous les produits, tous les espaces de vente sont gérés
uniformément, produisant la même marge. En revanche, la grande distribution
distingue les achats de nécessité, d'impulsion, etc., et différencie leur gestion par
l'implantation dans les rayons, la présentation et le prix. Pour remédier à cette rigidité,
le commerce traditionnel réalise une différenciation dans le temps par la pratique des
soldes. Mais elles concernent de façon uniforme l'ensemble des produits, pratiquement
à la même date et pour tous les concurrents. Même la différenciation devient
uniforme ! Elle est d'ailleurs prévue et anticipée par la clientèle.
3. Le troisième inconvénient est plus d'ordre stratégique. Ces méthodes reviennent à
répercuter fidèlement et mécaniquement l'amont, la production, vers l'aval, c'est-à-dire
la demande et le marché. Dans une économie de pénurie ou de l'offre, ce système est
cohérent. Mais dans une économie dominée par la demande, le contrôle de gestion doit
au contraire s'efforcer de répercuter, voire de faire anticiper les évolutions de l'aval
vers l'amont faute de quoi la sanction est d'autant plus brutale qu'elle est tardive.
4. Le quatrième inconvénient, corollaire du troisième, est que ces techniques faussent la
perception du produit et de l'activité. Ainsi, le détaillant croit vendre des vêtements
alors que le client achète du conseil ou de la proximité ; le peintre vend des heures de
travail alors que le client achète la peinture et la remise à neuf d'une pièce. Il y a
confusion entre le moyen et le résultat. C'est pourquoi les garagistes qui vendent
essentiellement des heures de main-d'œuvre se font de plus en plus concurrencer par
des entreprises qui ne facturent plus l'heure mais le produit-service : changement de
pot d'échappement, d'amortisseur, forfait vidange, etc.
17En conclusion de cette partie, on notera que les utilisateurs de ces approches sont souvent
comme monsieur Jourdain : ils estiment disposer d'un système si simple que ce n'est pas du
contrôle de gestion. La technique n'a pas véritablement de coût sauf que le coût caché peut
être considérable à cause des effets négatifs induits qu'elle peut avoir sur la gestion.
18La mise à nu des rouages dans la « boîte noire ». – Les méthodes fondées sur un coefficient
unique simplifiaient à l'extrême l'entreprise, réduite à une « boîte noire ». Une autre méthode,
à d'autres égards d'inspiration proche, va au contraire démonter les rouages de l'organisation :
la méthode des sections homogènes ou des centres d'analyse. Son principe est simple, même
si sa mise en œuvre est parfois lourde et complexe.
19Elle a pour objectif le calcul du coût complet de chacun des produits comprenant
l'ensemble des charges directes et indirectes selon l'équation :
20Par définition, les charges directes peuvent être allouées, affectées aux différents produits
sans trop de difficultés ; une bonne organisation sur le terrain (bons de travaux, bons de
consommation, compteurs adaptés, etc.) doit permettre de déterminer cette partie du coût avec
une précision suffisante.
21La répartition des charges indirectes est en revanche plus délicate. La méthode des sections
ou centres d'analyse est l'une des solutions à ce problème. Le principe consiste à ne plus
procéder globalement, selon un seul critère comme dans la méthode des coefficients, mais au
contraire à différencier les critères et à procéder par étapes ou tris successifs en appliquant la
méthode analytique cartésienne à la structure de l'entreprise. La figure de la page 29
schématise le principe de la technique.
Les rouages de la « boîte noire »
22Les charges qui sont indirectes par rapport aux produits sont directes par rapport aux
différents centres. Ainsi, le salaire du comptable, indirect par rapport au produit fabriqué,
devient direct par rapport au centre « comptabilité ». Les centres principaux sont ceux qui
concourent à l'activité fondamentale de l'entreprise : acheter, produire, vendre. Les centres
auxiliaires correspondent aux fonctions générales de l'entreprise, aux activités de soutien ou
de « support » : administration, entretien, etc. Ils sont répartis ou déversés éventuellement
entre eux mais surtout finalement entre les centres principaux au moyen de critères (« clés »)
aussi significatifs que possible du service rendu par le centre auxiliaire aux différents centres
principaux. Par exemple, un centre « DRH » peut être réparti entre les autres centres au
prorata des effectifs. Puis, les coûts des centres principaux sont à leur tour imputés aux
différents produits au moyen de critères (« unités d'œuvre ») représentatifs de l'activité et donc
des coûts du centre (heures machine, tonne kilométrique pour des transports, etc.). Comme le
montre le schéma de la page suivante, le découpage de l'entreprise en centres peut être
grossier ou très fin. Par rapport à une méthode globale des coefficients, cette technique
multiplie les critères de répartition et surtout les fait correspondre aux caractéristiques
techniques de chacun des centres.
23Cette méthode, d'origine française, fut mise au point par Émile Rimailho notamment dans
le cadre de ses fonctions à la Compagnie générale de construction et d'entretien de matériel de
chemin de fer (CGCEM) au cours des années 1920 (sur ces aspects historiques, cf. Bouquin
[1995]). L'atelier de Nevers, qui lui servait de référence principale, était lié par un contrat de
longue durée à la compagnie de chemin de fer PLM. Ce contexte n'est pas neutre. Dans cet
environnement stable, Rimailho va chercher une méthode précise et rigoureuse permettant
une facturation équitable des travaux d'entretien réalisés. Mais cette équité vis-à-vis du client
est également répercutée à l'intérieur de l'entreprise. Selon Rimailho, l'une des fonctions de la
section est de « veiller aux meilleures relations des hommes entre eux, de rendre justice aux
compétences de chacun et, enfin, d'assurer l'équitable partage des avantages matériels
résultant des initiatives et des efforts réalisés » [Bouquin, 1995, p. 22].
24Comme nous l'avons déjà souligné dans le cadre des méthodes des coefficients, il s'agit de
répercuter vers l'aval (le
Schéma
la taille des
comparatif
entreprises
des conceptions de structure fonctionnelle selon
27Les variations de volume perturbent les coûts unitaires ; en effet, par définition, les charges
variables sont fixes au niveau unitaire (par exemple, la consommation d'essence, variable, est
fixe au kilomètre, quel que soit le kilométrage parcouru) alors que les charges fixes sont
variables au niveau unitaire (le coût kilométrique de l'assurance diminue avec le kilométrage
parcouru) ainsi que le montrent l'encadré et l'équation suivants :
28Par ailleurs, dans un environnement instable, les coûts et le contrôle de gestion doivent
aider à des décisions du type : quelle est la limite inférieure pour un prix de vente acceptable ?
Quel est l'impact de tel marché sur le résultat de l'entreprise ? Aux logiques de coût complet
adaptées à un univers planifiable et modélisable parce que stable, vont se substituer des
logiques et techniques de coûts partiels ; c'est en particulier en Amérique du Nord qu'elles se
sont le plus développées.
Le direct costing
Le direct costing ne se fonde pas, comme son nom pourrait le laisser penser, sur le critère
direct/indirect, mais sur celui de fixe/variable. Il consiste en effet à n'analyser au niveau de
chacun des produits que ses charges variables, les charges fixes étant considérées comme
globales. Sa mise en œuvre peut conduire à une présentation des informations sous la forme
suivante (voir tableau ci-dessous).
Lorsque l'on raisonne sur l'ensemble de l'entreprise, l'analyse fixe/variable se traduit par le
concept de seuil de rentabilité (voir encadré ci-après). Le modèle du direct costing est orienté
vers le futur ; il permet bien l'élaboration de prévisions ou de simulations en mettant en
exergue le principal facteur de bénéfice ou perte d'une entreprise : le volume de l'activité et
des ventes. Par rapport au coût complet, il correspond à une logique d'approche des coûts et
marges totalement opposée : les charges fixes, très liées à la structure, sont en quelque sorte
« redescendues » au niveau des produits par la méthode des centres ou sections alors que
dans le direct costing les produits doivent dégager une marge ou contribution destinée à
absorber ou financer les charges fixes ; la logique est en quelque sorte remontante. Le coût
variable s'inspire d'une conception marginaliste permettant bien une différenciation des
produits ou marchés et donc de mieux s'intégrer à une démarche marketing plus offensive.
Pour autant, cette démarche est souvent dangereuse : chaque produit peut dégager une marge
sur coût variable positive sans que pour autant l'ensemble des charges fixes soit couvert et l'on
voit parfois des entreprises la pratiquant où « tout le monde gagne de l'argent... mais où
l'entreprise fait des pertes ».
Par ailleurs, le modèle volume/coût/profit qui le sous-tend est en réalité très simplificateur et
réducteur : les facteurs de variabilité des charges sont nombreux et les prix de vente, comme
les coûts, ne sont pas indifférents aux quantités.
29Le coût direct évolué ou coût opérationnel est une autre approche de coût partiel qui a
trouvé son origine dans les pratiques des entreprises anglo-saxonnes. Il consiste à allouer à
chaque produit non seulement ses charges variables, mais également ses charges fixes directes
ou opérationnelles, c'est-à-dire liées à la gestion courante : achat-production-distribution et à
distinguer les charges de structure (le siège social pour simplifier) globales.
Le seuil de rentabilité
Définition : Le seuil de rentabilité (ou point mort) est le niveau d'activité pour lequel le
résultat est nul.
Calcul :
Soient :
Intérêt et limite : Le seuil de rentabilité est un modèle représentant une réalité indiscutable ;
pour autant, comme tout modèle il est très simplificateur :
il s'applique mal ou pas aux entreprises multi-produits ;
il suppose une stabilité des prix de vente par rapport aux quantités ;
il suppose une stabilité des coûts unitaires par rapport aux quantités ;
il suppose une parfaite fixité des charges fixes ;
le facteur de variabilité des charges ne peut être réduit aux quantités de produits.
31Toutes les charges fixes non directes (overhead en anglais) se répartissent le plus souvent
selon un coefficient global, unique, habituellement l'heure de main-d'œuvre directe, l'attention
étant surtout concentrée sur les charges variables et directes qui sont soumises, elles, au
contrôle le plus strict conformément aux principes tayloriens (voir ci-après).
35La deuxième raison de sa perte de pertinence est que cette méthode focalise l'attention, le
contrôle, sur les coûts alloués aux produits ; or ceux-ci sont, pour l'essentiel, prédéterminés
lors de la conception et, de plus, l'automatisation de la production rend les écarts de
rendement faibles ou exceptionnels. Le contrôle de gestion est dès lors peu utile et peu
efficace.
36La troisième critique réside dans la pertinence des coûts calculés au niveau des produits. La
méthode anglo-saxonne la plus usuelle consistait à calculer les coûts des produits en
répartissant les coûts indirects opérationnels selon un coefficient simple, l'heure de main-
d'œuvre directe, comme nous l'avons vu. Or les développements de l'automation font que
celle-ci ne représente plus qu'une partie très réduite des coûts et qu'elle constitue un très
mauvais critère d'allocation des charges indirectes, qui, elles, ne cessent de croître. Les
décisions concernant les produits sont donc fondées sur des coûts dont la validité est pour le
moins discutable.
37Ces critiques ont été mises en avant par deux universitaires américains, Thomas Johnson et
Robert Kaplan [1987] dans un ouvrage qui eut un grand retentissement et dont le
titre Relevance Lost (« La pertinence perdue ») constituait un véritable jeu de mots :
l'expression usuelle, consacrée, était en effet de parler de relevant cost (coût pertinent). Outre
le contenu de leur ouvrage, cette expression choc a contribué à la déstabilisation des
théoriciens comme des praticiens.
38L'imputation rationnelle des charges fixes peut être considérée comme une synthèse entre
les méthodes s'inscrivant dans une logique d'univers stable (cf. ci-dessus) et celles s'inscrivant
dans une logique d'univers instable. Elle consiste à calculer un coût complet (en recourant à la
technique des sections) mais à variabiliser les charges fixes par un coefficient dit d'imputation
rationnelle, égal au rapport activité réelle/activité normale. Il s'agit en quelque sorte de
calculer un coût complet désaisonnalisé. Cette technique est principalement utilisée par les
entreprises ayant une activité fortement marquée par des saisonnalités régulières et connues.
Notes :
Il s'agit là d'un cas réel, actuel, non emprunté à Zola ou aux Temps modernes de Chaplin.
L'unité de temps, le dmh, correspond à 1/10 000 d'heure, c'est-à-dire à approximativement un
tiers de seconde.
La première colonne de temps indique les temps théoriques déterminés par chronométrage ou
à partir de tables (MTM). Le coefficient de repos est fonction de la pénibilité de la tâche
élémentaire, le temps alloué est égal au produit des trois premières colonnes.
La chaîne est ici à peu près bien équilibrée : les temps de travail de chacune des ouvrières sont
proches ; les meilleures ouvrières sont affectées aux tâches les plus longues (Mme Y) afin de
parvenir à un flux continu.
Si l'on considère ici une base de fragmentation (temps moyen par opérateur) de 60 dmh, cela
équivaut à 21,6 secondes, soit approximativement un tiers de minute. Chaque opératrice
renouvelle donc la même opération trois fois par minute, soit encore 1 440 fois par jour.
Des standards techniques augestion
suivi des écarts par le contrôle de
Les données du problème
Soit l'entreprise qui fabrique le pantalon décrit dans l'encadré ci-dessus, le total des temps
élémentaires pour un pantalon s'élevant à 30 minutes.
Le coût standard direct du pantalon a pu être ainsi déterminé :
Au cours d'une journée 50 opérateurs ou ouvriers ont travaillé et ont été payés 8 heures pour
un coût total de 4 400 i ; la production s'est élevée à 820 pantalons.
L'écart et son analyse
Remarque : dans le cadre d'un contrôle à rythme rapide (jour, semaine) les prix ou salaires
réels ne sont pas toujours connus ou faciles à déterminer et donc l'écart sur prix n'est pas
calculé : il n'engendrerait d'ailleurs pas de décision (les salaires sont négociés à un autre
niveau hiérarchique et selon une autre périodicité) ; seul l'écart sur rendement sera calculé car
il permet une mise sous tension permanente des cadences. C'est pourquoi il est calculé par
référence au salaire standard qui, lui, est connu.
42Les standards permettent de calculer des coûts préétablis – a priori – ce qui est beaucoup
plus utile pour la gestion des produits – notamment nouveaux – que le calcul a posteriori. Ils
facilitent l'élaboration de budgets et d'une façon plus générale des simulations ou prévisions,
par exemple pour l'étude de la rentabilité d'un investissement projeté. Ils simplifient le calcul
des coûts : il est en effet plus facile, et moins onéreux, de calculer des coûts unitaires à partir
de normes que d'observer ou recenser les consommations réelles (par des bons de travaux, de
sortie...) qui par ailleurs évoluent constamment.
45Mais, dans les organisations, plans et budgets vont plus loin qu'une simple prévision du
possible. Ils ne caractérisent d'ailleurs pas le possible le plus probable, mais plutôt un possible
le plus souhaitable. Il s'agit d'un volontarisme formalisé, qui renforce l'autocontrainte (selon
une expression attribuée au général de Gaulle, un plan serait une « ardente obligation ») et
simultanément en fait un contrat collectif qui coordonne l'organisation. Enfin, cette
formalisation permettra ultérieurement la mise en œuvre d'un contrôle budgétaire
(comparaison réel-budget), outil de responsabilisation de toutes les fonctions et de tous les
niveaux de l'entreprise.
46Surtout dans les grandes organisations, plans et budgets sont différenciés selon les horizons
et les objectifs.
47On distingue ainsi le plan stratégique du plan opérationnel. Le premier fixe les grands
objectifs et les grands choix (spécialisations/diversifications...) à moyen terme (souvent à trois
ou cinq ans, mais en réalité à un horizon cohérent avec les cycles fondamentaux
– d'investissement, de vie des produits – de l'entreprise ; ainsi EDF réalise des plans à quinze
ans, durée de vie minimale d'une centrale) ; ce plan comporte peu de chiffres mais est
cependant le plus confidentiel. Le plan opérationnel est généralement surtout un instrument
de coordination des actions entre les différentes fonctions ou divisions de l'entreprise axé sur
les moyens humains (gestion prévisionnelle des effectifs, GPE) et les investissements.
48Le budget correspond, lui, au cadre annuel et ajuste les objectifs aux moyens (et l'inverse)
en termes monétaires. À la fois pour des raisons techniques d'élaboration, mais aussi et surtout
pour être un moyen de décentralisation et de contrôle, le budget est décliné selon toutes les
fonctions et les entités ou unités de l'entreprise (pour des développements plus complets sur le
système budgétaire, on pourra consulter Burlaud et al. [2004]).
49Le reporting consiste, essentiellement dans les grands groupes, à rendre compte des
résultats sur une base mensuelle ; ce sont surtout les filiales qui ont à le réaliser, mais pour ce
faire elles doivent souvent elles-mêmes organiser un système de suivi des différentes entités
qui les composent. La base du reporting est généralement un contrôle budgétaire qui compare
les objectifs du budget aux données de la comptabilité générale et analyse les
différents écarts. Au-delà des entreprises il permet de mettre sous tension les cadres
supérieurs et moyens ; le budget et le reporting reproduisant, en quelque sorte, à leur niveau,
les mêmes effets que les standards vis-à-vis du personnel d'exécution.
54Par cet effet d'apprentissage, le budget commence à développer un mode de contrôle plus
subtil, moins centré sur le repérage des dysfonctionnements (les écarts) et d'éventuelles
sanctions, et consistant davantage à favoriser un autocontrôle. Il participe donc à l'orientation
des comportements dans le sens souhaité par la direction générale ; d'autres outils
complémentaires vont s'assigner cet objectif.
55Ici, l'idée de base est que, au lieu de chercher les bonnes informations permettant d'aider la
hiérarchie dans ses décisions ou de contrôler les opérationnels pour maîtriser les
dysfonctionnements, on va mettre en place un système susceptible d'engendrer, dans
l'ensemble de l'entreprise, les comportements attendus.
56Les mots clés vont devenir : responsabilité, marché, prix (et non coûts) ; on remarque
qu'ils trouvent leurs racines dans le vocabulaire du droit et non plus dans celui réservé à la
gestion (comme le sont ceux de coût, budget, standard, écart...). Il s'agit en effet de simuler, à
l'intérieur de l'entreprise, un fonctionnement d'entreprises dotées d'une relative autonomie
mais corrélativement ayant à rendre des comptes et étant soumises aux aléas de la vie
économique. Dès lors, le lien de subordination, propre au salariat, et l'obligation de
moyens qui en découle vont se muter en obligation de résultat.
57Mais cette dernière est, en réalité, beaucoup plus contraignante : il ne suffit plus d'être
présent aux heures requises, de respecter les ordres avec diligence, mais il faut atteindre les
objectifs assignés avec en contrepartie une relative autonomie de moyens qui comprend celle
de faire des heures supplémentaires non déclarées. La gestion des ressources humaines a
intégré cette nouvelle dimension et substitue la gestion des compétences (terme qui a
également une origine juridique) à celle des qualifications.
62Nous définirons un centre de responsabilité comme une entité dotée d'une délégation de
pouvoir et soumise à des objectifs contrôlés par un reporting spécifique.
63La direction par objectifs (DPO) ou la direction participative par objectifs (DPPO) sont des
systèmes d'organisation où l'ensemble de l'entreprise est structuré en centres de responsabilité.
Il n'y a pas de limite claire entre la DPO et la DPPO ; dans cette dernière, toutefois,
l'introduction du concept « participatif » laisse entendre que les objectifs ne sont pas
autoritairement assignés mais négociés et, peut-être, acceptés. Les fonctions de fixation des
objectifs et de contrôle restent donc centralisées, mais le « pilotage » de l'organisation est, lui,
décentralisé. On retrouve là une des modalités du couple intégration/différenciation dont
R. Lawrence et J.W. Lorsch [1989] ont montré que la bonne mise en œuvre constituait un
facteur de performance des organisations.
64Mais cette différenciation doit adapter les objectifs assignés à la nature des centres ; il
existe donc une typologie des centres de responsabilité fondée sur le niveau de maîtrise qu'ils
peuvent avoir. Elle fait l'objet du développement ci-dessous qui complète la présentation faite
au chapitre I, deuxième section (p. 22).
65Les centres de coûts. – Ce sont ceux qui ne peuvent avoir de maîtrise réelle que sur leurs
intrants (les coûts) mais peu ou pas sur leurs extrants.
67Mais cette démarche lourde et traumatisante ne se prête pas à la routine. En effet, d'une
part, elle ne peut habituellement être mise en œuvre qu'avec le concours de consultants
externes (sous peine d'accuser son réalisateur de parti pris) et, d'autre part, elle provoque dans
le centre concerné un effet d'apprentissage : en cas de récidive de l'opération, les agents du
service impliqué, ayant anticipé la démarche et ses questions, ont pris le soin de prévoir les
réponses appropriées légitimant non seulement leur maintien mais surtout l'extension de leurs
moyens.
68Il s'agit donc d'un « fusil à un coup ». Par ailleurs, ce réflexe d'autodéfense face à une
agression forte risque d'amplifier les tensions internes ; chaque centre s'efforçant de conquérir
de nouveaux territoires sur les autres en cherchant à démontrer que telle ou telle tâche ou
fonction assurée par un autre le serait plus efficacement si elle était faite en son sein. D'autres
approches (cf. ci-dessous et chapitre IV) sont mises en œuvre pour gérer les services
fonctionnels.
69Les centres de soutien (ou de « support » selon un anglicisme courant). – Ils constituent un
autre type de centre de coûts mais correspondent à des activités connexes telles que
l'entretien, l'ordonnancement-lancement, l'informatique, etc. Ils disposent théoriquement de la
maîtrise de leurs intrants (coûts) pour lesquels une relation volumique peut être plus ou moins
établie avec les extrants (prestations de service aux autres centres) mais sans véritables
moyens d'action sur ceux-ci, davantage déterminés par les services consommateurs. Leur
régulation ou mise sous tension s'opère, le plus couramment, par la création d'un marché
interne, voire l'externalisation (cf. ci-dessous).
70Les centres de chiffre d'affaires. – A contrario, ils disposent, eux, davantage de la maîtrise
des extrants (les ventes) que des intrants. Ce sont typiquement les services commerciaux
habitués à se voir fixer des objectifs de ventes.
71Les centres de profit. – Ils sont réputés avoir la maîtrise à la fois des intrants et des
extrants. Leurs objectifs sont donc appréciés en termes de marge ou contribution (dans une
logique de coût partiel) ou de résultat (lorsque le système est organisé en coûts complets).
Plus que les centres de coûts ou de chiffre d'affaires, ils traduisent la mutation de l'obligation
de moyens à celle de résultat, celui-ci étant, dans ce cas, entendu au sens comptable du terme :
produits moins charges.
72L'organisation en centres de profit est d'autant mieux adaptée que l'entreprise peut
segmenter ses marchés (par type de clientèle ou par zone géographique) ou produits-marchés
(intégration de la production et de la commercialisation). Ainsi, elle constitue la forme
dominante du système d'organisation et de contrôle dans les activités de services (consultants,
publicité...) ou dans celles qui sont naturellement organisées par projet (BTP) ; elle est en
revanche moins bien adaptée (ou sous des formes moins achevées) aux secteurs produisant
des biens en grandes séries. Dans certains cas, l'autonomisation du centre de profit va jusqu'à
son aboutissement juridique en en faisant une société autonome sous la forme de filiale. Les
motivations pour la filialisation peuvent être de plusieurs ordres :
73–!nécessité juridique, tel est le cas notamment d'implantations étrangères où les conflits de
droits (fiscalité, nécessité d'avoir la personnalité morale dans le pays concerné pour y disposer
d'un maximum de droits...) imposent l'existence d'une personnalité juridique ; tel est
également le cas dans certaines professions réglementées (professions libérales, banque,
assurance, laboratoires pharmaceutiques, etc.) ;
74
volonté d'afficher, pour des raisons commerciales, une grande autonomie de gestion et
de négociation ; ainsi certaines banques, dont la HSBC, ont filialisé leurs activités sur
certaines régions (le Sud-Ouest dans le cas de l'HSBC) ou certains métiers (le crédit-
bail) ;
motivation des responsables qui passent ainsi du grade, largement banalisé, de
directeur à celui, plus envié, de P-DG ;
possibilité d'alliances à la marge en faisant rentrer des partenaires dans le capital des
filiales ;
flexibilité plus grande des contours du groupe qui peut ainsi plus facilement acquérir
ou céder des entités en quelque sorte préemballées.
76Les centres de rentabilité. – Ils correspondent à une délégation plus complète encore.
L'objectif devenant non plus un résultat ou une marge mais une rentabilité, c'est-à-dire un taux
(10 %, 20 %...) exprimant le rapport du résultat aux capitaux engagés, le responsable est dès
lors supposé disposer d'une maîtrise portant également sur les capitaux investis. En réalité, au
sens littéral du terme, cette forme est assez rare (ainsi beaucoup de filiales ne sont pas, de fait,
des centres de rentabilité), la direction générale se réservant le droit de contrôle et de décision
sur les capitaux investis. En effet, ceux-ci concrétisent le risque et l'on touche ici aux limites
usuelles de la délégation qui s'applique davantage au pilotage à court terme (dont la
performance peut être appréciée par un résultat) qu'à une décentralisation complète. Ainsi, la
plupart des P-DG de filiales disposent d'une dotation en capital minimale et relèvent pour leur
gestion financière du pool de trésorerie du groupe ; mais ils n'ont pas la faculté de rechercher
librement des capitaux hors du groupe, ni auprès des banques, ni sur les marchés.
77Comme toute typologie, celle présentée ci-dessus correspond à certaines réalités, mais
relève largement d'une commodité conceptuelle et académique. La réalité est fluctuante à la
fois dans l'espace (d'une entreprise à l'autre) et dans le temps. La délégation est rarement
totalement formalisée et, par essence, mouvante au gré des événements et des personnes. Les
luttes internes d'influence jouent un rôle important et la conquête de marges de manœuvre ou
de pouvoir (traduit dans le langage du contrôle de gestion par l'expression « avoir la maîtrise
de ») est un jeu subtil et permanent.
78Par ailleurs, la maîtrise des intrants ou extrants est le plus souvent une maîtrise négociée et
en réalité à la marge. Ainsi, un responsable de centre de profit ne peut librement décider des
salaires de ses collaborateurs ou des conditions commerciales vis-à-vis des clients en dehors
d'un cadre étroit ; il doit davantage « vendre » ses propositions à sa hiérarchie supérieure. Le
contrôle de gestion s'efforce d'ailleurs de développer, et de clarifier, ce comportement en
simulant un marché interne.
80En bonne logique comptable, le niveau des PCI est neutre puisque les achats des uns
correspondent aux ventes des autres et que l'ensemble s'annule dans les comptes de
l'entreprise ou du groupe (comptes consolidés).
81Selon la théorie économique, la transaction doit se faire au coût marginal puisqu'un prix
supérieur à celui-ci pourrait faire renoncer l'acheteur et faire perdre, au niveau de l'ensemble,
une marge ou une absorption de charges fixes. Mais un coût marginal peut être considéré dans
une optique à court terme (coût d'une unité supplémentaire le plus souvent bien appréciée par
le seul coût variable) ou long terme (dès lors, il faut prendre en compte une partie des charges
fixes et indirectes qu'il engendre, ce qui conduit à un coût complet ou « assez complet »).
le premier est relatif à l'existence d'un marché hors groupe pour des produits ou
prestations similaires (la mise en concurrence est alors envisageable et, dans les autres
cas, le prix de marché fournit une référence) ;
le second relève de la politique interne (intégration/ décentralisation).
85Concrètement, les solutions appliquées sont souvent classées dans l'une des catégories
suivantes :
coût réel ou standard (plus ou moins complet selon les usages de l'entreprise) ;
coût + marge « normale », ce qui correspond d'ailleurs à la pratique fiscale qui
s'efforce de distinguer le « bénéfice de fabrication » du « bénéfice de vente » ;
prix de marché, lorsqu'il existe ;
prix négocié ;
prix administré, c'est-à-dire déterminé par un niveau hiérarchique supérieur parfois en
fonction de raisons de stratégie industrielle (favoriser telle ou telle activité, ce qui
conduit parfois à des prix asymétriques – les prix d'achat et de vente sont différents –
correspondant à une politique de subventionnement) ou financière et fiscale (ainsi,
dans un groupe multinational connu, l'intéressement aux résultats du P-DG de la filiale
française n'est pas calculé sur la base de ses résultats officiels et fiscaux, mais de
résultats recalculés après prise en compte de prix de cession « normaux »).
86Mais cette classification usuelle ne traduit qu'une partie de la réalité. En effet, chaque
coéchangiste cherche surtout à défendre les intérêts de son entité. Même un centre de coûts
(non réputé dégager une marge) s'efforce de maximiser les prix de cession de ses produits ou
prestations de façon à dégager du « mou » pour la gestion de ses charges. Or si la base de
référence est le coût, il n'y a pas de véritable symétrie d'information entre le vendeur (qui sait
comment il calcule ses coûts et ce qu'il y intègre) et le vendeur ; un coût reste une opinion et
non un fait. De même, si la référence est la négociation sur le marché, de nombreux facteurs
vont interférer dans la négociation tels que la qualité, les délais, les possibilités de
modifications. Enfin, il faut également tenir compte du fait que, même lorsqu'un marché
existe, des raisons de politique interne et de confidentialité empêchent souvent d'y recourir :
on imagine mal les services commerciaux d'une entreprise de BTP faisant appel au bureau
d'études d'un concurrent pour préparer la réponse à un appel d'offres.
87Malgré tous les conflits internes qu'elles engendrent, les cessions (ou facturations) internes
se développent parfois dans le cadre d'une politique délibérée mais souvent également par une
pression des centres opérationnels. Ainsi, les services fonctionnels (achats, recrutement, etc.),
qui avaient pris l'habitude de « facturer » leurs prestations par des pourcentages immuables et
résultant davantage d'une logique de comptabilité analytique (les « taux de frais »), sont-ils de
plus en plus conduits à négocier leurs prestations sous peine d'être concurrencés par des
entreprises externes offrant le même type de service à des prix moindres.
90Dans le domaine des ressources humaines, il s'agit parfois de limiter les effectifs
bénéficiant d'un statut ou d'une convention collective considérés comme privilégiés et
onéreux ou plus simplement de diminuer l'effectif à gérer.
91Dans le domaine du contrôle de gestion, il s'agit, d'une part, de flexibiliser des charges et
d'autre part, et surtout, d'envoyer un signal général selon lequel personne n'est irremplaçable.
Certaines entreprises se sont faites championnes de l'externalisation jusqu'à ne plus gérer que
leur marque (les chaussures de sport Nike, par exemple) et le vent de l'externalisation souffle
actuellement fort. Les services fonctionnels, en particulier, s'étaient habitués à une position de
monopole et d'impossibilité de sous-traitance ; ils sont pourtant aussi touchés. Ainsi,
l'externalisation concerne parfois tout ou partie des « grands services » habituels tels que
publicité, marketing, comptabilité, achats..., mais aussi des fonctions telles que secrétariat,
accueil, standard téléphonique, etc. Même la direction générale n'y échappe pas totalement, de
bons consultants pouvant compléter une direction amaigrie.
92Mais lorsque l'externalisation devient structurelle, il faut négocier avec les fournisseurs,
souvent devenus très dépendants, à la fois les prix, les services associés, la qualité... dans des
conditions qui ne sont pas sans rappeler celles des cessions internes.
93Les techniques de calcul des coûts et du contrôle de gestion n'offrent pas de solution
unique : les coûts calculés peuvent être plus ou moins complets ou partiels, réels ou
prédéterminés (standards) ; le plan et le budget peuvent être impératifs ou souples ; la mise en
œuvre de centres de responsabilité peut induire des degrés variables de décentralisation.
94Face à cette boîte à outils très fournie, l'entreprise se doit de réaliser des choix déterminés,
pour partie, par ses caractéristiques (technologie mise en œuvre, nombre de produits, stabilité
ou instabilité des marchés, etc.) mais aussi par le style de direction dont elle entend se doter.
Mais ces choix de techniques de contrôle de gestion ne sont pas neutres ; ils modifient à leur
tour la façon d'aborder les problèmes et d'y apporter des solutions. Ainsi, une véritable
dialectique s'instaure entre le mode d'organisation de l'entreprise et les outils du contrôle de
gestion dont elle se dote.
95Nous ne prétendons pas refaire ici une nouvelle théorie ou histoire des structures
d'entreprise qui a été faite par ailleurs [Chandler, Lawrence et Lorsch, Mintzberg,
H. Simon...], mais nous estimons que les outils du contrôle de gestion permettent de dresser
une typologie des entreprises qui peuvent, de ce point de vue,
être unifiées, stabilisées, planifiées ou éclatées.
L'entreprise unifiée et son contrôle
96Plusieurs facteurs peuvent contribuer à l'unification de l'entreprise :
97- une technologie lourde (secteur capitalistique) et corollairement stable : l'importance des
capitaux investis constitue une barrière à l'entrée importante et conduit à un horizon long de
retour sur investissements ;
98- des produits en nombre restreint ou proches dans leur conception et leur élaboration (par
exemple : différentes qualités différenciées par leur grammage dans la papeterie) ;
99- une clientèle limitée en nombre ou très dépendante (énergie, armement) avec laquelle les
relations et négociations sont espacées et prennent la forme de plans d'approvisionnement
conclus pour de longues durées ;
100- une conception hiérarchisée de l'entreprise dans laquelle tous les rouages sont solidaires,
sans que l'on fasse ressortir la part de chacun dans la création de valeur.
101Il n'est pas nécessaire que chacun de ces facteurs existe, mais il suffit que l'un (ou
plusieurs) d'entre eux structure l'ensemble.
102Dans ce contexte, la méthode des coûts complets (technique des sections homogènes)
permet de refléter et d'accentuer la solidarité des fonctions (sections) entre elles. Le schéma
descendant des charges (les coûts des sections amont « se vident » sur ceux de l'aval)
correspond à la structure de l'entreprise. L'information produite (des coûts par produit) permet
une surveillance globale par les dirigeants et leur permet de fixer des prix de vente assurant la
couverture des charges fixes (équipements) sur longue période. Le vocabulaire traduit (trahit)
souvent cette conception de stabilité et de hiérarchie : prix (et non coût) de revient, résultat (et
non marges) par produit, coefficients ou taux (pour transformer les « prix » de revient en prix
de vente, pour répartir des charges indirectes), section (et non centre d'analyse) ; d'une façon
générale, une culture empreinte de certitudes et de foi dans la vérité des chiffres fournis par le
système de contrôle imprègne ce type d'entreprise. Dans cette conception de l'organisation, le
contrôle est essentiellement opérationnel, il se réalise par la hiérarchie et la supervision
directe mais rarement par une comptabilité de gestion ; on s'y exprime davantage en termes
d'unités physiques que d'unités monétaires, en termes de moyens que d'objectifs ; le concept
même de contrôle de gestion y est peu répandu.
104- d'une part, des coûts directs tels les déchets et rebuts pour les matières, l'improductivité
pour le personnel,
105- d'autre part, une quote-part des charges de structure réparties par l'intermédiaire des
centres auxiliaires, les « frais généraux ».
106Ainsi, le technicien dont le salaire brut est de 15 euros par heure pourra être pris en
compte pour 50 euros par heure. La différence s'explique par :
109- une quote-part des frais de structure (services fonctionnels, impôts, etc.).
110On retrouve également ce type d'approche dans des activités tertiaires. Ainsi, dans la
plupart des banques, les frais opérationnels administratifs (coût de traitement des chèques,
d'établissement des relevés, etc.) sont calculés de façon comparable pour leur refacturation
aux centres de profit que constituent les agences.
112La maîtrise de ces fluctuations passe par l'évaluation de leur impact (coût de la sous-
activité) pour, d'une part, déterminer les palliatifs envisageables (travaux en sous-traitance,
production d'immobilisations pour soi-même, etc.) et, d'autre part, retrouver des repères
stables dans un environnement perturbé. Dans ce contexte, la recherche d'une solidarité dans
le temps (et non plus seulement dans l'espace interne comme dans l'entreprise unifiée) par la
technique de l'imputation rationnelle des charges fixes apparaît comme une réponse
appropriée.
113Pour surveiller l'organisation, on va isoler les effets du niveau d'activité (sur- ou sous-
absorption des charges fixes) par l'application d'une norme ou d'un coefficient (on retrouve ici
le vocabulaire de l'entreprise unifiée).
114Pour gérer les produits sur leurs marchés, on va lisser les coûts fixes unitaires (ce qui
s'apparente à un calcul statistique en données corrigées des variations saisonnières) pour
trouver la référence du coût permettant une « juste » fixation des prix de vente sur une base
stabilisée.
116Ce sont surtout les entreprises dont la saisonnalité de l'activité est prévisible mais
inévitable qui cherchent ainsi à stabiliser leurs coûts. Ainsi, dans le secteur agro-alimentaire,
les charges fixes (amortissements, loyers, etc.) et de structure (services fonctionnels) sont
souvent budgétées puis réparties sur chacun des douze mois de l'année selon des
« abonnements » qui prennent en compte le niveau prévisible de l'activité : surpondération des
mois de pleine activité, sous-pondération des autres. Ainsi les coûts unitaires calculés sont
lissés ou corrigés des variations saisonnières et leurs variations doivent traduire des
performances internes non perturbées par une influence exogène non maîtrisable.
119- les produits se présentent sous forme d'une gamme importante et évolutive (hautes
technologies) ;
122L'organisation taylorienne est une réponse à ces besoins pour le personnel et les fonctions
d'exécution. Le budget en est la forme la plus élaborée aux niveaux hiérarchiques supérieurs.
Le plan est l'instrument de coordination des directions fonctionnelles et opérationnelles. Dans
ce type d'entreprise, les ordres et instructions sont davantage exprimés par des chiffres et des
unités monétaires que dans les cas précédents. Face à la diversité et à la complexité, l'unité
monétaire est la seule référence commune à l'ensemble permettant des comparaisons et des
additions dans l'espace et dans le temps. Le système budget-contrôle budgétaire-
reporting devient à la fois un langage interne et un instrument de surveillance de la
décentralisation.
123C'est surtout au niveau des services centraux et fonctionnels que les budgets constituent
l'instrument privilégié du contrôle de la gestion. Comme dans l'administration ou les services
publics, ne pouvant mesurer la performance par les coûts ou la production, on a recours à une
délégation de moyens formalisée par le budget qui est en réalité une autorisation de dépense
(budget limitatif). Mais, surtout dans les grands groupes, la culture du budget que vivent les
services centraux conduit ces derniers à reproduire le modèle dans les unités opérationnelles,
filiales ou divisions, et à leur imposer un reporting davantage conçu en fonction des besoins
centraux que des besoins locaux. Dès lors, les entités décentralisées considèrent ces budgets
plus comme un mal nécessaire que comme un outil d'aide à la décision.
126En termes de contrôle, il s'agit de substituer la bonne structure orientée vers des résultats
décentralisés à la bonne solution décidée par la direction mais qui aurait perdu de sa
pertinence en cheminant tout au long de la hiérarchie. L'obligation de résultat va donc prendre
le pas sur l'obligation de moyens et la rationalité procédurale du contrôle sur sa rationalité
instrumentale. Tel est l'objet de l'organisation en centres de responsabilité très décentralisés.
127On trouve surtout ce mode d'organisation dans les entreprises disposant d'un réseau de
distribution étendu. Ainsi, les points de vente des chaînes commerciales ou les agences des
banques sont généralement organisés selon ce modèle. De même, dans les activités de conseil,
chaque cellule de consultants – voire chaque consultant – est souvent contrôlée en isolant,
d'une part, ses coûts spécifiques ou directs et, d'autre part, ses produits, le solde constituant
une contribution à la couverture des charges de structure et au bénéfice. La maîtrise de tous
les coûts et produits améliore la réactivité et accentue la responsabilisation ou mise sous
tension.
128Mais les grandes organisations sont complexes et non homogènes ; elles peuvent, et
souvent souhaitent, être à la fois unifiées (par exemple, par les produits) et éclatées (par
exemple, par les marchés) ; la réponse adaptée, en termes de systèmes de contrôles, est donc
souvent protéiforme et évolutive.
L e modèle comporte une double limite qu'il est nécessaire de connaître afin d'en faire un
usage « prudent et avisé » : des limites techniques et des limites liées à une idéologie qui
survalorise le côté volontariste du manager.
2La comptabilité industrielle puis analytique et enfin le contrôle de gestion sont nés dans des
entreprises industrielles travaillant en série et vendant sur stocks. Le modèle sous-jacent du
contrôle de gestion est donc celui de la répétition continue du cycle :
4Ce modèle repose sur la méthode analytique clairement exposée par Descartes : « Diviser
chacune des difficultés que j'examinerais, en autant de parcelles qu'il se pourrait et qu'il serait
requis pour les mieux résoudre. » Elle présuppose que le tout est égal à la somme des parties
et que l'on peut segmenter puis réagréger sans perte d'informations.
6- le temps y est conçu comme une répétition, à l'identique, de ce cycle et dès lors il
est sécable et agrégeable (l'année est la somme de douze mois, le mois une somme de jours
ou de cycles, etc.) ;
7- l'entreprise peut s'analyser en une somme d'entités étanches et aux frontières nettes (les
sections ou centres de responsabilité) ;
8- la fonction du contrôle de gestion est la mesure ou allocation des intrants et extrants des
entités, simple problème technique ayant des solutions précises.
9Ces trois hypothèses sont, elles-mêmes, discutables et l'évolution technique et sociale les
rend de moins en moins pertinentes.
Le temps et les cycles de l'entreprise
10En réalité, l'entreprise ne s'organise pas autour d'un mais de nombreux cycles qui
interfèrent et qui ne se renouvellent pas à l'identique.
12Tel est le cas des investissements qui ont des durées de vie variables et imbriquées (la
durée de vie du moteur peut être différente de celle de la machine d'où l'amortissement par
composants introduit par les normes comptables internationales IFRS). Dès lors, on peut se
demander de quel niveau hiérarchique relève leur gestion. La réponse usuelle et formelle est
que les investissements de développement ou de capacité relèvent de la stratégie (le futur
éloigné) et des niveaux élevés de la hiérarchie alors que les investissements courants et de
productivité relèvent du pilotage et des opérationnels (le présent ou le futur immédiat). En
réalité, ces césures sont le plus souvent artificielles et la réponse des organisations est de
segmenter par tranches de montants les lieux de décision de l'investissement. Mais cette
réponse de la pratique n'est guère satisfaisante et fait l'objet de contournements fréquents :
morcellement d'un investissement en petits éléments non soumis à l'approbation supérieure,
recours au crédit-bail ou à la location qui dissimulent la nature réelle de l'opération, accord
avec des sous-traitants ou partenaires pour qu'ils réalisent l'investissement et le mettent à la
disposition de l'entité en échange de contreparties convenues sur les prix des opérations
courantes, etc.
13La durée de vie des produits est encore un autre cycle d'ailleurs de moins en moins
saisissable : les produits A ne sont plus remplacés par B mais évoluent de façon plus
continue en A', A''... Ces évolutions et mutations n'ont pas le même sens ou la même portée
pour les différentes entités de l'entreprise. Une grande modification technique peut avoir une
faible portée commerciale ou vice versa.
14D'autres rythmes ou cycles existent dans l'entreprise tels que celui des saisons, de la durée
de maintien à un poste ou une fonction. Or, le contrôle de gestion cherche généralement à
imposer un rythme unique : le sien, c'est-à-dire celui qui s'adapte le mieux à sa propre
fonction. Ainsi, la généralisation du système de budget et de reporting structure toute
l'entreprise en années et mois calendaires.
15Mais ce découpage unique du temps fait que chacune des fonctions est perçue de façon
asynchrone. Il en résulte d'une part que le contrôle de gestion traduit mal les réalités (nous y
reviendrons plus loin, p. 64) mais aussi qu'il engendre les dysfonctionnements.
16Ainsi, il sait mal (ou pas du tout) gérer les charges ou produits dont les effets sont différés
dans le temps. Par exemple, le contrôle de la gestion de la recherche-développement reste à
inventer et illustre les limites de l'outil. Pour le moment, les recettes usuelles sont composées
d'un panachage plus ou moins subtil et variable (selon les entreprises mais aussi dans le
temps) de budget de dépenses (allocation de moyens) et de facturations internes. Le centre de
recherche de la société Toshiba est géré grâce à un budget ainsi réparti : 10 % de ressources
externes (subventions, etc.), 45 % de ressources obtenues et négociées par des prestations
« facturées » aux entités opérationnelles et 45 % allouées par le conseil d'administration (la
plus haute instance de la société). Cette répartition ménage les différents horizons de la
recherche : le court et moyen terme (développement de nouveaux procédés, etc.), s'inscrit
dans une logique de marché interne qui suppose que l'on trouve des « clients » et que l'on soit
compétitif alors que le long terme (l'invention et la création des produits futurs) relève de la
stratégie et doit être financé et contrôlé par l'instance qui en a la responsabilité.
17Les services fonctionnels (ou de structure) dont l'horizon normal est le long terme se
prêtent mal à un contrôle routinier. La suppression d'un poste ou d'une fonction de leur ressort
se traduit, dans le budget, par une économie à due concurrence mais où et quand situer le
manque à gagner ? Ne sachant répondre à ces questions, le contrôle les ignorera et donnera
l'illusion de leur inutilité. L'image prend le pas sur le réel et les services fonctionnels en
subissent actuellement les effets par des réductions drastiques de leurs effectifs.
19Par ailleurs, le contrôle de gestion parvient généralement à estimer l'occurrence d'un fait et
d'un coût mais rarement sa date exacte (par exemple, un entretien ou le remplacement d'une
pièce importante) et il étale donc ce type de coût sur une période (technique dite de
l'abonnement annuel) ; pour limiter les écarts, le responsable va adopter un comportement
opérationnel calqué sur celui de son budget mais qui n'est pas nécessairement le plus efficient.
Le développement de contrats d'entretien externalisés n'est pas étranger à ce fait. Dans le
secteur public où le budget est très prégnant, la pratique s'est développée d'associer à chaque
investissement important (un lycée, un éclairage public, un réseau d'égouts...) un marché
d'entreprise de travaux publics (METP) conclu pour plusieurs années qui rend le bénéficiaire
responsable du maintien en l'état moyennant un abonnement annuel en général constant alors
que les coûts d'entretien sont généralement faibles au début (équipement neuf). Dans ce type
de décisions, il est difficile de faire la part entre la rationalité économique et l'impact indirect
du système de contrôle, qui, détestant l'imprévu et le non-routinier, conduit à des décisions
non nécessairement efficientes mais faciles à prendre en compte dans le système de contrôle.
20Sachant mal intégrer les différentes dimensions du temps ainsi que le long terme, le
contrôle de gestion privilégie le court terme en présupposant que la maximisation des profits
instantanés induit ceux sur la durée.
Le découpage en entités
21Que ce soit pour des raisons de commodité opératoire (les sections du calcul des coûts) ou
de commodité de l'organisation et du suivi de la délégation (centres de responsabilité), le
contrôle de gestion procède par découpage (parcellisation, dirait Descartes) de l'entreprise.
22La validité de cette technique repose sur deux principes du contrôle de gestion :
23- dans son rôle passif (mieux appréhender les coûts et produits), il ne déforme pas le réel
(les centres ou sections sont à la fois homogènes et non poreux : tous leurs flux d'intrants et
d'extrants sont bien recensés) ;
24- dans son rôle actif (accentuation de la motivation et des performances dans le sens
souhaité), il suppose que l'optimum global est égal à la somme des optimums locaux et qu'il
n'y a pas de synergie positive ou négative.
26Dans les productions de biens en séries, des stocks tampons (produits semi-ouvrés)
disposés tout au long du processus isolaient les différentes étapes. Une rupture de rythme à
l'un des stades était absorbée par le stock (dont c'était la fonction) et par conséquent non
communiquée vers l'aval et l'on pouvait mesurer la production (et donc la productivité) de
chacun en limitant les risques de parasitage sur l'environnement immédiat. Le zéro stock, les
flux tendus et l'automatisation ont compacté l'ensemble en provoquant une globalisation qui
dramatise les incidents et rend artificielle la mesure des extrants à chacun des stades. « Aussi
faut-il regrouper sur une même équipe les tâches d'entretien, diagnostic, dépannage avec le
moins de division du travail possible, car c'est la seule manière d'assurer à la fois un
diagnostic rapide en cas d'incident et un bon entretien préventif. Gérer la panne c'est aussi
essayer de regrouper dans la mesure du possible les services de conception et les services
d'exploitation » (Y. Lasfargues, « De la peine à la panne », Le Monde, 22 août 1987). Dans
un système très automatisé et intégré, l'obligation de moyen (présence et productivité
individuelles) se transforme, de fait, en obligation de résultat (assurer le bon fonctionnement)
dont la responsabilité est diffuse et confuse : la défaillance a-t-elle une origine opérationnelle,
de conception, d'entretien préventif ?
29En particulier, l'effet réseau qui traduit les interdépendances plus ou moins importantes
selon les organisations et les métiers y est ignoré. Ainsi dans les entreprises de transport,
l'organisation en différentes agences qui couvrent un territoire en centres de responsabilité est
souvent illusoire ou dangereuse. À qui attribuer la marge d'une opération partie de A et livrée
par B ? Chacun va s'organiser pour maximiser le service (délais) à ses clients réguliers (ou
aux opérations pour lesquelles la marge lui est attribuée) au détriment de ceux des autres ; la
qualité globale du service va en être affectée.
30De même, l'effet d'arrosage (par exemple, l'impact d'une publicité ou promotion nationale)
perturbe toute mesure des performances de commerciaux.
31Le découpage par entités dont procède tout contrôle de gestion rend compte de moins en
moins bien des entrants et extrants mais surtout risque, s'il s'accompagne d'un système de
sanction-récompense puissant cherchant à développer la motivation, de développer
des comportements égoïstes sans cohérence globale.
La mesure
32Initialement, en comptabilité analytique, l'essentiel de la technique reposait sur la saisie des
informations de base et le traitement comptable de l'allocation des charges. L'absence
d'informatique rendait ce travail lourd et plus onéreux que celui de la comptabilité générale.
Ainsi, alors que cette dernière ne réalisait qu'un seul enregistrement par bulletin de paie, la
comptabilité analytique devait le ventiler en de multiples imputations par produits ou sections.
Du côté des extrants, le problème était plus simple : la production se mesurait en unités
physiques, moins différenciées qu'aujourd'hui, et plus stables dans le temps.
34En revanche, le nouveau problème est celui de la mesure des extrants. Comment mesurer la
« production » d'un fonctionnel, d'un service d'entretien préventif ou responsable de la
qualité ? Le contrôle de gestion a centré toute son instrumentation sur la mesure des coûts, en
réputant aisée la mesure de la production ou de l'activité, alors que l'enjeu actuel n'est plus de
savoir combien cela a coûté mais combien cela a produit.
35Ainsi, dans les activités de services (logées dans le secteur tertiaire mais aussi dans le
primaire et le secondaire) intrants et extrants se confondent. Quelle est la « production » d'une
heure (ou d'une journée) de conseil, de service en informatique ou de formation ? La réponse
est simple : une heure (ou une journée) ! Mais, dès lors, comment mesurer un rendement, une
activité ou une performance ?
36Dans l'industrie automobile, on peut facilement mesurer le coût d'une option, plus
difficilement celui de l'existence d'options diverses qui permettent une personnalisation des
produits ; mais comment évaluer l'effet de l'offre d'options sur l'ensemble des ventes ? Dans
les banques, l'utilisation des distributeurs automatiques est refacturée par l'établissement
propriétaire de l'appareil à celui qui détient le compte de l'utilisateur. Une grande banque a
ainsi décidé de facturer à ses clients l'utilisation de guichets d'autres réseaux. Le gain
(économie de coûts) a été facilement mesuré mais non l'effet sur la clientèle qui, déçue par ce
comportement de sa banque, a préféré changer d'établissement (perte de produits).
38Les modèles les plus classiques du contrôle de gestion supposent que l'on puisse isoler le
lieu et l'instant de la prise de décision et que, par ailleurs, on puisse décrire un raisonnement
qui objectivise la relation entre connaissance et action. Le contrôle de gestion n'est pas seul en
cause ; ce sont les sciences de gestion qui succombent souvent aux charmes simples du mythe
du décideur ou à l'image valorisante du pilote [Burlaud, in Ducrocq et Levant, 2012, p. 105
et suiv.]. Ces héros des temps modernes sont censés savoir tout ce dont ils ont besoin, en
temps et en heures, et peuvent décider de la meilleure solution (le fameux one best way) qui,
sans discussion, sera inévitablement appliquée. Le pilote, seul et responsable, décide ; la
machine obéit.
39Face à cette idéologie, car il s'agit véritablement d'une idéologie, il y a l'antihéros que
Tolstoï dépeint dans Guerre et Paix [1][1]Le renvoi aux grandes oeuvres littéraires est
également à noter…. « Une idéologie est un système, plus ou moins cohérent d'idées,
d'opinions ou de dogmes, qu'un groupe social ou un parti présentent comme une exigence de
la raison mais dont le ressort effectif se trouve dans le besoin de justifier des entreprises
destinées à satisfaire des aspirations intéressées [...]. L'idéologie est une offre
intellectuelle répondant à une demande affective. Tout se passe comme si l'idéologie
était fabriquée pour répondre à certains besoins sociaux » [Foulquié, 1982, p. 337]. Revenons-
en à notre antihéros. Il est sans doute moins conforme aux clichés hollywoodiens de la
littérature sur l'entreprise, mais il est sans
40doute plus vrai, en tout cas plus humain. Dans ce qui suit, nous emprunterons beaucoup à
Tolstoï qui, selon nous, fut un grand théoricien des organisations.
42
45Concrètement, une des conséquences pratiques d'une prise en compte différente du temps
parmi bien d'autres est l'apparition de l'ingénierie simultanée. Cette technique, née dans
l'automobile, a pour but de rechercher à « adapter l'objet à fabriquer dès sa phase de
conception aux contraintes de la production automatisée connues de l'équipementier.
Relativement à une procédure classique d'appel d'offres [...] l'ingénierie simultanée consiste à
choisir une collaboration technique précoce, avant même que la solution technique ne soit
élaborée. L'investisseur accepte donc une perte de flexibilité vis-à-vis du choix de
l'équipementier et parie sur une activité d'ingénierie commune permettant d'aboutir à la
solution technologique la plus satisfaisante. Le développement simultané d'une pièce et d'un
outil doit permettre de mieux adapter le produit fabriqué à la production automatisée et, ainsi,
d'économiser du temps de développement pour l'équipementier » [ECOSIP, 1990, p. 113].
L'application de cette démarche aurait permis par exemple de gagner dix mois dans la
conception du moteur de la Fiat Uno par rapport à une approche séquentielle du problème.
47Or l'antihéros tolstoïen est sous-informé. L'auteur décrit ainsi la bataille de Borodino. « Les
aides de camp envoyés par l'empereur et les ordonnances que lui dépêchaient ses maréchaux
arrivaient sans cesse du champ de bataille et l'informaient de la marche des opérations ; mais
tous ces rapports étaient faux, et parce qu'il est impossible dans le feu du combat de dire ce
qui se passe à un moment donné, et parce que beaucoup de ces aides de camp n'allaient pas
jusqu'au lieu du combat et rapportaient ce qu'ils avaient entendu dire ; de plus, tandis que
l'aide de camp parcourait les deux ou trois verstes qui le séparaient de Napoléon, la situation
avait changé et les renseignements qu'il rapportait à l'empereur n'étaient plus exacts. Ainsi, un
aide de camp du vice-roi vint annoncer la prise de Borodino, et que le pont sur la Kolotcha
était aux mains des Français, et il demanda si les troupes devaient traverser la rivière ;
Napoléon donna l'ordre aux troupes de prendre position sur l'autre rive et d'attendre.
Cependant, bien avant que Napoléon eût donné cet ordre, alors que l'aide de camp venait
seulement de quitter Borodino, les Russes avaient repris et brûlé le pont [...]. Tenant compte
de ces rapports nécessairement faux, Napoléon prenait des mesures qu'on avait déjà prises
avant qu'il les eût ordonnées, ou bien qui s'avéraient inexécutables » [Tolstoï, 1987, tome 2,
p. 243-244].
48Nous laissons au lecteur le soin de transposer ce récit au cas d'une entreprise de son choix...
Il pose le problème des systèmes d'information de gestion qui, pour être fiables et rigoureux,
demandent du temps de conception et de collecte, mais livrent l'information après la bataille !
Les immenses progrès dans les technologies de l'information ne sont pas en cause. Malgré les
ordinateurs et les télécommunications, l'interprétation des informations comptables et de
gestion reste longue et difficile. En matière d'informations de gestion, la rétention n'a pas
disparu. Les comptables essaient de résoudre en partie ces problèmes grâce à la technique des
coûts préétablis et à celle de l'abonnement des charges, mais elles supposent que l'avenir ne
diffère pas trop du passé.
50Le « héros » tolstoïen, qui raisonne sur un temps artificiellement fractionné avec des
informations incomplètes, partiellement fausses et parfois contradictoires, est au centre d'un
jeu d'influences qu'il ne maîtrise pas, ce qui pose la question de son pouvoir réel. Par une
métaphore, Tolstoï montre que l'existence concomitante de grands hommes et de grands
événements ne suffit pas à établir un lien de cause à effet. « Pourtant, chaque fois qu'il y eut
des conquêtes, il y eut des conquérants, chaque fois que des bouleversements se sont produits
dans un État, il y eut de grands hommes, disent les historiens. En effet, toutes les fois
qu'apparaissaient des conquérants, il y avait des guerres, répond l'esprit humain, mais cela ne
prouve pas que les conquérants soient la cause des guerres et que l'examen des actes d'un
homme puisse nous permettre de découvrir les lois de la guerre. Toutes les fois que,
consultant ma montre, je vois que l'aiguille a atteint le chiffre dix, j'entends sonner les cloches
de l'église voisine ; mais du fait que toutes les fois que l'aiguille est sur dix les cloches
sonnent, je n'ai pas le droit de conclure que la position de l'aiguille est la cause du mouvement
des cloches » [Tolstoï, 1987, tome 2, p. 270]. Les grands événements seraient-ils donc le fruit
de la somme des actions de milliers d'acteurs largement autonomes dont les gestes, pris
séparément, sont insignifiants ? Pour Tolstoï, il y a là une part de vérité. Il l'explique d'ailleurs
plus précisément. « Napoléon [...] ne fut pour rien dans la direction de la bataille, parce
qu'aucun point de son dispositif ne fut exécuté et que lui-même ignora pendant le combat ce
qui se passait. En conséquence, le fait que ces gens ont massacré leurs semblables s'est
produit sans intervention de sa part, non point par la volonté de Napoléon, mais bien par celle
de centaines de milliers d'hommes qui participaient à l'affaire. Napoléon eut seulement
l'illusion que tout se faisait par sa volonté » [Tolstoï, 1972, p. 1023].
52Le décideur, ici Bagration, n'est pas le jouet des événements. Mais il n'y a pas cette relation
mécanique entre la décision et l'action propre au modèle du pilote. Le général en chef a
une influence sur les événements dans la mesure où il influe sur la représentation que les
acteurs se font de la situation. Mais il n'influe pas librement, selon son bon vouloir. « Ils
accomplissaient une œuvre dont le sens leur échappait. [...] Tel est le sort invariable de tous
les hommes d'action, et ils sont d'autant moins libres qu'ils occupent un poste plus élevé dans
la hiérarchie sociale » [Tolstoï, 1972, p. 891]. Le thème des chefs dont la volonté est
contredite et dominée par un « destin » qui leur échappe est également magnifiquement
illustré par Jean Giraudoux : La Guerre de Troie n'aura pas lieu.
53En conclusion de cette section, quand on transpose à l'entreprise ce que Tolstoï décrit dans
une organisation bien particulière, l'armée, on découvre la naïveté des représentations de
l'autorité dans une partie importante de la littérature économique et managériale y compris
dans celle consacrée au contrôle de gestion. L'autorité, pour s'exercer, doit être légitime ou,
autrement dit, s'inscrire dans des forces collectives qu'il faut savoir utiliser. Ainsi apparaissent
à côté des stratégies volontaristes, les stratégies émergentes, la réalité étant probablement, en
général, un mélange des deux.
54En conclusion de ce bref détour par l'œuvre de Tolstoï, on en revient au problème de fond
qui est celui de la source du pouvoir dans les organisations ou entreprises. Nos grandes
organisations sont-elles dirigées par des « héros » comme Louis Renault, André Citroën,
Marcel Boussac, Marcel Dassault et bien d'autres ou dérivent-elles au gré de forces collectives
qui les dépassent comme le montrait déjà Tolstoï en 1869 ? La première vision est la plus
populaire car la plus spectaculaire, la plus médiatique ; la seconde est moins souvent décrite
car elle est plus difficile à mettre en scène. La question est pourtant essentielle pour nous car,
selon la nature du « vrai » pouvoir, le modèle de contrôle ne sera pas le même.
2L'évolution que nous allons décrire schématiquement se situe dans une perspective de
changement lent. Le contrôle de gestion est une technologie qui relève des sciences de
l'homme et qui, de ce fait, se diffuse extrêmement lentement, peut-être plus lentement que ce
que l'on peut observer dans les sciences de la matière. Cela a d'ailleurs des conséquences dans
le domaine de la pédagogie. Il n'y a pas plus difficile et plus long que de faire comprendre
concrètement à des étudiants les mécanismes du contrôle d'une organisation ou de la prise de
décision alors qu'ils apprennent très vite à mettre en équation un calcul du stock optimal, par
exemple.
3Dans ce qui suit, il a fallu faire un choix : faut-il privilégier l'offre instrumentale (la
propulsion) ou la demande (la traction) dans le développement d'une technologie telle que le
contrôle de gestion ? Symboliquement, nous avons placé les instruments en tête pour
souligner le fait que, bien souvent, ils manipulent les hommes à leur insu. Dans un premier
point, nous verrons les sources du dépassement du modèle classique de contrôle de gestion :
l'apparition de nouveaux outils ou concepts. Puis, nous présenterons les besoins nouveaux qui
sont ainsi satisfaits. Enfin, nous illustrerons notre propos avec une étude un peu plus
technique du contenu d'un contrôle de gestion rénové.
4En schématisant un peu, on peut dire que la discipline a été plus particulièrement perturbée
par les emprunts à deux disciplines :
7Il faut y ajouter un travail méthodologique sur le rôle des outils et de la mesure en sciences
sociales.
8Les choix que nous faisons ici sont évidemment simplificateurs tant la littérature est
abondante et souvent de qualité dans ces disciplines. Mais un souci d'exhaustivité nous
conduirait bien au-delà des limites d'un ouvrage de sensibilisation aux principes du contrôle
de gestion.
10En France, les travaux de Michel Crozier ont été déterminants pour cesser de faire des
organisations des « boîtes noires ». Ils ont montré qu'à l'intérieur il y avait un équilibre
complexe de pouvoirs et de contre-pouvoirs, que les différents acteurs avaient des stratégies
propres et qu'ils savaient utiliser les zones d'incertitude pour se ménager des espaces de
liberté.
12Ces travaux, d'une grande richesse, et bien d'autres encore ont accompagné l'évolution du
contrôle de gestion vers la direction par objectifs à la fin des années 1960 et au début des
années 1970. Ils ont sensibilisé aux notions de motivation, d'adhésion, d'engagement
personnel que l'on retrouve dans les développements plus récents de la gestion de projet.
14Les travaux les plus anciens expliquent la structure d'une organisation par des facteurs
internes. Dans le cadre de cette conception endogène, le courant rationaliste fait découler la
structure de choix formulés consciemment par les dirigeants. Ainsi, selon Alfred Chandler,
« la structure suit la stratégie » [Chandler, 1962], elle est voulue. Ce schéma est repris par
Igor Ansoff [1968]. Selon les tenants du courant psychanalytique qui a pris naissance à la
suite d'un article de D. Miller, M. Kets de Vries et J.-M. Toulouse [1982], les structures
reflètent la personnalité des dirigeants. Le raisonnement est tout aussi mécaniste, mais
abandonne l'aspect volontariste des approches précédentes. Dans les deux cas, il est fait peu
de cas de l'influence de l'environnement et à l'intérieur de l'organisation, des autres catégories
d'acteurs que les dirigeants.
15En réponse à cela, on peut opposer des explications à la naissance de telle ou telle structure
fondées sur des facteurs externes, sur l'environnement (conception exogène). Ce dernier peut
être défini par bien des variables. Les travaux les plus anciens et notamment ceux de Joan
Woodward privilégient dans l'environnement l'état des connaissances, de la technologie
(l'étude des relations entre technologie et structure fut l'un des principaux apports de
Woodward ; cf. à ce sujet Scheid [2002, p. 33 sq.]). D'autres, dont Lawrence et Lorsch, ont
plutôt cherché des facteurs de causalité dans les conditions économiques et l'état du marché
[Lawrence et Lorsch, 1973]. L'entreprise devient un système ouvert, comparable à un
organisme vivant. Toutefois, les capacités d'adaptation des systèmes vivants sont limitées et
l'environnement, plutôt que source de cette adaptation devenue impossible, devient la cause
d'une sélection naturelle. Afin d'illustrer sa thèse, Freeman [1982] explique que si l'adaptation
était le seul principe de relation avec l'environnement, on verrait progressivement des églises
en déclin se transformer en stations-service, des universités en aciéries, etc. Si cela ne se fait
pas, c'est qu'il y a des inerties : les structures elles-mêmes, le caractère irréversible de
l'investissement matériel et immatériel, les systèmes d'information qui ne transmettent que
certaines informations, les normes de comportement, la légitimité externe (qui interdit, par
exemple, à une université de devenir un centre commercial), etc. L'adaptation laisse donc
place à la sélection. La sélection est d'ailleurs elle-même un processus d'adaptation mais
complété par un processus démographique. Or Freeman n'explique pas la naissance des
structures. D'une façon générale, la faiblesse des approches externes est d'oublier que les
dirigeants jouent quand même un rôle, même si ce rôle n'explique pas tout comme nous
l'avons déjà montré.
16La prise de conscience des limites des approches internes et externes que nous venons de
voir conduit à une approche constructiviste des structures des organisations qui rejette les
liens de causalité simples et partiels au profit d'une conception dialectique, inspirée de
l'épistémologie génétique de Jean Piaget [1979]. Biologiste, philosophe et psychologue, il
s'est intéressé à la genèse des connaissances chez l'homme. Sont-elles innées ou acquises ? Il a
dépassé cette question en montrant que les structures cognitives se construisaient
(constructivisme) dans l'interaction entre un sujet et son milieu, que la connaissance
détermine l'action mais que l'action enrichit la connaissance. La transposition des travaux de
Piaget à la sociologie des organisations débouche sur des conceptions proches de celles de
Henry Mintzberg.
17La réflexion sur le lien entre stratégie et structure peut être transposée aux relations entre
stratégie et contrôle, le modèle de contrôle étant, dans un premier temps, considéré comme au
service d'une stratégie. Peu importe alors, d'un point de vue pratique, la « vérité » des coûts ou
des indicateurs d'un tableau de bord. Il s'agit plutôt de produire des messages, des signaux, qui
vont induire les comportements désirés pour promouvoir la stratégie choisie. On peut ainsi
être conduit à produire de faux signaux pour obtenir un « bon » comportement. À titre
anecdotique, cela peut se comparer à la pratique de certaines personnes qui avancent leur
montre de cinq minutes pour ne pas être en retard. L'information produite par la montre est
fausse, elles le savent, mais cette erreur leur est nécessaire. Dans le domaine de la gestion, à
titre d'exemple, on peut citer le cas d'entreprises qui introduisent un système de taxation
interne qui sanctionne l'auteur d'une décision ou d'un comportement indésirable. Ainsi, si la
stratégie consiste à se lancer dans une concurrence par les prix grâce à une diminution des
coûts provenant de la standardisation des pièces, on « taxera » d'une certaine somme le bureau
d'études pour tout emploi d'un nouveau composant, d'une nouvelle référence. La volonté
stratégique est véhiculée par un signal porté à la connaissance des acteurs. On retrouve ici,
appliqué à la gestion des entreprises, le vieux débat sur la relation dialectique entre
connaissance et action, entre connaissance et pouvoir. Ce débat fut déjà abordé par Karl
Marx : « Penser et être sont certes distincts, mais en même temps ils sont unis l'un à l'autre. »
[« Économie et philosophie », in œuvres, La Pléiade, tome 2, p. 81.] Le lien nécessaire et
indissoluble entre connaissance et action est également au cœur de la réflexion de Jean Piaget
sur l'apprentissage de l'enfant [Piaget, 1971.] Cela pose aussi, à travers la notion de pouvoir,
le problème de la légitimité du message : est-il légitime parce que « vrai » (légitimation par le
mode de production, par la technique qui garantit l'exactitude) ou légitime parce qu'« utile »
(légitimation par les fins) ?
18Le caractère contingent du modèle de contrôle a également été souligné par de nombreux
auteurs, les variables explicatives les plus couramment avancées étant l'environnement, la
technologie, la taille, la structure, le « style » de management, la culture et la stratégie. La
contingence du modèle de contrôle par rapport au contexte économique est illustrée dans
Laufer et Burlaud [1980, p. 97]. On peut aussi, par exemple, s'interroger sur les possibilités de
transposition du modèle de contrôle d'une entreprise hiérarchique à une entreprise
multidivisionnelle ou en réseau.
19Les réflexions sur les relations entre stratégie, structure et contrôle ont aussi amené à
promouvoir d'autres valeurs que l'autorité, la formalisation et le caractère univoque de la
communication. Ainsi, les participants au projet CAM-I (Computer Aided Manufacturing-
International) ont cherché à dépasser les modèles mécanistes (sur l'évolution des systèmes de
contrôle, d'un modèle mécaniste à un modèle biologique, cf. Burlaud et Simon [1985]) pour
« développer des systèmes de production qui empruntent aux systèmes vivants trois qualités
fondamentales : la spontanéité (ou l'autonomie locale, la décentralisation), la versatilité (ou
l'adaptabilité) et l'harmonie (ou l'intégration). Ces trois qualités sont le résultat de certaines
caractéristiques fondamentales des organismes biologiques :
20
21À notre connaissance, l'exploitation des approches constructivistes pour concevoir une
nouvelle théorie du contrôle reste encore à faire.
23Par ailleurs, il y eut tout le mouvement issu de la théorie des relations humaines dont on
situe généralement le début aux expériences réalisées à partir de 1924 à l'usine de Hawthorne
(près de Chicago) de la Western Electric sous la direction d'Elton Mayo qui a popularisé une
vision plus soft des techniques de management des ressources humaines. Cette approche
expérimentale a apporté de nombreux enseignements, mais nous n'en retiendrons ici qu'un
seul : le fait d'observer un individu en modifie le comportement. La même constatation a bien
sûr été faite dans de nombreuses autres branches des sciences humaines et notamment en
ethnologie. Vers la fin des années 1930, l'apparition de la mécanique quantique pose des
questions similaires. « On sait que Laplace avait mis l'accent sur le strict déterminisme qui
régit la mécanique classique : partant des lois de la dynamique d'un certain système classique
(les forces qui s'y exercent), la connaissance de son état à un instant donné détermine de
façon unique son état à tout instant ultérieur (et antérieur d'ailleurs). [...] Les relations de
Heisenberg interdisent évidemment à cette assertion de garder un sens en mécanique
quantique : suivant leur interprétation courante, la connaissance des positions à un certain
instant suppose la méconnaissance des quantités de mouvement ou des vitesses, et empêche
donc toute prévision rigoureuse, ruinant ainsi le déterminisme classique » [Encyclopedia
Universalis, 1969, tome 13, p. 865.] De là naquit une théorie quantique de la mesure selon
laquelle « l'opération de mesure modifie l'état du système » [ibid.].
26- le rôle particulier que joue le contrôle de gestion comme outil d'observation et d'incitation
ou de motivation.
27La réflexion sur les outils de gestion in situ ou in vivo et non pas seulement sur leur logique
interne (modélisation comptable, mathématiques financières, statistiques, recherche
opérationnelle) a donc permis de faire évoluer la perception que nous en avions et de les
concevoir en interaction avec l'organisme vivant auquel ils s'appliquent et non plus seulement
comme les pièces d'une organisation mécaniste.
28En conclusion, ces travaux sur la sociologie des organisations, sur la stratégie et les
structures des firmes, mais aussi sur les outils du management, ont permis de mieux prendre
en compte le déplacement de la source de leurs richesses qui trouvent plus leur origine dans la
création que dans la production et de conduire une adaptation des systèmes de contrôle à la
nouvelle situation.
29L'industrie s'est construite sur la base d'un avantage concurrentiel décisif par rapport à
l'artisanat : la maîtrise de l'énergie. Cette dernière supposait une concentration de la
production en un lieu : l'usine. Les économies d'échelle ont été un facteur essentiel du
développement industriel de la seconde moitié du XIXE siècle et de la première moitié
du XXE. On ne peut pas dire qu'aujourd'hui la maîtrise de l'énergie et les économies d'échelle
ne soient plus une préoccupation des industriels, mais un nouvel avantage concurrentiel est
apparu à l'occasion du passage d'une économie de masse à une économie de variété :
l'intelligence organisationnelle. Il ne s'agit pas de l'intelligence de l'ingénieur qui fait œuvre de
génie ou tout simplement de création comme Gustave Eiffel ou bien d'autres, mais d'une
intelligence collective. À partir du milieu du XXE siècle, la production scientifique qui était
l'œuvre d'individus devient plus systématiquement l'œuvre de groupes d'hommes. Un rapide
examen du « tableau synchronique » des inventions [Gille, 1978, p. 1482 sq.] montre que les
noms de personnes laissent fréquemment la place à des noms d'organisations à partir de la
Seconde Guerre mondiale : ordinateurs IBM, conquête de l'espace avec la NASA, électricité
nucléaire, forages off shore, génie génétique, etc. « Le progrès technique devient toujours
davantage l'affaire d'équipes de spécialistes entraînés qui travaillent sur commande »
[Schumpeter, 1951, p. 229]. Les moyens techniques et financiers nécessaires à la recherche
scientifique ont dépassé les capacités des « artisans de la science » et la complexité des
problèmes (tout au moins une complexité d'abondance) est devenue telle qu'il a fallu faire le
travail en équipe. Cette évolution du mode de production des connaissances scientifiques ne
résulte pas d'une volonté mais d'une nécessité. La conséquence fut en tout cas que les
organisations se sont mises à produire des connaissances et que cette production est devenue
un enjeu majeur.
la capacité de création ;
la capacité d'apprentissage et d'accumulation de l'expérience ;
la capacité à faire face aux ruptures ;
la capacité à faire évoluer les modes d'exercice de l'autorité.
L'organisation créatrice
31« La connaissance s'affirme comme la première des ressources stratégiques. Elle n'est plus
seulement le fondement d'une capacité d'innovation dans le domaine de procédés ou de
produits. Elle est aussi un gage de flexibilité » [Afriat, 1992, p. 18]. Dans la mesure où l'on
peut assimiler l'investissement dans l'intelligence à l'investissement immatériel, on constate la
très forte progression de ce dernier dans le tableau page suivante.
32Les grandes entreprises mais aussi beaucoup de PME déposent un grand nombre de brevets
chaque année et y consacrent une
35La difficulté tient au fait que les nouvelles connaissances viennent d'individus et qu'il faut
les transformer en connaissances collectives pour les exploiter économiquement. Le manager
n'est pas l'inventeur mais sa tâche est précisément de créer les conditions favorables à cette
transformation. Pour cela, il faut distinguer deux types de connaissances [Nonaka, 1991,
p. 96-104] :
37- les connaissances tacites ou implicites difficiles à formaliser (nous savons plus que ce
que nous pouvons exprimer), à communiquer, appropriées par des individus, liées à l'action
(savoir-faire) et à des modèles de comportement.
42- Le modèle 4 correspond à une intuition induite par des connaissances scientifiques. Il
précède souvent le modèle 3 et constitue également un processus de création majeur.
43Une entreprise qui innove doit pouvoir combiner ces quatre modèles. Le rôle du manager
est donc de créer des structures favorables à leur coexistence et surtout, des structures qui
permettent les transformations des modèles 3 et 4 en modèle 2.
44Les structures qui favorisent la créativité doivent donc nécessairement laisser une place à
la connaissance implicite, à ce qui ne peut être exprimé totalement. Le modèle de
l'organisation n'est plus alors le mouvement d'horlogerie (toutes les pièces sont en
permanence utiles et la défection d'une seule pièce immobilise le mécanisme), mais
l'organisme vivant qui comporte de multiples mécanismes compensateurs lui conférant une
capacité d'adaptation.
45Le management doit favoriser la création en ne bannissant pas tout ce qui n'est pas factuel
et quantifiable (facts and figures) donc d'apparence non scientifique. Il doit laisser place à des
projets fondés sur une métaphore, œuvre de l'imagination qui suggère le rapprochement de
deux concepts sans lien apparent. En circulant, la métaphore peut s'enrichir des évocations
qu'elle suscite chez les différents individus. À titre d'exemple, le slogan de l'équipe qui mit au
point la Honda City était : « Theory of Automobile Evolution » [Nonaka, 1991]. Cette
métaphore associait deux concepts contradictoires : celui d'une machine, l'automobile, et celui
d'un organisme vivant capable d'une évolution. Elle posait la question suivante : si
l'automobile était un organisme vivant, comment évoluerait-elle ? Cette approche de la
conception d'un nouveau modèle a permis de concevoir un véhicule original.
46Le management doit aussi savoir accepter des projets fondés sur l'analogie qui permettent
de transférer une innovation d'un domaine à un autre. Ikujiro Nonaka cite le cas de l'analogie
entre le cylindre de photocopieur Canon et la boîte de bière qui a donné naissance au cylindre
jetable.
47La métaphore et l'analogie sont des modes de raisonnement dangereux s'ils sont une façon
de se soustraire à une validation scientifique des résultats, à l'enchaînement rigoureux d'un
raisonnement. Mais ils peuvent initier un processus d'innovation fondé sur la richesse
inexprimée et inexprimable que procurent l'expérience et l'intuition qui en découle.
49Il ne faut pas en conclure que les activités de création échappent au contrôle de gestion ou
en sont protégées. Les consommations doivent respecter des limites budgétaires. La
production, certes difficilement quantifiable, peut être valorisée par des cessions à l'extérieur
du groupe ou des prix de cession internes négociés. La mise sous tension des acteurs se fait
grâce aux contraintes budgétaires, aux impératifs du calendrier d'une gestion de projets et à la
pression d'une gestion des carrières qui conditionne les progressions, par exemple, vers la
production d'innovations commercialisables en permettant à une équipe de chercheurs de
suivre leur « enfant » dans les phases aval : du laboratoire à l'usine, puis de l'usine au client.
L'apprentissage organisationnel
50La structure de l'organisation et le contrôle de gestion doivent encourager la capitalisation
ou l'accumulation du savoir-faire et non sa dispersion (qui n'est pas synonyme de diffusion car
cette dernière est contrôlée). Si cet apprentissage organisationnel, qui ne se confond pas avec
les courbes d'apprentissage, est essentiel, il ne se fait pas sans résistances : chaque individu est
dépossédé d'un petit monopole lié aux connaissances qu'il est seul à détenir et se trouve privé
du pouvoir qui lui est associé. Comment amener les acteurs à s'engager dans ce processus ?
Trois solutions sont envisageables : contracter (modèle contractuel de la DPO), contraindre
(modèle bureaucratique ou hiérarchique) ou convaincre (par exemple, dans le cas d'une
structure par projet).
53Même si la formulation stratégique peut émerger du quotidien, la planification est l'un des
outils les plus puissants de l'apprentissage organisationnel. Ainsi, le directeur de la
planification de Shell déclare-t-il « qu'il est moins important de produire des plans parfaits
que d'utiliser la planification pour accélérer l'apprentissage dans son ensemble » [de Geus,
1988]. « Les organisations essaient de perpétuer les fruits de leur apprentissage en les
formalisant » [March, 1991]. Les processus structurés et anarchiques étant complémentaires,
on doit faire « coexister deux mouvements inverses, aussi nécessaires et essentiels l'un que
l'autre pour l'apprentissage organisationnel : un mouvement de normalisation, passage du
domaine heuristique au domaine normé, et un mouvement de déréglementation, de critique
des normes, passage du domaine normé au domaine heuristique » [Lorino, 1995, p. 247].
54La capitalisation des connaissances dans l'organisation, condition d'une activité créatrice
soutenue, doit passer par d'autres voies que la voie hiérarchique. « Il n'y a pas de grand
ordonnateur de l'apprentissage organisationnel » [ibid., p. 249]. De même, conflits et
désaccords qu'une structure hiérarchique a pour vocation de réduire ou, plus exactement,
d'ignorer peuvent être constructifs et apporter une richesse d'expérimentation. D'ailleurs,
contrairement à ce que l'on peut conclure par un raisonnement primaire, la connaissance peut
aussi apporter la paix en utilisant ou plutôt en captant et canalisant l'énergie des conflits. Elle
peut réduire le niveau d'inquiétude ou d'anxiété en donnant une représentation crédible du
futur.
55Le jeu sur les structures comme, par exemple, la mobilisation sur des projets, doit
permettre l'échange et donc cette capitalisation collective. L'objectif est de ne pas stériliser la
« rationalité diffuse » et le « déterminisme lâche » (ces expressions sont de Bertrand Gille
[1978, p. 42]) de la création par la rationalité figée et le déterminisme formel des procédures
administratives.
58La gestion des ruptures peut dans certains cas se faire en souplesse grâce à un
foisonnement de tentatives de changement couplé avec un processus de sélection de type
darwinien. C'est ce que tentent de faire certains constructeurs d'automobiles japonais qui
multiplient les nouveaux modèles et laissent au marché le soin de faire le tri. Cela n'est
évidemment possible que si les coûts du développement ne sont pas trop élevés et si sa durée
est relativement faible. Par opposition à cela, les constructeurs européens préféraient
traditionnellement étudier le marché pour proposer un seul modèle qui devait être le bon pour
de nombreuses années. Si possible ! SAAB, constructeur suédois, filiale de General Motors,
était un des derniers survivants de cette stratégie. Le changement par un processus d'essai-
erreur et de sélection correspond aussi au modèle des grands groupes au périmètre variable
qui gèrent des portefeuilles de participations représentant des portefeuilles d'activités. Cette
stratégie permet de concilier les ruptures (l'acquisition ou la cession d'une participation) avec
une certaine stabilité qu'apporte la division des risques.
63En conclusion, nous constatons que la conduite du changement, tout comme l'apprentissage
organisationnel ou les conditions d'une organisation créatrice posent le problème du mode
d'exercice de l'autorité ou, si l'on préfère, du pouvoir.
65Le management a utilisé des outils scientifiques sans adopter globalement une démarche
scientifique. C'est ce que l'on a désigné à tort comme étant le management scientifique. Le fait
de faire appel aux statistiques, à la recherche opérationnelle, à l'algèbre linéaire ou à la théorie
des graphes n'implique pas nécessairement que la démarche soit globalement scientifique. Ce
n'est pas parce que les outils utilisés sont scientifiques que le management (l'utilisateur)
devient ipso facto scientifique. L'image suivante illustre le problème soulevé : il est inutile
d'exiger d'une clé anglaise de 10 mm qu'elle soit usinée avec une précision de l'ordre de
1/100e mm si c'est pour dévisser un écrou de 9 mm. Le résultat sera de toute façon
globalement catastrophique !
66L'histoire du management est jalonnée d'outils magiques aujourd'hui oubliés après avoir
connu une gloire souvent éphémère. Tous ont permis d'accroître plus ou moins modestement
l'efficience des entreprises (économiser des ressources pour une activité donnée) dans un
contexte particulier. Mais rarement la démarche fut globalement scientifique car elle
consistait à juxtaposer des techniques généralement empruntées à d'autres disciplines et à les
utiliser jusqu'à l'échec suivant. La régulation s'est faite et se fait encore par les crises.
67Le management ne sera probablement jamais une science au sens où on l'entend lorsque
l'on parle des sciences de la matière, c'est-à-dire ayant une capacité prédictive. Il lui manque
pour cela une dimension essentielle : la possibilité de vérifier expérimentalement que, toutes
choses égales par ailleurs, les mêmes causes produisent les mêmes effets. En revanche, le
management appartient aux sciences de l'homme et de la société. Elles n'ont pas pour objectif
de mettre en équation le comportement de l'homme mais, grâce à une démarche scientifique,
d'aboutir à une meilleure intelligence des faits observés. Ainsi, l'histoire est-elle une science
non par ses résultats, car il n'y a bien sûr pas de déterminisme, mais par sa méthode. Le
management peut prétendre au même statut.
68La complexité croissante des rouages d'une économie moderne rend plus que jamais
nécessaire cette intelligence des faits. Mais une démarche scientifique n'est possible que si
certaines valeurs traditionnelles du management cessent d'y faire obstacle.
71Le problème est maintenant de savoir comment rendre compatibles les valeurs de l'homme
d'action (l'esprit de décision) et celles du scientifique (le doute méthodique). Les grandes
entreprises modernes apprennent à jouer sur ces deux registres à la fois comme elles ont déjà
appris à vivre avec les conflits entre la gestion à court terme et la stratégie à long terme grâce,
par exemple, à des structures de groupe où le court terme relève des filiales ou des divisions et
le long terme de la société holding. Elles essayent également de rendre compatibles la
recherche des intérêts particuliers et celle de l'intérêt général grâce à des procédures comme
les prix de cession internes. Pour revenir à notre propos, on constate déjà que la distinction
traditionnelle entre les opérationnels qui s'identifient à l'homme d'action et les cadres
fonctionnels qui ont plus un profil de chercheur s'atténue avec la gestion par projet dans le
secteur de la haute technologie comme nous le verrons plus loin. Le potentiel de recherche
des universitaires en gestion est également plus souvent utilisé par les entreprises. On observe
d'ailleurs aussi et depuis longtemps dans les universités et les grands établissements
d'enseignement supérieur, tant en France qu'à l'étranger, le mélange des fonctions entre
l'action (l'enseignement, les publications et les contrats), la recherche fondamentale et les
travaux de gestion de la structure. Bref, les entreprises découvrent progressivement que la
variété est souvent plus utile que dangereuse. Elle est indispensable pour équilibrer les
rigidités d'une grande organisation qui doit évoluer dans un environnement instable. Elle est
utile car elle est source de richesse comme la biologie nous l'a enseigné. Elle est dangereuse
car elle peut aussi être source de conflits et d'incompréhensions. Les entreprises doivent donc
être gérées en jouant sur l'équilibre
73En réalité, les objectifs sont souvent implicites et ambigus, comme nous l'avons déjà dit.
Les moyens ne sont pas choisis librement. Le résultat est fonction des moyens mais aussi des
interactions avec l'environnement. Enfin, l'information est très imparfaite. La démarche
scientifique commence par perturber, semer le doute, mettre du désordre dans ce beau jardin à
la française. Elle agit dans le fonctionnement d'une entreprise comme la démocratie dans le
fonctionnement de l'État. Tous les citoyens ont la possibilité de s'interroger, d'interroger, de
critiquer et de douter. Mais ce qui aura résisté à un aussi dur traitement sera incontestablement
ce qui reste de meilleur (et non de parfait).
74En conclusion, l'innovation devenant l'une des sources essentielles du progrès économique,
il faut investir non seulement dans la recherche et le développement, mais aussi dans des
structures qui favorisent ce que nous avons appelé l'intelligence organisationnelle. Cette
dernière ne se confond pas avec l'intelligence des hommes qui composent l'organisation et
n'en constituent pas la somme.
77Mais un projet n'est pas nécessairement un produit fabriqué en série. Ce peut être aussi un
objet unique comme, par exemple, un chantier dans le BTP. Certaines sociétés gèrent en
parallèle plusieurs chantiers si possible à des stades d'avancement différents alors que d'autres
ne sont constituées que pour un seul chantier (le tunnel sous la Manche, par exemple).
D'autres projets se définissent comme une activité de gestion non répétitive : un événement
sportif, la participation à une manifestation commerciale importante, un investissement tel
l'ouverture d'une nouvelle usine ou un désinvestissement s'il s'agit de la fermeture, une
réorganisation administrative, etc. « On considérera donc comme relevant de la problématique
de gestion de projet, toute activité complexe orientée vers la production d'un ou plusieurs
biens ou services mobilisant, sur une période assez longue mais finie, un ensemble conséquent
de ressources, dont la gestion peut être considérée comme sans interférence forte ou non
maîtrisée avec celle du reste de l'entreprise » [Giard, 1991, p. 8]. Il faut enfin souligner que la
gestion de projets n'a rien à voir avec les « projets d'entreprise » qui relèvent de la politique de
communication interne et externe ou d'une version très soft de la planification et du contrôle.
78Le problème, en matière de gestion de projets, est qu'une conception hâtive peut permettre
de gagner du temps et de l'argent lors de la phase d'étude et de développement mais coûtera
(plus) cher lors de la fabrication (difficultés d'usinage ou d'assemblage) ou, pis, lorsque par
exemple les véhicules seront chez les clients (service après-vente et coût d'opportunité lié à la
dégradation de l'image de marque). En résumé, les erreurs des services d'études sont invisibles
dans les comptes de ces services mais sont sanctionnées plus tard, trop tard, et en aval. Or le
contrôle de gestion « classique » est essentiellement conçu pour contrôler des charges
récurrentes. Il a donc fallu penser des structures et des modalités adaptées au problème, à la
mise sous tension d'une activité qui est stratégique.
80En matière de contrôle de gestion, les progrès sont également importants et se caractérisent
par :
82- la variabilité des périodes de contrôle qui sont fonction des phases du projet alors que
dans le cadre d'activités récurrentes la périodicité est habituellement mensuelle, donc fixe ;
83- la nécessité de valoriser les écarts au coût des charges futures qu'ils génèrent en suivant le
cumul des coûts engagés et non celui des coûts décaissés ;
84- à l'intersection du contrôle et de la structure, par le fait que les opérationnels se contrôlent
eux-mêmes. Il leur faut simplement une aide méthodologique pour concevoir les outils de
pilotage dont ils ont besoin pour leur propre usage, indépendamment des outils qui servent à
rendre compte et qui, eux, sont définis de manière externe.
85Le système de contrôle des projets doit prendre en compte les spécificités de ce mode
d'organisation qui sont bien mises en lumière par le tableau page suivante [ECOSIP, 1993,
p. 20].
86Le suivi des budgets et notamment des coûts engagés devient essentiel. De plus, les
variables coût, qualité et délais ne sont plus considérées comme des variables indépendantes.
La maîtrise de la qualité et des délais entraîne des coûts supplémentaires, mais
Évolution
de gestion des coûts engagés et décaissés et articulation des contrôles
87elle réduit les coûts de régulation (rattrapage des défauts ou des retards, diminution des
marges de sécurité devenues inutiles). Les coûts ont une incidence sur le prix, ce qui a un
impact sur la demande (élasticité de la demande par rapport au prix) et en retour sur les coûts
du fait de l'étalement plus ou moins important des charges fixes (n'oublions pas les coûts de
conception énormes, par exemple dans l'automobile, comme nous l'avons vu).
88À partir d'une réflexion sur les structures, la gestion de projet intègre à la fois des
perspectives stratégiques et opérationnelles. Elle contribue au développement de
l'organisation créatrice puisqu'un projet est avant tout la traduction organisationnelle d'une
volonté d'innovation ou de changement. La gestion de projets permet de gérer
l'expérimentation selon une démarche heuristique alors que la gestion des opérations ne
permet que de gérer l'expérience (acquise) selon une démarche normée [Koenig, 1994]. Il faut
aussi noter que la pluridisciplinarité de l'équipe réunie autours du projet favorise un
apprentissage et mobilise les énergies hors des routines puisque « la mort du projet est
annoncée dès sa naissance » [ECOSIP, 1993, p. 145].
89L'activité au quotidien des acteurs est largement modifiée par ces changements de structure
et l'introduction du concept de « concourance », c'est-à-dire la mobilisation des différentes
expertises liées aux différents métiers à toutes les étapes du développement. Plus
concrètement, à titre d'exemple, voici le cas du projet Twingo. « Dès 1988 ont été créés les
"plateaux", réunissant dans un même lieu, au moment de l'élaboration des plans, des
techniciens de bureaux d'études, de services des méthodes, des représentants d'usines et des
"techniciens résidents", des fournisseurs en charge des principaux ensembles sous-traités :
planche de bord, câblage par exemple. En 1990 s'est instituée une procédure de pilotage
mensuel du triptyque qualité-coût-délais, impliquant non la hiérarchie mais les acteurs
opérationnels, et reposant sur la décomposition du projet en sous-ensembles cohérents (la
planche de bord, le moteur, la caisse...). Cette procédure vise à intégrer le processus de
décision technique (les acteurs de base : les techniciens du bureau des études, du service des
méthodes, l'acheteur, le représentant de l'usine) et le processus d'évaluation et de contrôle du
projet (des experts des fonctions de contrôle de l'économie, de la qualité ou du planning, ou la
hiérarchie). On retrouve aussi ce principe d'une contribution simultanée de toutes les
expertises dans le processus de réalisation des prototypes, montés aujourd'hui par des
personnels d'usine, et qui permettent, dès la deuxième vague, de tester les processus de
montage conçus par le service des méthodes. Plus tard, la procédure de réception des pièces
est aussi l'occasion d'un travail collectif à partir des premiers échantillons réalisés par les
fournisseurs » [ECOSIP, 1993, p. 49].
90Finalement, il ne faut pas non plus sous-estimer afin de mieux en tenir compte « que le
développement de la logique projet déstabilise profondément la gestion du personnel dans les
entreprises : mise en cause de la notion de poste de travail, clé de voûte de la plupart des
systèmes de gestion des ressources humaines ; déplacement de l'espace de la carrière,
autrefois inscrite dans le métier technique ; multiplication des dépendances, et donc de
l'évaluation des individus » [ECOSIP, 1993, p. 29].
93Afin d'y remédier, Michael Porter [2003] a proposé un autre découpage de l'entreprise, non
pas en fonction de l'organigramme pour faire coïncider le découpage comptable et les
responsabilités budgétaires, mais à partir des « activités de base économiquement
significatives » qui sont la source de la différenciation compétitive de la firme. Il est ainsi
amené à « distinguer les notions de "valeur" et de "coût", et plus précisément d'identifier les
coûts à valeur ajoutée d'un côté, et les coûts sans valeur ajoutée de l'autre » [ECOSIP, 1990,
p. 14]. Un coût sans valeur ajoutée est un coût engendré par une activité dont la suppression
n'entraînerait aucune perte d'attribut du bien ou service : performance, fonction, qualité, etc.
Patrick Besson [ibid., p. 204] note à juste titre que l'expression « coût sans valeur ajoutée » est
impropre et qu'il faudrait parler d'« activité sans utilité ajoutée ». Ainsi, le stockage (sauf
lorsqu'il s'agit de bon vin !) est une activité sans valeur ajoutée qu'il faut donc essayer
d'éliminer. Le problème n'est cependant pas aussi simple car, en se privant du stock, on
s'oblige à faire des séries plus courtes et on peut perdre le bénéfice des économies d'échelle.
La différence entre les valeurs créées et les valeurs consommées mesure la rente d'efficacité
de l'entreprise dans un univers monétarisé qui ne cherche pas à gommer les effets-prix comme
dans la méthode des comptes de surplus. La traduction gestionnaire de la chaîne de la valeur,
qui constitue un système d'activités interdépendantes et non une simple juxtaposition
d'activités, trouve cependant une limite. « La chaîne de valeur est trop complexe et trop
diversifiée en fonction des marchés, des produits et des entreprises pour obéir à un modèle
d'activités unique. La valeur se crée par agencement en réseau d'une multiplicité de
processus » [Lorino, 1995, p. 182]. Par ailleurs, la notion de générateur ou inducteur de coût
qui donne à la méthode son caractère opérationnel n'est en réalité qu'un retour aux sources de
la comptabilité industrielle qui ne se révèle pratiquement pas si simple, ce qui explique la
dérive observée dans la définition des unités d'œuvre. La difficulté de rendre compte des liens
de causalité était déjà soulignée par Pierre Lassègue [1962, p. 319].
94Il fallait donc une réponse tant en termes de structure qu'en termes d'indicateurs de coûts,
une réponse qui joue sur ces deux leviers (que nous allons aborder successivement ci-après)
pour mieux contrôler les activités, pour « gérer les causes des coûts et non les coûts eux-
mêmes » selon l'expression de Thomas Johnson [1990].
95Le travail sur les structures se fait dans deux directions qui ne s'excluent pas :
101
102Chaque groupe ou UET réfléchit régulièrement à sa propre valeur ajoutée et suit les
indicateurs d'activité qu'il s'est donnés dans le cadre d'un plan de progrès. Même si chaque
amélioration est modeste à l'échelle de l'entreprise entière, les petits pas (démarche kaizen)
peuvent avoir de grandes conséquences, un peu comme l'effet « papillon » en météorologie,
mis en évidence par Edward Lorenz, qui fait l'hypothèse que les battements d'aile d'un
papillon à Paris peuvent, par suite d'un enchaînement invraisemblable d'événements,
provoquer une tempête à New York un mois plus tard. L'activité des UET s'inscrit dans une
recherche de qualité totale définie comme une démarche de progrès permanent que
l'entreprise met en œuvre pour satisfaire ses clients en qualité, coût et délais par la maîtrise du
processus et par l'implication des hommes. Les UET, ou tout autre concept comparable,
réintroduisent l'esprit d'entreprise et la notion de performance collective dans l'ensemble de
l'organisation. La polyvalence permet une capitalisation et une collectivisation des
connaissances.
103Par ailleurs, mais en liaison avec le travail sur les structures, il faut adapter le mode de
traitement des coûts aux nouvelles orientations stratégiques. Une mise sous tension globale,
cohérente avec le concept de qualité totale, découle des coûts d'activité (activity based
costing, ou méthode ABC) qui mettent en lumière la participation de chaque activité à la
création de valeur. Les liens de causalité entre les décisions d'actions, qui sont le fait
générateur d'une consommation de ressources, et les coûts sont rendus plus lisibles. Le
vocabulaire aussi montre que les activités de soutien ne sont que des ressources à la
disposition des activités principales et que, à défaut, elles doivent disparaître.
104Un grand débat sur le caractère novateur de la méthode traverse les milieux académiques
et vient parfois critiquer ou contester l'enthousiasme de certains consultants. Nous partageons
l'avis de nombreux collègues qui n'y voient qu'un restyling (comme on dit dans l'automobile)
des sections homogènes, un retour aux sources d'un modèle de traitement des coûts dont les
praticiens ont au fil des années perdu de vue les principes fondamentaux (cf. à ce sujet
Burlaud et Simon [2003, p. 213 sq.] ou Mevellec [1994]). À titre d'exemple, l'idée que le
stockage n'est pas une activité créatrice de valeur et qu'en le supprimant ou tout au moins en
le réduisant on peut redéployer plus utilement des ressources a été développée par Jeffrey
Miller et Thomas Vollmann [1985] avec un certain retentissement. Ainsi, Hewlett-Packard à
Vancouver aurait, après deux ans de juste-à-temps, baissé les encours de 82 %, l'espace
utilisé de 40 % et les rebuts de 30 % [Horngreen et Foster, 1987, p. 590]. Le stock cachait
donc bien des ressources inexploitées. Mais l'idée n'est pas si neuve ! Avant la Seconde
Guerre mondiale, Auguste Detœuf, industriel français connu pour son humour, écrivait déjà :
« Généralement, un produit qu'on fabrique en un mois n'exige qu'un jour de travail véritable.
Le reste est préparation, circulation ou stagnation de papiers, retards de fournisseurs, défaut
de coordination du travail : la surface d'une usine est souvent proportionnelle au temps qu'on
y perd » [Detœuf, 1989, p. 173].
106
la qualité, qui se définit ici comme l'aptitude du produit ou service à satisfaire les
besoins exprimés ou implicites du client ;
le coût dans le cadre d'une concurrence par les prix ;
les délais qui selon le cas peuvent être la réactivité, la vitesse de rotation des actifs
d'exploitation ou la rapidité de mise sur le marché des innovations.
108Mais le calcul issu de ce modèle est aujourd'hui démenti par les pratiques de juste-à-temps
et de zéro-stock empruntées aux entreprises japonaises. Auraient-elles omis la rationalité du
calcul économique ? En fait, elles ont su voir qu'au-delà des chiffres il y avait les
comportements. Quand il n'y a pas de stock, on ne peut plus masquer les défauts du produit ou
du processus. Quand on ne peut plus masquer les défauts, on est fortement incité à les
supprimer. Enfin, l'espace libéré grâce à la suppression des stocks peut être consacré à une
activité créatrice de valeur. On voit donc que l'augmentation des coûts d'approvisionnement
liée au zéro-stock permet de réduire bien sûr le coût de possession du stock mais aussi le coût
de la non-qualité et le coût d'opportunité des locaux libérés [Miller et Vollmann, 1985]. Le
stock avait un coût caché [Savall et Zardet, 2010].
109Dans la même logique que ce que nous venons de voir sur les stocks, Henri Savall avec
son équipe de l'Institut de socio-économie des entreprises et des organisations (ISEOR) a
développé une réflexion globale sur les coûts cachés. Ils se définissent par opposition aux
coûts visibles qui ont la triple caractéristique d'être dénommés (par leur nature ou leur
affectation), mesurés et surveillés. « Les coûts cachés sont la traduction monétaire des
activités de régulation dont la gestion des stocks n'est qu'un exemple :
dysfonctionnements 1 régulations 1 coûts cachés. » [Savall et Zardet, 2010]. Les
dysfonctionnements élémentaires sont décrits par les auteurs à l'aide de cinq indicateurs :
l'absentéisme ;
les accidents de travail ;
la rotation du personnel ;
la non-qualité ;
les écarts de productivité directe.
111La réduction des coûts cachés [1][1]À propos de coûts cachés, notons qu’il y a une
catégorie que la… dans la démarche de l'ISEOR passe par une mise en relation du contrôle de
gestion avec la gestion des ressources humaines grâce à un « système d'informations
opérationnelles et fonctionnelles humainement intégrées et stimulantes » (SIOFHIS) et à un
système de motivation, les « contrats d'activité périodiquement négociables » (CAPN)
permettant de réaliser le triple objectif de création, d'apprentissage et de changement [ibid.].
Un CAPN est un accord passé entre un salarié et son supérieur hiérarchique direct au terme
duquel le salarié obtient des moyens supplémentaires et un complément de salaire en échange
d'un accroissement de son efficacité. Il doit être entièrement autofinancé dans la mesure où les
gains d'efficacité rapportent au moins le montant des charges supplémentaires. Le « contrat »
précise les modalités d'évaluation.
112Les travaux d'Henri Savall et, plus généralement, le management socio-économique
renvoient au mouvement sur la gestion de la qualité. Même si le total quality
management (TQM) a eu son heure de gloire dans les années 1980, les préoccupations de
qualité sont anciennes. Sans remonter aux normes de qualité des corporations ou au
colbertisme, le concept de qualité totale trouve son origine aux États-Unis dans les années
trente. Le mouvement ne devient toutefois significatif qu'à partir de 1943 où l'on voit se
développer dans l'industrie de l'armement, soumise à de très fortes contraintes de coût, de
productivité et de délai, un contrôle systématique de la qualité par des méthodes
d'échantillonnage. Il se confirme dans les années 1950 et 1960, en particulier dans l'industrie
aéronautique et dans le nucléaire, pour des raisons évidentes. Le Japon fera appel aux
spécialistes américains de la qualité dans les années 1950, puis développera son propre
système de normes. Les cercles de qualité y apparaîtront dans les années 1960, puis feront le
bonheur des consultants dans les années 1980 en Europe.
La gestion des entreprises en réseau
113L'entreprise en réseau est une structure flexible et adaptative constituant une forme
hybride entre des relations régulées par le marché et des relations administrées au sein d'un
ensemble intégré. « Elle s'inscrit dans des modèles de management beaucoup plus réactifs
pour lesquels les politiques interfirmes ne se réfèrent qu'en partie aux signaux du marché [les
prix]. [...] Si les organisations réticulaires connaissent aujourd'hui un tel engouement, c'est
qu'elles sont portées par une puissante dynamique : la réduction tendancielle des coûts de
transaction, c'est-à-dire la réduction des coûts inhérents à la gestion des relations d'échange
nouées entre eux par différents agents économiques » [Paché et Paraponaris, 1993, p. 7].
Depuis longtemps, les entreprises savent arbitrer entre des coûts de transaction qu'il faut
supporter lorsque l'on s'approvisionne « à l'extérieur » et des coûts d'organisation lorsque les
approvisionnements ou plus généralement les fonctions sont intégrés. Mais depuis
approximativement le début des années 1980, l'équilibre se déplace du fait des progrès
réalisés en matière de traitement et de transmission des données. L'entreprise en réseau ne se
confond pas avec le phénomène de sous-traitance ou avec les délocalisations.
115Il est évident qu'un réseau n'existe que par son système nerveux, nous voulons dire son
système d'information. Cela est aussi bien vrai dans le transport (exemple : les systèmes de
réservation des compagnies aériennes qui sont l'élément le plus précieux de leur fonds de
commerce) que dans l'industrie (gestion des stocks coordonnée au plan mondial, par exemple)
ou dans la distribution (le franchiseur imposant son système d'information et de gestion aux
franchisés afin de rendre tout transparent pour lui, il va de soi). Dans le cas des produits de
grande consommation, le système ALLEGRO, plus connu comme le code-barres, organise un
langage commun aux distributeurs et producteurs. L'ensemble de ces systèmes ne fonctionne
que grâce à l'échange des données informatisées (EDI).
116Du point de vue de la théorie des outils de gestion, cette mutation vers l'entreprise en
réseau est intéressante à plus d'un titre. Trois points nous semblent devoir retenir ici
l'attention.
1171)!D'une part, elle illustre le phénomène de domination par le système d'information. Tout
se passe en quelque sorte comme si l'entreprise pivot pouvait capter le système sensoriel de
ses opérateurs et bénéficier d'une rente liée à une asymétrie de l'information à son profit. Ceci
est bien illustré par le cas de la franchise.
1182)!D'autre part, elle montre à quel point des investissements immatériels peuvent être
stratégiques. Dans certains secteurs, le potentiel de développement est autant lié à la capacité
d'exploitation des informations qu'à la qualité ou au prix des produits. La gestion des fichiers
de clients est par exemple essentielle dans une activité comme la vente par correspondance.
Le système de réservation et tarification est fondamental pour améliorer le coefficient de
remplissage des avions qui conditionne la rentabilité des vols. Les autres éléments de
différenciation du produit sont par ailleurs quasi inexistants puisque les avions des différentes
compagnies sont les mêmes et les conditions d'exploitation étroitement normalisées.
1193)!Enfin, le phénomène des réseaux porte en lui un nouveau débat sur la normalisation
des outils de gestion. Jusqu'à présent, la comptabilité de gestion, pour nous limiter à ce seul
outil, était une affaire « intérieure » à une entreprise ou à un groupe. Avec les réseaux et en
particulier les réseaux ouverts, la résolution des problèmes de compatibilité devient la
condition d'accès au réseau. Afin de remplir cette condition, il faut régler des problèmes
techniques (compatibilité des logiciels ou existence d'interfaces) et des problèmes conceptuels
de définition.
120Ce renforcement des modes de coopération interentreprises explique en partie que depuis
1989, le Financial and Management Accounting Committee (FMAC) de l'International
Federation of Accountants (IFAC), devenu Professional Accountants in Business Committee
(PAIB), ait publié des recommandations ou avis de comptabilité de gestion. En 2012, on
trouve en particulier des publications dans les domaines suivants (www.ifac.org) :
121Le PAIB ne produit pas de normes car, dans les domaines ouverts, il n'y a pas une seule
bonne pratique et il n'y a pas de possibilité de rendre ces pratiques obligatoires. Il s'agit de
« guides internationaux de bonnes pratiques » à but pédagogique pour les praticiens.
122Une recherche sur les représentations de l'entreprise et de sa gestion qui sont sous-
jacentes aux normes et avis de l'IFAC reste à faire. Un travail comparable pourrait être fait sur
d'autres organismes de normalisation tel l'International Standards Organisation (normes ISO).
123En conclusion de ce chapitre IV, nous voyons bien comment, selon une démarche
constructiviste, apparaissent et évoluent les outils de gestion. Ils intègrent les idées nées dans
d'autres disciplines, les besoins des entreprises et, plus généralement, des organisations, mais
ils restituent une forme de remise en ordre des connaissances qui, à son tour, fera son chemin
dans les esprits et guidera les actions.