Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
Depuis ses origines dans les années 1920, le contrôle de gestion est une clé du gouvernement des
entreprises et de bien d’autres organisations. Modèle générique adaptable au-delà de la grande
entreprise privée, il structure et médiatise les relations entre les dirigeants et d’autres parties
prenantes, spécialement les managers auxquels la direction délègue.
Toute organisation est une division du travail et la croissance oblige à déléguer des pouvoirs de
décision. Les dirigeants doivent donc coordonner les décisions et actions déléguées. La supervision
hiérarchique directe peut y parvenir, au prix élevé du temps des dirigeants. Rapidement, la taille de
l’entreprise, l’éloignement, la complexité interne ne permettent plus à la hiérarchie de s’en remettre
à l’observation directe. Les dirigeants ont besoin de dispositifs non hiérarchiques d’aide à la
délégation. Des règles, des systèmes d’information vont aider ceux qui reçoivent délégation à agir et
ceux qui délèguent à savoir. Les relations verticales et transversales sont concernées. Le contrôle de
gestion est un appui à la délégation, par ses processus de cadrage des objectifs et des moyens
confiés, par la remontée d’informations (reporting), par le rôle qu’y joue la notion de responsabilité.
Construire de dispositifs croisés de cohérence externe et de cohérence interne : les deux missions du
contrôle de gestion sont ainsi fixées. Elles se fondent sur l’information. Elles appellent l’appui d’un
spécialiste, le contrôleur de gestion. Il ne s’agit pas de transférer à ce technicien d’état-major, de
staff, ce « fonctionnel »de technostructure (Mintzberg, 1979), certaines des tâches du dirigeant. Il
s’agit de confier à cet expert la charge de construire une instrumentation de fonctionnement
spécifique de l’entreprise, son modèle économique, dit aussi business model. La modélisation est
une valeur ajoutée importante du contrôle de gestion. Modéliser, c’est choisir de privilégier certains
aspects du réel que l’on décrit de manière formalisée pour faire apparaître des relations
d’interdépendance, permettant, à l’idéal, de prévoir l’évolution des variables retenues et/ou de leurs
relations. Mais les instruments doivent avoir du sens pour ceux qui s’en serviront : en expliquant le
modèle économique de l’entreprise, de l’institution, les voies qu’ils comptent lui faire emprunter
vers le succès, les dirigeants se doivent d’aider les contrôleurs de gestion à promouvoir des logiques
économiques ; elles guideront l’action collective ainsi organisée.
Contrôler ? Il ne s’agit pas d’ôter l’autonomie des acteurs. Mais, au contraire, de confier la décision à
qui est le mieux placé pour la prendre, et ce n’est pas nécessairement le sommet hiérarchique qui
connaît le mieux toutes les situations. Etouffer les idées novatrices n’est pas bon pour durer et
progresser, mais laisser toutes les initiatives s’épanouir n’est pas non plus un gage de cohésion ni de
cohérence. Les analogies au pilotage d’une machine par rétroaction (le steermanship de la
cybernétique) sont fallacieuses. Plutôt que de mettre sous contrôle, l’idée est de garder un certain
contrôle des choses, d’organiser des systèmes de pouvoirs et de contre-pouvoirs qui freineront les
dérives sans arrêter les progrès. Vaste programme que celui de l’organisation de l’autonomie ?
L’appelation « contrôle de gestion » semble relativement récente, des années 1960 sans doute ?
Celle de management control l’a précédée dans les années 1940 ou 1950 aux Etats-Unis. Encore faut-
il clarifier le contenu de l’une et de l’autre. « Gérer » n’a pris qu’assez tard le sens de « diriger » aussi
attribué au management, et cela révèle des mentalités encore sous-jacentes. D’intéresse-t-on au
management ou à la gestion ? Faut-il les confondre ? Qu’entend-on par « contrôler » ? Questions
fondamentales, d’autant plus souvent posées que, ces dernières années, les contrôleurs de gestion
ont souhaité apparaître comme des agents d’amélioration des performances de l’entreprise. Aux
Etats-Unis, le poste de responsable comptable – controller réécrit comptroller par erreur
d’étymologie – a précédé la notion de management control et l’a connotée. Le contrôleur de gestion
se nomme parfois management accountant, comptable de gestion. A la fin des années 1930, Maurice
Mareuse, en France, publie un ouvrage intitulé Le Contrôle de la gestion des entreprises qui porte en
fait sur la comptabilité, les budgets et les équilibres financiers (et entend la gestion au sens
classique) : faire de la comptabilité, ce très ancien système d’information, un outil de management a
été une étape naturelle du développement du contrôle de gestion, son origine même, mais cette
vision du contrôle est étroite et aujourd’hui jugée partielle. Le contrôle de gestion, processus clé de
la cohérence entre stratégie, projets et actions quotidiennes, est sujet à différentes variantes dites
« de contingence ». Elles s’articulent cependant autour d’un schéma de référence apparu dans les
années 1920 pour, comme l’écrit l’historien Chandler (1962), « coordonner, juger et planifier » les
entités des grandes entreprises alors naissantes.
L’on peut tracer une généalogie de l’émergence du contrôle de gestion qui s’appuie sur les progrès
de la comptabilité, leur adjoint ceux de la statistique pour construire des outils de gestion
prévisionnelle dont la clé passe par le contrôle budgétaire. L’ambition s’élargit alors, du budget au
processus de management dans son ensemble ; anticiper et coordonner sont les clés du contrôle. En
France, les difficultés des entreprises ont souvent catalysé l’adoption du contrôle de gestion, dès lors
assimilé à un outil de surveillance des coûts. Or, le contrôle de gestion n’a pas été conçu juste pour
gérer plus serré mais pour croître et réussir. Il est le produit et le facilitateur d’un mouvement de
fond déjà ancien qui fait date dans l’histoire du développement économique ; la montée des
organisations, qui porte la nécessité de diriger à distance, tandis que l’emprise croissante des
raisonnements économiques exige une modélisation et des systèmes d’information complexes, une
anticipation face à la concurrence. Le contrôle de gestion est inséparable de l’apparition des grandes
organisations, de leur structuration et de leur devenir ; il joue encore un rôle clé dans la façon dont
bien des personnes travaillent et font carrière dans l’économie moderne. Il a été une pièce critique
de la réponse apportée par les grandes entreprises nord-américaines du début du siècle dernier au
triple défi du risque, de la taille, de la complexité. Pour autant, il peut être adapté au gouvernement
de bien d’autres organisations.
OBJECTIF DU COURS
1. Définir le contrôle de gestion,
SOMMAIRE GENERAL
Le modèle coût-volume-profit
Le risque d’exploitation
La synthèse budgétaire
BIBLIOGRAPHIE SELECTIVE
Berland, N. ; Le contrôle de gestion, PUF, Que sais-je ?, Paris, juin 2014
Bouquin, H. ; Les fondements du contrôle de gestion, PUF, 4ème Ed. ; Que sais-je ?, Paris, décembre
2014
Burlaud, A. & Simon, C.J., Le contrôle de gestion, La Découverte, coll. « Repères », Paris, 2006
Demeestère, R. ; Lorino, P. ; Mottis, N., Pilotage de l’entreprise et contrôle de gestion, 6è Ed., Paris,
2017
Horngren, C. ; Bhimani, A. ; Datar, S. ; Foster, G., Contrôle de gestion et gestion budgétaire, 4è Ed.,
Nouveaux horizons-Ars, Paris, 2016
Löning, H. ; Malleret, V. ; Méric, J. ; Pesqueux, Y., Contrôle de gestion – Des outils de gestion aux
pratiques organisationnelles, 4è Ed., Dunod, Paris, 2013
Selmer, C., Concevoir le tableau de bord – Méthodologie, outils et modèles visuels,4è Ed., Paris,
Dunod, 2015
La théorie moderne voit dans la gestion de l’entreprise le pilotage d’une organisation complexe qui
poursuit des fins données en optimisant l’utilisation des moyens dont elle dispose.
Dans l’optique traditionnelle, une fonction de vigilance est nécessaire afin de s’assurer que
l’utilisation des ressources et les résultats sont conformes aux objectifs de l’organisation.
La nécessité du contrôle a été reconnue par les premiers théoriciens de l’organisation : F. Taylor, H.
Fayol. C’est le célèbre : « prévoir, organiser, commander, coordonner et contrôler » de H. Fayol.
Les auteurs des années 1970 ont mis en évidence les interdépendances entre les phases du
processus de management et ils ont, peu à peu, transposé au contrôle de gestion le modèle de la
cybernétique (processus intégrant une boucle de rétroaction) :
Le contrôle est alors conçu comme un processus de pilotage et de régulation.R. Cyert et J. March, par
exemple, en arrivent à la conclusion que le succès repose moins sur les prévisions à long terme que
sur la capacité des gestionnaires à s’ajuster rapidement, par petites touches, aux conditions
changeantes. Ces auteurs considèrent que la méthode de gestion la plus efficace est celle qui
consiste à mesurer constamment les réalisations et à effectuer à tout instant de petits ajustements.
Une des principales critiques qui sera faite à cette conception est que le processus de contrôle ne
met jamais en cause la pertinence des buts et des objectifs poursuivis et cela, quelles que soient les
modifications de l’environnement, dont ces auteurs admettent implicitement la prévisibilité.
L’approche systémique fournit un modèle de la firme définie comme un ensemble doté d’objectifs et
capable d’adaptations. Le contrôle de gestion ne se limite plus à un processus de vérification à
posteriori. Le mot « contrôle » doit, au contraire, être interprété dans son acception anglo-saxonne,
c’est-à-dire au sens de maîtrise pour s’adapter à l’évolution de l’environnement.
Dans cette optique, le contrôle n’ apparaît plus comme un appendice rapporté, mais comme une
partie constructive et fondamentale du système. Le système ainsi décrit est sous contrôle si les
interactions en son sein sont telles qu’il peut atteindre sa finalité.
• Externe : le système de contrôle doit garantir la pertinence des choix stratégiques et des
comportements ;
• Interne : le choix du système de contrôle est indissociable de celui de la structure
organistionnelle.
Depuis les années 1980, le contrôle de gestion n’a pas échappé aux critiques : pertinence perdue,
bureaucratisation, manque de réactivité, etc. Cette remise en question profonde a donné naissance à
un ensemble de pratiques et de théories nouvelles que l’on peut associer au concept de pilotage de
la performance.
1.1.2.1. Définitions
Piloter, c’est agir sur l’environnement de la décision pour influer sur la décision elle-même. Ainsi,
avec le passage du contrôle au pilotage, la préoccupation centrale est passée de la surveillance des
ressources et de leur bonne allocation à la gestion des causes, des modes opératoires et des
compétences.
Le contrôle de gestion traditionnel a souvent été accusé d’être un contrôle « au rétroviseur » qui
s’intéressait davantage à l’explication du passé qu’à l’anticipation de l’avenir. Le mot « pilotage »
résume l’esprit « proactif » d’une méthode qui doit être orientée vers l’action.
La performance est la réalisation des objectifs que s’est fixés l’organisation. Elle ne se définit pas
seulement par l’obtention de résultats quantitatifs, mais également par l’optimisation des moyens
mis en œuvre dans toutes les dimensions : économiques, sociales, commerciales, etc. C’est cette
dimension de la performance que déploient désormais des outils comme le tableau de bord
stratégique.
Il ne s’agit plus simplement de contrôler à posteriori. Piloter, c’est mettre en œuvre des méthodes
qui permettent d’apprendre ensemble à agir de manière performante. Les exigences des actionnaires
et les contraintes de la concurrence font de la course à la performance un modèle de gestion.
L’autonomie des acteurs peut se situer à différents niveaux : latitude d’application des règles ou
latitude de critiquer ou de redéfinir les règles.
Ces deux types d’autonomie renvoient à ce que C. Argyris et D. Schon nommaient, d’une part,
l’apprentissage en simple boucle (« simple loop »), c’est-à-dire l’ajustement de l’action sans remettre
en cause les normes et, d’autre part, l’apprentissage en double boucle (« double loop »), c’est-à-dire
l’adaptation qui remet en cause les normes. Il s’agit de modèles de pilotage très différents, mais qui,
tous deux, sont en rupture avec les approches classiques du contrôle. Le pilotage s’appuie, de toute
façon, sur des capacités d’interprétation locales.
Les dirigeants doivent passer de l’autorité à l’influence et le contrôle passe à un degré supérieur.
Certains auteurs, comme par exemple P. Lorino dans Comptes et récits de la performance, parlent
alors de « métacontrôle ».
L’établissement de cette norme pourra être, selon les cas, le résultat d’un processus intuitif ou celui
d’une procédure consciente et formalisée : la planification.
Le praticien doit toujours décider sans disposer de la totalité des informations nécessaires. C’est en
cela que la pratique de la gestion s’oppose à la théorie économique.
Dans ces conditions, l’optimum n’est qu’un miracle. Le gestionnaire est sans cesse confronté aux
résultats de ses propres erreurs.
Sa seule stratégie efficace consiste à mettre en place un système de contrôle qui lui permettre d’être
informé le plus rapidement possible afin de pouvoir prendre les décisions correctives. Il s’agit donc
beaucoup moins d’appliquer une théorie que de mettre en œuvre un comportement d’adaptation
constante.
Le décideur ne peut jamais prévoir exactement les conséquences de ses décisions, ni les évolutions
de l’environnement.
Il ne s’agit donc pas uniquement de faire fonctionner un système existant, mais aussi d’imaginer un
modèle de la situation future afin de maîtriser l’évolution de ce système. Dans ces conditions, les
échecs sont inévitables et une partie importante du mécanisme d’apprentissage repose sur la
mémorisation de ces échecs mais aussi des succès.
Le souci de contrôle est devenu permanent dans la plupart des grandes entreprises, ce qui explique
que la nécessité d’une procédure explicite et formalisée se fasse partout sentir. Au-delà des activités
à mener pour effectivement contrôler, il est indispensable de disposer des données permettant
d’alimenter le processus. Il est alors nécessaire que le système d’information de la firme intègre un
outil de planification et de contrôle plus ou moins sophistiqué, dont nous allons préciser les
nécessaires caractéristiques.
Il est impossible de dater précisément la naissance du contrôle de gestion et des techniques sur
lesquelles il repose. Donnons simplement quelques repères :
• Depuis l’Antiquité, les exemples d’estimation approximative des coûts pour étayer des
décisions et limiter le risque d’erreurs jalonnent l’histoire, d’abord dans le domaine agricole
puis, dès le XVè siècle, dans l’industrie naissante ;
• Durant la période qui précède la révolution industrielle, on constate que des entreprises
devant prendre des décisions ont ressenti le besoin d’asseoir ces dernières sur les
informations chiffrées concernant leurs coûts. Pa exemple, les dirigeants de la Compagnie
Carron, entreprise métallurgique écossaise fondée en 1759, ont dès cette époque mis en
œuvre un système de calcul des coûts visant à contrôler les performances de chaque
établissement, répartissant les frais généraux entre eux et fixant des prix de cession internes.
Néanmoins, ces coûts restaient peu précis et constituaient plutôt des estimations ;
• A partir de la révolution industrielle et tout au long du XIXè siècle, la comptabilité des coûts
s’est développée de manière significative. Après 1860, la publication de manuels de
comptabilité industrielle s’accélère très nettement. La technique de calcul des « prix de
revient » semble maîtrisée ; on commence à vouloir développer l’analyse des charges
(directes et indirectes, fixes et variables), la notion de seuil de rentabilité, l’évaluation des
sorties de stock et, à partir des années 1880, le calcul et l’enregistrement des
amortissements ;
• Au début du XXè siècle, F. Taylor introduit la notion de norme, dont découle l’idée de la
mesure des écarts (entre normes et réalisations) et de la gestion par les exceptions (seuls les
écarts significatifs sont analysés en détail). La surveillance à distance, par les chiffres, se
substitue particulièrement à la surveillance directe par les chefs ;
• En 1915, H. Gantt propose un traitement des charges de structure qui deviendra l’imputation
rationnelle des charges fixes ? Ce travail sera repris en 1928 par E. Rimailho, le « père » du
plan comptable français ;
• Dans les années 1920, les grandes entreprises américaines vont apporter des innovations
décisives. En 1920, General Motors (GM) adopte une structure par divisions. L’année
suivante, Du Pont adopte à son tour une structure par divisions débouchant sur
l’identification de centres de profit. On fournit ainsi une réponse satisfaisante au besoin
simultané et paradoxal d’autonomie et de centralisation. Dans les années qui suivent, GM va
successivement mensualiser les budgets commerciaux, introduire les budgets flexibles,
accélérer la remontée des informations et améliorer ses procédures de prévisions. Dès les
années 1930, beaucoup d’entreprises vont adopter ces innovations ;
• En 1965, R.N. Anthony formalise les liens entre contrôle et stratégie.
La période contemporaine, marquée par une incertitude croissante de l’environnement et
une complexité grandissante des processus de gestion, est une ère de reconstruction. Les
problèmes de pertinence des systèmes d’information traditionnels sont au centre des débats
théoriques et des constructions pratiques actuelles.
L’interrogation est partie des Etats-Unis, en particulier depuis les travaux de T. Johnson et R.
Kaplan, critiquant les pratiques de comptabilité de gestion des entreprises américaines et la
reconstruction du modèle comptable sur la base des coûts d’activité à la suite des travaux
d’un laboratoire de recherche, le CAM-I. Elle s’étend désormais au monde entier. Les
schémas traditionnels du contrôle, fondés sur une comptabilité analytique traditionnelle par
produits alimentant un système de contrôle budgétaire, se révèlent de moins en moins
adaptés aux besoins des entreprises, en particulier à cause du caractère instable des marchés
ou des processus de production.
Le contrôle de gestion, comme l’ensemble des sciences de gestion, est rattaché au domaine des
sciences humaines. Il présente donc des liens avec d’autres domaines de la gestion ainsi qu’avec
des disciplines plus générales.
En définitive, les conclusions de toutes ces études tournent, peu ou prou, autour
de l’idée que l’homme ne peut être motivé que s’il connaît l’amont et l’aval de sa
propre tâche. La conséquence de ces travaux a été la mise sur pied de nouveaux
types d’organisation fondés sur la confiance en l’homme et la décentralisation
des décisions. Les différents apports théoriques de l’école des relations
humaines ont trouvé des applications pratiques dans le domaine du contrôle de
gestion. Le système d’animation le plus répandu inspiré par ces fondements
théoriques est la direction participative par objectifs (DPPO). Dans ce système, la
direction générale laisse la liberté aux « centre de responsabilité » du choix des
moyens nécessaires à la réalisation des objectifs. La DPPO est un facteur de
motivation important, car les responsables participent à la fixation des objectifs
et ont le sentiment de se comporter comme de véritables chefs d’entreprise.
Les travaux de M. Crozier ont été déterminants pour cesser de considérer les organisations
comme des « boîtes noires ». Il a montré qu’à l’intérieur de l’organisation existe un équilibre
complexe de pouvoirs et de contre-pouvoirs, que les différents acteurs ont des stratégies
propres et qu’ils savent utiliser les « zones d’incertitude organisationnelle » (c’est-à-dire tout
ce que l’organisation officielle et consciemment définie n’a pas prévu) pour se ménager des
espaces de liberté et atteindre leurs propres objectifs.
L’application des théories psychologiques du comportement à l’étude des processus de prise
de décision fut l’un des apports essentiels de l’œuvre d’H. Simon. Pour lui, la rationalité des
responsables est limitée et contrainte par l’environnement ; de ce fait, ceux-ci recherchent
davantage un résultat satisfaisant qu’un résultat optimal.
De leur côté, R. Cyert et J. March ont essayé d’expliquer le comportement réel des firmes en
poursuivant la critique du modèle de l’acteur rationnel issu de la théorie microéconomique.
Ces auteurs partent d’une réflexion sur les buts organisationnels : pour eux, seuls les
individus ont des buts et non les organisations. Les buts de l’entreprise résultent de
négociations entre des « coalitions » qui négocient des contreparties en échange de leur
participation à l’organisation. Ces buts ne sont pas toujours clairement exprimés, ou restent
qualitatifs ; ils demeurent ainsi acceptables par une majorité de participants. Dans cette
théorie, la décision résulte d’un ensemble de comportements. L’optimisation n’est pas
recherchée en général, mais fait place aux deux procédés suivants :
• La rationalité locale : chaque unité résout ses problèmes à son niveau ;
• La recherche séquentielle de solutions : les problèmes sont réglés les uns après les
autres, ce qui permet de trancher « en douceur » le cas des objectifs contradictoires,
ce qui permet de trancher « en douceur » le cas des objectifs contradictoires.
Les choix se font à l’aide de procédures standard qui diminuent l’incertitude en privilégiant la
répétition de règles existantes. Il s’agit donc d’une « rationalité procédurale ».
Il n’est pas toujours facile de clarifier les frontières entre les domaines respectifs du contrôle de
gestion et les différents types de contrôle tels que le contrôle interne, la révision comptable et
l’pterne.
Reprenons ces différents concepts pour essayer d’en fixer l’étendue.
Pour répondre à ces conditions de validité, la comptabilité de l’entreprise doit être organisée
de telle sorte que toute l’information comptable soit correctement transmise et traduite.
1.3.1.2. Caractéristiques
Le contrôle interne se caractérise par l’existence d’un système d’organisation et par la
compétence du personnel chargé de sa mise en œuvre. Il se traduit par :
- La formalisation du déroulement des tâches, des activités, etc., des procédures au niveau
des opérations ; tout cela doit permettre l’examen de leur validité, leur recensement et
le contrôle de leur exécution ;
- Des dispositions générales portant sur la séparation des tâches, les conditions d’accès
aux biens et ressources, et la supervision des opérations.
Il s’agit ici de la gestion courante de l’entreprise et tous ses membres doivent disposer d’un
système de sécurité les libérant de l’inquiétude permanente relative au fonctionnement
quotidien.
Le contrôle de gestion apparaît comme chargé de définir, d’une part, les règles relatives au
choix des actions à entreprendre et des moyens à mettre en œuvre et, d’autre part, les
procédures d’évaluation des résultats. La définition des règles d’accompagnement des
actions choisies relève, quant à elle, du contrôle interne.
Le contrôle de gestion s’appuie sur un ensemble de techniques qui ont en commun de concourir à un
contrôle à distance des comportements. Dans une optique contractuelle, une délégation
s’accompagne d’une obligation de rendre compte. Les modalités de l’appréciation sont explicitées et
cette dernière est suivie de la mesure des performances et d’une évaluation.
Le terme « bureaucratie » présente aujourd’hui une connotation nettement péjorative, mais il n’en a
pas toujours été ainsi. M. Weber, par exemple, nommait « bureaucratie » tout système dans lequel
l’ordre est régi par la règle et il estimait que la bureaucratie, ainsi définie, est la forme la plus efficace
de l’organisation humaine.
Sans vouloir suivre M. Weber dans toutes ses conclusions, force est de remarquer que les systèmes
de contrôle de gestion présentent des dispositifs d’actions de type bureaucratique. Ces systèmes
revêtent en général une forme complexe de plans, de rapports et de manuels de procédures qui,
dans certaines entreprises, comportent plusieurs centaines de pages.
Toute bureaucratie suppose la mise en place d’une rationalité organisationnelle au service d’une
autorité centrale, et cela via la mise en place de règles impersonnelles.
L’efficacité d’un système de contrôle de gestion repose largement sur une approche de ce type. Les
normes, les procédures, les plans et les budgets sont les constituants d’un système central de
pilotage qui coordonne et contrôle les comportements décisionnels.
Les conduites à observer sont objectivement dictées par un ensemble de règles impersonnelles :
- Les normes utilisées sont, avant tout, l’outil d’expression de l’autorité centrale. Cette
constatation n’exclut nullement l’adhésion volontaire à ces normes car les individus y
trouvent fondamentalement leur intérêt. Il existe généralement un accord de fond sur le
bien-fondé des normes essentielles et une organisation sans norme est ressentie par les
participants comme menaçante et donc intolérable ;
- Les procédures sont des processus normalisés imposant aux acteurs les étapes et la
façon de faire dans certaines activités telles que la prise de décision. Les systèmes de
contrôle de gestion formalisés reposent toujours sur une rationalisation du processus de
décision. Les planificateurs effectuent leur travail selon une série de phases logiques et
ordonnées en utilisant prioritairement des documents écrits. La recherche de règles et
de décisions claires est constante, et cela même s’il n’est pas toujours possible
d’expliciter la totalité des objectifs. La rationalité présente un caractère d’objectivité
réelle ou apparente qui favorise l’adhésion volontaire ;
- L’autorité centrale, quelles que soient la nature et la légitimité de cette autorité et de
son pouvoir, cherche à imposer sa dynamique propre au reste de l’organisation. Dans un
système bureaucratique, le pouvoir s’exerce par l’intermédiaire d’un réseau hiérarchique
qui utilise une structure de communication soigneusement formalisée autour de fichiers
et de documents écrits.
La totalité des normes, des procédures, des plans et des budgets constitue un ensemble formalisé et
normalisé de buts, de stratégie et d’objectifs permettant à l’autorité centrale de disposer de moyens
de contrôle précis. Cet ensemble met l’organisation en mesure d’atteindre les objectifs fixés et
constitue un outil puissant d’ « intégration interne ». Les individus seront amenés à adapter leurs
propres objectifs afin de les rendre compatibles avec ceux de l’organisation et avec leur rôle au sein
de la structure.
Ce qui est requis des cadres, c’est une identification aux buts de l’entreprise, une conformité
volontaire aux normes. Il est bien clair cependant que, quel que soit le degré de contrôle dans
l’organisation, chacun des acteurs conserve une zone de liberté et des objectifs propres le conduisant
à adopter des stratégies individuelles. Ces dernières ne sont pas toujours compatibles avec l’intérêt
général.
L’existence de ces stratégies et déviances individuelles a un caractère normal. Une certaine dose
d’opposition est saine et souhaitable car, si tous les participants avaient un comportement identique,
le système perdrait rapidement toute flexibilité et toute possibilité de remise en cause.
Cependant, si l’on n’y prend pas garde, ces déviances sont capables de détruire l’équilibre existant et
de conduire l’organisation à diverses formes de sclérose, l’une des plus répandues étant celle qu’il
est possible de qualifier de « perversion bureaucratique ». Dans un tel cas, la lutte contre des
déviances individuelles conduit à la prolifération des normes, la complication des procédures et la
centralisation des pouvoirs. La lenteur et la routine s’installent alors rapidement et le
fonctionnement du système devient très rigide, ce qui conduit peu à peu à la paralysie. Le système se
ferme sur lui-même.
b. La résistance au changement
Divers auteurs, au premier rang desquels nous pouvons citer E. Jaques, le père du « courant
psychanalytique », ont montré que, parmi les membres des organisations complexe, naît souvent
une peur excessive du changement.
Le développement d’une telle angoisse conduit les acteurs soit à une attitude de rébellion et
d’agressivité, soit à un comportement passif fait de réponses stéréotypées et d’application formelle
des règles. Dans ce dernier mode de fonctionnement, le « ritualisme » tient lieu de réflexion et
l’observation du règlement devient une fin en soi.
L’acteur a peur de mettre en danger son statut, sa carrière, voire son emploi. Il cherche alors à
éliminer tout risque personnel et sa prudence excessive se traduit par des comportements tels que la
rétention d’information ; la demande d’études complémentaires, etc. Dans de telles hypothèses, la
situation existante, régie par des normes plus ou moins bureaucratiques et stables, apparaît comme
protectrice par rapport à une situation de changement.
Il est alors possible de constater que des individus ou des groupes finissent par déployer une grande
énergie pour se protéger et/ou défendre des privilèges, ce qui a pour effet d’empêcher toute
évolution. L’organisation devient ainsi incapable de changement autrement que par le passage dans
un « état de crise ».
Ces systèmes varient d’une organisation à une autre. Leur importance provient de ce qu’ils sont à
l’origine de reflexes communs qui facilitent la communication au sein de l’entreprise en rendant
inutile, dans un contexte donné, l’explication de certains détails. La partie formelle du contrôle de
gestion peut ainsi ne constituer que le bloc émergé de l’iceberg et les nouveaux arrivants doivent
être initiés au langage et aux réflexes « maison ». Il faut garder à l’esprit tous ces éléments pour
comprendre le fonctionnement réel de systèmes de contrôle de gestion, rendre compte de la façon
dont les informations circulent d’amont en aval et comment elles remontent « du terrain » jusqu’aux
centres de décision.
A cela, il faut ajouter que la compétence dans l’utilisation de l’outil informatique est devenue un
facteur clé de succès dans le bon fonctionnement de tout système d’information et de contrôle.
L’évaluation des performances d’un responsable n’est pas un exercice simple car plusieurs types de
variables de contrôle coexistent :
Dès que la volonté de faire respecter certaines normes et d’atteindre certains résultats existe, il
devient logique d’établir un système permettant de récompenser l’application conforme et de
pénaliser les déviances. Cependant, le choix d’un système d’incitation touche à l’évidence au
problème central de la motivation et ne peut donc se résoudre d’une façon simpliste.
Pour les théories dérivées du taylorisme, le travailleur n’étant motivé que par le montant de sa
rémunération, les incitateurs sont du type simple punition/récompense. Au début du XXè siècle, le
salarié étant très mal protégé, les sanctions pouvaient être brutales : retenues sur salaires, mise à
pied, licenciement…Poussant sa logique jusqu’à son terme, F. Taylor a lié le salaire au rendement, et
ce principe donne toujours lieu à diverses applications (primes individuelles ou collectives).
Les tenants de l’école des « relations humaines » ont largement fait évoluer le système de
motivation, qui était fondé essentiellement sur des « sanctions négatives », vers des « sanctions
positives », c’est-à-dire vers la possibilité de satisfaire des besoins d’ordre supérieur.
La palette des incitateurs est donc devenue plus vaste. Cependant, l’efficacité de tout incitateur reste
dépendante d’un certain nombre de facteurs tels que :
F. Herzberg a montré qu’il faut distinguer les facteurs permettant de réduire l’insatisfaction (facteurs
« d’hygiène ») de ceux qui permettent d’accroître la motivation. Pour lui, les facteurs de motivation
sont d’abord ceux qui touchent à l’intérêt du travail et au développement personnel.
La mise en place d’un système de contrôle de gestion, et surtout d’une direction par objectifs (DPO),
augmente les responsabilités des acteurs et donc les facteurs de motivation.
En conséquence, dans l’optique d’un contrôle par exception, le cadre voit sa responsabilité
immédiatement mise en cause et il se doit de trouver une justification à tous les écarts importants.
Cette justification porte à la fois sur l’écart lui-même et sur sa propre action, en tant que manageur.
Dès que les écarts ne paraîtront pas explicables par des causes externes ou par des raisons de force
majeure, le responsable verra sa compétence suspectée et c’est en cela que le système est
extrêmement stressant.
Comme on peut le constater, la fonction ne se limite pas à ses aspects techniques tels que la
définition des structures d’organisation, la description des techniques de prise de décision, de
prévision, de planification, la conception et la gestion des systèmes comptables. Elle a également une
« forte composante comportementale » : gestion des conflits, amélioration de la communication et
augmentation de la motivation.
Comme le fait remarquer le professeur A. Burlaud : « Les qualités personnelles requises pour devenir
contrôleur de gestion sont, à la lecture des petites annonces impressionnantes. Il faut que ce soit « à
la fois un homme de dialogue », un spécialiste des chiffres, un animateur et un généraliste capable
de synthèses. La fonction exige aussi une certaine intelligence sociale, des capacités d’adaptation et
du goût pour la pédagogie. On ne doit guère rencontrer de candidat réunissant au plus haut niveau
toutes ces qualités mais l’énumération a le mérite de souligner que les aspects comportementaux
valent au moins autant sinon plus que les connaissances techniques. »
L’exposé des tâches du contrôleur de gestion montre bien que les qualités nécessaires sont de deux
ordres :
Il doit pouvoir inspirer l’estime et la confiance, car c’est à ces conditions qu’il pourra utiliser
pleinement sa force de conviction.
Dès que l’entreprise atteint une certaine dimension, l’ampleur des problèmes justifie de créer un
poste de contrôleur de gestion puis un service spécifique dont l’importance croît peu à peu avec
l’augmentation de la taille de la firme.
Les systèmes de gestion représentent la capacité de gestion que se donne la firme. Outils de pilotage,
ils doivent avant tout être à la dimension des ambitions de l’entreprise et de ses possibilités
humaines et financières.
En matière de contrôle, comme pour les autres aspects organisationnels, le principe de contingence
s’impose. L’observation des systèmes de contrôle rencontrés en pratique conduit à la remarque
suivante : ces systèmes se situent à des stades d’évolution extrêmement divers, liés essentiellement
à la taille et à l’activité de l’entreprise.
Les outils du contrôle de gestion sont, en premier lieu, adaptés à l’environnement économique de
l’entreprise.
Jusqu’à la fin de la première moitié du XXè siècle, les calculs de coût ont surtout permis de suivre la
productivité des facteurs de production, principalement les matières et la main-d’œuvre. Dans la
mesure où les produits étaient échangés sur des périodes longues (on parle alors d’ « activité
stabilisée »), les calculs de coût devaient permettre de surveiller l’évolution des coûts d’une période
sur l’autre. La comparaison de ces coûts avec un standard (norme ou objectif) mettait en évidence
les divergences entre les coûts réels et les coûts prévus et servaient de base à la mise en place
d’actions correctives.
Les demandes faites aux services de contrôle de gestion se sont profondément modifiées lorsque
l’économie et les entreprises ont connu des mutations radicales. Depuis une vingtaine d’années, les
grandes firmes, sous la pression des marchés de capitaux, ont été contraintes de se recentrer sur
leurs activités les plus rentables. Les directions financières et les contrôleurs de gestion ont alors
utilisé des méthodes de gestion leur permettent de suivre la profitabilité de chacune des activités de
l’entreprise et de justifier ainsi l’externalisation des activités les moins rentables.
Dans une PME, le rôle du chef d’entreprise est fondamental et il se réserve, en général, la
surveillance des objectifs financiers.
Dans beaucoup de PME, le travail comptable se limite aux obligations légales et le contrôle de
gestion se réduit le plus souvent à une gestion par exception des opérations courantes. En cas de
nécessité (dossier de crédit, par exemple), des dossiers ponctuels de gestion sont établis au coup par
coup avec, en général, l’aide d’un conseil externe (qui se trouve souvent être leur
expert*comptable). Les principaux instruments du contrôle sont alors des tableaux de bord.
Les autres instruments se structurent progressivement lorsque l’entreprise grandit ou lorsque la
complexité de l’activité les rend nécessaire. La PME se dote peu à peu d’une comptabilité analytique
et d’un système de prévisions plus ou moins élaboré.
Le stade suivant est franchi lorsqu’une structure budgétaire et prévisionnelle est mise sur pied. Là
encore, plusieurs niveaux de complexité existent, des simples budgets mensuels à l’intégration des
budgets dans un plan stratégique. Les instruments se structurent progressivement et accompagnent
la croissance de l’entreprise.
Dans un groupe, le système de contrôle de gestion doit permettre la surveillance des filiales par la
société mère afin d’assurer la cohérence des objectifs des filiales avec ceux du groupe tout entier.
La distance géographique pousse à l’autonomie des filiales et tend à diminuer l’efficacité du contrôle
au niveau du groupe. Il devient dès lors nécessaire de trouver des solutions organisationnelles et
budgétaires pour renforcer le contrôle.
Les obstacles majeurs sont dus à la diversité et à l’éloignement des unités ; pour remédier aux
difficultés qui en découlent, certains groupes utilisent des procédés tels que :
Un des objets de la comptabilité de gestion est de valoriser et d’analyser la formation des coûts,
c’est-à-dire de valoriser les flux internes ; comment se forme le coût de revient d’un produit suite aux
différentes étapes séparant les achats de matières de la vente du produit (au sens large) final ?
3.1. Le champ d’application du calcul des coûts
Suivant le PCG 82 (Plan Comptable Général de la France), le coût est défini en tant que « somme des
charges relatives à un élément défini au sein du réseau comptable ». A partir de cette définition, il
apparaît que le calcul des coûts ne se limite pas aux seuls produits et services proposés par
l’entreprise, mais peut également porter sur différentes approches de l’entreprise ou de ses
constituants :
Quel que soit l’objet de calcul des coûts, les informations élémentaires proviennent essentiellement
des données fournies par la comptabilité financière. Parmi l’ensemble des charges à introduire dans
les coûts, figurent notamment les matières consommées et la main-d’œuvre.
Dans une entreprise de transformation, des objets et substances sont achetés pour la fabrication des
biens et services à vendre ou à immobiliser. Ce que nous nommons « approvisionnement ».
3.1.1.2.1. Définitions
Les charges à introduire dans le calcul des coûts sont celles relatives aux éléments consommés, c’est-
à-dire sortie des stocks. Les stocks sont ainsi définis : « un stock est un actif détenu pour être vendu
dans le cours normal de l’activité, ou en cours de production pour une telle vente, ou destiné à être
consommé dans le processus de production ou de prestation de services, sous forme de matières
premières ou de fournitures. »
Cette définition permet de distinguer :
Notons que cette classification est liée à l’activité de l’entreprise et non à la nature intrinsèque des
éléments stockés.
Dans une scierie, les planches constituent le produit fini et la sciure son produit résiduel ; ces mêmes
planches constituent la matière première du fabricant de meubles et la même sciure la matière
première du fabricant d’agglomérés.
Les principes concernant la tenue des stocks sont identiques quelle que soit la nature des éléments
stockés : nous en présenterons dons ici une étude générale.
Contrairement à la comptabilité financière qui se contente, le plus souvent, d’un inventaire physique
annuel, la comptabilité analytique a besoin d’une tenue continue des stocks afin d’évaluer à
intervalles de temps réguliers ses consommations ou ses ventes de produits.
Dans les magasins et entrepôts modernes, la gestion des entrées et des sorties est assurée par
ordinateur. Les produits sont dotés de codes-barres et l’enregistrement est effectué par lecture
optique (scanner).
L’inventaire des stocks passe par et permet la connaissance continue des stocks en quantité et en
valeur. Pour la valorisation des entrées en stock, il faut distinguer :
Pour la valorisation des sorties, tout élément stocké doit sortir, en principe, des magasins au coût
auquel il y est entré. L’application de cette règle est toutefois délicate, car peu d’éléments de stock
peuvent faire l’objet d’une véritable individualisation. La plupart sont, au contraire, interchangeables
et ne peuvent plus être identifiés après leur entrée en magasin. Une sortie peut succéder à
différentes entrées évaluées à des valeurs différentes.
Nous allons calculer la valeur des sorties en utilisant plusieurs méthodes qui diffèrent selon qu’elles
acceptent ou non la fongibilité des lots successifs.
Fiche de stock du mois de mars selon la méthode du CMUP après chaque entrée
Dates Entrées Sorties Stocks
Quantité Coût Montant Quantité Coût Montant Quantité Coût Montant
01/03 1.000 150 150.000 1.000 150 150.000
07/03 750 157 117.750 1.750 153 267.750
10/03 800 153 122.400 950 153 145350
15/03 450 153 68.850 500 153 76.500
18/03 250 177 44.250 750 161 120.750
25/03 350 161 56.350 400 161 64.400
Total 2.000 312.000 1.600 247.600 400 64.400
Dans notre exemple, la sortie du 10 mars (800) est prélevée intégralement sur le stock initial
(1.000) et la sortie du 15 mars (450) est prélevé d’abord sur le stock initial (200) puis sur le
lot entré le 7 de même mois (250).
Avec cette méthode, les sorties suivent avec retard les variations de prix. Ce retard est
fonction de la plus ou moins rapide rotation des stocks. Cette dernière conduit à minorer les
coûts de revient de la période en majorant la valeur du stock final en période de hausse des
prix (et inversement en cas de baisse des prix).
Avec cette méthode, en période de hausse des prix, le stock final est minoré et les coûts de revient
de la période sont majorés. Les coûts suivent bien les variations de prix et sont plus proches des
conditions économiques du moment.
Exemple : Soit une consommation calculée de 8.000 $ et un mali de 200$. Les résultats
analytiques sont calculés sur la base d’une consommation de 8.000$ alors que la
consommation réelle, compte tenu des manquants en stock, s’est élevée à 8.200$. Les
résultats analytiques sont donc majorés du fait de la sous-estimation de la consommation. Le
résultat de la comptabilité de gestion sera calculé en déduisant le mali de 200$, ce qui
permet de retrouver la concordance avec le résultat de la comptabilité financière.
3.1.1.3. La main-d’œuvre
Les charges de main-d’œuvre représentent un poste important des charges à intégrer dans les coûts.
La comptabilité analytique retient toutes les charges relatives au personnel qui font partie de
l’exploitation normale et qui figurent en comptabilité financière dans plusieurs comptes : les comptes
dédiés aux charges de personnel mais aussi le compte pour le personnel extérieur à l’entreprise.
a. Le temps de présence
C’est le temps réellement passé dans l’entreprise, sachant que certaines absences
peuvent être rémunérées :
- Les absences de courte durée ;
- Les heures payées aux représentants du personnel dans l’exercice de leurs
missions ;
- Les heures de congé formation rémunérées.
b. Le temps d’activité
C’est le temps de présence diminué des temps morts normaux (ex. : la pause casse-
croûte) et anormaux (ex. : une panne de machine).
c. Le temps productif
Au temps d’activité, il faut encore enlever les temps non productifs consacrés à la mise
en route, au réglage ou à l’entretien systématique des machines pour obtenir le temps
réellement productif de la main-d’œuvre.
Temps payé
Temps de présence Absences rémunérées
Ces documents sont centralisés par la comptabilité analytique, qui pourra ainsi les
exploiter.
Le ratio (temps productif/temps d’activité) devrait être le plus proche de 1, l’idéal étant
que la seule différence entre ces deux temps provienne de l’entretien préventif.
3.2.1. Les charges incluses dans les coûts pour un montant identique à celui qui figure en
comptabilité financière
Il s’agit de tous les éléments ayant un caractère normal en rapport avec l’activité de
l’entreprise.
Le critère du « raisonnable » est de mise pour inclure ou non une charge dans les coûts.
Les charges dont nous avons parlé jusqu’ici (matières consommées, main-d’œuvre) sont,
bien entendu, comprises dans cette catégorie.
3.2.2. Les charges incluses dans les coûts pour un montant différent de celui qui figure en
comptabilité financière
Exemple : Une entreprise calcule ses coûts mensuellement et abonne ses charges de la
façon suivante :
Ce sont donc les montants de l’abonnement mensuel qui seront incorporés aux coûts.
a. La rémunération de l’exploitant
Dans les entreprises individuelles, la rémunération du travail de l’exploitant ne
constitue pas une charge fiscalement déductible et n’est donc pas, le plus souvent
inscrite en charges.
La prise en compte de cette rémunération permet de comparer les coûts obtenus
dans une entreprise individuelle à ceux d’une entreprise sociétaire dans laquelle les
dirigeants ont une rémunération enregistrée en charges. Il est ainsi possible de faire
des comparaisons entre des entreprises qui ont des structures juridiques différentes.
Charges Charges
inco rpo rables inco po rables
aux co ûts
Charges Charges
co mptables retenues po ur
un mo ntant
différent
Charges no n
inco rpo rables
Les charges comptables qui peuvent être considérées comme anormales, soit parce
qu’elles n’ont pas trait à l’objet normal de l’entreprise, soit parce qu’elles sont non
représentatives d’un coût, doivent être exclues des coûts.
Il est difficile, voire illusoire, d’essayer de dresser une liste exhaustive des charges non
incorporables : tout dépend de l’entreprise considérée et surtout des choix que va faire
le responsable de la comptabilité analytique en fonction de l’utilisation qui sera faite des
coûts.
Si par exemple, les coûts doivent servir à la fixation des prix de vente, il est nécessaire d’y
intégrer la totalité des charges normales de l’entreprise ; si, par contre, seul le suivi des
coûts contrôlables intéresse le gestionnaire, certaines charges invariantes dans le temps
ou sur lesquelles le gestionnaire n’a aucune maîtrise peuvent être plus facilement
exclues des calculs de coûts.
Une fois les charges à incorporer aux coûts déterminées, se pose la question de la manière
dont celles-ci vont être réparties entre les différents objets de coûts. Un premier niveau
d’analyse consiste à distinguer les charges directes des charges indirectes.
3.3.1. Définitions
3.3.1.1. Les charges directes
Une charge est dite « directe si elle peut être affectée à un coût sans ambiguïté. Les matières
et fournitures consommées, une partie de la main-d’œuvre et certains amortissements
spécifiques relèvent de cette catégorie.
Concernant les charges indirectes, les modalités de leur imputation aux coûts caractérisent
les méthodes de calcul en coûts complets actuellement mise en œuvre :
- La méthode des centres d’analyse ou méthode des sections homogènes : les
charges indirectes sont réparties entre des centres d’analyse pour être ensuite
imputées aux différents coûts calculés ;
- La méthode ABC (comptabilité à base d’activités ou Activity Based Costing) : elle
repose sur l’idée que les charges indirectes ne peuvent plus être réparties selon
une clé plus ou moins arbitraire, mais nécessitent une analyse permettant de
dégager les facteurs de causalité.
La méthode des centres d’analyse, ou méthode des sections homogènes, est la méthode de base
faisant apparaître des recommandations en comptabilité de gestion. Elle repose sur un découpage de
l’entreprise en centres d’analyse afin de répartir les charges indirectes.
Le centre d’analyse est défini comme « une division de l’unité comptable dans laquelle sont groupés,
préalablement à leur imputation aux coûts des produits, les éléments de charge qui ne peuvent leur
être directement affectés ».
Cette division peut correspondre à une réalité physique (ex. : un atelier de production), à une
approche fonctionnelle de l’entreprise (ex. : un centre « Approvisionnement » ou n’être qu’une
division fictive ayant pour objet de permettre le regroupement de certaines charges indirectes (ex. :
un centre « Prestations connexes »).
Le découpage de « l’unité comptable » en centres d’analyse est l’étape la plus importante de la mise
en place d’un système de calcul et d’analyse des coûts. C’est à partir de cette mise en place que les
coûts prendront toute leur pertinence.
- Les centres principaux sont des centres dont les charges sont en quasi-totalité
imputées aux coûts ;
- Les centres auxiliaires sont des centres qui cèdent leurs prestations à d’autres
centres principaux ou auxiliaires.
Les centres auxiliaires sont parfois appelés « centres de gestion », car ils n’ont pas de lien immédiat
avec les produits fabriqués mais contribuent à l’organisation interne de la firme en fournissant leurs
prestations aux autres centres.
Pour passer du coût des centres principaux au coût des produits ou des commandes, il faut
déterminer un procédé permettant la répartition de ces coûts entre les produits. Pour cela, il faut
disposer d’une unité de mesure de l’activité d’un centre donné.
Pour être représentative de l’activité du centre d’analyse, l’unité d’œuvre (ou l’assiette de frais) doit
être telle que le coût du centre varie en fonction du nombre d’unités d’œuvre (ou de la valeur de
l’assiette de frais). L’étude de cette représentativité passe le plus souvent par la recherche d’une
corrélation statistique forte entre les charges indirectes du centre et l’unité d’œuvre (ou l’assiette de
frais) retenue. Le coût de l’UO d’un centre d’analyse est égal au quotient du coût du centre par le
nombre d’UO du centre :
𝐶𝑜û𝑡 𝑑𝑢 𝑐𝑒𝑛𝑡𝑟𝑒
𝐶𝑜û𝑡 𝑈𝑂 =
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑′𝑈𝑂
De même, si l’activité du centre est mesurée à l’aide d’une unité monétaire :
𝐶𝑜û𝑡 𝑑𝑢 𝑐𝑒𝑛𝑡𝑟𝑒
𝑇𝑎𝑢𝑥 𝑑𝑒 𝑓𝑟𝑎𝑖𝑠 =
𝑉𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙 ′ 𝑎𝑠𝑠𝑖𝑒𝑡𝑡𝑒 𝑑𝑒 𝑓𝑟𝑎𝑖𝑠
Exemple : Les achats du mois de mars de l’entreprise Lachaux ont été les suivants :
- 10.000 kg de matière A à 2 $ le kg ;
- 15.000 kg de matière B à 5 $ le kg.
Les charges indirectes du centre « Approvisionnement » pour la même période se sont élevées à
5.000 $.
Hypothèse 1 : l’activité du centre « Approvisionnement » est mesurée par le nombre de kg de
matière achetés :
5.000
𝐶𝑜û𝑡 𝑈𝑂 = = 0,20 $ de charges indirectes d’approvisionnement par kg de matière acheté.
10.000+15.000
Hypothèse 2 : l’activité du centre « Approvisionnement » est mesurée par le montant des achats de
matière :
5.000
𝑇𝑎𝑢𝑥 𝑑𝑒 𝑓𝑟𝑎𝑖𝑠 = (10.000 = 0,05 $ de charges indirectes d’approvisionnement par dollar de
𝑋 2) +(15.000 𝑋 5)
matière acheté.
La répartition primaire a pour objectif de saisir l’ensemble des charges indirectes dans les différents
centres d’analyse (principaux et auxiliaires). La somme des charges regroupées dans un centre
représente le coût du centre considéré.
Du point de vue du contrôle de gestion, la répartition primaire présente un intérêt particulier, car elle
permet de contrôler les charges propres à chaque centre en termes de responsabilités. Elle doit donc
être effectuée avec la plus grande précision possible.
La répartition secondaire consiste à répartir les charges des centres auxiliaires entre les centres
principaux. La plupart du temps, les centres auxiliaires fournissent des prestations non seulement
aux centres principaux, mais également d’autres centres auxiliaires.
Dans cette hypothèse, le coût constaté de chaque centre à un certain niveau de calcul est transféré
aux suivants sans retour en arrière.
Gestion des
bâtiments
Gestion des
matériels
Prestations
connexes
Centres
principaux
On « vide » alors les centres auxiliaires en procédant selon le principe de l’« universalité
décroissante ». Les centres les plus « universels » sont ceux qui cèdent les prestations aux autres
centres sans recevoir eux-mêmes : ils doivent être déversés en premier. Ensuite, on vide chaque
centre auxiliaire à partir du moment où il a reçu la totalité de ses charges.
Le centre a fournit des prestations au centre B, qui lui-même en fournit simultanément au centre A. Il
y a plusieurs façons de résoudre ce problème. Citons-en deux :
a. La méthode algébrique
Elle se traduit par ma résolution d’un système d’équations. On procède à une mise en
équation telle que, pour n centres ayant des transferts croisés entre eux, on obtienne un
système de n équations du premier degré à n inconnues.
- L’atelier « Découpage » : A1 ;
- L’atelier « Impression carton » : A2 ;
- L’atelier « Collage conditionnement » : A3.
Les centres « Gestion du personnel » et « Gestion des moyens » ont, entre eux, des transferts
croisés.
Soit x le total à répartir du centre « Gestion du personnel » et y le total à répartir du centre « Gestion
des moyens ». Ces totaux sont égaux aux charges issues de la répartition primaire auxquelles
s’ajoutent les prestations reçues des autres centres auxiliaires. D’où le système d’équation :
𝑥 = 164.000 + 0,1𝑦
{
𝑦 = 300.000 + 0,3𝑥
Une fois la répartition secondaire effectuée, les coûts des centres principaux sont imputés aux
différents coûts constatés proportionnellement aux unités d’œuvre consommées par chaque
élément (matière, produit fini…) pour lequel un coût est calculé (coût d’achat, de production ou de
revient).
Co ûtd
d'acquisitio n Co ûts de
pro ductio n
Charges Co ût de
inco rpo rables revient
Co ûts ho rs
pro ductio n
- Coûts d’acquisition ;
- Coûts de production ;
- Coûts hors production ;
- Coûts de revient.
Le coût d’acquisition représente tout ce qu’ont coûté les marchandises et les matières mises en
stock. On parle de « coût d’achat » lorsque l’opération d’acquisition stipule un prix d’achat.
Coût d’achat des matières et marchandises achetés = Prix d’achat + Charges directes et indirectes
d’approvisionnement
Le coût de production est le coût obtenu après que le produit a subi des opérations de
transformation. Il s’obtient en additionnant :
Coût de production des produits fabriqués = Coût d’achat des matières et fournitures consommées +
Charges directes et indirectes de production
Le processus de fabrication peut comporter des stades successifs avec ou sans stockage
intermédiaire. On distingue les « produits intermédiaires » - appelés aussi « semi-finis » ou « semi-
ouvrés » -, qui sont des produits ayant atteint un stade d’achèvement mais destinés à entrer dans
une nouvelle phase du cycle de production (ex. : les portes d’armoire chez un fabricant de meubles),
des « en-cours de fabrication », qui sont les produits n’ayant pas atteint un tel stade.
Ces étapes conduisent à calculer successivement à la sortie des ateliers ou des services des coûts de
production des produits intermédiaires, puis des coûts de production des produits finis.
A côté des coûts de production, une catégorie de coûts regroupe des charges ne devant pas être
comprises dans l’évaluation des stocks et, par conséquent, ne devant pas être imputées aux coûts de
production ? Ce sont les coûts « hors production ».
Ces coûts comprennent des charges directes hors production telles que les redevances, commissions,
transports sur ventes…, qui seront affectées aux ventes concernées, et des charges indirectes hors
production.
On appelle « coût de revient » le coût complet d’un produit au stade final, coûts hors production
inclus. Le concept ne concerne que les produits vendus, c’est-à-dire sortis des stocks de produits,
puisqu’il s’agit du coût complet au stade ultime.
Coût de revient = Coût de production des produits vendus + Coût hors production
Un des objectifs des calculs en coût complet est d’évaluer la contribution de chacun des produits à la
formation du résultat de l’entreprise ; à cet effet, pour chaque produit, on calcule le résultat
analytique en tant que différence entre son chiffre d’affaires et son coût de revient :
- La profitabilité du produit :
𝑅é𝑠𝑢𝑙𝑡𝑎𝑡 𝑝𝑎𝑟 𝑝𝑟𝑜𝑑𝑢𝑖𝑡
𝐶ℎ𝑖𝑓𝑓𝑟𝑒 𝑑′𝑎𝑓𝑓𝑎𝑖𝑟𝑒𝑠
Certaines divergences pouvant exister entre les charges de la comptabilité financière et les éléments
incorporés aux calculs de coûts en comptabilité de gestion, il s’avère nécessaire d’effectuer un
contrôle de cohérence entre ces deux comptabilités. A l’issue de ce contrôle, le résultat de la
comptabilité de gestion doit être identique au résultat de la comptabilité financière :
Le tableau ci-dessous résume les retraitements à effectuer pour faire concorder comptabilité de
gestion et comptabilité financière :
Retraitements à effectuer
Eléments Incidence sur les résultats Signe de la différence de traitement
analytiques comptable
Charges non Majoration -
incorporables
Eléments supplétifs Minoration +
Mali (SF réel < SF Majoration -
théorique)
Boni (SF réel > SF Minoration +
théorique)
Produits non incorporés Minoration +
En fin d’une période de calcul, il arrive souvent que certaines productions (ou certains services) ne
soient pas achevées en totalité.
L’en-cours initial représente les produits dont la production a commencé mais ne s’est pas achevée
au cours de la période précédente.
L’en-cours final représente les produits dont la production a commencé au cours de la période
considérée et non achevés à la fin de cette dernière.
Coût de production des produits achevés = Charges de production de la période + En-cours initiaux –
En-cours en fin de période
Exemple : Pendant le mois de mai, l’entreprise Lambda a terminé 1.500 objets. Le total des charges
de production de la période a été de 160.000 $. Au début du mois, il n’y avait aucun en-cours sur les
lignes de fabrication, mais en fin de mois, il subsiste 200 objets inachevés. Chaque en-cours peut-être
valorisé à 50 $.
Le coût de production des objets terminés est alors de : 160.000 – (50 x 200) = 150.000 $.
L’évaluation des en-cours est toujours délicate et peut d’effectuer selon différents procédés de
valorisation.
Elle est utilisée chaque fois qu’il est possible de rassembler tous les renseignements nécessaires,
notamment lorsqu’une fiche de coût est disponible (ex. : pour une commande en cours), sur laquelle
sont inscrits tous les éléments de coûts (matières, main-d’œuvre, nombre d’unités d’œuvre).
Elle consiste à évaluer approximativement ce qui a été consommé pour produire les en-cours pour
chaque composante du coût.
- La totalité des matières (si les matières sont injectées au début du cycle de
production ;
- 1/3 de la main-d’œuvre ;
- La moitié des charges du centre d’analyse.
Elle se pratique en définissant un rapport global entre les en-cours et les produits finis ; x en-cours =
y produits finis.
Exemple : Au cours d’une période, on a fabriqué 6.2000 pièces dont 200 sont terminées
approximativement au quart. Les coûts de la période sont de 1.210.000 $. Evaluons les en-cours : On
a fabriqué (6.000 200/4) = 6.050 équivalents produits finis.
Donc, les 200 en-cours seront évalués à : 200 x 50 = 10.000 $. Les 6.000 produits finis valent
1.200.000 $.
Lorsque l’entreprise utilise des coûts préétablis, elle peut, naturellement valoriser les en-cours en
fonction de ces coûts.
Ce sont des produits secondaires obtenus au cours de la fabrication d’un produit principal. Ces
produits sont toujours utilisables.
En général, on les traite comme des produits finis et on calcule leur coût de production. Le coût initial
avant traitement complémentaire est à déduire du coût de fabrication du produit principal mais il
peut, là encore, y avoir des problèmes d’évaluation. Si l’on n’est pas en mesure de faire un calcul
exact, on pourra procéder selon l’une des façons suivantes.
Le poids des produits obtenus, le pourcentage des produits obtenus (x% de sous-produits), le
nombre de produits fabriqués.
b. L’évaluation à partir de la valeur vénale
Le comptable effectue le raisonnement « à rebours » en partant du prix de vente pour
reconstituer un coût de revient et un coût de production.
Ces méthodes sont fondées sur l’idée que l’on peut évaluer une production constituée de plusieurs
articles en fonction d’un unique article de référence.
Cette méthode est très intéressante pour les entreprises dont la fabrication est composée d’articles
« modulaires », comme les fabricants de cuisines intégrés : dans ce type de fabrication, tous les
éléments peuvent être considérés comme des multiples d’un module de base standard.
Si l’on met à part le cas des fabrications modulaires, la principale difficulté de la méthode consiste à
déterminer des coefficients d’équivalence rigoureux. Cette condition est indispensable pour que
l’analyse des coûts garde sa validité.
Exemple : L’entreprise Theta fabrique trois produits (P1, P2 et P3). Elle estime que ces produits
peuvent être évalués en fonction d’un « article étalon E » de la façon suivante :
- P1 = 2E ;
- P2 = 1,5E ;
- P3 = 4E.
La production constante ayant été de 1.000P1, 100P2 et 500P3, on pourra l’évaluer ainsi en articles
étalons : (1.000 x 2) + (100 x 1,5) + (500 x 4) = 4.150 E.
APPLICATION
Au début de l’année N-2 naissait la Société des Applications Mécaniques (SAM° ; Son Objet social,
défini dans les statuts ; était « la fabrication et la diffusion d’ensembles modulaires de rangement ».
Les deux seuls produits fabriqués actuellement, MOD 2 et MOD 3, permettent, par les multiples
combinaisons qu’ils offrent, de constituer des moyens de stockage commodes et robustes pour des
usages très variés (pièces détachées dans les magasins, supports magnétiques dans les centres
informatiques, archives, etc.). Ceux deux articles ont été bien accueillis par le marché et la demande
a augmenté d’une façon régulière ; divers contacts avec l’étranger laissent espérer d’intéressantes
possibilités d’exportation.
Compte tenu des développements prévus et pour obtenir les informations leur permettant de
maîtriser la croissance de leur entreprise, les dirigeants ont décidé, sur les conseils d’amis, d’ouvrir
une comptabilité de gestion à partir du 1er janvier N. Celle-ci est organisée pour fournir des coûts et
coûts de revient complets par la méthode des centres d’analyse.
M.C. : Alors, Jean-Claude, les résultats de janvier fournis par la comptabilité de gestion sont-ils
convenables ? Avais-je raison d’affirmer que les MOD 3 étaient plus rentables que les MOD 2 ?
J.-C. D. : Il m’est bien difficile de vous répondre… Certes, pour la première fois, nous connaissons le
coût de revient de nos deux produits, mais je me demande si cette méthode des centres que nous
venons d’adopter nous permettra de résoudre tous nos problèmes… Oh ! Rassurez-vous, les résultats
sont confortables et nous pouvons nous en féliciter ; mais ils seraient sans doute meilleurs si
l’exploitation de MOD 3 n’était pas déficitaire.
M. C. : MOD 3 est déficitaire ? C’est impossible, je connais trop bien le marché… et le produit.
J.-C. D. : Les résultats ne laissent pourtant aucun doute à ce sujet ; le bénéfice provisoire de MOD 2,
dont le coût de revient est de 64 $ pour un prix de vente de 80 $. MOD 3, qui est vendu 94 $, nous
coûte réellement 96,40 $.
M.C. : Je n’y crois pas… il doit y avoir une erreur quelque part. Avez-vous contrôlé tous vos calculs ?
J.-C. D. : Tous les stocks sont tenus régulièrement au coût moyen pondéré en fin de période.
M. C. : Alors, d’où cette anomalie peut-elle provenir ? La répartition des charges indirectes paraît
rationnelle, celle des centres auxiliaires également. Peut-être le choix des unités d’œuvre n’est-il pas
convenable ? Il est en effet curieux d’avoir choisi l’heure de main-d’œuvre directe pour l’atelier 1 et
l’heure-machine pour l’atelier 2. J’aurais volontiers fait le choix inverse ; dans l’atelier 1, tout est
mécanisé ; en revanche, dans l’atelier 2, les opérations d’ébarbage, de ponçage, de peinture
requièrent beaucoup de main-d’œuvre. Refaites donc les calculs en changeant les unités d’œuvre.
Par ailleurs, la méthode de valorisation des sorties de stock au coût moyen pondéré est-elle
justifiée ? En cette période d’inflation, ne serait-il pas préférable d’utiliser la méthode DEPS ?
Réfléchissez-y, nous en reparlerons.
g. Autres renseignements
Les charges indirectes enregistrées et communiquées par la comptabilité financière s’élèvent
à 115.200 $, dont 3.040 $ concernant une dotation aux dépréciations non incorporables.
Tenant compte de 10.000 $ de charges supplétives, on a réparti les charges indirectes de la
façon suivante (répartition primaire, en $) :
h. Production du mois 2.420 modules MOD 2 et 860 modules MDO 3 ont été complètement
fabriqués.
i. Ventes du mois
- 3.200 modules MOD 2 à 80 $ pièce
- 1.152 modules MOD 3 à 94 $ pièce.
1. Retrouvez les coûts de revient annoncés par Jean-Claude Delage pour les produits MOD 2 et
MOD 3. Quel est le résultat du mois de janvier N tel qu’il a été déterminé par la comptabilité
de gestion ?
N.B. : les différentes étapes de ce calcul seront présentées sous forme de tableaux.
2. Que vous suggère la comparaison entre la valeur comptable des stocks (inventaires
permanents) et leur valeur réelle ?
3. Présentez le compte « Résultat » à la fin janvier N et rapprochez-en le solde du résultat
obtenu en comptabilité de gestion.
4. Quels seraient les coûts de revient si l’unité d’œuvre de l’atelier 1 était l’heure-machine et
celle de l’atelier 2, l’heure de main-d’œuvre directe ? Ne présentez pas le calcul complet des
coûts de revient ; tenez compte seulement des modifications résultant du changement
d’unité d’œuvre.
5. A partir des résultats obtenus, portez un jugement sur la méthode des centres d’analyse
utilisée par la SAM. Indiquez son intérêt et les risques qu’elle peut faire encourir.
6. M. Cinquin suggère d’utiliser la méthode DEPS pour valoriser les sorties de stocks. A-t-il
raison ? Quelle serait l’incidence sur les résultats de l’adoption de cette méthode ?
Annexe
Les deux types de modules MOD 2 et MOD 3 sont fabriqués dans un premier atelier
(découpage, soudure, montage) très mécanisé, à partir de deux matières premières : tôles et
profilés d’acier. Ils sont ensuite ébarbés, polis et peints dans un second atelier. Tout module
terminé dans le premier atelier est aussitôt transféré dans le second.
Pour le calcul des coûts et coûts de revient, l’activité de l’entreprise a été répartie entre six
centres :
- Deux centres auxiliaires : « Entretien » et « Energie » ;
- Quatre centres principaux : « Approvisionnement », « Atelier 1 », « Atelier 2 » et
« Distribution ».
Les systèmes traditionnels de comptabilité de gestion sont entrés, depuis le début des années 1980,
dans une crise profonde liée à l’évolution des techniques et des modes d’organisation. Une solution
semble se dégager dans beaucoup de grandes entreprises : l’Activity Based Costing (ABC), appelée en
français « comptabilité à base d’activités ». Née à la fin des années 1980, la méthode ABC s’impose
progressivement, car il s’agit bien d’une approche cohérente avec les évolutions de l’organisation de
la production.
Sous sa forme contemporaine, la comptabilité de gestion a été élaborée dans l’industrie américaine
par des praticiens au début du XXè siècle. La méthode des centres d’analyse a, elle, été mise au point
en France dans l’entre-deux-guerres. L’emploi de cette méthode s’est peu à peu généralisée à partir
de son adoption par le plan comptable général, jusqu’à devenir le procédé essentiel de la
comptabilité de gestion.
Cela s’explique en grande partie par le fait que la méthode des centres d’analyse était très bien
adaptée aux besoins, compte tenu des moyens de traitement disponibles et des techniques de
production en usage. Cela s’est toutefois révélé moins vrai à la fin du XXè siècle. Contrairement aux
plans précédents, le plan comptable général actuel laisse la porte ouverte à toutes les solutions.
Cette évolution se remarque sur plusieurs plans : celui des moyens de traitement, celui des
technologies de production, celui des modes d’organisation, celui de l’émergence de nouveaux types
de rapports sociaux et aussi celui des nouvelles demandes qui s’adressent à la comptabilité de
gestion.
L’informatisation des ateliers se généralise et permet une collecte des données directement à la
source. Le cycle collecte – traitement – retour devient de plus en plus rapide et automatique,
permettant une plus grande réactivité et une finesse d’analyse accrue.
Les systèmes de comptabilité de gestion traditionnels sont incapables de prendre en compte les
modifications intervenues dans l’organisation industrielle : juste-à-temps, contrôle total de la qualité,
groupes autonomes, etc.
Avec le juste-à-temps, notamment, les clients commandent souvent des quantités plus faibles de
produits plus différenciés. Or, les systèmes classiques de comptabilité de gestion ne permettent pas
une prise en compte différenciée ; les temps de réglage et de préparation font généralement partie
des coûts indirects réparties sur la base d’une unité d’œuvre (souvent le temps de main-d’œuvre
directe) peu représentative du mode de consommation des charges.
Un produit coûte déjà ce qu’il faut acheter pour le fabriquer (les matières, les composants…), qui
constituent les charges directes. Mais quelle part des charges indirectes (le chauffage de l’usine, la
paie du directeur, le travail du bureau d’études…) faut-il imputer à chaque produit ?
Jusque dans les années 1960, ces questions n’avaient pas une importance fondamentale car o,
contrôlait l’essentiel des coûts lorsqu’on avait additionné celui de la main-d’œuvre directe aux
matières premières utilisées.
Aujourd’hui, la part des charges directes tend à se réduire. A titre d’exemple, dans un atelier flexible
robotisé, seules les consommations de matières peuvent réellement être considérées comme
directes. De façon identique, l’activité de production stricto sensu perd de son poids au profit des
activités de support de la production, qui tendent à devenir prépondérantes (recherche, études et
méthodes, contrôle qualité, etc.).
D’une façon plus générale, on constate que, dans l’industrie, la main-d’œuvre directe ne représente
plus qu’entre 10% et 15% des charges. Il est donc légitime dans ces conditions, de se demander si les
calculs traditionnels gardent une signification, et c’est bien l’objet de la reconstruction qui est en
cours.
Une activité est définie comme un ensemble de tâches coordonnées permettant de fournir un
extrant cohérent et significatif à partir d’un panier de ressources (matières, énergie, main-d’œuvre,
etc.).
Un processus est constitué par une chaîne d’activités répondant à un objectif commun. Il s’agit donc
d’un enchaînement d’activités ayant pour objet de délivrer un produit, un service ou une
information.
Les processus sont transversaux. Ils comprennent un ensemble d’activités réalisées au sein de
plusieurs fonctions ou services de l’entreprise. L’analyse des processus met en évidence l’articulation
des activités et la contribution de chaque activité à la création de valeur.
Dans un système de comptabilité par activités, le principe de calcul du coût des produits repose sur
l’idée que les activités consomment les ressources (matières, main-d’œuvre, autres charges…) et que
les produits consomment des activités. Dès lors, la maîtrise des coûts des produits repose sur la
maîtrise des coûts des activités.
Le coût des acticités dépend de divers facteurs appelés « inducteurs », sur lesquels le gestionnaire
peut être amené à agir :
Une fois les coûts des activités déterminés, il faut, à l’instar de la méthode des centres d’analyse,
répartir ceux-ci entre les différents objets de coûts, proportionnellement au volume d’inducteur
consommé.
Les activités retenues sont celles qui sont créatrices de valeur. Il est nécessaire de les recenser et de
les décrire. Il faut également trouver un compromis entre la finesse du découpage souhaité et la
simplicité de la structure du système d’information. Des regroupements sont obligatoires, sous peine
de transformer ce dernier en « usine à gaz ».
Il faut déterminer, pour chacune des activités retenues, selon quel processus les ressources sont
consommées, c’est-à-dire identifier les inducteurs correspondants. Certains inducteurs sont non
volumiques, c’est-à-dire que le coût des activités qui en dépendent n’est pas lié au volume de
production ; l’existence de tels inducteurs a pour conséquence de majorer les coûts de revient de
produits fabriqués en petites quantités.
Les ensembles d’activités expliquées par un même inducteur sont nommés « centres de
regroupement ». Le coût unitaire de l’inducteur peut alors être déterminé de la façon suivante :
𝐶𝑜û𝑡 𝑑𝑒 𝑙 ′ 𝑎𝑐𝑡𝑖𝑣𝑖𝑡é 𝑜𝑢 𝑑𝑢 𝑐𝑒𝑛𝑡𝑟𝑒 𝑑𝑒 𝑟𝑒𝑔𝑟𝑜𝑢𝑝𝑒𝑚𝑒𝑛𝑡
𝐶𝑜û𝑡 𝑑𝑒 𝑙′𝑖𝑛𝑑𝑢𝑐𝑡𝑒𝑢𝑟 =
𝑉𝑜𝑙𝑢𝑚𝑒 𝑑𝑒 𝑙′𝑖𝑛𝑑𝑢𝑐𝑡𝑒𝑢𝑟
Certaines activités générales de support regroupent des coûts non traçables par rapport aux produits
(ex. : les services administratifs). Si l’on tient cependant à obtenir des coûts complets, il faut définir
un inducteur arbitraire (tel que, par exemple, la valeur ajoutée créée, souvent appelée coût ajouté).
Cette part devrait logiquement être réduite au minimum.
a. Enoncé
La société Euract fabrique deux produits X et Y dans un atelier unique. Les données du mois de
septembre sont les suivants :
Coûts :
1. Sachant que les charges indirectes sont réparties en fonction du temps d’usinage, qui est de
6 minutes de main-d’œuvre pour X et de 30 minutes pour Y, calculer le résultat par produit
et le résultat global de l’entreprise en utilisant la méthode des centre d’analyse.
Une analyse du centre « Atelier » permet de constater qu’il existe deux activités différentes :
- Une activité à caractère manuel, où interviennent des opérateurs qualifiés. Le
coût en a été évalués à 60.000 $ ;
- Une activité automatisée, dont le coût a été évalué à 90.000 $. Les temps de
passage sur machine sont de 10 minutes pour X et de 2 minutes pour Y.
L’inducteur de l’activité manuelle est l’heure de main-d’œuvre directe (MOD).
L’inducteur de l’activité
Inducteurs Heure de MOD Heure-machine automatisée est l’heure-
machine.
Activités 2. Calculer le résultat
Activité manuelle 60.000 par produit et le résultat
Activité automatisée 90.000
global en comptabilité
Volume de l’inducteur 600 [(1.000 x 10) + (1.000 x 2)]/60 = 200
par activité.
Coût de l’inducteur 100 450
Commenter.
b. Solution
L’idée centrale de la méthode ABC est qu’il est possible de rattacher une grande partie des charges
indirectes à des causes précises. Les charges reliées à une cause spécifique sont dites « traçables »
(cet anglicisme, consacré par les référentiels, signifie que ces charges peuvent être suivies à la trace).
L’expérience montre que si le découpage par activités est correctement mené (mise en place d’une
nomenclature d’activités par produit) dans une entreprise où 30% environ des charges sont directes,
on constate que 70% à 80% des charges sont traçables, c’est-à-dire que les causes de ces charges
sont identifiables.
Le terme très général d’ « inducteur » que nous avons utilisé tout au long de ce chapitre peut être
affiné en distinguant différents types d’inducteurs : les inducteurs de coûts, d’activités ou de
ressources. La terminologie utilisée par les différents auteurs étant fluctuante, voire
malheureusement contradictoire, il nous semble fondamental, au-delà de ces divergences
terminologiques, de mettre en évidence le fait qu’un inducteur correspond toujours à une causalité :
les inducteurs représentent les facteurs explicatifs soit du déclenchement de l’activité (inducteur
d’activité), soit du coût de cette activité (inducteur de coût). A contrario, le choix d’unités d’œuvre le
plus souvent retenues par la méthode des centres d’analyse ne repose, le plus souvent, que sur la
recherche d’une bonne corrélation au sens statistique du terme.
Alors que la méthode des centres d’analyse repose sur une approche fonctionnelle de l’entreprise, la
méthode ABC, par l’approche en termes de processus, consacre une vision transversale de
l’entreprise. Cette dernière approche rend d’ailleurs caduc le calcul de coûts d’achat, puis de coûts
de production, les charges indirectes n’étant plus ventilées par fonctions mais par activités qui
peuvent être communes à plusieurs fonctions.
La mise en place d’une comptabilité à base d’activités permet de diminuer les phénomènes de
subventionnement entre produits, c’est-à-dire l’imputation non justifiée de charges indirectes sur un
produit au profit d’un autre. A titre d’exemple, des charges sont engagées à chaque lancement en
production d’une série et ce, indépendamment de la taille de la série (réglage ou entretien préventif
des machines, ordonnancement de la production…) ; la non-prise en compte de ce phénomène
aboutit à ce que les grandes séries subventionnent les petites. De même, un petit consommateur
d’une activité non intégrée au système de calcul de coûts subventionne les gros consommateurs de
cette activité.
CHAPITRE 6 : COUTS ET DECISIONS DE GESTION
Les calculs effectués en coûts complets sont rarement suffisants pour prendre certaines décisions de
gestion (abandon de produit, modification des prix…) du fait de :
Ainsi vaut-il mieux recourir à des méthodes de calcul de coûts partiels qui n’intègrent qu’une part
bien définie des charges totales, plutôt que de calculer des coûts complets.
6.1. Le coût variable
L’étude du comportement des charges nous montre que le coût de revient complet d’un
produit peut être analysé en :
- Une partie fixe, correspondant essentiellement aux coûts de structure,
indépendamment de l’activité de l’entreprise ;
- Une partie variable, proportionnelle à l’activité de l’entreprise (mesurée le plus
souvent par son chiffre d’affaires).
Cette partition du coût total donne naissance à un autre type d’analyse des coûts :
Il faut tout d’abord analyser les charges et séparer les charges fixes des charges variables
en fonction de leur mode de variation par rapport au chiffre d’affaires.
Dans certaines entreprises, et notamment les entreprises commerciales, les proportions de charges
variables est très importante. La méthode du coût variable y est alors tout à fait pertinente.
Exemple : L’entreprise Gamma fabrique deux produits, P1 et P2 qui ont des coûts variables
unitaires respectifs de 20 $ et 34 $, et des prix de vente de 28 $ et 55 $. Les charges fixes
s’élèvent à 28.000 $. Les ventes se sont élevées à 1.800 P1 et 600 P2.
Dressons le compte de résultat différentiel (en $).
Suite de l’exemple
Une étude de marché a permis de déterminer les élasticités suivantes :
- Élasticité de la demande de P2 par rapport au prix de P2 : -1,5 ;
- Elasticité croisée de la demande de P1 par rapport au prix de P2 : +2.
- Hausse de 1,5 x 10% = + 15% des ventes en volume de P2 (soit 690 unités) ;
- Baisse de 2 x 10% = - 20% des ventes en volume de P1 (soit 1.440 unités).
Suite de l’exemple
La fabrication d’un P2 consomme 4 heures de main-d’œuvre spécialisée et celle d’un P1
consomme 2 heures de cette même main-d’œuvre.
Dans la situation initiale, la main-d’œuvre spécialisée était en plein-emploi ; les autres
ressources sont disponibles en quantités illimitées.
En faisant abstraction des contraintes de marché, l’abandon de P1 permettrait de fabriquer :
1.800/2 = 900 P2supplémentaires, soit 900 + 600 = 1.500 P2.
D’où le nouveau résultat :
P2
CA 1.500 X 5 = 82.500
- Charges variables 1.500 x 34 = 51.000
=Marge/CV 31.500
- Charges fixes 28.000
= Résultat 3.500
6.1.2.5. La recherche de la composition optimale des ventes avec un seul facteur de production
rare
Toute production résulte de la combinaison de divers facteurs de production tels les
matières, la main-d’œuvre ou les machines. Lorsqu’il existe un seul facteur rare, c’est-à-
dire un facteur de production pour lequel les quantités disponibles pour l’entreprise sont
limités, la composition optimale des ventes se détermine comme suit :
- Calcul pour chacun des produits de la marge sur coût variable par unité de
facteur rare :
𝑀𝑎𝑟𝑔𝑒 𝑠𝑢𝑟 𝑐𝑜û𝑡 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑢𝑛𝑖𝑡𝑎𝑖𝑟𝑒 𝑑𝑢 𝑝𝑟𝑜𝑑𝑢𝑖𝑡
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑′ 𝑢𝑛𝑖𝑡é𝑠𝑑𝑒 𝑓𝑎𝑐𝑡𝑒𝑢𝑟 𝑟𝑎𝑟𝑒 𝑛é𝑐𝑒𝑠𝑠𝑎𝑖𝑟𝑒𝑠 à 𝑠𝑎 𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑖𝑜𝑛
- Saturation des marchés des produits dans l’ordre décroissant des marges par
unité de facteur rare, jusqu’à l’épuisement dudit facteur.
Suite de l’exemple
Le marché de P1 est limité à 2.000 unités, celui de P2 à 1.200 unités. Calcul des marges sur coût
variable par heure de main-d’œuvre (sur la base de prix de vente respectifs pour P1 et P2 de 28 $ et
55 $) :
La combinaison productive optimale, compte tenu d’un volume disponible de 6.000 heures de main-
d’œuvre, est la suivante (en $) :
600 P1 1.200 P2 Total
CA 16.800 66.000 82.800
- Charges variables 12.000 40.800 52.800
=Marge/CV 4.800 25.200 30.000
- Charges fixes 28.000
= Résultat +2.000
Lorsqu’il y a une seule ressource rare, cette méthode est souvent la plus rapide pour résoudre ce
type de problèmes.
La façon la plus simple de déterminer si un coût est spécifique à un produit ou une activité consiste à
répondre à la question suivante : ce coût serait-il supprimé si l’on abandonnait le produit ou
l’activité ?
L’application de la méthode nécessite donc d’être capable de séparer les charges fixes spécifiques
des charges fixes communes.
Elle conduit à dégager une « marge sur coûts spécifiques », appelée aussi « contribution. Le plus
souvent, ce calcul s’effectue au niveau des différentes activités ou des différents centres de
responsabilité au sein de l’entreprise.
Le coût spécifique n’est donc pas un coût complet, mais il en est très proche, car l’écart concerne
uniquement la part des charges de structure que l’on estime arbitraire ou inutile de répartir entre les
différentes activités.
La formation de la marge sur coût spécifique peut être présentée sous la forme du tableau suivant :
La modélisation des charges a mis en évidence le fait que les coûts fixes unitaires varient
avec le niveau d’activité. Ce phénomène rend l’interprétation des coûts de revient complets
délicate lors d’importantes variations d’activité.
Cette méthode de calcul des coûts reprend donc les principes généraux de calcul des coûts
complets en modifiant simplement le traitement des charges de structure. Elle consiste à
incorporer dans les coûts, non pas le montant réel des charges de structure, mais un
montant proportionnel à l’activité constatée d’un centre ou de l’entreprise entière.
Il faut, pour cela, définir le niveau normal d’activité de l’entreprise ou du centre concerné et
calculer un coefficient dit « coefficient d’imputation rationnelle », égal au rapport entre
l’activité réelle et l’activité normale.
𝐴𝑐𝑡𝑖𝑣𝑖𝑡é 𝑐𝑜𝑛𝑠𝑡𝑎𝑡é𝑒
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝑑′ 𝑖𝑚𝑝𝑢𝑡𝑎𝑡𝑖𝑜𝑛𝑟𝑎𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 =
𝐴𝑐𝑡𝑖𝑣𝑖𝑡é 𝑛𝑜𝑟𝑚𝑎𝑙𝑒
Exemple : La société Nintex fabrique des consoles de jeux vendue 160 $ l’unité. Elle a évalué
sa production normale à 10.00 consoles par mois, pour un coût de 800.000 $, dont 500.000 $
de charges de structure.
Les données observées relatives aux mois de mars et novembre sont résumées dans le
tableau ci-dessous (montant exprimés en $) :
L’imputation rationnelle permet d’analyser les résultats réalisés afin de déterminer l’incidence de
production sur ceux-ci :
Mois Mars Novembre
Production (nombre de consoles) 8.000 16.000
Charges variables 220.000 524.000
Charges fixes 500.000 500.000
Coût total 720.000 1.024.000
Chiffre d’affaires 1.280.000 2.560.000
(8.000 x 160) (16.000 x160)
Résultat +560.000 +1.536.000
Résultat unitaire +70 +96
Mois Mars Novembre
Production (novembre de consoles) 8.000 16.000
Coefficient d’imputation rationnelle 8.000/10.000 = 0,80 16.000/10.000 = 1.60
Charges variables 220.000 524.000
Charges fixes imputées 400.000 800.000
(550.000 x 0,80) (500.000 x 1,60)
Coût total avec imputation rationnelle 620.000 1.324.000
Chiffre d’affaires 1.280.000 2.560.000
(8.000 x160) (16.000 x160)
Résultat avec imputation rationnelle +660.000 +1.236.000
Résultat unitaire avec imputation rationnelle +82,50 +77,25
Différence d’imputation 500.000 – 400.000 = 100.000 500.000 – 800.000 = -300.000
(coût du chômage) (boni de suractivité)
En éliminant l’incidence du niveau d’activité, il apparaît que le résultat unitaire du mois de mars
(82,5$) a été supérieur à celui obtenu en novembre (77,25 $). Le bon résultat total du mois de
novembre est, pour une grande partie, dû au surplus de production réalisé au cours de ce mois.
Le résultat unitaire avec imputation rationnelle des mois de mars et de novembre n’est différent
qu’en raison du montant différent du coût variable unitaire (27,50 $ en mars contre 32,75 $ en
novembre) et n’est plus affecté par la répartition des charges de structure sur un volume de
production plus ou moins élevé.
6.4. Le coût marginal
6.4.1. Définitions
Le coût marginal est la différence entre l’ensemble des charges courantes nécessaires à une
production donnée et l’ensemble de celles qui sont nécessaires à cette même production
majorée ou minorée d’une unité.
Le coût marginal n’est donc pas un coût constaté en comptabilité, mais un coût estimé.
En pratique, on constate que beaucoup de produits sont fabriques par séries ou par lots. Il
est alors irréaliste d’essayer d’isoler le coût de’ « unité marginale » ; seule la détermination
du coût de la dernière série produite est possible. Beaucoup d’auteurs utilisent l’expression
de « coût différentiel » pour distinguer le coût d’une série supplémentaire du véritable coût
marginal.
A partir du coût de la dernière série, il est possible de calculer un coût marginal unitaire (ou
coût différentiel unitaire) en divisant le coût « marginal » (ou différentiel) de la série par le
nombre d’unités de la série.
Pour cela, il faut souvent procéder à des simulations en distinguant des tranches
successives. Si les tranches successives sont suffisamment resserrées, il sera possible
d’utiliser, à l’intérieur de chaque tranche, un modèle simple de comportement des
charges. A l’intérieur de limites assez étroites, on peut en effet considérer que les
charges de structure sont fixes et les charges opérationnelles proportionnelles.
Ainsi, à l’intérieur de chaque tranche, le coût marginal est égal au coût proportionnel
puis, au passage d’une tranche à l’autre, il augmente ou diminue de la différence des
charges de structure.
6.4.2.2. A partir de données constatées
Le coût marginal est alors déterminé à partir de l’analyse statistique des coûts constatés
dans le passé.
L’ajustement statistique du nuage obtenu permet d’obtenir une courbe représentative
de la fonction « coût/volume ».
Lorsque les quantités s’accroissent d’une fraction ∆Q, le coût total de ∆C et dévient : C +
∆C.
On peut alors élargir la définition et considérer que le coût marginal est égal à la
variation du coût entraînée par une variation de la production. Lorsque ∆Q tend vers
zéro, le coût marginal est représenté par la dérivée du coût total.
L’optimum technique correspond aux quantités produites qui minimisent le coût moyen.
Mathématiquement, on peut démonter qu’au niveau de production correspondant à
l’optimum technique, le coût moyen est égal au coût marginal.
A titre d’exemple, ce type de raisonnement peut être utilisé dans le cadre d’une
négociation par les clients d’un tarif préférentiel. En dehors de toute autre considération,
un tarif préférentiel portant sur une commande additionnelle peut être accordé tant que
le prix de vente préférentiel reste supérieur au coût marginal, c’est-à-dire au coût
variable unitaire et dans la mesure où ce supplément éventuel de production n’entraîne
pas d’accroissement des charges de structure.
Les systèmes de planification et de contrôle ont pour rôle spécifique d’aider l’entreprise dans sa
tentative de maîtrise du futur et sont, pr définition, entièrement tournés vers l’avenir.
Un système de contrôle de gestion pourra être considéré comme pertinent s’il intègre dans
l’élaboration de sa structure deux objectifs essentiels :
Ainsi, le contrôle de gestion apparaît comme l’un des moyens permettant d’améliorer le
fonctionnement de l’organisation. La planification et le contrôle ne s’effectuent toutefois pas de
façon automatique ; ils obligent à la mise en place d’un système permettant l’utilisation de
l’information et la prise de décision.
Ce système nécessite :
Planification stratégique
- Un plan stratégique, dans le cadre duquel seront examinées les grandes options
de la firme ;
- Un plan opérationnel à plus court terme, correspondant à la programmation des
moyens nécessaires à la réalisation des objectifs stratégiques choisis lors de
l’élaboration du plan stratégique ;
- Un processus de mesure et de contrôle des résultats, permettant de rapprocher
les résultats réels des résultats escomptés, de prendre les décisions correctives
pour atteindre les objectifs, voire de remettre en cause les objectifs fixés.
Objectifs
Réalisati
ons
Décisions correctives
Les activités représentées ici sont, le plus souvent, confiées à deux types de responsables : les
planificateurs, d’une part, et les contrôleurs de gestion, d’autre part.
Si ces termes sont à peu près synonymes dans le langage courant, nous allons les différencier ici et
les hiérarchiser pour bien mettre en évidence les étapes du processus de fixation des objectifs. C’est
cette hiérarchisation dans la définition des buts de l’organisation qui permettra de s’assurer avec
certitude de la cohérence globale.
a. La finalité
On entend par « finalité » d’une organisation le système de valeurs qu’elle se donne à elle-
même. Toute organisation cherche à réaliser sa (ou ses) finalité(s).
Pour l’entreprise, en particulier, plusieurs conceptions de la finalité sont possibles. On peut
estimer :
- Soit que l’entreprise poursuit uniquement des fins qui lui sont propres,
- Soit, au contraire, que les fins de l’entreprise lui sont assignées par le système
économique.
Ces deux conceptions de la finalité sont contradictoires, mais on pourrait tout aussi bien
considérer qu’elles s’appliquent à des entreprises différentes (entreprises capitalistes,
coopératives, entreprises publiques). On pourrait aussi admettre une définition plus large : la
finalité première de toute entreprise est de créer des richesses en harmonie avec les désirs
de ses actionnaires/dirigeants et avec ceux de la société qui l’entoure.
La finalité ne sera pas identique pour des entreprises différentes : elle dépendra, avant tout,
du système de valeurs des dirigeants, des contraintes liées à l’environnement et de la nature
de l’activité de l’organisation.
b. Les buts
La mise en évidence de la finalité va se traduire concrètement par la définition de buts ou
« objectifs généraux », comme les appelait I. Ansoff dans sa stratégie du développement de
l’entreprise. Les buts sont exprimés en termes qualitatifs.
Ils sont, par nature, arbitraires et discutables. C’est l’essence du rôle de dirigeant que de les
exprimer, sans qu’il soit possible, le plus souvent, d’en démontrer totalement le bien-fondé.
c. Les objectifs
Le caractère qualitatif des buts ne les rend pas directement propres à la prise de décision. On
est donc amené à trouver une expression quantifiée des buts. Ce seront les objectifs.
Ainsi, on considérera que la maîtrise du marché sera atteinte si l’entreprise en détient plus de
50%.
La quantification se fait parfois sans difficulté, mais, souvent, on est obligé de recourir à des
artifices plus ou moins satisfaisants, en particulier parce qu’il n’existe pas de norme
quantifiée de l’objectif poursuivi.
La maîtrise du marché sera-t-elle considérée comme atteinte avec 25%, 50% ou 75% des
ventes ?
Là encore, la traduction des buts en objectifs est initiée par les dirigeants. Ces étapes sont
hiérarchisées en fonction du temps :
Finalité
Buts
Moyen terme
Objectifs
Il s’agit d’une phase qualitative qui n’est pas emprisonnée dans un processus rigide. C’est la
planification du changement, c’est-à-dire qu’elle se propose de choisir les orientations
majeures de l’entreprise dans une perspective de longue durée permettant d’assurer son
développement et sa pérennité. Ces orientations déterminantes relèvent bien évidemment
de la direction générale.
b. La planification opérationnelle
C’est la phase quantitative qui consiste en la préparation du plan à moyen et long termes
(un, trois à cinq ans). Cette préparation implique :
- Ma programmation des actions à mettre en œuvre et des moyens nécessaires,
dont la réalisation dépasse le cadre annuel pour chacun des secteurs, ainsi que
l’élaboration de plans d’action associés (ex. : plan d’investissement et de
financement, plan RH, etc.) ;
- La mesure de l’évolution des grands équilibres de l’entreprise année par année,
ce qui permet de vérifier la validité des stratégies retenues.
Le plan d’ensemble sera constitué par la synthèse de tous ces éléments. Un plan doit être
volontariste : une simple extrapolation du passé correspond au degré zéro de la prévision et
de la volonté d’agir et ne doit être considérée que comme la base de référence à partir de
laquelle le processus de changement peut être mis en place.
Notons également que tout plan a une durée formelle, mais qu’un plan pluriannuel peut
rarement être conservé dans son intégralité et sans aucune modification pendant toute la
durée prévue. En réalité, les responsables sont amenés à prendre de nouvelles décisions
pour réagir aux événements.
Pour maintenir la cohérence, il est courant d’établir tous les ans un nouveau plan
pluriannuel : c’est la technique dite « des plans glissants ».
7.1.3.4. Le budget
Le budget consiste en la mise au point détaillée (chiffrage par mois ou par trimestre) de la première
année du plan et sert d’instrument de contrôle de son exécution.
7.2.1.1. L’analyse
Elle consiste à rapprocher normes et réalisations, afin de mettre en relief les écarts entre ces deux
types de données. Le délai d’obtention des écarts doit être court pour que le contrôle de gestion soit
pleinement efficace, c’est-à-dire pour pouvoir apporter rapidement les correctifs nécessaires.
7.2.1.2. Le diagnostic
Il a pour but d’identifier et de mesurer les causes des écarts. Dans une telle recherche, doivent être
mis en évidence ce qui provient de l’environnement (conjoncture) et ce qui résulte de facteurs
internes.
Le rôle de la comptabilité de gestion est alors primordial pour fournir les éléments de comparaison
entre objectifs et réalisations, et pour mettre en cause des responsabilités ; cela est rendu possible
par la production d’indicateurs périodiques permettant de juger la gestion de l’entreprise.
Ce jugement doit pouvoir s’exercer tant au niveau global de l’entreprise qu’à des niveaux plus précis :
Tout système de contrôle, quel que soit le niveau d’analyse et au-delà des objectifs, deux sortes
d’outils de mesure des performances : des normes et des critères de mesure des performances.
Une norme est une référence, résultat d’un choix raisonné et permettant les comparaisons.
7.2.2.2. Des critères de mesure des performances
- Les critères d’efficacité, qui confrontent les résultats obtenus aux objectifs et
permettent de répondre à toutes les questions du type : « A quel degré les
objectifs ont-ils été atteints ? » ;
- Les critères d’efficience, qui mettent en rapport les résultats obtenus et les
ressources engagés et permettant de répondre aux questions du type : « Quelles
ressources avons-nous utilisées pour atteindre l’objectif ? ».
7.3.1.1. Définition
Le système budgétaire est un instrument du contrôle de gestion apparu après la crise de 1929 aux
Etats-Unis. Il est constitué par les différents programmes d’action ou budget établis en termes de
quantités, de valeurs et de délais.
Tout contrôle budgétaire repose sur une décentralisation des responsabilités et une autonomie de
décision conférée aux responsables. Le budget se traduit concrètement par l’attribution à des
responsables d’objectifs et de moyens chiffrés et datés, qui sont la résultante d’une série de
prévisions et d’une attitude volontariste. Selon le type de centre de responsabilité, les objectifs
assignés s’expriment sous différentes formes.
La méthode étant générale, les budgets ne pourront être établis qu’à partir d’une définition claire
des fonctions et des responsabilités ainsi que d’informations de qualité.
Prévision
Budgétisation
Contrôle
Un système budgétaire doit, de préférence, être global, c’est-à-dire ne laisser dans l’ombre aucun
aspect des activités de l’entreprise. Ce n’est pas toujours possible, notamment lorsque l’on met en
place pour la première fois une méthode budgétaire, mais c’est une condition essentielle de
cohérence et d’équilibre.
Le découpage des budgets se calquera naturellement sur le système d’autorité, chaque responsable
ayant un budget à « gérer ».
Le terme « budget » est défini comme « prévision chiffrée de tous les éléments correspondant à un
programme déterminé ».
Dans la plupart des entreprises, il s’agit de programmes établis sur une base annuelle. Autrement dit,
les budgets traduisent la mise au point de la première année du plan à moyen terme ainsi que le
contrôle de son exécution.
1. Les principes
Il existe des contraintes logiques dans l’établissement des différents budgets. Les
prévisions de vente déterminent les prévisions de production. Le budget des ventes et le
budget de production sont, de plus, les budgets déterminants à partir desquels on pourra
établis les budgets résultants.
Le lien entre les budgets fait que toute erreur risque de se répercuter sur l’ensemble. La
figure qui suit récapitule l’ordre d’établissement des différents budgets. On appelle
« budget général » l’ensemble constitué par les comptes prévisionnels : le compte de
résultat et le bilan prévisionnels.
Dans le cadre d’un cycle budgétaire annuel, l’ensemble des budgets doit être prêt pour le
début de l’exercice.
La procédure d’élaboration s’étend, en général, sur une période de quatre à six mois.
La préparation des budgets est l’occasion d’établir ou de renforcer le dialogue entre les
responsables.
2. Le contrôle
Le budget constitue à la fois la dernière étape de la planification opérationnelle et la
première étape du contrôle, puisqu’il va représenter la base de référence à partir de laquelle
seront jugées les performances.
Les méthodes de calcul de coûts historiques que nous avons étudiées jusqu’à présent reposent sur
l’étude de coûts et de consommations connus, c’est-à-dire sur une analyse menée a posteriori sur
des éléments constatés et pouvant donc être connus avec précision. Ces coûts présentent plusieurs
inconvénients.
Les informations ne sont disponibles qu’avec retard pour au moins deux raisons.
L’analyse des coûts a comme objectif de faciliter la prise de décision, qui est naturellement tournée
vers le futur. Il est en partie contradictoire de vouloir éclairer exclusivement le futur par des
références au passé qui ne peuvent tenir compte des modifications dans les processus de production
ou dans les prix.
C’est pour remédier aux défauts des coûts historiques que théoriciens ont été amenés à introduire
un outil répondant mieux aux besoins de la gestion : le coût préétabli.
8.1.2.1. Définition
Les coûts préétablis sont des coûts calculés avant la réalisation des événements qui les engendrent.
Ce sont de coûts de référence qui serviront, le moment venu, de normes, d’objectifs ou de simples
prévisions.
Selon leur type et l’optique de leur calcul, o, distingue quatre catégories de coûts préétablis.
D’autres coûts standard peuvent être définis selon la méthode qui a permis de les obtenir :
c. Le coût budgété
d. Le coût prévisionnel
Ce coût est déterminé par observation statistique (moyenne ou tendance) des périodes comptables
antérieures et par anticipation des modifications prévisibles dans les conditions techniques et
économiques de production.
Les coûts de production préétablis sont élaborés de la même façon que les coûts constatés et
comprennent donc des charges directes et des charges indirectes. Le mode de calcul des coûts
préétablis peut être résumé ainsi :
Cette méthode de calcul permet de déterminer des coûts dans chaque atelier, à chaque stade du
processus de production.
Le coût préétabli est, en général, une norme stable : il ne fluctue pas constamment avec les
variations d’activité ou de prix, même si une mise à jour périodique (semestrielle ou annuelle) est
nécessaire afin de tenir compte des modifications des conditions techniques et économiques de
production.
Les coûts préétablis sont essentiellement composés de trois catégories de charges, matières, main-
d’œuvre directe et indirectes, que nous allons étudier successivement.
De façon générale, le coût préétabli des matières, pièces et composants s’obtient par le produit des
quantités préétablies et du coût unitaire préétabli. Reprenons ces deux éléments.
Il s’agit de déterminer les quantités physiques prévisionnelles de matières à intégrer dans les
éléments de coûts, ce qui pose deux types de problèmes.
Exemple : Pour la fabrication d’une pièce métallique, les services techniques ont calculé que le
produit fini comprend 302,4 g de métal. Sachant que la découpe entraîne des chutes de 20% il faudra
approvisionner 302,4/0,8 = 378 g de métal.
Les services techniques ont estimé à 3kg de matière M la quantité à incorporer « normalement » dans
une pièce P.
Ces coûts sont difficiles à prévoir. Le gestionnaire doit estimer l’évolution des prix, le calendrier des
achats, etc.
Pour certaines matières très spéculatives (ex. : le cuivre), il est presque impossible de calculer des
standards stables. La meilleure solution consiste alors à calculer des standards pour toutes les autres
composantes et à incorporer au dernier moment une valeur pour la matière ou le composant
spéculatif.
Il s’agit, le plus souvent, comme pour les matières, de coûts standard déterminés en deux temps.
Ces standards sont élaborés par le bureau des méthodes sur la base d’une analyse complète du
travail à effectuer. En particulier, le calcul du temps théorique nécessaire (ou temps alloué) peut se
faire par chronométrage ou en utilisant des tables. Le temps standard est alors obtenu en ajoutant
au temps ci-dessus un temps de mise en train et un temps de relâche (tous deux étant non
directement productifs, c’est-à-dire ne correspondant pas à l’exécution d’une action de production).
Exemple : Un ouvrier, compte tenu de la législation actuelle, doit environ 1.645 heures de présence
annuelle. Les salaires versés et les charges sociales représentent, pour cet ouvrier, une charge
annuelle de 20.398 $. Bien que ce coût soit fixe par nature, nous serons amenés à le considérer
comme variable, c’est-à-dire proportionnel au temps de travail. Par ailleurs, les services techniques
indiquent que 20% du temps de présence est improductif.
L’ouvrier fournira donc : 1.645 x 0,8 = 1.316 heures productives et le coût horaire standard vaudra :
20.398/1.316 = 15,5 $.
Toute production pourra être valorisée à l’aide de ce coût. Si une pièce nécessite un temps alloué de
2.,5 heures de travail de cet ouvrier, il faudra incorporer dans son coût préétabli : 2,5 x 15,5 = 38,75$
de charge préétablie de main-d’œuvre.
La détermination de ces coûts pose un problème spécifique car les coûts des centres de travail
contiennent des charges fixes et des charges variables.
Comme nous l’avons montré en étudiant l’imputation rationnelle des charges fixes, le coût unitaire
varie, dans une telle hypothèse, en fonction du taux d’absorption des charges fixes.
Le coût préétabli des unités d’œuvre (ou le taux préétabli de frais) résulte de la détermination
préalable - et faite de façon prévisionnelle – d’un budget standard des charges du centre de travail
considéré défini conjointement par :
𝐵𝑢𝑑𝑔𝑒𝑡 𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑
Cp =
𝐴𝑐𝑡𝑖𝑣𝑖𝑡é 𝑛𝑜𝑟𝑚𝑎𝑙𝑒
Notons :
- BS : le budget standard ;
- 𝑐𝑝 : le coût préétabli de l’unité d’œuvre ;
- 𝑐𝑣𝑝 : le coût variable unitaire préétabli ;
- 𝐶𝐹𝑝 : le coût fixe préétabli ;
- 𝑞𝑝 : le nombre d’unités d’œuvre (activité) préétabli par produit ;
- 𝑁𝑛 : la production normale.
Le coût préétabli de l’unité d’œuvre résulte de la somme du coût variable unitaire préétabli
(indépendant du niveau d’activité) et du coût fixe unitaire préétabli calculé sur la base de l’activité
normale.
Exemple : Le budget d’un centre de fabrication est ainsi prévu pour une activité mensuelle normale
de 10.000 heures de main-d’œuvre :
Total Charges Charges
fixes variables
Charges de personnel (en k$) 360 360
Entretien (en k$) 120 70 50
Petit outillage (en k$) 140 40 100
Energie (en k$) 160 10 150
Amortissements (en k$) 420 420
Total (en k$) 1.200 900 300
Activité normale (en heures) 10.000
Coût préétabli de l’UO (en $) 120 90 30
a. Définition
Le budget flexible est un budget établi pour divers niveaux d’activité à partir d’un modèle de
comportement des charges.
L’objectif est de prévoir le coût total d’un centre de travail sous plusieurs hypothèses d’activité.
En reprenant la formule donnant le montant du budget standard, la valeur du budget flexible (BF) est
obtenue en faisant varier l’activité (x) :
BF = (𝑐𝑣𝑝 x 𝑥 ) + 𝐶𝐹𝑝
Le montant des charges fixes totales correspond aux charges fixes préétablies normales pour tous les
niveaux d’activité appartenant à une structure de production donnée. Un changement de structure
Type equation here.peut cependant amener une modification des charges fixes préétablies. De
façon générale, le budget flexible est une fonction de l’activité (x) de la forme :
BF = ax + b
Où a représente le coût variable unitaire préétabli et b les charges fixes préétablies totales.
En supposant que cette équation est correcte à l’intérieur d’un palier d’activité allant de 8.000 à
12.000 heures, que le montant des charges fixes ne serait que de 750.000 $ pour des activités
inférieures et qu’il serait de 1.040.000 $ pour des activités supérieures, il est possible d’établir les
budgets flexibles (en k$) :
Nous avons précédemment exprimé le coût unitaire préétabli des unités d’œuvre en fonction du
budget standard (normal).
En faisant varier le niveau d’activité (x), la droite de coût préétabli (Cp) – que certains auteurs
nomment aussi « droite de coût absorbé » ou « droite d’imputation standard » - a pour équation :
𝐶𝑝 = 𝑐𝑝 𝑋 𝑥
De façon générale : y = 𝑐𝑝 𝑥
En reprenant les données de l’exemple précédent, on obtient l’équation suivante de la droite de coût
préétabli : 𝐶𝑝 = 120𝑥.
Le budget flexible, appelé également « coût budgété », permet, sous diverses hypothèses d’activité,
d’élaborer des prévisions relatives aux charges indirectes d’un centre d’analyse. Ce budget est
élaboré en analysant le comportement des charges de chacun des postes constitutifs du centre
d’analyse et peut, une fois les données réelles collectées, donner lieu à une analyse des divergences
existant entre charges réelles et charges budgétées.
L’analyse des écarts a pour objet de mettre en évidence et d’analyser, pour chaque facteur de production, les
divergences pouvant exister entre les coûts constatés et les coûts préétablis tels que définis dans le chapitre
précédent. Le schéma d’analyse retenu consiste à isoler et à traiter séparément chaque variable explicative
d’un écart afin de pouvoir engager les mesures correctives nécessaires.
La prévision est nécessaire car elle constitue le point de départ des outils de gestion, même s’il est impossible
de lire l’avenir avec certitude. L’expérience prouve cependant que des prévisions, même imparfaites, sont
toujours préférables à l’absence de prévision.
Ce chapitre présente les principes en matière de gestion du prix et des marchés. Il détaille les méthodes de
contrôle propres à cette fonction de l’entreprise.
La gestion de la production a pour mission de prévoir, d’optimiser et de contrôler les flux de matières, de sous-
ensembles ou de pièces qui traversent le système de production pour y être transformés en produits
intermédiaires et finis.
Ces missions de production s’intègrent naturellement dans les objectifs généraux de l’entreprise compte tenu
des contraintes commerciales, du potentiel de la firme et de ses possibilités d’évolution.
Dans toutes les entreprises industrielles et commerciales se posent des problèmes d’approvisionnement, de
gestion des stocks, de transport, de distribution physique, etc.
L’approche traditionnelle consistait à traiter séparément ces questions. Toutefois, beaucoup d’entreprises
cherchent aujourd’hui à en avoir une appréhension globale à partir d’une méthode logistique centrée sur la
maîtrise des flux.
La trésorerie constitue un concept clé de la gestion dans la mesure où elle joue un rôle prépondérant dans le
financement de l’activité de l’entreprise. Son évaluation (en termes absolus ou relatifs) permet de caractériser
la santé présente (en termes de solvabilité) ou future (en termes de besoins de financement) de la firme.
La budgétisation de la trésorerie tient par ailleurs traditionnellement une place privilégiée dans le processus
budgétaire puisqu’elle assure, avec le budget général, la cohérence de l’ensemble de cette démarche.
La valeur est, pour l’entreprise, un thème qui se situe au point de rencontre de préoccupations industrielles,
commerciales et financières. Cette thématique va permettre en particulier d’étudier les rapports complexes
entre le prix que les clients sont prêts à payer pour un produit et les fonctionnalités de ce produit, génératrices
de coût pour l’entreprise ? Cette question se pose principalement pendant la phase de conception des
produits.
Nous présenterons successivement les moyens actuels de communication interne qui mettent
l’organisation sous tension puis la logique stratégique de gestion par les activités, logique guidée par
les impératifs de performance financière.
Par analogie avec la conduite d’un véhicule qui exige l’observation d’un tableau de bord donnant au
pilote une synthèse des informations nécessaires au maintien de sa trajectoire, on appelle « tableau
de bord de gestion » l’ensemble des indicateurs fournissant à un responsable les renseignements
utiles au pilotage à court terme de l’entreprise.
Le reporting effectué à partir du tableau de bord vise à assurer la remontée régulière d’une
information formalisée vers la hiérarchie. Les deux termes sont sensiblement synonymes mais
l’usage tend, peu à peu, à les différencier. La recherche d’informations rapides portant sur les
données indispensables aux décideurs comporte normalement deux volets :
Le tableau de bord de gestion se différencie nettement du système d’informations de gestion, qui est
une base de données regroupant la totalité des informations de gestion de l’entreprise. Le tableau de
bord reprend uniquement celles de ces informations qui sont indispensables pour les filtrer et les
présenter de façon claire et synthétique aux décideurs concernés. Il constitue l’interface entre le
système d’information et le décideur opérationnel.
Le tableau de bord est, en premier lieu, un outil de communication au sein de l’entreprise. C’est une
centrale de données qui compile et sélectionne l’information existante.
Il permet de réaliser de nécessaires retours d’expériences : son objectif est de prendre sous contrôle
les éléments révélateurs d’incidents, d’en mesurer les intensités en cas de présence et de déterminer
le moment et les moyens d’une intervention nécessaire, alors qu’elle est encore salutaire.
Le tableau de bord est enfin l’outil privilégié pour mettre sous tension les acteurs locaux. Il permet
d’apprécier la délégation de pouvoir. L’établissement du tableau de bord dans l’entreprise rend
possibles les délégations de pouvoir et le contrôle de la validité de la réalisation des prévisions. Il
permet à tout moment, de disposer d’informations annexes et d’un certain nombre de données
numériques.
Peuvent être considérés comme des facteurs clés de succès : l’efficacité des réseaux
commerciaux, le savoir-faire à l’exportation, la maîtrise des coûts de production, etc.
La définition des facteurs clés de succès permet une approche plus précise de contrôle de
gestion :
- Quelles sont les variables cruciales à surveiller dans le tableau de bord ?
- Quels sont les acteurs de l’environnement à surveiller et quelles sont les
variables cruciales qui les caractérisent ?
Il faut également recenser les facteurs clés de la gestion de tel ou tel centre de responsabilité
particulier afin que chaque responsable trouve dans son tableau de bord les renseignements dont il a
besoin. Il faut cependant sélectionner soigneusement les paramètres et éviter tout excès.
c. Les indicateurs
Les indicateurs peuvent être classés de différentes façons : selon leur nature, selon le niveau
de responsabilité auquel ils s’adressent, selon les risques mesurés, etc. Il ne saurait être
question de sélectionner les indicateurs caractéristiques sans la coopération des personnes
concernées.
Chaque responsable choisit ses paramètres clés en fonction des informations le concernant
(activités propres, activités qu’il a déléguées). Il concentre donc son action sur certains
objectifs afin d’optimiser le résultat de la société.
Dans la mesure où les indicateurs auront été choisis par lui, il acceptera d’être jugé et de
juger par ces indicateurs.
On distingue souvent :
- Les indicateurs de résultat ; quantités produites, nombre de commandes, chiffre
d’affaires, marges, etc. ;
- Les indicateurs de moyens : quantités consommées, nombre d’heures
productives, etc. ;
- Les indicateurs de l’environnement : cours des matières premières, parts de
marché, etc.
Le tableau ci-dessous monter un cas de détermination des facteurs clés dans la gestion de la
production :
Indicateurs de gestion de production
Les nouveaux modèles organisationnels et les nouveaux moyens informatiques sont à l’origine d’une
double évolution des tableaux de bord.
Dans le modèle organisationnel classique (qualité de « silos » dans le premier schéma qui suit), l’idée
dominante est que, pour optimiser les performances de l’ensemble de l’entreprise, il suffit
d’optimiser celles de chaque centre de profit.
La performance du système est d’autant plus grande que les flux (produits, informations, finances)
sont réguliers et rapides. Les entreprises sont flexibles et produisent à la demande.
L’entreprise performante sera celle qui optimisera ces interfaces. Hormis les facteurs
compétences/produits/marchés, le succès dépendra de la capacité des organisations à être
performantes.
C’est dans cette optique que nous présentons une liste d’indicateurs « modernes », adaptés à cette
nouvelle donne :
Organisation et collecte
des informations
Mise en place
matérielle
Lorsque les utilisateurs potentiels du tableau de bord ont ressenti et exprimé le besoin d’un tel outil,
il est possible de procéder à sa mise en place.
a. Les responsables du tableau de bord
La responsabilité d’établir les tableaux de bord incombe en général aux décideurs qui les
utilisent. Lorsque certains indicateurs sont « composites » (informations établies dans
différents services), la responsabilité de leur établissement est transférée à un service central
de l’entreprise (contrôle de gestion, s’il existe, ou service comptable).
b. La présentation concrète
La clarté du tableau de bord est la condition de son succès : elle seule permet de le rendre
utilisable pour l’action. Aussi, tableaux de chiffres (contenant des données brutes, des écarts
ou des ratios) et graphiques (permettant de visualiser les évolutions et de mieux
appréhender les changements de tendance) devront participer à cette clarté.
De plus en plus, les outils informatiques s’ajoutent ou se substituent aux informations sur
papier.
c. La mise à jour
Le tableau de bord mesure par définition des éléments variables. Il faut, en conséquence,
prévoir des règles de mise à jour rapide.
Un compromis entre une périodicité trop faible et une périodicité trop forte est à trouver. La
périodicité généralement retenue est le mois. Les indicateurs composant le tableau de bord
sont établis mensuellement ou trimestriellement, suivant leur importance et leur
signification.
La principale mission du reporting est l’information de la hiérarchie sur l’état et l’évolution des unités
décentralisées. Il permet de rendre compte du degré de réalisation des objectifs et est utilisé pour
faire remonter les informations des unités élémentaires jusqu’au sommet de la hiérarchie. Là encore,
il ne s’agit pas de l’ensemble de l’information locale de pilotage, mais uniquement de la partie de
l’information que possède le responsable opérationnel et qui doit remonter pour permettre à son
supérieur hiérarchique de suivre les données essentielles.
D’une façon générale, le reporting véhicule des indicateurs financiers provenant soit de filiales ou
d’entités géographiquement dispersées, soit d’unités stratégiquement différentes (reporting par
métier).
- D’informations concernant les résultats des indicateurs suivis par les tableaux de
bord de gestion :
- De documents de suivi budgétaire ;
- De comptes rendus et de rapports.
Le reporting constitue un moyen puissant de suivi des prévisions (vérifications mensuelles, voire
journalières) et de correction des écarts constatés. Les responsables opérationnels disposent
d’informations rapides qui rendent efficaces leurs actions. Il est important d’apporter une solution
rapide pour ne pas mettre en cause les performances de l’entreprise.
- Contrôle par les exceptions ; un seuil de tolérance est fixé pour chaque rubrique ;
- Principe de contrôlabilité : le responsable ne peut être évalué sur la base d’un
indicateur qu’il ne maitrise pas ;
- Principe de correction : le responsable doit être en mesure de proposer une
action corrective.
Du point de vue de la technique comptable stricte, la méthode ABC mène à des calculs de coûts
complets par imputation des charges indirectes qui ne sont pas fondamentalement différents de ce
qui était pratiqué dans la méthode traditionnelle des centre d’analyse. Certains auteurs ont même pu
affirmer qu’il s’agit davantage d’un retour aux sources que d’une révolution conceptuelle et que, si
l’on se reporte à la notion originelle de « section homogène », qui inspira les auteurs des plans
comptables successifs, on retrouve en fait la notion d’activité au sens d’ABC.
Il n’en demeure pas moins que la comptabilité analytique, telle qu’elle était enseignée et pratiquée
depuis de nombreuses années, sombrait dans une sorte de conformisme simplificateur et perdait de
vue l’essentiel, à savoir que la comptabilité de gestion est là pour aider les gestionnaires à améliorer
la gestion.
On passe alors tout naturellement de la conception d’une méthode de calcul des coûts à la remise en
question de l’organisation de l’entreprise. L’ABM remet en question le contrôle de gestion
traditionnel en déplaçant l’accent mis sur la connaissance de meilleurs coûts de revient vers un
accent mis sur le management des coûts.
Dans cette optique, les facteurs clés de succès associés aux orientations stratégiques peuvent être
pris en compte de façon pertinente par la comptabilité de gestion. Par exemple, une stratégie de
segmentation entraîne généralement des séries plus courtes et une standardisation moins poussée.
Dans ce cas, la méthode traditionnelle des centres est incapable de prendre en compte les effets
pervers liés au subventionnement des petites séries par les grandes. Seule une analyse causale,
introduite par le biais d’inducteurs pertinents, permettra de transformer le calcul des coûts en outil
de management.
Il ne s’agit donc plus, à ce stade, de rechercher un « meilleur » coût de revient (meilleur parce que
plus exact), mais de bien voir que les coûts ne sont plus qu’une constatation a posteriori des
conséquences des décisions d’organisation qui ont été prises préalablement. Ce qui importe, c’est de
prendre les bonnes décisions organisationnelles. Dans cette optique, le travail du responsable de la
comptabilité de gestion est celui d’un « associé » des gestionnaires et des managers qui contribuent
à la construction de l’entreprise.
Pour le processus de récupération des créances, plus l’analyse de solvabilité en amont est efficace et
moins les activités de suivi seront importantes.
Le principal problème que l’on rencontre vient du fait que la méthode ABC/ABM dissocie l’analyse
des coûts du découpage de l’entreprise en centres de responsabilité. Le découpage comptable ne
coïncide plus avec l’organisation fonctionnelle et budgétaire. Il semble difficile de négliger cet aspect
hiérarchique de l’organisation. Dès lors se pose la question suivante : « comment concilier la
modélisation des coûts mieux assurée avec la méthode ABC et l’existence des centres de
responsabilité et des pratiques de contrôle qui lui sont associées ? » Cette question est loin d’être
résolue. La plupart des auteurs préconisent une organisation matricielle de l’analyse des charges,
lesquelles seraient regroupées à la fois horizontalement par l’inducteur et verticalement dans
l’optique du contrôle budgétaire hiérarchique.
9.2.2.1. La sous-traitance
Elles sont alors amenées à se recentrer sur leur cœur de métier, à externaliser certaines parties de
leurs activités et à s’associer ainsi temporairement ou durablement à d’autres entreprises.
Concrètement, cela prend la forme de partenariats, de stratégies d’alliance et de recherche de
complémentarité.
Sous-traiter, c’est prendre l’option de faire faire au lieu de faire soi-même. D’un point de vue
économique, c’est le contrat par lequel une entreprise dite « donneuse d’ordres » demande à une
autre entreprise dite « sous-traitante » de réaliser une partie de sa production ou des composants
nécessaires à sa production. Le produit fabriqué par le sous-traitant ne portera son nom et sera
réalisé pour le compte exclusif du donneur d’ordres.
Pour le donneur d’ordres, la sous-traitance est évidemment préférable à l’intégration s’il trouve des
sous-traitants qui lui offrent des produits de qualité égale à celle qu’il pourrait atteindre à des prix
inférieurs aux coûts qu’il pourrait obtenir. Mais, en dehors même de cette hypothèse la plus
favorable, la sous-traitance peut être justifiée pour le donneur d’ordres par de nombreux
arguments :
- Le partage des tâches lui permet de concentrer ses moyens sur les activités qu’il
juge stratégiques ;
- Il remplace les coûts fixes correspondant à l’activité sous-traitée (matériel,
personnel à emboucher) par des coûts variables (l’achat des produits ou
composants). L’entreprise évite ainsi d’élever son seuil de rentabilité ;
- La flexibilité est améliorée. La sous-traitance permet de faire face plus facilement
aux variations d’activité ;
- La complexité organisationnelle est réduite ;
- La sous-traitance de spécialité donne l’accès à des technologies ou à des
procédés qu’il serait difficile à l’entreprise de se procurer. Par exemple,
construire des automobiles et fabriquer des phares relèvent de savoir-faire
différents, mais le constructeur automobile ne trouvera pas sur le marché des
phares exactement adaptés au nouveau modèle qu’il envisage de produire. Il
s’adressera donc à un sous-traitant qui fabriquera pour lui les phares dont il a
besoin selon les spécifications de son bureau d’études.
Cette démarche permet de trouver des complémentarités, des synergies entre les deux partenaires.
M. Aoki a particulièrement étudié Toyota ainsi que les relations qui existent entre Toyota et ses sous-
traitants. Pour lui, l’efficacité de ce mode d’organisation vient de la mise en commun de
l’apprentissage et des compétences, source de partage des coûts entre les partenaires.
M. Porter a fourni un outil d’analyse des différents éléments qui participent à la création de valeur
ajoutée par l’entreprise, c’est la « chaîne de valeur ». La valeur d’un produit correspond au prix que
le consommateur est prêt à payer pour l’obtenir. A travers l’enchaînement des activités propres à la
réalisation d’un produit, importera de distinguer les activités principales de l’entreprise qui
apportent une valeur ajoutée et qui constituent le métier de l’entreprise, les activités secondaires à
valeur ajoutée qui peuvent être externalisées si l’entreprise n’est pas en position forte et les activités
sans valeur ajoutée qu’il faut chercher à éliminer. Décomposer et reconstituer les étapes de la chaîne
de valeur permet de vérifier l’efficacité des procédures internes et donne des éléments pour choisir
entre faire ou externaliser telle ou telle étape de la chaîne :
Exemple de chaîne de valeur de Porter
M. Porter distingue les activités principales (le cœur de métier) et les activités de soutien. Cette
distinction n’est pas toujours évidente.
Exemple : Les activités de nettoyage des ateliers, des usines, des stations de métro, etc. sont très
souvent sous-traitées. En revanche, un important groupe hôtelier avait confié à un partenaire
l’activité consistant à faire les chambres des clients. Cette décision fut à l’origine de nombreux
problèmes (qualité du service, rigidité de horaires du sous-traitant, difficultés pour répondre aux
desiderata particuliers de tel ou tel client, etc.). A tel point qu’il a bien fallu se rendre à l’évidence, à
savoir que faire les chambres fait partie du cœur de métier d’un hôtelier et qu’il n’est pas possible de
sous-traiter cette activité.
Il est naturellement plus facile de sous-traiter les activités de soutien (ex. : l’entretien des locaux) car
une forme de dépendance se crée. Le donneur d’ordres est obligé de livrer certaines données (des
« secrets de fabrication », des savoir-faire) au sous-traitant, qui pourra alors les utiliser soit avec
d’autres partenaires, soit à son propre profit. C’est ainsi que certaines productions délocalisées,
notamment en Asie, sont aujourd’hui concurrencées par celles des anciens sous-traitants, qui sont
mêmes parfois devenus les leaders du marché (ex. : les raquettes de tennis).
L’idée est de repérer le concurrent le plus compétitif dans tel ou tel domaine et de comparer les
résultats de l’entreprise par rapport à ceux de ce concurrent considéré comme « étalon » de
performance.
Il faut alors essayer de comprendre comment ce concurrent pour réaliser de manière plus
performante le processus ou la tâche étudiée, et il faut surtout adapter ensuite ce processus à sa
propre entreprise.
Il s’agit donc de se comparer aux leaders, de s’inspirer de leurs idées, de leurs pratiques, de leur
fonctionnement et de leur expérience afin d’améliorer les pratiques internes.
Le benchmarking peut être pratiqué en interne (comparaison avec les meilleures pratiques internes),
en externe, vis-à-vis des concurrents, ou par rapport à n’importe quelle entreprise considérée
comme performante.
En réalité, l’idée de se comparer aux autres est vieille comme le monde. Ce qui apporte sa spécificité
à la démarche, c’est d’en faire une étude systématique et continue. C’est à ce prix que l’entreprise
parviendra à transgresser les habitudes et les « vérités immuables » pour en faire une culture et une
démarche de progrès.
a. Définition et objectifs
Les processus reconfigurés peuvent prendre des formes différentes. Néanmoins, quelques
caractéristiques sont communes à toutes ces formes :
Si la reconfiguration a d’incontestables succès à son actif, force est de constater que les échecs sont
également très nombreux. La réussite de cette méthode implique, en effet, un véritable changement
de culture et, de surcroit, se heurte toujours à une grande résistance au changement pour une raison
très simple : elle se traduit généralement par des suppressions d’emplois. Certains ont pu dire que
« reengineering » était un synonyme de « plan social ».
On voit ici les limites de la méthode. Pour réussir, elle doit être acceptée et elle ne peut être
acceptée sans concertation, sans formation des salariés et sans leur donner des garanties concernant
leur avenir dans l’entreprise.