Vous êtes sur la page 1sur 387

Sommaire

Introduction
Marc BOLLECKER et Gérald NARO

Première partie. Les débats et


controverses actuels
Chapitre 1
Des théories pour repenser le contrôle de gestion :
des dispositifs discursifs et instrumentaux ancrés
dans un contexte social et institutionnel
Marc BOLLECKER et Gérald NARO

Chapitre 2
Le système des tableaux de bord et la cohésion
stratégique et organisationnelle
DENIS TRAVAILLÉ ET YVES DUPUY

Chapitre 3
La question du contrôle des comportements à
l’épreuve des transformations des organisations et
du travail
Lionel HONORÉ

Chapitre 4
Contrôle de gestion et management public : quel
retour d’expérience pour les entreprises ?
PASCAL FABRE
Chapitre 5
Le contrôle de gestion, f gure impensée de la
pensée occidentale
Annick ANCELIN-BOURGUIGNON

Chapitre 6
Le contrôle de gestion, une interface de cohérence
organisationnelle
Hugues BOISVERT et Marie-Andrée CARON

Chapitre 7
Les impasses du contrôle de gestion : débats et
perspectives
Ariel EGGRICKX

Chapitre 8
Le contrôle de gestion aujourd’hui, ce qu’en disent
les praticiens
Marc BOLLECKER et Gérald NARO

Seconde partie. Les nouvelles


perspectives du contrôle de gestion
Chapitre 9
De la méthode ABC aux méthodes ABC : analyse
d’une diversif cation des outils dans une
perspective stratégique
Grégory WEGMANN

Chapitre 10
Quelle place pour l’environnement dans le contrôle
de gestion : du concept d’éco-ef cacité à
l’exploration de nouvelles frontières ?
NICOLAS ANTHEAUME

Chapitre 11
Le contrôle de gestion de l’immatériel : concept,
outils et méthodes
LAURENT CAPPELLETTI

Chapitre 12
Une nouvelle approche du contrôle de gestion des
services 197
François MEYSSONNIER

Chapitre 13
Le contrôle de gestion bancaire : entre
standardisation et interactions
Christine MARSAL

Chapitre 14
L’évolution du management de la performance à
l’hôpital : du contrôle de gestion au contrôle
organisationnel
Thierry NOBRE

Chapitre 15
Le contrôle de gestion dans la PME : mythe ou
réalité ?
THIERRY NOBRE ET CINDY ZAWADZKI

Conclusion
Marc BOLLECKER et Gérald NARO

Remerciements
Les auteurs
Introduction
MARC BOLLECKER
GÉRALD NARO

107 000 000 (0,31), 62 400 000 (0,23)… Une requête lancée sur un
célèbre moteur de recherche en décembre 2013 révèle qu’en 0,31
seconde, plus de cent millions de résultats sur les mots clés « contrôle
de gestion » sont disponibles, plus de 62 millions pour « contrôleur de
gestion ». En comparaison, la requête « stratégie » est 2,5 fois moins
populaire, gestion des ressources humaines et « gestion de production »
sont respectivement 30 et 100 fois moins présentes ! Sans vouloir
dresser un constat réducteur sur l’utilité comparée des fonctions
managériales, et malgré le simplisme de ce type de démarche, les
chiffres révèlent une présence significative de la fonction sur internet.
Mais les spécialistes du contrôle de gestion le savent bien, les
chiffres, aussi nombreux soient-ils, ne constituent que le fragment
d’une carte qui elle-même n’est qu’une piètre représentation du
territoire. La prégnance du contrôle de gestion ne serait-elle alors
qu’une réalité virtuelle ? Ce serait tomber dans une autre extrême que
de ne pas interpréter les signaux provenant de la carte.
Nombreuses sont les entreprises qui déploient des dispositifs de
contrôle de gestion pour opérationnaliser et cristalliser un management
par objectif permettant une responsabilisation accrue et une mise sous
tension permanente : contrôle de gestion sociale, commerciale,
industrielle, achat, logistique, informatique, investissement, recherche et
développement… Sous prétexte légitime de stratégie de domination par
les coûts, ou plus simplement de maîtrise de la consommation des
ressources et d’optimisation des processus, le contrôle de gestion dispose
depuis deux décennies d’une opportunité inédite de développement dans
les entreprises. Dans le secteur public, les réformes visant à mettre les
dépenses sous surveillance par et pour les citoyens (Mussari et Steccolini,
2006) dans le cadre d’un New Public Management (Hood, 1995)
propulsent également le contrôle de gestion sur le devant de la scène. Ce
dernier s’institutionnalise par une volonté politique, s’enracine par une
démarche législative, bref, se déploie au travers de différentes réformes,
notamment la LOLF en 2001, la T2A en 2004, la LRU ou la RGPP en
2007. Bien entendu la cour des comptes veille à l’application de ce
déploiement : elle préconise régulièrement la mise en place du contrôle de
gestion, que ce soit à l’hôpital, dans l’éducation, voire même à l’opéra1.
Dans ces conditions, est-il judicieux de consacrer un ouvrage au
contrôle de gestion d’aujourd’hui ?
Malgré le développement quantitatif des outils, des pratiques et
même des postes de contrôleurs de gestion, force est de constater que
la fonction essuie de nombreuses critiques depuis quelques années.
Les plus vives et les plus marquantes proviennent de spécialistes des
conditions de travail. Certains dénoncent en particulier la souffrance
de salariés, voire même les graves troubles pour la santé,
qu’engendrerait l’introduction d’outils de contrôle de gestion (Fabre,
2011, 10). Son déploiement jusqu’au plus bas niveau opérationnel est
visé à l’instar du cas McDonald’s : en intégrant dans leurs tâches du
contrôle de gestion, des caissières endossent simultanément la
casquette de travailleur et de manager, d’opérateur et d’évaluateur (De
Gaulejac, 2011, 81). À ce conflit identitaire se superpose un sentiment
de désincarnation du travail. Dominé désormais par une logique
bureaucratique, la critique porte sur un contrôle de gestion qui impose
des normes au détriment des finalités et valeurs professionnelles : la
logique comptable et le formatage des conduites auraient devancé
l’esprit et la substance des actes (De Gaulejac, 2011, 280). Évaluer
pourrait même tuer (!!!) (Del Rey, 2013, 97) : les êtres seraient vidés
de leur intériorité, de leurs repères puisqu’on les empêcherait de se
fixer, de se territorialiser (Del Rey, 2013, 113).
Et quand la norme est appréhendée comme une simplification
chiffrée de la réalité pour faciliter la comparaison des performances et
alimenter un reporting coercitif (Dupuy, 2011, 16), elle serait
considérée comme une mesure réductrice, partielle, partiale,
inconséquente, provisoire (Caillé, 2012, 111). Elle deviendrait
oppressive en soi car ne reposant que sur des motivations
extrinsèques. Et comme les acteurs aux manœuvres (directions et
comptables) sont accusés de trouver les marges et la souplesse
nécessaires pour fabriquer le résultat qu’ils cherchent (la dénonciation
des « braconniers du chiffre » est devenue banale (Hibou, 2012, 172)),
la norme déstabiliserait plus encore l’évalué surtout si on a affaire à
des Cost Killers dont la mission perçue est de réduire les effectifs (De
Gaulejac, 2011, 315). Assimilé à un outil de domination d’un sujet
incarcéré, c’est clairement à une vision postmoderniste (Bessire,
2002) d’un contrôle de gestion disciplinaire (Miller et O’Leary, 1987) à
laquelle il est fait référence dans ces critiques.
De telles contestations ne peuvent simplement être attribuées à
l’ambiguïté de la traduction française du mot control pour expliquer
des pratiques fortement normalisées de surveillance plutôt que de
pilotage. Les carences et imperfections des outils (budgets, tableaux de
bord, comptabilité de gestion…) ne peuvent être davantage
incriminées, au risque de se tromper de cible en ne se focalisant que
sur la dimension technique du contrôle. C’est à une réflexion en
profondeur qu’imposent ces critiques pour en cerner leur légitimité,
leur fondement et leurs origines.
S’agissant fondamentalement d’un mécanisme de coordination,
certains pourraient y voir une forme de défaillance du leadership. Les
dysfonctionnements et les perversions liés à l’exercice de l’autorité
conduiraient ainsi à une organisation paranoïaque voire compulsive
(Kets de Vries et Miller, 1985) et au déploiement de dispositifs de
contrôle resserrés. D’autres y verraient la résultante des dérives d’un
capitalisme où la démarche comptable est considérée comme
constitutive et constituée par les macroconflits entre les différentes
classes (Chua, 1986) : le contrôle de gestion permettrait de garantir la
reproduction des intérêts du capital et de discipliner la force de travail
(Bessire, 2002). D’autres encore plaideraient en faveur d’une
interprétation économique et, en particulier, de l’impact des crises
contemporaines sur le management. La globalisation des économies,
l’intensification de la concurrence, le ralentissement de la croissance,
voire la récession dans de nombreux pays occidentaux font le lit de
stratégies organisationnelles réifiées (à moins que ce ne soit
l’inverse !). Les stratégies voulues ou subies de domination par les
volumes et les coûts, à l’instar du low cost, supposent le déploiement
généralisé d’outils de contrôle optimisateurs et l’institution d’un
imaginaire social uniquement centré autour du technico-financier
(Tannery, 2009). Le filet d’outils financiers, qui couvre
progressivement processus et activités, présente l’avantage du contrôle
à distance (par et pour les directions), de la simplicité d’usage et de
mise en place. C’est aux contrôleurs de gestion que revient la mission
de tisser et de déployer le filet, ce qui peut provoquer des problèmes de
légitimité auprès des personnels de terrain (Bollecker, 2009) et des
questionnements sur leur champ d’intervention. Il est bien reconnu
aujourd’hui que la mission des contrôleurs peut prendre deux options
alternatives : expert du chiffre, pour garantir l’efficacité du
déploiement du filet budgétaire au service des dirigeants et des
actionnaires, ou consultant interne assistant des opérationnels dans
l’amélioration de leurs performances. Nombreux sont les spécialistes
qui plaident avec force depuis près de 20 ans pour la seconde option et
notamment pour des modes de pilotage fondés sur l’apprentissage et
les qualifications abandonnant les médiations universelles (Lorino,
1995). Mais les vieilles habitudes ont la vie dure, la vision
conservatrice de nombreux dirigeants (Lorino, 2009) renforce
l’application de la première option (Guilding et al., 2000, Roslender et
Hart, 2003). Nombreux sont les contrôleurs de gestion devenant
expert du chiffre délaissant le champ des opérationnels aux
spécialistes du Lean, de la qualité, ou encore du contrôle interne.
Quand bien même la boite à outils des contrôleurs s’est complexifiée
en apparence d’outils prometteurs au début des années 1990 (BSC et
ABC notamment) pouvant contribuer à amincir la différence entre les
deux options par leurs aspects multidimensionnels et intégratifs, c’est
l’expertise financière qui s’est le plus souvent imposée pour
l’optimisation à tous les niveaux. Une telle évolution se cristallise
d’ailleurs dans les pratiques de planification qui donnent l’illusion de
la démocratie (Bouquin et Fiol, 2007) mais qui conduisent à une
absence de pertinence, de cohérence et de compatibilité entre des
objectifs quantitatifs stratégiques et les contraintes des opérationnels
(Chasserio et Maeder, 2007).
Dès lors, faut-il s’étonner que le déploiement d’outils de contrôle
suscite de l’incompréhension et des résistances et, pour certains
sociologues, des sentiments de souffrance au travail ? D’ailleurs, ces
hostilités ne font que renforcer les différences de cultures
professionnelles entre les personnels de la comptabilité et du contrôle
et d’autres groupes tels que les ingénieurs ou les commerciaux (Dent,
1991, Ezzamel et Burns, 2005).
On peut donc assez clairement relier les pratiques de contrôle,
objets de ces vives critiques, au contexte économique particulièrement
contraignant. Le déploiement massif du contrôle de gestion, dans le
secteur privé tout comme dans le public, constitue une réponse
contemporaine à une forte concurrence impliquant une amélioration
continue de la compétitivité et, parfois, à une baisse du volume
d’activité, des financements et des crédits. Pour autant, le
déterminisme d’une orientation financière du contrôle de gestion et du
contrôleur ne peut être gravé dans le marbre. Malgré le conservatisme
voire parfois le mimétisme, de nombreuses réflexions et pratiques
émergent pour transformer le contrôle de gestion.
Une des pistes est de revenir sur ses modalités, ses propriétés, et ses
finalités, c’est-à-dire de s’intéresser à ses dimensions ontologique et
téléologique. C’est ce que développent les contributeurs à la première
partie de cet ouvrage en exposant les débats et controverses
actuels. C’est par le positionnement de la discipline au sein des
sciences humaines et sociales, puis au sein des sciences de gestion, et
en particulier des théories des organisations que Marc BOLLECKER et
Gérald NARO nous apportent un éclairage sur les fondements des
critiques et sur le rôle du contrôle de gestion. Ce positionnement nous
rappelle l’importance de sa fonction coordinatrice. La coordination
ainsi recherchée est souvent celle de la mise en harmonie des
intentions stratégiques et des logiques d’action locales, c’est-à-dire
celle de la cohésion, comme l’expliquent Denis TRAVAILLE et Yves
DUPUY dans le second chapitre. Pour eux, la conception du système
de tableaux de bord suppose la recherche de compromis autour des
paradoxes pour une coordination efficace et une cohésion forte. Mais
les situations de gestion sont parfois si spécifiques que cette quête de
coordination reste difficile. Dans le domaine de la santé, Lionel
HONORE montre, dans le chapitre suivant, que la problématique
managériale est souvent de piloter localement la prise en compte des
aléas et des événements. Compte tenu de l’urgence des situations, la
dérive disciplinaire par rapport à des normes globales peut devenir…
la norme ! Plus globalement, dans le chapitre 4, Pascal FABRE
explique que c’est l’inadaptation d’un modèle de contrôle universaliste
à des contraintes opérationnelles, économiques et politiques qui
explique à la fois les problèmes de coordination rencontrés et le rejet
des systèmes de contrôle de gestion dans certaines organisations. Pour
autant, les intentions de développement du contrôle de gestion n’en
sont pas freinées. Annick ANCELIN-BOURGUIGNON démontre ainsi
dans le cinquième chapitre que la réponse souvent apportée à ces
problèmes, et surtout aux risques psycho-sociaux qui y sont liés, est
celle d’un raffermissement de ce qui les génère (!), le contrôle de
gestion étant l’incarnation d’un « pli de pensée » du monde occidental.
C’est alors une véritable quête de cohérence qui semble s’imposer et à
laquelle nous invitent Hugues BOISVERT et Marie-Andrée CARON
dans le chapitre 6, non seulement entre le contrôle de gestion et les
autres fonctions, mais aussi et surtout entre le système technique et le
système social des organisations, c’est-à-dire celui des valeurs, des
pouvoirs et des savoirs. Une telle quête de cohérence suppose une
vision systémique comme l’explique Ariel EGGRICKX dans le chapitre
suivant pour (re)construire un contrôle de gestion qui fait sens, qui
contribue à une intelligence téléologique distribuée. Et c’est également
ce dont témoignent les praticiens : dans le dernier chapitre de cette
partie, l’étude réalisée par Marc BOLLECKER et Gérald NARO auprès
de professionnels du contrôle révèle un ancrage de la fonction devenu
fragile. En raison de la surabondance des données différenciées à
produire, ils n’assureraient qu’insuffisamment leur rôle d’articulation
entre les niveaux hiérarchiques.
S’intéresser au contrôle de gestion d’aujourd’hui suppose donc de se
pencher sur la cohérence organisationnelle et donc, de fait, aux
besoins spécifiques de chaque contexte. Sans vouloir ni pouvoir cerner
de manière exhaustive toutes les contingences, les contributeurs de la
seconde partie proposent des lectures riches des nouvelles
perspectives du contrôle de gestion.
C’est d’abord la transformation de l’outil fondateur du contrôle – la
comptabilité de gestion – qui interpelle. Transposés de systèmes
industriels simples et rigides vers des industries complexes, flexibles et
responsables, les aménagements proposés sont-ils suffisants pour
garantir une cohérence ? La seule méthode ABC n’est pas satisfaisante
comme l’indique Grégory WEGMANN dans le chapitre 9. Elle suppose
d’être complétée ou simplifiée et, surtout, repositionnée dans les
contextes dans lesquels elle se développe. L’adaptation des budgets et
des tableaux de bord est également indispensable dans les contextes
où les préoccupations environnementales sont particulièrement fortes
et dans ceux où l’investissement immatériel est à valoriser, comme
nous le proposent respectivement Nicolas ANTHEAUME puis Laurent
CAPPELLETTI dans les deux chapitres suivants. C’est ensuite, plus
globalement, l’adaptation de la fonction contrôle de gestion au secteur
spécifique des services qui constitue actuellement un défi majeur pour
les professionnels et les chercheurs ainsi qu’une voie de
renouvellement. François MEYSSONNIER suggère dans le chapitre 12
que la ligne de fracture entre le business model et la création de valeur
sur le terrain peut se briser dans ce secteur, ne serait-ce par la
mobilisation d’outils intégratifs tels que le balanced scorecard. Mais
cette évolution ne peut se faire qu’à condition d’impliquer les acteurs
dans une démarche de contrôle interactif. C’est ce que Christine
MARSAL démontre dans le secteur bancaire, dans le chapitre suivant :
malgré le déploiement massif des outils de contrôle dans les réseaux
bancaires coopératifs, le modèle industriel nécessite d’être renouvelé
par la participation des personnels et des élus. Pour autant, cette
participation n’est pas une condition suffisante pour transformer le
contrôle, notamment dans les établissements hospitaliers. Thierry
NOBRE explique ainsi, dans le chapitre 14, que le contrôle de gestion
dans ce secteur s’inscrit dans un pilotage plus global de contrôle
organisationnel à visée transformative en raison des fortes contraintes
de performance. Enfin, dans le dernier chapitre de cet ouvrage Thierry
NOBRE et Cindy ZAWADZKI nous invitent d’ailleurs à emprunter cet
axe de réflexion pour la PME où le contrôle de gestion peut être dilué
et informel, prenant des formes relevant davantage du contrôle
organisationnel.
Les débats et controverses qui traversent le contrôle de gestion
d’aujourd’hui coïncident étrangement avec son succès. Sa présence
dans les organisations n’a probablement jamais été aussi massive, les
critiques et les craintes le concernant n’ont probablement jamais été
aussi fortes et nombreuses. Dès lors, comment sortir de ce paradoxe ?
Désirée mais contestée, la fonction nécessite sans aucun doute une
réflexion approfondie et de nouvelles perspectives.

Références bibliographiques
Bessire D. (2002). Recherche « critique » en contrôle de gestion :
exercer son discernement. Comptabilité, Contrôle et Audit, Tome 8,
vol. 2, pp. 5-28.
Bollecker M. & Niglis P. (2009). L’adhésion des responsables
opérationnels aux systèmes de contrôle : une étude du rôle des
contrôleurs de gestion. Comptabilité, Contrôle et Audit, Tome 15,
vol. 1, pp. 133-157.
Bouquin H. & Fiol M. (2007). Le contrôle de gestion : repères perdus,
espaces à retrouver. Actes du 28e Congrès de l’AFC, Poitiers.
Caillé A. (2012). L’Idée même de richesse. Paris, La Découverte.
Chasserio S. & Maeder A. (2007). Un cas de management par objectifs
dans le secteur bancaire français : réalités et perspectives de
recherche. Congrès AGRH 2007, Fribourg, Suisse.
Chua W. F. (1986). Radical Developments in Accounting Thought.
Accounting Review, vol. 61, pp. 601-632.
De Gaujelac V. (2011). Travail, les raisons de la colère. Paris, Seuil.
Del Rey A. (2013). La Tyrannie de l’évaluation. Paris, La Découverte.
Dent, J.-F. (1991). Accounting and organizational cultures : a field
study of the emergence of a new organizational reality. Accounting,
Organizations and Society, (16) 8, 705-732.
Dupuy F. (2011). Lost in Management. Paris, Seuil.
Ezzamel M. & Burns J. (2005). Professional Competition, Economic
Value Added and Management Control Strategies. Organization
Studies, (26) 5, 755-777.
Fabre B. (2011). L’Université a-t-elle perdu son âme ?. Paris,
L’Harmattan.
Guilding C. et al. (2000). An international comparison of strategic
management accounting practices. Management Accounting
Research, vol. 11, pp. 113-135.
Hibou B. (2012). La Bureaucratisation du monde à l’ère néolibérale.
Paris, La Découverte.
Hood C. (1995). The new public management in the 1980s: variations
on a theme. Accounting, Organizations and Society, vol. 20, n° 3,
pp. 93-109.
Kets de Vries M. F. R. (1985). The dark side of entrepreneurship.
Harvard Business Review, 85 (6), 160-167.
Lorino P. (1995). Comptes et récits de la performance. Paris, Éditions
d’Organisation.
Lorino P. (2009). Le contrôle de gestion après la crise : expertise
obstinée du chiffre ou métier d’enquête complexe ?. Revue française
de gestion, vol. 35, n° 193 (mai), pp. 29-35.
Miller P. & O’Leary T. (1987). Accounting and the Construction of the
Governable Person. Accounting, Organizations and Society, vol. 12,
n° 3, p. 265.
Mussari R. & Steccolini I. (2006). Using the Internet for
Communicating Performance Information. Public Money and
Management (juin).
Roslender R. & Hart S.J. (2003). In search of strategic management
accounting: theoretical and field study perspectives. Management
Accounting Research, vol. 14, n° 3, pp. 255-79.
Tannery F. (2009). Stratégie en temps de crise. Revue française de
gestion, vol. 35, n° 193 (mai).
Première partie

Les débats et controverses


actuels
Chapitre 1

Des théories pour repenser le


contrôle de gestion : des
dispositifs discursifs et
instrumentaux ancrés dans un
contexte social et institutionnel

MARC BOLLECKER
GÉRALD NARO

Le contrôle de gestion est généralement appréhendé au travers de ses


aspects les plus tangibles. Dans les organisations, il s’incarne –
souvent, mais pas toujours – par une « fonction » généralement
appelée « contrôle de gestion », dirigée par un responsable : la
directrice ou le directeur du contrôle de gestion. Le contrôle de gestion
se matérialise également par des méthodes, des dispositifs et des
instruments de gestion : des budgets, des états de reporting, des
tableaux de bord, des systèmes de calcul de coûts, etc. Vu sous cet
angle instrumental et technologique, le contrôle de gestion est
envisagé dans ses dimensions fonctionnalistes, en tant qu’instrument
d’analyse et d’aide à la décision, assurant la maîtrise de l’efficience et
de l’efficacité dans l’accomplissement des buts organisationnels
(Anthony et Dearden, 1965).
Mais, au-delà de cette dimension technologique, le contrôle de
gestion procède également d’une dimension programmatique en ce
que sa pratique et les discours qui l’environnent et la légitiment,
s’inscrivent dans des finalités plus larges à caractère socio-politique,
voire idéologique. Le contrôle de gestion, en tant que pratique sociale
et institutionnelle (Hopwood et Miller, 1994) est ancré dans l’épistémê
de son temps. Au temps de la modernité ou de la modernité exacerbée
(l’hyper modernité), se structure ainsi une société du contrôle. C’est à
une première lecture critique et programmatique que nous invitons
alors le lecteur (1). Il s’agira au travers des travaux de chercheurs en
contrôle de gestion d’envisager le contrôle de gestion en tant
qu’instrument de « colonisation comptable », s’insérant dans des
dispositifs de gouvernementalité. Mais, au-delà de la critique sociale, il
s’agira aussi de reconnaître que le contrôle de gestion, s’il est porteur
de discours et d’idéologie, met en scène des acteurs et des
instruments : acteurs qui ne sont jamais totalement démunis face à la
colonisation comptable et aux dispositifs de pouvoir ; instruments qui,
loin de se réduire à des objets inanimés, ne sont pas neutres et
s’invitent, avec les acteurs, aux jeux organisationnels. Il convient dès
lors de repenser les agencements sociotechniques de contrôle de
gestion (2).

1. Une lecture critique et


programmatique : la société du
contrôle
Les activités de contrôle prennent une part considérable dans notre
société contemporaine. Qu’il s’agisse des pratiques d’audit interne ou
externe, d’évaluation par des agences gouvernementales, de
« ranking » par des sociétés de notation financière ou sociétale, de
certification qualité ou de contrôle des risques, les entreprises privées,
comme les organisations publiques ou les associations, vivent à l’heure
du contrôle. Comme le suggère le titre très évocateur d’un ouvrage très
stimulant de Michael Power (1997), nous vivons à l’ère de « la société
de l’audit » et de « l’obsession du contrôle ». Dans ce phénomène
d’explosion des activités d’audit et de contrôle, le contrôle de gestion
prend une part très importante et subit des mutations importantes.
Dans les entreprises privées, c’est sans doute à travers l’intensification
des activités de reporting interne que se manifestent les évolutions les
plus visibles. D’un reporting traditionnellement trimestriel, on est
passé dans beaucoup de sociétés à un reporting mensuel. Les
contrôleurs de gestion exerçant dans les entités décentralisées se
trouvent confrontés à des injonctions très pressantes de remontées
d’informations chiffrées. Il leur est demandé continuellement de
transmettre à leur hiérarchie, dans un temps de plus en plus réduit, un
nombre croissant d’informations en mobilisant le moins de moyens
humains possible. La productivité du reporting devient alors un
leitmotiv. Au-delà du stress que peut engendrer une telle pression au
reporting, nombre de contrôleurs de gestion relèvent un
appauvrissement de leur métier, réduit ainsi à un rôle de courroie de
transmission d’informations chiffrées vers le siège social. Les
organisations publiques n’échappent pas à cette montée des activités
de contrôle. S’inspirant des principes du New Public Management,
plusieurs réformes dites de « modernisation » de services publics ont
conduit ces organisations à développer des systèmes de pilotage et de
reporting très sophistiqués. La fonction contrôle de gestion est
devenue une fonction stratégique dans les hôpitaux, les universités ou
les collectivités territoriales. Dans notre société moderne, voire
« hypermoderne », une forme de management par les chiffres semble
s’être imposée et le contrôle de gestion participe de ces mutations. Le
monde des chiffres pénètre et colonise toutes les sphères de la société,
jusqu’à celles où, jusqu’alors, on ne parlait guère d’économie ; à l’ère
de la modernité exacerbée, tant dans sa vie professionnelle que dans
sa vie privée, dont il risque de perdre le sens de la frontière, l’individu
hypermoderne peut se consumer au culte de la performance
(Heilbrun, 2004 ; Aubert, 2006). Le management par les chiffres –
« management by numbers » – s’accompagne souvent d’une pression
à la performance – « pressure to perform ».
Or, comme l’indique Power à propos de l’audit : « toute pratique se
caractérise par des éléments d’ordre programmatique (normatif) et
d’ordre technologique (fonctionnel). Les premiers se rattachent aux
idées et aux concepts qui donnent corps aux pratiques et les relient de
manière cruciale aux objectifs plus larges de la sphère politique »
(Power, 1997, p. 36). « On appelle technologie, selon Power (1997), les
tâches ou les opérations de routine plus ou moins concrètes qui
constituent l’univers des praticiens ». La gestion budgétaire, le
pilotage par les tableaux de bord ou le reporting sur la base d’états
financiers, par exemple, seraient à relier à cette dimension
technologique du contrôle de gestion. Souligner l’aspect
programmatique du contrôle de gestion c’est considérer qu’il s’inscrit
dans une pratique sociale et institutionnelle (Hopwood et Miller,
1994). C’est reconnaître, qu’au-delà de ses aspects fonctionnels, les
concepts qui le fondent, les discours dont il est porteur et, en
définitive, sa pratique et ses instruments, sont ancrés dans une
épistémè (Foucault, 1966), c’est-à-dire dans un ensemble reliant les
discours, leurs relations et leurs controverses, à une époque historique
donnée. Plus généralement, ils procèdent de dispositifs de pouvoir au
sens de Foucault (1977), c’est-à-dire d’un réseau d’éléments
hétérogènes tant matériels que discursifs inscrits dans des rapports de
pouvoir2.
Mobilisant les travaux de plusieurs grands penseurs du XXe siècle, est
apparu, dès les années 1990, un courant de recherche critique dans les
sciences comptables. Ses travaux nous éclairent sur les dimensions
sociétales et donc fondamentalement, contextualisées dans l’histoire et
les institutions, dans les rapports de domination et les considérations
politiques et idéologiques, d’un contrôle de gestion envisagé comme
une pratique sociale et institutionnelle (Hopwood et Miller, 1994). Ces
perspectives critiques ont donné lieu à une littérature riche et
abondante dont nous avons sélectionné ici les éléments les plus
illustratifs et les plus stimulants pour la problématique du contrôle de
gestion3. Un premier groupe de travaux mobilise le concept de
colonisation comptable et s’avère plus particulièrement pertinent pour
comprendre les enjeux de la mise en œuvre du contrôle de gestion et
des discours dont il est porteur, dans les organisations publiques (1.1).
Un second groupe de travaux, d’inspiration poststructuraliste, nous
suggère de considérer le contrôle de gestion comme un dispositif de
pouvoir. Il mobilise particulièrement les travaux de Michel Foucault
sur le pouvoir disciplinaire et la gouvernementalité (1.2).

1.1 Le développement du contrôle de gestion


1.1 Le développement du contrôle de gestion
dans les organisations publiques : une
colonisation comptable ?
Depuis les années 1980, la doctrine du New Public Management
(NPM) s’impose aux administrations des États de la plupart des pays
développés ou en développement. Tels que les formalise Hood (1991 ;
1995), on relève parmi ces éléments doctrinaux : l’orientation du
management vers des principes de responsabilisation et de reddition
des comptes (accountibility) ; un contrôle fondé sur les résultats ; une
gestion obéissant au respect des critères d’économie, d’efficience et
d’efficacité – les « 3 E ». À la lecture de ces principes, on saisit
l’importance grandissante prise par le contrôle de gestion dans les
organisations publiques. Celui-ci s’est érigé en « fer de lance » des
réformes de modernisation des services publics : la mise en œuvre de
la Loi Organique relative aux Lois de Finance (LOLF) dans la fonction
publique d’État, la Tarification à l’Activité à l’hôpital, prennent ainsi
appui sur un renforcement des dispositifs de contrôle de gestion. Or,
ces dispositifs rassemblent à la fois des acteurs, des outils et des
instruments comptables et procèdent de la diffusion de concepts et de
discours comptables et économiques, dans des mondes qui ne sont pas
les leurs à l’origine : l’éducation, la santé, la justice, etc. En d’autres
termes, le contrôle de gestion et son langage comptable coloniseraient
la sphère publique. C’est donc en priorité dans le champ du
management public et, plus généralement, des organisations non
marchandes, que la problématique de la colonisation comptable ou
« accountigization », fonde sa pertinence.
En s’inspirant des mécanismes de « juridification » observés par
Habermas (1971, 1987), Power et Laughlin (1992 ; 1996) emploient le
terme « accountingization », pour décrire un processus par lequel, la
comptabilité, les logiques et le langage comptables, colonisent des
espaces qui, jusqu’alors, en étaient préservés et, notamment, la sphère
publique. À l’image de la notion de « juridification », qui traduit une
complexification croissante des textes juridiques et surtout une
extension du domaine du Droit, la comptabilité apparaît alors comme
un médium régulateur, en ce qu’elle colonise le monde vécu, c’est-à-
dire, l’espace de notre vie quotidienne. Comme le précisent Power et
Laughlin (1992), le pouvoir colonisateur de la comptabilité consiste
moins dans le dessein manifeste d’une rationalité fondée sur
l’information comptable, que dans sa capacité à capturer les
représentations organisationnelles et à les recréer en termes
économiques : « La comptabilité devient en ce sens un “pouvoir
disciplinaire”, qui colonise en vertu de sa capacité à créer une
nouvelle ontologie des faits économiques » (Power et Laughlin, 1992,
p. 127). Dans sa théorie du Droit, Habermas suggère que l’extension
du domaine du Droit se traduit par une tendance à une forme
d’expertocratie. Pour Arrington et Puxty (1991), la colonisation
comptable risque d’ôter au domaine public son propre langage,
d’absorber et de transformer le discours public à sa propre image. Le
langage expert de la comptabilité, propagerait ainsi un discours
économique à même de contrôler les définitions publiques de la réalité
sociale et organisationnelle (Power et Laughlin, 1992). Faisant
référence à Habermas, Power et Lauglin (1992) soulignent que la
culture d’experts transforme les citoyens en clients et est responsable
de « silences socialement structurés » : « il est dans la nature d’un
concept économique tel que l’efficience, que personne ne puisse se
positionner contre ; cela réduit l’espace d’une possible discussion »
(Power et Laughlin, 1992, p. 131). Le contrôle de gestion, à travers la
colonisation comptable de la sphère publique conduirait ainsi à un
processus de naturalisation ou de réification.

1.2. Le contrôle de gestion dispositif de


gouvernement : les approches foucaldiennes
Les travaux de Foucault s’inscrivent dans une perspective
poststructuraliste4. Dans « Les mots et les choses » (Foucault, 1966), il
développe une vision généalogique de l’histoire, par le biais
notamment de la notion d’épistémè. Dans « surveiller et punir »,
Foucault (1975) apporte une théorie du contrôle social qui inspirera un
grand nombre d’auteurs critiques en comptabilité. Comme l’indique
Macintosh (2002), les perspectives poststructuralistes ou
postmodernistes de la critique comptable, sont fondées sur une vision
généalogique de l’histoire : « dans la philosophie et la sociologie
poststructuraliste, la généalogie fait référence à une enquête à une
investigation au cœur des origines historiques des institutions
dominantes aujourd’hui, des idées qui prévalent, des valeurs et
vérités qui sont prises comme allant de soi ou de la pensée
dominante, qui ont été réifiées comme une part naturelle de la
fabrique sociale ». Les écrits de Foucault se réclament explicitement
d’une vision Nietzschéenne qui s’oppose à une représentation
traditionnelle de l’histoire, vue comme une trajectoire continue et
linéaire. Les généalogistes s’opposent ainsi à l’unicité du récit
historique, au sens de l’histoire envisagée sous l’angle téléologique. A
contrario, ils s’intéressent à l’histoire comme une série d’événements
aléatoires, au hasard des commencements et des accidents (Revel,
2002), dans lesquels la rupture, la discontinuité et le hasard sont
davantage dans l’ordre des choses que le récit téléologique d’un
progrès linéaire (Macintosh, 2002, p. 16). C’est dans cette approche
généalogique que s’inscrivent les travaux de Foucault sur le pouvoir
disciplinaire. L’auteur ancre son analyse dans ce changement qui
s’opère au tournant du XVIIIe au XIXe siècle, quand la société évolue d’un
pouvoir souverain incarné dans l’éclat du supplice vers un pouvoir
disciplinaire qui procède d’une technologie systématisée en vue de
rendre visible, de mesurer, quadriller, classifier, classer, répartir les
corps dans l’espace, afin de dresser et contrôler les individus. À l’image
du Panopticon de Jérémy Bentham, Foucault décrit ainsi le pouvoir
disciplinaire qui s’exerce dans les institutions carcérales, mais
également au sein des hôpitaux, des asiles psychiatriques, de l’école ou
des ateliers. Ce sont ces idées qui vont inspirer les approches
foucaldiennes du contrôle de gestion. Les travaux, parmi les plus
illustratifs de cette démarche, sont ceux de Miller et O’Leary (1987 ;
1994) sur la construction de la personne calculable ; personne qui
devient, par là même, gouvernable. Les auteurs prennent alors
l’exemple des méthodes de coûts standards et de contrôle budgétaire
comme des technologies permettant de calculer et, ainsi, de donner à
voir les inefficiences et responsabilités de chacun, afin de mieux
contrôler les individus. Le contrôle de gestion et les divers dispositifs
dans lesquels il s’insère, servent à construire des espaces particuliers
de visibilité et, in fine, de contrôle social. Dans une recherche
ultérieure, Miller et O’Leary (1994) réalisent une étude de cas au sein
d’une usine de la firme américaine Carterpillar en vue de montrer
comment l’effet coordonné d’un réagencement de l’espace au sein de
l’usine, de la diffusion d’un discours managérial prônant un
management participatif, fondé sur la notion d’empowerment, et de la
mise en œuvre de nouveaux dispositifs de contrôle de gestion, procède
ainsi d’un processus de contrôle social. Une approche complémentaire
nous est apportée par les travaux de Towley (1995) qui suggèrent que
le contrôle de gestion et le management par les nombres qu’il
introduit, associés à certains dispositifs de gestion des ressources
humaines, tels que l’évaluation des postes ou l’appréciation des
performances, relèvent de technologies de calcul complémentaires qui
visent à assurer un contrôle du travail. L’auteur fait directement
référence aux concepts de Mathesis et Taxinomia chez Foucault
(1966). Parce qu’il procède de calculs, le contrôle de gestion procède
d’une mathesis. En proposant ainsi un système de signes, il ordonne et
classe, et produit une taxinomie. Ce faisant, le contrôle, en tant que
taxinomia et mathesis participe de systèmes d’enregistrement, de
classification et de mesure, qui permettent des processus de
gouvernement et, en cela, relève d’un pouvoir disciplinaire (Towley,
1995, p. 561). Dans cet ordre d’idée, Llewellyn et Northcott (2005),
s’intéressent aux mécanismes de régulation du système de santé
britannique, fondé sur le calcul de coûts moyens standards, à partir
d’un objet de coût caractérisant des groupes de patients dont les
traitements sont cliniquement similaires et dont la consommation de
ressources est homogène. Un tel système, inspiré des Diagnostic
Related Group (DRG) américains, fondé sur des calculs de coûts
moyens, par groupes homogènes de malades, vise à la création d’une
représentation normée de l’hôpital, un hôpital moyen – the average
hospital -, permettant de réduire les marges de manœuvre des
médecins et, plus généralement, de renforcer un contrôle social sur le
système de santé.
Que retenir de ces travaux critiques pour notre compréhension du
contrôle de gestion ? Ils soulignent notamment la dimension sociale et
institutionnelle de cette pratique en montrant qu’elle ne peut être
appréhendée indépendamment de son contexte historique et socio-
politique. Le contrôle de gestion est ancré dans l’épistémè d’une
époque, en ce qu’il est tout à la fois le produit et le médium des
discours et controverses dominants dans la société à un moment
donné de son histoire. Plus encore il s’inscrit dans les dispositifs de
pouvoir et de gouvernementalité. Comme le suggèrent les approches
poststructuralistes, il témoigne, tout autant qu’il y participe, des
rapports de domination dans la société. En révélant la nature
profondément idéologique et politique des dispositifs discursifs et
matériels dans lequel s’inscrit le contrôle de gestion, ces perspectives
critiques visent à procéder à un travail de dénaturalisation salutaire en
ce qu’il nous permet d’aborder notre compréhension du contrôle de
gestion avec distance et discernement et surtout, de prendre
conscience de ses enjeux sociétaux.
Mais d’un autre côté, le contrôle de gestion n’est pas uniquement
constitué de discours. Il met en scène des acteurs, réflexifs et stratèges.
Il fait également jouer des outils et des instruments, en d’autres
termes, des non humains qui, par des processus d’inscription ou
d’appropriation, entretiennent avec les humains des rapports étroits, à
tel point que, parfois, l’on ne sait guère des humains et des non
humains, lesquels s’approprient les autres ? Loin d’une vision
déterministe un peu trop rapidement suggérée par la critique sociale
du contrôle de gestion, il convient désormais de repenser le contrôle
de gestion à travers ses agencements sociotechniques.

2. Au-delà de la critique sociale :


repenser les agencements
sociotechniques du contrôle de gestion
Les critiques poststructuralistes adressées au contrôle de gestion
éludent en premier lieu les marges de manœuvre discrétionnaires dont
les acteurs disposent. Face au contrôle, les acteurs disposent de
possibilités de jeux. C’est ce que montrent notamment les recherches
qui s’appuient sur l’analyse stratégique développée par Michel Crozier
et Erhard Friedberg. Pour ces deux auteurs en effet, aucun système
social n’est entièrement régulé et contrôlé (Crozier et Friedberg, 1977).
Les approches critiques du contrôle laissent également dans l’ombre
les régulations sociales observées dans les organisations (Reynaud,
1995) et, tout particulièrement les tensions entre règles de contrôle et
règles autonomes. Il s’agira dans cette section d’étudier en premier
lieu les jeux et stratégies d’acteur face aux systèmes de contrôle (2.1.).
En deuxième lieu, nous appréhenderons le contrôle de gestion à
travers les mécanismes de régulation conjointe où une régulation de
contrôle – orientée top-down - entre en tension avec une régulation
autonome – orientée – bottom-up (2.2.). En troisième lieu, en tant que
pratique socio-institutionnelle, les pratiques de contrôle peuvent être
autant appréhendées en tant qu’instruments de légitimation vis-à-vis
des attentes sociétales qu’à travers leurs fonctionnalités pratiques.
C’est bien ce que suggèrent les recherches qui mobilisent les Théories
Néo-institutionnelles (TNI) pour montrer qu’il existe un découplage
entre les systèmes de contrôle qui ne servent qu’à se mettre en
conformité avec les pressions institutionnelles et les systèmes internes
de contrôle davantage centrés sur la recherche d’efficience (2.3.). À
travers ces travaux se pose déjà une question fondamentale : celle de la
coordination et du contrôle sans consensus préalable. Cette question
nous est d’abord posée par les approches fondées sur le courant
conventionnaliste et notamment les économies de la grandeur
(Boltanski et Thevenot, 1991) qui décrivent la constitution d’accords et
de consensus à partir du contrôle (2.4.). Elle nous est également
soumise dans les recherches qui mobilisent la sociologie de la
traduction et, tout particulièrement, la théorie des objets-frontières
(2.5.).

2.1 Déploiement et transformation des outils de


contrôle par les jeux d’acteurs : les recherches
fondées sur l’analyse stratégique
Face au contrôle, les acteurs ne sont pas démunis de pouvoirs. Ils
disposent de zones d’incertitude. Ces zones ont été largement décrites
en sociologie des organisations et dans certains travaux relevant du
contrôle pour ne plus l’appréhender seulement comme colonisateur
des sphères organisationnelles, susceptibles de réifier la complexité du
réel. L’entreprise, considérée comme lieu de négociation (Crozier,
1970), ne peut être vue exclusivement comme le réceptacle de
techniques et d’instruments à visée dominatrice. Malgré la présence de
règles contraignantes déployées pour faire converger les membres de
l’organisation vers un ou des buts communs, la limitation de leur
liberté n’est ni complète ni figée. Les acteurs « jouent » avec ces règles,
les exploitent dans les rapports de force qu’ils entretiennent avec les
autres membres. Alors que les règles devraient conduire à réduire
l’incertitude sur les comportements, paradoxalement elles en créent
d’autres (Crozier et Friedberg, 1977), les acteurs exploitent leurs
imperfections. Ces jeux sont susceptibles de rendre leurs
comportements imprévisibles, de générer de l’incertitude et des zones
de liberté pour satisfaire leurs intérêts et pour négocier leur
participation à l’action collective. Ils modifient ainsi les règles de
l’organisation qui deviennent le reflet de leurs luttes d’intérêts. Dès
lors, le contrôle de gestion ne peut être caractérisé par sa seule
dimension instrumentale susceptible d’influencer des individus
impassibles, mais plutôt comme un ensemble de règles qu’ils
s’approprient et qu’ils modifient.
C’est ce que constate Justin (2004) dans une recherche intervention
portant sur une filiale d’une entreprise industrielle, leader européen
sur les marchés des instruments. Dans le cadre d’une mission de
création et de généralisation d’outils de contrôle permettant le
pilotage, le suivi et le diagnostic de la performance sur les lignes de
production, l’auteur montre que les outils de contrôle possèdent de
manière immanente, les principes d’intention (stratégiques,
d’influences, manipulatrices), de sélection (abrégés du bon/bien et du
vrai) et d’activation propres aux jeux d’acteurs (maniement
stratégique ou non de l’information). Les dispositifs de contrôle ne
sont ni « de simples objets techniques autorisant une conduite
rationnelle des organisations, ni de simples instruments neutres
totalement indépendants des acteurs qui les sélectionnent et les
utilisent » (2004, 231). Cette immanence s’active lorsque l’outil est
réellement opérationnalisé. Dans une recherche-action suivie d’une
observation participante menée dans une PME souhaitant formaliser
et instrumenter sa gestion interne, Zawadzki et Nobre (2013)
expliquent l’échec de la mise en place du contrôle de gestion par les
stratégies d’acteurs. Les trois tentatives infructueuses ont révélé une
résistance paradoxale de la direction et de l’expert-comptable,
pourtant à l’origine de la démarche. Le changement initié s’est
finalement avéré comme une menace pour le maintien des zones
d’incertitude et donc de pouvoirs respectifs : la perte d’un contrôle
panoptique et clanique de la PME par le dirigeant, la perte de la
rentabilité économique pour l’expert-comptable au profit d’un
directeur administratif et financier chargé de déployer le système.
Résistance des dirigeants, réactions modérées des acteurs, les
stratégies individuelles peuvent également conduire à l’inverse à
l’appropriation des dispositifs de contrôle de gestion. C’est ce que
montre Bollecker (2013) dans une recherche portant sur une
université française : l’émergence d’outils locaux indépendants au sein
d’unités de formation et de recherche, révèle une instrumentalisation
du contrôle dont l’enjeu est la protection, l’accaparation ou
l’optimisation des ressources. Dans un contexte fortement politisé, la
comptabilité est instrumentalisée pour promouvoir les intérêts de
certains acteurs locaux (Burchell et al. 1980).

2.2. Des règles de contrôle aux règles


autonomes : la modération du top-down dans la
théorie de la régulation sociale
Dans la même tradition sociologique que l’analyse stratégique, la
théorie de la régulation sociale (Reynaud, 1995) se caractérise par une
confrontation entre l’explicite et l’implicite et par la structuration des
jeux d’acteurs. La régulation sociale, condition à l’action collective,
entendue comme la formation et le maintien des règles (Reynaud,
1995), décrit les processus d’apparition et de développement des règles
sociales. Deux modes de construction des règles sont distingués : la
régulation de contrôle imposée par le haut (top-down) et la régulation
autonome, règles construites par leurs acteurs (bottom-up). La
première se réfère à des directions d’organisations qui tentent de
limiter les risques de déviance, inhérents à toute activité, par la
contrainte particulièrement décriée par les tenants de l’approche
critique du contrôle. La seconde se fonde sur la logique de l’exécutant
qui cherche à échapper à la première par la création d’une référence
autonome et donc libre. Cependant, Reynaud insiste bien sur la
particularité de la régulation autonome qui ne doit pas être
exclusivement assimilée à un repli du groupe sur lui-même mais aussi
à une réaction aux insuffisances des règles formelles (Reynaud, 1995).
La confrontation des deux modes de régulation donne lieu à une
régulation qualifiée de conjointe, qui se traduit par « une négociation
explicite ou implicite et s’inscrit dans un accord » (Reynaud, 1995,
249). C’est bien une telle orientation que prennent certains
spécialistes du contrôle de gestion en proposant de comprendre la
mise en œuvre des outils de contrôle de gestion sous l’angle des
pratiques effectives (Chua, 2007, Lorino, 2008) et non seulement par
des normes prescrites.
À notre connaissance, seules deux recherches en contrôle de gestion
mobilisent cette approche. Bourguignon (2004) évoque clairement
l’utilité de l’approche du sociologue français pour comprendre les
processus sociaux à l’œuvre au sein des pratiques. Une des règles
fondamentales, créant l’action collective, est celle de l’alignement des
comportements individuels aux objectifs organisationnels. Cette règle
est légitime car elle sert les stratégies individuelles (fondées sur la
rémunération, le statut, la reconnaissance…) et dans la mesure où son
application est contrôlée par des processus d’évaluation de la
performance et de sanctions. Cependant, pour Bourguignon (2004),
les processus de planification et de budgétisation liés au management
par objectif sont des zones de négociation où les règles de contrôle et
les règles autonomes s’affrontent, les intérêts locaux et globaux étant
en jeu. Le contrôle de gestion peut alors être appréhendé comme un
système de règle de contrôle susceptible de maîtriser les
comportements déviants mais qui, paradoxalement, renforce la
régulation autonome. C’est dans cette perspective de la théorie de la
régulation, que Thomas (2003) s’intéresse à une filiale d’un groupe
industriel européen dont la mise en œuvre d’un mode de coordination
transversal se heurte à la problématique non seulement d’autonomie
des acteurs, mais aussi d’interprétation et de connaissance. La
déclinaison top down de la stratégie par le biais du contrôle de gestion
ne peut être envisagée exclusivement comme une modélisation de la
performance connue ex ante. L’organisation du groupe en entités,
dotées d’une forte autonomie et qui interagissent entre elles selon des
modes indéterminés a priori, fait apparaître des logiques de
rationalités locales nécessitant une double régulation conjointe, inter-
niveaux et inter-métiers (Thomas, 2003). Quand bien même la théorie
de la régulation sociale reste peu mobilisée en contrôle de gestion, elle
éclaire sur les conflits sous-jacents relevant de la planification et de la
mesure de la performance.

2.3. Un contrôle de gestion structurant et


structuré par les acteurs : la TNI ou le ref et
partiel d’une société supposée dominatrice
Les approches critiques du contrôle restent fondamentalement
ancrées dans l’idée d’une forme de dépendance des systèmes
organisationnels. Ces derniers sont subordonnés à un mouvement
sociétal massif de colonisation de sphères organisationnelles par des
langages, repères et valeurs économiques. C’est ce que développent
également les premiers travaux des tenants de la théorie néo-
institutionnelle (TNI). La perspective adoptée est celle d’une
organisation qui est le reflet d’un contexte social, historique, politique
voire idéologique : elle appartient à un champ institutionnel dans
lequel se construisent des normes qu’elle adopte. Les forces
institutionnelles régulatrices conduisent alors les organisations à
l’isomorphisme. Elles adopteraient les mêmes méthodes au sein de
leur champ institutionnel par des processus coercitifs, normatifs,
mimétiques (DiMaggio et Powell, 1991). Peu éloignée à l’origine d’une
perspective déterministe, à l’instar d’ailleurs des théories de la
contingence, la TNI s’est néanmoins très vite distinguée par la
question de la légitimité. La conformité de l’organisation à son
champ/environnement institutionnel lui permet d’augmenter sa
légitimité et son accès aux ressources essentielles et, par conséquent sa
pérennité (Meyer et Rowan, 1977 ; DiMaggio et Powell, 1983 ; Meyer
et Scott, 1983). Dès lors une conformité rituelle peut-être adoptée, les
organisations ne s’inscrivant dans l’isomorphisme qu’en apparence en
procédant à un découplage entre leurs structures formelles légitimes
et leurs pratiques (Meyer et Rowan, 1977).
Nombreux sont les travaux en contrôle de gestion s’inscrivant dans
une telle perspective : le contrôle ne viserait pas exclusivement la prise
de décisions rationnelles dans un cadre institutionnel figé, il permet de
fournir l’illusion de la rationalité aux acteurs auprès desquels il est
nécessaire de légitimer les actions (Covaleski et Dirsmith, 1988,
Modell, 2002, Rocher, 2009, Bollecker, 2013). Une telle orientation
est particulièrement observée dans les pratiques de contrôle de gestion
sociétale. Par exemple, Antheaume (2005) expose le cas d’une
entreprise industrielle de produits phytosanitaires exploitant des
outils lui permettant de tenir un discours structuré sur la réduction
des impacts environnementaux. À l’aide d’indicateurs de comptabilité
environnementale, un comportement responsable est affiché sans
remise en cause du fond ni du bien-fondé de son activité économique.
C’est alors à un déploiement de deux systèmes d’information auquel
on peut assister : le premier focalisé sur les questions financières pour
les dirigeants et les actionnaires, le second utilisant des informations
sociétales à des fins publicitaires pour les parties prenantes (Weaver et
al. 1999). L’approche « top down » du contrôle de gestion, que
suppose la pression institutionnelle dans les premiers travaux de la
TNI, évolue en raison d’un découplage des pratiques réelles qui doit
donc tenir compte des circonstances locales et de la réalité des
pratiques (Scott, 2008).
Certains institutionnalistes prolongent l’analyse en cherchant à
comprendre les processus de changement dans les organisations. Le
constat selon lequel le changement découle souvent d’une pluralité
d’individus aux intérêts divergents (Lawrence et Suddaby, 2006)
renverse la logique « top down » en « bottom-up ». C’est bien ce que
montrent Bourquia et Al-sharif (2011) à propos de
l’institutionnalisation des systèmes de mesures de performance au
sein des collectivités territoriales françaises : les réactions d’hostilité
des acteurs à ces systèmes supposent un déploiement fondé sur des
interactions, des allers et retours entre les logiques institutionnelles et
les pratiques de ces acteurs.

2.4. La constitution d’accords et de consensus à


partir du contrôle : les approches
conventionnalistes
Malgré cette perspective intégratrice, la TNI ne donne pas de réelles
réponses à la construction du social à partir des conflits, tensions et
crises internes ou au contraire, à partir des processus d’adhésion. En
revanche, l’approche conventionnaliste adoptée par l’économie de la
grandeur (Boltanski et Thévenot, 1991) est fondée sur le principe selon
lequel les acteurs d’une structure partagent des systèmes de
représentations qui contribuent à construire les règles d’interaction.
En d’autres termes, l’action collective n’est possible que par la
mobilisation de cadres communs, de conventions. Une convention est
un cadre à partir duquel les acteurs identifient, analysent et cherchent
à résoudre les problèmes afin de sceller des accords. Une telle
perspective suppose, bien entendu, que les individus aient l’aptitude à
se rapprocher sur des généralités, sur des grandeurs communes,
systèmes d’équivalence partagés. Ces systèmes sont des mondes
d’équivalence, où les principes communs ou grandeurs communes
permettent de qualifier ce qui est juste et légitime. À partir de la
philosophie politique, Boltanski et Thévenot (1991) identifient six
mondes différents (de l’inspiration, domestique, de l’opinion, civique,
marchand, industriel), qui ne sont ni purs ni imperméables, auxquels
les acteurs se réfèrent pour justifier leurs comportements, décisions et
actions. Les relations au sein de chaque monde ne sont bien
évidemment pas naturelles. Dès lors, des litiges peuvent se produire et
qui seront tranchés par des épreuves en mobilisant le principe
supérieur commun. Il en est de même entre les différents mondes. En
effet, ce qui est considéré comme « grand » dans un monde peut être
appréhendé comme « petit » voire être critiqué par un autre monde.
Boltanski et Thévenot (1991) invitent alors les acteurs en désaccord au
compromis où « on se met d’accord pour composer, c’est-à-dire pour
suspendre le différend, sans qu’il ait été réglé par le recours à une
épreuve dans un seul monde. (...) Le compromis vise un bien commun
qui dépasserait les deux formes de grandeur confrontées en les
comprenant toutes deux » (Boltanski et Thévenot, 1991, p. 59). Malgré
l’intérêt d’une telle approche, notamment sur des problématiques de
différences culturelles professionnelles au sein d’une même structure
(Bollecker, 2010), la mobilisation de ces travaux dans le domaine du
contrôle de gestion se fait rare. À notre connaissance, seule l’étude de
Didier Le Maître (2006) sur le processus budgétaire dans 14
communes rurales françaises adopte les économies de la grandeur : le
consensus existant autour de l’élaboration et du contrôle du budget, de
l’utilisation de procédures simples, du vote s’expliquerait par des
relations municipales relevant plus du monde domestique que civique,
puisque « les décisions sont grandement influencées par les relations
personnelles, le poids de la hiérarchie et de la tradition, et du respect
dû et rendu au maire » (Lemaître, 2006).
La théorie des conventions développée en économie (Favereau,
1989, Orléan, 1989) et en sciences de gestion, dans la lignée des
travaux de Gomez (1994, 1997), s’avère plus praticable dans le
domaine du contrôle de gestion. Partant de l’incertitude liée à
l’incomplétude des contrats (Williamson, 1991), les conventionnalistes
observent que les individus se réfèrent à des conventions en vigueur
pour décider des comportements à adopter, c’est-à-dire un « ensemble
de repères socialement construits, permettant aux individus de
résoudre des problèmes récurrents, en coordonnant leur
comportement dans un espace normé » (Amblard, 1998, 1021). Grâce
à l’existence des conventions, l’individu peut agir dans des situations
d’incertitude en adhérant à ces conventions. La comptabilité serait
ainsi une construction sociale permettant aux comptables de se
retrancher derrière des pratiques conventionnelles, celles adoptées par
leurs pairs (Amblard, 1998). Une telle approche a été mobilisée pour
analyser la préparation budgétaire, souvent bien encadrée dans les
grandes entreprises par un arsenal de règles et de procédures. Zécri
(2001) montre ainsi, dans une enquête réalisée auprès de 100 sociétés
françaises, que la budgétisation fonctionnerait grâce à une convention
de coopération où les directeurs généraux, les directeurs, les
responsables opérationnels et fonctionnels, les contrôleurs de gestion
mettent à disposition des compétences, de l’expertise, du temps pour
bâtir le budget. Les agents sont informés sur l’existence de la
convention par des routines de travail, par le discours du directeur
général, par des documents de travail émis par le contrôleur de
gestion. Bollecker et Mathieu (2006) montrent, de leur côté, l’impact
du développement de la responsabilité sociétale de l’entreprise dans
les pratiques de contrôle de gestion sur les comportements des
acteurs. Le contrôle joue un rôle de convention d’effort puisqu’ « il
constitue un vaste système métrologique destiné à fournir aux
acteurs des repères quantitatifs conventionnels » (Gomez, 1994,
p. 249). Ce sont des systèmes de mesure qui permettent d’établir
l’accord conventionnel sur l’effort selon un objectif d’efficience
commun. Ces systèmes d’évaluation permettent « la transmission
d’informations sur l’implication attendue et/ou effective » (Gomez,
1994, p. 191). Les règles de l’effort sont donc rappelées à ce moment,
mais aussi confirmées ou amendées par la réalité de l’implication
observée. Dès lors, le développement de critères de performance plus
vastes, notamment sociétaux, peut remettre en cause la convention
d’effort (comptable) communément acceptée. C’est par des facteurs
endogènes et exogènes ainsi que par la recherche d’une cohérence
morphologique de la convention que l’évolution vers une convention
d’effort « sociétale » liée au système de mesure de la performance peut
se réaliser (Bollecker et Mathieu, 2006).
La théorie des conventions reste peu développée en contrôle de
gestion. Son potentiel de recherche est pourtant important pour
comprendre comment les acteurs construisent de manière informelle
des accords et structurent l’action collective. Les acteurs disposent de
marges de liberté pour s’accorder sur les objectifs, adopter, rejeter ou
transformer les conventions en vigueur.

2.5. Rassembler des intérêts divergents autour


du contrôle de gestion : de la théorie de la
traduction aux objets frontières
Dans une démarche plus approfondie, de nombreux travaux en
contrôle de gestion se sont orientés vers la théorie de l’acteur réseau
portée par Callon et Latour en sociologie de l’innovation. À l’origine,
cette approche visait à procurer un cadre théorique pour comprendre
l’innovation telle qu’elle se fait, c’est-à-dire au travers de l’émergence
et l’enracinement de réseaux sociotechniques. Les travaux réalisés par
ces auteurs révèlent que l’innovation, dans un état de simple énoncé,
oppose. Ainsi, partisans et opposants à une innovation sont divisés par
une controverse et par les jeux d’alliances. Dès lors, les réseaux
sociotechniques prennent forme, par l’intermédiaire de biais
d’informations, d’objets notamment, et s’étendent tout au long du
développement de l’innovation, en fonction de leurs positions
respectives eu égard au projet. Pour construire des accords entre
partisans et opposants, Callon et Latour proposent de passer par un
processus de traduction « qui transforme un énoncé problématique
particulier dans le langage d’un autre énoncé particulier » (Callon
1975, 19) et surtout d’énoncer « l’interprétation donnée par ceux qui
construisent les faits, de leurs intérêts et de ceux des gens qu’ils
recrutent » (Latour, 1989, 260). Parler de traduction d’intérêts signifie
ainsi à la fois que l’on propose de nouvelles interprétations et que l’on
déplace des intérêts (Latour, 1989). Le processus de traduction passe
par l’analyse du contexte (dresser la liste et les enjeux et des intérêts
des acteurs impliqués), la problématisation et la traduction
proprement dite (pouvant prendre différentes stratégies permettant de
profiter ou de modifier les rapports de force entre les acteurs), la
constitution d’un point de passage obligé et la convergence (processus
de compromis sans avoir renié de leur spécificité) des investissements
de forme (supports qui contribuent à lier entre eux les acteurs),
l’enrôlement et la mobilisation (affecter aux membres participants, un
rôle précis, une tâche, une mission qui en fait des acteurs actifs d’un
système) le rallongement (multiplier les entités qui composent le
réseau) la vigilance (veiller au bon fonctionnement du réseau et éviter
les menaces venant des membres du réseau ou de l’extérieur).
La théorie de la traduction est largement mobilisée en contrôle de
gestion. Par exemple, Fasshauer (2012) montre dans une observation
participante, réalisée au siège d’une division européenne d’un groupe
américain, le processus de mobilisation des acteurs du contrôle de
gestion. Dans le cadre d’un changement de direction de cette division,
de la mise en place d’une nouvelle stratégie et de nouveaux outils de
contrôle, l’auteur dévoile les pratiques de forecast s’inscrivant à la fois
dans du contrôle diagnostic et du contrôle interactif au sens de Simons
(1995). Cet antagonisme s’explique en partie par la nécessité pour la
direction de trouver des alliés parmi les responsables locaux, d’ouvrir
le réseau pour clore une controverse et de le fermer pour assurer la
mobilisation des acteurs autour de la stratégie. Ce sont ainsi des
espaces de dialogue et de discussion qui s’ouvrent et qui permettent
aux subordonnés de faire remonter leurs problèmes locaux à la
direction, de lier les équipes au réseau.
Plus largement, au-delà des innovations managériales, des
processus de traduction sont en œuvre dans la résolution de
problèmes impliquant les outils, la fonction et les acteurs du contrôle
de gestion. Dans une recherche traitant des systèmes d’information
différenciés, lesquels présentent des risques d’opportunisme et de
coordination, Bollecker (2004) montre le rôle de traduction des
contrôleurs de gestion et, plus précisément, de clarification des
résultats non financiers et d’intéressement des services concernés à la
résolution de dysfonctionnements. Les intérêts et heuristiques
divergents des acteurs méritent que l’on s’intéresse davantage au rôle
de médiation tout au long de la hiérarchie et dans les relations
horizontales que joue le contrôle de gestion et aux processus de
traduction dans lesquels il peut s’inscrire.
Dans le cadre d’une recherche-intervention réalisée au sein de la
communauté urbaine de Lille, portant sur un projet de mise en place
d’un guide des risques proposée par la Direction Générale de la
Comptabilité Publique, Rocher (2007) mobilise les « objets
frontières ». La difficulté de ce projet résidait principalement dans la
diversité des acteurs engagés (services du Trésor, services
déconcentrés, services administratifs des collectivités) et dans leurs
intérêts divergents. Dès lors, la coopération de ces acteurs s’est
construite par l’intermédiaire de trois groupes de référence
(représentants des services financiers, des services de contrôle de
gestion et du Trésor public) qui ont cherché à mettre en place un
processus fluctuant « entre consensus, compromis et conflits entre des
acteurs interdépendants et complémentaires (notamment au regard de
leurs compétences et de leurs connaissances) ». Le guide des risques
financiers, à l’origine de la recherche, est ainsi devenu « objet
frontière » permettant de dépasser les différences entre les mondes et
de les fédérer autour d’un réseau.
En réalité, de tels objets frontières, malléables pour permettre une
convergence des intérêts, constituent des dispositifs d’échanges et de
communication. C’est bien ce que montre Chenhall (2005) pour les
systèmes de mesure de la performance. Ces derniers visent à faire le
lien entre les niveaux stratégiques et opérationnels. Ils procurent « un
cadre partagé pour communiquer la stratégie et la vision, un langage
qui aide les individus à voir quelles parties de l’organisation sont en
cohérence avec la stratégie de l’organisation et un lieu de rétention
du savoir qui aide à analyser et à apprendre des performances
passées » (Chenhall 2005, 415). Vaivio (2004), explique également
que le déploiement de mesures non financières de la performance
ouvre et structure le dialogue entre managers et opérationnels incités
à échanger sur le contenu des activités. Ces dispositifs d’échanges
peuvent alors évoluer pour s’adapter à des contextes particuliers,
comme c’est le cas de la méthode ABC (Briers et Chua, 2001). C’est
également ce que décrivent Naro et Travaillé (2009) ou Hansen et
Mouritsen (2005) au sujet du Balanced Scorecard qui se « présente
comme un objet autour duquel, des acteurs, appartenant à des
mondes différents (les dirigeants, les cadres fonctionnels, les
opérateurs, par exemple) interagissent et se livrent à un processus de
construction collective des objectifs et de la stratégie » (Naro et
Travaillé, 2011).
Finalement, à travers l’étude des stratégies d’acteurs et des
agencements sociotechniques dans lesquels s’inscrit le contrôle de
gestion, se révèle une problématique fondamentale en gestion des
organisations : celle de la coopération et du contrôle sans consensus
préalable. Or, cette question n’est pas sans lien avec celles de
l’ambiguïté et de la gestion des paradoxes et, comme nous le verrons,
met en exergue la nécessité d’envisager un pilotage partagé.

Conclusion : des discours, des


instruments et des acteurs…
Envisager le contrôle de gestion sous un angle programmatique,
comme une pratique sociale et institutionnelle, conduit à prendre de la
hauteur par rapport à l’apparente neutralité des instruments et des
méthodes de contrôle. Comme le suggèrent Miller et O’Leary (1987 ;
1994), les dispositifs comptables participent à l’édification de la
« personne calculable » et, par là même « gouvernable ». L’acception
« comptable » révèle alors l’étendue de ses significations : comptable,
donc susceptible de faire l’objet d’un comptage, d’un calcul, d’une
mesure ; mais aussi, comptable de quelque chose devant quelqu’un. Le
responsable devant alors rendre des comptes. Sans doute est-ce là le
sens du terme anglo-saxon « accountibility ». La société de l’audit – et
du contrôle de gestion - est une société du « management par les
chiffres », où l’obsession du contrôle et l’illusion de la mesure portent
à édifier des espaces de calcul et donc de visibilité, sur l’action et les
résultats de personnes dès lors responsables, comptables, auditables,
contrôlables et, in fine, gouvernables. Tel est l’éclairage que nous
donnent les approches critiques du contrôle de gestion. Celui-ci y est
appréhendé comme s’insérant dans des dispositifs de
gouvernementabilité. Ces dispositifs procèdent de plusieurs
mécanismes dont les éléments discursifs occupent une place centrale.
Les concepts et instruments de contrôle de gestion, derrière leur
apparente neutralité, peuvent être porteurs d’un discours inscrit dans
l’épistémè de son temps. Les travaux comptables d’inspiration
poststructuralistes, mettent ainsi en exergue le rôle des mythes, des
signes ou de la rhétorique, par exemple (Macintosh, 2002). En même
temps, les instruments, comme le montre la théorie de la traduction,
sont des actants en ce qu’ils participent à la construction d’une
nouvelle réalité chez les acteurs en présence dans le réseau. On peut
ainsi penser, qu’un médecin, chef de pôle à l’hôpital, qui, durant ses
études de médecine n’a jamais été formé à l’économie ou à la gestion,
et qui, désormais est amené à faire un usage régulier d’États
Prévisionnels des Recettes et des Dépenses ou de comptes de résultats
analytiques, va adopter les discours et concepts économiques et
managériaux. Le contrôle de gestion apparaît dès lors comme un
puissant producteur de sens et de représentations. Plus encore, il
présente un caractère performatif (Callon, 2006) : s’il participe à la
construction de la réalité, il oriente la prise de décision et les actions.
Mais les acteurs ne sont jamais totalement démunis face aux
discours que véhiculent le contrôle de gestion et à la performativité
des discours comme des instruments. Ils disposent de zones
d’incertitude qui leur confèrent des marges de liberté.
L’étude des interrelations complexes entre éléments discursifs,
socio-matérialité des instruments et jeux d’acteurs constitue en
définitive un terrain de recherche, peu exploré, si ce n’est de manière
encore trop partielle, qui mérite désormais toute notre attention.

Références bibliographiques
Al Sharif N. & Bourquia N. (2011). Les systèmes de mesure de
performance en collectivités territoriales : un éclairage à la lecture
du processus d’institutionnalisation. 32e Congrès de l’AFC,
Montpellier.
Amblard M. (1998). La théorie des conventions : une approche
renouvelée du modèle comptable ?. Actes du 19e Congrès de l’AFC,
Nantes, pp. 1017-1029.
Antheaume N. (2005). La comptabilité environnementale est-elle une
forme d’hypocrisie organisationnelle ? Le cas des indicateurs de
performances écologiques d’une gamme de pesticides. Actes du 2e
Congrès de l’AFC, Lille.
Anthony R.N. & Dearden J. (1965). Management Control Systems.
Irwin, Homewood.
Arrington C.E. & Puxty A.E. (1991). Accounting, Interests and
rationality: a communicative relation. Critical Perspectives on
Accounting, 2 (1), 31-58.
Aubert N. (2006). L’Individu hypermoderne. Paris, Érès, collection
« Sociologie clinique ».
Bollecker M. (2004). Les mécanismes de contrôle dans un contexte de
différenciation des systèmes d’information. Finance, Contrôle et
Stratégie, vol. 7, n° 4 (décembre).
Bollecker M., Clementz C. & Mathieu P. (2006). Le comportement
socialement responsable des entreprises : une lecture des travaux en
comptabilité et contrôle de gestion dans une perspective néo-
institutionnaliste. Actes du 27e Congrès de l’AFC, Tunis.
Bollecker M. (2010). Management controller’s socialization and
professional culture. Actes du 33rd Annual Congress of the European
Accounting Association, Istanbul, Turquie.
Bollecker M. (2013). Pourquoi le contrôle de gestion à l’université est-
il un échec ?. Politiques et Management public, vol. 30, n° 2, pp.
221-239.
Boltansky L. & Thevenot L. (1991). De la justification. Les économies
de la Grandeur. Paris, Gallimard, collection « NRF essais ».
Bourguignon A. (2004). Performance Management and Management
Control: Evaluated Manager’s Point of View. European Accounting
Review, vol. 13, n° 4, pp. 659-687.
Briers M. & Chua W.F. (2001). The role of actor-networks and
boundary objects in management accounting change: a field study of
an implementation of activity-based costing. Accounting,
Organizations and Society, 26 (3), 237-269.
Burchell S., Clubb C., Hopwood A., Hugues J. & Nahapiet J. (1980).
The roles of accounting in organizations and society. Accounting,
Organizations and Society, 5, 5-27.
Callon M. (1975). L’Opération de traduction comme relation
symbolique, incidence des rapports sociaux sur le développement
scientifique et technique. Paris, Maison des Sciences de l’Homme.
Callon M. (2006). What Does It Means to Say that Economics Is
Performative?. Paris, Papier de recherche du Centre de Sociologie de
l’Innovation.
Chenhall R. (2005). Integrative Strategic Performance Measurement
Systems, Strategic Alignment of Manufacturing, Learning and
Strategic Outcomes: an Exploratory Study. Accounting,
Organizations and Society, 30, 395-422.
Chua W.F. (2007). Accounting, measuring, reporting and strategizing
– Re-using verbs: A review essay. Accounting, Organizations and
Society, 32 (4), 487-494.
Covaleski M.A. & Dirsmith M.W. (1988). An Institutional Perspective
on the Rise, Social Transformation, and Fall of a University Budget
Category. Administrative Science Quarterly, 33 (4), 562-87.
Crozier M. (1970). La Société bloquée. Paris, Seuil.
Crozier M. & Friedberg E. (1977). L’Acteur et le Système. Paris, Seuil.
DiMaggio P.J. & Powel W.W. (1983). The Iron Cage Revisited;
Institutional Isomorphism and Collective Rationality in
Organizational Fields. American Sociological Review, 48, 147-160.
DiMaggio P.J. & Powell W.W. (1991). The New Institutionalism in
Organizational Analysis. University of Chicago Press.
Fasshauer I. (2012). Les Interactions entre contrôle et stratégie :
redéfinition du rôle des cadres intermédiaires et du levier interactif de
contrôle. Université Paris-Dauphine (10 décembre 2012).
Favereau O. (1989). Marchés internes, marchés externes. Revue
économique, numéro spécial « Économie des conventions », vol. 40,
n° 2 (mars), pp. 273-329.
Foucault M. (1966). Les Mots et les Choses. Paris, Gallimard.
Foucault M. (1975). Surveiller et punir. Naissance de la prison. Paris,
Gallimard.
Foucault M. (1977). Dits et écrits II. 1976-1988. Paris, Gallimard.
Gomez P.Y. (1994). Qualité et théorie des conventions. Paris,
Economica.
Habermas J. (1971). Towards a Rational Society: Student Protest.
Science and Politics. Londres, Heinemann.
Habermas J. (1987). Théorie de l’agir communicationnel. Critique de
la raison fonctionnaliste, Tome 2. Paris, Fayard.
Hansen A. & Mouritsen J. (2005). Strategies and Organizational
Problems: Constructing Corporate Value and Coherence in Balanced
Scorecard Processes. In Christopher S., Controlling Strategy.
Londres, Chapman, pp. 125-150.
Heilbrunn B. (2004). La Performance, une nouvelle idéologie ?. Paris,
La Découverte.
Hood C. (1991). A public management for all seasons?. Public
Administration, 6 (1), 3-19.
Hood C. (1995). The New Public Management in the 1980s: variations
on a theme, Accounting, Organizations and Society, 20 (2-3), 93-
109.
Hopwood A. & Miller P. (1994). Accounting as Social and
Institutional Practice. Londres, Cambridge University Press.
Justin J. (2004). Proposition d’un cadre conceptuel d’analyse des jeux
d’acteurs cristallisés dans et par les outils de contrôle. Comptabilité
Contrôle Audit, numéro thématique (juin).
Latour B. (1989). La Science en action. Introduction à la sociologie
des sciences. Paris, La Découverte.
Lawrence T.B. & Suddaby R. (2006). Institutions and Institutional
Work. In Clegg S., Hardy C., Nord W.R. & Lawrence T., Handbook of
Organizations Studies. Londres, Sage.
Le Maître D. (2006). Les processus d’élaboration et de contrôle du
budget des communes rurales. 27e Congrès de l’AFC, Tunis.
Llewellyn S. & Northcott D. (2005). The average hospital. Accounting,
Organizations and Society, 30, 555-583.
Lorino P. (2008). Méthodes de recherche en contrôle de gestion : une
approche critique. Finance Contrôle Stratégie, 11, hors-série (juin),
pp. 149-175.
Macintosh N.B. (2002). Accounting, Accountants and Accountability.
Poststructuralist positions. New York, Routledge.
Meyer J.W. & Rowan B. (1977). Institutional Organizations: Formal
Structure as Myth and Ceremony. American Journal of Sociology,
83 (2), 340-363.
Meyer J.W. & Scott W.R. (1983). Organizational Environments.
Rituals and Rationality. Berverly Hills, CA, Sage.
Miller P. & O’Leary T. (1987). Accounting and the Construction of the
Governable Person. Accounting, Organizations and Society, 12 (3),
235-265.
Miller P. & O’Leary T. (1994). Governing the Calculable Person. In
Hopwood A.G. & Miller P., Accounting as Social and Institutional
Practice. Cambridge University Press.
Modell S. (2002). Institutional Perspectives on Cost Allocations:
Integration and Extension. European Accounting Review, 11 (4).
Naro G. & Travaillé D. (2011). The role of the balanced scorecard in the
formulation and control of strategic processes. Journal of Applied
Accounting Research, 12 (3), 212-233.
Orléan A. (1989). Pour une approche cognitive des conventions
économiques. Revue économique, vol. 40, n° 2 (mars), pp. 241-272.
Power M. (1997). La Société de l’audit. L’obsession du contrôle. Paris,
La Découverte. Édition originale : Power M. (1997). The Audit
Society: Rituals and Verification. Oxford University Press.
Power M. & Laughlin R. (1992). Critical Theory and Accounting. In
Alveson N. & Wilmott H., Critical Management Studies. London,
Sage, pp. 113-135.
Power M. & Laughlin R. (1996). Habermas, Law and Accounting.
Accounting, Organizations and Society, 21 (5), 441-465.
Revel J. (2002). Le Vocabulaire de Foucault. Paris, Ellipses.
Reynaud J.D. (1995). Le Conflit, la négociation et la règle. Paris,
Octares.
Rocher S. (2007). De l’implantation à l’appropriation d’une innovation
comptable dans le secteur public local : une approche
interactionniste. 28e Congrès de L’AFC, Poitiers.
Rocher S. (2009). Implantation et rôle d’un outil de gestion
comptable. Revue française de gestion, 35, 190, pp. 77-89.
Scott W.R. (2008). Institutions and Organizations. Ideas and Interests.
Los Angeles, CA, Sage.
Simons R. (1995). Levers of Control. Boston, MA, Harvard Business
School Press.
Townley B. (1993). Foucault, power/knowledge, and its relevance for
Human Resource Management. Academy of Management Review,
18 (3), 518-545.
Towley B. (1995). Managing by Numbers: Accounting, Personnel
Management and the creation of a Mathesis. Critical Perspectives on
Accounting, 6, 555-575.
Vaivio J. (2004). Mobilizing Local Knowledge with Provocative Non-
financial Measures. European Accounting Review, vol. 13, n°1,
pp. 39-71.
Weaver G.R., Trevino L.K. & Cochran P.L. (1999). Integrated and
decoupled corporate social performance: Management
commitments, external pressures, and corporate ethics practices.
Academy of Management Journal, 45 (5), 539-542.
Williamson O.E. (1991). The Logic of Economic Organization. In
Williamson O.E. & Winter S.G., The Natur of the Firm. Oxford
University Press.
Zawadzki C. & Nobre T. (2013). Stratégie d’acteurs et processus
d’introduction d’outils de contrôle de gestion en PME. Comptabilité
Contrôle Audit, Tome 19, vol. 1, pp. 91-116.
Zécri J.L. (2001). Élaboration budgétaire et théorie des conventions.
Actes du 22e Congrès de l’AFC, Metz.
Chapitre 2

Le système des tableaux de bord


et la cohésion stratégique et
organisationnelle

DENIS TRAVAILLÉ
YVES DUPUY

L’objet de ce chapitre est de discuter des principes de conception et


d’utilisation des systèmes de tableaux de bord - par la suite notés STB
- au regard de leurs apports ou réponses potentiels aux impératifs de
cohésion de l’organisation dans laquelle ils vont s’insérer, et en
particulier à la formulation et à la mise en œuvre de sa stratégie.
La construction et l’utilisation d’un système de tableaux de bord, au
sein d’une organisation, ne vont pas de soi, ne répondent pas à une
norme incontournable (Savall et Zardet, 2013), contrairement à ce que
voudraient faire croire certains auteurs ou consultants. De nombreux
exemples sont en effet rapportés dans lesquels le STB reste peu ou pas
utilisé, ou apparaît comme dévié de ses buts initiaux (Naro et
Travaillé, 2010, 2011b), ou devient même un facteur
d’incompréhension, voire de conflit, et par suite d’inefficacité. Une
hypothèse explicative de ces difficultés pratiques tiendrait à
l’insuffisance d’apport des STB à la cohérence stratégique et à la
cohésion des organisations concernées (Norreklit, 2000). Autrement
dit, ces STB ne permettraient pas d’atteindre le degré d’intégration
espéré des représentations et comportements à partir des liens qu’ils
prétendent établir entre ce qu’il est convenu de nommer « Tableau de
Bord Stratégique » - par le suite noté TBS - d’un côté, « Tableaux de
Bord Opérationnels » – notés TBO - de l’autre, et grâce à eux.
Réciproquement, il se pourrait que les facteurs de cohésion qui
unissent les acteurs soient insuffisamment traduits par le STB,
rendant ce dernier inutile ou perturbateur. Autrement dit il existerait,
dans de nombreux cas pratiques, une insuffisance de réflexion
préalable sur la conception même de ce STB.

Système de tableaux de bord (STB) : figure systémique


représentant une organisation, et composée de deux éléments
fondamentaux, le tableau de bord stratégique (TBS) d’une part,
les tableaux de bord opérationnels (TBO) d’autre part.
L’intention de cette figure est de décrire et d’interpréter, de façon
complémentaire si possible, d’une part les interactions formelles,
d’autre part les interactions de sens, ou intersubjectivités, qui
fondent la cohérence stratégique et la cohésion
organisationnelle définies plus avant.

C’est que, d’un point de vue méthodologique, la mise en cohérence,


ainsi comprise comme propriété consubstantielle des systèmes de
tableaux de bord, pose le problème du choix, ou de l’harmonisation,
entre approche descendante – souvent désignée par « top – down » -
et approche ascendante – souvent nommée « bottom – up » - des
représentations à insérer, en raison de leur pertinence même, dans
chacune des deux composantes fondamentales du STB. Comment,
autrement dit, concilier ou réconcilier une image supposée unifiée et
unificatrice de la stratégie, celle véhiculée par le TBS, et la diversité
attendue de TBO adaptables à des attentes opérationnelles locales,
donc variées et variables par définition ? Dans la littérature
organisationnelle et informationnelle, l’approche « top – down » est
ainsi fréquemment associée à la formalisation de l’organisation et de
son système d’information, alors que le « bottom – up » exprimerait
plutôt des mécanismes ou préoccupations d’ordre informel. En réalité,
et pour chacune de ces deux approches, il s’agit de questionner la
possibilité même d’établir une complémentarité entre le formel et
l’informel, de façon à parvenir à un STB potentiellement inducteur
d’un cadre d’action homogène (Guibert et Dupuy, 1997).

Cohérence stratégique : aptitude, donc méthode, que se


donne l’organisation en vue d’établir une représentation de sa
stratégie cohérente et perçue comme telle, tant du point de ses
acteurs internes, que de celui de ses parties prenantes externes,
ou encore de celui des autres composantes de son
environnement économique et institutionnel. La cohérence est
donc ici, et notamment, comprise comme une condition et un
résultat de l’alignement des acteurs de l’organisation autour de
sa stratégie.

Résoudre ce problème méthodologiquement essentiel de mise en


harmonie du descendant et de l’ascendant suppose, au plan théorique,
de comprendre et maîtriser les effets à la fois intégrateurs et
différenciateurs du STB. D’un côté la conception du TBS se voudrait
porteuse d’une image intégrée et intégrative, voire formalisable, de la
stratégie de l’organisation et du processus de mise en œuvre de cette
stratégie. De l’autre les TBO devraient se définir, jusqu’aux niveaux
élémentaires d’exécution, comme la déclinaison supposée cohérente,
d’un TBS ainsi, et paradoxalement, rendu de plus en plus lointain,
synthétique, abstrait, voire abscons. Il s’agirait en effet d’imaginer des
TBO à la fois vecteurs de messages stratégiques et proches des
opérationnels, de leurs préoccupations courantes, de leurs langages,
donc immédiatement intelligibles par eux. Cependant, et pour finir,
ces mêmes TBO devraient continuer à se prêter à l’agrégation, de
façon à alimenter de façon quasi automatique, des systèmes de
« reporting » et de pilotage largement dominés par l’utilisation de
données comptables et financières synthétiques, destinées à un
cénacle de spécialistes du chiffre. Comment dès lors ne pas évoquer à
propos des STB, l’apparition de paradoxes, voire de contradictions,
difficilement surmontables, y compris au plan théorique ?
Cohésion organisationnelle : capacité dont dispose
l’organisation de s’adapter à des événements perturbateurs
imprévus ou imprévisibles, et de ne pas en générer
spontanément. Il s’agit donc d’une condition et d’une figure de la
pérennité également proche du concept de résilience. Elle évoque
par exemple des métaphores telles que celles de l’orchestre, de
l’équipe sportive ou encore du peloton cycliste. En cela, elle
renvoie aux images de la compréhension et de la confiance
réciproques, explicites ou implicites, de la capacité de
substitution entre acteurs, et donc de
la solidarité organisationnelle (Weick, 1995).

La conception hypothétique du « type - idéal » de STB porteur de


sens deviendrait en effet à la fois condition et expression de la maîtrise
des rapports entre d’une part la production d’un système formel de
données, ou de représentations, et, d’autre part, l’exercice de jeux
complexes d’attitudes et de comportements. Une telle problématique
renvoie à la théorie des systèmes d’information, considérés comme
réseaux d’intersubjectivités, et, de façon inséparable et
complémentaire, à la théorie des organisations, elle aussi et avant tout
envisagée du point de vue du comportement d’acteurs s’organisant
dans un contexte stratégique identifié, à la fois dans l’espace et dans le
temps. C’est de l’inscription dans cette circularité, ou réciprocité,
fondamentale entre approche informationnelle et approche
stratégique et organisationnelle que découlent les questions ou
hypothèses qu’il est ici proposé d’examiner, à propos des STB.
Dans cette perspective, l’interrogation initiale touche à l’unicité
requise du TBS, et à ses conséquences positives attendues. Une telle
unicité signifie-t-elle en effet que, par sa déclinaison formelle et
informelle, le TBS puisse et doive constituer le seul cadre intégrateur,
donc cohésif, théoriquement possible et pratiquement indispensable
pour l’action de chacun des membres de l’organisation ? Si oui, à
quelles conditions ? En ce sens, et à l’image par exemple du
« Balanced Scorecard », ou BSC, peut-il se référer à un cadre universel
et standard c’est-à-dire transposable d’une organisation à une autre
(Kaplan, Norton, 1992, 1996, 2002) ? En particulier, et dans ces
conditions, le TBS doit-il et peut-il prétendre capter et représenter
directement et en permanence des événements fugaces et locaux, et
cependant pourvus d’une signification stratégique ? À défaut, et
réciproquement, comment l’image d’une organisation cohésive peut-
elle progressivement se former et se formaliser, puis s’agréger, en un
STBO en quelque sorte congruent au TBS ? Comment autrement dit, la
conception et l’utilisation du STB peuvent-elles préserver la liberté
d’initiative et d’action des acteurs, sans pour autant remettre en cause
les choix des dirigeants, et par là concilier différenciation et
intégration ?

« Balanced scorecard » : représentation formalisée, à vocation


normative voire universaliste, initialement proposée par Kaplan
et Norton (1992), du processus d’accomplissement stratégique,
organisée autour de quatre axes majeurs, supposés largement
récurrents d’une organisation à l’autre : résultats financiers,
clients, processus internes, apprentissage organisationnel. La
traduction française la plus répandue, quoiqu’imparfaite, en
est : « Tableau de Bord Prospectif ».

1. L’unicité du TBS et la différenciation


organisationnelle
L’hypothèse théorique, ou la possibilité méthodologique et pratique,
de la définition d’un TBS reposerait donc sur l’identification explicite,
c’est-à-dire normative et formalisable, ou implicite, donc plutôt
émergente et informelle, d’une stratégie donnée et,
complémentairement, d’une organisation clairement délimitée, donc
pourvue d’un contour fini et quasi stable (Kaplan et Norton, 1992,
1996, 2002, 2003, 2006). De cette proposition découle une mise en
tension entre deux principes fondateurs de la conception du TBS :
selon le premier, le TBS, élaboré de façon centralisée, et dès lors
légitimé par le pouvoir normatif, dirait ou plutôt imposerait à
l’organisation ce qu’elle est, puis doit devenir ; selon le second
principe, à l’inverse, il reviendrait aux composantes de cette
organisation de légitimer par leur expertise et d’exprimer auprès des
instances de direction, ce qui doit ou devrait figurer dans le TBS. Une
hypothétique mise en cohérence entre ces deux approches pourrait
ensuite à la fois conditionner et assurer la propriété intégrative du
TBS, c’est-à-dire de lui permettre de donner du sens à la
différenciation organisationnelle.

1.1 Le TBS comme norme d’intégration


centralisée et formalisable
L’intégration, ou plutôt le degré d’intégration, est ici entendu au sens
d’un alignement des acteurs autour des buts de leur organisation. Par
le biais du TBS, cette intégration se rattacherait à un principe de
cohérence formelle et formalisée, donc de stabilité, de la stratégie, de
la structure organisationnelle, et des comportements qui en découlent.
Autrement dit, et plus généralement, l’hypothèse intégrative associée à
la conception du TBS repose sur l’universalité supposée de son cadre
conceptuel et du langage associé. Typiquement, cette hypothèse est
illustrée par la normativité du BSC, et par sa logique de déclinaison
hiérarchique descendante (Kaplan et Norton, 1992, 1996, 2002). Cette
dernière est d’ailleurs explicitement relayée par des méthodologies
telles que « OVAR » (Fiol, Jordan et Sulla, 2004). Elle est désormais à
l’œuvre, de façon parfois caricaturale, dans un grand nombre
d’organisations bureaucratiques, publiques notamment. Elle signifie
au fond que toute organisation pourrait envisager de construire et
renvoyer, à partir des axes du BSC, une image fidèle et complète d’elle-
même. Tout acteur de cette organisation pourrait symétriquement se
reconnaître dans cette image et donc la comprendre. Cohérence
conceptuelle, cohérence formelle, et cohérence méthodologique
trouveraient par là même un cadre de convergence assuré.

1.1.1 L’hypothèse du BSC comme cadre fondateur de la


conception et de l’utilisation des TBS.
Il devrait en être ainsi pour autant que les quatre axes du BSC puissent
être érigés en expression quasi universelle et chiffrable des
composantes fondamentales d’une doxa gestionnaire par hypothèse
supposée complète et formalisée.
Ces propriétés tiennent ou tiendraient au choix des quatre
dimensions présentées et représentées par le BSC (Kaplan et Norton,
1992, 1996) : la dimension financière, qui signifie et qualifie la réponse
aux attentes des actionnaires et des marchés financiers ; la dimension
commerciale, qui traduit la nécessaire satisfaction des besoins des
clients ; la dimension des processus internes, qui exprime la recherche
et le renforcement des points de création de valeur, et symétriquement
le repérage et l’élimination de ceux porteurs de « non-valeur » ; et,
enfin, la dimension de l’apprentissage organisationnel, qui tend à
rendre compte de la capacité globale de l’organisation à répondre à
l’évolution des impératifs précédemment exprimés.
À chacun de ces axes doivent et peuvent ensuite se trouver associées
des variables généralement supposées mesurables et représentatives
de l’accomplissement et de la qualité de la gestion. Ces variables,
volontiers nommées « indicateurs », sont reliées à des objectifs, sans
qu’on sache très bien d’ailleurs si la définition des objectifs précède et
conditionne le choix des variables, ou si, de fait et finalement, ce sont
certaines modalités des variables, nommées « cibles », qui
représentent et définissent les objectifs. À l’appui de la démarche,
publications et consultants livrent des listes – type d’indicateurs,
parfois très sophistiquées, ce qui tend à accréditer implicitement
l’existence d’une sorte de modèle gestionnaire réductionniste et
universaliste.

Un exemple d’élément de la construction d’un BSC/TBS


Axe : financier
Objectif : maximiser le résultat comptable annuel net
Indicateur 1 : taux de variation annuel du résultat
d’exploitation (d’autres indicateurs suivent)
Cible : + 6 % de l’année n à l’année n +1 (à partir des autres
indicateurs, d’autres cibles suivent)

Ainsi, dans chaque organisation, la conception du TBS pourrait se


simplifier en une transposition et une adaptation à la marge du cadre
initialement proposé par le BSC. Par suite, du moins en un premier
temps, et avec l’aide éventuelle de consultants, le caractère réducteur
et formalisé du TBS en facilite la déclinaison par là même supposée
intégrative. À cette démarche peut être associée, de façon un peu plus
large, une forme d’« hypothèse de la méthode », sur laquelle
pourraient se fonder les propriétés attendues du TBS.

1.1.2 L’hypothèse d’une méthode de conception du TBS


comme vecteur de la cohérence organisationnelle
La possibilité de recourir à une méthode suffisamment générale, mais
formalisée, de conception du TBS pourrait constituer une voie pour
s’affranchir de l’utilisation d’un « modèle » de type BSC, à prétention
trop universaliste, et de contenu trop normatif et réducteur, tout en
préservant les propriétés attendues du TBS.
Comme cela a été suggéré au point précédent, et de façon
schématique, une méthodologie cohérente de conception des TBS doit
ou devrait proposer un cadre permettent de décliner avec rigueur
l’enchaînement qui conduit des finalités ou missions de l’organisation
à la formulation de ses intentions ou buts stratégiques, puis à
l’identification de variables essentielles représentatives de ces buts et
enfin, grâce à ces variables, à la définition d’objectifs quantifiés
supposés significatifs de la « bonne » gestion, celle qui figure ou
exprime la rationalité de l’organisation. Or, un tel cheminement ne va
pas de soi car il mobilise des concepts abstraits. Il doit de plus être
développé par référence à des maillages généralement très variés et
variables, aussi bien dans le temps que dans l’espace (Travaillé et
Marsal, 2007).
D’un point de vue théorique et méthodologique, les principes, les
termes et le détail de ce type de démarche ont cependant été largement
développés, formalisés et mis en question par la théorie des systèmes,
notamment de ceux susceptibles d’une régulation et d’une
optimisation « par le modèle », car répondant aux contraintes du
principe dit de « variété requise » (rappelé par exemple par Dupuy,
2007). Ces types théoriques de système sont en effet et justement
pourvus des propriétés symboliques de la cohérence formelle :
stabilisation et numérisation des représentations, possibilité par
conséquent d’en opérer commodément des décompositions verticales
et horizontales calculables, complètes, et pertinentes, principalement
sous des formes additives. De telles décompositions renforcent
clairement les propriétés explicites ou implicites d’universalité et
d’intelligibilité des représentations, celles justement attendues du TBS
« idéal ».
C’est en ce sens que le recours aux méthodes de conception des TBS
peut constituer un facteur d’adhésion et de cohésion, et se trouver
érigé par conséquent en base de compréhension de la contrôlabilité
organisationnelle (Dupuy, 2007). Pour autant, les représentations
chiffrées qui en résultent ne peuvent échapper à une constante remise
en question, suivie au besoin d’un dépassement, comme y invite, avec
en outre bien d’autres arguments, nombre d’auteurs, et notamment
Lorino (2011). De principe d’une déclinaison hiérarchisée et
descendante d’une stratégie, le TBS tendrait alors à se transformer en
support d’émergence, ou de réémergence, de cette même stratégie.

1.2 Le TBS comme principe d’émergence d’une


stratégie « récursive »
Le thème de la réémergence stratégique (Mintzberg et Waters, 1985)
évoque à la fois ceux de la réflexivité et de la réversibilité. Dire que le
TBS doit demeurer réflexif pour rester intégratif, c’est en effet affirmer
que ce TBS doit admettre, et de façon récurrente, des modifications
ascendantes. Puisqu’elles sont adaptation aux transformations de
l’environnement, ces modifications deviennent par nature
irréversibles. Il apparaît donc une forme de récursivité de la stratégie
qui met constamment en question la cohérence et la pérennité de
l’organisation (Dupuy, 2009). Par suite, la cohérence formelle des
représentations spatiales et temporelles contenues dans le TBS se
trouve systématiquement mise en question. Dès lors, la congruence
supposée entre la déclinaison informationnelle proposée par le TBS, la
structure organisationnelle qu’il reflète, et la stratégie qu’il exprime
n’est plus assurée. C’est pourquoi la conception du TBS doit s’inscrire,
à tous les niveaux de l’organisation, dans un principe récursif (Naro et
Travaillé, 2013). Sa réflexivité suppose alors de maîtriser les
problèmes de cohésion posés par la complexité de l’organisation et la
subjectivité de ses acteurs. Son adaptation à l’irréversibilité renvoie à
l’hypothèse de possibles représentations de l’instabilité et de
l’incertitude.

1.2.1 Le TBS et la barrière de complexité subjective


La déclinaison récursive du TBS suppose de produire et reproduire, en
permanence, des représentations telles que tout événement pourvu
d’une signification stratégique trouve une image formelle, sous la
forme par exemple d’un écart chiffré. Mais de plus, et de façon
complémentaire, le signal ainsi formalisé doit présenter une propriété
de pertinence, c’est-à-dire répondre à la subjectivité des acteurs, en
d’autres termes prendre du sens.
Le premier problème renvoie à la recherche du degré de variété
requise des représentations formelles proposées par le TBS. Sa
résolution suppose d’être en mesure de repérer au préalable la variété
et la nature des événements à détecter et représenter. Il s’agit en
l’occurrence de résoudre un problème d’intelligence organisationnelle,
entendue dans son sens général, celui initialement suggéré par H.
Simon (1955). La connaissance du terrain, mais aussi la théorie sont
alors censées venir au secours du concepteur. Encore doivent-elles se
révéler suffisamment fines, suffisamment différentielles, pour
permettre de comprendre et décrire la totalité des relations entre les
transformations de la stratégie et celles de l’organisation. À défaut en
effet, différences et différenciation stratégiques et organisationnelles
ne pourraient que devenir l’expression d’un empirisme forcément
imprégné, et biaisé, par la subjectivité des acteurs appelés à parler de
stratégie.
Cette subjectivité des acteurs tend donc non pas à freiner
immédiatement la réflexivité stratégique, mais plutôt à limiter la
possibilité d’en proposer une formalisation stable et clarificatrice, sous
forme justement d’adaptation du TBS. Au demeurant, et d’un point de
vue méthodologique, formalisation, clarification et synthèse de ce TBS
conduisent presque nécessairement à proposer des représentations
qui risquent paradoxalement de se vider de leur sens : que peut
signifier, par exemple, une donnée comptable ou un écart sur coûts,
même analytique, à un niveau d’exécution élémentaire ? De telles
données peuvent-elles notamment traduire le degré d’indépendance
ou d’interdépendance réel et perçu des contributions de chacun à
l’accomplissement de la stratégie ? Comment par conséquent en
fonder la légitimité ? Montrer que ce qui est imputé à l’un est
séparable de ce qui imputé à l’autre ? Lever autrement dit les multiples
ambiguïtés paradoxalement nées de la formalisation ?
C’est dire que, si en instaurant un processus récursif la conception
du TBS peut contribuer à mieux saisir la barrière de complexité, elle
est loin d’en assurer à coup sûr le dépassement, d’autant plus qu’elle
doit en outre et en même temps se préoccuper de l’intégration de
l’incertitude.

1.2.2 Le TBS et la barrière d’incertitude récursive


Pour maintenir ou recréer le sens du TBS, il conviendrait donc
d’intégrer, selon une démarche en quelque sorte circularisée, la
réflexion des différents acteurs, quelle que soit leur position dans
l’organisation. Mais, pour aboutir, garder du sens, cette réflexivité
devrait aussi pouvoir, et à proprement parler, « s’agréger » en
représentations formellement cohérentes et suffisamment stables.
Ici, la cohérence formelle renvoie d’abord à la question déjà
soulevée du possible recours à un langage partagé, doté par
conséquent d’un sens commun, et cela quelle qu’en soit la déclinaison,
horizontale ou verticale. Par suite, et ensuite, ce langage doit ou
devrait se prêter à des traitements arithmétiques ou logiques
cohérents donc intelligibles par chacun, et par là créateurs de sens.
Plus fondamentalement, ces questions touchent en conséquence non
seulement aux langages mobilisés, mais encore aux codes voire aux
symboles convoqués, desquels un apprentissage organisationnel global
serait supposé faciliter l’adaptation et donc l’intégration. Un tel
apprentissage deviendrait ainsi constitutif de la réponse à l’incertitude
organisationnelle. Encore conviendrait-il d’en préciser les termes et la
méthode, de façon notamment à le rendre en quelque sorte robuste
face à l’instabilité de la stratégie, donc de l’organisation. Un tel projet
ne va évidemment de soi, notamment dans les petites ou moyennes
organisations.
De façon plus ou moins explicite, la stabilité conditionne en effet la
possibilité même de développer la dynamique de création de sens et
d’apprentissage évoquée ci-dessus. Pour s’en convaincre, il suffit
d’examiner quelques catégories ou concepts sous-jacents à la
conception des TBS, tels que, par exemple, ceux de « processus » ou de
« chaînes de valeur ». Tous supposent en effet une invariance et une
répétitivité minimale des choix et de la dynamique stratégiques et
organisationnels à représenter et présenter. Par suite, leur
mobilisation ne semble guère pouvoir résister à une instabilité
marquée ou à une forte incertitude. Que peut alors apporter, dans un
tel contexte, la conception et l’utilisation du TBS ? La nécessité de
ménager et d’annoncer des espaces de créativité et de « slack »
pourrait constituer un principe de réponse. Mais ce dernier apparaît
en l’occurrence bien convenu et surtout fort imprécis.
Finalement, le recours à une approche récursive du TBS révèle les
limites même du dit TBS, face à la variété et à l’instabilité. Il en
suggère le dépassement, sous la forme d’une hypothétique
démultiplication du tableau de bord général en tableaux de bord
locaux et opérationnels, les TBO, qui permettraient de rééquilibrer les
tensions entre intégration et différenciation stratégiques et
organisationnelles.

2. La variété des TBO et l’intégration


organisationnelle
Pour dépasser les limites potentielles de l’unicité du TBS, notamment
en situation de différenciation marquée et rapide, et pour limiter ainsi
le risque d’échec de la stratégie, la démarche fondamentale renvoie au
principe général de variété requise : inclure dans le STB plus de
représentations, construites et diffusées plus vite, et au plus près des
acteurs concernés. Il n’apparaît là rien d’autre qu’une logique de
décomposition en sous-systèmes supposés séparables donc
relativement indépendants, de façon à en accroître la contrôlabilité.
C’est précisément cette question de la séparabilité qui va guider la
conception du système des TBO mais aussi en marquer les limites :
comment en effet interpréter, puis réintégrer au besoin, des TBO
initialement fortement différenciés, voire supposés radicalement
autonomes ?

2.1. La variété de sens et la cohérence formelle


des TBO (logiques horizontales)
La différenciation entre TBS et TBO, puis entre TBO eux-mêmes, vise
donc initialement à développer la variété de forme et de sens des
représentations mises à disposition des acteurs ou décideurs. En cela
elle vise aussi à répondre à une logique de séparation à la fois verticale
et horizontale. En rapprochant ainsi la conception des TBO de leurs
utilisateurs elle souhaite faciliter l’adaptation comme l’interprétation
des données requises puis produites. Mais, en même temps, elle tend à
isoler, donc à « désagréger » en quelque sorte les représentations
qu’elle suggère et les pôles de décision qu’elle soutient.

2.1.1 Les systèmes d’indicateur locaux comme réponse au


principe de variété requise
De façon générale, les systèmes d’indicateurs contenus dans les TBO
sont à concevoir comme une réponse à la subjectivité de chaque
catégorie d’acteur concerné. Ils sont donc en principe définis
localement et temporairement, puisque, par définition en quelque
sorte, ils ne peuvent pas rester figés. Leur liberté de conception est
ainsi, et plus généralement, supposée faciliter la réponse au principe
de variété requise des représentations. Mais en contrepartie elle
aboutit inévitablement à une forte différenciation des formes : y sont
en effet convoqués des indicateurs « non financiers », c’est-à-dire
extra comptables, ou purement physiques, mais cependant comptables
au sens générique du terme puisque quantitatifs, qualitatifs car non
chiffrables, quoique susceptibles de s’ordonner en fonction d’échelles
plus ou moins fondées et intelligibles. Il est alors souvent question
d’indicateurs « d’action », sous-entendu : du quotidien, ou, pour le
moins, relevant de boucles courtes de régulation.
À l’évidence, la conception et l’usage des TBO poussent ainsi au
cloisonnement organisationnel. Ils induisent par là même un risque de
dispersion et d’incohérence. Un tel mécanisme de
différenciation appelle logiquement un encadrement compensateur
propice à la réintégration. Cette dernière peut prendre différentes
formes : limites et critères restrictifs fixés à la forme et au degré de
découpage des TBO, encadrement aussi strict que possible par des
injonctions issues du TBS, recours généralisé à un cadre
méthodologique relativement strict et formalisé, du type « OVAR »,
déjà évoqué, définition de langages aux contours restrictifs, mais dont
l’apprentissage sera soutenu par des processus « ad hoc ». Tel est par
exemple le cas pour certaines formes de déclinaison de données
comptables ou budgétaires, notamment dans les organisations
publiques.

Exemple élémentaire de mise en cohérence formelle


entre TBS et TBO
TBS (ensemble de l’organisation)
Axe : processus interne
Objectif stratégique : améliorer la qualité
Critère stratégique 1 : taux de rebut global
Cible stratégique 1 h 1 % en moyenne par an
TBO (fabrication usine)
Objectif local : améliorer la qualité en maintenant la
productivité
Critère local 1 : taux de rebut fabrication usine
Cible locale 1 : taux mensuel inférieur à 0,5 %

Pour autant, les obstacles à l’agrégation des données locales


fournies par les TBO restent inévitables car, s’ils n’étaient pas
présents, les TBO risqueraient fort, et paradoxalement, de ne plus
atteindre leurs objectifs initiaux de réponse au principe de variété
requise.

2.1.2 Les obstacles à l’agrégation des représentations locales


La logique de conception des TBO apparaît ainsi comme la résultante
d’une tension difficilement maîtrisable entre la recherche et la création
de pertinences locales et le maintien de la cohérence informationnelle
et organisationnelle globale.
La pertinence locale des données issues des TBO se prête en effet
difficilement au maintien d’un minimum de cohérence formelle
globale, fut-elle purement apparente. Tel délai défini et mesuré
localement, dans un atelier par exemple, ne présentera guère de sens
commun avec tel autre, considéré, et de nouveau à titre d’exemple,
dans un service administratif. Les mesures mêmes de ces délais ne
pourront donc devenir ni comparables, ni a fortiori, susceptibles
d’agrégation, par le moyen d’additions ou de moyennes par exemple.
Les illustrations de ce type pourraient facilement être multipliées, à
propos de taux de qualité ou de respect de procédure, d’indices de
satisfaction de salariés ou de clients, et plus encore de bien d’autres
données qualitatives. La difficulté se trouve de plus fréquemment
renforcée par la différence des maillages temporels pertinents :
journée ici, semaine ailleurs, mois en d’autres lieux, etc.
D’un point de vue plus stratégique et organisationnel cette fois, la
logique du découpage en TBO repose, comme cela a déjà été énoncé,
sur une hypothèse fondamentale de séparabilité et d’indépendance des
entités auxquelles sont associés les TBO en question. Ainsi la
performance et le pilotage de l’entité A – par exemple les
approvisionnements - seront supposés séparables et indépendants de
ceux de l’entité B – par exemple la commercialisation. À défaut en
effet, d’un point de vue théorique et pratique, il deviendrait impossible
d’isoler des indicateurs propres à chaque entité, et en tout cas de leur
donner un sens acceptable par chacune des dites entités. Tel défaut
dans un article livré à la clientèle peut-il en effet être forcément
considéré comme indépendant des actions conduites par la
réception et des défauts qui en résultent inévitablement ? Il est facile
d’imaginer le potentiel de conflits susceptible de résulter de ce type de
configuration.

Prix de cession et coordination par le critère : lorsque les


parts de performance revenant à deux entités différentes
apparaissent comme non calculables, c’est-à-dire comme
formellement non séparables, une solution classique consiste à
attribuer à chacune de ces entités un critère d’évaluation tel que,
par négociation, elles aboutiront à des choix probablement
quasi optimaux du point de vue de l’organisation dans son
ensemble. Un exemple bien connu évoqué ici est ici celui des prix
de cession internes desquels vont dépendre des choix et des
marges locales (indépendantes de la comptabilité consolidée).

C’est dire que l’hypothèse d’un effet intégrateur du recours à un


système de TBO dépend de conditions théoriques et pratiques qui
appellent pour le moins un examen attentif. Ces conditions ne
sauraient en tout cas être réduites au respect d’injonctions normatives
formulées par tel ou tel acteur ou tel ou tel consultant. Cela étant, il
convient de discuter l’apport potentiel du système de TBO au
réexamen, voire à une nouvelle conception du TBS.

2.2. L’agrégation des TBO, l’apprentissage


stratégique et la reconstruction du TBS
Une hypothèse essentielle sous tendue par le recours à un système de
TBO est que ces derniers pourraient être agrégés soit de façon
formelle, quasi mécanique, selon une procédure ascendante de
traitement des données, soit par le biais d’un processus
organisationnel plus complexe d’apprentissage. Ainsi pourraient être
assurés le bouclage et la mise en cohérence des TBO avec le TBS et la
formulation de la stratégie sous-jacente.

2.2.1 Le « bottom – up » comme principe d’apprentissage


organisationnel
Comme cela a été souligné précédemment, et d’un point de vue
théorique et méthodologique, la démarche ascendante dite du
« bottom-up » ne saurait formellement déboucher sur une solution
informationnelle générale, quels que soient d’ailleurs les outils
informatiques mobilisés. En d’autres termes, cette démarche est
constamment confrontée à un risque d’impasse : si les indicateurs
locaux se différencient suffisamment, ils deviennent formellement
incohérents donc impossibles à agréger de façon arithmétique ou
logique ; si en revanche cette différenciation est bridée par un cadre
normatif ou méthodologique, elle se heurte à la barrière de
complexité – variété trop limitée des représentations possibles – et à
celle d’incertitude – impossibilité d’adapter rapidement ces
représentations à l’instabilité -. Sortir de ce type d’impasse suppose
donc la recherche et l’acceptation de compromis empiriques,
généralement confus et provisoires, ou d’admettre que la conception
du système des TBO, puis du STB, n’offre guère d’autre intérêt que
celui de déclencher et soutenir un processus organisationnel
d’apprentissage et de contrôle « interactif », pour reprendre un terme
devenu courant (Simons, 1995 ; Kaplan et Norton, 2003, 2006 ; Naro
et Travaillé, 2010, 201 ; Dupuy, 2013a, ; 2013b).
Autrement dit, la conception des TBO et des STB devient celle d’un
processus de communication, de dialogue et de partage, sur et par la
stratégie et les performances. Il s’agit alors non pas de contourner ou
d’ignorer les paradoxes, les contradictions et les incompréhensions liés
à la stratégie et aux performances, mais bien de les recenser et de les
analyser, d’en comprendre les origines. Ainsi sont supposés s’exprimer
et se clarifier les jeux de pouvoir et les possibles conflits latents. Ainsi
est également supposé se mettre en place, autour du STB, une forme
de théâtre politique duquel émergeront les compromis précisément
requis afin que se maintienne ou se renforce l’intégration
organisationnelle. Chacun est alors censé trouver ou retrouver sa place
et sa contribution à l’organisation et à sa stratégie, puis occuper
efficacement cette place, ce qui sous-tend bien sûr des engagements
coopératifs réciproques entre tous les membres de l’organisation.
C’est bien là une figure de l’organisation cohésive, résiliente,
cohérente dans sa structure et ses processus, donc intégrée ou
réintégrée. Ce tableau organisationnel évidemment quelque peu
idéalisé semble en tout cas apte à recevoir, puis à accepter, son image
fidèle sous forme d’un TBS (ré) adapté.

2.2.2 Le TBS repensé comme expression d’une stratégie


émergente
La stratégie de l’organisation apparaît dès lors comme
consubstantielle à un processus de partage, de mise en commun,
d’actions locales a priori disparates voire incohérentes, et dispersées
dans le temps, au hasard de boucles de régulation non homogènes. En
quelque sorte, un ordre stratégique – logique et chronologique
renaît – ou renaîtrait - du désordre initialement libéré et exprimé
grâce aux TBO. Cette stratégie réinventée, et d’ailleurs en perpétuelle
remise en question, n’en a pas moins vocation à se cristalliser, fût-ce
provisoirement, sous la forme d’un TBS au passage largement
affranchi de toute norme comptable, méthodologique, ou informatique
préétablie. Mais, cependant, la récursivité stratégique n’en est pas
moins supposée poursuivre sa dynamique, et donc engager
l’organisation vers de nouveaux apprentissages, et vers des STB
reformulés.
Car, au-delà de la conception du TBS et du STB, c’est la capacité
d’apprentissage organisationnel qui se profile. Cette dernière
deviendrait en quelque sorte le principe fondamental permettant de
dépasser toutes les résistances, de dominer toutes les complexités, de
répondre à toutes les incertitudes, de parvenir à reformuler encore et
toujours des tableaux de bord pertinents et intégratifs. En simple,
voire en double ou même en triple boucle elle tendrait ainsi à s’ériger
en une sorte de nouvelle statue du commandeur, rendue universelle et
légitime par l’injonction sociétale de « l’apprendre à apprendre » et de
« l’accès (obligatoire car incontournable) aux connaissances ». Mais
les concepteurs de STB, souvent des contrôleurs de gestion, sont aussi
des traducteurs, des passeurs et même des pédagogues. Ils savent
donc à quel point il peut se révéler difficile, voire impossible, de cerner
et représenter et transmettre des ensembles de connaissances,
fussent-ils restreints au périmètre de leur organisation, à quel point
également les processus d’apprentissage peuvent alors se rendre
insaisissables, incontrôlables.

Conclusion
Ainsi, c’est sans doute un des intérêts fondamentaux de la conception
et de l’utilisation des STB que d’inciter à mieux aller au cœur des
organisations, que d’aider à en approcher puis à en décrire les
capacités et la dynamique, la reconstruction structurelle et stratégique
permanente. Certains évoqueraient à ce propos l’idée d’un mythe
mobilisateur, d’autres celle d’un support propre à la critique et à
l’expression politique, d’autres enfin celle d’un processus mimétique
ou cérémoniel. Plus concrètement, et fût-ce provisoirement, il
convient sans doute, d’interpréter les STB comme l’un des outils mis à
la disposition des contrôleurs de gestion pour étayer la cohésion des
organisations et leurs systèmes de pilotage. Mais, pour répondre
correctement à cette finalité, cet outil appelle, comme tous les autres
dans le domaine de la gestion, un usage contingent donc raisonné, et
en tout cas affranchi de l’esprit et de l’espoir d’une simplification
normative et positive, donc universaliste.
C’est dire que l’outil en question ne peut constituer le support
exclusif de l’intégration. Malgré tous les perfectionnements formels et
méthodologiques qu’en suggèrent les consultants et la littérature, il ne
saurait en effet prétendre satisfaire les attentes de chacun des acteurs,
de chacune des parties prenantes de l’organisation, quelle qu’elle soit.
Il ne peut donc se concevoir que comme un complément à d’autres
outils, plus ou moins conventionnels et formalisés, de la mise en
cohésion et du contrôle de l’organisation et de sa stratégie :
comptabilités à usage interne et externe, systèmes de « reporting »,
systèmes budgétaires, systèmes d’aide à la décision, etc. Mais le
problème devient alors celui de la compréhension et de la
représentation d’une hypothétique « performance élargie », c’est-à-
dire durable et sociétale, de l’organisation. C’est une mise en question
de cette dernière qu’il s’agit alors d’imaginer, ce à quoi ne sauraient
prétendre ou répondre les systèmes de tableau de bord.

Références bibliographiques
Chapman C. S. (2005). Controlling Strategy, Management,
Accounting and Performance Measurement. Oxford University
Press.
Dupuy Y. (2009). Pérennité organisationnelle et contrôle de gestion.
Revue française de gestion, n° 192, pp. 167-176.
Dupuy Y. (2007). Contrôlabilité des organisations et principe de
variété requise. In Dubois P.L. & Dupuy Y., Connaissance et
Management. Paris, Economica, pp. 33-34.
Dupuy Y. (2013a). Préface. In Alcouffe S., Boitier M., Rivière A. &
Villesèque-Dubus F., Contrôle de gestion interactif. Paris, Dunod.
Dupuy Y. (2013b). Préface. In Alcouffe S., Boitier M., Rivière A. &
Villesèque-Dubus F., Contrôle de gestion sur mesure. Paris, Dunod.
Dupuy Y. & Travaillé D. (2013). Les Bases de la comptabilité
analytique de gestion, 3e édition. Paris, Economica.
Fiol F., Jordan H. & Sulla E. (2004). Renforcer la cohérence d’une
équipe : la méthode OVAR. Paris, Dunod.
Guibert N. & Dupuy Y. (1997). La complémentarité entre le contrôle
formel et le contrôle informel : le cas de la relation client
fournisseur. Comptabilité Contrôle Audit, 3 (1), pp. 39-52.
Kaplan R.S. & Norton D.P. (1992). The Balanced Scorecard: Measures
that Drive Performance. Harvard Business Review (janvier).
Kaplan R.S. & Norton D.P. (1996). The Balanced Scorecard:
Translating Strategy into Action. Boston, Harvard Business School
Press.
Kaplan R.S. & Norton D.P. (2002). The Strategy Focused
Organization: How Balanced Scorecard Companies Thrive in the
New Business Environment. Boston, Harvard Business School
Press.
Kaplan R.S. & Norton D.P. (2003). Strategy Maps: Converting
Intangible Assets into Tangible Outcomes. Boston, Harvard
Business School Press.
Kaplan R.S. & Norton D.P. (2006). Strategic Alignment. Boston,
Harvard Business School Press.
Lorino P. (2011). Du chiffre, adoré ou exécré, au chiffrage, pratiqué.
In Comptabilité, contrôle et société. Mélanges en l’honneur du
Professeur Alain Burlaud. Malakoff, Foucher.
Mintzberg H. & Waters J.A. (1985). Of Strategies, Deliberate and
Emergent. Strategic Management Journal, vol. 6, n°3, pp. 257-272.
Naro G. & Travaillé D. (2010). Construire les stratégies avec le
Balanced Scorecard : vers une approche interactive du modèle de
Kaplan et Norton. Finance Contrôle Stratégie, vol. 13, n°2 (juin), pp.
33-66.
Naro G. & Travaillé D. (2011a). Le BSC à l’épreuve de l’expérience :
entre assemblage d’un « puzzle » et construction d’un « lego », une
relecture du BSC au prisme du modèle des leviers de contrôle. Revue
française de gestion, vol. 2, n°211 (février), pp. 66-80.
Naro G. & Travaillé D. (2011b). The Role of the Balanced Scorecard in
the Formulation and Control of Strategic Processes. Journal of
Applied Accounting Research, Accounting and management
control, vol. 12, n°3, pp. 212-233.
Naro G. & Travaillé D. (2013). Contrôle de gestion et pérennité
organisationnelle : les apports du Balanced Scorecard comme levier
de contrôle interactif. In Mignon S. (dir.), Pilotage de la pérennité
organisationnelle. Normes, Représentations et Contrôle. Cormelles-
le-Royal, EMS, pp. 163-187.
Norreklit H. (2000). The Balance of the Balanced Scorecard-A: Critical
Analysis of some of its Assumptions. Management Accounting
Research, vol. 11, n° 1, pp. 65-88.
Savall H. & Zardet V. (2013). The Dynamics and Challenges of
Tetranormalization. Charlotte, Information Age Publishing, 200 p.
Simon H.A. (1955). A Behavioral model of rational choice. Quarterly
Journal of Economics, 69, pp. 99-118.
Simons R. L. (1995). Levers of Control: How Managers Use
Innovative Control Systems to Drive Strategic Renewal. Boston,
Harvard Business School Press.
Travaillé D. & Marsal C. (2007). Automatisation des tableaux de
bord et cohérence du contrôle de gestion : à propos de deux cas.
Comptabilité Contrôle Audit (décembre), pp. 75-96.
Weick E. (1995). Sensemaking in Organizations. Thousand Oaks, CA,
Sage.
Chapitre 3

La question du contrôle des


comportements à l’épreuve des
transformations des
organisations et du travail

LIONEL HONORÉ5

Les comportements de déviance, de rupture, de transgression des


règles, surprennent les managers et prennent souvent à rebours le
fonctionnement organisationnel et son pilotage. Ils sont des cas
limites du comportement au travail qui mettent en question la
manière dont est conçue la régulation de l’activité, le fonctionnement
des équipes, ainsi que le contrôle de la performance et des moyens mis
en œuvre pour l’atteindre. La déviance, quelle que soit l’organisation
au sein de laquelle elle se produit n’est jamais neutre. Elle est une
confrontation des actes des individus aux normes de bon
comportement et de bon fonctionnement. Elle est de fait, une mise en
cause de ces normes et des actions de contrôle qui les soutiennent.
Pour Lemert (1967) comme pour Becker (1973) la déviance est avant
tout une réaction au contrôle et est générée par ce dernier. Elle amène
à questionner les pratiques de contrôle et de pilotage des
comportements et à s’interroger sur leur bien-fondé autant que sur les
fonctionnements qu’elles produisent.
L’objectif de cet article est de s’interroger sur la place de la déviance
dans les situations de travail en s’intéressant à sa prise en compte par
le fonctionnement organisationnel et à la dynamique qu’elle entretient
avec les normes et les pratiques de contrôle qui le portent et le
définissent. À travers cela l’objectif est aussi de s’interroger sur la
manière dont cette dynamique des normes et de la déviance
problématise l’action de management et de pilotage de l’organisation.
En nous appuyant sur les résultats de l’étude de l’organisation et du
fonctionnement des équipes de néonatologie (réanimation et
néonatologie de suite) du CHU de Nantes, nous centrons notre
réflexion sur les conditions du recours à la notion de déviance pour
appréhender les problématiques managériales et sur la manière dont
ces problématiques sont définies, à un niveau opérationnel, par les
jeux des normes et de la déviance dans les situations de travail et de
gestion elles-mêmes. Dans une première partie, nous revenons sur les
conditions de mobilisation, à un niveau théorique, de la notion de
déviance pour problématiser les questions de management et sur les
implications méthodologiques qui en découlent. Dans une seconde
partie nous développons les cas des équipes de néonatologie pour
appuyer notre réflexion sur les dynamiques liant le contrôle, le risque
comportemental et la déviance.

1. Le jeu des normes et de la déviance


dans les situations de travail
1.1 Peut-on encore parler de déviance pour
caractériser des comportements au travail ?
Le concept de déviance a-t-il encore lieu d’être ? La question peut
surprendre au vu du nombre de textes qui, notamment dans les
champs de l’étude des organisations ou de la gestion des ressources
humaines, mobilisent cette notion. Pourtant elle mérite d’être posée et
ce pour au moins deux raisons, qui ne sont pas du même ordre. Une
première incitation à s’interroger sur la pertinence de la pérennité
d’une référence à ce concept et de sa mobilisation dans le domaine des
Sciences de Gestion, est que dans d’autres domaines, la Sociologie ou
les Sciences Politiques notamment, la question est effectivement posée
depuis plusieurs années et les réponses apportées sont rarement à
l’avantage du concept de déviance. Certains travaux faisant référence
vont même jusqu’à proclamer la mort de la déviance au profit du
concept de risque (Summer, 1994 ; Best, 2004). Il a une seconde
raison qui, bien sûr, rejoint la première. La déviance peut être définie,
comme c’est le plus souvent le cas, en se référant aux travaux d’auteurs
tels que Durkheim, Parsons, Goffman ou Beker,6 comme un écart et
une prise de distance par rapport à des règles et des normes sociales.
Cette notion a donc pour référence l’action vis-à-vis de la norme et est
la conséquence de la confrontation à des logiques d’action
contradictoires, des conflits de rôles ou le fruit de trajectoires
socioprofessionnelles en rupture par rapport à l’ordre social (Lemert,
1967 ; Honoré, 2000 et 2002 ; Vardi et Weiner, 1996). Dans ce cadre,
classique du point de vue des théories de la déviance, la question n’est
pas celle de l’individu déviant mais du comportement déviant. La
question est aussi celle des normes, des règles, des structures de
l’ordre social (ou organisationnel), de leur mise en œuvre et de leur
prise en compte par les acteurs et les groupes d’acteurs ; mais
également celle de la manière dont la référence à la norme permet à
ces acteurs et ces groupes de définir le comportement déviant et de le
désigner comme tel. Dans ce cadre, et c’est là l’argument de cette
seconde raison, la problématisation de l’étude des phénomènes
sociaux ou organisationnels en ayant recours au concept de déviance,
présuppose l’existence de la norme. Or cette présupposition est
aujourd’hui questionnable et questionnée tant au niveau théorique
qu’empirique par au moins deux démarches : celle de
l’individualisation et celle du développement des approches
situationnistes.
Bien repéré dans les travaux s’appuyant sur des études terrain, le
mouvement de l’individualisation est porté par les évolutions des
pratiques managériales et des outils de gestion. Soulignée par de
nombreux chercheurs, notamment dans le champ de la gestion des
ressources humaines, la tendance est, depuis plusieurs années déjà, à
la mise en œuvre de dispositifs et de pratiques de gestion centrés sur
les individus (Pezet, 2007), leurs parcours (Dany et al., 2012), leurs
profils de compétences (Defelix et al., 2009), etc. Cette évolution qui a
d’abord semblé concerner certaines catégories, notamment celle des
cadres à haut potentiel (Bouffartigue, 2000), paraît bien se
généraliser.
Parallèlement, s’est également développée une tendance à recentrer
l’analyse sur les situations (Journé et Raulet-Croset, 2008 ; Schmitt et
al., 2011). L’accent est mis sur les processus qui, localement, permettent
de faire émerger et de stabiliser, plutôt que de pérenniser, des accords et
des arrangements dont la pertinence est définie par le périmètre même
de la situation et qui ont peu souvent vocation à être généralisés (Girin,
1994 ; Journé, 2002). L’échelle n’est plus celle des phénomènes socio-
économiques qui, à la fois, transcendent et contextualisent les situations
(Granovetter, 1985 ; Gomez, 1996), mais celle du local et du micro. La
focale est mise sur les processus de négociation qui s’y développent,
notamment au travers des dynamiques communicationnelles telles que
la discussion (Detchessahar, 2003) ou la conversation (Arnaud, 2007 ;
Robichaud et al., 2010). Ces mouvements de l’individualisation et du
développement d’approches situationnistes ne sont pas repérés que par
les gestionnaires. Ils sont également soulignés par des travaux dans
d’autres champs des Sciences Sociales. Ainsi Le Bart (2008) ou encore
Groenemeyer (2007) montrent comment l’analyse s’est déplacée de la
dynamique liant la socialisation de l’acteur à son comportement vers
celle liant l’individu et ses processus de délibération endogènes (calculs
de risque et d’utilité) à son comportement. Groenemeyer (2007) voit
dans ces évolutions deux veines de remise en cause du concept de
déviance. La première renvoie aux approches critiques qui soulignent la
disparition de l’intégration sociale sous l’impulsion de l’instauration
d’une régulation politique néo-libérale. Cela amène à appréhender les
comportements davantage en termes d’efficience et de responsabilité
que de conformation et de normalité. La seconde renvoie aux
perspectives post-modernes, voire du post-post-modernisme (Lianos et
Douglas, 2000 ; Lianos, 2005 ; Courpasson et Golsorkhi, 2009), et qui
mettent l’accent sur le localisme de la construction d’accords sociaux
par des jeux linguistiques. Dans les deux cas, les concepts normatifs et
les perspectives qui en découlent en perdraient de leur signification. Il
en découlerait de fait une perte de pertinence de la notion de déviance,
au moins appréhendée comme une catégorie d’analyse générale et dans
sa dimension normative : le comportement déviant comme écart à la
norme ou transgression de cette dernière.
Ces approches opèrent des basculements : de la notion de déviance
vers celle de risque ; de celle de comportement déviant vers celle de
comportement à risque ; de celles de normalité et d’anormalité vers
celles de prises de risque et de prises de responsabilité calculées.
En effet il ne s’agit plus de considérer un comportement défini
comme déviant, en référence à une norme, par les regards et
jugements portés sur lui. La perspective s’inverse et le point de départ
de l’analyse n’est plus la norme, mais le comportement ainsi que
l’individu qui le détermine et le met en œuvre. Les questions ne sont
plus celles de la caractérisation de l’écart à la norme et de ses
conséquences en termes de problématisation de l’action de régulation
(managériale dans la perspective qui nous intéresse ici), elles sont
celles de compréhension des prises de risques et de responsabilités
individuelles et/ou collectives et de leurs conséquences sur le
fonctionnement organisationnel et, de là, sur son pilotage. Dès lors
faut-il garder une référence à la notion de déviance et si oui comment
l’appréhender ? Comment la définir pour qu’elle garde sa pertinence
analytique et quelles sont les limites de cette dernière ?

1.2 Risques, normes et déviances : quels liens


et quelles perspectives analytiques ?
Le cadre de notre travail n’est pas celui de l’analyse des phénomènes
sociaux, mais celui de l’analyse des phénomènes organisationnels.
Cette perspective, plus focalisée, autorise, il nous semble et c’est du
moins ce que nous allons tenter de démontrer ici, à penser les liens
entre les notions de risque, de norme et de déviance. Et, à partir de là,
à proposer une démarche d’analyse du jeu entre norme et déviance
dans les organisations de travail et dans les situations de gestion.
Démarche d’analyse que nous mettrons ensuite en œuvre pour tirer de
notre étude terrain les éléments nous permettant de problématiser
l’action managériale et sa prise en compte analytique à partir du
concept de déviance.
Pour cela nous proposons de cheminer en deux étapes. La première
doit nous amener à préciser la perspective normative à laquelle nous
pouvons nous référer dans le cadre d’une organisation et d’une
situation de travail. Cela nous permettra, dans une seconde étape de
faire le lien avec les notions de déviance et de risque, dès lors
appréhendées dans ces contextes organisationnel et situationniste. Les
marqueurs de la modernisation des organisations sont tout autant le
déploiement de dispositifs porteurs d’autonomie et de travail en
équipe (Detchessahar et Honoré, 2002), que celui d’outils traduisant
des logiques de gestion telless que par exemple les CRM, Les ERP, les
dispositifs de Lean Management (Beauvallet et Houy, 2009 ; Bertrand
et Stimec, 2011) ou encore l’injonction à une implication toujours plus
personnelle des acteurs (Thévenet et Neveu, 2002).
Un cadre classique de l’analyse des dispositifs de régulation du
fonctionnement organisationnel et des comportements des groupes et
des individus au travail est celui proposé par Reynaud. Il articule la
régulation de contrôle, représentée par la règle et traduisant une
dimension verticale des rapports au travail, la régulation autonome,
issue de la coordination horizontale et représentée par l’habitude
partagée ou la convention, et la régulation conjointe, représentée par
l’accord résultant du management participatif et du pilotage paritaire.
Ce cadre étant bien connu et souvent repris dans les travaux en
Sciences de Gestion, nous ne le présentons pas davantage en détail ici.
Simplement nous nous y référons pour souligner que le
fonctionnement organisationnel, et les situations de travail qu’il
produit, restent marqués par des normes dont certaines sont produites
en amont des situations et d’autres dans les situations elles-mêmes, et
par l’articulation et/ou la confrontation de ces normes entre elles.
Les mouvements de modernisation des organisations que nous
avons cités plus haut ne nous semblent pas remettre directement en
cause ce cadre. En revanche ils incitent à le préciser et le compléter.
En effet l’évolution des organisations n’a pas rendu obsolète l’idée de
contrôle, en revanche elle en a transformé les modalités. Le
fonctionnement en projets et en équipes, la diffusion du principe
d’autonomie, ont amené au déploiement d’outils et de dispositifs
traduisant au plus près de la réalisation du travail des logiques de
gestion et des contraintes définies bien en amont du terrain. Ainsi les
acteurs sont directement confrontés, individuellement ou sein des
groupes, aux contraintes et logiques de la relation commerciale, de la
chaîne logistique, des relations avec les fournisseurs, de la gestion de
la production, de celle de la qualité ou encore de la performance, de
l’impact environnemental, etc. Ces contraintes et logiques sont portées
par des outils tels que les CRM, les ERP, le SPM, le lean-sigma, les
systèmes AQSE, etc. Bref la situation de travail est ainsi devenue un
lieu de prise en compte par les acteurs au travers d’outils, souvent
informatisés, de logiques d’action potentiellement contradictoires et
qui toutes déterminent une partie de la performance de leur
comportement.
Pour autant la prise en compte de ces contraintes multipoints se fait
de plus en plus au sein de groupes et d’équipes, rendant ainsi toute sa
place à la régulation autonome. Une des conditions de la bonne
marche de l’organisation devient la possibilité de construction par les
acteurs de solutions et d’accords locaux, portant notamment sur les
modalités de prise en compte de ces contraintes venant d’en haut, et
sur les arbitrages rendus ainsi nécessaires (Honoré 2007,
Detchessahar 2003). La régulation conjointe quant à elle trouve son
dynamisme et son actualité dans la diffusion des pratiques de
management participatif et dans la logique contractuelle et de
négociation locale qui est celle qui structure le champ social, avec pour
résultat la multiplication des accords d’entreprise.7 Pour autant,
notamment du fait de la référence à la notion d’autonomie des groupes
et des acteurs, cette modernisation met en question l’articulation entre
ces trois niveaux de régulation et ce d’au moins deux manières.
D’une part se pose la question des marges de manœuvre ou, dit
autrement, des espaces d’action, qui permettent aux acteurs impliqués
de construire l’articulation entre les différents niveaux de régulation
dans le déroulement même du travail. Cette question se pose
notamment lorsque la mise en œuvre outillée des logiques de gestion
définies en dehors de la situation de travail (relations clients, chaîne
logistique, gestion de la qualité, contrôle de gestion, etc.) s’impose aux
acteurs. Cela d’une part sans que ces derniers aient vraiment de prise
sur elle et, d’autre part, en étant porteuse de contradictions
potentielles. La question est celle de la capacité des acteurs à négocier
la prise en compte de logiques de gestion qui s’imposent à eux non
seulement de l’extérieur de la situation de travail mais aussi et bien
souvent de l’extérieur de l’entreprise : le développement de la sous-
traitance, la multiplication des référentiels extérieurs de qualité et des
certifications, la tension dans les relations économiques
interentreprises tend en effet à accroître ce que Di Maggio et Powell
(1983) nomment la pression coercitive. Il y a là un risque
d’enchaînement de situations de domination allant de
l’environnement à la situation de travail en passant par les niveaux
stratégique, structurel ou encore organisationnel (Courpasson et
Golsorkhi, 2009). Il y a alors un risque de voir apparaître ce que
Detchessahar et Grévin (2010) nomment de la gestionnite. C’est-à-dire
une dérive du fonctionnement organisationnel dans lequel les normes
de gestion imposées de l’extérieur induisent un fonctionnement centré
sur la discipline. Il n’y a plus alors de place à la prise en compte des
contraintes locales en supprimant les espaces d’action permettant aux
acteurs de déployer un comportement discrétionnaire.
D’autre part, se pose la question de la rationalité du comportement
de l’individu, voire de celui du groupe. L’appel à une implication
toujours plus personnelle et subjective, ayant recours à
l’enthousiasme, la créativité, les émotions, (etc.) conduit à rendre
floues les frontières entre le travail et le hors travail. Dès lors l’acteur
peut être amené à convoquer des éléments du second champ dans le
premier pour rationaliser son comportement, trouver de bonnes
raisons d’agir. Mais en faisant cela cette rationalité de son
comportement échappe à l’action des normes portées par le
fonctionnement organisationnel et l’action managériale censée le
piloter. Il en est de même lorsque le groupe, utilisant un peu trop son
autonomie, développe des modes de fonctionnement et d’action qui lui
sont propres et qui s’affranchissent des contraintes de la régulation de
contrôle (Barker, 1993 ; Sewell et Wilkinson, 1992).
Dans les deux cas nous proposons de recourir à la notion de risque
comportemental (Honoré, 2002). Il s’agit tout d’abord de considérer la
déviance du fonctionnement organisationnel dont la logique tend à
régresser vers le contrôle sans laisser de place aux autres modes de
régulation. Le comportement individuel ou de groupe efficace de ce
point de vue est alors le comportement discipliné de respect et
d’application des règles. Le risque est alors, du point de vue de l’action
de contrôle, celui de voir apparaître de la déviance. Le risque
comportemental est ici le risque que le comportement soit déviant.
C’est-à-dire que l’acteur s’écarte de l’action de contrôle, négocie la prise
en compte des logiques qu’elle porte, trouve des arrangements entre ces
logiques et celles portées par le fonctionnement local, par le groupe, voir
par sa propre dynamique d’implication.
Il s’agit ensuite, mais en lien direct avec les derniers éléments
soulignés, de considérer le risque comportemental par rapport au fait
que l’autonomie laissée à l’individu puisse l’amener à trouver de
bonnes raisons de s’impliquer en dehors de la situation de travail voir
même en dehors du monde professionnel. Parallèlement au niveau des
groupes le risque est que le fonctionnement de ce dernier devienne
auto-référant en ne prenant plus en compte que ses propres modes de
fonctionnement.
Il découle de ce cheminement, que l’analyse des dynamiques entre
les normes et la déviance peut passer par la mise en œuvre d’une
démarche de recherche permettant de répondre aux questions
suivantes :
1. Quels sont les différents niveaux de dispositifs de contrôle et de
normes qui prescrivent et régulent le fonctionnement et les
comportements.
2. Quelles dynamiques lient ou opposent ces différents niveaux de
contrôle et de normes ? Quelles sont les dynamiques qui tendent
à rendre déviant le fonctionnement de l’organisation ?
3. Quelles sont les marges de manœuvre des acteurs par rapport à
ces normes et selon quelles modalités ils peuvent y avoir
recours ?
4. Comment sont effectivement appréhendés les comportements
d’écarts aux différents niveaux de normes et dans quelles
conditions sont-ils caractérisés comme déviants par le contrôle ?
5. Dans quelle mesure le comportement est appréhendé comme un
facteur de risque ?

2. Approche empirique : des bébés, des


normes et de la déviance
L’étude terrain que nous présentons ici doit nous servir à poursuivre
notre réflexion sur les dynamiques liant les normes et la déviance et
sur les problématiques managériales qui en découlent. Notre guide
d’analyse est bien sûr celui que nous venons de définir. Cette étude
correspond à la première phase d’une démarche de recherche
empirique entamée en juin 2012 dans les services de néonatologie du
CHU de Nantes. Le dispositif prévoit la réalisation de plusieurs séries
d’entretiens semi-directifs avec les personnels des services
(administratifs et cadres de santé, médecins, infirmières, aides-
soignantes et puéricultrices), une étude documentaire (textes
administratifs et législatifs, compte rendu de réunions, etc.) et des
phases d’observation dans les services. Ces trois dispositifs de
recherche ont déjà été mobilisés. Au total, avant la fin du mois
d’octobre, 18 entretiens ont été réalisés avec les membres des équipes
plus 4 entretiens de cadrage avec les cadres de santé et le Professeur
qui dirige le service. Des périodes d’observation allant de quelques
heures à une journée (ou une nuit) ont été réalisées systématiquement
chaque jour au cours du mois de juillet et de la première moitié du
mois d’août. Elles se sont poursuivies à raison d’une demi-journée à
une journée par semaine à partir du mois d’octobre. Le service de
néonatologie du CHU comprend trois équipes : la réanimation, les
soins intensifs et la néonatologie de suite. Notre travail s’est jusqu’à
présent principalement concentré sur les équipes de réanimations et
de néonatologie de suite et ce sont des éléments relatifs à ces deux
équipes que nous mobilisons dans cet article. Nous avons toutefois
déjà réalisé quelques observations dans les équipes de soins intensifs.

2. 1 Les services hospitaliers de néonatologie :


un environnement riche en normes
Les services de néonatologie, notamment ceux de réanimation et de
soins intensifs disposent d’un statut à part dans le monde hospitalier.
Alors même que partout les services semblent subir une pression
budgétaire plutôt mal vécue par les acteurs, eux sont protégés par
décret. En effet, l’hôpital a l’obligation de fournir à ces services des
moyens humains et matériels correspondant à des normes fixées par
décret ministériel. Ainsi, par exemple, en réanimation une infirmière
ne peut être affectée au suivi et aux soins de plus de trois enfants.
Nous décrivons dans l’encadré ci-dessous l’organisation de chacune
des trois équipes qui composent le service. Nous centrons notre travail
ici sur l’étude des équipes 1 et 3, c’est-à-dire celles de réanimation et
de néonatologie de suite.

Les trois équipes du service de néonatologie du CHU de Nantes :


1 : la réanimation qui accueille les enfants juste après l’accouchement si leur
état le justifie ou plus tard si leur état s’est dégradé. Les grands prématurés
(plus de deux mois avant terme) passent systématiquement par ce service.
Les enfants sont soit en chambre individuelle soit en chambre double. Les
chambres sont équipées en matériel médical lourd (scope, oxygène, machine
à vibration, aide cardiaque, etc. Au moins quatre à cinq écrans par enfant).
Dans ces équipes chaque infirmière et puéricultrice s’occupe au maximum de
trois bébés, les appareils sont systématiquement reliés à un central. Le
service est piloté par une équipe de médecin, chaque médecin est référant
de trois à cinq bébés et il est dirigé par un Professeur qui est également le
directeur de toute la néonatologie. Un cadre de santé gère le fonctionnement
administratif. Le travail se fait en 12 heures/12 heures de 7 h 30 à 19 h 30
et inversement. Les médecins font deux tournées par jour.
Pour les parents le service est accessible 24 heures/24 physiquement ou par
téléphone. L’équipe encourage les méthodes d’inspiration suédoise
notamment la peau à peau entre le bébé et les parents.
Le service est assez souvent impliqué dans des dispositifs de recherche. Il
n’est pas rare que les pathologies des enfants soient graves et/ou que leur
état se dégrade parfois brutalement.
2 : Les soins intensifs sont situés au même étage mais dans une partie
différente à laquelle on accède toutefois par la même entrée (avec
interphone). Le service recueille les enfants qui sortent de réanimation et
ceux dont l’état est moins préoccupant. Le nombre d’enfants par infirmière
est de cinq. Les chambres sont moins médicalisées (scope cardiaque et
oxygène pour la plupart) et les médecins ne font qu’une tournée par jour. En
règle générale les parents sont un peu moins présents sauf lorsque les
mamans allaitent et que les enfants passent à une alimentation au sein après
avoir eu une alimentation en sonde. Dans ces cas il n’est pas rare que les
mamans restent sur place en permanence. Un cadre de santé gère le
fonctionnement administratif. Le service est organisé en 3 fois 8 heures. Le
même Professeur que pour la réanimation en est le directeur. Le service est
parfois impliqué dans des dispositifs de recherche.
3 : La néonatologie classique est située à l’étage inférieur. Elle reçoit des
prématurés légers ou des enfants qui ont besoin d’une surveillance
(relativement) légère. Le médecin de ce service, qui est aussi dirigé par le
Professeur, est un interne.
Les équipes sont constituées en fonction des compétences des infirmières et
des puéricultrices mais aussi en fonction des contraintes d’agenda et de
planning. En règle générale les infirmières qui sont en réanimation vont
rarement en néonatologie classique et inversement. Les soins intensifs sont
une zone de recoupement de ce point de vue.

Dans chacune des équipes de ce service de néonatologie, le


fonctionnement est fortement marqué par deux niveaux de normes.
Le premier est celui, en reprenant la terminologie de Reynaud, de la
régulation de contrôle. Elle prend la forme d’une norme théorique qui
correspond à une normalisation des processus opérationnels et
d’organisation. Nous utilisons le terme de théorique car outre les
questions de moyens (matériels et humains) elle précise quels doivent
être les protocoles médicaux devant être mis en œuvre dans les
différents cas et situations qui peuvent être rencontrés : comment
réagir à telle évolution de l’état de santé d’un bébé, que faire face à tel
événement, quel protocole médical mettre n’œuvre face à tel cas, etc.
Or ces protocoles et processus sont directement déterminés par les
évolutions des connaissances scientifiques et résultent donc de
l’opérationnalisation des résultats des recherches menées dans le
domaine de la pédiatrie et de la néonatologie. À cela s’ajoutent bien
sûr des règles d’hygiène.
Le second niveau est celui de la régulation autonome au sens de la
régulation du fonctionnement opérationnel par les équipes elles-
mêmes. Nous parlons ici de normes opérationnelles car il s’agit
véritablement de ce qui organise la mise en œuvre des normes
théoriques compte tenu des circonstances qui caractérisent chaque
situation. Deux éléments de normalisation et de régulation doivent
être distingués : d’une part le fonctionnement global de l’équipe qui
renvoie à des principes généraux, des manières de faire stabilisées et
généralisées dans le cadre du groupe ou, au plus, du service ; d’autre
part la situation singulière que peut représenter chaque cas. En effet,
surtout en réanimation, l’évolution de l’état de santé d’un bébé est
imprévisible. Une dégradation peut survenir en très peu de temps
(quelques minutes, quelques heures) et les paramètres médicaux
(maturité de certains organes ou du système immunitaire,
malformations, infections nosocomiales, etc.) comme le contexte
(présence et implication des parents notamment, compétences de
l’équipe pour appréhender une configuration médicale particulière,
disponibilité de matériel spécifique,8 etc.) peuvent fortement varier
d’un cas à l’autre.
L’articulation entre ces deux niveaux de normes est ainsi marquée
par l’instabilité et la singularité des situations. Par exemple, l’évolution
d’une situation, telle que la dégradation brutale de l’état de santé d’un
bébé, peut entraîner le basculement d’une référence à une norme
théorique vers une référence à une autre norme théorique pour
organiser l’action. Dans le même sens si des parents jusqu’alors
impliqués fortement ne peuvent plus être présents,9 des dispositifs
centraux tels que celui du « peau-à-peau » ne pourront plus être mis
en œuvre et l’organisation des journées et des soins en sera totalement
chamboulée.

2.2 D’un bébé objet de la déviance à un bébé


déviant
Pour différencier les modes de fonctionnement et d’organisation des
équipes de réanimation et de néonatologie de suite il est possible de
s’interroger sur les objets respectifs de leur travail. Les extraits
d’entretiens cités ci-dessous permettent de l’introduire :
« Ici, en réa, vous voyez bien, toute l’attention est pour le bébé. On
ne peut rien dire de définitif, il peut mourir en quelques heures alors
qu’il allait bien. Il faut être à l’affût et être capable de réagir vraiment
en permanence. (…) d’un bébé à l’autre tout peut être différent, on ne
sait jamais ce que l’on va trouver, il faut s’adapter en permanence.
(…) même si on a trois bébés que l’on suit en particulier on prend sans
arrêt l’avis des autres, les infirmières, les puéricultrices, les
médecins… » (Une infirmière de l’équipe de réanimation).
« C’est différent quand même, l’ambiance n’est pas la même qu’en
réanimation. Les bébés qui arrivent ici sont destinés à sortir dans pas
trop de temps. On doit les préparer à cela. Du coup on leur impose
plus de choses, comme l’heure des biberons par exemple. Les parents
ne comprennent pas toujours, mais c’est dans leur intérêt ». (Une
infirmière de l’équipe de néonatologie de suite).
Dans les deux cas, bien sûr, l’objet central du travail est le bébé et
son état de santé. Toutefois il est abordé différemment dans chacune
des équipes.
En réanimation l’état de santé du bébé est instable et incertain. Il
impose une incertitude et une instabilité quant au déroulement et au
contenu du travail. L’objectif est de maintenir le bébé en vie et de lui
permettre de gagner en maturité physique de manière à ce qu’il puisse
stabiliser son état. Or atteindre cet objectif suppose de faire face
quasiment en permanence à des aléas et des événements. Cela suppose
de s’adapter et de réagir en étant capable de s’écarter des protocoles et
processus définis par les normes théoriques, voire de les remettre en
cause et/ou de choisir d’en prendre d’autres en références. Il y a bien
ici de la déviance mais elle est fonctionnelle, partielle et pilotée, de
même qu’elle est associée à un risque comportemental.
Elle est fonctionnelle car elle est un vecteur premier d’efficacité.
Être capable de déviance revient pour les acteurs à être capable de
réagir à des perturbations qui vont advenir sans qu’il soit possible de
prévoir ce qu’elles seront. Elle est partielle et pilotée car elle se définit
par rapport à la norme théorique et est soutenue par la norme
opérationnelle.
Cette déviance est portée par les acteurs qui s’occupent du bébé : les
infirmières et les puéricultrices qui lui sont affectées ainsi que son
médecin référent.10 Elle est pilotée d’une part par les interactions entre
ces personnes et par les interactions entre elles et les autres membres
du service. En effet des réunions de début et de fin journée sont
systématiquement tenues et permettent des échanges sur chaque cas,
des réunions plus approfondies de toute l’équipe sont tenues deux fois
par semaine et, de manière générale, les échanges sont très réguliers :
Il est très rare qu’une décision, même banale,11 ne fasse pas l’objet de
discussion.
Ce contrôle par les pairs et par le collectif permet de maîtriser et de
piloter la prise de distance et le jeu avec les normes théoriques. Il
définit également le risque comportemental. Ce dernier est celui que
les acteurs, seuls ou en équipe restreinte (le trinôme chargé d’un
bébé), s’affranchissent de la mise en discussion de leurs décisions et de
leur manière de traiter un cas.
Il y a ici, en réanimation, deux niveaux de déviance possible, chacun
défini par rapport à un niveau de norme : une déviance fonctionnelle
définie par rapport à la norme théorique et pilotée par le collectif ; une
déviance correspondant à un risque comportemental, défini par
rapport à la norme opérationnelle et qui est le risque que les acteurs
s’affranchissent du contrôle porté par la mise en œuvre de cette
norme.
En néonatologie de suite, la dynamique liant normes, risque
comportemental et déviance est inverse. L’objectif n’est plus de
stabiliser l’état de santé du bébé mais de stabiliser son comportement
pour permettre sa sortie. L’organisation ne permet pas, à l’inverse de
la néonatologie, un suivi sur la durée de l’enfant par les mêmes
personnes (plus de bébés, moins de personnels et pas d’affection d’un
bébé à une infirmière et une puéricultrice sur une durée de plus d’une
journée).
Ici, les protocoles de soin et de prise en charge sont définis pour la
semaine et leur application est contrôlée chaque jour par un médecin
qui peut, s’il le souhaite, les adapter. Ce médecin interagit avec les
infirmières et puéricultrices, mais ne passe pas systématiquement
dans la chambre voir l’enfant. La transmission des informations entre
les équipes de jour et de nuit dure environ une dizaine de minutes et
porte sur les consignes liées à l’application du protocole plus que sur
l’état de santé des bébés.
En néonatologie de suite, la déviance est davantage du fait du bébé
que de l’organisation et des personnels. Si son état de santé devient
instable, évolue dans le mauvais sens ou encore s’il ne parvient pas à
adopter le comportement souhaité (stabilisation des modes
d’alimentation compatibles avec un retour à la maison notamment) il
bloque la bonne mise en œuvre des normes théoriques et des
processus techniques. Ce faisant il perturbe le fonctionnement du
service en sollicitant une attention plus soutenue qui gêne la bonne
prise en charge des autres enfants en bousculant le fonctionnement
normal de l’équipe.
Dans ce cadre le risque comportemental est lié à la capacité des
acteurs à prendre ou non de la distance par rapport aux normes
théoriques et opérationnelles. Dit autrement, il est lié d’une part à la
capacité des acteurs à être déviants lorsque le bébé et son état de santé
le sont par rapport à ce qui est attendu compte tenu de la norme
théorique et, d’autre part, à la capacité du fonctionnement soutenu par
la norme opérationnelle à permettre et piloter cette déviance.

Discussion
En réanimation, la déviance est fonctionnelle et elle joue le rôle de
charnière entre les deux niveaux de normes. Elle est un principe
d’opérationnalisation de la norme théorique et est définie comme
normale par la norme opérationnelle. Elle est le mode de
fonctionnement porté par la norme. Elle est le fait des acteurs qui
agissent en fonction des perturbations provoquées par les évolutions
chaotiques de l’état de santé du bébé. En néonatologie de suite la
déviance est toujours provoquée par les évolutions de l’état de santé
du bébé mais elle est alors anormale. Dans les deux cas, la place, le
rôle et le statut (normal ou anormal) de la déviance comme son objet
(mise en cause de la norme théorique en réanimation et mise en cause
de la norme opérationnelle en néonatologie de suite) sont définis par
la situation et sa prise en compte par les normes théoriques et
opérationnelles.
En réanimation, tout est singulier et déviant. La déviance est le
mode de fonctionnement normal et est intégrée dans la norme
opérationnelle. Le fonctionnement organisationnel définit la déviance
comme nécessaire et la bloquer serait bloquer l’efficacité.
En néonatologie classique la situation du bébé est regardée comme
devant être normale et non singulière et devant être prise en compte et
gérée comme telle en appliquant les protocoles et les processus définis
par la norme théorique. Dans le cas de la réanimation qui peut-être
caractérisée, dans une optique de généralisation, comme celui d’une
situation perturbée, incertaine et chaotique, la problématique
managériale est double. Elle est celle du maintien d’un
fonctionnement centré sur la déviance, mais qui prévient le risque
comportemental lié à la transgression de la norme opérationnelle et
qui maintient une maîtrise de la prise de distance par rapport aux
normes théoriques. Dit autrement, le risque ici est celui que la
déviance devienne de la transgression, il est celui :
1. d’une transgression de la norme opérationnelle qui serait un trop
grand respect des normes théoriques
2. d’une transgression des normes théoriques par une non-maîtrise
de la déviance fonctionnelle permise par les normes
opérationnelles.
Dans le cas de la néonatologie, qui peut être caractérisée dans une
optique de généralisation, comme celui d’une situation stabilisée la
problématique managériale n’est pas de borner la déviance, mais de la
permettre. Elle est de permettre et de piloter la prise en compte des
aléas et des événements. Le risque ici n’est pas celui d’apparition de
comportements de transgression des normes. Il est celui d’une dérive
disciplinaire du fonctionnement centré sur les normes et sur leur
respect.

Références bibliographiques
Arnaud N. (2007). Construction et management de compétences
collectives dans le cadre de relations inter-organisationnelles : une
approche communicationnelle. Thèse de Doctorat en Sciences de
Gestion, Université de Nantes.
Barker J. (1993). Tightining the iron cage: concertive control in self-
managing teams. Administrative Science Quaterly, 38.
Beauvallet G. & Houy T. (2009). L’adoption des pratiques de gestion
lean. Cas des entreprises industrielles françaises. Revue française de
gestion, n° 197.
Becker H. (1973). Les Outsiders. Paris, Métaillé.
Bertrand T. & Stimec A. (2011). Santé au travail : voyage au pays du
lean management. Revue française de gestion, n° 214.
Best J. (2004). Deviance may be Alive, but is it Intellectually Lively? A
Reaction to Goode. Deviant Behavior, 25.
Best J. (2004). Deviance. Career of a Concept, Belmont, CA. etc.
Thomson/Wadsworth.
Chanut V. (2008). Managers versus experts. Revue française
d’administration publique, n° 128.
Courpasson D. & Golsorkhi D. (2009). Résistances et pouvoirs dans et
autour des organisations de la seconde modernité. Revue française
de gestion, n° 193.
Defelix C., Retour D. & Picq T. (2009). Gestion des compétences.
Nouvelles relations, nouvelles dimensions. Paris, Vuibert.
Detchessahar M. (2003). L’avènement de l’entreprise
communicationnelle. Revue française de gestion.
Detchessahar M. & Honoré L. (2002). Fonctionnement et performance
des équipes autonomes : le cas des ateliers de soudure des Chantiers
de l’Atlantique. Finance, Contrôle, Stratégie, vol. 5, n° 1.
Detchessahar M. & Grevin A. (2009). Une organisation de santé…
malade de gestionnite. Annales des Mines. Gérer et Comprendre
(décembre).
DiMaggio P.J. & Powell W. (1983). The iron cage revisited institutional
isomorphism and… in organizational fields. American Sociological
Review, 48.
Durkheim E. (1994). Déviance et criminalité. Paris, Armand Colin.
Girin J. (1994). Les arrangements organisationnels. In J.P. Bouilloud
& B.P. Lecuyer (dir.), L’Invention de la gestion. Paris, L’Harmattan.
Goffman E. (1975). Stigmante. Paris, Éditions de Minuit.
Gomez P.Y. (1996). Le Gouvernement de l’entreprise : modèles
économiques et pratiques de gestion. Paris, InterEditions.
Granovetter M. (1985). Economic Action and Social Structure: The
Problem of Embeddedness. American Journal of Sociology, vol. 91,
n°3.
Groenemeyer A. (2007). La normativité à l’épreuve. Déviance et
Société, vol. 31, n° 4.
Honoré L. (2000). Figures de la transgression des règles dans
l’entreprise. Annales des Mines, Gérer et Comprendre, n° 61.
Honoré L. (2002). Déviance, discipline et gestion du risque
comportemental. Sciences de Gestion, n° 35, pp. 111-113.
Honoré L. (2006). Déviance et contrôle des comportements. Finance
Contrôle Stratégie.
Honoré L. (2007). Modernisation des organisations et contrôle des
comportements : quels liens et quels enjeux. Revue française de
gestion.
Honoré L. (2013). Des bébés et du management : la révolution
organisationnelle des services de réanimation néonatale. Congrès
AGRH, Paris.
Journé B. (2002). Situer la cognition et l’action collective –
Introduction. Systèmes d’Information et Management, vol. 7, n° 2.
Journé B. & Raulet-Croset N. (2008). Le concept de situation :
contribution à l’analyse de l’activité managériale dans un contexte
d’ambiguïté et d’incertitude. M@n@gement, 11 h 1.
Le Bart C. (2008). L’Individualisation. Paris, Presses de Sciences Po,
collection « Références ».
Lemert E. (1967). Human Deviance, Social Problems and Social
Control. Prentice Hall.
Lianos M. (2005). Le nouveau contrôle social. Toile institutionnelle,
normativité et lien social. Paris, L’Harmattan.
Lianos M. & Douglas M. (2000). Dangerization and the End of
Deviance. The Institutional Environment. British Journal of
Criminology, 40, 261-278.
Parsons T. (1951). The Social System. New York, Free Press.
Pezet E. (2007). Management et conduite de soi. Enquête sur les
ascèses de la performance. Paris, Vuibert.
Reynaud J.D. (1988). Les régulations dans les organisations :
régulation de contrôle et régulation autonome. Revue française de
sociologie, vol. 29, n° 1.
Robichaud D. & Benoit-Barné C. (2010). L’épreuve de la conversation :
comment se négocie la mise en œuvre des normes dans l’écriture
d’un texte organisationnel. Études de la Communication, n° 34.
Schmitt C., Frabbri R. & Galais M. (2011). Situation de gestion,
proximité cognitive et changement dans les organisations. Revue
française de gestion, n° 213.
Sewell G. & B. Wilkinson (1992). Someone to watch over me:
surveillance discipline and just-in-time labour process. Sociology,
26.
Summer C. (1994). The Sociology of Deviance: An Obituary.
Buckingham, Open University Press.
Thevenet M. & Neveu J.P. (2002). L’Implication au travail. Paris,
Vuibert.
Vardi Y. & Wiener Y. (1996). Misbehavior in organizations: a
motivational framework. Organization Science, vol. 7, n° 2.
Chapitre 4

Contrôle de gestion et
management public : quel retour
d’expérience pour les entreprises
?

PASCAL FABRE

L’objectif de ce chapitre est de faire le point sur les enseignements à


tirer des tentatives d’implantation du contrôle de gestion dans les
organisations publiques ou parapubliques : ministères, collectivités,
hôpitaux, universités, en particulier pour les entreprises (notamment
industrielles) ou ces pratiques ont pris naissance. En effet, comme
nous allons le voir, les difficultés rencontrées pour adapter le contrôle
de gestion à un environnement très différent nous éclairent sur les
conditions et les limites d’emploi générales de cet outil. À partir de ces
constatations, il est alors possible d’opérer un retour d’expérience de
portée beaucoup plus générale.
Ce chapitre sera articulé en trois sous-parties. La première sous-
partie : « le retour à la contingence » montre à travers l’exemple de la
comptabilité de gestion appliquée aux mairies et aux universités (mais
aussi les indicateurs de performance), les limites universelles
d’utilisation de ces outils, limites trop souvent oubliées, comme en
témoignent les nombreux échecs d’implantation dans le secteur public
comme dans le secteur privé. La deuxième sous-partie : « l’ouverture
vers l’extérieur » insiste sur l’importance des indicateurs d’intrant et
d’impact à travers les travaux portant sur l’articulation entre contrôle
de gestion et management public permettant la prise en compte par les
organisations de l’environnement externe et également une meilleure
appréhension des conséquences à long terme de leurs actions,
démarche seulement esquissée par Kaplan et Norton avec le Balanced
Score Card.
La troisième sous partie : « la politisation des outils de contrôle de
gestion » illustre à travers des exemples issus en particulier des
mairies, des universités et des ministères, comment les informations
issues du contrôle de gestion peuvent être instrumentalisées au service
des dirigeants dans une optique de valorisation des actions entreprises
et de communication avec les parties prenantes internes mais aussi
externes.

1. Le retour de la contingence
Les conditions d’emploi des outils de contrôle de gestion, en
particulier la comptabilité de gestion, sont souvent mal connues par
ceux qui les mettent en place. Ces conditions d’emploi tiennent aussi
bien aux caractéristiques de l’environnement d’accueil qu’au mode
d’utilisation de ces outils (Baranger, 1995). Or comme le montre
Hofstede (1981), dans les organisations publiques on se trouve souvent
aux limites des conditions d’emploi de ces outils ce qui permet d’en
tester la robustesse, c’est-à-dire la capacité à s’adapter à des
environnements et des situations très variées. Au niveau de la
comptabilité de gestion, la mise en œuvre de cet outil dans les
organisations publiques semble se heurter à de nombreuses difficultés
dues en particulier au non-respect de ces conditions d’emploi
entraînant assez fréquemment son abandon. Si le phénomène est
particulièrement visible dans ce type d’organisation, la remise en
cause de la comptabilité de gestion (en particulier les sections
homogènes) et les tentatives de renouveau (en particulier la
comptabilité à base d’activité) avec également leur lot d’échecs,
semblent indiquer que ces conditions d’emploi ne sont pas forcément
mieux connues au niveau du secteur privé.

1.1 Une inadaptation des outils mis en place


aux contraintes opérationnelles, économiques
et politiques
Malgré un resserrement de la contrainte financière et un certain
volontarisme des politiques, plus ou moins influencés par les théories
du New Public Management, les tentatives d’implantation de la
comptabilité de gestion en coût complet dans le secteur public (un
outil classique du contrôle de gestion) semblent à première vue avoir
connu un succès très mitigé (au niveau même de la LOLF, l’aspect coût
ayant globalement été délaissé).
L’échec le plus patent se situe probablement au niveau des mairies.
Dans ces organisations de type congloméral déployant une multitude
d’activités de natures très diverses, les tentatives d’implantation de
systèmes globaux de comptabilité en coût complet à l’échelon de
l’ensemble de la collectivité ont généralement abouti à un abandon de
l’outil ou à une utilisation très limitée de celui-ci (Bargain, 2012). On
peut faire la même remarque pour les hôpitaux ou plusieurs rapports
de la cour des comptes et du HCCA s’inquiètent de la faible diffusion
de ce type d’outil analytique lourd. Au niveau des universités, les
tentatives d’implantation des systèmes globaux de comptabilité
analytique en coût complet semblent également se heurter à de
nombreux problèmes liés soit au manque d’intérêt des équipes
dirigeantes (Portal et al, 2012), soit aux caractéristiques intrinsèques
des universités (Ducrocq et al, 2012). L’échec semble surtout patent
pour les gros systèmes en coût complet (sections homogènes ou
méthode ABC) couvrant l’intégralité de l’organisation. Mais
paradoxalement, il semble que, parallèlement, des systèmes plus
simples en coût direct sont mis en place spontanément par certains
responsables de service (Fabre, 2013).
Trois types de raisons permettent d’expliquer ce relatif échec des
systèmes lourds en coût complet et parallèlement le développement de
systèmes partiels plutôt en coût direct. Elles recouvrent les trois
logiques traditionnelles des organisations publiques : opérationnelles,
économiques mais aussi politiques. En premier lieu, la mise en place
de l’outil est généralement faite sans prise en compte des contraintes
opérationnelles. En effet pour de nombreuses activités (mais pas
toutes) la comptabilité analytique ne présente qu’un intérêt très limité,
d’une part, parce que l’activité ne donne pas lieu à une facturation
indépendante ou que le prix est fixé sans référence aux coûts, d’autre
part, parce que la structure des coûts comprend principalement des
charges fixes et que les moyens sont peu ou pas fongibles. Ensuite, les
contraintes financières sont également souvent ignorées avec un coût
d’implantation qui s’avère souvent très élevé (du fait de la lourdeur de
l’outil et de son caractère exhaustif). De plus les coûts d’exploitation
sont souvent sous-estimés et se révèlent assez souvent trop importants
par rapport à l’intérêt des informations apportées par le système.
Enfin les contraintes politiques sont également négligées. Les attentes
des élus dont le soutien est absolument essentiel à l’implantation et à
la pérennisation de l’outil, portent en effet plus sur des outils facilitant
la négociation avec les partenaires et la mise en valeur des actions
entreprises. C’est ainsi qu’un président d’université aura tendance à
privilégier des outils de reporting externe au détriment d’autres outils
plutôt utilisables pour la gestion interne comme la comptabilité de
gestion (Portal, 2012), les premiers s’avérant indispensables pour
fournir des arguments vis-à-vis du ministère, principal apporteur de
fonds.

1.2 Des causes d’échec communes à tout type


d’organisation
Il faut souligner que ces constatations ne sont pas nouvelles et
s’étendent à l’ensemble des organisations y compris les entreprises
privées. Comme le remarque Sandretto (1985) la comptabilité de
gestion n’est pas un outil de management à vocation universelle. En
effet dans certaines situations, le déploiement de l’outil s’avère trop
coûteux eu égard à la valeur des informations récoltées. Dans d’autres
configurations, les informations s’avèrent de faible utilité, par exemple
parce que la fixation des prix s’opère sur d’autres bases que les coûts
du fait d’une situation monopolistique ou de l’importance des charges
fixes. C’est le cas également lorsque le coût n’est qu’une variable
marginale, par exemple pour les produits faiblement substituables ou
la qualité et/ou l’image jouent un rôle bien plus déterminant.
Ensuite, d’après Baranger (1995), il semble vain de vouloir proposer
un système unique d’élaboration des coûts dans les organisations. À ce
niveau, la normalisation s’avère inadaptée et l’isomorphisme aboutit
souvent à des résultats peu probants. Il y a en fait différentes
approches à utiliser en fonction des problèmes à résoudre et des
paramètres internes et externes propres à l’organisation (dont on a un
aperçu dans le tableau ci-après).

Tableau 1. Facteurs de contingence intervenant dans le


choix et l’utilisation des outils de contrôle de gestion
Facteurs externes : métiers/environnement

Industrie Distribution Services OBNLT


1. Projet 1. Grande 1. Exploitation d’un 1. Secteur privé
2. Flexible distribution savoir faire 2. Secteur public
3. Standard 2. Grossistes 2. Exploitation d’un
4. Processus équipement

+ Contraintes de production/situation de marché/structure


concurrentielle/ paramètres sociaux et réglementaires

Facteurs
internes
Politiques
1. Valeurs
2. Objectifs
3. Stratégie

Opérationnels
1. Niveau de maturité
organisationnelle
2. Structure et mode
d’organisation

Économiques
1. Situation financière
2. Moyens disponibles

Source : l’auteur (d’après Baranger, 1995)

Il importe donc en premier lieu d’analyser correctement les


problèmes posés en prenant en compte les paramètres internes (ainsi
une analyse en coûts directs s’avérera plus pertinente qu’un système
en coût complet dans une entreprise en difficulté du fait de l’urgence
et du manque de moyens) mais aussi externes (ainsi une comptabilité
ABC aura une valeur ajoutée supérieure à une comptabilité par
sections homogènes dans le cadre d’un processus de production
flexible marqué par une forte complexité).
Il s’agit ensuite de déterminer si un outil de mesure de la
consommation de ressources est nécessaire. Il peut s’agir de
comptabilités de gestion mais aussi des calculs de coûts extra-
comptables voire même des mesures physiques telles le nombre
d’heures de travail. Le cas échéant il faut sélectionner l’outil ad hoc en
fonction de l’analyse précitée. Une telle démarche aboutit non
seulement à des outils différents selon les organisations concernées
mais en allant plus loin à des outils différents selon le problème à
résoudre à l’intérieur de la même organisation comme le montre le
tableau ci-après.

Tableau 2. Choix des méthodes en fonction du contexte


organisationnel et des problèmes à résoudre
Type de problèmes Type de solutions possibles
Un cabinet d’audit confronté à des Mise en œuvre d’une démarche
problèmes de gestion du personnel d’analyse des coûts cachés.
(absentéisme, turnover, baisse de la
qualité des prestations) souhaite en
mesurer l’impact.
Une entreprise agroalimentaire qui Pour la production : sections
vend des produits standards mais homogènes et coûts standards
avec un packaging adapté, des frais « classiques »
de transports très variables et des Pour la distribution : analyse en marge
prix différenciés à des grandes, sur coût direct par client.
moyennes et petites surfaces veut
analyser ses résultats
Une mairie souhaite faire connaître Pour le « coût réel » une grande
à la population le coût « réel » des précision n’est pas requise : coût direct
prestations rendues mais aussi par service + prestations internes
arbitrer éventuellement entre régie reçues sur la base de coûts standards
et marché : nature très diverse des + coûts de structure au prorata des
services offerts, importance des charges de personnel.
prestations internes des services Pour l’arbitrage entre faire et faire
techniques vers les autres services, faire : coût direct par service
importance des charges fixes. + prestations internes (les charges de
structures étant fixes).
Une entreprise industrielle Mise en place d’une comptabilité à
fabriquant des pompes base d’activité mieux adaptée que la
hydrauliques standards en grande méthode actuelle pour saisir l’impact
série s’est diversifiée en proposant d’une complexité accrue sur les coûts
des pompes spécifiques à l’unité ou des produits.
en petite série sur la base du
catalogue de pièces existant. Face à
des résultats financiers décevants,
elle s’interroge sur la rentabilité de
ses différentes productions. Le
système analytique qui date d’une
dizaine d’années répartit les
charges sur la base de l’heure de
main-d’œuvre directe.
Un hôtel de luxe incluant Système de marges sur coût direct par
restaurant, bar, discothèque et activité : hôtellerie, restaurant… et
boutique souhaite analyser la suivi des charges indirectes par
rentabilité de ces différents départements.
départements et mieux contrôler Mise en place d’inventaires
ses coûts au niveau de permanents pour le suivi des
l’exploitation, mais aussi des consommations d’aliments et de
services fonctionnels : importance boissons. Élaboration de coûts
des charges fixes pour la partie standards par type de plat.
hôtellerie et des consommations
matières pour la partie restaurant.

(Source : Bessire &Fabre, 2006)


Dans ces conditions, l’imposition d’un outil unique dans le cadre
d’une démarche top down ne peut que déboucher sur des résultats
aléatoires, faute d’une analyse préalable des besoins et des contraintes.
Confrontés à des outils inadaptés, les opérationnels « bricolent » alors
un outillage gestionnaire ad hoc plus adapté à leurs besoins en dehors
du contrôle de gestion, ce qui finit par poser de réels problèmes de
fiabilité et de cohérence.
Or si cette situation est particulièrement fréquente en management
public, elle existe également dans les entreprises, (en particulier au
niveau des grands groupes), Cooper (1990) en faisant même un
indicateur permettant de détecter l’inadaptation des outils de contrôle
de gestion « officiels »
Il faut le rappeler : les outils classiques du contrôle de gestion
comme la plupart des outils de gestion n’ont pas une vocation
universelle. Ils ont des conditions d’emploi qui en limitent la portée. Si
nous avons développé l’exemple de la comptabilité analytique en coût
complet, un tel raisonnement est également valable pour les budgets
(Berland, 2002) inopérants en environnement mouvant et même pour
les tableaux de bord (un outil pourtant particulièrement robuste) qui
ne trouvent leur intérêt qu’au-delà d’un certain degré de complexité
structurelle (Bascouret et Petitjean, 2012). On retrouve ici le débat sur
les « nouveaux outils du contrôle de gestion » en particulier l’ABC et le
BSC présentés par leurs concepteurs et les cabinets de consultants
comme des outils universels pouvant s’affranchir du principe de
contingence et rencontrant dans les faits un succès très mitigé
lorsqu’ils sont utilisés en dehors de leur cadre d’emploi d’origine, la
prise en compte de la complexité dans la consommation de ressources
pour l’ABC et la déclinaison stratégique dans les grandes entreprises
pour le BSC.

2. L’ouverture vers l’extérieur


Outre la comptabilité de gestion, les indicateurs comptables et extra-
comptables sont un autre outil classique du contrôle de gestion. Leur
mise en œuvre qui privilégie les données fournies en interne ne donne
toutefois qu’une image partielle et souvent fausse de la performance
publique. Faute d’une réelle approche systémique resituant
l’organisation publique dans son environnement, des paramètres
essentiels de la performance comme la nature de la demande sociale
ou l’impact réel de l’action publique, ne sont pas pris en compte.
Parallèlement, on constate également dans le secteur privé, la
nécessité de repenser les outils de contrôle de gestion avec comme
objectif un examen de la performance à long terme des organisations
(ou au moins des éléments qui la déterminent).

2.1 Une utilisation simpliste des indicateurs


inadaptée à la réalité du processus de
production et entraînant de nombreux ef ets
pervers
La possibilité d’utiliser des indicateurs extra-comptables est très
séduisante en management public car on peut les utiliser comme
substitut du chiffre d’affaires pour estimer la valeur créée par
l’organisation. Pourtant en pratique, leur utilisation semble entraîner,
dans de nombreuses organisations publiques des effets pervers assez
importants pouvant entraîner une remise en cause de l’utilisation de
ces outils. D’après Chatelain-Ponroy (2008), ces effets pervers (que
l’on constate également dans le secteur privé) y sont encore amplifiés
du fait de l’impossibilité de se référer à une mesure simple de la
performance financière. Il semble également que le moteur de ces
échecs consiste en une vision partielle du processus de production des
services publics. On constate en effet une focalisation sur des
indicateurs de résultat, voire d’activité, en nombre limité et pas
toujours représentatifs de la performance publique qui a souvent un
caractère multidimensionnel. Surtout comme le souligne Malleret
(2004), à ce niveau il ne s’agit pas tant de transformer des moyens en
résultat que de transformer des intrants en impacts, ce qui implique,
comme on va le voir, une vision élargie du processus de production
public, à la fois en aval et en amont (voir figure 1). Mais que
recouvrent exactement ces notions d’intrant et d’impact ?
Figure 1. Modélisation du processus de transformation
et indicateurs

Note : chaque rectangle noir correspond à un type spécifique d’indicateurs.


(Source : adaptée de Malleret (2004))

Concernant l’impact, on peut le définir comme l’ensemble des effets


à moyen et long terme d’une action de l’organisation sur les parties
prenantes ainsi que les effets induits sur l’organisation elle-même. Les
indicateurs d’impact doivent permettre d’apprécier le résultat réel
d’une action publique par rapport aux objectifs initiaux mais
également d’en apprécier les effets collatéraux positifs ou négatifs.
Ainsi le nombre de kilomètres de lignes blanches peintes sur les routes
est un indicateur intéressant mais l’évolution du nombre et de la
gravité des accidents est une information bien plus pertinente. Il en est
de même pour ce qui du nombre de caméras de surveillance installées
et de l’évolution du taux de criminalité et du sentiment d’insécurité de
la population. Comme on le voit ceci impose de prendre un certain
recul dans la mesure mais également d’obtenir des informations
externes à l’organisation donc plus délicates à obtenir.
Concernant les intrants, on peut les définir comme une traduction
de la demande venant de l’extérieur de l’organisation ou du service.
Les indicateurs d’intrant vont permettre d’apprécier à la fois le volume
et la composition de cette demande qu’il s’agisse de plaintes déposées
dans un commissariat, de dossiers de demande d’inscription à une
formation, de personnes accueillies à un guichet mais également de
demandes de réparation ou d’ordres de fabrication.
En aval, en se focalisant sur des indicateurs de résultat sans mesurer
l’impact à long terme des mesures prises, on présuppose l’efficacité de
la politique suivie et l’on est très mal renseigné sur les effets
collatéraux. Ainsi la mesure du nombre de masters diplômés
(indicateur de résultat du système SYMPA de répartition des moyens)
ne renseigne que très peu sur la capacité à assurer l’insertion
professionnelle des étudiants qui est pourtant clairement un des
objectifs principaux du système d’enseignement supérieur. En outre,
les effets pervers liés à un choix trop restreint d’indicateurs de
performances sont difficiles à apprécier, faute de mesure de l’impact
réel des mesures prises. C’est ainsi que l’indicateur : « nombre de faits
résolus » incite les services de police à se focaliser sur l’arrestation des
consommateurs de cannabis aux dépens du démantèlement des
réseaux nécessitant pour un même fait résolu infiniment plus de
temps et de moyens. La mesure de l’impact, évidemment plus délicate,
présente l’avantage de contrecarrer les comportements adaptatifs des
agents, c’est-à-dire la focalisation sur l’indicateur au détriment de la
performance à long terme. Elle permet également de mieux
appréhender les effets collatéraux d’une politique, par exemple en
termes d’image de l’organisation.
En amont, en ne mesurant pas les intrants (c’est-à-dire la demande
sociale appréciée de façon qualitative mais aussi quantitative), on
prend le risque de mal apprécier les moyens réellement nécessaires à
la prise en compte d’une telle demande. Cette absence de prise en
compte des intrants risque également de donner une image déformée
de la performance des agents.
Ainsi un indicateur mesurant l’insertion professionnelle des
étudiants n’a de valeur comme mesure de la performance des
établissements d’enseignement supérieur que si l’on prend en compte
les différences sociales dans les populations étudiantes respectives (ce
qui était le projet initial du système SYMPA de répartition des moyens
mais a été abandonné). De plus l’absence de mesure régulière des
intrants ne permet pas d’appréhender les variations au niveau de
l’environnement et de la demande sociale et donc de prendre des
mesures adaptatives au niveau de l’organisation.
Il est à noter que la mesure de l’impact dans le secteur public est
traditionnellement dévolue à un autre outil : l’évaluation de politique
publique qui privilégie les études qualitatives et quantitatives
« externes ». Or cet outil déjà relativement peu développé en France (en
particulier par rapport aux pays anglo-saxons) semble connaître une
certaine désaffection de la part des décideurs publics. De fait, comme le
souligne Malleret (2004), les mesures d’impact (qui impliquent le plus
souvent l’obtention d’informations externes) sont délicates, coûteuses et
peuvent être influencées par des événements extérieurs. Dès lors il peut
paraître plus simple et « plus efficace » pour le politique de les
remplacer par des indicateurs d’activité et ou de résultats en
présupposant (à tort) que de bons résultats vont entraîner un « impact
favorable ». Ensuite les politiques peuvent être réticents à la mise en
œuvre d’un outil tel que l’évaluation de politique publique qui est
souvent considéré en France comme un instrument de reddition de
l’action publique et dont les résultats sont donc communicables au
public et aux médias.

2.2 Un modèle prof table à tout type


d’organisation mais impliquant la mise en place
de nouveaux circuits d’information
En se référant de nouveau aux propos de Chatelain-Ponroy (2008), il
faut rappeler que les effets pervers du contrôle de gestion sont aussi
présents dans le secteur privé, en particulier la focalisation sur des
objectifs à court terme aux dépens de l’intérêt à long terme de
l’organisation (ce que les commerciaux appellent « la politique de la
terre brûlée »).
À cet égard, cette version élargie des processus d’abord pensée pour
les services et particulièrement adaptée pour les organisations
publiques s’avère également pertinente pour les autres organisations
du secteur privé, y compris les entreprises industrielles. En effet
comme le souligne Malleret (2004), en dehors du fait que les
entreprises de service prennent une place croissante dans l’activité
économique, même les activités de production comportent aujourd’hui
une forte dimension de service (respect des délais, qualité, service
après-vente). De plus au niveau industriel et en particulier pour ce qui
est des process à la commande ou des process flexibles, il y a
également une interaction très forte entre producteur et utilisateur
pour ce qui est de la définition du produit/service rendu. C’est ainsi
que les caractéristiques de la demande et l’évolution de ces
caractéristiques (notamment la taille des séries et le caractère plus ou
moins spécifique des produits demandés) vont avoir une influence
considérable sur l’ensemble des processus de l’organisation.
Si l’on élargit la notion d’intrant et que l’on considère qu’il est une
mesure de la demande (clients) ou de l’offre sociale (fournisseurs,
salariés), en investissant le champs des indicateurs d’intrant, le
contrôle de gestion dispose d’informations permettant d’éclairer les
autres fonctions et la direction générale sur les contraintes amont
(manque de personnel qualifié ou de fournisseurs certifiés, nouvelles
exigences des clients) ; d’un autre coté il peut également fournir aux
services en contact avec l’extérieur des informations structurées
permettant de prendre la pleine mesure des phénomènes observés.
Concernant l’impact, il va permettre au contrôleur de gestion
d’estimer la mesure des conséquences à long terme des actions de
l’organisation et en particulier les effets sur l’image de l’organisation et
la valeur de ses marques. Ceci va permettre d’en anticiper les
conséquences financières à long terme. C’est d’ailleurs ce que tente de
réaliser le Balanced Score Card, la dimension « clients » comportant
des indicateurs d’impact comme la satisfaction client, le taux de
fidélité et la part de marché. Par contre, la prise en compte des
intrants et la détermination de l’impact dans la mesure des
performances de l’organisation implique pour le contrôle de gestion de
disposer de sources d’informations externes fiables sous formes
d’enquêtes quantitatives régulières menées par les services concernés
(bien évidemment les ressources humaines et le marketing mais aussi
les services de production en contact avec la clientèle, en particulier les
ingénieurs commerciaux et le SAV).
Cependant malgré la pertinence de ce modèle pour évaluer la
performance d’une organisation publique ou privée, il faut être
conscient qu’une mesure « exacte » de l’impact d’une action (et
surtout la diffusion de celle-ci) n’est pas toujours souhaitable pour le
manager d’une organisation (qu’elle soit publique ou privée), celui-ci
ayant sa logique propre qui n’est pas réductible à celle des autres
parties prenantes externes mais aussi internes. Dès lors celui-ci est
toujours tenté d’instrumentaliser les outils du contrôle de gestion de
façon à atteindre ses propres objectifs comme nous allons les voir.

3. La politisation des outils de contrôle


de gestion
L’utilisation politique des outils de contrôle de gestion par les
décideurs, très fréquente dans les organisations publiques, correspond
à des finalités apparemment très éloignées de leur vocation initiale.
C’est le cas en particulier de la communication externe à l’égard de la
tutelle et des partenaires. Se pose aussi le problème de
l’instrumentalisation des contrôleurs de gestion dans les organisations
publiques de type congloméral comme les universités mais aussi les
hôpitaux. Toutefois cette dimension politique est également présente
dans les organisations du secteur privé, le contrôle de gestion pouvant
là aussi être instrumentalisé au service des jeux d’acteurs. À ceci
s’ajoute une utilisation accrue par les décideurs du secteur privé des
outils de contrôle de gestion à des fins de communication externe.

3. 1 Des organisations politiques devant


arbitrer entre les dif érentes parties prenantes
Comme le souligne Maurel (2012), dans les organisations publiques la
hiérarchisation des parties prenantes n’est pas aussi nette qu’en
entreprise ou les actionnaires apparaissent comme largement
dominants. Cependant elle existe, quoique de façon variable selon le
type d’organisations. En particulier la tutelle étatique joue souvent un
rôle d’apporteur de ressources essentiel à l’instar des actionnaires du
secteur privé. De ce fait, les rapports de certaines organisations
publiques à la tutelle sont essentiels et demandent la mise en place
d’outils de gestion permettant de valoriser les activités de
l’organisation. C’est le cas par exemple pour les universités, les
hôpitaux mais aussi les musées qui déploient des efforts considérables
pour mettre en avant la valeur ajoutée sociale créée par le biais
d’indicateurs servant au reporting externe ou à la communication. Du
fait de cet ensemble de contraintes, l’usage prioritaire fait par les
décideurs politiques du secteur public de l’outil contrôle de gestion
semble quelque peu différent de son cadre traditionnel. À cet égard,
une typologie simplifiée des usages potentiels des outils de contrôle de
gestion dans le secteur public (auquel nous joignons l’évaluation des
politiques publiques) est proposée ci-dessous. On reconnaît la
distinction bien connue faite par Simons (1995) entre contrôle
diagnostic et contrôle interactif.

Figure 2. Les usages potentiels des outils de contrôle


de gestion dans le secteur public

(Source : l’auteur)

À ce niveau, on constate très souvent une focalisation des décideurs


politiques du secteur public sur l’utilisation des outils de contrôle de
gestion comme instrument d’influence avec un objectif de
communication essentiellement, l’aspect contrôle interne étant du
ressort des cadres administratifs de la ligne hiérarchique. En outre, la
décentralisation de la fonction contrôle de gestion (particulièrement
avancée dans les hôpitaux ou chaque directeur de pole est assisté d’un
contrôleur de gestion) est un autre facteur contribuant à la politisation
des outils de contrôle de gestion. Le contrôleur de gestion mis à la
disposition d’une direction opérationnelle selon un schéma classique
d’identification va avoir tendance à défendre en priorité les intérêts de
celle-ci et de son directeur qu’il est censé épauler. Il en est de même
dans le cas où les outils de contrôle de gestion sont mobilisés par les
directions opérationnelles au service de leurs intérêts propres et en
particulier le dialogue avec la direction centrale. Ce qui est le cas
notamment dans le cas des UFR, celles-ci ayant souvent des rapports
conflictuels avec les universités (Fabre, 2013 ; Bollecker, 2013).
Dans chacune de ses deux configurations, des divergences entre les
objectifs et la nécessité de défendre des intérêts spécifiques peuvent
faire basculer le rôle imparti au contrôle de gestion, Celui-ci est alors
utilisé au service de la direction de l’organisation ou d’une de ses
composantes comme support à un argumentaire chiffré vis-à-vis des
autres parties prenantes.
Mais cette arborescence recoupe également un autre modèle : celui
de Burchell et al. (1980) portant sur les différents modes d’utilisation
des outils comptables et de contrôle de gestion.
L’analyse de la littérature montre effectivement la possibilité
d’utiliser les outils comptables et de contrôle, en dehors du modèle
cybernétique, à des fins très diverses liées elles-mêmes à des contextes
différenciés (y compris politiques). À ce niveau, le cadre d’analyse issu
des travaux de Burchell et al. (1980), (tableau 2) s’avère
particulièrement éclairant.

Tableau 2. Modèle organisationnel et rôle imparti aux


outils de gestion comptable*
Incertitude ou désaccord sur les objectifs

faible élevée

Modèle « rationnel » (A) Modèle « politique » (C)


Mode de décision : le Mode de décision : la
faible calcul à l’aide d’un négociation à l’aide d’un
système comptable de système comptable de
type « machine à trancher » type « machine à convaincre »
utilisé de façon utilisé pour promouvoir
mécanique pour des intérêts spécifiques,
prendre des décisions et l’information étant
mesurer la performance. sélectionnée en fonction
de la cause défendue
Incertitude pour convaincre les
ou désaccord autres parties prenantes.
sur la Modèle « garbage can » (D)
modélisation Modèle « expert » (B)
Mode de décision : le Mode de décision :
des relations l’inspiration mise en
de causes à
élevé jugement mis en œuvre
de préférence par une œuvre de préférence par
effets une structure
structure de
collégialité (ex : une anomique (ex : une
bureaucratie « anarchie organisée »)
à l’aide d’un système comptable de
professionnelle) type « machine à légitimer »
à l’aide d’un système comptable
de type « machine à
utilisé pour justifier les
comprendre »utilisé pour actions déjà décidées sur
faire des analyses de la base de chiffres du
sensibilité et mieux passé sélectionnés en
appréhender le fonction des intérêts à
fonctionnement de sauvegarder.
l’organisation.

(Source : (Burchell et al., 1980))

* (dans une optique anglo-saxonne large regroupant comptabilité financière, contrôle de


gestion et audit)

D’après ces auteurs, mode de prise de décision, type de structure


chargée de l’application et mode d’utilisation des outils comptables
sont liés et vont varier ensemble en fonction de deux paramètres : (1)
les incertitudes ou les désaccords quant aux représentations que se
font les acteurs des relations de cause à effet (le mode de production),
ces représentations pouvant d’ailleurs être erronées ; les incertitudes
ou les désaccords quant aux objectifs que doit poursuivre
l’organisation, (2) les intérêts ou les visions des parties prenantes
pouvant être très divergents. Comme on va le voir, ce modèle bien
adapté aux caractéristiques des organisations publiques est également
largement applicable aux organisations du secteur privé.

3. 2 Une utilisation politique des outils de


contrôle de gestion transposable au secteur
privé
Là encore, les spécificités des organisations publiques ne sont
qu’apparentes. Au moins les problématiques qui les touchent se
trouvent partiellement transposées au secteur privé.
En premier lieu, la priorisation de l’actionnaire évoquée par Maurel
(2012) n’est réellement valable qu’au niveau de la direction générale.
En effet, à des niveaux inférieurs les dirigeants subalternes (par
exemple les directeurs d’usine) ont leur logique et leurs intérêts
propres. Or, du fait de la décentralisation de la fonction et selon un
phénomène d’identification bien connu, on peut penser que la loyauté
des contrôleurs de gestion va plus à leur unité de rattachement et à ses
dirigeants qu’au siège. On est bien alors dans des conditions ou le
contrôle de gestion peut être utilisé comme machine à argumentaire
ou à justification. Ceci sera d’autant plus aisé lorsque la performance
ne peut être appréciée totalement sous forme financière car d’autres
paramètres entrent en jeu (ce qui est le cas pour les centres de coût
discrétionnaires ou préétablis ou d’autres paramètres comme la
qualité ou le respect des délais entrent également en jeu). C’est ainsi
que dans une usine d’un grand groupe pharmaceutique européen, une
des missions essentielles des contrôleurs de gestion du site était de
fournir à la direction de l’unité opérationnelle les éléments chiffrés
permettant de motiver le maintien des productions existantes ou le
rapatriement des productions d’autres sites (dans un contexte global
de réduction du nombre de sites). Le contrôle de gestion est bien alors
instrumentalisé par l’équipe de direction de l’usine, son objectif
principal étant de servir de « machine à argument » vis-à-vis de la
société mère.
En deuxième lieu, dans les entreprises privées également, on peut
constater une montée en puissance du volet « communication
externe » du contrôle de gestion. Il s’agit d’abord de respecter les
contraintes légales. En effet, les exigences se sont accrues dans le
domaine financier et économique, en particulier par l’intermédiaire
des normes IFRS 8 « secteurs opérationnels » mais également dans le
domaine social, sociétal et environnemental avec la loi NRE portant
sur la RSE.
Il s’agit ensuite et surtout de tenir compte du poids et de l’influence
grandissants des parties prenantes. C’est le cas pour les actionnaires
avec l’émergence d’indicateurs « dédiés » tel l’EVA. Mais c’est
également le cas pour ce qui est des médias, de l’opinion publique et
des consommateurs avec l’irruption des pratiques de « green
washing » et tout ce qui ressort de la communication
environnementale. Or les clients, éléments essentiels de la
performance financière, disposent d’une information de plus en plus
exhaustive, via internet et les réseaux sociaux, sur les entreprises et
leurs concurrents.
Ainsi on peut considérer qu’il y a un certain rééquilibrage dans la
hiérarchisation des parties prenantes et simultanément, la nécessité
pour les entreprises sous la triple pression des médias, de l’opinion
publique et des pouvoirs publics de mieux prendre en compte l’intérêt
général (ou au moins d’en donner l’illusion), le concept « d’entreprise
citoyenne » étant d’ailleurs considéré par Vailhen (2002) comme un
des rares exemples de transposition au secteur privé d’un concept de
gestion publique.

Conclusion
Au terme de ce retour d’expérience, au-delà des préconisations sur
l’utilisation des outils de gestion, se pose également le problème du
positionnement du contrôle de gestion par rapport aux autres services
et composantes de l’organisation quelle que soit sa nature.
Ainsi comme nous l’avons vu, la mise en place d’outils de contrôle
de gestion passe obligatoirement par un diagnostic préalable de
l’organisation et de son environnement couplé à une réflexion sur les
limites et conditions d’emploi des outils mis en place de façon à
assurer leur pertinence. En effet, à défaut outre les problèmes liés à
une information non adaptée, le danger est que les services
opérationnels développent leur propre instrumentation de gestion
indépendante du contrôle de gestion avec les problèmes de cohérence
interne inhérents à ce genre de situation.
Nous avons vu également que les tableaux de bord, dans le secteur
public mais aussi dans le secteur privé, gagnent à être complétés par
des indicateurs d’intrants et d’impacts (au moins annuellement). Cette
démarche déjà sous-jacente au Balanced Score Card peut très bien être
également envisagée dans le cadre de tableaux de bord stratégiques à
périodicité annuelle. Mais, les informations nécessaires, en particulier
celles liées à l’impact nécessitent la mise en place de capteurs à
l’extérieur de l’organisation, les services opérationnels (notamment les
nouveaux services clients) étant les plus à même de collecter cette
information. Dès lors se pose le problème de la répartition des tâches
avec le contrôle de gestion traditionnellement plus tourné vers
l’interne.
Enfin nous avons vu que la dimension politique du contrôle de
gestion ne peut être ignorée par le contrôleur de gestion. Celui-ci de
facto doit se positionner dans l’organisation au risque sinon d’être
marginalisé. Il s’agit également pour ce dernier d’intégrer sa
nécessaire participation à la communication externe de l’organisation,
en particulier au niveau sociétal et environnemental (en particulier
pour ce qui concerne la fourniture d’informations fiabilisées). À ce
niveau, comme dans les organisations publiques, le danger majeur
reste une focalisation excessive des dirigeants sur la communication
externe aux dépens de la déclinaison interne des opérations
stratégiques et de l’amélioration des processus internes.

Références bibliographiques
Ardoin J.-L., Michel D. & Schmidt J. (1991). Le Contrôle de gestion.
Paris, Publi-union.
Bascouret J.-M. & Petitjean J.-L. (2012). Le contrôle de gestion
environnementale : opportunité ou frein à la mise en place d’un
véritable éco-contrôle ?. In Contrôle de Gestion, Comptabilité,
Stratégie. Paris, Economica, chap. 9, pp. 145-156.
Baranger P. (1995). Éléments d’une méthodologie pour l’analyse et le
calcul des coûts dans les organisations. Cahiers de recherche du
LARGOR, n° 67, IGR Rennes.
Bargain A. (2012). Retour sur un échec : le cas de la comptabilité
analytique à la commune de La Roche-sur-Yon (1988-1992). 33e
Congrès de l’ASF, Grenoble.
Berland N. (2002). Le Contrôle budgétaire. Paris, La Découverte,
collection « Repères ».
Bollecker M. (2013). Pourquoi le contrôle de gestion à l’Université est-
il un échec ?. Politiques et Management public, vol. 30, n° 2, pp.
221-239.
Burchell S., Clubb C., Hopwood A., Hughes J. & Nahapiet J. (1980).
The roles of accounting in organizations and society. Accounting,
Organizations and Society, vol. 5, n° 1, pp. 5-27.
Chatelain-Ponroy S. (2008). Le contrôle de gestion dans des
bureaucraties professionnelles non lucratives : une proposition de
modélisation. Habilitation à diriger des recherches, Université Paris-
Dauphine.
Cooper R. (1990). Le contrôle de gestion ne répond plus. Harvard –
l’Expansion (été 1990), pp. 52-58.
Ducrocq C. & Gervais M. (2012). Les calculs de coûts complets par
diplôme à l’université : quelle signification ?. 33e Congrès de l’AFC,
Grenoble.
Fabre P. & Bessire D. (2006). Enseigner la conception de systèmes
comptabilité de gestion. Comptabilité Contrôle Audit (octobre), pp.
67-85.
Fabre P. (2013). Le « doyen contrôleur des coûts » : outils de gestion
et allocation des ressources dans la gouvernance des universités.
Comptabilité Contrôle Audit, Tome 19, vol. 3, pp. 59-85.
Hofstede G. (1981). Management control of public and not-for-profit
activities. Accounting, Organizations and Society, vol. 6, n° 3, pp.
193-211.
Kaplan R. & Norton D. (1986). Le Tableau de bord prospectif. Paris,
Éditions d’Organisation.
Malleret V. (2004). La mesure des performances dans les activités de
service. L’art du management édition 2004 - e-learning HEC - Les
Échos, disponible sur www.lesechos.fr.
Maurel C. (2012). Le contrôle de gestion dans le secteur public. In
Contrôle de Gestion, Comptabilité, Stratégie. Paris, Economica,
chap. 14, pp. 227-236.
Portal M., Dreveton B. & Lande E. (2012). Construire un outil de
comptabilité de gestion au sein d’une université - Retour sur un acte
manqué. Management et Avenir, 54, 126-144.
Sandretto M.J. (1985). Comptabilité des coûts, quel est le meilleur
système ?. Harvard – l’Expansion (été 1985), pp. 82-94.
Simons R. (1995). Levers of Control. Boston, Harvard University
Press.
Vailhen C.-A. (2002). De l’adaptation de méthodes privées de gestion
aux services publics. In Organisations publiques, organisations
privées. Publications de l’Université de Rouen, pp. 343-353.
Chapitre 5

Le contrôle de gestion, f gure


impensée de la pensée
occidentale

ANNICK ANCELIN-BOURGUIGNON

Si tu es pressé, fais un détour.


Proverbe japonais

Durant les vingt dernières années, le contrôle de gestion s’est diffusé


dans des secteurs d’activité dans lesquels il était traditionnellement
absent ou, du moins, discret (la culture, la santé, l’éducation et la
recherche, le secteur public, etc.). Dans toutes les organisations, son
champ d’intervention s’est considérablement étendu – à travers par
exemple, la multiplication des indicateurs de performance non
financiers, la mise sous contrôle des processus et activités ou
l’institutionnalisation de pratiques comme les réunions de suivi de
performance. Même si l’on ne peut pas en établir les preuves
scientifiquement indiscutables, il ne fait guère de doute que cet
éclatant succès a activement contribué à l’explosion, durant la même
période, de ce que l’on nomme désormais pudiquement les « risques
psycho-sociaux » - à savoir le stress, l’épuisement professionnel et
autres formes de souffrance au travail (Ancelin-Bourguignon, 2014).
Inspirés par les modèles classiques de gestion du risque, les experts
suggèrent que les risques psycho-sociaux devraient faire l’objet d’une
prévention et d’un suivi régulier, sur la base d’indicateurs, qui
permettront ensuite de tracer des plans d’action (Nasse et Légeron,
2008 ; Gollac et Bodier, 2011). Il est extrêmement troublant que ces
experts, qui paradoxalement, ont été parmi les premiers à dénoncer le
culte de la performance (voir par exemple, Gollac et Volkoff, 1996)
recommandent que l’on remédie aux risques psychosociaux… en
ajoutant un supplément de ce qui les génère ! Que ces experts ne
soient pas des spécialistes de la gestion semble une explication trop
simpl(ist)e pour épuiser l’énormité du paradoxe. Et si, à notre corps
défendant, la logique du contrôle de gestion (à savoir, des prévisions,
des indicateurs, des plans d’action) était notre manière « naturelle »,
donc impensée, de concevoir notre rapport à l’action ?
Ce chapitre se propose de montrer que le contrôle de gestion est
l’incarnation d’un « pli de pensée » spécifique, celui du monde
occidental. La démonstration mobilise les travaux du philosophe et
sinologue François Jullien qui, pour interroger notre questionnement
philosophique et ses présupposés, mobilise en contre-point la pensée
chinoise. Jullien propose un « détour » spatial (la Chine) pour donner
à penser ce qui, spontanément, ne l’est pas en Occident. De manière
similaire, ce chapitre propose un détour philosophique pour repenser
le contrôle de gestion, et au-delà, en comprendre le succès mais aussi
les limites.
Une première partie offre une synthèse des travaux de François
Jullien. La pensée grecque (qui a inspiré toute la pensée occidentale)
et la pensée chinoise sont radicalement différentes tant dans leurs
manières de percevoir le monde, de penser l’action que de concevoir le
temps. La deuxième partie reprend ces différents éléments pour
montrer que le contrôle de gestion est l’incarnation presque parfaite
de la pensée grecque. La troisième partie présente les conséquences
induites par cet ancrage. D’une part, celui-ci explique l’irrésistible
attrait de la logique gestionnaire dans nos sociétés. D’autre part,
l’ancrage occidental du contrôle de gestion permet de douter de son
pouvoir d’influence (et plus largement de celui des instruments de
gestion) dans le monde sinisé et de comprendre pourquoi les modes de
gestion locaux sont si éloignés des nôtres. Enfin, cet ancrage peut
expliquer la résistance que le contrôle de gestion rencontre souvent
dans nos organisations : porteur des impensés de la pensée grecque, le
contrôle de gestion n’intègre pas les autres logiques/rationalités à
l’œuvre, celles qui ne sont pas nécessairement de l’ordre de la pensée.
La conclusion discute les limites de cette analyse et propose des pistes
pour les pratiques et la recherche en contrôle de gestion.

1. Pensée grecque et pensée chinoise


Cette première partie offre une synthèse des travaux de François
Jullien. Elle montre successivement comment pensée grecque et
pensée chinoise conçoivent de manière radicalement différente (1) la
perception du monde, (2) l’action, (3) le temps.
Avant d’examiner les travaux de François Jullien (1996, 2009,
201212), il importe de rendre compte des critiques qui leur ont été
adressées, à savoir la mise en exergue de la différence des pensées
grecque – source de la pensée occidentale – et chinoise. Ainsi, réfutant
la représentativité des sources de Jullien, Billeter (2006) explique que
l’altérité chinoise est une sorte d’idéologie fabriquée par le système
impérial pour perpétuer son pouvoir et entretenue par certains
Occidentaux (hier les Jésuites et les philosophes des Lumières,
aujourd’hui les sinologues) afin de légitimer leurs positions. Il reste
que les différences fondamentales entre pensées grecque et chinoise
que recense François Jullien trouvent un écho dans les travaux de
nombreux sinologues – voir par exemple Cheng (1997) dont l’étude de
l’histoire de la pensée chinoise sur plusieurs millénaires conduit à
repérer des « motifs » concordants. Les travaux de Jullien sont par
ailleurs mobilisés par de fins connaisseurs des relations d’affaires
sino-occidentales pour comprendre les différences interculturelles
(voir par exemple, Chieng, 2006).
Jullien lui-même récuse le terme de « différence » pour qualifier
son « chantier ouvert entre la Chine et l’Europe » (2009, p. 37). Il
préfère parler d’ « écart » – terme qui évite les catégorisations (donc le
choix de référents) et permet d’explorer jusqu’où chaque pensée a pu
repousser les « frontières du pensable », et au-delà, repérer les
« failles [du] préalable de la pensée » (ibid., italiques originales). Pour
des questions de lisibilité, ce texte évoque des ‘différences’, mais garde
le souci de repérer des « fécondités » par-delà la comparaison « à
plat » (ibid., p. 41) des deux pensées.
En proposant de structurer cette partie en trois sections (la
perception du monde, le rapport à l’action et la conception du temps),
j’ai parfaitement conscience de « trahir » la pensée chinoise, qui,
précisément, ne procède jamais en « découpant » un ensemble en
différents éléments. Le découpage est un trait de la pensée occidentale,
et ce n’est sans doute pas un hasard si la clarté d’une démonstration y
est associée à la capacité à structurer, donc isoler des éléments de
« preuve ». Ce texte n’échappe pas aux usages de notre aire culturelle.
Pour rendre justice à la perspective holistique de la pensée chinoise,
les paragraphes qui suivent mettront l’accent sur la cohérence entre les
trois « domaines » dans lesquels se déploient pensées grecque et
chinoise. Ces précautions n’épuisent pas le paradoxe qui consiste à
présenter à la manière grecque une pensée qui lui est radicalement
étrangère.

1.1 La perception du monde


La pensée grecque, et par extension toute la pensée occidentale,
s’intéresse aux états du monde, lui-même structuré en éléments liés
par des relations d’opposition – par exemple, la nature/la culture, le
sujet/l’objet, soi/les autres, l’âme/le corps. Au contraire, la pensée
chinoise développe du monde une vision holistique du monde et n’en
sépare pas les éléments. Les termes que l’Occident oppose sont perçus
comme complémentaires, à l’image des bien-connus Yin et Yang13.
Médecines chinoise et occidentale incarnent bien deux visions de l’être
humain : vision holistique en Chine, où le symptôme est rapporté à
l’équilibre énergétique global, vision « spécialisée » en Occident où la
formation des thérapeutes est éclatée en de multiples spécialités et le
symptôme le plus souvent traité isolément.
Une déclinaison particulière de cette « non-séparation » concerne le
statut de l’être humain. Il n’est pas séparé de son environnement,
« opposé » à la nature qu’il tente de contrôler – quête qui a nourri le
progrès scientifique en Occident durant des siècles. Le soi n’est pas
non plus séparé des autres : dans la société chinoise, le groupe social
est l’unité de base de la société, alors que dans nos sociétés
occidentales, depuis la Renaissance, c’est l’individu qui occupe cette
place14.
Enfin, l’attention est portée en Chine aux dynamiques en cours, aux
flux, aux potentialités et à ce qui émerge – plutôt qu’aux états visibles
qui retiennent l’attention en Occident. La médecine traditionnelle
chinoise peut à nouveau servir d’illustration : le thérapeute traite le
déséquilibre énergétique, même si celui-ci n’a pas encore « produit »
de symptômes cliniques. Un autre exemple peut être trouvé dans le
calendrier chinois, qui fait débuter le printemps au Nouvel An chinois
(fin janvier, début février selon les années), à une période de l’année
où la dynamique de remontée de la sève (Yang) est déjà active, alors
que notre calendrier occidental attend d’en voir les effets (feuilles,
fleurs) pour décréter le printemps. La pensée grecque, explique Jullien
(2009), rend très difficile la perception des « transformations
silencieuses », c’est-à-dire des dynamiques dont les effets visibles sont
différés (ce qui est le cas de la grande majorité des dynamiques). Et la
langue, explique Jullien, rend compte de notre impossibilité à penser
ces transformations : par exemple, nous ne disposons pas de mots
pour désigner le passage du gris au blanc ou celui de l’eau à la neige
(Jullien, 2009).

1.2 L’action
La vision chinoise du monde et de l’homme non-séparé de son
environnement va de pair avec une conception de l’action non-
volontariste, où l’action idéale passe par le « non-agir », vision souple
de l’action qui ne correspond pas à la passivité, mais à
l’accompagnement des processus en cours. Ainsi, un bon jardinier ne
cherchera pas à tirer sur les tiges du blé pour en accélérer la pousse,
mais accompagnera et favorisera le développement naturel de la
plante en arrosant, sarclant, protégeant du vent, du soleil, etc.
(Mencius ou Meng Zi, 3ème siècle avant J.-C., cité par Jullien, 1996).
L’action la plus efficace (et reconnue socialement) consiste à exploiter
le « potentiel de la situation » (Jullien, 1996), pas à chercher à agir
directement sur le monde pour le plier à sa volonté. Inversement
l’Occident pense l’action comme l’acte, valorisé socialement, d’une
volonté de mettre en pratique une théorie, qui mobilise un modèle
dans lequel les moyens sont soigneusement articulés avec les fins. En
cohérence avec tout ce qui précède, les héros chinois, beaucoup plus
rares qu’en Occident, ne sont pas des surhommes comme les héros
grecs : ce sont des êtres humains comme les autres, « devenant
héroïques par accident » (Chieng, 2006, p. 125).
Dans la conception chinoise du monde et de l’action, la théorie n’est
pas séparable de la pratique, le contexte est premier et s’intéresser aux
relations de causalité n’a pas grand intérêt puisque dans un autre
contexte, les mêmes causes produiront des effets différents. Il n’y a
donc pas de modèle sous-jacent à l’action : « le stratège chinois ne
délibère pas sur les moyens » (Jullien, 1996, p. 56). Dans la pensée
grecque, le contexte est toujours secondaire par rapport au modèle et à
la théorie. La voie européenne est celle de la modélisation et passe par
le rapport moyens-fins : « une fin étant idéalement conçue, nous
cherchons ensuite les moyens à mettre en œuvre pour la faire entrer
dans les faits (avec tout ce que cette « entrée » peut supposer
d’intrusion – à la fois de relativement arbitraire et de forcé) » (Jullien,
1996, p. 49). Chieng (2006) remarque que pour expliquer les succès de
la Chine, l’Occident invoque le « pragmatisme » et le
« gradualisme » – deux termes qui font toujours référence au
« modèle ». Le pragmatisme implique l’idée d’une « dérogation »
rendue nécessaire par les circonstances et le gradualisme rend compte
d’une progression par étapes, mais l’idéal et l’objectif forment toujours
le cadre dans lequel on pense.
Dans chacune des deux pensées, il y a une cohérence interne entre
la manière de percevoir le monde et de concevoir l’action. C’est parce
que la pensée grecque sépare et oppose que le modèle est autonome
vis-à-vis de la pratique ; c’est parce que la pensée chinoise est
holistique que théorie et pratique sont indissociables. La conception
de l’action volontariste n’est possible que parce que le monde est perçu
comme extérieur à l’individu (qui peut donc contraindre le monde),
alors que l’accompagnement des processus en cours est cohérent avec
une vision de l’être humain qui fait partie du monde – et également
avec une vision première du monde en termes de dynamiques.

1.3 Le temps
Une conception du temps radicalement différente va de pair avec ces
deux univers de représentations. Dans la pensée chinoise, l’idéal de
l’accompagnement des processus en cours suppose, même si on
intervient souplement, de laisser le processus se dérouler jusqu’à son
terme. Le temps chinois est un « temps-occasion » (Chieng, 2006),
inspiré de la tradition agraire, et tout l’art consiste à intervenir au
moment propice, pour tirer profit sans le perturber du processus en
cours. Le temps fait donc intégralement partie du processus dont il
faut respecter l’avancement. Le temps est ouvert – on ne sait pas
d’avance quand le processus va se terminer, puisqu’il est soumis aux
aléas de l’environnement (climatique, politique, commercial, etc.). On
retrouve ici l’importance du contexte et l’absence de modèle (la
prévision).
Comparativement, le temps occidental est clos – c’est celui de la
finalité de l’action – et il est segmenté en passé, présent et futur. D’une
certaine manière, le temps, comme le monde, est segmenté en états,
séparés les uns des autres. Que la langue chinoise ne conjugue pas les
verbes15 et qu’elle mobilise le même mot pour désigner à la fois un
verbe, un nom ou un adjectif (Jullien, 2009, 2012) est pleinement
cohérent avec une pensée qui pense le temps comme un continuum
fluide et l’action de façon oblique et non-volontaire. Au contraire, nos
langues occidentales mobilisent de multiples temps et indiquent les
actions par des verbes, autour desquels toute la phrase s’organise. La
langue « inscrit », non seulement le rapport au temps, mais aussi le
rapport à l’action des deux pensées (Jullien, 2012).
Cette très brève synthèse des écarts entre pensées grecque et
chinoise montre bien comment le rapport à l’action (volontaire ou
non) s’inscrit dans une vision du monde (divisé ou holiste) et une
perspective temporelle (fermée ou ouverte) qui privilégie une
sensibilité à des « choses » différentes (états ou dynamiques). Du côté
grec (et par extension occidental), on pense états du monde, fins et
moyens, modèle et application, théorie et pratique, avec la volonté de
contraindre le monde aux volontés humaines. Du côté chinois, l’action,
discrète et fluide, accompagne les dynamiques à l’œuvre (« non pas
imposer l’effet, mais le laisser s’imposer », Jullien, 1996, p. 77) dans
un monde perçu dans sa globalité, en mouvement et rebelle à la
modélisation. On résistera ici à la tentation du tableau conclusif à deux
colonnes – expression s’il en est de la pensée grecque – pour résumer
les différences de pensée entre les traditions gréco-occidentale et
chinoise. On préférera rappeler la définition du non-agir dans la
tradition taoïste (Lao Tseu, 1984) – « ne rien faire, et que rien ne soit
pas fait » (Jullien, 1996, p. 110) – qui, en quelques mots, résume le
rapport à l’action et la non-dualité du monde dans la pensée chinoise.

2. Le contrôle de gestion ou
l’incarnation de la pensée grecque
Cette deuxième partie mobilise les éléments présentés précédemment
pour montrer que le contrôle de gestion, qui formalise les grands
principes de la gestion, est l’incarnation presque parfaite de la pensée
grecque. Qu’il s’agisse des modèles stratégiques, de la soigneuse
articulation des objectifs, stratégies, plans d’action et indicateurs de
performance, des cartes causales de performance, il est bien question
d’agir volontairement sur le monde, de mobiliser des modèles,
d’identifier des causalités – le tout dans un cadre temporel très balisé.
D’une part, lorsqu’on définit la stratégie comme les moyens
mobilisés pour atteindre les objectifs (les fins), on s’inscrit dans une
vision (grecque) du monde qui articule soigneusement fins et moyens,
sur la base de causalités. La stratégie est un modèle causal – dans les
deux sens du terme « modèle », c’est-à-dire à la fois un système
logique et un objet d’imitation ou de reproduction. La stratégie a pour
vocation à être mise en œuvre – le modèle à être appliqué, dans la plus
pure tradition de la pensée grecque. Et de la gestion « stratégique »
des ressources humaines au contrôle de gestion « stratégique », la
référence aux buts et moyens à atteindre, autrement dit, au modèle,
est omniprésente.
Le contrôle de gestion inscrit l’ensemble fins-moyens dans les
instruments de gestion qui accompagnent la mise en œuvre de la
stratégie. Les indicateurs et les objectifs qui leur sont associés ont
valeur de modèles pour l’action – modèles de comportements (réduire
les coûts, recruter de nouveaux clients, etc.) et modèles-cibles (niveaux
à atteindre). Le contrôle de gestion incarne la notion de modèle cher à
la pensée grecque.
Au-delà, le contrôle de gestion a deux ambitions : offrir les
instruments qui permettent de corriger l’action pour atteindre les
objectifs (inscrits dans les plans et les budgets) et influencer le
comportement humain dans le sens des stratégies. On retrouve là le
projet volontariste de la pensée grecque : agir sur le monde, sur les
autres, pour infléchir de manière volontaire le cours des choses. La
dimension « pro-active » du contrôle de gestion, réaffirmée il y a
environ vingt ans, met un accent renouvelé sur l’action, but ultime –
pour plus de détails, voir Bourguignon (2003).
Malgré le développement d’indicateurs de performance tentant de
mesurer ce qui, dans l’activité d’aujourd’hui, conditionnera la
performance de demain, malgré la mise sous contrôle des activités et
des processus, la gestion ne porte que peu, voire pas d’attention à ce
qui n’est pas visible. En effet, les instruments de gestion ne savent
capter que les états du monde, les résultats tangibles et mesurables de
processus « silencieux ». Un taux d’absentéisme, même sous la forme
relative de son évolution dans le temps, renseigne très imparfaitement
sur la dynamique complexe du climat social. Le calcul des
pourcentages de progression/régression par rapport aux périodes
précédentes reste une différence entre deux états et (quand elle existe)
la réflexion sur les dynamiques à l’œuvre sert avant tout à concevoir
des plans d’action destinés à assurer l’application du modèle. Si l’écart
est tel que l’objectif apparaît hors d’atteinte, on procède à une
redéfinition de l’objectif. Autrement dit, quels que soient les aléas, la
pensée revient inéluctablement au modèle.
Dans cette perspective, à la manière grecque, le contexte est
toujours perçu comme secondaire, souvent comme « empêcheur » de
faire tourner la théorie « en rond ». L’évolution des « bonnes
pratiques » de gestion illustre bien cette impossibilité occidentale à
échapper à la tentation modélisatrice. Le passage du « one best way »
aux variantes reconnues légitimes en fonction de multiples facteurs de
contingence montre bien à la fois comment le modèle est premier par
rapport au contexte et comment, in fine, ce dernier se retrouve intégré
dans la modélisation.
Dans nos organisations, l’inaction, assimilée à de la passivité et du
désengagement (voire à un défaut de responsabilité), est condamnée,
sinon sanctionnée. Que la quasi-totalité des publications continue à
nommer « acteurs » les membres des organisations, malgré le
développement, voire l’intégration explicite de cadres théoriques qui
insistent sur le fait qu’action et cognition sont indissociables, dit sans
équivoque notre rapport central et premier à l’action. La
condamnation de la « gestion au rétroviseur », qui a accompagné
l’émergence de la vision pro-active du contrôle de gestion, porte la
marque de l’infamie qui s’attache à l’inaction (voir par exemple Malo
et Mathé, 2000).

Au-delà du cadre du contrôle de gestion, la distinction entre leaders


et managers est un autre signe de notre ancrage grec. Si le « leader »
est étymologiquement celui qui conduit (donc qui est engagé dans
l’action), il est soigneusement différencié du manager, le plus souvent
par la « vision » qu’il développe et est capable de transmettre à ses
équipes. Cette différence qui héroïse le leader renvoie le manager à
l’ordinaire organisationnel (appliquer les procédures). La métaphore
du « pilotage », largement mobilisée en contrôle de gestion depuis
environ vingt ans, renvoie également à une représentation héroïque du
management engagé dans un environnement hostile (usuellement
qualifié de turbulent ou complexe), face à une concurrence bien sûr
accrue (Bourguignon, 2003). Il faut au pire survivre, au mieux réussir,
contre les autres et malgré les réglementations, et triompher de tous
les obstacles en dépit d’un personnel naturellement résistant au
changement. La gestion incarne la construction volontaire d’un destin
qui s’élabore dans l’opposition et la confrontation – au monde et aux
autres. On est à mille lieues de la « propension des choses » chère à la
pensée chinoise, de l’accompagnement discret et patient des processus
en cours dans l’attente du moment opportun.
Le principe grec de séparation et d’opposition trouve bien d’autres
applications dans nos organisations. Même si le contrôle de gestion
propose désormais de mettre sous contrôle les processus, en général
transversaux, la grande majorité des instruments de mesure et de
gestion de la performance juxtaposent, voire comparent, centres de
responsabilité, produits, marques, marchés, etc. Les pratiques de
mesure de performances relatives (classements d’entités comparables
par exemple) exacerbent la compétition interne, donc une vision du
« nous contre les autres ». En matière de ressources humaines,
certaines méthodes d’évaluation des personnes imposent de classer les
collaborateurs dans des groupes dont la distribution est fixée d’avance
(forced ranking). On est très loin de la vision holistique de la gestion
que cultivent les entreprises japonaises16 (Bourguignon, 1993). Ainsi le
toyotisme (ou modèle juste-à-temps) est un modèle de production qui
articule étroitement commandes clients, approvisionnements
fournisseurs et production et qui organise l’interdépendance des
unités de production ainsi que celle des facteurs clés de succès
(qualité, maintenance, délais). Cette capacité à penser ensemble des
champs pour lesquels l’Occident disposait jusqu’alors d’experts
disciplinaires (commerciaux, acheteurs, gestionnaires de stocks,
producteurs, etc.) témoigne de la vision orientale, holistique, du
monde.
Enfin, le temps de la gestion est un temps clos et divisé – à l’image
des calendriers de déploiement des différents instruments (temps
pluriannuel des plans ; temps annuel de l’exercice comptable, du
budget, des entretiens d’appréciation et des bonus ; temps mensuel de
la mesure et du contrôle des performances). Les instruments, en
premier lieu ceux du contrôle de gestion, inscrivent le temps – le futur
dans les plans, et le passé et le présent dans les tableaux de bord. Enfin
le temps nécessaire aux processus de deuils induits par les
changements organisationnels n’est en général pas pris en compte
(Dubouloy, 1996), dans un monde où la perception et le culte de
l’urgence sont omniprésents (Aubert, 2003). Le temps, comme
l’action, est sommé de s’aligner sur la volonté du dirigeant.

3. Conséquences
Cette troisième partie présente les conséquences induites par l’ancrage
du contrôle de gestion, et au-delà de la gestion, dans la pensée
grecque.
D’une part, cet ancrage explique l’irrésistible attrait de la logique
gestionnaire dans nos sociétés. Il permet de compléter des analyses
qui jusqu’à présent, ont plutôt mis l’accent sur les processus de
domination sociale (de Gaulejac, 2005) – analyses qui, si elles ont leur
pertinence, n’épuisent pas le sujet, et n’expliquent en particulier pas
pourquoi des experts qui dénoncent les risques psycho-sociaux
recommandent des remèdes qui risquent fort de conduire à leur
aggravation. De Gaulejac (2005) a proposé le terme d’ « idéologie
gestionnaire » pour mettre en lumière le processus selon lequel la
traduction des activités humaines en indicateurs de performance
participe d’une idéologie, c’est-à-dire d’un « système de pensée qui se
présente comme rationnel alors qu’il entretient une illusion et
dissimule un projet de domination » (de Gaulejac, 2005, p. 22).
L’idéologie gestionnaire, dit-il, est née dans les multinationales et se
diffuse depuis les années 1980 dans toutes les grandes organisations
privées et publiques, transformant la société en une « société
d’individus sous pression » (ibid., p. 174), contraints en outre de se
gérer eux-mêmes. L’explosion des risques psycho-sociaux dans les
entreprises ces dernières années montre que le propos n’a hélas rien
perdu de son actualité. Sans nier l’existence de rapports sociaux de
domination, l’analyse précédente suggère que le succès de cette
idéologie a sans doute des racines profondes, celles de toute la
tradition de pensée occidentale, qui rendent manifestement difficile
l’invention d’autres formes de coordination des activités sociales. Si la
logique gestionnaire envahit progressivement toutes les sphères du
monde social, c’est peut-être (aussi) parce que, au-delà du mimétisme
qui pousse à reproduire les méthodes de l’entreprise privée et à
soumettre les individus, cette logique est celle de notre mode de
pensée : se doter de modèles qui représentent le monde en en isolant
les éléments et en précisant leurs relations d’interdépendance
(causalités), tenter d’appliquer ces modèles au plus près de la
« théorie », valoriser l’action volontaire et ceux qui mettent en œuvre
leur pouvoir d’agir sur le monde, tout ceci dans un cadre temporel qui
distingue soigneusement le passé du présent et du futur – ce dernier
captant la plus grande part de l’attention, parce qu’il est le point
d’aboutissement de l’action, elle-même pensée en amont à l’aide des
modèles. En France, la tradition de positivisme et la fierté que suscite
fréquemment notre héritage cartésien sont peut-être des facteurs qui
renforcent la légitimité de la pensée grecque. Et la persistance de
l’échelle du noble et du vil (d’Iribarne, 1989), qui sépare depuis
longtemps la théorie de la pratique, suggère que la pensée grecque et
ses incarnations ont vraisemblablement de beaux jours devant elles.
D’autre part, l’ancrage occidental du contrôle de gestion permet de
douter de son pouvoir d’influence dans le monde sinisé, et plus
largement de celui des instruments de gestion, ainsi que d’expliquer ce
qui nous apparaît comme certaines bizarreries ou certains
« dysfonctionnements » des systèmes de mesure de la performance
dans les entreprises implantées en Extrême-Orient. Les instruments
de gestion, qui incarnent la pensée occidentale, offrent des visions du
monde et de l’action totalement étrangères à la pensée locale. Même si
les Orientaux ont le talent de l’adaptation et savent, lorsqu’ils
l’estiment nécessaire, accepter (voire adopter) d’autres usages que les
leurs, il reste que la modélisation de la performance et la recherche des
causalités ne sont pas la tasse de thé locale. Même si on dispose de
relativement peu de travaux sur les pratiques de contrôle de gestion
dans les pays sinisés, ceux-ci offrent des résultats concordants.
Par exemple, il y a vingt ans, le recensement des travaux disponibles
concernant le Japon montrait un désintérêt pour la prévision
comptable et financière, un lien souple entre choix opérationnels et
d’investissement et calculs économiques, et mettait en évidence des
modes d’allocation des coûts indirects ayant parfois peu de rapport
avec (en d’autres termes, modélisant mal) la consommation de
ressources (Bourguignon, 1993) – toutes caractéristiques qui
s’expliquent par l’absence d’intérêt pour la modélisation du présent ou
futur et un management « par les chiffres ». Ces résultats font écho à
une recherche récente sur les systèmes de coûts dans les entreprises
chinoises, qui montre l’utilisation massive des coûts directs (Ding et
al., 2007), à l’opposé de nos usages qui recommandent d’étudier
soigneusement les inducteurs de coût afin de modéliser au mieux la
consommation de ressources indirectes pour calculer des coûts
complets. Ces auteurs montrent également qu’il n’y a pas, dans ces
entreprises, d’intérêt pour mettre au jour des relations de causalité qui
pourraient fonder une allocation « fidèle » des coûts indirects.
Par ailleurs, en matière de contrôle de gestion, Laulusa (2011) a
montré que, dans une entreprise d’État en Chine, la planification
(réalisée à la demande du gouvernement local) n’était pas utilisée pour
coordonner des plans d’action, au motif que l’environnement ne
pouvait pas être maîtrisé – perception cohérente avec la conception
locale de l’action (non volontariste et non modélisée a priori) et du
monde (que l’on ne cherche pas à maitriser). Laulusa (2011) remarque
aussi que les indicateurs de performance ont une portée très limitée
dans la gestion des opérations (l’évaluation est d’abord subjective via
le jugement des pairs) ; que, si le résultat n’est pas atteint, il est
essentiel de préserver avant tout la « face » de l’employé et que pour la
même raison, il arrive que l’on reporte l’implantation d’un nouvel
instrument de gestion. Si Laulusa (2011) explique toutes ces étrangetés
par l’impact des valeurs confucéennes, on peut également les expliquer
par le rapport au monde (la priorité donnée à la cohésion du groupe
social est aussi une expression de la non-séparation de ses membres)
et la conception de l’action et du temps (l’action s’adapte souplement
au contexte, dans une perspective temporelle ouverte). Si le
volontarisme et la précipitation sont perçus comme heurtant la
bienveillance17 qui doit présider aux rapports sociaux (Ascensio et Rey,
2010), ils sont également aux antipodes de la manière légitime dont
l’action doit être conduite, ou plus exactement accompagnée.
Notre détour philosophique complète donc les analyses précédentes
sur la faible appropriation des systèmes de contrôle de gestion dans le
monde sinisé : au-delà des valeurs confucéennes, au-delà de la
prééminence du contrôle culturel sur le contrôle bureaucratique
(Bourguignon, 1993), le faible intérêt pour nos méthodes de gestion
occidentales s’explique par la manière radicalement différente de
penser le monde, l’action et le temps.
Enfin, l’ancrage du contrôle de gestion dans la pensée gréco-
occidentale peut expliquer la résistance que le contrôle de gestion
rencontre souvent dans nos organisations : porteur des impensés de la
pensée grecque, le contrôle de gestion n’intègre pas les autres
logiques/rationalités à l’œuvre, celles qui ne sont pas nécessairement
de l’ordre de la pensée. La pensée chinoise, moins « mécaniste » que la
pensée grecque, est sans doute mieux « équipée » pour, en particulier,
comprendre et intégrer la complexité du psychisme, avec ses
ambivalences, ses processus de réduction de la dissonance cognitive et
autres mécanismes de défense. Le psychisme, avec ses mouvements
parfois contradictoires, toujours non-linéaires, n’emprunte en effet
pas les voies directes et rationnelles de la pensée grecque. Ainsi, les
processus psychiques prennent du temps et résistent au volontarisme ;
le désir suit rarement la loi de l’utilité, au sens rationnel que l’on donne
habituellement à ce terme ; nos actions, nos mots, nos émotions
échappent souvent à notre volonté. Tout ceci explique pourquoi la
volonté « grecque » des dirigeants se heurte souvent au psychisme fort
peu grec des membres de l’organisation. La fréquente résistance des
êtres humains au changement, prétendument18 naturelle, est
l’expression du décalage entre la rationalité stratégique (« grecque »)
de l’organisation et de ses dirigeants, qui ne connaît que la cohérence
instrumentale, et la rationalité psychologique des individus, en quête
de cohérence psychologique, autrement plus complexe (Bourguignon
et Jenkins, 2004). On peut avancer un argument similaire concernant
le contrôle dont la justification rationnelle doit, en France, composer
au quotidien avec les mouvements contraires de l’illégitimité des
représentations culturelles (Bourguignon, 2009) et des besoins du
psychisme (Vidaillet, 2013). L’analyse qui précède jette une nouvelle
lumière sur le conflit des rationalités qui ont cours dans nos
organisations.
Conclusion
Cette conclusion discute les limites de l’analyse qui précède et propose
des pistes pour les pratiques et la recherche en contrôle de gestion.
J’ai déjà souligné le paradoxe qui consiste à mettre à distance notre
pli de pensée (et tenter d’en découvrir un autre) dans un exercice de
style qui en est l’incarnation. Les chercheurs sont, au même titre que
les praticiens, « pris » dans le pli de pensée qui nous ramène toujours
aux fins et à l’articulation soigneuse et cohérente des moyens. Dans ce
chapitre, l’objectif du propos a été exposé dès l’introduction, le plan
structuré de manière à souligner la rationalité des moyens et étapes de
la démonstration. Quel que soit l’effort qui a été fait pour prendre de la
distance, il reste que cet effort ferait sans doute sourire un Oriental qui
y verrait encore une entreprise très « grecque ».
Quelles qu’en soient ses limites, ce détour par l’Orient et la
différence des pensées grecque et chinoise ouvre de nouvelles
perspectives pour les pratiques et la recherche en gestion. Si d’autres
chercheurs ont pu conclure que la pensée orientale n’avait « rien à
nous apprendre » hors une conscience de l’abondance, puisqu’elle ne
proposait « ni modèle, ni recette, ni guide concret pour l’action, ni
outils » (Pesqueux et al., 2005, p. 96), je pense au contraire que pour
peu qu’on accepte d’ouvrir notre mode de pensée, la pensée orientale
indique des pistes fécondes. Bien sûr le chemin qu’elles tracent sera
fait de faux pas, la progression sera lente et ces nouvelles méthodes ne
manqueront pas de créer de l’incohérence dans le bel édifice de nos
méthodes « grecques ». Penser de nouvelles méthodes ne se fera sans
doute pas sans retour récurrent du refoulé de la pensée grecque.
Persister sur ce chemin fait intégralement partie de la difficulté, mais
c’est au prix de renoncements que l’on inventera de nouvelles
manières de gérer. Ce qui reste encourageant, c’est que les pistes
tracées par la pensée chinoise croisent celles de certains chercheurs
occidentaux : le pli de pensée est donc dépliable.
En matière de recherche en contrôle de gestion, cette analyse
suggère d’abord de poursuivre les recherches sur le contrôle de gestion
dans le monde sinisé, pour accroître notre connaissance à la fois des
manières de gérer locales (quelles méthodes ? quels « instruments » ?)
et des comportements, attitudes et perceptions que suscite
l’importation des systèmes occidentaux. Comment les personnels
locaux, aux différents échelons hiérarchiques, s’accommodent-ils de
systèmes dont les hypothèses implicites sont radicalement différentes
des manières de penser locales ? La manière dont les entreprises
japonaises ont institutionnalisé l’approche de l’Américain Deming sur
la qualité (connue sous le nom de « roue de Deming » ou cycle PDCA,
Plan Do Check Act) montre que concrètement, un instrument de
gestion totalement grec dans sa conception – la prévision sert de
référence à l’évaluation de l’activité et guide les actions correctives –
peut être approprié par une culture orientale. À quelles conditions ce
transfert a-t-il été possible ? Sommes-nous en présence d’une
hybridation ou de l’effacement d’une pensée devant l’autre ? Quels
sont les compromis élaborés ? La recherche pourrait également
s’intéresser à la variété des compromis. Diffèrent-ils selon les pays, à
la fois orientaux et occidentaux ? Qu’est-ce qui explique les différences
entre deux entreprises confrontées en apparence à la même différence
interculturelle ? Il y a là matière pour un programme de recherche
d’autant plus ambitieux que la maitrise des langues orientales, dont on
a vu l’importance dans la pensée, reste une barrière significative.
En matière de pratiques, cette analyse, qui éclaire les différences
entre pensées chinoise et grecque, devrait contribuer à éviter les
désillusions, voire les erreurs des entreprises occidentales exportant
en Extrême-Orient leurs modèles et systèmes de gestion. En montrant
qu’il existe un autre pli de pensée que celui de la rationalité et de la
stratégie, elle pourrait aussi faciliter notre compréhension des
comportements et attitudes qui, inéluctablement, échappent à la
logique impersonnelle de la pensée grecque.
Plus près de nous, l’explosion des risques psycho-sociaux suggère
que le mode de gestion inspiré de la pensée grecque a atteint ses
limites et qu’il serait utile de développer des formes alternatives de
gestion. Le culte de la performance, mis en œuvre par le contrôle de
gestion et la GRH grâce aux avancées technologiques des dernières
décennies, contribue activement à l’aggravation de ces risques
(Ancelin-Bourguignon, 2014). Les psychologues du travail ont suggéré
des pistes de pratiques alternatives. Ainsi Dejours (2003) a proposé
que l’évaluation des pairs, fondée sur un jugement de beauté et un
jugement d’utilité sociale, complète l’évaluation du travail par la
hiérarchie. Clot (2010) a suggéré de ménager des temps et espaces
consacrés au partage et au débat, par le collectif de travail, sur les
manières de travailler (le « genre professionnel »). Ces échanges, dit-
il, doivent rester la propriété du collectif de travail et échapper à la
tentation gestionnaire d’une formalisation (sous forme par exemple de
guide de bonnes pratiques) : c’est la condition de la survie du métier et
au-delà, du bien-être au travail.
Ces propositions sont intéressantes, mais, outre qu’elles paraissent
bien minces eu égard à l’ampleur du chantier de refondation, elles ne
questionnent pas directement notre manière « grecque » de concevoir
l’action collective, le monde et le temps. Je suis convaincue que pour
inventer d’autres manières de gérer, il est nécessaire de questionner en
permanence nos « impensés » – précisément parce que ce sont des
impensés. La pensée chinoise peut être une ressource précieuse. Très
concrètement, elle peut nous conduire à poser les questions suivantes :
1. Avons-nous vraiment besoin de tel ou tel objectif, de tel ou tel
indicateur ? Par quoi pourrions-nous les remplacer (par
exemple, par des rencontres avec les personnes qui connaissent
bien les processus dont l’indicateur n’est qu’un symptôme) ?
2. Prenons-nous le temps nécessaire ? Quel est le coût de la
précipitation ?
3. Sommes-nous assez attentifs aux dynamiques en cours et au
temps dont elles ont besoin ? Quelles ruptures le volontarisme
implique-t-il et que risque-t-il de mettre en danger ?
4. Avons-nous considéré (dans tous les sens du terme) toutes les
dimensions et toutes les parties et personnes impliquées ? En
quoi une pratique, un projet menacent-ils le sens du collectif ?
5. Qui sont les héros ordinaires du quotidien ? Que pouvons-nous
apprendre de leurs méthodes ?
6. Que pourrions-nous « ne pas faire » au sens chinois du terme –
autrement dit, comment agir de manière oblique pour faire en
sorte que la dynamique en cours serve, à son terme, nos
intérêts ?
On devine que les réponses dépendront très largement du
contexte – de l’environnement externe, de la culture de l’entreprise, de
son histoire et de sa situation présente. En soi, cet exercice est déjà
une manière de sortir de la pensée grecque – de ses modèles et de ses
recettes de gestion. On devine aussi que les réponses n’iront sans
doute pas dans le sens du renforcement du rôle et de la place du
contrôle de gestion dans les organisations. À l’heure où j’écris ces
lignes, il n’y a guère de signes tangibles qui indiquent une telle
évolution mais si l’on porte attention aux dynamiques en cours (en
particulier, la généralisation et l’aggravation du stress et autres
malaises au travail), si l’on croit que le changement vise à maintenir
un équilibre (Marshak, 1993), il est probable que le contrôle de
gestion, qui a pris une ampleur sans précédent dans les organisations
et la société, risque de voir son importance refluer dans les années à
venir.
C’est à cette « transformation silencieuse » que ce chapitre tente
d’apporter une modeste contribution. Son titre, qui contient à dessein
la répétition du mot « pensée », est aussi une invite à changer notre
rapport au monde, à faire une pause dans l’action – dans la mise en
œuvre de nouveaux instruments, de nouveaux indicateurs, etc. Penser
le monde dans lequel chacun puisse (re)trouver au travail une source
de bien-être, fût-ce au prix de la contraction des instruments de
(contrôle de) gestion, participe aujourd’hui de la responsabilité sociale
des dirigeants et des managers.

Références bibliographiques
Ancelin-Bourguignon A. (2014). Performance. In Zawieja P. &
Guarnieri F. (dir.), Dictionnaire des risques psycho-sociaux. Paris,
Seuil, pp. 546-549.
Ascensio C. & Rey D. (2010). Être efficace en Chine. Paris, Pearson.
Aubert N. (2003). Le Culte de l’urgence. La société malade du temps.
Paris, Flammarion.
Billeter J.-F. (2006). Contre François Jullien. Paris, Alia.
Bourguignon A. (1993). Le Modèle japonais de gestion. Paris, La
Découverte.
Bourguignon A. (2003). « Il faut bien que quelque chose change pour
que l’essentiel demeure » : La dimension idéologique du « nouveau »
contrôle de gestion. Comptabilité Contrôle Audit, numéro spécial
Innovations managériales (mai), pp. 27-53.
Bourguignon A. (2009). La culture de résultat : perspectives
interculturelles. In Pras B. (dir), Management : Tensions
d’aujourd’hui, enjeux de demain. Paris, Vuibert-FNEGE, pp. 153-
161.
Bourguignon A. & Jenkins A. (2004). Changer d’outils de contrôle de
gestion ? De la cohérence instrumentale à la cohérence
psychologique. Finance Contrôle Stratégie, vol. 7, n° 3, pp. 31-61.
Cheng A. (1997). Histoire de la pensée chinoise. Paris, Seuil.
Chieng A. (2006). La Pratique de la Chine. Paris, Grasset.
Clot Y. (2010). Le Travail à cœur : pour en finir avec les risques
psychosociaux. Paris, La Découverte.
d’Iribarne, P. (1989). La Logique de l’honneur. Paris, Seuil.
de Gaulejac V. (2005). La Société malade de la gestion. Paris, Seuil.
Dejours C. (2003). L’Évaluation du travail à l’épreuve du réel. Paris,
Presses de l’Institut National de la Recherche Agronomique.
Ding Y., Malleret V. & Nørreklit, H. (2007). Les systèmes de calcul de
coûts dans les entreprises chinoises : une étude exploratoire.
Communication présentée au Congrès annuel de l’AFC, Poitiers.
Dubouloy M. (1996). Les processus et rituels de deuil dans les
organisations. In Performance et ressources humaines, Actes du 7e
Congrès de l’Association Francophone de Gestion des Ressources
Humaines. CIFFOP, Université Panthéon-Assas Paris II, pp. 158-171.
Gollac M. & Bodier M. (dir.) (2011). Mesurer les facteurs
psychosociaux de risque au travail pour les maîtriser. Rapport du
Collège d’expertise des risques psychosociaux au travail, faisant
suite à la demande du Ministre du travail, de l’Emploi et de la
Santé. Disponible au lien
http://www.ladocumentationfrancaise.fr/var/storage/rapports-
publics/114000201/0000.pdf.
Gollac M. & Volkoff S. (1996). Citius, altius, fortius. L’intensification
du travail, Actes de la Recherche en Sciences Sociales, n° 114, pp. 54-
67.
Hofstede G. (2001). Culture’s Consequences, 2e édition. Thousand
Oaks, CA, Sage.
Jullien F. (1996). Traité de l’efficacité. Paris, Grasset & Fasquelle.
Jullien F. (2009). Les Transformations silencieuses. Paris, Grasset.
Jullien F. (2012). Entrer dans une pensée. Paris, Gallimard.
Lao Tseu (1984). Tao Te King. Paris, Albin Michel.
Laulusa L. (2011). L’impact des valeurs confucéennes sur le processus
de contrôle de gestion dans une entreprise d’État chinoise.
Comptabilité Contrôle Audit, vol. 17, n° 3, pp. 7-30.
Malo J. L. & Mathé J. C. (2000). L’Essentiel du contrôle de gestion.
Paris, Éditions d’Organisation.
Marshak R. J. (1993). Lewin meets Confucius: A re-view of the OD
model of change. Journal of Applied Behavioral Science, vol. 29, n
° 4, pp. 393-415.
Nasse P. & Légeron P. (dir.) (2008). Rapport sur la détermination, la
mesure et le suivi des risques psychosociaux au travail, remis à
Xavier Bertrand, Ministre du Travail, des Relations Sociales et de
la Solidarité.
Pesqueux Y., Pham Huy D. & De Geuser, F. (2005). Western ideology
and management: An oriental detour. In Ajami R., Arrington C. E.,
Mitchell F. & Nørreklit H. (dir), Globalization, management control
and ideology: Local and multinational perspectives. Copenhagen,
DJØF Publishing, pp. 81-98.
Vidaillet B. (2013). Évaluez-moi ! Évaluation au travail : les ressorts
d’une fascination. Paris, Seuil.
Chapitre 6

Le contrôle de gestion, une


interface de cohérence
organisationnelle

HUGUES BOISVERT
MARIE-ANDRÉE CARON

Le contrôle de gestion occupe à l’égard de la performance


organisationnelle une ambitieuse position de surplomb, englobant à la
fois la performance financière et la performance technico-économique
(Bouquin, 2010), attachée aux représentations mentales impliquées
dans le pilotage de l’entreprise (Lorino, 1995). De cette position
largement englobante, la cohérence devient vite une préoccupation
centrale, entre les actions des managers, entre l’immédiat et les
tendances (Bouquin, 2010), entre les activités portées par des savoirs
professionnels différents (Lorino, 1995), impliquant des arbitrages
(Berland et Persiaux, 2008). Ce point de vue offre une perspective de
la cohérence organisationnelle qui va bien au-delà de la cohérence
entre la stratégie et les opérations (Anthony, 1988 ; Shank et
Govindarajan, 1995), invitant à considérer les acteurs (Bourguignon et
Jenkins, 2004 ; Fiol, 2006 ; Merchant et Van der Stede, 2007 ;
Gervais, 2005 ; Bouquin, 2010). Il est reproché au contrôle de gestion
de favoriser une cohérence uniquement descendante, donc forcée, au
détriment des acteurs et de leurs enjeux (Fiol, 2006).
Partant de là, Boisvert et Déry (2013) offrent de revoir la notion de
cohérence organisationnelle, en situant le contrôle de gestion à
l’interface de la comptabilité et du management, offrant une
bonification croisée de ces deux champs. Partant de là, la cohérence
organisationnelle devient, avec la performance financière19, l’un des
deux objectifs du contrôle de gestion. Si l’objectif de performance
financière20 peut être pris en charge par la comptabilité, celui de
cohérence organisationnelle prend sa source dans le champ du
management. Ce concept s’est développé dans ce champ en même
temps que l’étude de la complexité organisationnelle.
La perspective de Boisvert et Déry (2013) permet de voir de quelle
façon la cohérence organisationnelle ne peut faire abstraction de la
logique financière, mais surtout de quelle façon la logique financière se
doit de respecter les jeux de forces contradictoires en organisation. Il
s’agit ainsi de favoriser la formation d’un contrôle de gestion qui évite
d’instrumentaliser les acteurs.
Pour ce faire, ces auteurs proposent d’exacerber la notion
d’interface, entre les logiques financière et administrative, et de
montrer, de manière très analytique (voire chirurgicale), que la
pertinence du contrôle de gestion repose sur sa capacité à arbitrer la
cohérence entre le système social et le système technique de
l’organisation. L’organisation est conçue comme un ensemble de
chantiers, ou de cadres d’action, où se rencontrent les cadres externes
(sectoriel et sociétal) et internes (technique et social) (voir la figure 1).
Le système technique est configuré à partir des cadres de gouvernance,
stratégique et opérationnel, et le système social, avec les cadres
politique, symbolique et cognitif. Concevoir ou améliorer un système
de contrôle de gestion implique donc de croiser ces chantiers, de
manière très micro, mais toujours en ayant en tête les aspects macro
de la performance organisationnelle : la légitimité, la compétitivité et
la productivité.
La perspective nord-américaine du contrôle de gestion, proposée
dans ce chapitre, provient d’échanges entre chercheurs québécois et
français. Elle se distingue du management control à l’américaine. Elle
est enseignée principalement dans les universités francophones de
Montréal, dans les programmes de 1er et de 2e cycle21. La récente fusion
des ordres comptables professionnels canadiens a permis de fusionner
certains programmes de formation professionnelle, et d’accroître la
diffusion de cette perspective du contrôle de gestion, notamment au
sein des CPA du Québec22.
Ce chapitre examine les enjeux concrets de cohérence, entre les
systèmes technique et social de l’organisation, liés à la mise en œuvre
des mécanismes concrets de contrôle de gestion enseignés à ce jour23.
La section suivante présente une définition du contrôle de gestion et
de la cohérence organisationnelle. Les enjeux de cohérence
organisationnelle seront ensuite examinés pour chacun des
mécanismes de contrôle de gestion, en fonction de leur rattachement à
la légitimité (mécanisme de contrôle de gouvernance), à la
compétitivité (mécanismes de contrôle stratégique) ou à la
productivité (mécanismes de contrôle opérationnel). Nous complétons
dans ce chapitre l’approche présentée par Boisvert et Déry (2013), en
nous attardant à la manière dont peut s’établir une cohérence entre les
‘leviers’ du système technique et les ‘obstacles’ du système social. À
l’instar de l’approche de ces auteurs, nous accordons une place
centrale à l’acteur : ce qui nous permettra de voir de quelle façon il
corrige les écueils (fractures, fissures) à la cohérence introduite
(causées) paradoxalement par le contrôle de gestion, dans sa volonté
d’assurer la cohérence.

Figure 1. Cadre du contrôle de gestion tiré de Boisvert


et Déry (2013)
1. Définition du contrôle de gestion
Le contrôle de gestion a été défini de plusieurs manières au cours des
dernières années, souvent pour indiquer un changement d’orientation
(ou pour corriger le tir quant à son orientation). Boisvert et Déry
(2013) le définissent de la façon suivante : « Le contrôle de gestion
doit maintenant aller au-devant de l’action en favorisant la prise de
décision qui en est le cœur. Informer la décision plutôt que de se
limiter à prendre objectivement la mesure des résultats, voilà la
nouvelle mission du contrôle de gestion »24.
L’originalité de cette définition est d’introduire un travail réflexif
appliqué au contrôle de gestion lui-même. Alors que le contrôle de
gestion a largement été traité comme un système dédié à
l’amélioration de la performance de l’organisation, une proposition est
faite ici pour améliorer le contrôle de gestion lui-même. Leur
perspective est donc duale, montrant de quelle façon la qualité du
soutien à l’organisation apporté par le contrôle de gestion, l’amène à
être lui-même plus performant. Ainsi, lorsqu’il contribue à la
performance de l’organisation en termes de légitimité, il accroît la
sienne propre.
En revanche, les auteurs montrent bien le défi que cette orientation
pose à la pratique du contrôleur lui-même : se rapprochant
suffisamment des acteurs pour bien saisir l’information dont ils ont
besoin, il s’expose à être utilisé (voire instrumentalisé) au cœur des
enjeux politiques. Le débat entourant le contrôleur de gestion comme
partenaire d’affaires ou comme bean counter y prend d’ailleurs
ancrage (Caron, Boisvert et Mersereau, 2011). Derrière ce
questionnement, c’est toute la pertinence de la pratique du contrôleur
de gestion qui est mise en cause. Faire une lecture juste de la
cohérence organisationnelle lui demande souvent de se rapprocher des
acteurs organisationnels, au point de paradoxalement perdre la
distance dont il a tant besoin pour bien la saisir. En effet, il court ainsi
le risque d’être ‘utilisé’ par des enjeux organisationnels (politiques,
symboliques, cognitifs) spécifiques, au détriment de la cohérence de
l’organisation dans son ensemble. Le contrôle de gestion peut en ce
sens constituer une ressource pour le système politique de
l’organisation (Boisvert et Déry, 2013). Il s’agit d’un dilemme qui
s’inscrit dans la nature même de sa pratique et à l’égard de laquelle il
doit exercer une vigilance perpétuelle. En revanche, il en est une aussi
pour le système cognitif, permettant à des acteurs d’agir en ayant
l’assurance que, par lui, ils connaîtront les conséquences de leur action
(Cheffi et Nekhili, 2011).
Si informer la décision implique de se rapprocher des acteurs,
préserver son objectivité exige qu’il dispose d’une solide grille
d’analyse de l’organisation. Cette grille constitue l’essentiel de la
proposition de Boisvert et Déry (2013) (voir la figure 1). Il s’agit pour
le contrôleur de procéder à une lecture systématique, rigoureuse et
exhaustive de l’organisation, pour voir de quelle façon il peut
contribuer à son développement, en reconnaissant les éléments
constituant à la fois des limites et des atouts, au sein de ses cadres
d’action externe et interne. De ces cadres émergent des objectifs de
légitimité (cadre externe/société), de compétitivité (cadre
externe/secteur) et de productivité (cadre interne), comme ancrages
aux contrôles de gouvernance, stratégique et opérationnel. Le contrôle
de gestion constitue dans ce sens la lunette de l’organisation,
informant la décision d’une manière qui permet aux gestionnaires de
réfléchir et d’agir sur ses pratiques, à travers les leviers de ces cadres
d’action externe et interne (Boisvert et Déry, 2013), balises qu’il s’est
lui-même données. Par exemple, les politiques financières constituent
des balises qui fixent les limites de la prise de décision des
gestionnaires.
Le contrôle de gestion, nous l’avons dit plus haut, poursuit à la fois
un objectif de rentabilité à long terme et de cohérence
organisationnelle. Le contrôle de gestion serait le gardien de la
cohérence organisationnelle, essentielle à sa légitimité, sa
compétitivité et sa productivité, par sa maitrise du jeu des tensions
contradictoires qui émanent des enjeux de collaboration, d’intégration
et de compréhension. Or, nous verrons que les mécanismes de
contrôle de gestion (de gouvernance, stratégique et opérationnel) sont
eux-mêmes le théâtre d’enjeux de cohérence, au moment de leur
activation par les acteurs. Ainsi, le contrôle de gestion crée en quelque
sorte les enjeux de cohérence dont il a la charge.

2. Définition de la cohérence
2. Définition de la cohérence
organisationnelle
La cohérence organisationnelle fait l’objet d’une quête perpétuelle
pour l’organisation, au même titre que la rentabilité financière. La
première est portée par la logique administrative et la seconde, par la
logique financière (ou comptable). Le contrôle de gestion se trouve à
l’interface entre ces deux logiques. Pour la logique administrative, le
principal enjeu de cohérence se situe à la jonction du système social et
du système technique. La littérature en contrôle de gestion a eu
tendance jusqu’à maintenant à opposer deux perspectives d’analyse de
la cohérence : un purement technique (Bertrand et Mévellec, 2005) et
un autre purement social (Bourguignon et Jenkins, 2004 ; Fiol, 2006).
Boisvert et Déry (2013) croisent le cadre technique et le cadre social
pour en retirer une grille d’analyse, permettant au contrôle de gestion
de se situer (analyser les aspects habilitants ou contraignants de sa
position) par rapport à la quête de cohérence organisationnelle. Cette
grille prend la forme de quatre matrices trois par trois, se rapportant à
deux matrices de cohérence des intentions et à deux matrices de
cohérence générale.
La première matrice de cohérence des intentions, présentée par ces
auteurs, évalue la contribution des cadres sociaux (politique,
symbolique et cognitif) à la réalisation des objectifs de performance
(légitimité, compétitivité et productivité). La deuxième matrice de
cohérence des intentions inverse l’analyse, pour évaluer de quelle
manière les cadres techniques (de gouvernance, stratégique et
opérationnel) favorisent chacun des cadres sociaux. La troisième
matrice (de cohérence générale) explore la relation entre les objectifs
du système technique (légitimité, compétitivité et productivité) et les
défis sociaux (collaboration, intégration et apprentissage). Et enfin, la
quatrième matrice de cohérence générale s’intéresse à la cohérence
entre les balises techniques (mode de propriété, orientation
stratégique, structure opérationnelle) et les balises sociales (direction,
identité, apprentissage).
Partant de cette grille d’analyse, ce chapitre vise à apporter encore
plus de visibilité à l’acteur et à la manière dont il réinterprète la
cohérence ‘instrumentalisée’ ou imposée par le contrôle de gestion.
Pour ce faire, il est nécessaire d’approfondir les matrices de la
cohérence de Boisvert et Déry (2013), pour considérer la cohérence
entre les ‘leviers’ du système technique (incitatifs, cibles et standards)
et les ‘obstacles’ du système social (compétition, individualisme et
rigidité cognitive) qu’ils sont censés résoudre, à travers les
mécanismes de contrôle de gestion (de gouvernance, stratégique et
opérationnel).
Les leviers techniques du contrôle de gestion sont par exemple les
incitatifs, les cibles et les standards. Ils proviennent indubitablement
d’une simplification de la complexité organisationnelle ; ils en
constituent des ‘abrégés du vrai’ (Justin, 2004) et constituent en ce
sens l’expression du système cognitif de la direction. Un problème de
cohérence survient lorsque l’interprétation qu’en font les employés
pour qui ces abrégés constituent des ‘abrégés du bien/du bon’ (Justin
2004), à titre d’incitatifs et d’indicateurs trop exigeants de leur
performance, les amène à falsifier l’information. Dans ce cas, le lien
entre le système technique et le système social est bloqué (interrompu,
rompu) sur le plan cognitif, politique ou symbolique, selon la nature
du point de rupture : déficience d’apprentissage, inégalité des
ressources ou choc des valeurs.
Nous verrons, dans la section suivante, de quelle façon les acteurs
compensent pour les incohérences engendrées par l’application des
leviers du contrôle de gouvernance, stratégique et opérationnel.

3. Mécanismes de contrôle de gestion


liés à ses trois formes d’expression
(gouvernance, stratégique,
opérationnelle)
La section suivante s’attache à montrer de quelle façon des
mécanismes choisis du contrôle de gestion peuvent être revisités, pour
faire en sorte qu’ils apportent un éclairage nouveau aux prises de
décisions clés en vue d’assurer la légitimité (contrôle de gouvernance),
la compétitivité (contrôle stratégique) et la productivité de
l’organisation (contrôle opérationnel). Cet éclairage permet d’inscrire
la prise de décision dans la quête de cohérence organisationnelle, mais
une cohérence qui se distingue de la cohérence instrumentale qui
fonde le contrôle de gestion comme technique. Chaque mécanisme
présente des enjeux de cohérence entre le système technique et le
système social. Nous présentons une perspective qui place l’acteur au
centre de la résolution des enjeux de cohérence.

3.1 La cohérence entre leviers techniques et


obstacles sociaux du contrôle de gouvernance –
les incitatifs
Avec les préoccupations grandissantes pour la responsabilisation des
organisations et les menaces latentes à leur légitimité, s’ouvre un
nouveau chantier pour le contrôle de gestion : celui du contrôle de
gouvernance. Le contrôle de gouvernance assure la légitimité de
l’organisation déclinée en responsabilités économique, sociale et
écologique. Les leviers techniques du contrôle de gouvernance sont les
incitatifs ; les objectifs étant habituellement réservés au contrôle
stratégique et les standards, au contrôle opérationnel. Assurer la
légitimité de l’organisation, sans contrevenir à la cohérence
organisationnelle, implique pour le contrôle de gestion le déploiement
d’incitatifs qui n’engendrent pas la compétition (enjeu de
collaboration du système politique), l’individualisme (enjeu
d’intégration du système symbolique) et la rigidité cognitive (enjeu de
compréhension du système cognitif).
Les principaux mécanismes de contrôle de gouvernance par lesquels
sont exprimés ces incitatifs sont : (1) la structure organisationnelle, (2)
la politique de rémunération (3) la politique de gestion des risques, (4)
l’analyse périodique de la situation financière, (5) les indicateurs clés
de performance (voir le tableau 1).

Tableau 1. Sommaire des mécanismes de contrôle


Contrôle de gestion Mécanismes retenus
Vise la rentabilité et la cohérence Vise la mise en place de balises au contrôle de
organisationnelle gestion

Contrôle de gouvernance 1. Structure organisationnelle


Vise la légitimité de l’organisation 2. Politique de rémunération
1. Responsabilité économique 3. Politique de gestion des risques
2. Responsabilité sociale 4. Analyse de la situation financière
3. Responsabilité écologique 5. Indicateurs clés de performance

Contrôle stratégique 1. Chaîne de valeur de l’industrie


Vise la compétitivité 2. Analyse FFOM
1. Mission 3. Cycle de vie et analyse de la valeur
2. Métier 4. Analyse des projets d’investissement
3. Produit 5. Indicateurs stratégiques

Contrôle opérationnel 1. Standards et benchmarks


Vise la productivité 2. Suivi des projets et des programmes
1. Produit 3. Analyse et suivi du développement des produits
2. Activités 4. Analyse de la capacité et des coûts d’obtention de la
3. Processus qualité
5. Indicateurs opérationnels

La structure organisationnelle définit la responsabilité et


l’imputabilité des gestionnaires dans l’organisation. Les
responsabilités attribuées dans une organisation sont autant
d’incitatifs, car ils servent à évaluer la performance individuelle de
chaque gestionnaire. La structure définit aussi les comités de gestion
dont le rôle est primordial à la gestion des risques et à l’apprentissage
organisationnel. L’idée de contrôle interactif où les gestionnaires en
présence échangent de l’information en temps réel, se manifeste au
sein des comités de gestion. L’idée même de structure s’érige ainsi sur
un jeu de forces contradictoire, tiraillée entre une différenciation des
fonctions et une intégration des différents couples ‘rôle-responsable’,
dans laquelle ces deux forces sont à la fois habilitantes et
contraignantes (Fiol, 2006). Pour le contrôle de gestion, cela revient à
la gestion d’une tension vécue par les acteurs organisationnels. La
définition même des comités de gestion, leur place et leur composition
au sein de la structure de l’organisation sont des facteurs importants
de la gouvernance, susceptibles d’affecter la cohérence
organisationnelle. C’est au sein des nombreux comités de gestion en
organisation que l’analyste responsable de produire l’information
favorisera la prise de décision par les points de vue qu’il apportera
tirés de ses analyses.
La politique de rémunération en particulier le volet rémunération
variable (aussi appelée incitative), influence les comportements25 pour
les entreprises de services comme pour les entreprises
manufacturières. Elle est un mécanisme déterminant du
comportement des gestionnaires. Par contre, elle peut amener la
manipulation d’information issue de pressions en lien avec
l’évaluation individuelle26. Elle doit être acceptée par toutes les parties
prenantes comme étant légitime et favoriser le renforcement de
l’identité organisationnelle. Le Conseil d’administration doit s’assurer
de la contribution de la rémunération à l’optimisation de la
performance organisationnelle, tout en étant cohérent avec les
responsabilités économiques et sociales de l’organisation. Les incitatifs
de la politique de rémunération peuvent être à la source même des
obstacles de compétition, d’individualisme et de rigidité cognitive.
La politique de gestion des risques a évolué au cours des dernières
années à la lumière des faillites médiatisées, des désastres
économiques, des désastres écologiques et d’un éveil de la conscience
sociale. Elle est directement liée aux responsabilités sociales,
économique et écologique de l’organisation. Une politique de gestion
des risques vise d’une part à délimiter le territoire de la gestion, mais
aussi à déterminer la stratégie à adopter face aux risques
économiques, sociaux et écologiques de l’organisation. Elle contribue
notamment à doter l’organisation d’un mécanisme d’identification des
risques27, d’évaluation des risques28 et de plans d’action appropriés
visant à éliminer le risque, transférer le risque, réduire le risque et
accepter le risque29. Par contre, elle ne doit pas tuer l’innovation et la
créativité. Ne pas prendre de risques est souvent un bien plus grand
risque pour la pérennité de l’organisation. La politique de gestion des
risques ne doit pas freiner l’apprentissage organisationnel. La
politique de gestion des risques est incitative en ce que les
gestionnaires peuvent être sévèrement punis pour des risques
matérialisés en pertes pour l’organisation, punition qui peut être la
rétrogradation, voire le congédiement. La punition peut freiner les
initiatives, c’est pourquoi la politique de gestion des risques doit
appuyer les initiatives et soutenir les occasions d’affaire.
L’analyse périodique de la situation financière par le conseil
d’administration comprend une analyse de la rentabilité, de la
capitalisation et du levier financier ainsi que de la trésorerie. Elle
mène à l’acceptation du plan stratégique, des investissements et des
budgets présentés par la direction au Conseil d’administration. Dans
les entreprises publiques, elle est revue trimestriellement et elle relève
d’un comité de vérification du Conseil d’administration. L’allocation
des ressources par le budget doit prendre en compte à la fois les
objectifs de performance et les défis sociaux. La situation financière
sert de point de repère pour évaluer la performance individuelle de la
direction. Le Chef de la direction financière se fait l’interprète de la
situation auprès du Chef de la direction (CEO). Les indicateurs
financiers ajoutent aux incitatifs liés au poste occupé dans
l’organisation, à la rémunération et à la politique de gestion des
risques.
Les indicateurs clés de performance témoignent à la fois de la
performance économique, sociale et écologique de l’organisation ainsi
que des facteurs à l’origine de la performance. Ils sont réunis dans un
tableau de bord corporatif. Ils concrétisent la mission de
l’organisation. Ils orientent la direction dans la prise de décision,
servent à l’évaluer et souvent à la rémunérer. Le déploiement d’une
série de tableaux de bord stratégiques et opérationnels intégrés,
découlant du tableau de bord corporatif est également une
responsabilité de la gouvernance. Les indicateurs clés communiquent
implicitement un engagement de la direction. De ce fait, ils deviennent
un incitatif important à la performance organisationnelle.
En somme, la compétition interne, l’individualité, la rigidité
cognitive sont des obstacles du système social que le contrôle de
gouvernance vise à corriger (outrepasser), mais qui peuvent
paradoxalement être ravivés par les leviers même de ce contrôle (voir
le tableau 2). Ce qui montre l’importance des comités de gestion et du
contrôle interactif (Simons, 1995) qu’ils permettent de déployer, pour
maitriser les enjeux complexes de collaboration, d’intégration et de
compréhension. Le contrôle interactif donne en quelque sorte une
marge de manœuvre aux acteurs, leur permet de partager leur lecture
des cadres ou chantiers de l’organisation, d’arbitrer dans le jeu des
forces contradictoires de manière créative. Dohou-Renaud (2010) a
bien montré de quelle façon le contrôle interactif peut être pensé de
manière horizontale (et non plus uniquement verticale), voire externe
et transversale, à l’organisation, pour inclure les parties prenantes clés
et arbitrer avec elles les enjeux de collaboration, d’intégration et de
compréhension. Ce contrôle permet de corriger les faiblesses du
contrôle diagnostic à l’égard de ces enjeux.
Enfin, la politique de rémunération doit être jugée acceptable et
acceptée par tous, ne pas favoriser l’individualisme. La politique de
gestion des risques ne doit pas faire supporter l’imputabilité des
risques à des gestionnaires qui n’en n’ont pas le contrôle. Il en est de
même de la situation financière et des indicateurs clés de
performance.

Tableau 2. Matrice de cohérence organisationnelle


Objectifs du Défis du système social
système
technique Collaboration Intégration Apprentissage

Obstacle de compétition Obstacle Obstacle de rigidité


Légitimité activé/contré par le levier d’individualisme cognitive activé/contré
‘incitatif’ des mécanismes activé/contré par le levier par le levier ‘incitatif’ des
de contrôle de ‘incitatif’ des mécanismes mécanismes de contrôle de
gouvernance de contrôle de gouvernance gouvernance

Obstacle de compétition Obstacle Obstacle de rigidité


Compétitivité activé/contré par le levier d’individualisme cognitive activé/contré
‘objectif’ des mécanismes activé/contré par le levier par le levier ‘objectif’ des
de contrôle stratégique ‘objectif’ des mécanismes mécanismes de contrôle
de contrôle stratégique stratégique

Obstacle de compétition Obstacle Obstacle de rigidité


Productivité activé/contré par le levier d’individualisme cognitive activé/contré
‘standard’ des activé/contré par le levier par le levier ‘standard’
mécanismes de contrôle ‘standard’ des des mécanismes de
opérationnel mécanismes de contrôle contrôle opérationnel
opérationnel
3.2 La cohérence entre leviers techniques et
obstacles sociaux du contrôle stratégique – les
objectifs
Le contrôle stratégique vise la compétitivité de la mission, du métier et
du produit. Il s’attache ultimement à procurer un avantage
concurrentiel à l’organisation. Les leviers techniques du contrôle
stratégique, c’est-à-dire les objectifs, sont exprimés à travers cinq
mécanismes. Ces mécanismes permettent de choisir les grandes
orientations de l’entreprise. Il s’agit de : (1) l’analyse de la chaîne de
valeur de l’industrie, (2) l’analyse FFOM (forces, faiblesses, occasions
et menaces), alimentée par l’analyse PESTEL, l’analyse comparative et
l’analyse des forces concurrentielles, (3) l’analyse du cycle de vie et de
la valeur du produit, (4) l’analyse des projets d’investissement et (5)
les indicateurs stratégiques (voir le tableau 1).
Ces leviers rencontrent, à travers l’activation de ces mécanismes,
des obstacles organisationnels qui soulèvent autant de défis pour la
cohérence organisationnelle. La cohérence s’obtient lorsque les leviers
techniques du contrôle stratégique (les objectifs) sont établis de
manière à minimiser les problèmes liés à la compétition interne (pour
favoriser la collaboration), à l’individualité (pour favoriser
l’intégration) et à la rigidité cognitive (pour favoriser l’apprentissage).
Il s’agit pour le contrôle de gestion d’une opération difficile, car il n’est
pas exclu que les leviers techniques engendrent eux-mêmes les
obstacles du système social qu’ils sont censés résoudre, comme nous
l’avons dit plus haut (voir le tableau 2).
L’analyste responsable d’alimenter le contrôle stratégique doit
effectuer les analyses pertinentes à informer de la cohérence et du
bien-fondé des orientations stratégiques prises et de la stratégie
adoptée, en lien avec la performance anticipée de l’organisation à long
terme.
L’analyse de la chaîne de valeur de l’industrie vise plus
particulièrement à évaluer la compétitivité de la mission et du métier
par l’analyse de la valeur créée au sein de la chaîne d’activités d’un
secteur industriel, par rapport aux activités des principaux acteurs en
amont et en aval des activités de l’organisation au sein de son secteur.
Bien saisir la valeur ajoutée, c’est comprendre la marge de manœuvre
dont dispose l’organisation pour exercer son activité30. L’analyse doit
être contextualisée et tenir compte de la responsabilité sociale et
écologique des organisations. Elle doit aussi contribuer au
renforcement de l’identité organisationnelle et de l’apprentissage
collectif. Comprendre que la performance organisationnelle est
relationnelle, et qu’elle concerne la valeur ajoutée de l’ensemble de la
chaine de valeur de l’industrie, stimule la collaboration et l’intégration.
L’analyse FFOM vise l’identification et l’évaluation des forces et
faiblesses de l’organisation et des occasions et menaces de
l’environnement compétitif de l’organisation. Elle est alimentée par
l’analyse PESTEL qui vise à mettre au jour les tendances politiques,
économiques, sociologiques, technologiques, écologiques et légales de
l’environnement de l’organisation. Elle est aussi alimentée par
l’analyse comparative qui fournit des benchmarks externes des
pratiques, ainsi que de l’information sur les pratiques performantes.
Enfin, elle est alimentée par l’analyse des forces concurrentielles31, qui
analyse l’action actuelle et potentielle des concurrents et prend en
compte les attentes des partenaires d’affaires. Comprendre les forces
et les faiblesses suscite la collaboration pour s’appuyer sur les
premières et corriger les secondes. Comprendre les occasions et les
menaces contribue à rallier l’organisation autour des grandes
orientations stratégiques.
L’analyse du cycle de vie du produit détermine le degré de maturité
du produit permettant d’estimer la croissance du marché. Elle est à
l’origine de la matrice BCG32 utilisée pour décider de la stratégie
directrice de récolte, de maintien ou de croissance. L’analyse de la
valeur33 d’un produit fait l’examen de ses attributs et fonctionnalités
afin d’assurer la compétitivité du produit. L’analyse du cycle de vie
ajoute à la compréhension acquise par l’analyse FFOM.
L’analyse des projets d’investissements englobe à la fois la
rentabilité anticipée, le financement planifié et l’impact sur la
situation financière anticipée de l’organisation. Les projets
d’investissement modifient la situation financière de l’organisation
souvent pour plusieurs années à venir. Les projets d’investissement
ajoutent à l’infrastructure d’équipements et de services de
l’organisation afin d’être mieux nanti pour réaliser la stratégie.
Les indicateurs stratégiques sont le reflet des orientations
stratégiques découlant des analyses précédentes. Ils permettent
d’évaluer la mise en œuvre de la stratégie et servent de balises aux
gestionnaires dans l’allocation des ressources.
En somme, la compétition interne, l’individualité, la rigidité
cognitive sont des obstacles du système social qui guettent le contrôle
stratégique : les objectifs, comme principal levier de ce contrôle, visent
‘techniquement’ à outrepasser ces obstacles, mais ils peuvent
paradoxalement les engendrer, s’ils ne sont pas débattus correctement
au préalable et si les hypothèses sur lesquelles sont érigées les analyses
ne sont pas clairement exposées. De plus, il est important que les
enjeux soient discutés au sein de comités de gestion, afin que les
gestionnaires s’approprient totalement les orientations stratégiques.
La cohérence organisationnelle repose ultimement sur la manière
dont est activé le contrôle stratégique par l’acteur. Par exemple, pour
ce qui concerne la chaine de valeur, Donada et Nogatchewsky (2007)
présentent une analyse de la relation client fournisseur qui montre
bien les bricolages faits par les acteurs (fournisseurs et clients) pour
réduire la compétition, freiner l’individualité et éviter la rigidité
cognitive, à l’encontre de ce que prévoit le cadre technique, en toute
logique pour satisfaire la prédominance d’un client (marché très
concurrentiel) ou d’un fournisseur (contexte fortement réglementé).
Au-delà de l’efficacité technique de l’outil de contrôle stratégique, une
réflexion sur les conditions de son utilisation est donc essentielle. Solle
et Rouby (2003) ont bien montré que la génération d’outils de
contrôle, même spontanée, ne peut être ‘totalement suspendue dans le
vide’.

3.3 La cohérence entre leviers techniques et


obstacles sociaux du contrôle opérationnel –
standards
Le contrôle opérationnel vise la productivité des ressources, des
activités et des processus. Les leviers techniques du contrôle
opérationnel sont les ‘standards’ exprimés à travers cinq principaux
mécanismes : (1) le suivi budgétaire mensuel et celui de la trésorerie,
(2) le suivi des projets et des programmes, (3) l’analyse et le suivi du
développement des produits, (4) l’analyse de la capacité et des coûts
d’obtention de la qualité et (5) les indicateurs opérationnels (voir le
tableau 1).
L’analyste responsable d’alimenter le contrôle opérationnel doit
effectuer les analyses pertinentes pour informer de l’évolution de la
productivité de l’exploitation courante et de son impact sur la
rentabilité, tout en assurant la cohérence organisationnelle. Il faut se
demander dans quelle mesure les mécanismes évoqués du contrôle
opérationnel favorisent aussi la collaboration entre les gestionnaires,
l’intégration des valeurs qui définissent l’identité et la compréhension
des enjeux organisationnels.
Le suivi budgétaire mensuel permet de comparer l’évolution des
ventes en fonction de cibles prédéterminées, lors du processus
budgétaire, d’une part et de suivre l’évolution des coûts par rapport à
des standards ou des cibles de coûts, d’autre part. Il s’agit d’une
activité de veille visant à détecter le plus rapidement possible les
changements de l’environnement concurrentiel ou une possible
évolution de l’efficience de l’utilisation des ressources et de la
productivité des activités et des processus. Le suivi de la trésorerie est
une activité quotidienne essentielle à la gestion des flux monétaires.
Encore une fois, la discussion en comité de gestion permet aux
gestionnaires de parvenir à un modèle explicatif commun pour
comprendre les causes des écarts par rapport aux prévisions et aux
standards. Ceci favorise ainsi la collaboration, l’intégration et
l’apprentissage organisationnel.
Le suivi des projets et des programmes comprend le suivi des délais
de réalisation, le suivi des budgets et le suivi de l’impact ou des
retombées des projets. Il relève du contrôle opérationnel, au même
titre que le suivi budgétaire. Il s’agit aussi d’une activité de veille visant
à détecter, le plus rapidement possible, les écarts de délai et de budget
observés ou encore de mettre en place les correctifs nécessaires. De
même, la discussion en comité de gestion favorise la collaboration,
l’intégration et l’apprentissage organisationnel.
Le développement d’un produit peut s’échelonner sur 3, 4 ou 5 ans.
95 % des coûts engagés au cours de la durée de vie d’un produit le sont
à l’étape de conception et de développement. Le suivi des coûts de
développement d’un produit tout comme le suivi d’un projet et d’un
programme est une activité visant à détecter le plus rapidement
possible les écarts susceptibles de se produire, car ils affecteront la
productivité globale à long terme de l’organisation, mesurée par un
ratio extrants/intrants. Les résultats serviront à prévoir
l’investissement nécessaire au lancement éventuel du produit à l’étape
de développement. C’est une activité critique pour le succès futur
d’une entreprise. La discussion en comité de gestion est encore une
fois essentielle à la collaboration et à l’intégration.
L’analyse de la capacité, associée à un montant de coûts fixes, vise à
comprendre l’impact du volume d’activité sur le coût de revient des
produits et des services rendus. Elle est ainsi utile pour comprendre
l’impact des coûts liés à la capacité sur la productivité globale.
L’analyse des coûts d’obtention de la qualité vise à identifier les coûts
liés à des activités qui ajoutent de la valeur aux produits et services et
ceux liés à des activités qui visent à corriger la valeur34. Cette dernière
est utile pour améliorer la productivité en agissant sur les facteurs à
l’origine des corrections nécessaires à préserver la valeur des produits.
Ces analyses bonifient la compréhension des facteurs explicatifs de la
productivité d’une organisation. Le partage de ces analyses en comité
de gestion permet souvent de mettre au jour les facteurs structurels et
contextuels comme causes premières de la baisse de productivité. Cela
évite du même coup de jeter trop rapidement la faute sur les employés.
Les indicateurs opérationnels servent à la gestion courante. Il est
important que les indicateurs utilisés pour la gestion soient liés au
budget et intégrés aux indicateurs stratégiques pour fins de cohérence
organisationnelle.
En somme, la compétition interne, l’individualité, la rigidité
cognitive sont des obstacles du système social que le contrôle
opérationnel risque à tout moment de raviver, alors qu’il se donne
paradoxalement pour rôle de les éviter (voir le tableau 2). Berland
(1999) présente une typologie qui permet de contextualiser les
pratiques de contrôle budgétaire (comme contrôle opérationnel) dans
le contexte organisationnel au sein duquel elles sont déployées, de
manière à assurer une meilleure cohérence et éviter le lot de pratiques
contre-productives qui leur sont largement associées.
À chacun des trois contextes organisationnels présentés correspond
un cadre social qui justifie l’emploi de modèles de contrôle
opérationnel fort différents. Par exemple, le modèle budgétaire
‘planification stratégique’ conduit à l’élaboration de standards qui ne
conviennent pas à son utilisation pour l’évaluation des employés (les
‘abrégés du vrai’ qui en découlent ne peuvent dans ce cas, sans
conséquences graves sur la cohérence organisationnelle, servir
d’abrégés du bien/du bon) ; le modèle budgétaire ‘contrôle stratégique’
comprend un système de navettes entre la direction et les employés,
qui autorise son utilisation dans la formation de la stratégie, dans un
contexte où les activités sont interdépendantes ; et enfin le modèle
budgétaire ‘contrôle financier’ ne peut être déployé que dans un
contexte où l’interdépendance entre les activités, et les acteurs qui les
portent, est pratiquement nul.

Conclusion
Les mécanismes du contrôle de gestion, de gouvernance, stratégique et
opérationnel, comprennent des leviers techniques (incitatifs, objectifs,
standards) pour freiner les obstacles du système social (compétition,
individualisme, rigidité cognitive). Or, une mauvaise adéquation de
ces mécanismes, même hautement sophistiqués, à ses conditions
d’utilisation en organisation peut engendrer des manquements graves
à la cohérence organisationnelle. Ces manquements peuvent se
traduire par de la manipulation, de la falsification et inévitablement
par des baisses de rentabilité. Ils s’accompagnent souvent à moyen
terme de drames humains qui auraient pu être évités, et il ne tarde pas
que la pertinence du contrôle de gestion soit sévèrement remise en
cause.
Informer la décision de manière adéquate implique pour le contrôle
de gestion de s’inscrire dans une lecture adéquate du cadre social. Ce
cadre est évidemment en évolution, influencé par le contrôle de
gestion, à la fois habilitant et contraignant. Le contrôle de gestion est
habilitant, lorsque par exemple la logique financière permet de porter
un regard critique sur la ‘cohésion’ pour l’empêcher de nuire à la
cohérence (Fiol, 2006).
La cohérence organisationnelle ne serait-elle pas celle que l’on co-
construit lorsque le contrôle de gestion permet un dialogue, une
interactivité externe avec les parties prenantes ou transversales entre
les directions, les divisions, les projets de l’entreprise (Dohou-Renaud,
2010) ?
Réfléchir sur le contrôle de gestion à travers ses différents
mécanismes invite à étudier son apport à la cohérence
organisationnelle, à partir des concepts de cohérence interne et de
cohérence externe de la technique (Bachimont, 2005). Ainsi, la
cohérence interne lui permettrait d’acquérir une réalité concrète, qui
le distingue des autres mécanismes (du marketing, de la finance, des
ressources humaines, etc.), alors que la cohérence externe assurerait
sa pertinence, permettant à des acteurs de s’y reconnaitre, de l’utiliser.
Informer la décision est bien plus que transmettre de l’information :
bien le comprendre permet au contrôleur de bonifier l’offre de ses
services, comparativement à celle des informaticiens, qui se font de
plus en plus présents en contrôle de gestion.

Références bibliographiques
Anthony R. (1988). The Management Control Function. Boston,
Harvard Business School Press.
Bachimont B. (2005). Ingénierie des connaissances, ingénierie de la
contingence : la technique entre le nécessaire et le singulier. In
Teulier R. & Lorino P. (dir.), Entre connaissance et organisation :
l’activité collective. L’entreprise face au défi de la connaissance.
Paris, La Découverte, pp. 72-132.
Berland N. (1999). À quoi sert le contrôle budgétaire ? Les rôles du
budget. Finance, Contrôle, Stratégie, 2 (3), 5-24.
Berland N. & Persiaux F. (2008). Le contrôle des projets d’innovation
de haute technologie. Comptabilité, contrôle et audit, 14 (2), 75-106.
Bertrand T. & Mevellec P. (2005). Cohérence organisationnelle et
structure des modèles ABC/M. Conférence AFC.
Boisvert H. & Déry R. (2013). Le Contrôle de gestion : l’interface entre
la comptabilité et le management. Montréal, JFD.
Bouquin H. (2010). Le Contrôle de gestion. Paris, PUF.
Bourguignon A. & Jenkins A. (2004). Changer d’outils de contrôle de
gestion ? De la cohérence instrumentale à la cohérence
psychologique. Finance Contrôle Stratégie, 7 (3), 31-61.
Caron M.A., Boisvert H. & Mersereau A. (2011). Le rôle du contrôleur
revisité : une perspective nord-américaine. Comptabilité Contrôle
Audit, 17 (1), 123-154.
Cheffi W. & Nekhili M. (2011). Rôles assignés à la comptabilité de
gestion par les managers et changement comptable : question
d’adéquation ou de simple désillusion ?. Comptabilité Contrôle
Audit, 17 (1), 67-97.
Dohou-Renault A. (2010). Le Concept d’interactivité de Simons
revisité à l’aune des systèmes de contrôle environnemental.
Manuscrit d’auteur publié dans Crises et nouvelles problématiques
de la valeur, France.
Dona da C. & Nogatchewsky G. (2008). Partenariat, vassalité, marché
et seigneurie : 4 configurations de contrôle client fournisseur.
Comptabilité, contrôle et audit, 14 (1), 145-168.
Fiol M. (2006). Contrôle de gestion et cohérence organisationnelle.
Conférence de l’Association Francophone de Comptabilité, Tunis.
Gervais M. (2005). Le Contrôle de gestion, 9e édition. Paris,
Economica.
Justin J. (2004). Proposition d’un cadre conceptuel d’analyse des jeux
d’acteurs cristallisés dans et par les outils de contrôle. Comptabilité,
contrôle et audit, numéro thématique, pp. 213-236.
Lorino P. (1995). Comptes et récits de la performance : essai sur le
pilotage de l’entreprise. Paris, Éditions d’Organisation.
Merchant K.A. & Van der Stede W.A. (2007). Management Control
Systems: Performance Measurement, Evaluation and Incentives.
Financial Times/Prentice Hall.
Shank J.K. & Govindarajan V. (1995). La Gestion stratégique des
coûts. Paris, Éditions d’Organisation, chap. 4.
Simons R. (1995). Levers of Control: How Managers Use Innovative
Control Systems to Drive Strategic Renewal. Boston, Harvard
Business School Press.
Solle G. & Rouby E. (2003). De la conception des innovations
managériales en contrôle de gestion : quelles propositions ?.
Comptabilité, contrôle et audit, numéro spécial, pp. 147-168.
Chapitre 7

Les impasses du contrôle de


gestion : débats et perspectives

ARIEL EGGRICKX

Le contrôle de gestion est le garant de cohérence entre la stratégie et le


quotidien, la relation est interactive. L’objectif du contrôle, « c’est
modeler les perceptions des acteurs et des décideurs, de sorte que la
finalité soit atteinte grâce au contrôle, mais de sorte, aussi, qu’elle
(finalité) soit ajustée si nécessaire, en raison des constats faits dans
l’action » (Bouquin, 1986, p 65). Différents auteurs critiquent les
postulats du contrôle fondé sur un modèle cybernétique de contrôle,
l’unirationalité et la conformité (Hofstede, 1978, 1981 ; Dermer, 1988),
sur des hypothèses de simplicité et de stabilité (Lorino, 1995). Pour
Mary Parker Follett (1924), contrôler, c’est créer les conditions pour
que les managers n’apprennent pas seulement à agir, mais aussi et
surtout à penser. Ces différentes critiques reflètent une dimension
souvent oubliée dans le modèle dominant du contrôle de gestion : la
relation nécessairement interactive pour garantir la cohérence entre la
stratégie et le quotidien.
Selon la métaphore de la gestion des carrefours avec giratoire de
Jean Louis Le Moigne (1996), le modèle dominant du contrôle de
gestion peut se comparer au système de feux : « vert, je passe ; rouge,
je m’arrête ». Le fonctionnement optimal du système est modélisé a
priori par un « observateur galiléen ». Ce système repose sur une
stratégie cognitive purement accommodatrice avec une impasse
lorsque le feu se bloque sur le rouge (malgré les coups de klaxon
désespérés). Le courant critique du contrôle de gestion s’inspire du
modèle de carrefour avec giratoire. Il crée les conditions d’une
intelligence téléologique distribuée où à chaque instant, chacun des
acteurs (automobiliste, versus manager) est invité à se construire une
représentation riche de son action dans ses interactions immédiates et
potentielles avec les comportements des autres acteurs (autres
managers) de l’organisation (Le Moigne, 1996). Alors qu’ils ont les
mêmes objectifs, la sécurité routière et la fluidité de la circulation, ces
deux systèmes de fonctionnement se fondent sur des conceptions du
contrôle complètement opposées Cette métaphore permet d’illustrer
les impasses dans les fondements et pratiques du contrôle de gestion,
pour poser les bases d’un contrôle de gestion où les managers
opérationnels apprennent à agir et à penser en maintenant une vision
globale de l’organisation et de ses interactions avec l’environnement.
Dans une première partie, nous présenterons les différentes
impasses du contrôle de gestion, liées tant au découpage vertical du
processus de contrôle sur le plan conceptuel, qu’au découpage
horizontal pour la mise en œuvre des pratiques du contrôle (1). Dans
la seconde partie, nous mobilisons les résultats de deux recherches,
l’une portant sur le pilotage de la recherche à l’université, l’autre sur le
pilotage d’un Pôle d’Excellence Rurale Bois-Bio ressources. Ces
résultats appellent à un ré-encastrement du contrôle de gestion dans
l’organisation (2).

1. Des impasses dans les fondements


et pratiques du contrôle de gestion
Dans le modèle d’Anthony (1965, 1988), le contrôle de gestion s’appuie
sur un découpage des processus organisationnels en trois niveaux : la
planification stratégique ou contrôle stratégique, le contrôle de
gestion, le contrôle opérationnel ou contrôle d’exécution. À ce
découpage des processus organisationnels en trois niveaux, s’ajoute le
découpage du processus de contrôle organisationnel en trois sous
processus - finalisation, pilotage et post-évaluation - et le découpage
de l’organisation en centres de responsabilité (Bouquin, 1986). Ce
paradigme évite une question clé du management, « quel est le bon
objectif ? », en supposant l’objectif déterminé par quelqu’un d’autre
(March, 1978 ; Bower, 1983), ce qui passe sous silence des questions
pourtant essentielles pour le contrôle de gestion. Qui définit la finalité
de l’organisation ? L’ensemble des parties prenantes ou les marchés
financiers ? Qui fixe les objectifs ? Sont-ils pertinents ? Ce paradigme
du contrôle repose sur une hypothèse de simplicité (versus
décomposabilité) et de stabilité (versus certitude), alors que les
organisations sont confrontées à une complexité et une instabilité
croissantes (Lorino, 1995). Si ces hypothèses sont essentielles pour
réduire les incertitudes et la complexité, elles ont aussi un prix caché :
un risque de perte de sens du contrôle de gestion, encore plus avec la
prolifération d’outils ou techniques de gestion conçus à l’extérieur de
l’organisation. L’absence de questionnement sur les hypothèses
revient à asseoir la légitimité du contrôle de gestion sur un
« impensé ». Le retour aux impensés du contrôle de gestion permet de
mettre en perspective les multiples incohérences générées tant par le
processus de découpage vertical (1.1) que le processus de découpage
horizontal du contrôle (1.2).

1.1 L’impasse du découpage vertical


Le processus de découpage vertical du contrôle confronte le contrôle
de gestion à trois impasses : un contrôle de gestion au service de la
finance (1.1.1), chargé de décliner des objectifs souvent définis par le
seul PDG ou comité de direction (1.1.2), et un contrôle de gestion
fortement distant du management opérationnel (1.1.3).

1.1.1 L’impasse de la f nanciarisation


La théorie de l’agence (Jensen et Meckling, 1976 ; Fama et Jensen,
1983) traite des problèmes de mandat liés à la séparation entre la
propriété et la décision, entre les actionnaires et les dirigeants. Pour
inciter les dirigeants à agir dans l’intérêt des actionnaires, il existe
plusieurs mécanismes d’incitation : les marchés financiers qui
sanctionnent la performance des organisations par le cours de bourse,
les systèmes de rémunération à la performance (stock-options, bonus
de fin d’année, etc.) et le marché des cadres dirigeants censé pénaliser
les dirigeants les moins performants. Si ces mécanismes contribuent à
aligner l’intérêt des dirigeants sur l’intérêt des actionnaires, ils ne
participent pas toujours à pérenniser les organisations. De nombreux
auteurs critiquent la financiarisation des entreprises qui conduit à des
stratégies orientées sur le court terme, à opérer des prélèvements
(dividendes, rachats d’action,…) sur l’entreprise supérieurs aux
financements accordés par les marchés financiers, ou qui incite à
engager l’entreprise dans les investissements les plus risqués (course
au taux de profit le plus élevé) en transférant le risque sur les autres
parties prenantes (Dumez, 2013).
L’entreprise peut être définie comme un dispositif de création
d’engagement des diverses parties prenantes à l’égard du collectif ; elle
devrait fonctionner sur des valeurs multiples et donner la priorité aux
parties prenantes engagées à long terme dans l’entreprise. Dans les
faits, le mécanisme s’est déréglé avec un pouvoir trop grand donné aux
actionnaires, même s’ils ne sont pas engagés à long terme dans
l’entreprise (Dumez, 2013). Les PDG et contrôleurs de gestion
participent à ce dérèglement. Le PDG justifie la création de valeur
pour l’actionnaire, critère unique et agrégé de la performance, en
invoquant la constante menace des marchés financiers. La pression
supposée de l’actionnaire permet d’asseoir la « dictature invisible du
marché » et la légitimité du PDG, et d’exercer un puissant pouvoir
disciplinaire sur les salariés (Gomez, 2001). Le PDG légitime les
politiques portées par les marchés financiers (downsizing,
restructuration, cost-killers), tout en s’exonérant de sa responsabilité
puisque ces logiques sont portées au nom de la dictature des marchés.
Chemin faisant, l’organisation se soumet à une course en avant
dominée par la spéculation.
Le contrôleur de gestion participe aussi à ce vaste mouvement de
dérèglement. Il devient « médiateur » de la financiarisation (Ezzamel
et al., 2008 ; Morales et Pezet, 2010), ce qui peut conduire vers la voie
la plus facile : modifier le partage de la valeur créée par l’entreprise au
profit des actionnaires et au détriment des autres parties prenantes, au
lieu de soutenir la création de valeur (Gomez, 2001). En d’autres
termes, s’orienter vers des solutions « downsizing » ou réduction des
coûts plutôt que de création de valeur à partir des ressources de
l’entreprise. Cette financiarisation contraint les contrôleurs de gestion
à devoir porter sur le devant de la scène les valeurs de l’actionnaire au
détriment des autres valeurs, les valeurs économiques au détriment
des valeurs sociétales et environnementales, alors même que
l’entreprise ne peut fonctionner que sur des valeurs multiples (Dumez,
2013). Si le contrôleur de gestion gagne en légitimité du fait du
pouvoir des marchés financiers sans en assumer la responsabilité, ses
capacités à assumer un rôle d’agent de liaison entre les opérationnels
et la direction s’en trouvent réduites. En raison de sa forte proximité
avec la direction et les logiques de financiarisation, le contrôleur de
gestion est considéré comme ayant des points de vue et
comportements trop dissemblables, ce qui le disqualifie auprès des
managers opérationnels en termes de capacité à traiter leurs
problèmes (Lawrence et Lorsch, 1989).

1.1.2 L’impasse de la séparation entre le sommet stratégique


et les opérationnels
Cette dynamique de financiarisation contribue à amplifier la
séparation entre le sommet stratégique et les managers opérationnels,
séparation tant critiquée par Mintzberg (1994). Selon la terminologie
de Bower (1983), la séparation entre le management politique (PDG et
comité de direction) et le management technocratique (managers
opérationnels) induit un double risque : un risque de non-pertinence
des décisions stratégiques, un risque de non prise en compte des faits
ou indices appelant à une réorientation des objectifs. Dans toute
organisation, on trouve les caractéristiques tant du management
politique que du management dit technocratique, au sens de Bower
(1983). Le premier type de management concerne la négociation des
objectifs et les modes de répartition des bénéfices générés par l’action
collective ; le second type de management concerne la structuration de
l’organisation qui permet de produire ou distribuer les biens et
services avec efficience et efficacité. À partir de ses recherches sur les
organisations publiques et privées, Bower (1983) démontre que ces
deux types de management se chevauchent et qu’on gagnerait à ce que
les représentants des deux types de management coopèrent
véritablement. Dans les organisations publiques ou privées, le
management politique concerne les politiques ou le président-
directeur général, le directeur général et comité de direction
(principales directions dans l’organisation) chargés d’élaborer la
stratégie sous le contrôle du conseil d’administration. Le management
technocratique concerne les managers opérationnels chargés de
décliner la stratégie.
Sous l’angle principalement cognitif, les travaux de Bower (1983)
montrent les complémentarités fortes qui existent entre les
représentants du management politique (versus PDG et comité de
direction) et ceux du management technocratique (versus managers
opérationnels). Pour l’identification et la résolution des problèmes,
alors que le PDG doit filtrer un grand nombre de stimuli et saisir les
problèmes comme une opportunité de médiatisation par rapport à
l’environnement (voire son organisation et conseil d’administration),
le manager opérationnel a pour rôle de démontrer son expertise, et
d’organiser un minimum de coopération et de coordination entre les
services pour la résolution des problèmes. Alors que le PDG a une
faible disponibilité et doit agir en urgence, le manager opérationnel a
une plus grande disponibilité et peut prendre un minimum de recul.
Autant le PDG perçoit des informations de façon fragmentée et
qualitative qu’il traite de façon intuitive, autant le manager
opérationnel a pour rôle de collecter les informations de façon
extensive, systématique et formalisée, informations qu’il traite de
façon analytique. Alors que le PDG vit au quotidien les évolutions de
l’environnement, le manager opérationnel connaît les contraintes
internes à son service (voire l’organisation) et les vit en temps réel. Le
PDG doit anticiper les conséquences des choix dans la perspective des
prochains communiqués de presse avec de forts impacts sur les cours
des actions, le manager opérationnel doit anticiper les conséquences
sur l’organisation et son service. Le PDG est légitime par sa
désignation par le conseil d’administration, le manager opérationnel
par son expertise. Le PDG opère un contrôle global de la mise en
œuvre d’un plan, et le manager opérationnel est chargé de la mise en
œuvre détaillée.
Cette synthèse succincte (nécessairement simplificatrice) montre les
complémentarités fortes entre les politiques (PDG et comité de
direction) et managers opérationnels sous l’angle cognitif, ce qui
renforce les conclusions de Mintzberg. La séparation des fonctions
stratégiques et opérationnelles ne résiste pas à l’épreuve des faits
(Mintzberg, 1994). Les procédures devraient garantir une élaboration
collective de vues plus générales, une construction d’une « multi-
rationalité », soit un processus qui est de l’ordre du film où l’effet
produit dépasse de loin l’addition des instantanés successifs (Sfez,
1992).

1.1.3 L’impasse du découpage entre le contrôle de gestion et


le contrôle opérationnel
À ce découpage entre le sommet stratégique et l’opérationnel, s’ajoute
le découpage entre le contrôle stratégique, le contrôle de gestion et le
contrôle opérationnel. Ce découpage est une division du travail
simpliste comme l’énonce en termes ironiques Jean Louis Le Moigne
(1996, p 33) : « Que les uns s’occupent de la cohésion de l’ensemble en
précontrôlant les actions dans le cadre présumé cohérent du
contrôle-de-gestion (« Plan, Programme-Budget ») ; et que les autres
veillent aux ajustements spécifiques qui combleront les écarts à la
norme cohérente que suscitent les aléas d’un contexte hélas
changeant ». Cette division du travail part de l’idée qu’il suffit de
commander complètement le comportement du système d’opérations
pour garantir la cohérence de l’organisation. Cette conception soulève
deux difficultés majeures : 1. une finalisation nécessairement
défaillante à l’origine pour plusieurs raisons : ambiguïté des objectifs,
focalisation sur les objectifs mesurables, plan stratégique qui relève
plus de la fiction que de la réalité, 2. une juxtaposition artificielle des
trois niveaux du contrôle - contrôle stratégique, contrôle de gestion,
contrôle opérationnel - alors qu’ils doivent être en interaction. À ces
difficultés, il faut ajouter que le principe de découpage Plan-
Programme-Budget n’est valide que lorsque deux conditions sont
remplies : 1. un environnement relativement stable et peu complexe,
situation de plus en plus rare, 2. une standardisation du travail dans le
centre opérationnel. Ce découpage n’est donc pertinent ni pour les
organisations évoluant dans un environnement instable et complexe,
ni pour les bureaucraties professionnelles.
Si le découpage est discutable dans ses fondements, l’image du
contrôleur de gestion souvent négative et les pratiques du contrôle de
gestion tendent à maintenir voire augmenter la distance avec les
managers opérationnels. Ainsi, différentes recherches montrent un
déplacement du pouvoir des opérationnels vers les contrôleurs de
gestion, chargés de discipliner les autres (Bessire, 1995 ; Lambert et
Pezet, 2006). Selon les résultats d’une enquête auprès des contrôleurs
de gestion (74 questionnaires) et managers opérationnels (56
questionnaires), les contrôleurs de gestion investissent peu dans les
relations avec les managers opérationnels lorsqu’il n’existe pas de
système de contrôle de gestion pour les opérationnels (Bollecker et
Niglis, 2009). Leurs actions sont plus destinées à recueillir de
l’information pour le reporting, et la résolution des conflits se fait
essentiellement par la hiérarchie plutôt que par le dialogue (Bollecker
et Niglis, 2009). Dans le cas où les opérationnels sont des utilisateurs
du système de contrôle, les contrôleurs de gestion ont davantage
tendance à leur imposer certains outils (Bollecker et Niglis, 2009).
L’engagement relationnel des contrôleurs de gestion est donc lié à la
décentralisation des décisions et des outils. Cependant, cet
engagement relationnel n’exclut pas pour autant l’usage du pouvoir
(outils imposés par exemple), et il est relativement limité si les
managers opérationnels érigent une « barrière relationnelle »
(Bollecker et Niglis, 2009).
En forçant le propos, l’engagement relationnel des contrôleurs de
gestion n’existe qu’en cas de décentralisation des outils et d’absence de
« barrière relationnelle » de la part des opérationnels ; si l’engagement
relationnel existe, il consiste souvent à imposer les outils. Dit de façon
triviale, une décentralisation possible qu’à condition d’utiliser les
outils imposés et d’accepter sans restriction le droit de regard du
contrôleur de gestion sur les opérations. Enfin, facteur aggravant, la
tendance au recentrage des fonctions de contrôle de gestion dans les
sièges des groupes ou dans les holdings, a pour effet de rajouter une
distance géographique. Sous l’effet conjugué de la financiarisation et
de l’évolution des modes de relations dans l’organisation ; les
contrôleurs de gestion ont tendance à se détacher de plus en plus des
managers opérationnels.

1.2 L’impasse du découpage horizontal


Sur le plan horizontal, la mise en œuvre du contrôle de gestion est
confrontée à trois impasses : le découpage de l’organisation en centres
de responsabilité dits autonomes (1.2.1), la conception des modèles et
outils du contrôle de gestion à l’extérieur de l’organisation (1.2.2), et la
normalisation des comportements (1.2.3).

1.2.1 L’impasse du découpage en centres de responsabilité


Comme le souligne Lorino (1995), l’hypothèse de simplicité autorise le
déploiement d’un modèle où le profit global est la somme des produits
partiels par unités dites indépendantes. En d’autres termes, une
gestion par centre de responsabilités. Comme on ne peut être rendu
responsable que de ce que l’on contrôle, le centre de responsabilité
suppose une véritable autonomie. Un centre de responsabilité est
conçu pour que la direction puisse déléguer le pilotage de l’entité vers
les objectifs visés à horizon généralement annuel. L’intervention de la
direction doit se limiter à l’amont et à l’aval du pilotage, aux phases de
finalisation et de post-évaluation de l’entité. L’intervention de la
hiérarchie ne doit relever que de l’exception. Cependant, le respect de
ce principe se heurte à deux limites : l’une liée à la conception de la
hiérarchie, l’autre à la qualité des systèmes d’information. En effet, le
pouvoir hiérarchique est aux antipodes de la conception de centre de
responsabilité puisqu’il implique la possibilité de donner des ordres de
toute nature à son subordonné, de réformer les décisions de ce dernier
ou même de s’y substituer.
Enfin, l’autonomie hiérarchique du centre de responsabilité n’est
possible que si les interactions internes entre pilote, système opérant
et système d’information, y sont suffisamment fortes pour que le pilote
puisse agir en connaissance de cause. En d’autres termes, le
responsable du centre de responsabilité doit avoir à disposition des
informations pertinentes, actuelles et fiables. Pour qu’un centre de
responsabilité soit effectivement autonome, il faut aussi que les
interactions avec d’autres centres de responsabilité (appartenant à la
même hiérarchie) soient suffisamment faibles pour qu’on puisse
attribuer au centre de responsabilité une autonomie réelle. Dans les
faits, l’autonomie est souvent fictive, les différents services doivent en
permanence coopérer en interne pour optimiser les processus multi-
métiers. Chaque centre de responsabilité doit développer des
coopérations internes, bi ou multi-latérales. L’optimisation des
processus, le contrôle interne et management de la qualité nécessitent
non seulement de développer une approche par processus, mais aussi
des techniques et savoirs d’intégration, par exemple : le Business
Process Management (BPM ou gestion des processus métiers), ou
encore la cartographie des risques dans une démarche de contrôle
interne.

1.2.2 L’impasse d’un système de contrôle conçu à l’extérieur


de l’organisation
Bouquin et Fiol (2007) soulignent que les processus de contrôle qui
devraient être orientés vers l’organisation interne disparaissent
progressivement pour deux raisons : des outils essentiellement
destinés à répondre aux besoins des marchés financiers, et des outils
conçus à l’extérieur de l’organisation. Facteur aggravant, les pressions
institutionnelles, les modes et les effets de mimétisme conduisent à
une uniformisation des systèmes de contrôle entre les entreprises de
secteurs différents, entre le secteur public et le secteur privé, entre les
bureaucraties mécanistes et professionnelles. Dynamiques
d’uniformisation avec des risques accrus de non-pertinence du
système de contrôle. La théorie néo institutionnelle (Meyer et Rowan,
1977 ; DiMaggio et Powell, 1983) explique la tendance à
l’uniformisation des systèmes de contrôle par des phénomènes de
mimétisme, mais aussi par des pressions coercitives et normatives.
Pour la théorie néo institutionnelle, l’adoption des différents outils
permet d’accroître la légitimité des organisations en illustrant une
forme de conformité aux exigences de l’environnement institutionnel,
et en donnant l’illusion d’une rationalité.
La diffusion des progiciels de gestion intégrés dans les
organisations, les effets de mode quant aux innovations managériales
(Balanced ScoreCard - BSC, Activity Based Costing - ABC), les normes
qualité (ISO 9000, etc) participent à ce mouvement d’uniformisation
des systèmes de contrôle, voire de rigidification. Chemin faisant, ils
contribuent à donner l’illusion d’une cohérence : cohérence des
données entre les services, cohérence des procédures, cohérence des
outils intra et inter-organisations. Cependant, la question reste posée
de la cohérence (ou degré d’appropriation) du système de contrôle et
des technologies (progiciels de gestion intégrée, outils de gestion) avec
les opérations au quotidien. À titre d’exemple, on peut se demander
quel est l’apport de SIFAC (progiciel de gestion intégrée des
universités) pour l’activité des laboratoires de recherche ?

1.2.3 L’impasse du découpage entre le contexte et les


normes de comportement imposées
Les postulats du contrôle « unirationalité et conformité » feraient que
la vision locale devrait être la vision globale. Le paradigme du contrôle
repose sur l’établissement de la norme de comportement par
l’observateur omniscient, et le contrôle de conformité de l’action aux
normes édictées (Lorino, 1995). Les recherches en sociologie et
psychologie montrent la capacité des outils de gestion à discipliner et
normaliser les comportements (Boussard et Maugeri, 2003). Les
travaux de recherche critiques soulignent la conception technicienne
et instrumentale des outils de gestion (Girin, 1983 ; Hatchuel et Weil,
1992 ; Moisdon, 1997). Les outils de gestion par leurs caractéristiques
font référence au concept de machine avec des utilisateurs qui doivent
se plier à la machine et veiller à l’alimenter selon les rythmes imposés,
utilisateurs devenant interchangeables (Girin, 1983). Dans nombre
d’organisations, les managers opérationnels l’expriment en termes
ironiques : « Tamagotchi a faim, donnons-lui des chiffres ».
Cette conception instrumentale est liée à la vision de l’organisation
fondée sur l’autorité avec un management qui contrôle l’organisation
de l’extérieur. Cette vision s’appuie sur un modèle cybernétique du
contrôle, ce qui suppose de façon implicite que toutes les conditions
soient réunies : des objectifs non ambigus, la définition d’un standard
de performance, une possibilité de mesurer les résultats, des effets
prévisibles des actions correctrices connus et des activités répétitives.
Ces quatre conditions formant une chaîne, il suffit que l’une d’elles ne
soit pas remplie pour que le contrôle cybernétique perde de son
efficacité (Hofstede, 1981). Alors que ces conditions sont rarement
réunies, le contrôle de gestion s’appuie sur ce modèle dominant pour
créer des régimes disciplinaires (Miller et O’Leary, 1987),
« gouverner » la subjectivité des individus afin de les inciter à
ressembler à une norme (Covaleski et al., 1998), au risque que la
norme ne soit pas adaptée au contexte.
Le découpage vertical permet de réduire le contrôle de gestion à un
périmètre et une fonctionnalité strictement délimités, et le découpage
horizontal de simplifier les modalités de mise en œuvre du contrôle de
gestion. Dans un essai de synthèse volontairement provocateur au
sens « questionner les certitudes », le contrôle de gestion a pour rôle
de modéliser le fonctionnement de l’organisation avec un triptyque
« Plan-Programme-Budget » discutable, selon les objectifs supposés
cohérents avec la finalité de l’organisation, même s’ils sont élaborés
par le seul PDG ou comité de direction, soumis à la « dictature des
marchés financiers » et n’ayant pas une connaissance intime de
l’organisation. Dans ses modalités, le contrôle de gestion s’appuie sur
plusieurs fictions : l’autonomie des centres de responsabilité, la
pertinence pour l’organisation des modèles et outils conçus à
l’extérieur de l’organisation, la conformité aux normes comme gage de
l’atteinte des objectifs. Ces réductions de périmètre et fonctionnalité
du contrôle de gestion permettent de fonder des certitudes, mais avec
un prix caché énorme. C’est le problème de la « clarté optimale »
(March, 1978). Une trop grande précision dans l’énoncé des objectifs
et la mesure des résultats est souvent à double tranchant : des risques
de manque d’interprétation créatrice des objectifs, des risques de
trahison des valeurs en jeu d’autant plus élevés que la financiarisation
des entreprises incite à faire des bons scores sans se soucier des
objectifs sous-jacents de l’organisation (March, 1978). Plus
fondamentalement, alors que le contrôle de gestion se justifie par
l’incertitude et la complexité, tout est fait pour construire des
certitudes, au point d’occulter les zones d’ombre dans les fondements
conceptuels et pratiques du contrôle de gestion.

2. À un contrôle de gestion pour une


intelligence téléologique distribuée
Selon Sloan, la stratégie d’une division doit être en partie définie par
elle en raison de sa connaissance du terrain plutôt que par le siège ;
pour d’autres, la stratégie émane des actions mises en œuvre au
quotidien (Bouquin, 2007). Dans cette conception, le but même des
dispositifs de contrôle est d’organiser l’autonomie des managers, voire
de la favoriser. Pour Follett (1924), contrôler, c’est créer les conditions
pour que les managers n’apprennent pas seulement à agir, mais aussi
et surtout à penser, ce qui rejoint le concept de pilotage (Lorino, 1995).
Contrôler, c’est accepter l’autonomie tout en essayant d’influencer
quand les conditions du modèle cybernétique de contrôle ne sont pas
respectées ou respectées partiellement (Bouquin, 2007). En d’autres
termes, le contrôle de gestion devrait être à la fois contraignant
(influence) et habilitant (autonomie) pour que les managers
opérationnels puissent découvrir les meilleures solutions à un moment
et dans un contexte donné. Les recherches menées à l’université et
dans un pôle d’excellence rurale (PER) montrent que la finalité du
contrôle de gestion serait de faciliter le management opérationnel de
la recherche plutôt que le reporting (2.1), ou encore de faciliter la
construction d’une vision systémique pour l’ensemble des parties
prenantes (2.2).

2.1 Vers un réencastrement du système de


contrôle de gestion dans l’organisation
Les travaux de recherche sur le pilotage de la recherche à l’université
montrent un système essentiellement orienté vers le reporting (2.1.1),
alors que les directeurs de laboratoires appellent à la construction d’un
système de pilotage plus orienté vers le management des laboratoires
(2.1.2).
2.1.1 Un système de pilotage de la recherche à l’université
orienté vers le seul reporting ?
Les études sur le pilotage de la recherche dans une université des
sciences et techniques montrent que les laboratoires de recherche
appellent au développement d’outils de gestion plus orientés vers les
opérationnels que le reporting (Gauche, 2013). Cette étude porte sur
dix laboratoires de recherche de l’université. Avec le nouveau système
de répartition des Moyens à la Performance et à l’Activité (SYMPA)
mis en place en 2009, les ressources des laboratoires dépendent
désormais de leur performance. L’excellence de la recherche et
l’évaluation du laboratoire par l’AERES conditionnent non seulement
les ressources allouées mais aussi la capacité des laboratoires à obtenir
des contrats de l’Agence Nationale de la Recherche (ANR), des
contrats européens ou contrats avec des opérateurs privés. Les
contrats constituent désormais l’essentiel des ressources des
laboratoires. Si les acteurs des laboratoires se sont mobilisés et ont
développé des procédures pour faciliter l’obtention des contrats, les
directeurs de laboratoires et leurs adjoints soulignent les difficultés
pour gérer les contrats et les freins à l’obtention des contrats.
Ils ne disposent pas d’informations fiables tant en interne qu’en
externe, faute d’outils adaptés et de fonction support au niveau de
l’administration. En interne, ils manquent d’outils et d’informations
pour le suivi des projets en terme budgétaire. En externe, ils
constatent une insuffisance de visibilité sur l’activité des autres
laboratoires, et de connaissance des partenaires de l’université ainsi
que du type d’activités menées par les différents laboratoires avec ces
partenaires. Globalement, ils regrettent l’absence d’outils d’aide au
pilotage pour mener leurs activités, même s’ils ont conscience des
difficultés de l’administration centrale pour fiabiliser les informations
et déployer des outils adaptés. Dans leur fonctionnement interne, les
laboratoires se sentent aussi pénalisés par l’absence d’outils communs
entre les tutelles, ce qui crée une forte surcharge de travail
administratif. Concrètement, ils sont souvent contraints de ressaisir
les mêmes informations sur les outils de gestion spécifiques à chaque
tutelle. Certains s’interrogent sur la pertinence du maintien d’outils
spécifiques aux tutelles, alors que les besoins en information sont
identiques, que l’activité de recherche soit menée à l’Université, au
Centre National de la Recherche Scientifique (CNRS), ou dans un
autre institut de recherche. Confrontés à ces difficultés, ils suggèrent
une organisation qui permette de consolider les informations au
niveau du laboratoire.
La recherche montre que la gouvernance de l’université et
l’administration centrale se sont plus attachées à élaborer les outils
destinés essentiellement au reporting qu’à mener une réflexion sur les
outils nécessaires pour la conduite des activités opérationnelles. Facteur
aggravant, cette orientation conduit la gouvernance de l’université et
l’administration centrale à solliciter une multitude d’informations
auprès des laboratoires de recherche, sans que ces derniers aient les
outils adaptés pour les opérations de reporting.

2.1.2 Vers un système de pilotage pour les laboratoires de


recherche ?
L’exemple du pilotage de la recherche à l’université confirme les
évolutions nécessaires du contrôle de gestion. En quelque sorte, les
directions de laboratoires ressentent la nécessité d’un fonds
informationnel partagé pour soutenir l’activité du laboratoire
(meilleure connaissance de l’activité des autres laboratoires et
partenaires pour l’obtention de contrats de recherche) et faciliter les
échanges de données avec l’université et les autres tutelles (contrats,
chercheurs, etc). Les laboratoires manquent aussi d’outils ou d’unité
de traitement de l’information adaptés à l’activité des laboratoires et
notamment pour faciliter la gestion des contrats. En d’autres termes,
les directions de laboratoires demandent des fonds informationnels
partagés et des outils pour faciliter leur activité, demande qui rejoint
les constats de Philippe Lorino. « La fonction de pilotage sera de plus
en plus distribuée et prise en charge directement par les acteurs
opérationnels eux-mêmes. Ceci conduit à réorienter les fonctions de
contrôle traditionnel vers des missions d’expertise, de soutien
méthodologique et pédagogique » (Lorino, 1995).
Si l’on se réfère aux définitions du contrôle de gestion (Anthony,
1965, 1988 ; Simons, 1994), le contrôle de gestion est à destination des
responsables ou managers, y compris les managers opérationnels.
Selon ces définitions, le contrôle de gestion est le processus par
lequel les responsables obtiennent l’assurance d’une réalisation
efficace ou efficience des objectifs de l’organisation (Anthony, 1965), le
processus par lequel les managers influencent d’autres membres pour
mettre en œuvre les stratégies de l’organisation (Anthony, 1988), ou
modifient certaines configurations des activités (Simons, 1994). Pour
Follett (1924), le contrôle est une activité du manager. Le contrôle de
gestion doit être au service du manager ; les pionniers (Fayol,
Anthony, Sloan) et plus récemment Kaplan avaient pour objectif de
proposer des solutions, voire des outils, en ayant comme centre de
réflexion les informations pertinentes à disposition des managers
(Chatelain-Ponroy, 2008).

2.2 Vers un ré encastrement du local et du


global dans le système de contrôle
La recherche intervention dans un pôle d’excellence rurale, montre un
exemple de tableau de bord développement durable (2.2.1), qui
contribue à développer une vision systémique pour l’ensemble des
parties prenantes (2.2.2).

2.2.1 Un exemple de tableau de bord développement durable


multi parties prenantes
Dans le cadre de l’appel à projet Pôle d’Excellence Rurale (PER)
portant sur la filière Bois, les porteurs s’engageaient à mettre en œuvre
une évaluation ex ante (définition des objectifs, impacts prévus et
indicateurs), et une évaluation ex post afin d’en déterminer les effets et
les conséquences de manière durable. Le PER a permis d’aménager
une plateforme bois pour valoriser la ressource bois locale sous-
exploitée depuis plusieurs décennies, et développer un réseau de
chaudière bois énergie. La recherche intervention (2008-2009) a
consisté à mettre en place un tableau de bord pour permettre
l’évaluation, mais aussi le suivi du projet au fil de l’eau (Eggrickx et
Fougeray, 2013).
La construction du tableau de bord s’est fait en partenariat avec les
différentes parties prenantes (politiques, opérateurs privés, Office
National des Forêts (ONF), propriétaires forestiers, etc.), en veillant
aux contraintes de praticabilité (accessibilité et coût de l’information,
utilité de l’indicateur). Pour certains indicateurs environnementaux
tels que les tonnes équivalent pétrole économisées (TEP) ou formation
de puits de carbone (Carbone stocké), le contrôleur de gestion a fait
appel à des experts de l’Institut National de la Recherche
Agronomique (INRA). Tous les indicateurs ont été validés par les
partenaires et le comité de pilotage. Des conventions ont été établies
avec chacun des partenaires fournisseur d’information, pour garantir
l’alimentation du tableau de bord sur les années suivantes.
Le tableau de bord comprend trois axes : économique, social et
environnemental. Sur l’axe économique, le tableau de bord permet de
voir l’évolution du chiffre d’affaires liée à la plateforme bois en valeur
et en quantité par type de bois (bois d’œuvre, bois bûche, bois
plaquette). De même, le tableau de bord permet de visualiser la
répartition annuelle de l’approvisionnement par le secteur public et les
propriétaires privés, le principe étant posé d’une répartition quasi
égalitaire pour la viabilité du projet. Sur l’axe social, le tableau de bord
donne une visibilité sur les emplois créés (directs et induits), le
nombre de personnes formées aux travaux forestiers, ainsi que la part
des entreprises locales travaillant avec la plateforme bois. Enfin sur
l’axe environnemental, le tableau de bord permet de vérifier si la forêt
est exploitée par l’opérateur privé de façon durable (surfaces des
coupes rases ou d’amélioration, pourcentage de bois labellisé) et
d’apprécier les impacts environnementaux : tonnes équivalents pétrole
économisées par l’utilisation du bois-énergie (bois bûche et bois
plaquette), et formation de « puits de carbone » (carbone stocké dans
le bois d’œuvre et bois de trituration). Le tableau suivant récapitule les
objectifs et indicateurs associés.
Tableau 1. Tableau de bord développement durable du
PER
Objectifs Indicateurs

Axe économique

Développer l’économie locale CA annuel : commercialisation de bois (€)


CA annuel : prestation de services (€)
Quantités vendues par an : (m3)

Maintenir des apports en bois Répartition annuelle de l’approvisionnement public- privé en %


suffisants

Développer la commercialisation Répartition annuelle en % : bois d’œuvre, bois trituration, bois


du bois d’œuvre (valeur ajoutée) bûche, bois plaquette

Axe social

Développer une politique d’emploi Nombre d’emplois directs créés


et d’insertion efficace au plan local Nombre d’emplois induits créés
Nombre de personnes formées aux travaux forestiers

Favoriser le développement des Nombre d’entrepreneurs de travaux forestiers locaux avec lesquels la
entreprises locales plateforme est en relation

Axe environnemental

Accroître la surface gérée Surface des coupes : rases ou amélioration


durablement Pourcentage de bois labellisé

Favoriser la formation de «puits Carbone stocké dans le bois d’œuvre et le bois de trituration (en
de carbone» tonnes)
Nombre de Tonnes Equivalent Pétrole (TEP) économisées (bois
bûche et plaquette)

Dans la construction du tableau de bord, deux principes sont posés :


la diffusion du tableau de bord à l’ensemble des parties prenantes, et
la discussion du tableau de bord en comité de pilotage. Ce tableau de
bord permet de voir non seulement les impacts économiques,
environnementaux et sociétaux, mais aussi le respect des engagements
par les différentes parties prenantes, et de nourrir les échanges en cas
de non-respect. À titre d’exemple, la présentation du premier tableau
de bord a provoqué un sérieux rappel à l’ordre de l’opérateur privé par
l’ONF, au point de solliciter par courrier la structure de coordination
du PER. Ce tableau de bord est donc plus qu’un outil d’aide à la
décision et d’évaluation ; c’est aussi un outil de contrôle des
comportements des différentes parties prenantes, de contrôle du
respect des engagements : conventions d’approvisionnements et
contrats de partenariats. Autre point essentiel, le tableau de bord
regroupe les impacts économiques, sociaux et environnementaux des
différentes actions, dont certaines sont complémentaires. À titre
d’exemple, les tonnes équivalent pétrole (TEP) liées au projet ne sont
pas calculées chez l’opérateur privé, producteur de bois plaquette,
mais dans les réseaux de chaudière bois énergie utilisant le bois
plaquette. De ce fait, près de 85 % des TEP ne sont pas identifiées chez
l’opérateur privé, alors qu’il est indéniable que les réseaux de
chaudière bois énergie ne se seraient pas développés si la ressource
n’existait pas à proximité.

2.2.2 Un tableau de bord qui contribue à une vision


systémique
Ce tableau de bord développement durable dans un pôle d’excellence
rurale constitue un exemple singulier de dispositif de gestion qui
contribue à développer une vision systémique, qui englobe la totalité
des éléments du système (économique, social, environnemental) ainsi
que les interactions et interdépendances entre les différentes parties
prenantes de la filière bois. Ces différentes parties prenantes ont des
objectifs très différents, mais toutes savent qu’elles ne peuvent
atteindre ces objectifs que par une action en commun. Les
propriétaires forestiers publics et privés sont surtout attachés à la
valorisation et préservation de la forêt sur le territoire, l’opérateur
privé (exploitant de la plateforme bois) plutôt focalisé sur la rentabilité
à court et moyen terme, les politiques et citoyens attachés à la
préservation de la forêt et au développement des emplois sur le
territoire.
Si ce tableau de bord met en perspective les résultats au regard des
objectifs des diverses parties prenantes, cela ne suffit pas en soi à faire
converger les comportements. Deux points ont été essentiels : 1. la
participation et validation des différents indicateurs par les parties
prenantes, ce qui renforce la légitimité du tableau de bord, 2. le
principe de diffusion et discussion du tableau de bord en comité de
pilotage. La visibilité sur les résultats, le fait que l’ensemble des parties
prenantes anticipe la possibilité donnée à toutes les parties prenantes
de connaître les résultats et d’en discuter contribue à encastrer
l’ensemble des parties prenantes dans un réseau de contraintes. En
quelque sorte, ce tableau de bord constitue un dispositif de
gouvernance de la filière bois sur un territoire.
Les recherches sur l’université et le pôle d’excellence rurale
appellent à un contrôle de gestion qui fait sens, réencastré dans
l’organisation pour soutenir l’activité opérationnelle : la recherche à
l’université, ou l’activité des différentes parties prenantes du PER
même si ces dernières ont des objectifs très différents. Plus
fondamentalement, la recherche sur le PER bois montre un rôle
essentiel du contrôle de gestion : soutenir la construction d’une vision
systémique qui permet à l’ensemble des parties prenantes de se
représenter leurs interdépendances et les résultats des actions
conjointes, même s’ils ont des objectifs différenciés. En d’autres
termes, les managers opérationnels ont surtout besoin pour piloter
leur activité « de « trucs frustres » pour penser compliqué à tout
instant au lieu de « pensées compliquées mises en conserve » pour ne
plus penser ou pour penser le moins possible face à l’action » (Lorino,
1995 : p. 117). Le rôle du contrôle de gestion n’est-il pas justement
d’informer pour faciliter les représentations ? Sauf à considérer que le
contrôle de gestion n’est destiné qu’à informer le sommet stratégique,
tendance de plus en plus forte du contrôle de gestion depuis une
dizaine d’années.

Conclusion
Pour Henri Bouquin (2007), l’absence de cadre conceptuel du contrôle
de gestion est propice à la prolifération d’idéologies managériales. Si
l’incertitude et la complexité justifient l’existence du contrôle de
gestion, les pratiques du contrôle de gestion tendent à réduire de façon
excessive l’incertitude et la complexité par les multiples découpages
vertical et horizontal. En quelque sorte, les pratiques du contrôle de
gestion s’évertuent à supprimer ce qui justifie l’existence même du
contrôle de gestion : l’incertitude et la complexité.
Afin de provoquer le questionnement sur le contrôle de gestion, nous
avons mis en perspective les postulats qui fondent des certitudes,
indispensables pour développer les pratiques de gestion, mais
dangereux lorsqu’ils conduisent à occulter des questions fondamentales.
Si le contrôle de gestion est chargé de décliner les objectifs élaborés au
sommet stratégique, ne pas poser la question « quel est le bon
objectif ? » revient à occulter le phénomène de financiarisation du
contrôle de gestion, à exclure la question de pertinence des objectifs
élaborés par un PDG ou comité de direction ne possédant pas une
connaissance intime de l’organisation et agissant au nom de la finance,
à occulter le caractère nécessairement ambigu des objectifs. Cette
absence de questionnement permet au contrôleur de gestion de faire
illusion avec des certitudes, de gagner en légitimité apparente pour
justifier la prise de pouvoir sur les managers opérationnels, voire les
discipliner et maintenir une certaine distance avec ces mêmes
managers.
De façon similaire, les pratiques du contrôle de gestion partent du
postulat de centres de responsabilités dits autonomes et d’une
normalisation des comportements gage d’efficacité pour l’atteinte des
objectifs. Enfin, les pratiques du contrôle de gestion s’appuient sur des
outils et techniques fortement médiatisés pour leur caractère soi-
disant innovant, des techniques doublement légitimes du fait de leur
conception par des consultants (à l’extérieur de l’organisation) et de
leur adoption par des organisations leaders. Si ces postulats et modes
managériales permettent de renforcer la légitimité des pratiques du
contrôle de gestion et indirectement le contrôleur de gestion, il n’en
reste pas moins que les fondements demeurent fragiles. Ils reposent
sur des construits fictifs tels que le principe d’autonomie des centres
de responsabilité, le principe de normalisation des comportements
pour garantir l’atteinte des objectifs, le principe de la nécessaire
efficacité des techniques et outils adoptés dans d’autres organisations.
Chemin faisant, le contrôle de gestion oublie l’essence même du
contrôle de gestion : la gestion de l’incertitude et la complexité plutôt
que leur occultation, le rôle de traduction du sommet stratégique vers
l’opérationnel et réciproquement, et l’indéniable complémentarité entre
le contrôle de gestion et le management opérationnel. Le risque de non-
sens du contrôle de gestion est d’autant plus élevé que le contrôleur de
gestion est de plus en plus détaché des managers opérationnels, avec un
contrôle à distance exercé au siège du groupe à travers les multiples
outils et techniques. En d’autres termes, faute de prise de conscience
des impensés et du manque de cadre conceptuel, le contrôle de gestion
peut évoluer vers un modèle de contrôle automatisé de type « drone »
aux mains de la finance avec les inévitables dégâts collatéraux et une
incapacité à détecter les leurres. Un pilotage de type « drone » conçu
pour des machines chargées d’atteindre des cibles définies, et non pour
une organisation fonctionnant avec de multiples acteurs, soumise aux
fortes turbulences de l’environnement !

Références bibliographiques
Anthony R.N. (1965). Planning and control systems : A framework
for analysis. Boston, Harvard University Press.
Anthony R.N. (1988). The management control function. Boston,
Harvard Business School Press.
Bessire D. (1995). Le contrôleur de gestion : acteur stratégique et
vecteur de changement. Revue Française de Gestion, novembre-
décembre, 39-45.
Bollecker M. & Niglis P. (2009). L’adhésion des responsables
opérationnels aux systèmes de contrôle : une étude du rôle des
contrôleurs de gestion. Comptabilité - Contrôle - Audit, vol. 1, 133-
158.
Bouquin H. (1986). Le Contrôle de gestion, 4e édition. PUF, Paris,
1998.
Bouquin H. (2007). Les Fondements du contrôle de gestion. Paris,
PUF.
Bouquin H. & Fiol M. (2007). Le contrôle de gestion : repères perdus,
espaces à retrouver. In 28e Congrès de l’AFC, Poitiers.
Boussard V. & Maugeri S. (2003). Du politique dans les organisations :
sociologies des dispositifs de gestion. Paris, L’Harmattan.
Bower J.L. (1983). The Two Faces of Management : an American
approach to leadership in business and politics. Boston, Houghton
Mifflin Company.
Chatelain-Ponroy S. (2008). Le contrôle de gestion dans des
bureaucraties professionnelles non lucratives. Une proposition de
modélisation. Habilitation à Diriger les Recherches. Université Paris
Dauphine.
Covaleski M., Dirsmith M.W., Heian J. & Samuel, S. (1998). The
calculated and the avowed : Techniques of discipline and struggles
over identity in big 6 accounting firms. Administrative Science
Quarterly, vol. 43, 293–327
Dermer J.-D. (1988). Control and organizational order. Accounting,
Organizations and Society, vol. 13, (1), 25-36.
DiMaggio P.J. & Powell W.W. (1983). The iron cage revisited :
Institutional isomorphism and collective rationality in
organizational fields. American Sociological Review, vol. 48, pp.
147–160.
Dumez H. (2013). Repenser l’entreprise et les théories qui l’analysent :
à propos de Firm Commitment de Colin Mayer. Le Libellio, vol. 9
(2), 35-47.
Eggrickx A. & Fougeray E. (2013). Le cas singulier d’un Pôle
d’Excellence Rurale Bois :une logique de développement durable
transcendant les porteurs de projets initiaux ?. 2e Congrès CSEAR,
Montpellier.
Ezzamel M., Willmott H. & Worthington F. (2008). Manufacturing
shareholder value : the role of accounting in organizational
transformation. Accounting, Organizations and Society, vol. 33,
pp. 107-140.
Fama E.F. & Jensen M.C. (1983). Separation of Ownership and
Control. Journal of Law and Economics, vol. 26, p. 301-326.
Follett M.P. (1924). Creative experience. New York, Longmans, Green
and Company.
Gauche K. (2013). L’Appropriation des dispositifs de pilotage. Le cas
de la recherche à l’université. Thèse de doctorat en sciences de
gestion, université de Montpellier II.
Girin J. (1983). Les machines de gestion. In Berry M. Le Rôle des
outils de gestion dans l’évolution des systèmes sociaux complexes,
Rapport pour le Ministère de la recherche et de la technologie.
Gomez P.Y. (2001). La République des actionnaires : Le
gouvernement des entreprises, entre démocratie et démagogie.
Paris, Syros.
Hatchuel A. & Weil B. (1992). L’Expert et le système. Paris,
Economica.
Hofstede, G. (1978). The poverty of management control philosophy.
Academy of Management Review, 3 (3), p. 450-461
Hofstede G. (1981). Management control of public and not-for-profit
activities. Accounting, Organization and Society, 6 (3), pp. 193-211.
Jensen M.C. & Meckling W.H. (1976). Theory of the Firm : Managerial
Behavior, Agency Cost, and Ownership Structure. Journal of
Financial Economics, vol. 3, pp. 305-360.
Lambert C. & Pezet E. (2006). Discipliner les autres et agir sur soi : la
double vie du contrôleur de gestion. 27e Congrès AFC, Tunis.
Lawrence P. & Lorsch J. (1989). Adapter les structures de l’entreprise.
Paris, Les Éditions d’Organisation.
Le Moigne J.L. (1996). Les deux sources de la performance des
organisations : incohérence du contrôle, impertinence de
l’intelligence. In Cohendet P., Jacot J.-H. & Lorino P. Cohérence,
Pertinence et Évaluation. Paris, Economica.
Lorino P. (1995). Comptes et récits de la performance. Essai sur le
pilotage de l’entreprise. Paris, Les Éditions d’Organisation.
March J.-G. (1978). Bounded rationality, ambiguity, and the
engineering of choice. Bell Journal of Economics, 9 (2), pp. 587-608.
Meyer J.W. & Rowan B. (1977). Institutionalized Organizations :
Formal Structure as Myth and Ceremony. American Journal of
Sociology, 83 (2), pp. 340-363.
Miller P & O’Leary T. (1987). Accounting and the construction of the
governable person. Accounting, Organisations and Society, vol. 12
(3), pp. 235-265.
Mintzberg, H. (1994). Grandeur et décadence de la planification
stratégique. Paris, Dunod.
Moisdon J.-C. (1997). Du mode d’existence des outils de gestion. Paris,
Seli Arslan.
Morales J. & Pezet A. (2010). Les contrôleurs de gestion,
« médiateurs » de la financiarisation. Étude ethnographique d’une
entreprise de l’industrie aéronautique. Comptabilité - Contrôle -
Audit, vol. 1, pp. 101-132.
Simons, R. (1994). Levers of Control : How Managers Use
Innovative Control Systems to Drive Strategic Renewal. Harvard
Business Press.
Sfez L. (1992). Critique de la décision. Paris, Presses de la Fondation
Nationale des Sciences Politiques.
Chapitre 8

Le contrôle de gestion
aujourd’hui, ce qu’en disent les
praticiens

MARC BOLLECKER
GÉRALD NARO

Pour les chercheurs du domaine, comprendre le contrôle de gestion


d’aujourd’hui suppose non seulement d’observer les pratiques dans les
organisations et, dans certains cas, d’y participer, voire de les modifier
dans le cadre d’une recherche intervention à visée transformatrice,
mais aussi de recueillir et de saisir l’avis des praticiens. Ce chapitre
constitue un recueil de témoignages structurés autour des questions
qui sont à l’origine de ce livre : les débats et controverses actuels ainsi
que les nouvelles perspectives. Même s’ils nous apportent des résultats
concordants sur les évolutions marquantes du contrôle de gestion au
cours des dix dernières années, sur ses difficultés actuelles, sur les
enjeux et les défis, ce recueil se veut modeste de par la quantité de
témoignages recueillis et de par sa méthodologie. Vingt professionnels
du contrôle de gestion de profils particulièrement hétérogènes et
d’organisations très différentes ont été interrogés (cf. annexe 1). Leurs
verbatim sont exposés dans les trois premières parties de ce chapitre.
Par ailleurs, le contrôle étant avant tout une pratique encastrée dans
l’activité des managers, le point de vue des décideurs nous semble
incontournable pour saisir les enjeux actuels. La quatrième partie est
ainsi consacrée à un entretien avec le PDG de Microsoft France,
M. Alain Crozier.
1. Un ancrage plus fort de la fonction
et une amélioration des systèmes
d’information appréciés par les
contrôleurs
Une des évolutions les plus marquantes ces dernières années, dont
témoignent les professionnels interrogés, est probablement le
renforcement de la fonction pour le pilotage des organisations privées
ou publiques. Cette évolution a favorisé ou est une conséquence (?)
d’une sensibilisation accrue des acteurs à la culture managériale.

Parmi les évolutions marquantes du contrôle de gestion


au cours des dix dernières années, que retenez-vous ?
« Le renforcement du poids de la Finance (tant en volume qu’en
management et leadership) au sein de l’entreprise » (RCGO –
E).
« Beaucoup de choix et de décisions se fondent sur des travaux/
études menés par le contrôle de gestion » (RF- G).
« L’évolution du contexte réglementaire (T2A et Nouvelle
Gouvernance) a accéléré très fortement le développement et la
montée en compétence et en puissance du Contrôle de Gestion au
sein des Hôpitaux » (RDCGI – S).
« L’amélioration de la culture économique de tous les acteurs de
l’usine » (CG – A).
« La sensibilisation des personnes à la gestion » (CG – P).
« Dans le public, une sensibilisation croissante aux rôles et
apports du Contrôle de gestion… et la volonté de placer le
Contrôle de gestion au cœur du pilotage des projets, afin de
développer et diffuser une culture de gestion. » (RFCG – D).
Le renforcement de la fonction se caractérise par une orientation
souvent qualifiée de stratégique. Qu’il s’agisse d’aider les managers à
optimiser les marges, à limiter la prise de risque, ou à anticiper de
manière fiable le futur, l’orientation purement comptable évoluerait
vers une forte dimension perçue comme étant stratégique. L’évolution
concerne à la fois la fonction contrôle de gestion et les activités des
contrôleurs dont certains sont devenus membres du comité
stratégique.

Parmi les évolutions marquantes du contrôle de gestion


au cours des dix dernières années, que retenez-vous ?
« Le financier était plutôt le « comptable » avant. Il est
aujourd’hui partie prenante dans les décisions avec une vision
prospective et plus stratégique » (DCG – B).
« La production d’informations pertinentes et fiables permet
d’aider les décideurs dans leurs choix stratégiques et de
minimiser la prise de risque. Il est un véritable outil
d’optimisation de la marge » (RFCG – D).
« Le contrôleur de gestion se situe de plus en plus au cœur de la
stratégie de l’entreprise » (RP – J)
« Le contrôle de gestion fait désormais partie des instances
médico-économiques qui préparent les décisions stratégiques »
(RDCGI – S).
« L’évolution du contrôle de gestion vers un rôle de plus en plus
actif dans la prise de décisions stratégiques des responsables
(par l’analyse des résultats et par l’anticipation la plus fiable
possible des perspectives d‘avenir) » (CG – R).

Parallèlement, la plus forte présence dans les organisations est


également constatée au niveau opérationnel. La décentralisation de la
fonction, qu’accepteraient plus facilement qu’avant les managers, a
pour conséquence une plus grande ouverture du service et des
contrôleurs de gestion vers les problématiques de terrain. Ces derniers
disposeraient alors d’une meilleure connaissance des métiers de
l’entreprise et d’une plus grande capacité à répondre rapidement aux
demandes d’informations opérationnelles.

Parmi les évolutions marquantes du contrôle de gestion


au cours des dix dernières années, que retenez-vous ?
« Les commerciaux demandent des budgets à chaque affaire au
contrôle de gestion ce qui n’a jamais été le cas auparavant »
(RCG – F).
« Une dimension opérationnelle et transverse renforcée vs la
seule technicité requise précédemment » (RCGO – E).
« Je pense qu’il y a également une forme de décentralisation de
la fonction. Aujourd’hui le contrôle de gestion n’est plus l’affaire
d’un service dédié, mais doit faire partie des préoccupations du
plus grand nombre au sein de l’organisation. » (RF- G).
« Une fonction de plus en plus proche du terrain (connaissance
du métier et des problématiques d’exploitation) » (DCGR – K).
« Le contrôle de gestion me semble plus dans le « rythme » de
l’activité opérationnelle : temps de mise à disposition de l’info
plus court » (DFCG – O).

Les évolutions dont témoignent les praticiens interrogés ne sont pas


unidimensionnelles (corporate management vs business
management), privilégiant un seul type de client interne. C’est
l’articulation, d’une part entre les niveaux stratégique et opérationnel,
d’autre part entre les différents métiers, qui caractériserait les
évolutions des dernières années. La mise en œuvre d’outils de gestion
à vocation intégratrice aurait eu pour effet de faciliter l’interface entre
les différentes fonctions de l’organisation.
Parmi les évolutions marquantes du contrôle de gestion
au cours des dix dernières années, que retenez-vous ?
« L’aide au pilotage de l’établissement en étant au cœur même
des préoccupations des opérationnels (beaucoup de « terrain »)
tout en étant positionnée à un niveau dans l’organisation qui lui
donne accès aux décideurs les plus hauts, DG et CME »
(RDCGI – S).
« La place du Contrôleur de gestion dans l’entreprise : une place
centrale dans l’organisation permettant de faciliter les
interactions et la communication entre les différents acteurs »
(RFCG-D).
« Les évolutions les plus positives sont celles qui ont permis un
décloisonnement des métiers dans l’entreprise et une interaction
entre les hommes de plus en plus poussée. Des techniques comme
la Balance Scorecard ou la chaine de valeur ont mis en lumière
les rouages qui contribuent au sein d’une organisation à la
création de valeur » (CG – Q).
« Le business partenariat : Être partie prenante du business (de
l’élaboration de la stratégie au business quotidien). Être force de
proposition et conseil auprès des directions générales et
directions opérationnelles. » (DCG – I).

Cette présence multi-niveaux et multifonctions du contrôle de


gestion confère aux animateurs de la fonction une légitimité plus forte
auprès des managers. L’image des professionnels du contrôle se serait
considérablement améliorée dans les organisations sollicitées : de
producteurs de chiffres ils seraient davantage considérés comme des
animateurs proactifs.

Quelles évolutions vous semblent positives ?


« Le regard de l’entreprise change sur la fonction : Les
responsables de service sont demandeurs d’analyse et ne voient
plus la fonction comme du « flicage » (RAFCG – C).
« L’image et la place du contrôleur de gestion au sein de
l’entreprise. D’un « second » rôle jouant au « flic », le métier a
évolué vers un rôle essentiel dans l’organisation avec une
certaine légitimité » (RF- G).
« Le contrôleur de gestion est désormais vu comme
« l’animateur de la performance » dans notre groupe »
(DCGR – K).
« Ses missions sont plus claires alors que le métier était
relativement peu connu et son périmètre peu défini il y a 20
ans » (DCG – B).
« Le contrôleur de gestion n’est plus statique et n’est plus
seulement assimilé à la production de chiffres : la fonction
devient dynamique et influente. » (DCGR – K).

C’est bien cet élargissement du périmètre des contrôleurs qui est


devenu la source de satisfaction majeure. L’animation des
performances en serait améliorée par une meilleure compréhension
des mécanismes qui y contribuent, un meilleur accès à l’information,
la mise en place d’outils communs et la participation à des projets
transversaux. Il s’agit donc d’une plus grande implication dans le
pilotage leur permettant d’être plus écoutés voire d’être plus influent
dans les décisions.

Dans votre métier de contrôleur de gestion, qu’est-ce


qui vous apporte le plus de satisfaction ?
« Animation, management, contribution aux performances de
l’entreprise, l’optimisation du fonctionnement, la vision à long
terme que je peux apporter, l’approche des métiers permettant
d’être impliqué dans la vie de l’entreprise » (DCG – B).
« La mise en place d’outils partagés et compris par tous
permettant un pilotage fin de l’activité et la transversalité des
actions dans un contexte multidimensionnel et varié » (RFCG –
D).
« La dimension opérationnelle et le partenariat avec nos
interlocuteurs => projets transverses, support incontournable
du contrôle de gestion au cœur de toutes les décisions
opérationnelles ». (RCGO – E).
« La prise en compte de nos indicateurs et de nos avis
financiers ». (RCG – F).
« Le fait que le contrôleur de gestion soit au cœur des
problématiques de l’entreprise et soit une fonction « multi-
facettes » (entre commerce/exploitation/technique/…) Et
également notre rôle d’aide à la décision (influence) ». (DCGR –
K).

Une seconde évolution, qui semble avoir marqué les praticiens


interrogés, est l’évolution des systèmes d’information, en particulier le
développement des progiciels de gestion intégrée et des entrepôts de
données. L’automatisation et l’intégration des données, la
standardisation et l’uniformisation, la rapidité et la facilité d’accès, la
transparence et la démocratisation de l’information, le gain de temps
et la focalisation accrue sur les analyses sont mis en avant par nos
différents interlocuteurs.

Parmi les évolutions marquantes du contrôle de gestion


au cours des dix dernières années, que retenez-vous ?
« Les moyens mis en œuvre dans le développement des systèmes
d’information » (RFCG–D).
« La mise en place d’ERP puissants (SAP) et d’outils décisionnels
associés (Oracle par ex.) » (RP–J).
« Des outils (hors excel) de plus en plus intégrés et rapidement
exploitables » (RCGO–E).
« La plus marquante à mon sens, est l’arrivée de l’ERP. Cet outil
a très nettement facilité l’accès aux données qui permettent aux
contrôleurs de gestion d’effectuer les différentes analyses. Le
côté intégré permet également une transparence totale de
l’activité même de l’entreprise ». (RF – G).
« Automatisation des données (ERP, outil de Consolidation tel
Magnitude, BI) permettant l’apport de valeur ajoutée (analyses,
faire parler les chiffres) par réduction des temps de génération
de chiffres et un Reporting unifiés. » (DCG - I).
« Les outils du contrôle de gestion sont de plus en plus intégrés
au S.I. de l’entreprise et les méthodes de travail
« s’industrialisent » (DCGR – K).
« L’amélioration des outils informatiques (démocratisation,
automatisation…) » (CG – N).
« Les progrès des logiciels et des ordinateurs ont entraîné une
puissance d’analyse accrue et surtout une réactivité plus
importante » (DFCG - O).

2. Une évolution fragile et une


surabondance de données à produire
Ces évolutions sont cependant encore jugées insuffisantes. Elles ne
sont pas partagées par tous nos interlocuteurs et d’ailleurs relativisées
par certains de ceux qui les ont exprimées. C’est le cas de la place du
contrôle de gestion dans l’entreprise, qui se heurte encore à une
hostilité, expliquée par l’absence d’information et de pédagogie sur sa
finalité. L’image du contrôle de gestion n’aurait pas autant évolué qu’il
n’y paraît dans toutes les sphères organisationnelles. Elle resterait
encore trop souvent ancrée dans une orientation comptable et de
surveillance.

Qu’est-ce qui, pour vous, constitue une source d’insatisfaction ?


« La fermeture d’esprit ou le manque de sensibilité de certains
acteurs vis-à-vis de la culture de gestion dans le public »
(RFCG – D).
« Question de la légitimité du contrôleur de gestion en tant
« qu’animateur » des autres fonctions de l’entreprise ? Ce
nouveau rôle n’est parfois pas clair dans l’esprit des autres
collaborateurs. La mauvaise image persistante du contrôleur de
gestion vu comme un « comptable » ou comme un simple
« contrôleur » au sens strict du terme ». (DCGR – K).
« Certains opérationnels ont une image négative du CDG car ils
pensent qu’on « inspecte » ou « contrôle » dans le sens de
« révéler certains écarts dérangeants » ou « sanctions »…. »
(CG – L).
« J’ai le sentiment que le contrôle de gestion a de plus en plus
tendance à n’être un service d’appui qu’en « façade » et qu’il
demeure fondamentalement un outil de contrôle de la bonne
exécution d’un objectif » (RCG – H).
« L’idée d’être de temps en temps perçu comme des contrôleurs »
(RCG - F).
« Le contrôle est encore vu comme un « empêcheur de tourner
en rond » et non pas comme un partenaire. Les opérationnels
ont parfois un sentiment d’ingérence dans leurs affaires ».
(DCG – B).
« L’étiquette « financier » reste très forte – alors que le
périmètre du contrôle de gestion est plus large » (RCG – T).
C’est aussi l’horizon temporel sur lequel agissent les contrôleurs qui
semblent être source d’insatisfaction, la dimension historique étant
encore trop présente dans la fonction à défaut d’être davantage
orientée vers le prospectif.

Qu’est-ce qui, pour vous, constitue une source


d’insatisfaction ?
« On mélange encore aujourd’hui comptabilité (rétroviseur) et
pilotage (anticipation et propositions pour faire évoluer
favorablement les choses tant sur le plan financier
qu’opérationnel » (DCG – B).
« Nous devenons contrôleur du passé et de moins en moins une
force d’appui pour construire le futur » (RCG – H).

Ces insatisfactions contredisent les témoignages précédents sur la


présence et l’image de la fonction. Une première explication réside
dans la maturité de déploiement du contrôle de gestion. Plus centrée
sur la comptabilité financière dans le cadre de sa création, la fonction
se développe progressivement vers les dimensions stratégique et
opérationnelle. Certaines entreprises interrogées pouvant être plus
avancées que d’autres dans le déploiement du contrôle, la perception
qu’en ont les acteurs peut alors diverger fortement.

Quelles évolutions jugez-vous négatives ?


« Dans les communautés, une fonction naissante mais sous-
calibrée par rapport à la taille de la structure »… « Le manque
d’adéquation entre les compétences développées et les moyens
sous-évalués mis en œuvre pour le développement des systèmes
d’informations » (RFCG – D).
Les turbulences que traversent les entreprises au moins depuis
2008 peuvent constituer une seconde explication. Elles peuvent avoir
tendance à conduire les directions à « reprendre la main » sur la
fonction contrôle et donc à réduire son spectre. Des demandes accrues
d’informations de plus en plus précises sont formulées au niveau
central sur des dimensions réduites de la performance.

Quelles évolutions jugez-vous négatives ?


« Le contrôle de gestion semble toujours tourné vers une
recherche d’efficience, d’efficacité, et de réduction au maximum
de la masse salariale par la chasse aux heures « non
productives ». L’aspect « coût du travail », tel qu’on en parle
aujourd’hui dans les médias, est devenu un peu le cœur du
métier, au détriment – je trouve – d’aspects plus qualitatifs,
organisationnels, etc…
Le spectre des missions et tâches demeure vaste, mais au final
une thématique (le coût du travail) cannibalise toutes les
autres » (RCG – H).
« Le fait de n’être pas suffisamment opérationnel » (CG – N).

Une troisième explication au sentiment d’une évolution


contradictoire à celle explicitée dans la première partie et qui ressort
clairement des témoignages, réside dans l’inflation d’informations
produites. Le contrôle de gestion reconnu comme une fonction d’appui
à la décision, des besoins accrus en informations apparaissent pour
appréhender les aléas de l’activité notamment dans le système
budgétaire. Les informations produites deviendraient de plus en plus
techniques dans certaines organisations, plus précises et détaillées
pour la réalisation d’analyses très fines.

Parmi les évolutions marquantes du contrôle de gestion


au cours des dix dernières années, que retenez-vous ?
« Nous sommes passés de 10 closings et 2 forecasts/an il y a 10
ans à 12 closings (avec 2 versions chaque fois : interim et finale)
et 14 forecasts versus la volatilité du marché touristique ce qui a
permis une anticipation et une agilité propres à résister à la
crise et avoir « le coup d’avance » indispensable… les Rolling
Forecasts deviennent vite des mini-budgets quasi complets »
(DCG – I).
« La modification des prévisions budgétaires (pilotage par
reprévisions plus nombreuses) » (RP – J).
« Une technicité et une finesse d’analyse toujours plus
prépondérantes et poussées dans mon domaine d’activité.
Aujourd’hui, en tant que contrôleur de gestion, je ne peux pas ou
plus seulement « mettre en forme » la comptabilité analytique
pour déterminer le résultat complet de tel ou tel centre de coût,
activité, etc…, et déterminer des coûts de revient, je dois
maîtriser des notions aussi diverses que l’effet de noria, le GVT
(glissement, vieillesse, technicité), etc… » (RCG – H).
« Le pilotage plus précis du prix de revient de fabrication des
projets, de leur lancement jusqu’à leur démarrage en
production, tout en simplifiant leur mode de calcul » (CG – A).
« L’accélération des rythmes et la suprématie du court terme ont
fait évoluer le métier vers le mode réactif au détriment du
prospectif et de l’analyse. Il nous est demandé de moins en
moins de plans à 5 ans et de plus en plus de révisions de
« Forecast » au trimestre mais aussi au mois. La prévision
prend le pas sur le reste et même si l’analyse est nécessaire pour
cette prévision elle ne peut plus être réalisée de façon sereine et
pérenne mais beaucoup plus dans la précipitation et
l’explication des écarts » (CG – Q).

Le contrôle de gestion serait-il alors victime de son succès ? Plus


d’informations seraient à produire à tous les niveaux, de manière
détaillée, lesquelles sont d’ailleurs parfois jugées inutiles.
Globalement, l’utilité de la fonction et du métier ne serait pas
contestée. C’est davantage une orientation trop forte vers la
production de données qui semblerait nuire à la dimension analyse et
conseil, c’est-à-dire à la valeur ajoutée de la fonction.

Quelles évolutions jugez-vous négatives ?


« Trop d’info tue l’info : une recrudescence des demandes de
chiffres tous azimuts préservant insuffisamment le temps de
l’analyse, la prise de hauteur et de recul… Cette facilité
d’obtention des chiffres a généré des demandes de chiffres par
tous les services dont certains ne sont pas en capacité d’en tirer
l’analyse adéquate et peuvent communiquer à tort des données
erronées » (RCGO – E).
« L’augmentation de la volumétrie du reporting (toujours plus
de détail, notamment la mise en place d’un reporting simplifié à
fréquence hebdomadaire, en plus du reporting mensuel)… La
recherche d’éléments d’explications trop détaillées (« sur-
reporting ») au détriment de la recherche de solutions technico-
économiques d’amélioration » (CG – A).
« Trop d’informations nuit à l’information. Il ne faut pas que la
production de chiffres se fasse au détriment de leur analyse »
(DFCG – O).
« Produire des chiffres ou des documents non utilisés (lié
généralement à un mauvais cahier des charges au départ) »
(RP – J).
« Trop de Powerpoint et pas assez de préconisations concrètes
permettant d’influer sur les décisions et les performances de
l’entreprise » (DCG – B).
« Être trop focalisé sur la production de chiffres et pas assez
dans l’analyse » (RCG – H).
« D’être donc un peu trop « le nez dans le guidon » et de
manquer de temps pour analyser les résultats et les pistes de
progrès avec le recul nécessaire » (CG – R).
« Trop de chiffres, manque d’harmonisation des méthodes et
outils qui rendent l’appropriation » difficile. (CG –P).

La réactivité recherchée pour appréhender les aléas de l’activité est


finalement contre-productive : elle incite à l’inflation de données
provenant du contrôle de gestion, et conduit parfois à des erreurs, de
la lourdeur, une lenteur et une rigidité dans la prise de décision.

Quelles évolutions jugez-vous négatives ?


« Budgets et workflows qui sont parfois des outils lourds qui
laissent moins de place à la souplesse de décisions. Les décideurs
perdent parfois l’autonomie de moyens et cela déresponsabilise
des managers, voire des tops managers ». (DCG – B).
« Je constate régulièrement auprès d’autres contrôleurs de
gestion ce sentiment : l’immédiateté prend le pas sur le moyen
terme ». (RCG – H).
« La facilité d’obtention des chiffres a généré des demandes de
chiffres par tous les services dont certains ne sont pas en
capacité d’en tirer l’analyse adéquate et peuvent communiquer à
tort des données erronées » (RCGO – E).

Ces sources d’insatisfaction permettent également de pointer du


doigt les insuffisances actuelles de certains systèmes d’information. En
réalité, dans certains cas, ils n’ont pas allégé et transformé l’activité du
contrôle de gestion, les demandes d’informations devenant plus
nombreuses avec le déploiement des outils informatiques.
Qu’est-ce qui, pour vous, constitue une source d’insatisfaction ?
« L’intégration insuffisante des outils informatiques est à
l’origine d’une « non-valeur ajoutée » dans notre métier (report
manuel d’informations d’un outil vers un autre par exemple) »
(CG – A).
« Reporting : l’ère du zéro papier est lente à venir. Les reporting
en accès permanent à l’écran (BI) n’ont pas encore pris le pas
sur les reporting mensuels figés et distribués en pdf et bien
souvent imprimés ». (DCG – I).
« Le développement des ERP et des logiciels de gestion annexes,
a entraîné une multiplication des demandes diverses et variées
de reporting ainsi qu’une complexification des processus
budgétaires, qui sont de plus en plus chronophages » (CG – R).

D’autres problèmes classiques en contrôle de gestion sont soulevés


par les praticiens interrogés : la manipulation budgétaire, l’usage de
l’information pour la sanction, le rejet des responsabilités, la difficulté
à adapter la fonction aux services publics.

Qu’est-ce qui, pour vous, constitue une source


d’insatisfaction ?
« Le processus budget, quand il reste avec une forte culture du
bottom-up et quand le système d’incitation du management est
fondé dessus, est perturbé par des jeux naturels de sous-
estimation des revenus et surestimation des ressources. Cela
amène à opposer bénéfice personnel versus bénéfice de la
société » (DCG – I).
« Les autres fonctions ont parfois tendances à faire supporter au
contrôle de gestion la responsabilité de leurs prévisions ou de la
non-atteinte d’un objectif. Il faut très souvent recadrer les
personnes sur leurs responsabilités respectives » (DCGR – K).
« Dérive dans l’utilisation des résultats fournis par le Contrôle
de gestion, débouchant parfois sur des sanctions répressives ou
sur la fixation d’objectifs toujours plus ambitieux… Les limites de
la culture du résultat dans le public : Le « jusqu’-au-boutisme »
de la consommation des crédits pour obtenir les meilleurs taux
de réalisation budgétaire, une logique inversée à celle du
privé où les économies priment sur la dépense » (RFCG – D).

3. À la recherche d’une proactivité et


d’une articulation accrue entre niveaux
Les défis relevés dans les témoignages s’inscrivent naturellement dans
la continuité des évolutions constatées ces dernières années ainsi que
dans les sources d’insatisfaction. Le positionnement de la fonction reste
encore à déterminer. Certains envisagent un ancrage stratégique fort,
d’autres un développement du lien entre les niveaux stratégique et
opérationnel, d’autres encore une présence dans la gouvernance des
organisations.

Quels sont les grands « défis » actuels du contrôle de


gestion ?
« Asseoir la fonction de Contrôle de gestion dans la prise de
décision à la fois stratégique et opérationnelle… Inclure avec
plus de ferveur le Contrôle de gestion dans les modes de
gouvernance et de management » (RFCG – D).
« Une implication renforcée dans l’éclairage de la stratégie, un
rôle accru auprès des acteurs de terrain à l’hôpital » (RDCGI –
S).
« Le grand défi est le rapprochement entre le contrôle de gestion
(qui est en recherche permanente de gains de productivité, de
réduction de coûts, d’optimisation de processus,….) les
ressources humaines (l’homme sans lequel rien n’est possible) et
l’actionnaire (sans lequel rien n’est possible) » (RF – G).
« Assurer le maintien de la fonction contrôle de gestion malgré
le développement de fonction « concurrente » comme le contrôle
interne ». (DFCG – O).

Compte tenu d’une image parfois encore ancrée dans une


orientation comptable et de surveillance, les professionnels du
contrôle de gestion considèrent que la recherche de moyens
permettant d’acquérir ou de renforcer la légitimité, de prouver la
valeur ajoutée de la fonction, constitue un des défis à relever.

Quels sont les grands « défis » actuels du contrôle de


gestion ?
« Communiquer plus autour de notre métier et régulièrement
auprès des opérationnels et des autres salariés » (CG – L).
« Dans un contexte de crise, le contrôleur de gestion doit trouver
le moyen de gagner ou parfois, re-gagner, la confiance de ses
clients internes (Direction, Managers, etc) dans ce contexte où
chacun doit justifier son poste… comment chiffrer la valeur
ajoutée ou la contribution du contrôleur de gestion aux résultats
de l’entreprise ? ». (DCGR – K).
« Le contrôle de gestion doit prouver sa légitimité au sein de
l’entreprise, surtout dans cette période de crise » (CG – R).
« Il devra montrer les apports positifs qu’il peut avoir vis-à-vis
des directeurs opérationnels pour être intégré davantage dans
les process de décisions. » (DCG - B).

Et cela peut se traduire non seulement par une sensibilisation plus


forte aux problématiques de l’organisation, justifiant l’usage et le
développement de la fonction contrôle de gestion, mais aussi par une
transformation de ses outils pour les adapter aux besoins.

Quels sont les grands « défis » actuels du contrôle de


gestion ?
« Comprendre et faire comprendre aux décideurs les
bouleversements actuels de la situation économique
(internationalisation, désindustrialisation…) pour les aider à
choisir le bon cap… Faire évoluer les outils pour être réactif à ces
bouleversements (suivi des créances échues, enquêtes
financières, sous charge…) » (CG – N)
« Mobiliser tous les acteurs de l’entreprise étendue autour de nos
enjeux économiques » (CG – A)

Mais c’est surtout au niveau du support à la décision que les


témoignages sont les plus nombreux. C’est un engagement plus fort
dans la prise de décision par un rôle plus proactif qui est souhaité. Il
permettra aux contrôleurs de s’inscrire pleinement dans une mission
de conseil. Cela suppose de ne pas uniquement tirer parti des analyses
du passé pour une projection dans le futur, mais aussi de faire preuve
de créativité dans la recherche de solutions innovantes.

Comment, envisagez-vous les perspectives du contrôle


de gestion pour les années à venir ?
« C’est un service transverse qui doit devenir plus proactif au
sein de l’entreprise… Une certaine créativité pour révéler notre
expertise autrement » (RCGO – E).
« Gérer l’information et l’orienter vers du décisionnel ». (RP –
J).
« Dans les entreprises ayant une forte base industrielle en
France, comme la nôtre, contribuer à la compétitivité et donc à
la pérennité de cette base, par la pertinence de nos analyses, la
recherche de solutions en rupture… » (CG – A).
« Être réellement proactif » (RAFCG – C).
« Savoir faire abstraction des aléas conjoncturels pour avoir
une véritable prise de hauteur… devenir un métier « créatif » :
participer aux trouvailles de solutions nouvelles » (RCG – H).

Cette évolution souhaitée nécessite bien entendu une


transformation des outils pour qu’ils deviennent de véritables
supports à la prise de décision. Les témoignages révèlent le souhait de
se libérer de leurs tâches encore trop fastidieuses de production
d’informations et de se consacrer à un rôle de Business Partner. Ce
sont des évolutions principalement au niveau du reporting, du
processus budgétaire et des systèmes d’information et en particulier
des progiciels, qui sont mentionnées.

Quels sont les grands « défis » actuels du contrôle de


gestion ?
« Produire un reporting de qualité qui soit à la fois rapide,
complet et surtout fiable » (DFCG – O).
« Trouver des alternatives crédibles au processus Budget, certes
fédérateur mais trop chronophage… Générer des reportings
adhoc via les outils BI et passer au zéro papier ». (DCG – I).
« Investir dans des équipements informatiques adéquats, afin de
produire des informations pertinentes et fiables ». (RFCG – D).
« Il faut investir dans les SIH décisionnels » (RDCG – S).
« Acquisition et intégration d’un nouvel E.R.P. entièrement
intégré c›est-à-dire avec les fonctions comptables, trésorerie,
gestion de production et gestion commerciale… Généralisation
de cet E.R.P. à toutes les filiales de production du groupe ».
(CG – M).
« Il doit passer moins de temps sur les données elles-mêmes et
davantage sur l’utilisation de celles-ci ». (DCG – B).

4. Le point de vue du PDG de Microsoft


France : Entretien avec M. A. Crozier
Pour réellement exister, le contrôle de gestion doit s’inscrire dans les
activités des managers. Le témoignage d’un dirigeant donne alors la
perception de l’utilisateur sur l’évolution des systèmes de contrôle, les
difficultés actuelles et les défis à relever. Bien entendu, l’entretien
mené auprès d’Alain Crozier, retranscrit dans cette partie, n’a pas la
prétention à une quelconque généralisation en l’absence de
témoignages que pourraient nous apporter d’autres dirigeants et
managers.

Après une carrière de directeur financier chez Microsoft France,


de contrôleur de gestion des régions Amérique du Nord et du
Sud et Océanie, de directeur financier Monde pour plus d’une
centaine de pays, au sein de l’organisation Ventes, Marketing et
Services du groupe (SMSG), Alain Crozier a pris les fonctions de
Président de Microsoft France en juillet 2012. Ancien diplômé de
l’Université Claude Bernard, en mathématiques et en sciences
sociales et de l’Institut Supérieur de Gestion de Paris, il est entré
chez Microsoft en 1994 après des expériences chez Peat Marwick
Consultants et Lesieur.

Pourriez-vous expliquer les principales caractéristiques


du contrôle de gestion chez Microsoft ?
A.C. : « Microsoft fait une différenciation entre ce qui est
comptable et, ce que vous nommez contrôle de gestion, c’est-à-dire la
fonction de support de nos équipes opérationnelles ou fonctionnelles
(ressources humaines, informatiques…).
Cette différenciation, qui est même une dissociation, est importante
entre le business controlling à forte dominante analytique et
stratégique, et la dimension corporate, purement financière. Cette
différenciation permet à des spécialistes de passer l’intégralité de leur
temps sur la prise en compte d’un certain nombre d’informations,
parfois très hétérogènes entre elles, sur lesquelles les équipes vont
pouvoir s’appuyer pour prendre des décisions.
Avant d’intégrer Microsoft, j’ai exercé dans un groupe industriel
français où 50 % de mon travail avait des connotations comptables,
avec même le passage d’écritures… Lorsque je suis arrivé chez
Microsoft dans les années 1990, sur une trentaine de financiers il n’y
avait que deux personnes dédiées à des analyses, toutes les autres se
consacraient au transactionnel, à la comptabilité. L’entreprise étant
en forte expansion la partie analytique n’était pas vraiment
nécessaire.
Aujourd’hui dans des équipes de controlling comme celle de la
France, composée de 21 personnes, une seule a une responsabilité
comptable. L’intégralité des ressources est mise à disposition des
différentes directions opérationnelles pour leur permettre de gagner
en efficacité, de construire leur plan et de développer leurs activités.
Nous avons automatisé et réduit la partie transactionnelle et
comptable, et on l’a fortement centralisée. Les équipes sont grosso
modo les mêmes 20 ans plus tard, mais on a gagné en efficacité et
surtout on a complètement inversé l’aspect transactionnel-comptable
vs analytique en 20 ans. Pour ce type d’emploi, très rapidement nous
avons alors attiré et développé des compétences et des profils très
différents ».
Quels types d’informations utilisez-vous ?
A.C. : « Financière et non financière. Énormément de données
non-financières se sont ajoutées à la base qui était financière. Au
début des années 1990, on se contentait de savoir ce que nous avions
vendu comme produit, sous quelle forme, quelle taille. Comme dans
les industries traditionnelles, on analysait le mix qui pouvait être par
deux, par dix… par cent et on en déduisait des informations de type,
prix moyen, coût moyen, revenu moyen, etc.
Aujourd’hui on est dans un environnement où on a rajouté aux
trois ou quatre vues initiales, une centaine de vues qui n’ont plus rien
à voir avec les types de produits. On discute à qui les produits sont
vendus, par quel canal, à quel moment, la durée des contrats, etc. Par
exemple, sur le cloud, je peux savoir aujourd’hui à la seconde quels
sont mes clients en France, qui consomment nos services quels que
soient les services, quels sont les ingénieurs qui interviennent chez
nos clients.
Nous avons donc rajouté un ensemble de dimensions qui ne sont
pas du tout financières mais qui sont liées aux statistiques. C’est
d’ailleurs cette orientation qui a conduit à ce que ceux, que vous
appelez contrôleurs de gestion et que nous nommons Business
Analyst chez Microsoft, deviennent de vrais analystes. La gestion et
l’exploitation des données sont devenues extrêmement fortes dans
leurs compétences à tel point que c’est un des critères central de
sélection lorsque nous recrutons ou développons quelqu’un. Ce sont
des compétences qui manquent en France. Pour moi, dans le
recrutement, ce sera plus important qu’un candidat diplômé en
finance. Aujourd’hui, c’est la donnée et l’exploitation de cette donnée
qui va faire la différence que ce soit en marketing, en vente, en
service etc. ».
Quelles sont les informations reportées vers le siège
mondial ?
A.C. : « Aujourd’hui, on travaille avec trois types de reporting qui
nous permettent de remonter les informations sur les différents
business de Microsoft :
- Le financier, relatif aux revenus et aux comptes d’exploitation
- La Scorecard qui va mettre en avant des indicateurs court
terme/long terme, des indicateurs sur la consommation des services,
la satisfaction des clients de l’environnement de travail ainsi que
quelques indicateurs purement financiers.
- La compétition, qui présente nos positions vis-à-vis de nos
compétiteurs ».
Pour vous, au-delà de la différenciation évoquée
précédemment, quelles sont les évolutions les plus
marquantes du contrôle de gestion chez Microsoft ?
A.C. : « L’évolution vers un modèle identique entre la France et les
autres pays. Nous sommes extrêmement standardisés. La stratégie
est que le même document, la même définition, la même analyse
soient répliqués entre les différents pays pour que l’on ne passe pas de
temps à reconstruire et à recréer, mais que l’on passe plus du temps à
analyser et à permettre aux directions opérationnelles de prendre
leurs décisions rapidement. C’est fondamental. Avant, on passait
énormément de temps à analyser le passé, à le justifier et à le
discuter. Aujourd’hui la standardisation de ces méthodologies permet
une compréhension partagée et homogène de vues, de définitions. Je
ne réinvente donc pas un format de Reporting même si j’aimerais le
voir différemment car je suis français, et mon homologue japonais
préfère voir les choses différemment. On va regarder les mêmes
éléments, de la même manière, ce qui compte c’est dans quelle mesure
ces méthodes peuvent nous aider demain et après-demain. C’est une
différence fondamentale entre le contrôle de gestion à l’américaine,
où la standardisation est arrivée très en amont, et le contrôle de
gestion en France ».
Que vous apporte le contrôle de gestion dans votre activité
de dirigeant d’une filiale de Microsoft ?
A.C. : « C’est la lecture du business qui peut être différente de celle
du patron de division. C’est aussi l’indépendance des analyses faites
qui va nous aider fortement car en interne nous pouvons voir les
choses de manière différente. C’est évidemment le conseil. On
demande à nos Business Analysts d’être proactifs : ce n’est pas de
nous dire qu’il va faire moins beau ou plus beau demain, c’est de
sortir de manière régulière des analyses qui vont nous présenter les
choses différemment. Pourquoi ? Nous voulons les voir réfléchir sur
des sujets différents et leur permettre de s’ouvrir à l’extérieur sur des
sujets parfois éloignés de l’informatique mais qui peuvent être
efficace en interne. Une des analyses récentes, présentée par un
Business Analyst du secteur grand public, visait à comprendre
l’activité des visiteurs médicaux dans les pharmacies pour s’en
inspirer dans le cadre d’une présence élargie de notre modèle de
distribution en région.
Toutes les données permettant d’aider le business, de prendre des
décisions plus rapides, d’allouer des ressources de manière plus
efficaces, nous sont utiles. Les Business Analysts peuvent extraire des
informations de blogs, de website ou bases de données externes de les
exploiter pour en obtenir des vues, des analyses : c’est là la valeur
ajoutée de ce type d’équipe. Aujourd’hui nous développons des cours
en interne sur le Big Data, pour continuer à développer des
méthodologies d’extraction de données provenant de nombreuses
sources internes ou externes et de les faire parler ».
Quelles sont, selon vous, les carences et difficultés
actuelles du contrôle de gestion chez Microsoft France ?
A.C. : « Fondamentalement on passe encore trop de temps à
creuser et détailler les analyses. Dans l’école américaine, à un certain
moment de l’analyse, on s’arrête car on connaît la direction même si
l’on n’est pas précis au 10e près.
Il n’est pas rare de renvoyer les analystes trois ou quatre fois pour
creuser encore plus l’analyse ou avoir encore plus de détails. Je pense
que plus on fait cela, et plus on se coupe de ce que peuvent nous
apporter ces analyses. En plus cela consomme du temps et de
l’énergie.
Le second point, c’est une tendance à ne pas être assez Forward
looking, mais passer plus de temps à regarder dans le rétroviseur.
Cette focalisation encore trop grande sur le passé est certes
rassurante. Lorsque l’on parle du futur, on est dans l’inconnu ce qui
nous oblige à travailler avec des données hétérogènes et sur
lesquelles il faut prendre un risque. Aux Etats-Unis, sur 30 minutes
de travail, on consacre 5 minutes au passé et 25 minutes au futur. En
France, on fait l’inverse. On n’a pas de temps à consacrer au futur car
on revient toujours au passé.
Le troisième point est le manque de créativité : la manière dont on
apprend le contrôle de gestion, dont on fait travailler les équipes sur
des méthodologies de Brainstorming et Benchmarking notamment,
est actuellement assez limitée. Chez Microsoft, on cherche à
développer un contrôle de gestion exclusivement dédié au support du
business qui nous permet de travailler sur la stratégie, sur le futur, et
il faut admettre que l’on est capable de se tromper.
Ces carences sont aussi liées à un déficit d’outils. Les entreprises en
Angleterre ou en Amérique du Nord investissent beaucoup plus sur
l’outil informatique. Elles sont aussi plus regardantes à mettre en
place des méthodes standards qui permettent de ne pas remettre en
cause les méthodologies. Mais, c’est également lié à la manière dont
on réalise l’apprentissage. On parle énormément dans les universités
américaines de Brainstorming, de créativité, de scénario stratégique
qui ne sont pas les fondamentaux que l’on retrouve aujourd’hui dans
certains pays comme la France. Je pense que c’est un élément
différenciant ».

Conclusion
Le contrôle de gestion aujourd’hui, qu’en disent les praticiens ? Les
témoignages recueillis font état d’un contrôle de gestion de plus en
plus ancré dans les organisations tant au niveau stratégique qu’au
niveau opérationnel. Il semble que l’évolution des systèmes
d’information ait contribué en partie à cet ancrage. L’automatisation et
l’intégration des données, la rapidité et la facilité d’accès, la
transparence et démocratisation de l’information auraient permis au
contrôle de gestion de répondre plus précisément aux besoins des
utilisateurs et, aux contrôleurs de gestion, de consacrer davantage de
temps aux analyses et à l’animation des (contre) performances.
Cependant, cette évolution reste fragile : trop basé sur l’historique et
l’explicatif, trop accaparé par des demandes d’informations
croissantes et tous azimuts au sein de l’organisation, le risque pour les
contrôleurs de gestion est de (re) devenir principalement des
pourvoyeurs de données. Pour conserver et développer la valeur
ajoutée de la fonction, l’enjeu semble se situer tant au niveau de
l’efficacité des outils informatiques (ERP, Datawarehouse, Big Data…)
et de contrôle (Budget, tableaux de bord et comptabilité de gestion)
qu’au niveau des compétences et des activités des contrôleurs de
gestion eux-mêmes. C’est pour la recherche d’une proactivité et d’une
créativité, pour une orientation vers le futur permettant aux managers
d’innover et de créer de la valeur, que plaident les praticiens du
contrôle ayant témoigné dans ce chapitre.
Annexe 1
L’étude réalisée fin 2013, qui ne prétend évidemment à aucune
généralisation, visait à cerner :
1. les évolutions marquantes du contrôle de gestion ces dernières
années,
2. celles jugées positives et celles appréhendées comme négatives
3. les satisfactions apportées par le métier de contrôleur de gestion,
ainsi que les sources d’insatisfaction,
4. les grands « défis » actuels du contrôle de gestion et ses
perspectives pour les années à venir.
Différents professionnels français d’ancienneté, de responsabilité et
d’organisations très différentes ont souhaité témoigner sur ces
différents points.

Ancienneté en Abréviations
Poste actuel Organisation actuelle contrôle de utilisées dans le
gestion texte

Conseiller de gestion Constructeur automobile 9 ans CG-A

Directeur du Contrôle de Filiale informatique d’une


21 ans DCG-B
Gestion banque

Responsable Administratif
et Financier et contrôle de Agencement de bureaux 10 ans RAFCG-C
gestion

Responsable Finances –
Communauté d’agglomération 19 ans RFCG-D
Contrôle de gestion

Responsable du Contrôle
Villages de vacances 13 ans RCGO-E
de Gestion Opérations

Responsable contrôle de Fabricant d’équipements pour le


15 ans RCG-F
gestion gaz

Responsable financier Producteur pour Connecteurs 18 ans RF-G

Responsable contrôle de Association pour personnes


8 ans RCG-H
gestion âgées

Directeur du Contrôle de
Laboratoire de santé animale 19 ans DCG-I
Gestion Groupe
Producteur et fournisseur
Responsable du pilotage 5 ans RP-J
d’électricité

Directrice adjointe du
contrôle de gestion Transporteur routier 10 ans DCGR-K
régional

Contrôleur de gestion Coopérative agricole 6 ans CG-L

Contrôleur de gestion Meunerie 1 an CG-M

Ingénierie d’installations
Contrôleur de gestion 4 ans CG-N
techniques

Directeur Finances & Ingénierie d’installations


35 ans DFCG-O
Contrôle de gestion techniques

Contrôleur de gestion Hôpital 2,5 ans CG-P

Contrôleur de gestion Groupe industriel 19 ans CG-Q

Contrôleur de gestion Groupe salinier 18 ans CG-R

Responsable du
département Contrôle de Hôpital 20 ans RDCG-S
gestion et Informatique

Responsable contrôle de
Transport en commun 4 ans RCG-T
gestion
Deuxième partie

Les nouvelles perspectives


du contrôle de gestion
Chapitre 9

De la méthode ABC aux


méthodes ABC : analyse d’une
diversif cation des outils dans
une perspective stratégique

GRÉGORY WEGMANN

En situant notre réflexion dans une première partie dans le cadre


conceptuel de la gestion stratégique des coûts, nous proposons dans ce
chapitre une lecture des développements des comptabilités de gestion
à base d’activités (ABC) selon quatre dimensions : les parties
prenantes, la temporalité, les ressources et les processus. Dans ce
chapitre, nous approfondirons les dimensions « ressources » et
« processus » ainsi définies en étudiant :
1. d’une part des techniques d’origine allemande ayant eu des
prolongements aux Etats-Unis : méthodes GPK, PK et RCA ;
2. et d’autre part la comptabilité de gestion à base d’équivalents
temps (TDABC – Time-driven ABC).
Nous montrons dans une seconde partie que les approches
germaniques décrites sont susceptibles d’enrichir l’ABC standard afin
de répondre notamment aux exigences d’environnements industriels
complexes. Les méthodes de la Comptabilité de gestion à base de
consommation de ressources (RCA, Resource consumption
accounting) et du Process costing (PK, Prozesskostenrechnung)
combinent des fondamentaux de l’ABC standard avec des principes de
la comptabilité de gestion allemande intitulée « planification et
comptabilité analytique des coûts flexibles » (soit GPK,
Grenzplankostenrechnung). Elles permettent une analyse plus
approfondie des ressources en ajoutant un niveau d’allocation
supplémentaire par rapport à l’ABC standard et en proposant une
étude de la variabilité des coûts.
Puis nous présentons le TDABC en expliquant que cette méthode a
pour objectifs de simplifier l’ABC et de développer une méthodologie
adaptée aux activités de service, à forte composante humaine. Enfin,
nous replacerons ces méthodes dans leurs contextes respectifs en
présentant les avantages et inconvénients et en dressant des pistes de
réflexion sur l’avenir de la méthode ABC.

1. La méthode ABC : une lecture


stratégique pour des pratiques
diversifiées
Dans cette partie, nous proposons une lecture stratégique de la
méthode ABC fondée sur le courant de la Gestion stratégique des
coûts. Puis, nous montrons la grande diversité des pratiques de l’ABC
selon les contextes.

1.1 Le courant de la gestion stratégique des


coûts
Les approches conventionnelles du contrôle de gestion (Anthony,
1993 ; Johnson et Kaplan, 1987), révèlent les problèmes d’articulation
entre les processus de management stratégique, de contrôle de gestion
et de contrôle opérationnel. Johnson et Kaplan reviennent de façon
détaillée sur la difficulté de coordonner la stratégie au contrôle de
gestion et sur la nécessité de repenser le contrôle de gestion dans cette
optique.
Nous avons déjà montré (Wegmann, 2006) que la question de
l’articulation du contrôle de gestion au management stratégique fait
l’objet de nombreux travaux depuis le début des années 1980, toujours
en cours et réalisés sous des dénominations différentes : « Contrôle de
gestion stratégique » (Strategic Management Accounting, Simmonds,
1981), « Contrôle stratégique » (Strategic Control, Bromwich, 1990) et
« Gestion stratégique des coûts » (Strategic Cost Management, Shank
et Govindarajan, 1989). C’est cette dernière expression que nous
retenons dans ce chapitre, soit GSC en abrégé, étant donné que nous
appréhendons ce courant au travers d’une méthode de management
des coûts. Mais il faut conserver l’idée d’une très grande diversité
d’approches dans ce champs (Wilson, 1995) qui n’est pas stabilisé et
parfois conceptuellement critiqué, Sha et al. (2011, p. 5) mettant en
avant le manque d’éléments empiriques susceptibles d’attester de
l’apport de ce courant. Ce n’est pas l’objet dans cet article d’analyser
ces critiques, mais plutôt de montrer que l’ABC, dans ses évolutions,
est propice à l’analyse des relations entre stratégie et contrôle de
gestion et qu’il est de ce fait pertinent de s’appuyer sur ce courant.
De manière globale, nous avons considéré trois approches de GSC
(Wegmann, 2006) :
1. Une approche restrictive considérant le management des coûts
comme un outil de déclinaison de la stratégie.
2. Une approche médiane considérant le management des coûts
comme un outil de validation des hypothèses stratégiques.
3. Et une approche extensive, le management des coûts étant
considéré comme une partie intégrante du management
stratégique et devant permettre de faire émerger de nouvelles
stratégies le cas échéant.
D’un point de vue théorique, l’approche restrictive renverrait plutôt
à une vision disciplinaire du management (théorie positive de l’agence,
Jensen et Meckling, 1992 ; Brickley et al., 1997) dans le cadre de
laquelle le contrôle de gestion a pour fonctions de contribuer à réduire
les conflits, de faciliter la convergence des buts et une allocation
optimale des ressources. Les deux autres approches impliquent des
accroissements des connaissances lors des processus managériaux, ce
qui fait référence à des théories comme la théorie de l’apprentissage
organisationnel (Argyris et Schön, 1978) ou encore celle des ressources
et compétences (Hamel et Prahalad, 1990). En outre, nous pouvons
considérer une proximité entre la troisième approche et la théorie du
Contrôle interactif (Simons, 1995), car dans ce cadre, les dirigeants
choisissent dans certaines situations des outils de contrôle de gestion
propices à articuler le stratégique à l’opérationnel et à permettre
l’identification de nouvelles opportunités stratégiques. Bien entendu,
dans une situation d’analyse des coûts, les frontières entre ces trois
approches ne sont pas aussi flagrantes et nous pouvons envisager
d’autres angles d’approche pour étudier le courant de la GSC dans
toute sa diversité. Ainsi, plusieurs travaux appréhendent la GSC dans
une perspective d’aide à la prise de décision stratégique et
commerciale (Roslender et Hart, 2003 ; Cinquini et Tenucci, 2006).
Nous allons à présenter montrer dans quelles mesures la méthode
ABC peut être considérée comme un outil de GSC.

1.2 La méthode ABC, un dispositif de


management propice à l’articulation entre
stratégie et contrôle de gestion
Pour rappel, la méthode ABC (Activity-based Costing, calculs des
coûts à base d’activités) a été développée aux Etats-Unis dans les
années 1980 (Cooper et Kaplan, 1988), même s’il est possible d’en
détecter des traces plus anciennes (Bouquin, 2006, p. 85, 86, à propos
de General Electric dans les années 1960). Il s’agit dans un premier
temps de lutter contre de mauvaises allocations des coûts aux objets
de coûts générant des effets de subventionnements. Pour ce faire, la
méthode ABC propose d’augmenter le nombre de centres de coûts de
façon à mieux homogénéiser les ressources s’y rattachant et à
déterminer des variables économiques, les inducteurs, susceptibles de
modéliser la consommation des ressources et l’allocation des coûts.
À partir de ces principes, l’usage de l’ABC s’est répandu dans le
monde entier. Si de nombreux échecs sont survenus, aujourd’hui, les
niveaux d’usage de la méthode sont significatifs dans de nombreux
pays. Ainsi, une récente étude de la DFCG, Association des directeurs
financiers et du contrôle de gestion, portant sur l’année 2012, montre
que l’ABC est devenue une méthode « classique » (Observatoire
international du contrôle de gestion, 2012, p. 27-28). Selon cette
enquête, 31 % des répondants (répartis dans 36 pays) disent utiliser
les méthodes ABC/ABM, contre 25 % en 2011. À noter que les secteurs
les plus utilisateurs sont respectivement la banque et l’assurance, les
médias et systèmes d’information, puis les produits de consommation
et la distribution. Ces résultats montrent qu’aujourd’hui, grâce
notamment à des systèmes d’information adaptés, la méthode est
fiabilisée. Ensuite, on assiste à une diversification des usages : de
nombreux pays sont concernés ainsi que la majorité des secteurs
d’activité. Enfin, l’ABC est aujourd’hui plus qu’une méthode de calculs
de coûts, c’est un dispositif de management, d’où l’usage répandu de
l’expression ABM, Activity-based Management, soit management des
coûts à base d’activités.
De cette diversité des pratiques ressort le fait que la dimension
stratégique est souvent considérée comme une des dimensions
majeure de la méthode ABC. Rappelons que Johnson et Kaplan (1987),
à l’occasion d’un retour sur l’histoire du contrôle de gestion, concluent
(chapitre 10, « Des nouveaux systèmes pour le contrôle des processus
des coûts des produits ») en préconisant de favoriser des dispositifs
permettant une analyse stratégique des coûts. Ils insistent sur la
nécessité de mieux définir les centres de coûts en délimitant des pools
homogènes de ressources et de définir des inducteurs susceptibles de
« tracer » les coûts en privilégiant une approche à long terme, donc
stratégique. La méthode ABC était ainsi explicitement décrite avec une
orientation d’aide à la prise de décision stratégique.
La structuration de la méthode ABC permet de mieux comprendre
son orientation stratégique naturelle. La lecture organisationnelle
sous-jacente à la méthode est stratégique puisqu’il s’agit de modéliser
les chaînes de valeur des processus de création de valeur ajoutée d’une
entreprise. À côté d’une lecture sous la forme de centre de
responsabilité, la méthode ABC nécessite de décomposer les processus
de création de valeur en activités, ce qui par essence nécessite de partir
des projets stratégiques de l’entreprise. Ensuite, le concept
d’inducteur, central dans la méthode est assez proche de la notion
stratégique de facteurs déterminants des coûts (Porter, 1985 ; Shank et
Govindarajan, 1989) ou plus généralement encore de facteurs clés de
succès puisqu’il s’agit de définir des variables qui, sur le long terme,
permettent d’expliquer les consommations et les performances. Enfin,
la méthodologie fait la part belle aux charges de structures puisque la
modélisation repose principalement sur l’idée que sur le long terme, la
majeure partie des coûts est fixe.
C’est pourquoi il n’est pas surprenant que de nombreux auteurs
aient assez vite insisté sur cette dimension stratégique. Lebas (1999) a
ainsi expliqué que la dimension stratégique s’est rapidement imposée
au travers de l’ABM. Jones et Dugdale (2002) mettent en lumière les
liens entre l’ABC et le courant de la GSC. Shank et Govindararjan
(1989) intègrent l’ABC dans un dispositif plus général destiné à
analyser les facteurs clés de succès d’une entreprise, dans le cadre de
son environnement concurrentiel et en référence à sa chaîne de valeur.
Ainsi, les auteurs expliquent l’intérêt d’intégrer les dimensions clients
et fournisseurs dans ce dispositif.
Nous allons à présent proposer une synthèse de la diversité des
pratiques ABC observées. Nous utilisons l’expression ABC pour
caractériser cette diversité, qui recouvre donc à la fois des méthodes de
calculs de coûts et des dispositifs de pilotage managérial.

2. La méthode ABC : des pratiques


diversifiées avec souvent une
problématique stratégique
Sur la base d’une revue de littérature académique et professionnelle et
d’analyses d’études de cas, nous avons construit une typologie qui met
en évidence la diversité des pratiques de la méthode ABC. En
distinguant quatre dimensions d’analyse pour lesquelles l’ABC est
susceptible de développer une expertise, nous listons de nombreuses
pratiques observées, cette liste n’étant pas exhaustive et une pratique
pouvant emprunter à une ou plusieurs de ces dimensions.

Figure 1. Une grande diversité des pratiques ABC


Les dimensions de l’ABC Les pratiques observées

1ère dimension : les parties prenantes ABC orienté clients, pratiques de benchmarking à
L’ABC en lien avec un élargissement spatial du base d’activités, gestion inter-organisationnelle des
périmètre d’analyse des coûts : aux clients, coûts à base d’ABC, coûts cibles et ABC, pilotage
fournisseurs, partenaires, aux questions des activités ayant un impact environnemental
environnementales, etc.
2ème dimension : le temps Budgets et planification à base d’activités, gestion
L’ABC en lien avec un élargissement temporel du au-delà du budget, gestion de projet à base
périmètre d’analyse des coûts : analyse des coûts d’activités, pilotage stratégique à base de coûts
futurs, sur un cycle de vie, des coûts projets, etc. cibles et d’ABC

3ème dimension : les ressources ABC dans les pays germaniques, méthode des coûts
L’ABC en lien avec une complexification du modèle à base de consommation de ressources, méthodes
analytique : raffinement du processus d’allocation statistiques pour optimiser les corrélations, analyse
des ressources, diversification des inducteurs, etc. des tâches, méthode des coûts caractéristiques

4ème dimension : les processus Méthodes par équivalence à base d’activités (time-
L’ABC en lien avec une simplification et une driven ABC), approches « lean » à base d’activités,
transversalité du modèle analytique : simplification ABC simplifiés et management à base de processus
des processus d’allocation, nombre réduit
d’inducteurs, analyses transversales

La première dimension relève d’une approche « parties prenantes »


(Stakeholder theory, Freeman, 1984 ; Mercier, 2010), dans sa version
instrumentale en considérant que la prise en compte des parties
prenantes dans le management d’une entreprise a un impact positif
sur sa performance. Dans ce contexte, les outils de contrôle de gestion
tentent de se déployer sur d’autres objets de coûts que sont par
exemple les clients, les fournisseurs, les salariés, les concurrents, etc…
L’ABC, qui interroge d’un point de vue méthodologique, la façon de
modéliser l’allocation des coûts à un objet est une façon d’appréhender
les parties prenantes. C’est pourquoi on observe de nombreuses
applications de l’ABC portant sur la mesure de la performance clients
(Horngren, 2005). Si l’ABC orienté clients est l’application la plus
souvent citée pour cette dimension, on observe d’autres
développements. Ainsi, des combinaisons entre la méthode ABC et la
méthode des coûts cibles ont été observées chez des fournisseurs
automobiles américains (Horvath, 1998). Cette combinaison permet
de faire le lien entre clients et fournisseurs et de mieux gérer la chaine
de valeur de l’entreprise. Cooper et Slagmulder (2004) décrivent en ce
sens la « chaîne des coûts cibles » qui relient clients et fournisseurs,
l’ABC pouvant être dans ce cas un outil inter-organisationnel
d’investigation des coûts. Dans le même esprit, nous pouvons orienter
l’analyse des coûts et les inducteurs sur des aspects environnementaux
ou sociaux en mettant en évidence une chaîne de valeur spécifique à
ces dimensions.
La seconde dimension renvoie aux pratiques ABC qui de prime abord
privilégient le rôle prédictif de l’analyse des coûts et donc la dimension
stratégique de la méthode. Il s’agit de méthodes telles que les budgets à
base d’activités (Antos et Brimson, 1999) ou encore la planification à
base d’activités et le modèle de la gestion sans budget développés par le
Cam-i (Consortium for advanced management international,
http://www.cam-i.org) qui intègrent à des degrés divers l’ABC dans les
dispositifs décrits. Bien entendu, la méthode des coûts cibles associée à
l’ABC est aussi l’occasion d’aboutir à une analyse par activité des coûts
futurs, davantage dans une logique de projets (Cokins, 2002).
Dans la troisième dimension, nous avons regroupé des
expérimentations qui considèrent que dans certaines circonstances, l’ABC
« standard » n’est pas assez raffiné pour permettre de bien appréhender
les processus de consommations de ressources et d’allocation de coûts :
structures complexes, chaînes de valeur instables, objets de coûts
nombreux, éléments immatériels, etc. Nous retrouvons notamment tout
un courant de littérature allemand, repris aux Etats-Unis, que nous
développons dans le paragraphe suivant.
Par opposition, la dernière dimension regroupe des applications
qui, tenant compte de critiques relatives au caractère coûteux,
consommateur en temps et difficile à ajuster et à diffuser de l’ABC
« standard », s’appuient sur des modèles simplifiés d’ABC. Nous
revenons également sur ces approches dans la partie suivante.

3. Des systèmes de calculs de coûts


complexes à des systèmes simplifiés
s’appuyant sur l’ABC : les exemples de
la RCA et du TDABC
3.1 Le modèle allemand et son inf uence :
méthodes GPK et RCA
3.1.1 La méthode GPK
La plupart des techniques allemandes ont été développées juste après la
seconde guerre mondiale. La méthode GPK35
(Grenzplankostenrechnung), que l’on peut traduire par « planification
et comptabilité analytique des coûts flexibles » ou « comptabilité
planifiée des coûts marginaux », est l’outil le plus populaire en
Allemagne (Friedl et al., 2005, p. 56). Cette méthode modélise les
consommations de ressources pour une production donnée. Hans
George Plaut, ingénieur en mécanique automobile, et Wolfgang Kilger,
universitaire, sont à l’origine de cette méthode. GPK privilégie les
calculs de marges de contributions plutôt que de coûts complets et en ce
sens, s’inscrit plutôt dans des logiques de pilotage à court terme, même
si son degré de sophistication permet également de faire évoluer des
approches en coûts complets (ce que nous verrons plus loin).
Comme pour la méthode française des centres d’analyse, la méthode
GPK s’appuie sur une modélisation analytique des industries
manufacturières. C’est une méthode assez sophistiquée qui nécessite
une forte expertise et qui justifie le fait notamment qu’en Allemagne,
les départements contrôle de gestion, sont séparés des départements
finance et comptabilité financière. Le principe fondamental de la
méthode GPK consiste à considérer les ressources comme l’élément
fondamental et la modélisation de leurs consommations comme le
processus clé du dispositif. Les ressources sont regroupées en pools
homogènes de ressources. Les ressources à l’intérieur d’un pool sont
interchangeables, s’appuient sur une technologie similaire, sont sous
la responsabilité d’un manager ou d’une équipe, renvoient à des coûts
homogènes et sont géographiquement situées sur un même lieu. Ces
ressources doivent être également facilement mesurables (en quantités
ou en valeur) et les productions et coûts qui émanent de leur
transformation sont planifiables. Par exemple, dans une usine, un pool
de ressources peut regrouper toutes les consommations relatives à la
maintenance (petit matériel, salaires des ouvriers, frais divers) ou
encore les consommations relatives à l’utilisation des ordinateurs. Une
idée fondamentale de la méthode consiste à considérer que la nature
des coûts dépend fondamentalement des ressources humaines, en
technologie, matérielles, investies pour atteindre un objectif
stratégique donné. Le coût est ainsi une donnée subjective qui évolue
au fur et à mesure que se produisent les processus de consommation
de ressources. Concrètement, les coûts deviennent de plus en plus
fixes au fur et à mesure que se déroule un processus de consommation.
Ensuite, les ressources sont allouées dans des centres de coûts sur la
base d’unités d’œuvre modélisant leurs consommations. Ces centres
de coûts sont plus fins que les centres d’analyse dans la méthode
française. Il peut s’agir par exemple des coûts générés par l’activité
d’une machine dans un atelier : coûts humains, amortissements,
consommation d’énergie, Dans un centre de coûts, les coûts sont
déclinés en fixes et variables et plusieurs unités d’œuvre peuvent
modéliser ce centre.
Cette méthode permet d’aboutir à des documents de synthèse assez
détaillés qui combinent pour un objet de coûts donné (produit, clients)
plusieurs niveaux de marge comme indiqué ci-dessous.

Figure 2. La méthode GPK, un système de marges en


cascades (d’après Bouquin, 2006)
Observons que de nombreuses entreprises allemandes et
autrichiennes réputées utilisent cette méthode : Deutsche Telekom,
Rasselstein – Andernach (Tinplate production), Daimler Chrysler,
Porsch, Magna Steyr – Graz (sous-traitant automobile), Heidelberger
Druckmaschinen AG (machines à impression), Stihl - Waiblingen
(tronçonneuses).
Mais la méthode ABC a aussi influencé fortement les pratiques
allemandes ces dernières années avec l’objectif d’analyses en coûts
complets pour des décisions stratégiques.

3.1.2 Le Prozesskostenrechnung : l’ABC à l’allemande


Les experts allemands se sont donc intéressés à l’adaptation de l’ABC
aux spécificités des entreprises de leur pays. Une méthode, le Process
costing (Prozesskostenrechnung, soit PK) combinant ABC et GPK, a
été développée en ce sens notamment par Horváth et Mayer (1989) à
la fin des années 1980.
Étant donné le degré de sophistication des méthodes allemandes, un
système comptable de gestion basé sur le GPK peut être aisément
transformé en système en coûts complets. C’est pourquoi la méthode
PK n’a jamais été considérée en Allemagne comme devant se
substituer aux anciennes méthodes, mais plutôt comme pouvant
compléter par exemple un système. Dans ce contexte, la méthode PK
est conçue pour analyser les coûts indirects des unités de soutien, et en
particulier des services administratifs, en complément d’un système en
GPK qui se concentre sur les dimensions industrielles de l’activité
d’une entreprise.
Ainsi, les systèmes traditionnels allemands de comptabilité de
gestion apparaissent comme les moins éloignés de la méthode ABC sur
plusieurs aspects. Différemment, les systèmes américains de calcul en
coûts complets sont assez rudimentaires, la méthode française des
centres d’analyse étant plus perfectionnée. La méthode allemande
GPK s’avère quant à elle la plus complexe, même si elle repose sur une
logique en coût marginal. Aussi, les développements relatifs à la
gestion des coûts par activités sont apparus comme assez proches du
GPK : finesse des centres d’analyse (activités) et variables pour
paramétrer les consommations de ressources (inducteurs). Dans le
même temps, des entreprises germaniques ont vu en la méthode ABC
un moyen d’améliorer les techniques conventionnelles. D’où cette idée
de combiner GPK et ABC.
Concrètement, dans le PK, la notion de processus est centrale. Une
distinction est établie entre des processus principaux et des sous-
processus, avec une analyse privilégiée des premiers. Les méthodes du
Kaïzen Costing (amélioration continue) et du Reengineering
(reconfiguration des processus) viennent en appui dans les phases de
pilotage. En outre, une distinction coûts variables/coûts fixes est
réalisée au niveau de chaque processus. En fait, par rapport à la
méthode GPK, la différence tient essentiellement à la gestion des coûts
indirects. Ce que les auteurs allemands nomment « processus » est en
fait assez proche de la notion d’activité telle qu’énoncée en français.
Les processus principaux représentent une chaîne d’activités
modélisables par un même facteur de coûts (inducteur). Ces activités
sont alors dites homogènes. Les coûts indirects sont alloués aux objets
de coûts sur la base des inducteurs de coûts de ces processus
principaux. Les sous-processus regroupent un ensemble de ressources
nécessaires au bon fonctionnement des processus qui leur sont liés. Ils
correspondent à un niveau intermédiaire entre les tâches et les
activités et ils peuvent être agrégés en un ou plusieurs processus. La
figure 3 suivante schématise le modèle PK.

Figure 3. Schématisation d’un système PK (Horvath,


2008, p. 491)
Si l’on compare l’ABC standard (américain) avec le PK ainsi décrit,
plusieurs différences apparaissent, notamment concernant les champs
d’application. L’ABC standard s’applique plutôt à l’origine aux activités
de production et aux centres de coûts supports d’une activité de
production. En Allemagne, la méthode GPK donne déjà satisfaction
sur des catégories d’activités. Aussi, la méthode PK s’intéresse
davantage aux processus transversaux et notamment aux chaînes
d’approvisionnement et d’achat et à tous les processus non
directement liés à la production.
Contrairement à l’ABC, la méthode PK est parfois étiquetée comme
une méthode en coûts partiels puisque seule une partie des processus
est modélisée suivant une logique ABC. En retour, les méthodes
allemandes ont également inspiré Outre-Atlantique avec notamment
le développement de la méthode RCA.

3.1.3 La méthode RCA – Comptabilité de gestion à base de


consommations de ressources
Au cours des années 2000, une méthode a été développée aux Etats-
Unis en combinant les apports de l’ABC avec ceux du GPK (Keys et van
der Merwe, 2002 ; Clinton et Webber, 2004). Il s’agit de la méthode
RCA, Resource Consumption Accounting, soit Comptabilité de gestion
à base de consommations de ressources. Les auteurs assument cette
filiation avec les méthodes allemandes.
Comme le montre la figure 4, la méthode RCA propose de raffiner le
schéma analytique de l’ABC au niveau de l’analyse des ressources.
Avec cette méthode on ajoute un autre niveau d’analyse, les « pools de
ressources ». Avec ces pools, on fait une description du processus et on
décompose ce processus en activités. Ces pools sont des récipients qui
regroupent des ressources ayant des caractéristiques communes. Ceci
facilite la mise en évidence des inducteurs qui permettent d’allouer les
ressources rationnellement aux différentes activités. Les inducteurs de
ressource privilégient des variables horaires ayant une relation directe
avec les capacités du pool. En effet, les inducteurs de temps sont le
plus souvent utilisés car ils sont souvent liés au travail du personnel.
Cependant, il est possible d’en choisir d’autres. Le pilotage est enrichi
et différents types de tableaux de bord peuvent être élaborés : par
activité, par processus, par centre de responsabilité et par pool de
ressources, grâce notamment à l’usage de données quantitatives faciles
à actualiser.

Figure 4. Comparaison ABC standard/méthode RCA


En outre, comme pour la méthode TDABC et à la différence de
l’ABC standard, les ressources non utilisées sont intégrées dans les
pools et les différents niveaux de calculs. En conséquence, l’allocation
des ressources aux objets de coûts ne s’effectue que sur la base des
ressources réellement consommées.
Illustrons notre propos en synthétisant une étude de cas montrant
l’allocation des ressources d’une cabine de pilotage aux objets de coûts
que sont deux modèles d’avion (Keys et van der Merwe, 2002a et b)
par la méthode RCA. Cette dernière permet d’aboutir à l’allocation des
ressources liées aux activités d’un équipage d’avion à deux types
d’avions sur la base comme le montre la figure 5 juste après.

Figure 5. Allocation des ressources aux objets de coûts


en méthode RCA
Dans cet exemple, l’inducteur est le nombre d’heures de vol par
avion, ce qui permet de déterminer le coût d’une heure de vol par
avion. L’avion de type A7X7 comprend un équipage de 8 personnes et
génère 80 000 heures, tandis que l’avion de type 17Y7 comprend un
équipage de 24 personnes et génère 120 000 heures. La méthode RCA
consiste donc à délimiter des pools de ressources homogènes, ici,
l’équipage d’un avion, et à décliner par pool l’ensemble des ressources
en distinguant la part fixe de la part variable. Ici, les 3,1 millions
d’euros de coûts fixes sont générés par des primes et le coût de sous-
utilisation des capacités (1,5 million pour ce coût) comme coûts
primaires et des rajustements sur salaires et de la gestion des espaces
de détente (585 000 € pour ce coût) comme coûts secondaires. Les
7,5 millions de coûts variables sont générés par les temps de travail
productifs et non productifs (1,5 million pour ces derniers). L’étape
suivante consiste à répartir les ressources sur les objets de coûts grâce
à l’inducteur « heures de vol », l’ensemble des ressources du pool
étudié étant homogènes.
La même opération doit se répéter pour les autres pools de
ressources. Ainsi, comme on le voit, le centre de gravité de la méthode
est déplacé des activités aux ressources. Ces dernières existent
toujours dans la méthode car pour bien appréhender les pools de
ressources, il est nécessaire de comprendre les processus de création
de valeur et donc de les décliner en activités. Seulement, ce ne sont
plus les activités qui constituent le passage des ressources aux objets
de coûts, mais les pools. Il est néanmoins envisageable de considérer
des formules mixtes pour lesquelles certaines allocations se feraient
via les pools de ressources, tandis que d’autres s’effectueraient par le
biais des activités (système à double entrée).
Cependant, nous considérons que, comme nous l’avons indiqué
pour la méthode PK, la méthode RCA affine les estimations grâce à
une analyse centrée sur les consommations de ressources et permet de
mieux appréhender la variabilité des coûts et les phénomènes de sous
ou de sur activité. Le fait cependant de déplacer le curseur sur les
ressources, rend la dimension stratégique du système de calculs de
coûts moins visible. Pour bien appréhender les coûts sur un horizon
stratégique, il demeure important de conserver un système qui puisse
bien mettre en évidence les performances des processus clés et de
leurs activités sous-jacentes. Ajoutons que la méthode RCA nécessite
de s’appuyer sur des progiciels de gestion adaptés, le modèle proposé
par SAP étant le plus proche de cette méthode.

3.2 La Comptabilité de gestion à base


d’équivalent temps (TDABC)
Comme l’expliquent Tse et Gong (2009, p. 43) tandis que dans le
modèle RCA, l’allocation des coûts des ressources s’effectue sur la base
de l’utilisation des ressources, dans le modèle du TDABC, cette
allocation se fait en prenant appui sur les niveaux d’activités comme
dans l’ABC standard. Mais à la différence de l’ABC standard, RCA et
TDABC tiennent tous deux comptes du niveau de capacité utilisé.
Kaplan a développé avec un consultant dans les années 2000 le
Time-driven ABC – TDABC (Kaplan et Anderson, 2007), autrement
dit l’ABC à base d’équivalents temps. Cette méthode consiste à
traduire les coûts des différents inducteurs en équivalents temps
(heures de travail), révisables lorsque les conditions de production
sont modifiées. Comme l’explique Bouquin (2006, p. 306), il s’agit de
simplifier l’ABC en renonçant à allouer des coûts réels aux activités et
en introduisant dans la méthodologie ABC la logique des coûts
standards. Nous retrouvons ainsi une proximité avec les méthodes par
« équivalence » telle que l’UVA (Unités de Valeur Ajoutée, Fievez et
al., 1999).
Le TDABC offre la possibilité d’analyser les coûts au niveau des
processus, des activités, voire au niveau des tâches. Après avoir
identifié les différents groupes de ressources (qui correspondent à
l’accomplissement des tâches élémentaires) qui contribuent à une
activité, il convient d’estimer leurs coûts respectifs et leurs capacités
en heures de travail. Ensuite, il faut calculer les coûts horaires de
chaque groupe de ressources. Ceci permet de déterminer le temps
nécessaire pour accomplir une activité et les caractéristiques des
actions à mener. Ainsi, les temps requis et les inducteurs de temps
peuvent être calculés au niveau de chaque tâche, ce qui revient à
utiliser plusieurs inducteurs par activité, mais dans une logique de
coût préétabli.
En fait, nous pourrions envisager deux versions du TDABC.
Comme l’expliquent Kaplan et Anderson, Le TDABC peut consister
à regrouper plusieurs activités en un processus dont l’inducteur est un
équivalent temps qui sert de standard. Ainsi, nous obtenons des
normes de temps pour accomplir les différentes activités à un coût
moyen, et l’on suppose que ces normes sont stables dans le temps
(principe des constantes occultes de la méthode UVA). Contrairement
à l’ABC, le TDABC permet de mettre en évidence de la sous-activité ou
de la suractivité en comparant le temps total disponible au temps
normalement nécessaire pour réaliser les activités. Dans les
illustrations qu’ils proposent, Kaplan et Anderson (2007) privilégient
cette version du TDABC consistant à bâtir des équations de temps
modélisant les activités d’un processus ou d’un centre de
responsabilité. Ils expliquent qu’il s’agit de répondre aux critiques sur
la complexité extrême de la mise en place d’un système ABC, son coût
parfois prohibitif, la multiplication excessive du nombre d’activités et
l’enchevêtrement des inducteurs. Ils présentent le cas d’une entreprise
qui, grâce au TDABC, a transformé 1 200 activités en 200 processus.
Dans une seconde version, le TDABC peut être appréhendé à un
niveau plus analytique, celui des tâches. Après avoir identifié les
différents groupes de ressources (qui correspondent à
l’accomplissement des tâches élémentaires) qui contribuent à une
activité, il s’agit d’estimer leurs coûts respectifs et leurs capacités en
heures de travail. Ensuite, il faut calculer les coûts horaires de chaque
groupe de ressources. Ceci permet de déterminer le temps nécessaire
pour accomplir une activité et les caractéristiques des actions à mener.
Ainsi, les temps requis et les inducteurs de temps sont calculés au
niveau de chaque tâche, ce qui revient à utiliser plusieurs inducteurs
par activité, mais dans une logique de coût préétabli. En résumé, la
première version consiste à regrouper plusieurs activités en exprimant
leurs différents inducteurs sous la forme d’une équation de temps
standard. La seconde version consiste à découper plus finement les
activités en mettant en équation de temps les différentes tâches qui les
composent.
Illustrons ces deux versions. Concernant la première version,
considérons le « Service clientèle » d’une entreprise de services qui
consomme des ressources à hauteur de 578 340 € par trimestre. Ce
service se décompose en 3 activités : traitement des commandes,
traitement des réclamations, et encaissement des clients. Le principe
du TDABC consiste à modéliser les consommations de ce service sous
la forme d’une équation de temps sous la forme : 8 minutes x nombre
de commandes traitées + 44 minutes x nombre de réclamations
traitées + 50 minutes x nombre d’encaissements des clients,
considérant que les différents coûts générés par les activités de ce
service sont proportionnels aux temps de travail des salariés. En
fonction des commandes, des réclamations et des encaissements liés à
un client donné ou à un service, il est possible d’allouer les coûts de
gestion liés à ce service clientèle à ce client ou service.
S’agissant de la seconde version, il est possible de modéliser une
activité en tâches avec cette logique d’inducteur de temps. Prenons
l’exemple d’une entreprise où l’activité logistique est prépondérante
(Everaert et Bruggeman, 2008). Détaillons l’activité traitement des
commandes de cette entreprise. Cette activité comporte un ensemble
de coûts hétérogènes car elle dépend, outre du nombre de
commandes, du type de clients. C’est pourquoi il faut préciser les
temps nécessaires pour réaliser chacune des tâches de cette activité : 3
minutes pour la saisie d’une commande normale, plus 2 minutes par
ligne de commande à saisir et le cas échéant 15 minutes pour la saisie
d’un nouveau client et 10 minutes pour la saisie d’une commande
express. Sur la base de ces standards, nous aboutissons à l’équation de
temps suivante : temps de traitement d’un ordre de commande, Tk = 3
minutes + 2 minutes x X1 + 15 minutes x X2 + 10 minutes x X3 avec
X1 le nombre de lignes de commandes, X2 pour un nouveau client et
X3 pour une commande express. Ainsi, le temps de saisie d’une
commande à 5 lignes d’un nouveau client en express est de 38 minutes
(3 + 2 x 5 + 15 x 1 + 10 x 1). Soit un coût de 380 € (si l’on retient 10 €
comme coût par minute des ressources liées à cette activité).
L’équation de temps est facile à modifier et à mettre à jour. Il est aisé
de rajouter un nouvel inducteur (le type de clients par exemple), ou de
modifier certaines valeurs comme la constante (3 minutes). Dans cette
version, le TDABC peut être considéré comme un complément à un
système ABC standard. Seules les activités complexes et jugées
stratégiques se verront appliquer la méthode. La technique peut aussi
être utilisée dans une PME qui n’a pas de système ABC. Il convient
alors de déterminer au préalable les activités critiques de l’entreprise.
L’hypothèse forte de la technique est qu’il est possible de modéliser le
comportement des coûts sur la base des temps passés à réaliser les
tâches.
Comme l’expliquent Gervais et al. (2010), le TDABC souffre de
nombreuses limites dont notamment l’hésitation entre utiliser des
coûts standards ou réels et les mesures de temps. La question
essentielle étant de savoir si l’homogénéité des consommations de
ressources et leurs allocations peuvent être modélisées sur la base de
temps de travail d’une façon suffisamment fiable, généralisable et
stable. Schuhmacher et Burkert (2014) montrent par exemple, sur la
base d’une expérimentation auprès d’étudiants, que l’ABC standard
produirait des estimations de temps plus précises que le TDABC et que
cette dernière technique, générerait des sous-estimations dans les
durées d’activités.
Le TDABC est une méthode qui consiste ainsi à utiliser des « méta-
inducteurs » basées sur des régularités observées au niveau des temps
de travail. Une telle hypothèse nous semble pertinente pour certains
domaines d’activités comme la logistique, les approvisionnements, les
soins hospitaliers, le conseil, où ces régularités basées sur les temps de
travail sont avérées. Ce n’est pas le cas des activités comme celles liées
à la recherche et développement, aux services marketing, à des
productions complexes, etc. Aussi, cette méthode ne doit donc pas
conduire un manager à occulter l’impact d’autres facteurs
déterminants des coûts tels que la complexité d’une fabrication ou
d’une offre de produits et services, les niveaux de compétences des
salariés, la gestion d’une chaîne de valeur ou encore les méthodes de
management de la qualité déployés sur l’évolution des consommations
de ressources. C’est l’essence même d’une approche stratégique du
contrôle de gestion. Aussi, le TDABC est selon nous un encouragement
au développement de systèmes multidimensionnels et à géométrie
variable, la réflexion devant notamment se concentrer sur le niveau
d’analyse approprié selon les situations : processus, activités, tâches…

Conclusion
Nous avons montré dans ce chapitre la pertinence de la filiation de la
méthode ABC au courant de la gestion stratégique des coûts. Cette
méthode a généré de multiples applications que nous avons analysées
en quatre dimensions. Ces dimensions mettent en avant le rôle de
l’ABC comme outil de déclinaison et de contrôle des stratégies. En
étudiant plus spécifiquement deux familles d’applications, nous avons
montré le potentiel de l’ABC à répondre à des attentes différentes :
1. permettre une analyse fine des ressources afin d’améliorer
l’allocation lorsque les processus sont complexes et hétérogènes
pour la première famille ;
2. modéliser les coûts pour des activités de services où une bonne
homogénéité est constatée au niveau des processus et où les
activités humaines et informatiques constituent l’essentiel des
ressources.
Sans sous-estimer les limites de l’ABC, ces développements
montrent la malléabilité de la méthode et son caractère
multidimensionnel.
Les aspects non traités dans ce chapitre et d’importance concernent
notamment les modes d’usage et les jeux d’acteurs. La méthode ABC
nécessite une analyse centrée sur la chaîne de valeur et la construction
de systèmes d’activités et d’inducteurs qui dévoilent les facteurs
déterminants des coûts de l’entreprise. Ceci requiert des modes de
pilotage proches du terrain car des processus de diffusion et d’échange
des connaissances aux différents niveaux de l’organisation semblent
indispensables pour l’élaboration de tels outils. Aussi, des études de
cas pour étudier ces questions compléteraient utilement ce chapitre.
Références bibliographiques
Anthony R.N. (1993). La Fonction contrôle de gestion. Paris, Publi-
Union.
Argyris Ch. & Schön D.A. (1978). Organizational Learning. Readings,
Addison-Wesley Publishing Company.
Bouquin H. (2006). Comptabilité de Gestion, 4e édition. Paris,
Economica.
Brickley J.A. et al. (1997). Managerial Economics and Organizational
Architecture. Mc-Graw Hill.
Bromwich M. (1990). The Case for Strategic Management Accounting :
The Role of Accounting Information for Strategy in Competitive
Markets. Accounting Organizations and Society, 15 (½), pp. 127-
146.
Clinton B.D. & Webber S.A. (2004). RCA at Clopay. Strategic Finance,
84 (4), 20-26.
Cinquini, L & Tenucci A. (2006). Exploring the Relationship between
Strategy and Strategic Management Accounting Techniques.
Working Article Series, Social Science Research Network.
Cooper, R & Kaplan R.S. (1988). Measure Costs Right : Make the Right
Decisions. Harvard Business Review, September-October, 96-103.
Cooper R. & Slagmulder R. (2004). Interorganizational cost
management and relational context. Accounting, Organization and
Society, 29, 1-26.
Everaert P., Bruggeman W. & De Creus G. (2008). Sanac Inc. : From
ABC to time-driven ABC (TDABC) – An instructional case. Journal
of Accounting Education, 26, 118–154.
Ewert R. and Wagenhofer A. (2007). Management Accounting Theory
and Practice in German-Speaking Countries. In Chapman C.S.,
Hopwood A.G. and Shields M.D. (Eds.), Handbook of Management
Accounting Research. Elsevier.
Freeman R.E. (1984). Strategic Management : A Stakeholder
Approach. Boston, Pitman.
Hamel G. & Prahalad C.K. (1990). The Core Competence of the
Corporation. Harvard Business Review, 68 (3), 79-92.
Fievez J., Kieffer J.P. & Zaya R. (1999). La Méthode UVA. Du contrôle
de gestion à la maîtrise du profit : une approche nouvelle en
gestion. Dunod, Paris.
Friedl G., Küpper H.-U. & Pedell B. (2005). Relevance Added :
Combining ABC with German Cost Accounting. Strategic Finance,
87 (June), 56-61.
Gervais M., Levant Y. & Ducrocq C. (2010). Time-Driven Activity-
Based Costing (TDABC) : An Initial Appraisal through a
Longitudinal Case Study. Journal of Applied and Management
Accounting Research, 8 (2), 1-20.
Hamel G. & Prahalad C.K. (1990). The Core Competence of the
Corporation. Harvard Business Review, 68 (3), 79-92.
Hoffjan A. & Wömpener A. (2005). Comparative Analysis of Strategic
Management Accounting in German – and English – Language
General Management Accounting Textbooks. Schmalenbach
Business Review, 58, 234-258.
Horngren C.T. et al. (2005). Cost Accounting – A Managerial
Emphasis, 12th edition. Upper Saddle River, New Jersey, Pearson
Education.
Horvath P. et al. (1998). Linking Target Costing to ABC at a US
Automative Supplier. Journal of Cost Management, 12 (2), 16-24.
Horváth P. & Mayer R. (1989). Prozesskostenrechnung. Der neue Weg
zu mehr Kostentransparenz und wirkungsvolleren
Unternehmensstrategien. Controlling, 1 (4), 214-219.
Jensen M.C. & Meckling W.H. (1992). Specific and General
Knowledge, and Organizational Structure. In Werin, L. & Wijkander
H. (Eds), Contract Economics. Blackwell, 251-274.
Johnson H.T & Kaplan R.S. (1987). Relevance Lost : The Rise and Fall
of Management Accounting Systems. Boston, Harvard Business
School Press.
Jones T.C. & Dugdale D. (2002). The ABC Bandwagon and the
Juggernaut of Modernity. Accounting Organizations and Society,
27, 121-163.
Kaplan R.S. & Anderson S.R. (2007). Time-Driven Activity-Based
Costing. Boston, Harvard Business School Press.
Krumwiede K.R. (2007). Comparing US and German cost accounting
methods. Management Accounting Quaterly, 8 (3), 1-9.
Keys D.E. & van der Merwe A. (2002 a). The Case for Resource
Consumption Accounting. Strategic Finance, 83 (10), 30-36.
Keys D.E. & van der Merwe A. (2002 b). The Case for Resource
Consumption Accounting. Strategic Finance, 83 (11), 41-47.
Mercier S. (2010). Une analyse historique du concept de parties
prenantes : Quelles leçons pour l’avenir. Management et Avenir, 33,
140-154.
Mike T. & Yi M. (2009). On the emergence of strategic management
accounting : an institutional perspective. Accounting and Business
Research, September.
Observatoire international du contrôle de gestion. (2012). Résultats
2012 – Quelles activités, quels processus, quelles méthodes, quels
systèmes. Les Cahiers techniques DFCG, Association des directeurs
financiers et du contrôle de gestion, n° 7, novembre.
Porter M. (1985). Competitive Advantage : Creating and Sustaining
Superior Advantage. New York, The Free Press.
Roslender R. & Hart S.J. (2003). In Search of Strategic Management
Accounting : Theoretical and Field Study Perspectives. Management
Accounting Research, 14, 255-279.
Schuhmacher K. & Burkert M. (2014). Traditional ABC and Time-
Driven ABC : An Experimental Investigation. 2014 AAA
Management Accounting Section Research and Case Conference,
January 9th-11th (available at SSRN : http://ssrn.com).
Shah H., Malik H. & Malik M.S. (2011). Strategic management
accounting – A messiah for management accounting ? Australian
Journal of Business and Management Research, 1 (4), 1-7.
Shank J. & Govindarajan V. (1989). Strategic Cost Analysis : The
Evolution from Managerial to Strategic Accounting. Illinois, Burn
Ridge Inc.
Sharman P. (2003). Bring on German Cost Accounting. Strategic
Finance, 30-38, December.
Simmonds K. (1981). Strategic Management Accounting. Management
Accounting, 59 (4), 26-29.
Simons R.L. (1995). Levers of Control. Boston, Harvard Business
School Press.
Tomkins C. & Carr C. (Eds) (1996). Special Issue on Strategic
Management Accounting. Management Accounting Research, 7, 165
– 167.
Tse M.S.C. & Gong M.Z. (2009). Recognition of Idle Resources in
Time-Driven Activity-Based Costing and Resource Consumption
Accounting Models. Journal of Applied and Management
Accounting Research, 7 (2), 41-54.
Wegmann G. (2006). Pilotage des coûts et des performances – Une
lecture critique des innovations en contrôle de gestion. Éditions
EMS, Management et Société, Colombelles, France.
Chapitre 10

Quelle place pour


l’environnement dans le contrôle
de gestion : du concept d’éco-ef
cacité à l’exploration de
nouvelles frontières ?

NICOLAS ANTHEAUME

Dans un article consacré au contrôle de gestion environnemental


(Antheaume, 2013) nous réalisions un état des lieux sur cette forme en
émergence de contrôle de gestion. Nous mettions en évidence la
difficulté à définir ce champ nouveau, à la fois en raison de visions
divergentes du développement durable, sous-jacentes à des pratiques
émergentes et fragmentées, mais aussi en raison de la grande diversité
d’outils et de méthodes scientifiques mis en œuvre et associées à
l’existence d’un contrôle de gestion environnemental.
La première partie de ce chapitre montre en quoi les outils du
contrôle de gestion classique (comptabilité de gestion, budgets,
tableaux de bord) peuvent être déclinés pour permettre de jouer un
rôle de médiation entre performance économique et performance
écologique, notamment à travers le concept d’éco-efficacité. Ce
concept se décline à travers des outils qui permettent de surveiller le
coût des différentes consommations d’énergie et de ressources
naturelles, ainsi que le coût de prévention ou de traitement des
pollutions. Il permet également un suivi des quantités consommées et
de la productivité écologique de l’entreprise, en visant à consommer le
moins de ressources non-renouvelables par unité de produit ou de
service. Dans cette optique, le contrôle de gestion environnemental
accepte le postulat que performances économique et écologique vont
de pair et que la mise en œuvre d’une politique de développement
durable passe par l’amélioration de ce lien. Nous montrerons des
exemples des outils utilisés. Cette prolongation du contrôle de gestion
classique s’inscrit pleinement dans le cadre des définitions du contrôle
de gestion proposées par Anthony (1965, 1988)36.
La deuxième partie sort du cadre du contrôle de gestion classique et
aborde les outils spécifiques aux questions d’environnement qui se
sont développés ces vingt dernières années. Ce chapitre présente à la
fois les outils et la manière dont cette forme de contrôle émergente est
pratiquée dans les organisations. Sont passés en revue des outils
comme le life cycle costing (l’analyse de coût global), l’analyse de cycle
de vie et l’évaluation des coûts externes, dont les origines sont toutes
trois très différentes. Pour ces trois outils nous montrons une pratique
du contrôle de gestion environnemental à portée exploratoire, visant
non plus à contrôler et mettre aux normes mais à modéliser l’impact
écologique et économique des décisions stratégiques, avec un triple
élargissement par rapport au contrôle de gestion classique : horizon
temporel, acteurs pris en compte, champ de ce qui est mesuré. Dans
l’état actuel de l’art, cette vision du contrôle de gestion correspond
plus à la portée exploratoire du contrôle organisationnel tel que la
définit Simons (1995)37. Elle s’inscrit dans la continuité du champ de la
comptabilité environnementale (voir notamment Gray, Owen &
Maunders, 1987 ; Christophe, 1995 ; Antheaume et Teller, 2001).
Le parti pris de ce chapitre n’est pas d’être exhaustif, mais de
représenter autant que possible les pratiques en cours, qui sont
associées au contrôle de gestion environnemental en donnant aux
lecteurs des références qui leur permettront d’approfondir chacun des
thèmes abordés.

1. Une prolongation du contrôle de


gestion classique
Dans une étude consacrée aux investissements anti-pollution des
établissements industriels de 1992 à 2007 l’INSEE (2010) constate
que ces investissements ont augmenté en moyenne de 3,5 % par an sur
cette période, sans connaître de baisse en période de crise,
contrairement aux autres investissements, et représentaient en 2007
4,3 % du montant des investissements de l’industrie française, soit
1,4 milliard d’Euros. De son côté, le commissariat général au
développement durable (2010) estimait que les dépenses de protection
de l’environnement des entreprises (investissements, fonctionnement
courant, recherche et développement) représentaient 16 milliards
d’Euros en 2008, un montant en constante progression depuis 2000.

1.1 Un contexte d’application du principe


pollueur-payeur
L’importance croissante de ces montants reflète la mise en œuvre
progressive de dispositions juridiques plus contraignantes, qui vont
dans le sens de l’application du principe pollueur payeur. L’application
du principe de responsabilité élargie du producteur38, la mise en place
d’un système d’échange de quotas de CO2 au niveau européen39, la
directive IPPC 2008/1/CE sur les installations industrielles40 sont
autant d’exemples qui marquent une volonté d’appliquer le principe
dit du pollueur payeur, en faisant reposer sur les entités responsables
de nuisances écologiques, la responsabilité financière et juridique de
les prévenir et/ou d’y remédier.
Dans un tel contexte, il n’est nullement surprenant que les dépenses
environnementales soient le sujet d’attentions particulières. Dans une
logique de contrôle de gestion, les montants consacrés à la protection
de l’environnement, même s’ils correspondent à des obligations
juridiques, doivent être affectés de manière à respecter les textes au
moindre coût et en fonction des risques qu’encourt l’entreprise. Si des
changements de procédés permettent à la fois de réduire les pollutions
et de fabriquer à moindre coût, le choix des investissements doit se
faire dans une logique d’efficience et d’efficacité.

1.2 Quelques grands principes et un exemple


1.2 Quelques grands principes et un exemple
d’application
Les travaux de Christine Jasch (2003) puis de Schaltegger, Bennet,
Burrit et Jasch (2009) représentent bien cette prolongation du
contrôle de gestion par l’ajout d’une dimension environnementale et
sont parmi les plus cités. Ils s’appuient sur des travaux prescriptifs
réalisés dans le cadre du Programme des Nations Unies pour
l’Environnement dans lesquels Jasch (2001) a joué un rôle important.
Bien avant cela, l’Agence Américaine pour la protection de
l’environnement avait publié un document de référence très
pédagogique d’introduction à la comptabilité analytique
environnementale (US Environmental Protection Agency, 1995).
Cette approche s’appuie sur l’idée que l’entreprise doit développer
un système d’information qui inclut des flux physiques et d’énergie au
niveau le plus élémentaire possible dans l’entreprise (une machine, un
procédé de fabrication, un site), avec la possibilité d’effectuer des
consolidations selon le périmètre désiré. Dans cette optique la collecte
des données physiques est moins l’affaire des contrôleurs de gestion
que des ingénieurs de production. En revanche, la consolidation de
cette information selon le périmètre désiré et le lien avec des
informations financières est un rôle qui revient aux contrôleurs de
gestion. Dans cette optique, le contrôle de gestion environnemental est
une approche combinée de données physiques et financières, pour
suivre les consommations de matière et d’énergie et les pollutions
rejetées, et de données monétaires pour évaluer les dépenses, les
économies et les revenus d’activités qui ont un impact écologique.
À titre d’exemple, le tableau n° 1, conçu à partir d’un cas réel,
présente des données qui permettent à un contrôleur de gestion
d’effectuer un suivi d’activité sur un site industriel. Il dispose à la fois
de données physiques, sur l’activité industrielle, sur les
consommations en eau, sur la pollution produite. Apparaissent
également des informations issues de la comptabilité de l’entreprise
sur les dépenses de fonctionnement et les investissements. En bas du
tableau figurent enfin des estimations à la fois de la quantité et de la
valeur de la matière première perdue au cours de la fabrication.

Tableau 1. Société Papé, site ABC, tableau sur l’EAU


N-2 N-1 N

Nombre de jours ouvrables 350 320 340

Production de papier/carton 180 150 195


(en milliers de Tonnes)

Production de pâte 120 200 400


(en milliers de Tonnes)

Prélèvements en eau, en milliers de m3 18 000 16 000 28 000


(eaux superficielles, souterraines, et compteur)

Montant payé pour les prélèvements (k€) 640 528 952

Pollution produite (en milliers de kg/j)* 110,6 89,1 130,9

Redevance pollution (k€) (A) 11 960 12 360 21 805

Pollution retirée (en milliers de kg/j) 87,5 87,5 87,5

Prime d’épuration (k€) (B) 8 949 9 234 9 500

Redevance nette (k€) (A-B) 3 011 3 126 12 305

Frais de fonctionnement de la station d’épuration (k€)** 5 949 4 869 4 865

Investissements (k€) 500

Amortissements (k€) *** 2 000 2 000 2 000

Pertes matières
en milliers de tonnes 9 7 9
en milliers d’Euros 4 500 3 600 4 800

D’après Antheaume, cours de comptabilité environnementale (École des Mines de Nantes et


ENSAM Chambery).
* matières en suspension + matières oxydables + matières azotées + matières phosphorées
** (Salaires + frais d’étude et de mesure + entretien + énergie + floculants + transport des
boues) - (subventions de bon fonctionnement).
*** Une station d’épuration a été construite et mise en service en N-3, les investissements ont
été de l’ordre de 25 millions d’Euros. Les différentes composantes de la station sont amorties
linéairement, mais pas sur la même durée.
**** Il s’agit de la matière première, perdue lors du processus de fabrication, et que l’on
retrouve dans les boues de la station d’épuration.
A partir des données présentées dans ce tableau, un contrôleur de
gestion possède de quoi réaliser tous les calculs qui correspondent à la
vision du contrôle de gestion environnemental telle que défini ci-
dessus. Il lui est possible d’utiliser ces données telles quelles, pour les
comparer à des objectifs ou à d’autres sites de la même entreprise. Il
peut également rapporter les quantités d’eau consommées ou rejetées
à une unité de production, ou calculer des coûts de consommation
d’eau ou de dépollution par unité produite. Si un investissement dans
un procédé nouveau permettait de réduire les pertes matières, il serait
également en mesure de calculer les économies que cela permettrait de
réaliser.

1.3 Deux dif cultés du contrôle de gestion


environnemental
Toutefois ce cas, condensé, ne doit pas faire oublier deux difficultés
auxquelles se heurte souvent le contrôle de gestion environnemental, à
savoir la définition de ce qui relève de l’environnement et les
phénomènes de répartition des charges indirectes qui masquent
souvent les économies que permettent certains changements de
procédés.
Les textes de référence que nous avons cités ci-dessus reconnaissent
tous, en l’absence de normes, la difficulté de définir avec précision ce
qu’est une dépense à caractère environnemental, tout en proposant
leur propre définition et typologie. Un consensus semble toutefois se
dessiner sur les éléments suivants :
La distinction entre dépenses de fonctionnement et investissements,
fondée sur la distinction comptable entre actifs et charges fait l’objet
d’un consensus.
Dans les charges, on retrouve, de manière conventionnelle, des frais
de gestion et de traitement des déchets et des émissions polluantes, de
management de l’environnement ; les taxes et redevances diverses
(achats de fournitures, services extérieurs, frais de personnel, taxes…).
Les investissements dans des équipements destinés à traiter les
pollutions ou à les contenir en cas d’accident ne font également pas
l’objet de difficultés d’identification.
Les difficultés résident dans l’identification des dépenses de
prévention. Lorsque des changements de procédés ou d’équipement
permettent à la fois d’améliorer les conditions d’exploitation et de
diminuer les consommations d’énergie et les nuisances, il est parfois
difficile d’identifier un coût spécifiquement lié à l’environnement. Par
exemple lorsqu’une compagnie aérienne remplace une partie de sa
flotte par des appareils moins gourmands en kérosène, moins
polluants et moins bruyants, il n’est pas possible d’identifier quelle
partie du coût de l’appareil est lié à la réduction du bruit, de la
consommation d’énergie et des émissions, séparément des autres
fonctions de transport de passagers et de fret remplies par l’avion.
Dans les enquêtes statistiques réalisées en France, il revient aux
entreprises interrogées de communiquer leur estimation des coûts
environnementaux spécifiques aux technologies propres.
Enfin, il existe une troisième catégorie de coûts environnementaux,
qui concerne les consommations de ressources renouvelables, ou non
(eau, énergie, matières premières) qui peuvent être suivies à partir de
données physiques et comptables. À partir de ces données il est
possible d’estimer la valeur des matières premières, de l’énergie, et
éventuellement des salaires qui ne se retrouvent pas dans les produits
finis, mais qui sont gaspillés (voir l’exemple du tableau n° 1 avec les
pertes matières). Cela suppose toutefois que l’entreprise soit capable
d’identifier des liens de causalité entre ses processus et des
conséquences à caractère écologique. Or souvent, la comptabilité
analytique, à travers la manière dont elle affecte les charges indirectes
aux objets dont les contrôleurs de gestion veulent calculer le coût, ne
rend pas visible les économies que permettrait la mise en œuvre de
certaines politiques environnementales au sein de l’entreprise. Pour
illustrer ce point prenons l’exemple, inspiré d’un cas réel, d’une
entreprise industrielle dont les charges indirectes
d’approvisionnement sont affectées au coût direct des matières à l’aide
d’un coefficient multiplicateur. Supposons que pour tout achat d’une
matière première ou d’un composant quelconque un coefficient de 1,1
soit appliqué pour affecter des charges indirectes. Ainsi à un achat de
100 € auprès d’un fournisseur, on ajouterait 10 € de charges indirectes
d’approvisionnement. Cette entreprise industrielle, qui réalise du
traitement de surface, envisage de remplacer les solvants qu’elle utilise
par des substituts « miracle » nettement moins écotoxiques et
présentant beaucoup moins de risques pour les employés.
Malheureusement, ces substituts coûtent 20 % de plus à l’achat.
Compte tenu du système de calcul de coût utilisé par cette entreprise,
ils devraient donc supporter encore plus de charges indirectes
d’approvisionnement que le solvant. Pourtant ces substituts, moins
dangereux, permettraient de réduire considérablement les coûts de
transport, de déchargement et de stockage. Si le responsable
environnement est capable de l’expliquer, il ne possède néanmoins pas
les outils pour le démontrer. Quant au contrôleur de gestion, ses
méthodes de calcul de coût rendent invisibles ces économies et ne
permettent pas de les relier à l’action d’acheter le substitut et donc de
les valoriser.

1.4 Les limites de l’éco-ef cacité


Pour conclure cette première partie, rappelons que cette approche du
contrôle de gestion s’inscrit dans une vision très restrictive du
développement durable, selon laquelle les modes de fonctionnement
de nos économies contemporaines ne sont pas éloignées d’un état de
développement durable et que le moyen d’y parvenir consiste à
privilégier l’éco-efficacité, c’est-à-dire la diminution de la
consommation d’énergie, de matières non renouvelables et de
nuisances écologiques par unité produite. Cette vision ne tient
nullement compte des effets volume. Par exemple, si la consommation
moyenne des voitures est passée de 8,5 l/100 kmh en 1988 à 7,09 l en
2005 (Observatoire de l’énergie, 2006), selon les statistiques fournies
par le comité des constructeurs français d’automobile, sur cette même
période le parc automobile est passé de 24 à 36 millions de véhicules,
sans que le kilométrage moyen par véhicule ne diminue, bien au
contraire. La meilleure consommation moyenne de carburant par
voiture a ainsi été plus qu’effacée par l’augmentation du parc
automobile.
Toutefois, si les enjeux écologiques liés à des phénomènes comme le
changement climatique ou la raréfaction des ressources non-
renouvelables doivent être pris en compte par des entreprises, encore
faut-il être capable d’en donner une représentation qui permette de les
comprendre et d’agir. C’est l’objet de la partie suivante que d’aborder
cette nouvelle frontière du contrôle de gestion environnemental et qui
constitue peut-être sa spécificité.

2. L’exploration de nouvelles frontières


Dans leur recherche de nouveaux outils, pour explorer les
conséquences environnementales de leur action, les organisations qui
ont expérimenté de nouvelles approches ont cherché à dépasser le
périmètre de leur responsabilité juridique pour mieux comprendre les
coûts et les bénéfices liés à leurs décisions et, au-delà des seuls coûts,
pour évaluer l’impact écologique de leurs produits et de leurs procédés
sur l’ensemble des étapes de conception, de fabrication, d’utilisation et
de fin de vie. Les initiatives sont nombreuses. Elles incluent des calculs
de coût d’un type nouveau (coût global, coûts externes) et des
comptabilités physiques de types divers qu’il serait impossible
d’évoquer dans leur intégralité dans l’espace dédié à ce chapitre. Notre
choix s’est donc porté sur les méthodes de calcul de coût et sur un
autre outil, très répandu, et fréquemment rencontré y compris dans le
recensement des outils qu’il est possible d’associer au contrôle de
gestion environnemental (Antheaume, 2013) : l’analyse de cycle de vie.

2.1 Première frontière : le calcul de coût global


Dans son livre, intitulé « The shock of the old », David Edgerton
(2007) insiste, exemples à l’appui, sur la prégnance et la longévité des
technologies les plus anciennes présentées à tort comme dépassées et
plus du tout utilisées. En conséquence, explique-t-il, l’impact de la
maintenance et de la prévalence d’une technologie est souvent sous-
estimé. L’auteur affirme ainsi que le coût d’achat d’un ordinateur
personnel, dans une entreprise, ne représente que 10 % de son coût
total une fois que les coûts d’installation, de réparation, de mise à jour
et de formation sont pris en compte. C’est à partir des années 1970 que
des industries comme celles de l’armement et du bâtiment prennent
conscience de cet état de fait et qu’elles formalisent des normes qui
permettent le calcul des coûts pour un bien, sur l’ensemble de son
cycle de vie, du berceau à la tombe. En effet, les armées sont associées
étroitement à la définition du cahier des charges des systèmes d’armes
et en restent propriétaires pour des décennies. Pour ce qui concerne le
secteur du bâtiment des collectivités s’occupant d’habitat social, ou des
administrations devant gérer un parc de bâtiments ont été très vite
confrontées à la question des frais d’entretien et, le cas échéant, de
démolition ou de désamiantage de bâtiments (Alcouffe et al., 2011).
Ces organisations, responsables de la gestion de biens sur plusieurs
décennies, qui étaient associées au choix de conception initiaux ont été
les premières à réaliser que des arbitrages pouvaient exister au
moment de la conception. Des économies dans le coût d’acquisition
pouvaient se traduire par des coûts de fonctionnement ou de
traitement beaucoup plus importants.
La première norme de calcul de coût global (life cycle costing en
anglais) est américaine et a été publiée en 1971 par le département de
la défense américain41. Dans le domaine du bâtiment, le texte
fondateur semble être celui publié en 1977 par le ministère de
l’industrie britannique42, un document qui servira ensuite de base à la
norme britannique BS 3843 en 1992. En 2000, une norme ISO 15 686
sur le coût global dans le secteur de la construction a été publiée.
Un calcul de coût global peut être représenté comme un grand
tableau. En colonne figurent les différentes années qui correspondent
à toutes les étapes du cycle de vie (conception, fabrication, utilisation,
fin de vie). En ligne figurent les différentes postes de dépenses et
éventuellement de recettes (acquisition, installation, formation,
entretien, réparations, mises à jour). La qualité des données obtenues
ainsi que la capacité à effectuer des projections sur le long terme sont
des éléments qui déterminent la possibilité que le calcul d’un coût
global puisse aider à la prise de décision. L’utilité d’un tel outil réside
dans la possibilité d’effectuer des comparaisons, toutes choses égales
par ailleurs, entre différentes solutions de conception, et de réaliser
des simulations en faisant varier les paramètres du calcul de coût
(choix de matériaux, fréquence des maintenances, probabilité
d’occurrence de pannes, taux d’inflation). Tout comme pour les
décisions d’investissement un taux d’actualisation peut-être utilisé
pour ramener l’ensemble des flux monétaires à l’année de départ de
l’investissement. Plus ce dernier sera élevé, moins les dépenses
éloignées dans le futur pèseront dans la prise de décision.
Dans une revue des cas de calcul de coût global publiés dans des
revues académiques et professionnelles, Korpi et Ala-Risku (2008)
soulignent qu’une telle pratique reste concentrée de manière
dominante dans les secteurs de l’armement et de la construction. Ils
constatent également à quel point les applications connues et publiées
s’éloignent de l’idéal prescrit dans les normes et les articles
académiques prescriptifs en (1) ne couvrant qu’une partie des étapes
du cycle de vie (2) en proposant une estimation des coûts à un niveau
très agrégé (3) en fondant l’estimation des coûts sur la base d’opinions
d’experts plutôt que sur des analyses statistiques (4) en se contentant
d’estimations statiques des coûts sur le cycle de vie au lieu d’analyses
de sensibilité. Ces résultats renvoient à la difficulté et au coût de
collecte des données nécessaires pour la réalisation d’un coût global.
Soulignons aussi qu’un problème d’échelle de temps et de
responsabilité, peu étudié mais important, contribue à la faible
diffusion de cette pratique. L’horizon temporel du calcul de coût global
ne coïncide ni avec le temps moyen pendant lequel une personne
s’attend à travailler dans une organisation donnée, ni avec le temps
moyen pendant lequel un investisseur détiendra des actions dans une
entreprise, ni avec les échéances qui rythment l’utilisation des outils
de contrôle de gestion classiques comme le budget, ou le calcul de
coût. Par exemple, un acheteur qui mettrait en place des méthodes de
calcul de coût global dans une entreprise, pour prendre des décisions
d’achat n’en verrait pas les conséquences positives en termes
budgétaires avant que son « passage » dans cette entreprise ne soit
terminé. Au contraire, en tant qu’acheteur, en acceptant des prix
d’acquisition plus élevés, avec la promesse de frais futurs de
maintenance réduits, il risque d’apparaître aux yeux de sa hiérarchie,
elle-même « de passage » dans l’entreprise, comme peu performant et
mauvais négociateur. Seules des entreprises à l’actionnariat et à la
direction stables, ou amenées à posséder un bien sur plusieurs
décennies, sont susceptibles de constituer un terreau favorable au
développement de telles méthodes.

2.2 Deuxième frontière : le calcul des coûts


externes, ou full cost accounting
Un deuxième élargissement en termes de calcul de coût concerne les
coûts externes pour la société dans sa globalité. Il ne s’agit plus ici de
coûts occasionnés à des parties prenantes qui vont fabriquer, utiliser
ou traiter un produit lors des différentes phases de son cycle de vie,
mais d’acteurs qui subissent les conséquences d’un produit sans être
parties prenantes à la gestion de son cycle de vie. Par exemple, un
article publié en décembre 2013 dans le journal Le Monde43 indique
que le Ghana subit de graves problèmes de pollution liés au flux de
produits électroniques qui sont importés dans le pays, certains de
manière illégale. Les méthodes de démantèlement de ces produits,
employées par le secteur informel causent aux personnes qui
travaillent dans ce secteur de graves troubles de santé. Les parties non
récupérables sont brûlées et/ou entassées à ciel ouvert dans des
décharges à ciel ouvert qui entrent en compétition avec d’autres
possibilités d’occupation des sols et causent notamment des pollutions
atmosphériques ainsi qu’une contamination des sols et de certaines
nappes phréatiques. Ces phénomènes ont à leur tour des
répercussions sur la production agricole, l’approvisionnement en eau
et la santé des populations exposées. L’économie néoclassique
dominante a intégré de tels phénomènes dans son analyse et les
considère comme des effets externes, qui occasionnent des coûts (ou
des bénéfices) externes au système de marché. Les recommandations
des économistes consistent soit à corriger les effets du marché via un
système de taxes selon la logique préconisée par l’économiste Pigou
(1920), soit à créer des marchés de ressources environnementales aux
droits de propriétés bien définis de telle manière à ce que le jeu de
l’offre et de la demande puisse jouer (Coase, 1960). Le premier a
directement inspiré les systèmes d’écotaxes actuellement en vigueur,
le deuxième les marchés de droit à polluer. En dépit de leurs
divergences, les économistes issus de ces deux écoles partagent le
même besoin d’évaluation monétaire des services rendus à l’économie
par les écosystèmes ainsi que des dommages que peuvent causer les
activités humaines. Sous le vocable de « full cost accounting » des
chercheurs en comptabilité comme Seidler (1976), Huizing et Dekker
(1992), Milne (1992), Epstein (1996), Bebbington and Gray (2001),
Bebbington, Gray, Hibbit and Kirk (2001), Antheaume (2004, 2007)
ont exploré comment les méthodes employées par les économistes
pouvaient être utilisées pour « corriger » le résultat comptable.
Quelques entreprises, dont la plus récente est la société Puma en 2011,
ont tenté d’estimer les coûts externes liés à leur activité et les ont
retranchés de leur résultat comptable. Dans une optique plus proche
du contrôle de gestion que de la communication externe, une
entreprise comme Schneider Électrique a expérimenté une
combinaison de calcul de coût global et de coûts externes pour
identifier dans quelle mesure les efforts de conception écologique d’un
produit pouvaient être considérés autrement que comme des surcoûts,
mais amener une réduction des coûts de fabrication, d’utilisation, de
fin de vie et des coûts externes (Martinez, Bouzidi, Antheaume, 2011,
Martinez, 2012).
Le tableau n° 2 présente le calcul publié par la société Puma en
2011, pour ses activités de l’année 2010, qui a estimé les dommages
écologiques qu’elle occasionne directement, ou via ses sous-traitants, à
145 millions d’Euros, pour un résultat net comptable, consolidé, de
202,2 millions d’Euros.

Tableau 2. Compte de résultat environnemental de la


société Puma (2010). Estimation des dommages
écologiques occasionnés par son activité
Millions Utilisation Gaz à Occupation Autres Déchets Total % du
d’Euros de l’eau effet des sols pollutions total
de atmo-
serre sphériques

33 % 33 % 25 % 7% 2% 100 %

TOTAL 47 47 37 11 3 145 100 %


Dont PUMA <1 7 <1 1 <1 8 6%

Dont sous- 46 40 36 10 2 137 94 %


traitance

Intensité Impact écologique en EUR, pour 100 EUR de ventes

Chaussures 1,8 2,0 2,4 0,5 0,1 6,7

Textile 1,9 1,5 0,3 0,3 0,1 4,1

Accessoires 1,2 1,5 0 0,3 0 2,9

D’après Puma, 2011. Puma’s environmental profit and loss account for the year ended 31
December 2010.

Sans entrer dans le détail des méthodes de calcul des coûts externes,
nombreuses et dont la présentation détaillée dépasserait l’objet de ce
chapitre, il convient de souligner que toutes reposent sur la
comptabilisation de flux de matière et d’énergie, et parfois sur
l’interprétation de ces flux en termes d’impact écologique, puis sur
leur traduction monétaire. L’évaluation monétaire peut concerner les
dommages causés (méthode du coût des dommages), ou les dépenses
qu’il aurait fallu mettre en œuvre pour éviter ces flux ou impacts
(méthode des coûts d’évitement), ou encore les dépenses que
consacrent d’autres acteurs pour se protéger des dommages
environnementaux qu’ils occasionnent (méthode du consentement à
payer). Si le calcul de coût est réalisé dans une logique dite
incrémentale, ce sont les consommations et émissions d’un site donné
qui seront inventoriées et traduites en dommages physiques44, puis
couplées à des données monétaires. On cherchera à connaître le
dommage supplémentaire causé par les activités d’un site donné. Si le
calcul de coût est réalisé dans une logique dite moyenne, le calcul du
dommage sera réalisé à niveau très agrégé (secteur industriel, pays,
continent, voire monde). Les impacts liés à une catégorie d’émissions
seront estimés à ce niveau, en même temps que l’évaluation monétaire
des dommages qu’ils causent. On divisera ensuite les dommages
totaux par la quantité d’émission, pour calculer un coût moyen par
unité d’émission. Le plus souvent, ce sont des données monétaires
disponibles dans la littérature spécialisée qui sont utilisées par les
entreprises et que ces dernières tentent d’apparier au mieux avec les
flux de matière et d’énergie, ou les impacts écologiques qu’elles ont
comptabilisées. Malgré de grandes incertitudes dans les méthodes
utilisées, malgré les difficultés que soulève l’utilisation de données
secondaires et malgré l’absence de normalisation, les
expérimentations dans ce domaine se poursuivent régulièrement, et ce
depuis les années 1970. La possibilité de pouvoir traduire des données
physiques en unités monétaires, et de les rapporter ensuite à un
résultat comptable possède probablement un fort pouvoir de séduction
qui fait que ces méthodes rencontrent un intérêt sans cesse renouvelé.
Par exemple, en 2012 un consortium d’entreprises françaises avait
lancé un appel d’offre Européen destiné à réaliser une synthèse des
méthodes utilisées et à proposer des outils directement utilisables
dans le contexte de l’entreprise. Si la volonté de garder ces travaux
propriétaires freinera probablement la diffusion de normes de calcul
acceptées par tous, cet appel d’offre marque toutefois la volonté de
transformer des expérimentations qui associent le milieu scientifique
en outils de gestion autonomes et dont les résultats peuvent être
utilisés sans que les méthodes qui ont permis de les obtenir soient
chaque fois déconstruites. Autrement dit, nous observerons peut-être,
dans les années à venir une institutionnalisation des méthodes de
calcul de coût externes dans le monde de l’entreprise. Dans un
contexte d’institutionnalisation, les incertitudes et le caractère
incomplet, très construit, des résultats obtenus ne disparaîtront pas,
mais comme chacun saura que les autres utilisent les mêmes
méthodes, ces outils deviendront acceptés et utilisés dans un objectif
d’anticipation.

2.3 Troisième frontière : l’analyse de cycle de


vie
Les pollutions générées par les sites d’une entreprise sont
géographiquement limitées et ne concernent que l’étape de fabrication
du produit ou de livraison d’une prestation de service. Les systèmes de
management environnementaux permettent justement d’optimiser
localement la performance environnementale mais ne fournissent pas
une vue d’ensemble des consommations de matière, d’énergie et des
rejets dont est responsable un produit tout au long de son cycle de vie
(de l’extraction des matières premières à la fin de vie, en passant par la
fabrication, la distribution et l’utilisation).
La fabrication d’un produit ne représente ainsi qu’une des étapes du
cycle de vie d’un produit et optimiser cette étape sans tenir compte des
autres reviendrait à négliger une fraction importante des impacts
environnementaux d’un produit. À titre d’exemple, une analyse du
cycle de vie d’un jean (ACV), publiée par l’ADEME en 200645 montre
que l’étape de production représente 31 % de la consommation
d’énergie primaire totale, et les étapes d’utilisation et de fin de vie
69 %. Cette ACV montre que pour les 13 indicateurs
environnementaux retenus pour l’analyse, dans cinq cas (dont le
réchauffement climatique) les impacts se répartissent équitablement
entre production d’une part, utilisation et fin de vie d’autre part. Pour
4 indicateurs (dont la consommation d’eau), les impacts ont
majoritairement lieu à l’étape de production. Enfin, pour les 4 derniers
indicateurs, les impacts ont lieu majoritairement aux étapes de
production et de fin de vie.
Une absence de vue d’ensemble peut éventuellement amener
chacun à réaliser localement des arbitrages qui auront un impact
négatif à d’autres étapes du cycle de vie (confier une opération
particulièrement polluante à un sous-traitant, choisir des matériaux
légers mais dont la production consomme beaucoup d’énergie ou dont
le recyclage est particulièrement difficile). L’analyse de cycle de vie est
un outil qui permet d’inclure des critères écologiques dans la
conception des produits et de réaliser des arbitrages en connaissance
de cause. Tout comme le coût global et l’évaluation des coûts externes,
l’ACV telle qu’elle est pratiquée aujourd’hui est le résultat d’une
histoire de quelques décennies. Elle remonte aux années 1960 qui
voient naître l’intérêt des industriels pour l’étude du comportement
face à l’environnement de leurs systèmes de production. Un grand
nombre d’outils et de méthodes seront proposés et utilisés pour
répondre à cette préoccupation naissante et constituent les
précurseurs l’ACV. On peut les regrouper en cinq grandes familles.
(1) Les bilans matière, outils de contrôle de gestion apparus avec le
développement de l’industrie chimique, recensent, au niveau d’une
unité de production, les consommations de matière première et
d’énergie, l’évolution de la production. Ils répondent d’abord au souci
d’un contrôle de la performance économique du site.
(2) Les bilans énergétiques, apparus avec le premier choc pétrolier
en 1973, relèvent d’un souci d’analyse et de maîtrise des
consommations d’énergie.
(3) Les REPA (Ressource and Environmental Profile Analysis) sont
des inventaires, pour un produit donné, des consommations de
matières premières et des émissions vers les milieux naturels. La
pratique des REPA est née aux Etats-Unis. On peut la rattacher à une
étude réalisée en 1969, pour Coca-Cola, par le Midwest Research
Institute, et qui consistait à étudier divers emballages pour boissons et
à déterminer ceux qui causaient le moins de rejets vers les milieux
naturels. Environ 15 REPA ont été effectuées au début des années 1970
(Weidema, 1993, p. 8) et, toujours selon le même auteur, depuis 1975
le cabinet de conseil Franklin Associates en aurait réalisé une
cinquantaine aux Etats-Unis.
(4) La méthode d’agrégation-pondération, élaborée en Suisse par le
laboratoire fédéral d’essai des matériaux et publiée en 1984, est ainsi
décrite par Blouet et Rivoire : « Cette méthodologie permettait
d’obtenir quatre pourcentages représentant les charges écologiques de
l’emballage étudié : l’un pour la consommation d’énergie, le deuxième
pour les rejets dans l’air, le troisième pour les rejets dans l’eau et le
dernier pour la production de déchets » (Blouet et Rivoire, 1995,
p. 19). La méthode d’agrégation-pondération utilisée pour le calcul de
ces quatre charges écologiques repose sur la pondération des
émissions en fonction de leur toxicité pour les humains définie par des
seuils réglementaires. Une somme pondérée est ensuite effectuée par
compartiment (eau, air, énergie, déchets). Des mises à jour de cette
méthode auront lieu, dont une donnera naissance à un indicateur
unique pour toutes les émissions : l’écopoint46.
(5) Les Produkt Linien Analyse, développées en Allemagne dans les
années 1980, constituent des inventaires très détaillés incluant, outre
les flux physiques (consommations, émissions), des indicateurs
sociaux et économiques.
La recherche de méthodes normalisées tant par les industriels que
par les Etats s’est, à l’issue des années 1980, traduite par l’émergence
d’une normalisation progressive, avec comme aboutissement la norme
ISO 14040. Le tableau n° 3 présente les grandes phases d’une analyse
de cycle de vie.

Tableau 3. Les quatre phases d’une ACV


Étape Définition Contenu

Définition des objectifs et du Détermination des objectifs et Objectifs de l’étude


champ de l’étude (Goal du cadre de l’ACV Champ de l’étude
Definition and Scoping) Unité fonctionnelle
Besoin d’une revue critique
Type de communication des
résultats

Inventaire (*) Bilan quantitatif des flux Définition du système à étudier et de


(Inventory Analysis) entrant et sortant du système ses frontières
Recueil des données : échanges
(flux) entre le système et son
environnement

Analyse des impacts (**) Étude de l’effet potentiel des Classification des flux
(Impact Assessment) flux recensés sur Caractérisation des flux
l’environnement, la santé Normalisation des flux
humaine et les ressources

Étude des améliorations Propositions en vue de réduire Identification des options


(Improvement Assessment) l’impact du système sur Evaluation des options
l’environnement Sélection des options

D’après Blouet et Rivoire (1995, p. 52) et extrait de Antheaume et


Christophe (2005).
(*) « C’est le relevé de tous les flux de matière et d’énergie qui sont générés par l’ensemble du
cycle de vie de l’objet de l’étude, depuis l’extraction des matières premières qui le composent
jusqu’à l’élimination des déchets ultimes, en passant par la fabrication, le transport et
l’utilisation. Il s’agit bien d’un inventaire de flux, autrement dit de facteurs d’impacts, et non pas
d’impacts sur l’environnement à proprement parler. Les principaux facteurs d’impact relevés
sont la consommation d’énergie et de matières premières, les rejets dans l’air et dans l’eau, et les
déchets solides. »
(**) « C’est seulement lors de cette troisième phase que les facteurs d’impact sont traduits en
impacts sur l’environnement. Autrement dit, on s’efforce d’évaluer les effets sur l’environnement
(écosystèmes, santé humaine, stocks de ressources naturelles, des flux relevés lors de
l’inventaire). Il s’agit de fournir des jugements en s’appuyant sur des connaissances
environnementales complexes et souvent controversées (l’appauvrissement de la couche
d’ozone, l’effet de serre, les pluies acides) ou réglementaires. »

Aujourd’hui l’utilisation des Analyses de cycle de vie à des fins de


conception écologique de produits ou de procédés est un fait avéré.
Elle permet d’explorer les conséquences écologiques de choix de
conception ou d’utilisation d’un produit. Par exemple, dans le cas de
l’ACV du pantalon en jean citée ci-dessus, l’utilisation de coton issu de
l’agriculture biologique permet de réduire de 90 % l’impact sur les
milieux aquatiques en eaux douces (écotoxicité aquatique), à l’étape de
production. La réduction des fréquences de lavage (passer d’un lavage
toutes les trois utilisations à un lavage toutes les dix utilisations)
permet de diminuer de 45 % la consommation d’énergie primaire.
Enfin, le lavage à 40 °C plutôt qu’à 60 °C permet de réduire de 25 %
cette même consommation d’énergie primaire. Un constat similaire
aurait été effectué par la société Procter et Gamble ce qui l’a amenée à
utiliser spécifiquement cet argument depuis 2005 en France, pour
mettre en valeur une gamme de lessives conçues pour des lavages à
froid. En conséquence de sa très grande utilisation l’ACV devient
désormais un moyen accepté par les textes réglementaires pour
prouver le respect d’obligations juridiques. Bicalho (2013) recense
ainsi 4 directives Européennes qui mentionnent où font appel à l’ACV
comme moyen de preuve du respect d’obligations à caractère
juridique. Toutefois, souligne-t-elle, le développement de l’ACV s’est
appuyé sur des logiciels qui permettent de réaliser des inventaires de
flux physiques et d’énergie à partir d’importantes bases de données
issues de sources secondaires. Grâce à ces bases de données, il est
possible de répertorier sans peine les flux associés à des centaines de
procédés industriels, sans avoir à collecter de données directes. Pour
Bicalho (2013), si cette utilisation de données moyennes est acceptable
pour des simulations et des comparaisons telles que celles présentées
ci-dessus avec l’ACV d’un pantalon en jean, elle montre des limites dès
lors qu’il s’agit d’évaluer la performance d’une entreprise en
particulier, notamment sa capacité à atteindre des objectifs ou de
respecter la réglementation. Des données moyennes ne sauraient
suffire et si l’ACV doit devenir un outil de contrôle cela doit passer par
la collecte et l’utilisation de données spécifiques à chaque entreprise et
un travail sur la réduction des incertitudes liées à la qualité des
données collectées.

Conclusion
Dans ce chapitre, nous avons montré que le contrôle de gestion
environnemental est à la fois une prolongation du contrôle de gestion
classique et une activité d’exploration des conséquences
environnementales d’une organisation, à des fins d’apprentissage
organisationnel. Cette activité d’exploration mobilise de nouveaux
outils, empruntés à des disciplines différentes et avec une grande
variété de filiations. Certains de ces outils émergents sont en fait des
méthodes scientifiques destinées à estimer les impacts sur les milieux
naturels et la santé humaine des produits et des procédés.
L’émergence d’un contrôle de gestion environnemental consiste à faire
sortir ces outils du domaine des sciences de l’ingénieur, des sciences
de la vie et des sciences physiques, où elles ont été conçues, pour en
faire des outils de gestion. Pour comprendre le processus selon lequel
cette émergence a lieu, Delphine Gibassier (2014) propose de
l’analyser comme un processus d’innovation et analyse différents cas
sous l’angle de la littérature consacrée à ce concept. Elle propose ainsi
une voie de recherche prometteuse pour donner à voir la création,
l’institutionnalisation, l’adoption puis la pratique d’outils associés au
contrôle de gestion environnemental.

Références bibliographiques
Alcouffe S., Berland N., Dreveton B. & Essid M. (2011). Une lecture de
la construction des coûts de désamiantage par la théorie des parties
prenantes. Congress on Social and Environmental Accounting
Research. Paris Dauphine.
Antheaume N. & Teller R. (2001). Quel regard vers d’autres formes de
comptabilité : comptabilité sociétale et comptabilité
environnementale. In Dumontier P. & Teller R. (Eds.), Faire de la
recherche en comptabilité financière. Paris, Vuibert, pp. 85–99.
Antheaume N. (2004). Valuing external costs – from theory to
practice : implications for full cost environmental accounting.
European Accounting Review, 13 (3), 443–464.
Antheaume N. & Christophe, B. (2005). La comptabilité
environnementale. Des outils pour évaluer la performance
écologique. E-theque, www.numilog.fr.
Antheaume N. (2007). Full cost accounting : Adam Smith meets
Rachel Carson ? In Unerman J., Bebbington J. & O’Dwyer B. (Eds.),
Sustainability Accounting and Accountability. London, New-York,
Routledge, pp. 221–225.
Antheaume N. (2013). Le contrôle de gestion environnemental. État
des lieux, état de l’art. Comptabilité Contrôle Audit, 3 (19), 9–34.
Bebbington J. & Gray R. (2001). An Account of Sustainability : Failure,
Success and a Reconceptualization. Critical Perspectives on
Accounting, 12 (5), 557 – 588.
Bebbington J., Gray R., Hibbit C. & Kirk E. (2001). Full Cost
Accounting : An Agenda for Action. ACCA, 171 p.
Bicalho T. (2013). Les limites de l’ACV. Étude de la soutenabilité d’un
biodiesel issu d’huile de palme brésilienne. Thèse de doctorat en
sciences de gestion. Université Paris Dauphine.
Blouet A. & Rivoire E. (1995). L’Écobilan, les produits et leurs impacts
sur l’environnement. Paris, Dunod.
Christophe B. (1995). La comptabilité verte : de la politique
environnementale à l’écobilan. Bruxelles, De Boeck-Université,
186 p.
Coase R.H. (1960). The problem of social cost. The Journal of Law and
Economics, (3), 1–44.
Commissariat général au développement durable. (2010). Le Point sur
les dépenses de protection de l’environnement des entreprises.
Paris, 4 p.
Edgerton D. (2007). The Shock of the Old, Technology and Global
History since 1900. Oxford, Oxford University Press, 334 p.
Epstein M.J. (1996). Improving environmental management with full
environmental cost accounting. Environmental Quality
Management, 6 (1), 11–22.
Gibasser D. (2014). Environmental Management Accounting
Development : Institutionalisation, Development and Practice. École
des Hautes Études Commerciales, Paris.
Gray R.H., Owen D. & Maunders K.T. (1987). Corporate Social
Reporting : Accounting and accountability. London, New-York,
Hemel Hempstead, Prentice Hall.
Huizing A. & Dekker C.H. (1992). Helping to Pull our Planet out of the
Red : An Environmental Report of BSO/Origin. Accounting
Organisations and Society, 449–458.
INSEE (2010). L’impact de la réglementation antipollution sur les
investissements des établissements industriels de 1992 à 2007,
Paris, 9 p.
Jasch C. (2001). Environmental Management Accounting —
Procedures and Principles. Nations Unies, New-York, 153 p.
Jasch C. (2003). The Use of Environmental Management Accounting
(EMA) for identifying environmental costs. Journal of Cleaner
Production, 11, 667–676.
Korpi E. & Ala-Risku T. (2008). Life cycle costing : a review of
published case studies. Managerial Auditing Journal, 23 (3), 240–
261.
Martinez S. (2012). Élaboration d’un outil de comptabilité
environnementale destiné à produire une évaluation élargie des
coûts et bénéfices privés lies a une décision d’investissement. Thèse
de doctorat en génie industriel. Université de Technologie de Troyes.
Martinez S., Hassanzadeh M., Bouzidi Y. & Antheaume N. (2011). Life
cycle costing assessment with both internal and external costs
estimation. In Hesselbach J. & Herrmann C. (Eds.), Glocalized
Solutions for Sustainability in Manufacturing. Springer Berlin
Heidelberg, pp. 641–646.
Milne J.M. (1992). Accounting, Environmental Resource Values, and
Non-market Valuation Techniques for Environmental Resources : A
Review. Accounting, Auditing & Accountability Journal, 4 (3), 80–
108.
Observatoire de l’énergie (2006). Consommation de carburant des
voitures particulières en France, 1988-2005. Paris, 9 p.
Pigou A.C. (1920). The Economics of Welfare. London, Mac Millan.
Richard J. (2012). Comptabilité et Développement Durable. Paris,
Economica, p. 263.
Seidler L.J. (1976). Dollar values in the social income statement.
World, Peat Marwick Mitchell and Co, 14–23.
Schaltegger S., Bennett M., Burritt R.L. & Jasch C. (Eds.). (2009).
Environmental Management Accounting for Cleaner Production,
vol. 24. Dordrecht, Heidelberg, London, New-York, Springer.
US Environmental Protection Agency. (1995). An Introduction to
Environmental Accounting As A Business Management Tool,
Washington, 26 p.
Weidema B.P. (1993). Environmental Assessment of Products, A
Textbook on Life Cycle Assessment. Helsinki, UETP-EEE/The Finnish
Association of Graduate Engineers, 114 p.
Chapitre 11

Le contrôle de gestion de
l’immatériel : concept, outils et
méthodes

LAURENT CAPPELLETTI

Les économies occidentales sont devenues en une décennie


massivement immatérielles. Selon une étude de la Banque Mondiale,
l’économie française est immatérielle à 86 % et sur les grandes places
financières, l’évolution est de même nature. Ainsi, la valeur
immatérielle des entreprises cotées serait devenue nettement
supérieure à leur valeur comptable. Il va sans dire que dans son rôle de
pilotage des performances, le contrôle ne peut donc absolument plus
passer à côté de l’immatériel. Or, et c’est le problème, l’immatériel est
un ensemble d’objets et de phénomènes qui concourent à l’activité
d’une entreprise mais qui ne sont pas, ou très mal, reflétés dans les
états comptables traditionnels à l’exception de quelques actifs
incorporels (intangible assets) tels que les logiciels ou les brevets
(Cappelletti, 2012). Le contrôle de gestion de l’immatériel pour exister
demande ainsi au contrôle de se réinventer et de sortir, à tout le
moins, de ses outils et méthodes traditionnels fondés volens nolens
sur les états comptables. Dans ce contexte, le chapitre explore trois
domaines fondamentaux dans lesquels le contrôle de gestion de
l’immatériel peut d’ores et déjà se concrétiser : le contrôle de la
performance durable, le pilotage du capital humain et le calcul de la
rentabilité des investissements immatériels.

1. Le contrôle de la performance
1. Le contrôle de la performance
durable
Le déplacement de la performance de l’économique vers le durable
auquel nous assistons depuis dix ans pose problème au contrôle de
gestion. En effet, les performances sociales et environnementales, sur
lesquelles repose la performance durable avec la performance
économique, mettent en jeu des phénomènes immatériels, que ses
méthodes traditionnelles ne parviennent pas, ou mal, à saisir. Il
convient donc pour mesurer et contrôler la performance durable, et
notamment ses composantes sociales et environnementales qui sont
essentiellement immatérielles, de mobiliser des indicateurs et une
méthodologie de mesure adaptés.

1.1. Les indicateurs de la performance durable


Depuis une décennie, on assiste à la mise en place d’une information
environnementale et sociale de la part des entreprises. Cela débouche
dans les entreprises par la réalisation de rapports de gestion intégrés
qui font entrer dans les comptes la réalité extra financière ou
immatérielle de l’entreprise. Ainsi la France a fait une avancée en ce
sens avec la loi Grenelle II instituant un reporting environnemental
obligatoire pour les entreprises de plus de 500 salariés. Aujourd’hui, la
grande majorité des sociétés du CAC 40 ont intégré dans leurs
rapports de gestion des indicateurs extra-financiers, sociaux et
environnementaux, qu’elles font même parfois certifier ou auditer par
des commissaires aux comptes ou un organisme tiers indépendant.
Nombre d’entre elles ont aussi décidé d’utiliser une norme
internationale de présentation de ces indicateurs immatériels appelée
« global reporting impact », ce qui signifie que les données peuvent
être comparées avec d’autres (Chauveau, 2011).
La mesure de la performance durable par le contrôle de gestion
demande donc la construction d’indicateurs pertinents, c’est-à-dire
d’informations utiles à la décision, sur ses trois dimensions
économiques, sociales et environnementales. Le choix des indicateurs
doit se faire en fonction de la stratégie de l’entreprise sur ses trois
dimensions. Par exemple, si l’entreprise ne s’est pas fixée d’objectifs
stratégiques de réduction de l’absentéisme ou d’amélioration des
conditions de travail, il ne lui sert à rien de construire des indicateurs
sur ces thématiques. En conséquence, construire des indicateurs de
mesure de la performance durable demande, au préalable, la
définition d’une stratégie puis sa déclinaison en indicateurs
économiques, sociaux et environnementaux de deux natures
différentes (Cappelletti, 2010) :
1. Soit les indicateurs évaluent des actions qui ont un impact
immédiat sur les résultats de l’entreprise. Il s’agit alors
d’indicateurs de résultat immédiat comme : des indicateurs
financiers mesurant le ROI (return on investments, retour sur
investissements), la CAF (capacité d’auto-financement) ou l’EVA
(Economic Value Added) ; des indicateurs sociaux mesurant la
satisfaction des salariés au travail comme l’absentéisme, la
rotation du personnel, les accidents du travail et les maladies
professionnelles ; et des indicateurs environnementaux
mesurant par exemple les pénalités et les amendes versées pour
non-respect de règlements sur l’hygiène, la sécurité ou la
pollution.
2. Soit les indicateurs évaluent des actions qui ont un impact à plus
long terme sur les résultats de l’entreprise. Il s’agit alors
d’indicateurs de création de potentiel comme : des indicateurs
économiques mesurant les ratios financiers d’exploitation ; des
indicateurs sociaux mesurant la qualité des conditions de travail
et de la gestion des ressources humaines ; et des indicateurs
environnementaux et sociétaux centrés sur l’image de marque de
l’entreprise ou les risques environnementaux. Les indicateurs de
création de potentiel mesurent des phénomènes et appréhendent
des risques qui auront, ou pourraient avoir, un impact sur la
création de valeur future de l’entreprise.
En résumé, les indicateurs de mesure de la performance durable
sont de trois natures différentes (économique, sociétale et
environnementale) et de deux temporalités distinctes (résultats
immédiats et création de potentiel). Ils peuvent prendre également
trois formes : qualitative, quantitative et financière. Des exemples
d’indicateurs fréquents de la performance durable sont présentés dans
le tableau 1.

Tableau 1. Exemples d’indicateurs de la performance


durable (Cappelletti, 2012)
Performance Performance Performance Performance
durable économique et sociale sociétale et
Indicateurs financière environnementale
Résultats Soldes Taux Procès pour non-
immédiats : intermédiaires d’absentéisme, conformité : hygiène,
impacts à court de gestion taux de rotation sécurité, pollution.
terme sur les (chiffre du personnel, Actions
résultats d’affaires, maladies d’associations de
excédent brut professionnelles, consommateurs.
d’exploitation…), défauts de Procès d’associations
return on qualité, jours de contre les
investments grèves… discriminations.
(ROI), cash flow Bilan CO2…
(CAF), economic
value added
(EVA), free cash
flow…
Création de Satisfaction Résultats Image de marque,
potentiel : client, d’audits sociaux notoriété, attractivité
impacts à plus fidélisation des sur les auprès des jeunes
long terme sur clients. Ratios conditions de diplômés… Risques
les résultats financiers travail, environnementaux…
d’investissement, l’organisation du
d’exploitation, de travail, la
trésorerie. formation.
Risques Risques
financiers… sociaux…

1.2. Le processus de contrôle de la performance


1.2. Le processus de contrôle de la performance
durable
Lorsque l’entreprise a défini ses indicateurs de performance durable,
et en a fixé les valeurs cibles, le contrôle de gestion de la performance
durable s’effectue selon un processus à la fois technique et humain, en
quatre étapes présenté figure 1.

Figure 1. Les quatre étapes du processus de mesure de


la performance durable (Cappelletti, 2012)

Étape 1 : construction par le contrôle de gestion d’indicateurs


pertinents à partir de la stratégie poursuivie donc en concertation
étroite avec la direction de l’entreprise,
Étape 2 : réalisation des mesures par le contrôle de gestion soit
directement dans les équipes soit au travers des reporting remontés
par les équipes,
Étape 3 : discussions contradictoires des mesures avec le
management de l’entreprise, notamment le dirigeant et la DRH pour
leur donner du sens,
Étape 4 : conclusion des débats et réalisation des rapports de
contrôle de gestion.
La mesure de la performance durable n’est pas un processus
« indiscutable » qui peut être synthétisé dans un chiffre unique.
Comme on l’a vu dans le tableau 1, les indicateurs de la performance
durable peuvent être nombreux et multiples. Ils ne sont pas
réductibles à un chiffre unique qui permettrait de trancher aisément
sur le fait que l’entreprise a créé, ou non, de la performance durable.
C’est pourquoi, une fois les mesures effectuées par le contrôle de
gestion, celui-ci doit susciter des discussions contradictoires entre les
parties prenantes de la mesure, par exemple un dirigeant avec ses
actionnaires, un salarié avec son manager, un acheteur avec un
vendeur d’entreprise. Ces discussions contradictoires ont lieu en
amont de la mesure pour choisir les indicateurs retenus, et en aval
pour discuter et établir les conclusions de la mesure réalisée (est-ce
que la performance mesurée est bonne, médiocre, ou mauvaise ?).
Néanmoins, les indicateurs de performance durable sont parfois
sources d’insatisfaction pour les dirigeants et les managers car ils sont
souvent sans connexion les uns avec les autres. L’enjeu pour le
contrôle de gestion se situe bien là : il doit être capable, certes, de
produire des indicateurs de performance durable, mais il doit aussi les
connecter les uns avec les autres.

1.3. La méthode socio-économique de mesure


de la performance durable
Le défi proposé par la mesure de la performance durable au contrôle
de gestion est celui de produire des indicateurs qualitatifs, quantitatifs
et financiers des performances sociales et environnementales, en
complément des indicateurs traditionnels de la performance
économique et financière. Le contrôle de gestion de l’immatériel doit
donc évoluer vers la production d’indicateurs « qualimétriques »,
c’est-à-dire prenant alternativement une forme qualitative,
quantitative et financière (Savall, Zardet, 2005). La mesure de la
performance économique et financière s’effectue facilement au moyen
des indicateurs comptables et financiers traditionnels, dont des
exemples ont été proposés dans le tableau 1. La mesure
« qualimétrique » des performances sociales et environnementales
peut quant à elle se faire grâce à une méthodologie innovante appelée
méthode socio-économique (Savall, 1974, 1975 ; Savall, Zardet, 1987,
2008, 2010).

1.3.1 La mesure des performances économiques et f


nancières
La performance économique et financière se lit traditionnellement
dans les indicateurs comptables et financiers. Nous n’approfondirons
pas plus avant ces mesures qui sont décrites et expliquées dans tous
les bons ouvrages de comptabilité de gestion et de contrôle.

1.3.2 La mesure « qualimétrique » de la performance sociale


La méthode socio-économique a été expérimentée depuis 1974 sur
plus de 1 400 entreprises et organisations - telles que Brioche
Pasquier, la Poste, de multiples PME et TPE des services et de
l’industrie – dans 34 pays différents (Savall, Zardet, 2010). Pour
mesurer la performance sociale, l’originalité de la méthode est de
s’écarter de la comptabilité en constatant qu’elle était inopérante pour
cela. Elle propose une méthodologie extra comptable de mesure de la
performance sociale appelée méthodologie des coûts-performances
cachées. Celle-ci repose sur un diagnostic socio-économique qui porte
sur les dysfonctionnements d’organisation et de management, c’est-à-
dire les perturbations qui nuisent à la qualité de vie au travail des
acteurs d’un espace de travail donné. Deux modules composent le
diagnostic socio-économique qui permettent de mesurer
qualitativement, quantitativement et financièrement la performance
sociale : un module qualitatif puis un module quantitatif et financier.

1.4 Le module qualitatif du diagnostic socio-


économique
Les dysfonctionnements sont identifiés lors d’entretiens d’abord
qualitatifs avec l’encadrement et au moins 30 % du personnel de base
de l’espace de travail diagnostiqué. Ils sont repérés dans six thèmes
qui constituent des variables explicatives du fonctionnement :
1. les conditions de travail (locaux, ambiance de travail,
matériels…) ;
2. l’organisation du travail (répartition des missions et des
fonctions, règles et procédures, organigramme, régulation de
l’absentéisme…)
3. la communication-coordination-concertation (dispositifs de
communication, transmission des informations, réunions…) ;
4. la gestion du temps (planification et programmation des
activités, travail dans l’urgence, gestion des délais…) ;
5. la formation intégrée (qualité des formations, gestion des
compétences…) ;
6. la mise en œuvre stratégique (pertinence de la stratégie, qualité
de la mise en œuvre stratégique, pertinence des politiques
d’entreprise : GRH, commercial etc.).
Les six thèmes de dysfonctionnements permettent de repérer et de
classer de façon qualitative tous les dysfonctionnements qui dégradent
la performance sociale. Il s’agit à ce stade d’une première mesure
qualitative de la performance sociale par la négative pourrait-on dire,
en inventoriant ses facteurs de dégradation.

1.5 Le module quantitatif et f nancier du


diagnostic socio-économique
Une fois les dysfonctionnements inventoriés, les pertes de valeur
ajoutée qu’ils engendrent sont calculés au travers du module
quantitatif et financier du diagnostic. Ces pertes de valeur ajoutée sont
appelées coûts cachés, car la comptabilité ou les méthodes de contrôle
de gestion traditionnelles qui lui sont associés, ne permettent pas de
les évaluer, ou bien de manière très imparfaite. Les actions entreprises
pour réduire les dysfonctionnements et les coûts cachés qu’ils
engendrent seront donc, si elles réussissent, créatrices de
performances par la réduction des pertes de valeur ajoutée
provoquées. D’où la terminologie « coûts-performances cachés » de la
méthodologie. Le calcul des coûts cachés suit un modèle général de
calcul présenté dans le tableau 2.

Tableau 2. Modèle général de calcul des coûts cachés

sursalaires surtemps surconsommations non non- risques


productions création
de
potentiel

absentéisme

accident du
travail
rotation du
personnel

défauts de
qualité

écarts de
productivité

© ISEOR

Les cinq indicateurs de dysfonctionnements


Pour calculer les coûts cachés des dysfonctionnements, de nouveaux
entretiens, cette fois quantitatifs et financiers, sont menés auprès des
cadres de l’espace de travail diagnostiqué. Ces entretiens consistent
d’abord à repérer les impacts des dysfonctionnements sur la
performance sociale au moyen des cinq indicateurs présentés dans le
tableau 2 :
1. l’absentéisme,
2. les accidents du travail et les maladies professionnelles
3. la rotation du personnel
4. les défauts de qualité
5. les écarts de productivité ou la sous efficacité
Ces cinq indicateurs sont considérés comme les plus représentatifs
des problématiques de performance sociale, non seulement par la
méthode socio-économique mais également par la littérature en
gestion des ressources humaines et contrôle de gestion. Plus la
performance sociale est dégradée, et plus les niveaux de ces cinq
indicateurs seront élevés. À l’inverse, une bonne performance sociale
se traduira par des niveaux maîtrisés, conformes aux attentes de
l’entreprise ou à ses normes de fonctionnement, dans les cinq
indicateurs.
Les six composants de coûts cachés
Une fois l’impact des dysfonctionnements repérés dans un des cinq
indicateurs, les coûts cachés sont évalués en chiffrant leurs
conséquences économiques sur l’exercice, ou l’année de référence (12
mois), pris en considération. Pour cela, les conséquences des
dysfonctionnements, appelées « actes de régulation » ou
« régulations », sont identifiées lors des entretiens puis chiffrés en
euros au moyen des six composants présentés dans le tableau 2 :
1. les surconsommations correspondent à des régulations qui se
traduisent par des consommations supplémentaires de biens ou
de services ;
2. les sursalaires sont utilisés lorsqu’une régulation se traduit par
des actions réalisées par une personne titulaire d’une fonction
mieux rémunérée que celle qui devrait l’assumer (glissement de
fonction), ou lorsque des salaires sont versés à des personnes
absentes compte tenu des conventions collectives en vigueur ;
3. les surtemps correspondent à des activités de régulation qui
prennent du temps supplémentaire ;
4. les non-productions surviennent en cas d’absence d’activité, d’un
arrêt de travail, ou bien de pertes d’opportunités commerciales ;
5. les non-créations de potentiel et les risques correspondent à des
régulations futures (non-création de potentiel) ou probables
(risques).
Les conséquences des dysfonctionnements se traduisent donc par
des régulations consommatrices de temps supplémentaires d’activités
humaines (et cela concerne en premier lieu les surtemps), et/ou
sources de pertes de temps supplémentaires d’activités humaines (et
cela concerne en premier lieu les non-productions) et/ou
consommatrices de biens ou de services supplémentaires (et cela
concerne en premier lieu les sursalaires et les surconsommations).
Dans la méthode des coûts-performances cachés, les
consommations de biens ou services supplémentaires sont évaluées à
partir des coûts effectifs des biens et des services concernés (prix
d’achat sur facture, taux horaire salarial chargé…). Les temps humains
sont valorisés à la contribution horaire à la valeur ajoutée sur coût
variable (CHVACV). La CHVACV est égale au rapport de la marge sur
coûts variables sur le nombre d’heures de travail attendues pendant
l’année considérée. La marge sur coût variable étant égale à la
différence entre le chiffre d’affaires réalisé et les charges variables.
L’illustration 1 présente le calcul de la CHVACV dans le cas d’un
cabinet d’expertise comptable Alpha de 20 personnes dont 2 associés,
4 cadres chefs de missions et 14 collaborateurs.

Illustration 1. CHVACV d’un cabinet d’expertise


comptable (année 2010) (Cappelletti, 2012)
Données
comptables Montant Nature
et sociales
Chiffre 1 500 K€ Ventes de missions de conseil, de gestion de
d’affaires la paie et de tenue de comptes
Charges 290 K€ Principalement : consommations de papiers,
variables frais de transports, petits matériels. Les
charges variables représentent environ 20 %
du chiffre d’affaires du cabinet.
Marge sur 1 210 K€ Cette marge sert à financer les charges fixes
coût variable du cabinet et à dégager le résultat de
l’exercice une fois déduites ces charges
principalement : les salaires, le loyer, les
assurances et les amortissements. Cette
marge représente 80 % environ du chiffre
d’affaires du cabinet (1 – taux de marge
variable)
Nombre 26 103 heures Nombre total d’heures de travail attendues
d’heures de pour l’ensemble du cabinet des associés et
travail des collaborateurs, dont certains ne sont pas
attendues employés à plein-temps
CHVACV 46,30 € Une heure correctement travaillée dans le
cabinet dégage en moyenne, quel que soit
son auteur, 46,30 € de valeur ajoutée. Une
heure passée à réguler un dysfonctionnement
dans le cabinet coûte donc 46,30 € de perte
de valeur ajoutée.
La CHVACV représente donc la valeur ajoutée moyenne créée en
une heure de travail dans l’entreprise considérée. C’est cette valeur
ajoutée qui est perdue, si le temps d’activité humaine est passé à
réguler un dysfonctionnement au lieu de réaliser le fonctionnement
prévu (dit « orthofonctionnement »). Autrement dit, la méthode socio-
économique considère que le coût d’un dysfonctionnement correspond
à la perte de la valeur ajoutée qui aurait été réalisée s’il n’avait pas eu
lieu.
Le chiffrage économique des coûts cachés
On déduit donc aisément de ces explications, l’unité de valorisation
des six composants de dysfonctionnements :
1. les sursalaires sont évalués à partir du coût des salaires versés
pour réguler le dysfonctionnement ;
2. les surtemps sont évalués à partir de la CHVACV ;
3. les surconsommations sont évaluées à partir du coût d’achat des
biens ou des services surconsommés ;
4. les non productions sont évaluées à partir de la CHVACV, ou
bien pour les pertes d’opportunités commerciales directement à
partir du chiffre d’affaires perdu diminué du taux de marge
variable ;
5. les non-créations de potentiel et les risques sont valorisés en
utilisant soit la CHVACV soit les coûts des biens et des services
visés par le dysfonctionnement évalué.
Pratiquement, la méthode socio-économique consiste pour chaque
dysfonctionnement détecté dans les six thèmes, puis imputé dans un
des cinq indicateurs, à inventorier les régulations qu’ils engendrent et
à valoriser le coût de ces régulations en euros en fonction des six
composants qu’elles mobilisent. Elle permet de mesurer
qualitativement, quantitativement et financièrement, c’est-à-dire de
façon qualimétrique, la performance sociale. Le total des coûts cachés
des six dysfonctionnements étudiés dans le cas du cabinet d’expertise
comptable Alpha pris en exemple s’élevait à 104 095 € sur l’année
considérée. Ce total représente en euros l’inefficience sociale du
cabinet liée à ses défauts de fonctionnement et de management. Ce
montant représente aussi pour le cabinet un gisement de ressources
partiellement récupérables en valeur ajoutée par des actions
d’amélioration de la performance sociale. « Partiellement
récupérables » car tous les dysfonctionnements et leurs coûts cachés
ne sont pas réductibles à 100 %, certains étant incompressibles, c’est-
à-dire inévitables. Par exemple, il y a un niveau minimal
d’absentéisme selon les secteurs sous lequel il est impossible de
descendre.
À partir du moment ou l’on sait évaluer les coûts cachés des
dysfonctionnements, on devient capable de calculer la création de
valeur de n’importe quelle action conforme à la stratégie décidée (soit
un « orthofonctionnement ») en évaluant tout simplement les coûts
cachés qu’elle a réduits. Par exemple, la création de valeur d’une
politique de réduction de l’absentéisme sera chiffrée en inventoriant
les dysfonctionnements provoqués par l’absentéisme et leurs coûts
cachés, puis en mesurant la réduction de ces dysfonctionnements et de
leurs cachés provoqués par cette politique. La méthode socio-
économique et sa méthodologie des coûts-performances cachés
fournissent donc aux managers et aux contrôleurs de gestion des clés
d’entrée pour valoriser la rentabilité des investissements immatériels
et du capital humain, comme nous l’étudierons plus avant dans le
chapitre.

1.6. La mesure qualimétrique de la performance


environnementale
La mesure de la performance environnementale en est encore à ses
balbutiements. Au-delà d’une approche par indicateurs pertinents,
comme ceux présentés dans le tableau 1. du chapitre, il n’y a pas
encore vraiment de méthode de mesure de la performance
environnementale, expérimentée et suffisamment diffusée.
Néanmoins, la méthode socio-économique et sa méthodologie des
coûts-performances cachés sont aussi adaptées à la mesure de la
performance environnementale comme nous allons l’expliquer. Elle
présente une alternative opérante pour mesurer la performance
environnementale en l’appliquant exactement de la même façon que
pour la performance sociale. D’une part, tous les dysfonctionnements
environnementaux et sociétaux que subit une entreprise – pollution
excessive engendrant des maladies professionnelles, absence de labels
verts engendrant des pertes de client ou de marchés, consommations
excessives de papiers, bilan carbone dégradé, mauvaise image de
marque etc. - peuvent faire l’objet d’un calcul de coûts-performances
cachés en mobilisant les modules qualitatifs, quantitatifs et financiers
du diagnostic socio-économique. D’autre part, toute action volontaire
d’une entreprise pour améliorer sa performance environnementale et
sociétale – réduction des consommations d’eau et d’énergie fossile,
amélioration de l’application des normes d’hygiène et de sécurité,
acquisition d’un label vert, promotion de l’image de marque de
l’entreprise etc. - peut faire l’objet d’un chiffrage de la création de
valeur qu’elle engendre en inventoriant les dysfonctionnements et les
coûts cachés qu’elle a réduits. L’illustration 2 présente une telle
mesure de la performance environnementale dans le cas du cabinet
d’expertise comptable Alpha pris en exemple.

Illustration 2. La mesure de la performance


environnementale dans un cabinet d’expertise comptable
(extrait) (Cappelletti, 2012)
Actions Dysfonctionnements Coûts cachés des Evaluation de la
d’amélioration de visés dysfonctionnements réduction des coûts
la performance visés cachés provoquée
environnementale par les actions
et sociétale d’améliorations (=
création de valeur)

Réduction des Surconsommation de 10 000 € par an 5 000 € : économie de


consommations de papier (surconsommation) papier
papier :
généralisation des
dossiers électroniques
de travail

Organisation de Manque de notoriété du 50 000 € par an de 30 000 € : ventes de


conférences cabinet au niveau missions perdues (non- missions nouvelles
thématiques au sein régional productions)
du cabinet pour les
dirigeants des
entreprises locales
Parrainage Manque de notoriété du 20 000 € par an de temps 10 000 € : temps
d’événements cabinet auprès des supplémentaires passés gagnés avec les
régionaux : marathon collectivités territoriales avec les collectivités collectivités
annuel de la ville territoriales sur des territoriales pour régler
problèmes administratifs des problèmes
par manque de notoriété administratifs
du cabinet

2. Le pilotage du capital humain


Le capital humain est un composant essentiel du capital immatériel de
l’entreprise sujet à d’innombrables débats et interrogations. Le terme
de capital humain trouve son origine dans les travaux de Gary Becker
(Becker, 1964) qui désignât par ce terme l’ensemble des aptitudes,
physiques comme intellectuelles, de la main-d’œuvre favorable à la
production économique. Depuis ces travaux fondateurs, le capital
humain a fait l’objet d’un intérêt jamais démenti en contrôle de
gestion et en GRH. La crise économique mondiale que nous
connaissons depuis 2008 a redonné une nouvelle vigueur aux travaux
sur le capital humain, en soulignant son rôle central dans la
performance durable des organisations et la nécessité pour le contrôle
de gestion de l’approcher avec plus de précisions.
Le modèle socio-économique propose une alternative extra-
comptable à la mesure du capital humain tout à fait opérationnelle.
Selon le modèle, le capital humain est mesurable sur une période
adaptée par la mesure de l’évolution des dysfonctionnements et des
coûts cachés qu’ils engendrent. Si les dysfonctionnements
managériaux et les vulnérabilités en compétences augmentent, le
niveau des coûts cachés va augmenter indiquant une dégradation du
capital humain, l’inverse indiquant son développement. Ainsi, le
capital humain est vu selon ce modèle comme une dynamique
continue de réduction de « l’entropie » organisationnelle, c’est-à-dire
de la dégradation naturelle des systèmes humains au fil du temps
(Cappelletti, 2006 ; Cappelletti, Baker, 2010).
La méthodologie socio-économique se déroule en deux temps sur
une période donnée :
Premier temps en T avec la réalisation du diagnostic des
dysfonctionnements et des coûts cachés : l’ensemble est
appelé diagnostic socio-économique.
Deuxième temps, en T + 1 avec la réalisation d’une
évaluation socio-économique. Les dysfonctionnements et les
coûts cachés font l’objet d’un nouveau diagnostic en T +1 qui est
comparé au diagnostic réalisé en T pour repérer l’évolution des
dysfonctionnements, de leurs coûts cachés et des compétences sur la
période considérée. Si les dysfonctionnements et leurs coûts cachés
augmentent sur la période, cela indique une réduction de l’inefficience
sociale ou, en d’autres termes, de l’entropie organisationnelle, c’est-à-
dire une amélioration de la qualité du management et des
compétences. On pourra alors conclure en un développement du
capital humain sur la période.
Il existe peut-être d’autres méthodologies opérationnelles
d’évaluation du capital humain, mais l’approche socio-économique est
intéressante à double titre. D’une part, elle propose une traçabilité
entre le capital humain et les performances économiques utiles à sa
mesure en amont et son pilotage en aval. D’autre part, elle apprécie le
capital humain de façon dynamique et non pas statique. Or, en tant
que phénomène humain toujours en mouvement, le capital humain ne
peut s’évaluer, selon nous, qu’au travers d’une dynamique. Ainsi, en
termes de mesure, l’approche socio-économique permet d’évaluer des
stratégies de développement du capital humain. Elle peut aussi venir
compléter des processus d’évaluation d’entreprises dans des
perspectives d’acquisition ou de cession, en produisant des
informations sur le potentiel humain qui sont généralement occultées.
En termes de pilotage, l’approche permet au contrôle de gestion de
savoir sur quels leviers agir – absentéisme, rotation du personnel,
accidents du travail, défauts de qualité, sous efficacité – pour stimuler
les performances au travers des actions ciblées sur le capital humain
(Cappelletti, 2012).

3. La mesure de la rentabilité des


3. La mesure de la rentabilité des
investissements immatériels
Quelle réalité recouvre les investissements immatériels et comment
passe-t-on de ce concept à celui de capital immatériel puis d’actif
immatériel ? Par exemple, comment valoriser le retour sur
investissement (return on investments ou ROI) des démarches de
développement durable ou de RSE qui aujourd’hui figurent parmi les
investissements immatériels les plus mobilisés ? Les études sur le sujet
montrent que si la majorité des entreprises estiment utile de mesurer
ce ROI, aucune ne le ferait par manque de méthodologie (Quiret,
2011).

3.1 La typologie des investissements


immatériels
Avec la reconnaissance de son importance stratégique dans le
développement des organisations, l’immatériel est devenu un domaine
où les définitions sont foisonnantes. L’impression qui se dégage est
que chaque expert aurait sa propre définition de ce terme, les uns
parlant d’investissement immatériel, les autres de capital immatériel
et d’autres encore d’actifs immatériels. Une clarification des concepts
servant à qualifier les immatériels est donc nécessaire, car on ne
mesure bien que ce que l’on a défini clairement au préalable.

3.1.1 Des investissements immatériels aux actifs immatériels


De façon triviale, est immatériel ce qui n’est pas matériel, autrement
dit ce qui ne se voit pas. Une usine, une machine, des locaux sont des
« objets » matériels, alors qu’une politique de ressources humaines, de
développement durable ou de gestion de la relation clients sont des
« objets » essentiellement immatériels même s’ils peuvent mobiliser
certains éléments matériels. Par exemple, une politique de ressources
humaines peut intégrer des achats de sièges de bureau plus
ergonomiques. Il faut sortir des outils traditionnels de la comptabilité
et du contrôle pour saisir les phénomènes immatériels. La figure 2.
propose en ce sens une cartographie extra-comptable de l’immatériel.
Figure 2. Cartographie des immatériels de l’entreprise
(Cappelletti, Hoarau, 2013)

Les Investissements Immatériels, Intellectuels et Incorporels


(Savall, Zardet, 1987, 2010) (« 4I » ou investissements immatériels en
raccourci) sont des processus, c’est-à-dire un ensemble d’actions, mis
en œuvre par l’entreprise pour développer la qualité de son
management et de son fonctionnement. Par management, on entend
l’ensemble des politiques, des stratégies et des outils visant à
dynamiser les ressources humaines pour créer de la performance
durable. Par fonctionnement, on entend l’ensemble de procédures, des
règles et des normes visant à organiser les ressources humaines pour
créer de la performance durable. Les investissements immatériels vont
concerner par exemple des politiques de ressources humaines, des
plans d’actions de recherche-développement, des stratégies
d’innovation. Dans le détail, un investissement immatériel se
décompose lui-même en sous investissements immatériels, c’est-à-
dire des mini-actions visant la qualité du management et du
fonctionnement. Par exemple, une politique de ressources humaines
peut recouvrir des plans d’accroissement de la diversité,
d’amélioration de la motivation, de développement du bien-être, de
réduction de l’absentéisme etc. La qualité du management est
intimement liée à celle du fonctionnement, qui elle-même peut être
stimulée par des procédures, des normes et de labels.
Le rôle de levier des performances durables des
investissements immatériels
La figure 2 montre que les investissements immatériels sont des
leviers d’amélioration de la qualité des produits – biens ou services –
fabriqués et vendus par une entreprise. Plus le management et le
fonctionnement d’une entreprise sont de qualité, et plus ses produits
seront également de qualité et auront donc de meilleures chances
d’être vendus. Les investissements immatériels contribuent donc
grandement à la qualité des externalités de l’entreprise, c’est-à-dire ses
impacts sur les parties prenantes externes de l’entreprise – clients,
fournisseurs, banquiers, administrations publiques etc. Les « 4I »
deviennent du capital immatériel s’ils jouent justement ce rôle de
levier des performances et créent de la valeur durable.
À cet égard, il est possible de distinguer deux types de capital
immatériel comme le souligne la figure 2. Le capital humain qui fait
référence aux investissements immatériels créateurs de valeur
endogène à l’entreprise par amélioration de la qualité du management
et du fonctionnement. Et le capital de négociation, ou capital
relationnel, qui fait référence à la création de valeur exogène de
l’entreprise par accroissement de ses capacités à négocier ses
contraintes avec son environnement tout en satisfaisant ses parties
prenantes externes. Une telle représentation du capital immatériel fait
du capital humain son seul facteur actif, le capital de négociation étant
plus vu comme une résultante du capital humain. Les ressources
humaines et leur management sont alors considérés comme la cause
racine des performances durables. Cela signifie que pour créer du
capital de négociation, ou relationnel, il faut créer au préalable du
capital humain en agissant de façon appropriée sur les ressources
humaines. L’ensemble du capital immatériel d’une entreprise, capital
humain et capital de négociation, constitue ses actifs immatériels
(Cappelletti, 2012).
3.1.2 Les indicateurs extra-comptables des investissements
immatériels
Une fois définis, il convient de s’entendre sur des indicateurs de
référence des investissements immatériels, étape préalable à leur
mesure puis leur pilotage. La comptabilisation en grande masse du
capital immatériel sous la forme du goodwill reste sur ce point très
insatisfaisante. Il faut donc chercher des indicateurs extra-comptables
des investissements immatériels. C’est ce que propose la figure 3.

Figure 3. Cartographie des indicateurs des


investissements immatériels (Cappelletti, Hoarau,
2013)

En se référant au modèle d’analyse socio-économique, il est possible


de distinguer deux familles d’indicateurs des « 4I » selon qu’ils se
rapportent à la qualité du management ou bien du fonctionnement.
Les indicateurs de qualité du management :
1. les conditions de travail
2. l’organisation du travail
3. la communication-coordination-concertation
4. la gestion du temps
5. la formation intégrée
6. la mise en œuvre stratégique
Les indicateurs de qualité du fonctionnement :
1. l’absentéisme
2. les accidents du travail et les maladies professionnelles
3. la rotation du personnel
4. la qualité des produits, biens ou services
5. les écarts de productivité ou la sous efficacité
Les indicateurs de management et de fonctionnement permettent
d’apprécier plus finement le capital humain dont la qualité va
contribuer à celle des produits, biens ou services, et à la création de
capital de négociation. Pour mesurer ces indicateurs, différentes
techniques sont possibles telles que des audits internes, des
baromètres sociaux, des diagnostics etc. Les indicateurs de qualité des
produits et de capital de négociation pourront quant à eux se lire dans
la comptabilité générale et analytique (chiffre d’affaires, marges…) et
au travers d’enquêtes, de diagnostics et d’audits portant sur les
externalités de l’entreprise : enquêtes de satisfaction client, études de
notoriété etc. Comme pour la définition des investissements
immatériels, il n’y a pas de normes d’indicateurs de l’immatériel qui
fassent aujourd’hui consensus pour s’imposer aux autres.
Face à la multiplicité des indicateurs possibles de l’immatériel, le
point important est qu’ils entrent en cohérence avec la définition qui a
été donnée aux immatériels. À ce titre, ayant proposé une cartographie
des immatériels qui repose sur la distinction entre capital humain et
capital de négociation (figure 2.), il est alors cohérent de chercher des
indicateurs permettant de cerner ces deux facettes (figure 3), les uns
centrés sur l’environnement interne et la satisfaction des ressources
humaines, les autres sur l’environnement externe de l’entreprise et la
satisfaction des parties prenantes externes (Cappelletti, 2012).

3.2 La rentabilité f nancière des


3.2 La rentabilité f nancière des
investissements immatériels : le « ROII »
Si mesurer l’efficacité d’un investissement immatériel est un
premier pas, en chiffrer la rentabilité financière, notamment dans le
contexte actuel de crise et de rareté des ressources financières, devient
de plus en plus incontournable. En amont de l’investissement d’une
part, pour chiffrer sa rentabilité prévue et le valider auprès de la
direction financière de l’entreprise. En aval, ensuite, pour s’assurer
qu’il produit bien les retours économiques escomptés, et si ce n’est pas
le cas, l’ajuster en conséquence.

3.2.1 Le modèle de calcul du ROII


La méthode des coûts-performances cachés est une solution pour
aider à calculer le ROII. En effet, elle permet d’évaluer les gains
engendrés par un processus immatériel par le chiffrage de la réduction
des dysfonctionnements et des coûts cachés qu’il provoque. Quant aux
coûts du processus immatériel étudié, ils sont facilement appréciables
en recourant aux méthodes classiques de calcul des coûts complets. Le
rapport des gains sur les coûts du processus considéré, calculés sur le
même espace de temps (une année, un semestre…), donne le ROII.
L’évaluation peut se faire en amont du processus, de façon
prévisionnelle, pour le discuter et le valider, puis en aval pour mesurer
sa rentabilité effective et le toiletter si nécessaire. Calculé de la sorte, le
ROII laisse souvent apparaître des rentabilités surprenantes,
extraordinairement supérieures à celles des investissements matériels,
sous réserve bien sûr de la pertinence de l’investissement immatériel
considéré. Les ROII peuvent atteindre des rentabilités de l’ordre de
4 000 %, ce qui signifie que 1’euro investi dans un processus
immatériel peut rapporter à l’entreprise jusqu’à 40 euros. Autrement
dit, l’investissement dans l’humain peut rapporter gros en termes
économiques à condition qu’il soit adapté et correctement mesuré
(Savall, Zardet, Bonnet, Péron, 2007 ; Cappelletti, 2012).
La rentabilité d’un investissement, matériel ou immatériel, consiste
à établir le rapport entre tous les gains économiques qu’il engendre (le
gain complet) et tous les coûts nécessaires à sa réalisation (le coût
complet) sur une période de temps définie.

ROII = (gain complet/coût complet) de l’investissement


immatériel étudié

3.2.2. Le modèle de calcul du coût complet d’un


investissement immatériel
Le chiffrage du coût complet d’un investissement immatériel – plan de
formation, mise en œuvre d’une norme de développement durable
etc. – ne pose techniquement pas de problème puisque les coûts qui le
composent sont enregistrés en comptabilité. Ces coûts sont composés
de coûts directs, directement affectables à l’investissement - main-
d’œuvre directe et consommations directes essentiellement - et de
coûts indirects qui ne sont affectables que partiellement à
l’investissement considéré en fonction d’une répartition à définir avec
le contrôle de gestion : par exemple une quote-part de l’amortissement
d’un logiciel utilisé pour réaliser l’investissement immatériel considéré
mais qui sert aussi d’autres projets et activités ; ou bien une quote-part
des loyers des locaux utilisés par les porteurs de l’investissement
considéré mais qui servent également à d’autres acteurs sur d’autres
projets parallèles. Dans ce cadre, les principes des méthodologies
traditionnelles de calcul de coûts complets, comme la méthode des
sections homogènes ou la méthode ABC (activity based costing),
peuvent tout à fait être mobilisés (Dupuy, 2009).

3.2.3 Le modèle de calcul du gain complet d’un


investissement immatériel
Le problème du chiffrage des gains engendrés par un investissement
immatériel est qu’ils ne sont généralement pas identifiables dans les
produits de l’entreprise. Isoler en effet la part des produits qui
proviendrait d’un investissement immatériel donné est très délicat car
la comptabilité n’a pas été prévue pour cela. Une solution alternative
consiste donc à chiffrer les réductions de coûts et de pertes de valeur
provoquées par l’investissement immatériel, ce que permet la méthode
des coûts-performances cachées. Pour cela, il convient de faire
l’inventaire des dysfonctionnements visés par l’investissement
immatériel considéré et, de chiffrer leurs coûts cachés, puis de chiffrer
leur réduction sur la période de temps définie pour le calcul de
rentabilité. Pour chaque dysfonctionnement, le calcul des coûts cachés
qu’il engendre se fait en étudiant le coût de ses conséquences en
termes de sursalaires, surtemps, surconsommations, non-productions,
non-création de potentiel et risques selon la méthode des coûts-
performances cachés.
L’astuce du modèle de calcul du gain complet consiste à ne pas
passer par les produits comptables pour évaluer les gains d’un
investissement immatériel, mais par la réduction des pertes de valeur
engendrées par les dysfonctionnements qu’il vise. La traçabilité entre
ces dysfonctionnements et l’investissement immatériel étudié est en
effet beaucoup plus simple à établir que celle entre les produits
comptables et ce même investissement. Le total des coûts cachés des
dysfonctionnements visés par l’investissement, exprimé en euros,
représente son gain maximal. En amont de l’investissement, de façon
prévisionnelle, il s’agit d’établir un pronostic de réduction de ce total
qui correspond alors au gain attendu du projet. En aval du projet, il
s’agit d’évaluer la réduction réelle de ce total qui représente le gain
effectif de l’investissement. Des études de cas vont permettre
d’illustrer le modèle général du calcul du ROII.

3.3 Calcul de ROII : cas d’un investissement en


politique commerciale
Le cas porte sur un cabinet d’expertise comptable Gamma (Cappelletti,
Levieux, 2010) qui a l’issue d’un diagnostic a estimé que 12 % des
travaux effectués par les collaborateurs n’étaient pas facturés aux
clients, soit 720 000 € pour un effectif de 60 personnes (12 000 € par
personne et par an). Ces travaux non facturés correspondaient à du
conseil gratuit de la part des collaborateurs. Ce constat a déclenché
une étude approfondie pour rechercher les causes :
1. réponses aux demandes des clients avant même d’avoir pris le
temps de formuler une offre,
2. difficultés internes et externes pour déterminer si la consultation
est comprise ou non dans le contrat annuel,
3. mauvaise organisation de la mission en amont provoquant des
surtemps.
4. Les actions correctives dont le coût complet annuel a été évalué à
120 000 € ont consisté à mettre en œuvre très rapidement les
processus suivants :
5. envoi d’un « bon d’intervention » ou devis pour toute
consultation d’un client nécessitant une réponse écrite,
6. refonte des contrats ou lettres de mission en détaillant le plus
possible le contenu et les modalités d’exécution de la mission,
7. mise en œuvre d’outils de planification des missions,
8. formation des collaborateurs à la vente d’une mission en
clientèle.
Un gain de 300 000 € de facturation annuelle supplémentaire a pu
être ainsi réalisé, soit un ROII de l’investissement immatériel réalisé
de 250 %.

Conclusion
À l’heure où les immatériels représentent une part de plus en plus
importante des coûts et des performances d’une entreprise, le contrôle
de gestion ne peut les ignorer. Pour exister, le contrôle de gestion de
l’immatériel doit abandonner ses concepts, ses outils et ses méthodes
traditionnels fondés pour l’essentiel sur les systèmes d’information
comptable classique qui ignorent peu ou prou les immatériels.
Notamment en s’appuyant sur le modèle d’analyse socio-économique
et sa méthodologie extra-comptable, le chapitre a montré qu’il était
d’ores et déjà possible de mettre en œuvre dans les entreprises un
contrôle de gestion de l’immatériel susceptible d’aider au contrôle de
la performance durable, au pilotage du capital humain et au calcul de
la rentabilité des investissements immatériels qui sont trois de ses
enjeux majeurs.

Références bibliographiques
Becker G. (1964). Human Capital, a Theoretical and Empirical
Analysis, with Special Reference to Education. NBER-Columbia
University Press.
Cappelletti L. (2006). Le Contrôle de gestion socio-économique de la
performance : enjeux, conception et implantation. Finance-Contrôle-
Stratégie, vol. 9, n° 1, pp. 135-156.
Cappelletti L. (2010). Contrôle de gestion et incitations. In Berland N.
& de Ronge Y. (Eds), Contrôle de gestion. Perspectives stratégiques
et managériales. Pearson.
Cappelletti L. (2012). Le Contrôle de gestion de l’immatériel. Une
nouvelle approche du capital humain. Dunod.
Cappelletti L. & Baker R.C. (2010). Measuring and developing human
capital through a pragmatic action research : a French case study.
Action Research, vol. 8, n° 2, Sage Publications, pp. 211-232.
Cappelletti L. & Levieux P. (2010). Le contrôle de gestion socio-
économique : convertir les coûts cachés en performance durable. In
Berland N. & Simon F. X. (dir.), Le Contrôle de gestion en
mouvement. Collection Eyrolles/DFCG.
Cappelletti L. & Hoarau C. (2013). Finance et Contrôle au quotidien.
Préface Font G., avant-propos Ricol R. Dunod.
Chauveau J. (2011). Développement durable : le CAC 40 plus rapide
que l’administration. Les Échos, 3 octobre, p. 3.
Dupuy Y. (2009). Comptabilité de gestion. In Colasse B. (dir.),
Encyclopédie de Comptabilité, Contrôle de gestion et Audit,
Economica.
Quiret M. (2011). Premiers résultats pour la comptabilité verte. Les Échos,
21 septembre, p. 13.
Savall H. (1975). Enrichir le travail humain. Dunod.
Savall H. & Zardet V. (2005). Recherche qualimétrique. Observer
l’objet complexe. Economica.
Savall H. et Zardet V. (2008). Mastering hidden costs and socio-
economic performance. Charlotte, IAP.
Savall H. et Zardet V. (1987). Maîtriser les coûts et les performances
cachées, 1re édition. Economica, 2010.
Savall H., Zardet V., Bonnet M. & Péron M. (2007). La rentabilité des
investissements immatériels, intellectuels et incorporels. Actes du 1er
Congrès Transatlantique de comptabilité, Contrôle et Audit de
l’American Accounting Association (AAA) et de l’International
Institut of Costs (IIC). ISEOR-IAE de Lyon.
Chapitre 12

Une nouvelle approche du


contrôle de gestion des services

FRANÇOIS MEYSSONNIER

Le contrôle de gestion est une discipline du champ des sciences de


gestion traversée par de multiples questionnements tant sur ses
aspects théoriques (conceptuels) que sur ses aspects pratiques
(professionnels). Les discussions sur la nature du contrôle de gestion
sont récurrentes. Un numéro de Management Accounting Research y
était consacré en 2008, introduit par une contribution de Malmi et
Brown (2008). Pour certains auteurs, les systèmes de contrôle de
gestion se distinguent à peine des systèmes d’information et d’aide à la
décision : la dimension technique et calculatoire est centrale. Pour
d’autres ils sont quasiment comparables au contrôle organisationnel
dans sa globalité avec l’ensemble de ses dispositifs informels fondés
sur les valeurs et la culture organisationnelle. Ces deux visions
opposées et extrêmes sont bien trop réductrices chacune à leur façon.
Pour nous, le contrôle de gestion, c’est : « l’ensemble des dispositifs
formels garantissant la mise en œuvre du business model de façon
efficace et efficiente ». Le terme volontairement large de « dispositifs »
permet de prendre en compte aussi bien les instruments
contextualisés très identifiés que les techniques formatées mais
adaptables à des ensembles de situations et les démarches
organisationnelles plus ouvertes. Le contrôle de gestion englobe les
outils relevant de la fonction « contrôle de gestion » mais aussi des
techniques mises en œuvre par d’autres acteurs internes quand ils
agissent dans une logique de pilotage de la performance
opérationnelle (Lorino, 2008). Le fait de réduire le champ du contrôle
de gestion à ce qui est formalisé permet d’éviter d’embrasser trop
largement l’ensemble des dimensions du contrôle organisationnel avec
ses aspects informels, culturels ou liés aux valeurs de l’entreprise : le
contrôle de gestion tel qu’il a émergé aux Etats-Unis au début du XXe
siècle est d’abord et avant tout le support d’un management par les
chiffres. Certaines stratégies émergentes ou adaptatives sont
largement déterminées par les remontées d’informations « bottom
up » au travers des systèmes de contrôle de gestion et la typologie de
Simons (1995) par exemple fait sa place aux systèmes de contrôle
« interactifs ». Mais, même s’il doit faciliter les interactions sociales,
pour l’essentiel le contrôle de gestion vise à s’assurer que les acteurs
prennent des décisions en cohérence avec les choix stratégiques
déclinés dans le temps et dans l’espace dans une procédure « top
down ».
Dans une communication remarquée, effectuée lors du congrès de
l’Association Francophone de Comptabilité de Poitiers, intitulée « Le
contrôle de gestion : repères perdus, espaces à retrouver », Bouquin
et Fiol (2006) s’interrogeaient sur l’avenir de la discipline « contrôle
de gestion ». Bouquin et Fiol (2006) indiquaient que : « Le contrôle de
gestion se trouve écartelé entre sa composante qui sert la direction
générale (une approche financière) et celle qui régule « le terrain » et
ses processus. Il est clair que c’est à ce deuxième niveau que se perçoit
la valeur ajoutée du contrôle, l’autre niveau le réduisant à un simple
reporting. ». En matière de régulation du terrain, pour ces auteurs :
« L’approche par les processus est devenue une référence. Elle donne
une méthodologie au contrôle de gestion. Elle constitue le chaînon
manquant entre la stratégie et les centres de responsabilité. ». Cette
vision des processus opérationnels se situant au cœur du contrôle de
gestion rejoint le point de vue d’Otley (1999, p. 364) qui critique la
conception étroite du contrôle de gestion, dominante depuis Anthony
(1965), et souligne la nécessité de s’intéresser au contrôle opérationnel
trop longtemps négligé. Cette conception est d’ailleurs de plus en plus
partagée par nombre de professionnels comme de chercheurs. Ainsi,
les prix académiques de la recherche en management attribués tous les
ans par la FNEGE et l’association des cabinets de conseil en
organisation (Syntec) aux meilleurs articles de recherche en gestion
sont décomposés en catégories et le contrôle y est regroupé avec la
gestion des opérations et des systèmes d’information plutôt qu’avec la
comptabilité et la finance. Certaines équipes universitaires de
recherche en gestion choisissent aussi de se structurer de la même
façon. La dimension opérationnelle du contrôle, sa capacité à créer des
régularités dans la mise en œuvre des processus et à les relier à la
création de valeur pour le client et pour l’actionnaire est donc centrale.
C’est pourquoi il n’est plus possible de réduire le contrôle de gestion
à l’évaluation économique de la consommation des ressources (la
comptabilité de gestion) et à la déclinaison des objectifs comptables
par centres de responsabilité (les budgets) ou de le confiner aux tâches
effectuées par les contrôleurs de gestion. Il doit être totalement intégré
au système de pilotage global de la performance de l’entreprise qui
comprend notamment (Otley, 1999 ; Ferreira et Otley, 2009) : la
formulation des objectifs stratégiques ; la mise en évidence des
chaînes de causalité qui permettent de les atteindre ; la détermination
des niveaux de performance requis dans chaque centre de
responsabilité et le système incitatif d’intéressement des managers.
Dans ce cadre, le contrôle de gestion doit s’assurer de l’alignement de
toute l’organisation sur les objectifs du business model. La prise en
compte de la dimension opérationnelle du contrôle dans la déclinaison
au plus près du terrain des caractéristiques du business model est
susceptible d’ouvrir une perspective nouvelle à la discipline. Nous
proposons dans cet article l’application d’une telle démarche au
secteur des services. Dans une première partie, nous aborderons les
spécificités des services et les modalités du contrôle opérationnel
particulièrement adaptées aux services orientés vers les personnes
(comme par exemple la restauration commerciale, les franchises de
service en tous genres ou les services publics de proximité). Dans une
deuxième partie, en nous appuyant sur plusieurs études récentes, nous
verrons quelles sont les dimensions clés à piloter en fonction des
business models dans les activités de service. Dans une troisième
partie, nous montrerons comment un outil comme la balanced
scorecard est particulièrement adapté au contrôle de gestion
stratégique dans les services.

1. Les aspects opérationnels du


contrôle de gestion des activités de
service
Les activités de service ont été pendant longtemps éclipsées par le
développement des activités industrielles. L’évolution de la structure
des économies des pays développés depuis une trentaine d’années, où
la part des services se déploie considérablement, a déclenché un
intérêt pour les spécificités du management de ce type de production
de biens immatériels, non stockables, hétérogènes et co-produits dans
une phase d’interaction entre le personnel en contact et le client (Van
Looy, Gemmel et Van Dierdonck, 2003 ; Eiglier, 2004 ; Fitzsimmons
et Fitzsimmons, 2008 ; Lovelock, Wirtz, Lapert et Munos, 2008). Mais
ces particularités fondatrices des activités de service ne sont pas
toujours toutes simultanément présentes. Les formes des activités de
service se modifient et celles des activités industrielles également. Ceci
amène les chercheurs à essayer de trouver un nouveau cadre de
référence. Pour certains, venant plutôt du marketing, les services sont
des activités qui permettent de créer de la valeur sans cession de droits
de propriété et la définition des services devrait pouvoir être envisagée
autour des notions de « location » ou de « droits d’accès » (Lovelock et
Gummesson, 2004). Pour d’autres, venant eux de la gestion des
opérations, une théorie unifiante des services est possible autour de la
place centrale du client dans la « co-construction de la prestation »
(Sampson et Froehle, 2006). Plus récemment, tout un courant s’est
développé prônant une approche « Service Dominant – Logic (SD-
L) » qui propose de dépasser la distinction entre industrie et services.
Cette approche, promue par Vargo et Lusch (2008), considère que le
service est la base de tout échange, que le consommateur n’est plus un
« co-producteur de service » mais est un « co-créateur de valeur », que
les entreprises ne délivrent pas de la valeur mais uniquement des
offres de valeur et que cette valeur est toujours déterminée
phénoménologiquement par son bénéficiaire. Ces différents cadres
théoriques de référence seront mobilisés pour permettre une réflexion
sur la nature du contrôle de gestion dans les services.
L’activité de service ne consiste pas à réaliser un bien physique mais
à exécuter une prestation intangible en collaboration avec le client-
bénéficiaire. La phase de contact entre le prestataire de service et
l’utilisateur du service est cruciale et la satisfaction du client dépend
des opérations réalisées (l’utile) mais aussi des modalités de la relation
qui est nouée à cette occasion (l’agréable). L’activité de service étant
plus orientée vers les personnes que vers les choses, les services sont
souvent moins standardisés que les biens et doivent être adaptés à la
variété des situations, des acteurs et des contextes de la prestation de
service. La prestation de service est coréalisée par le personnel en
contact et le client sous des modalités diverses (services low contact
ou services high contact). La socialisation organisationnelle du client
est très importante dans les activités de service. Les services devant
s’adapter aux variations de la demande, la gestion des temps et des
délais est aussi centrale dans les activités de service. Le problème des
pointes d’activités (« coups de feu ») et des files d’attentes
(« queues ») est donc un élément crucial de la gestion opérationnelle
des services. Si dans l’industrie la diminution des stocks de biens
focalise les préoccupations des managers, dans les services, c’est le
stockage des personnes (dans les files d’attente) qui doit absolument
être réduit ou rendu plus supportable pour les clients.
Ces caractéristiques sont à l’origine des six principaux domaines
d’action du contrôle de gestion des activités de service mis en évidence
par Meyssonnier (2012) : 1) l’identification des unités les plus
efficientes dans un réseau d’unités comparables maillant un territoire ;
2) la détection et la généralisation des meilleures pratiques avec des
standards très précis ; 3) la gestion de la temporalité qui est un
élément crucial de la prestation de service, que ce soit du temps actif
ou du temps perdu pour le consommateur ; 4) le déplacement de la
demande, l’optimisation des prix, le calibrage et l’optimisation des
capacités de production ; 5) la mesure de la qualité de service perçue
par le client et l’articulation des coûts et de la valeur dans l’offre de
service ; 6) la mise sous tension de l’organisation de service par l’usage
d’indicateurs articulés dans des relations de cause à effet à l’intérieur
d’un tableau de bord global. Dans le tableau 1, nous reprenons les six
champs d’action du contrôle de gestion et nous indiquons sur quelle
caractéristique des activités de service ils agissent (immatérialité,
diversité, interactivité ou immédiateté). On peut aussi remarquer que
les outils relevant des différentes catégories sont souvent utilisés
conjointement : 1 avec 2, 3 avec 4, 5 avec 6.

Tableau 1. L’instrumentation du contrôle opérationnel


dans les services
Classification Spécificités Caractéristique
Objectif Outils
de la nature des secteurs centrale de
recherché emblématiques
de l’outil concernés l’activité

1) Identification des Méthode DEA Aide à la décision Forte densité des Diversité
unités d’excellence agences
dans un réseau de et service complexe
prestation de
services
Orientation des
2) Généralisation Benchmarking comportements Service homogène Inter-activité
des meilleures et pour une clientèle
pratiques dans les Blueprint de masse
relations avec le
client

3) Gestion et Time Driven - Orientation des Importance du Inter-activité


contrôle des temps ABC comportements temps
et des délais dans la et pour le client
relation gestion des files
avec le client d’attente
Aide à la décision
4) Actions sur la Yield Forte fluctuation de Immédiateté
demande Management la demande, coûts
et sur l’appareil et fixes élevés
productif gestion des et coûts variables
capacités faibles

5) Mesure de la Servqual Aide à la décision Multi- Immatérialité


satisfaction perçue dimentionalité et
du consommateur diversité des
facteurs de
satisfaction de la
Orientation clientèle
des
6) Mise sous tension Balanced comportements Services high Interactivité
de l’organisation Scorecard contact
pour garantir la
qualité de service
de façon efficiente

Mais la mise en œuvre de l’instrumentation du contrôle des


processus opérationnels doit être articulée au business model de
l’entreprise de service dans un système global et cohérent de contrôle
de gestion.

2. Nature des processus de la chaîne


de valeur et du business model dans
les services
La notion de business model est apparue assez récemment. Le
business model (Zott et al., 2011), décrit la façon dont une entreprise
crée de la valeur et se l’approprie en mettant en œuvre un ensemble de
processus et de partenariats, de ressources et de compétences. On a
affaire là à quelque chose d’incarné, de délimité et tourné vers la
gestion interne sur lequel le contrôle de gestion va s’articuler et se
déployer pour garantir sa réalisation effective sur le terrain. Comme le
remarquent Demil et Lecocq (2008), par sa capacité à lier stratégie et
opérations, le business model est une construction de niveau « méso »
congruente avec le cadre journalier d’action des managers. Le business
model est composé de quatre éléments principaux : la proposition de
valeur ; l’architecture de valeur ; les ressources et les compétences ;
l’équation économique. La « proposition de valeur » comprend une
description de l’offre, l’identification des segments de marché cibles et
les modes d’accès à ces clients cibles. L’ « architecture de valeur »
permet de voir comment la valeur est délivrée au travers de la chaine
de valeur interne et du réseau externe de l’entreprise étendue. Les
« ressources et compétences » font référence aux modes d’articulation
et d’exploitation des actifs matériels et immatériels décisifs de
l’organisation. Enfin l’ « équation économique » présente les éléments
de profitabilité (les revenus et les coûts) et la dynamique des
mouvements de trésorerie (les encaissements et les décaissements) de
l’entreprise.
Bien entendu, le suivi de l’ « équation économique » du business
model est le champ d’intervention le plus classique du contrôle de
gestion. Il est effectué principalement au travers du système budgétaire.
Il débouche sur les documents comptables élaborés en cours d’exercice
et sur des re-prévisions éventuelles. Il permet le reporting et est articulé
aux procédures de restitution des comptes aux partenaires externes.
Mais le contrôle de gestion se doit de garantir la déclinaison de toutes
les dimensions du business model jusqu’au niveau opérationnel. Ceci va
se faire au travers de l’implication des différentes fonctions dans la
construction des tableaux de bord : le marketing tourné vers la
proposition de valeur ; la gestion des opérations orientée vers
l’architecture de valeur ; la RH s’intéressant aux ressources et aux
compétences ; la finance garante de l’équation économique. Le contrôle
de gestion doit vérifier que le déploiement des indicateurs permet de
piloter la performance opérationnelle de l’entreprise de façon unifiée et
cohérente
L’analyse du positionnement des services, préalable indispensable à
la mise en œuvre des systèmes de contrôle de gestion, est assez
ancienne. La contribution fondatrice en ce domaine est celle de Collier
et Meyer (1998) qui croisent deux facteurs dans une représentation
matricielle : la nature de la demande du client et les modes de
délivrance de la prestation. Le mode de délivrance de la prestation
peut être peu normalisé car s’adressant à une clientèle diversifiée ou
fortement contrôlé car visant un segment particulier. Ceci amène à
distinguer un positionnement orienté vers la demande (adapté aux
besoins divers d’une clientèle exigeante) ou s’appuyant sur l’offre
(capable d’assurer une prestation homogène et calibrée auprès d’une
clientèle ciblée et peu exigeante). Cette idée est aussi à l’origine de la
distinction que fait Jougleux (2006) entre le cas où la personnalisation
du service est importante (avec responsabilité directe des unités de
terrain dans la qualité de service au client) et le cas où la
standardisation est forte aussi bien dans le processus que dans le
résultat de la servuction (avec respect des normes spécifiées du service
délivré au client). On voit que dans certaines prestations de service la
participation du client est assez libre et participe d’une logique
expérientielle qui crée de la valeur pour le client alors que, dans
d’autres cas, elle est très encadrée par l’entreprise et contribue
essentiellement à baisser le coût en mobilisant le client.
La distinction que l’on peut faire entre les business models sur l’axe
« interactivité » pour aboutir à des « modes de réalisation différents
du service » et sur l’axe « diversité » pour aboutir à une plus ou moins
grande « personnalisation du service », peut être effectuée également
sur les autres axes caractérisant les services comme nous le montrons
dans le tableau 2, ci-dessous. Dans ce tableau, nous reprenons les
caractéristiques centrales des activités de service, nous présentons les
business models alternatifs et nous en déduisons les dimensions clés
de gestion à piloter.

Tableau 2. Des processus opérationnels aux business


models
Caractéristique
Business models Dimension clé
centrale de Exemples
alternatifs à piloter
l’activité

service + ou – intangible : distribution sélective


de vêtements de luxe
facteurs d’ambiance et Perception versus
Immatérialité
d’environnement importants du service fripe sur un marché
versus
modèle dépouillé

variations de la demande + ou – service des urgences


importantes : d’un hôpital public
ajustements amples de la versus
production rythme soutenu mais
(pointes d’activité, queues, coups régulier
Rapidité
Immédiateté de feu) des opérations planifiées
du service
versus dans une clinique privée
ajustements faibles spécialisée
(écarts réduits, prévisibles
ou préparation possible en back-
office)

+ ou - grande coproduction avec le dans un magasin de


client : bricolage, conseils
services high contact Modes de détaillés délivrés aux
Interactivité versus réalisation novices
services low contact de la prestation versus
autonomie du bricoleur
averti

grande librairie
+ ou – grande hétérogénéité de la généraliste et
prestation : universitaire
offre généraliste Personnalisation versus
Diversité modulée en fonction des segments magasin spécialisé
du service
de clientèle dans la bande dessinée
versus
offre ciblée
homogène et standardisée

En s’appuyant sur un certain nombre d’études de terrain (cf.


encadré suivant) nous avons pu mettre en évidence les liens
nécessaires entre les modalités du contrôle opérationnel et les choix
stratégiques de l’entreprise de service. Il s’agit d’étudier maintenant
comment ceci peut être instrumenté.

Plusieurs études récentes et complémentaires se sont penchées sur les


possibilités d’action en fonction des dimensions opérationnelles perçues
comme décisives.
Une étude de Goureaux et Meyssonnier (2011) sur les modalités du contrôle
de gestion dans sept restaurants ayant des positionnements différents et
couvrant tout le champ des différents positionnements possibles de la
restauration commerciale montre comment les dispositifs peuvent s’articuler
très différemment en fonction du degré de personnalisation du service.
Une recherche de Goullet et Meyssonnier (2011) auprès d’une dizaine de
réseaux de franchise de services explique comment les modes de réalisation
de la prestation sont normés et les processus opérationnels sont contrôlés
par le franchiseur dans les réseaux de franchise de services.
Une recherche de Meyssonnier et Tahar (2011) sur la gestion des temps et le
contrôle des délais dans les services aux usagers de cinq communes
innovantes dans ce domaine décrit comment les fluctuations de la demande
des usagers sont maîtrisées et la qualité de service assurée et contrôlée.

3. Mise en œuvre de la balanced


scorecard pour le pilotage stratégique
des services
Le contrôle de gestion des services peut articuler les composantes du
business model à la dimension clé de la gestion opérationnelle dans
une balanced scorecard synthétique. Le terme de balanced scorecard
recouvre des réalités très différentes et est perçu de façon très diverse
dans la communauté scientifique, parmi les professionnels et même
par ses concepteurs qui ont varié dans leur approche au fil du temps
(Choffel et Meyssonnier, 2005). Pour nous sa qualité principale n’est
pas son caractère « équilibré » ou multidimensionnel (par opposition
à une logique financière dont la prépondérance serait critiquable).
C’est la cohérence de sa construction au service de la mise en œuvre de
la stratégie, par les relations structurantes de cause à effet depuis les
indicateurs avancés et locaux du niveau opérationnel jusqu’aux
indicateurs de réalisation de la performance financière globale, qui est
décisive. La force de la balanced scorecard réside dans la pertinence
de la chaîne des causalités reliant les divers indicateurs du contrôle de
gestion, évitant le cloisonnement des champs de responsabilité et
assurant la convergence des comportements. Ceci permet d’en faire un
outil de cohésion et de travail collectif des managers au service de la
mise en œuvre de la stratégie de l’entreprise par-delà leurs
responsabilités de terrain ou leurs spécialités fonctionnelles.
Si on revient aux dimensions clés de la gestion opérationnelle que
nous avons identifiées précédemment, on comprend alors les diverses
composantes du business model qui sont activées de façon privilégiée
dans les chaînes de causalité et la nature de la balanced scorecard
dans le cas des activités de service (cf. tableau 3).

Tableau 3. Le contrôle stratégique des services par la


balanced scorecard *
Composantes du business model mobilisées de façon prioritaire dans la
balanced scorecard
Dimensions Business
clés models Proposition Architecture Ressources Équation
à piloter alternatifs de valeur de valeur et compétences économique
dans l’axe dans l’axe dans l’axe dans l’axe
« commercial » « process » « potentiel » « financier »

attributs
maximisation
nombreux,
de la marge
variés et
modèle unitaire
visibles pour
« riche » et
des
optimisation
des liquidités
perception consommateurs
du service exigeants

chaîne de maximisation
valeur de la marge
modèle efficiente et totale
« dépouillé » appareil et
productif optimisation
low cost des liquidités

service maximisation
disponibilité des
assuré de la marge
hommes et
dans toutes unitaire et
surdimensionnement
les optimisation
des moyens matériels
circonstances des liquidités
rapidité
du service optimisation maximisation
service
temporelle de la marge
assuré
et lean totale
dans
management et
certaines
de l’appareil optimisation
limites
productif des liquidités

client
formation relationnelle maximisation
« co-créateur »
service high et autonomie des profits
de valeur dans
contact du personnel et optimisation
la phase de
en contact des liquidités
contact
modes de
réalisation
automatisation
de la prestation maximisation
client « acteur » et
des profits
autonome développement
service low et
de la création des
contact optimisation
de valeur technologies
des liquidités
de self-service

maximisation
formation technique
prestations des profits
offre de tout le personnel
polyvalentes et
généraliste (en contact et en
et adaptées optimisation
back-office)
personnalisation des liquidités
du service
focalisation de maximisation
prestations formation relationnelle
l’organisation des profits
offre ciblée dédiées et et autonomie du
et standardisation et optimisation
spécialisées personnel
des opérations des liquidités

* Toutes les composantes du business model doivent être présentes dans la balanced scorecard
mais nous mettons en exergue ici celles qui nous semblent particulièrement importantes dans
chacun des cas considérés.

Si on considère les business models qui se focalisent sur la


matérialisation du service, on peut avoir soit un modèle « riche » qui
assure une proposition de valeur fondée sur l’existence d’attributs
nombreux, variés et visibles pour des consommateurs exigeants et qui
permet de dégager une marge unitaire importante (dans le tourisme :
Club Med), soit un modèle « dépouillé » qui lui s’appuie une
architecture de valeur efficiente et un « appareil productif » low cost
en visant une profitabilité totale significative malgré des marges
unitaires réduites (dans le tourisme : Marmara).
Les business models polarisés sur la rapidité du service peuvent être
du type « service assuré dans toutes les circonstances » et garantir une
prestation dans la plupart des situations (par exemple 24 heures sur
24) en jouant sur la composante « ressources et compétences » par
une disponibilité des hommes et un sur dimensionnement des moyens
matériels mobilisés avec une marge unitaire en rapport avec cette
capacité (Air France ou les compagnies visant la clientèle d’affaire
dans le transport aérien par exemple) ou bien être du type « service
assuré dans certaines circonstances » par une architecture de valeur
qui permet une optimisation temporelle avec un lean management de
l’appareil productif et des prix de vente unitaires plus réduits (Ryan
Air ou les compagnies charters par exemple).
Les business models centrés sur les modes de réalisation de la
prestation peuvent être du type « high contact » avec une proposition
de valeur fondée sur le rôle de co-créateur de valeur du client dans la
phase de contact et de façon symétrique, pour ce qui concerne la
composante « ressources et compétences », une formation poussée
dans les aspects relationnels d’un personnel en contact très autonome
(dans la téléphonie, Orange par exemple). À l’inverse, les business
models peuvent être du type « low contact » avec alors une
proposition de valeur fondée sur le fait que le client est un créateur de
valeur relativement autonome qui doit avoir en face de lui une
architecture de valeur de l’entreprise fondée sur l’automatisation et les
technologies de self-service (dans la téléphonie : Free).
Enfin les business models qui jouent sur la personnalisation du
service peuvent avoir une « offre généraliste » qui nécessite une
proposition de valeur développant des prestations polyvalentes et
adaptées et, en matière de « ressources et compétences », une
formation technique poussée aussi bien du personnel en contact que
du personnel de back office (dans la restauration commerciale, les
brasseries ou les restaurants gastronomiques par exemple). Ils
peuvent, a contrario, être du type « offre ciblée » et développer une
proposition de valeur fondée sur des prestations dédiées et
spécialisées et une architecture de valeur focalisée sur l’organisation et
des opérations standardisées (par exemple, Mac Donald’s et les autres
fast food).
Ainsi on voit comment, en fonction du business model, on peut
mettre en œuvre une balanced scorecard fondée prioritairement (en
dehors de la composante « équation économique » toujours présente
dans les démarches de contrôle de gestion) sur une ou deux
composantes articulées que ce soit l’offre de valeur, l’architecture de
valeur ou les ressources et les compétences.

Conclusion
Le contrôle de gestion doit être appréhendé aujourd’hui non
seulement dans sa dimension financière traditionnelle et universelle
(calcul, analyse et gestion des coûts ; budgets et tableaux de bord ;
etc.) mais aussi dans ses articulations stratégiques avec le business
model que dans sa déclinaison contextualisée au niveau des processus
opérationnels de terrain. Parce qu’elle s’incarne dans les particularités
du métier de l’entreprise, une telle approche est forcément
contingente.
Nous avons étudié le contrôle de gestion des entreprises de service.
Les outils de contrôle opérationnels emblématiques des services ont
été présentés et une typologie indicative des systèmes de contrôle des
processus opérationnels a été esquissée. Nous avons montré comment
dans les activités de service, par-delà les outils classiques du contrôle
de gestion et notamment son budget, on peut développer un système
de pilotage de la performance faisant le lien entre le business model et
la création de valeur sur le terrain. La dimension opérationnelle clé
pour l’entreprise peut ainsi être pilotée dans le cadre d’une balanced
scorecard en s’appuyant sur des indicateurs relevant de l’équation
économique de l’entreprise et sur des indicateurs relevant (de façon
plus ou moins importante et plus ou moins combinée) de l’offre de
valeur, de l’architecture de valeur ou des ressources et des
compétences mobilisables.
La réflexion que nous avons développée sur le contrôle de gestion
des services devra être approfondie, vérifiée empiriquement et élargie
à d’autres secteurs mais elle montre comment on peut repenser et
élargir l’approche traditionnelle du contrôle aussi bien dans la
pratique (au niveau de la fonction contrôle de gestion ou dans les
actions de contrôle des managers de terrain) que dans la réflexion plus
théorique (en dépassant définitivement la vision fondatrice mais datée
d’Anthony et en proposant une alternative aux visions sociologique
critiques aujourd’hui dominantes dans la communauté universitaire).

Références bibliographiques
Anthony R. (1965). Management Planning and Control System : A
Framework for Analysis. Harvard Business School Press.
Bouquin H. & Fiol M. (2006). Le contrôle de gestion : repères perdus,
espaces à retrouver. Congrès de l’AFC. Poitiers.
Chenhall R. (2003). Management Control Systems Design within its
Organizational Context : Findings from Contingency-Based Research
and Directions for the Future. Accounting, Organizations and
Society, 28 (2-3), 127-168.
Choffel D. & Meyssonnier, F. (2005). Dix ans de débats autour du
balanced scorecard. Comptabilité-Contrôle-Audit, 11 (2), 61-81.
Collier D. & Meyer S. (1998). A Service Positioning Matrix.
International Journal of Operations and Production Management,
18 (12), 1223-1244.
Demil B. & Lecocq X. (2008). Repenser le développement des
organisations économiques. Les apports du modèle économique.
Revue Française de Gestion, 181, 113-122.
Eiglier P. (2004). Marketing et Stratégie des Services. Economica.
Ferreira A. & Otley D. (2009). The Design and Use of Performance
Management Systems : An Extended Framework for Analysis.
Management Accounting Research, 20, 263-282.
Fitzsimmons J. & Fitzsimmons M. (2008). Service Management,
6e édition. McGraw-Hill.
Goullet C. & Meyssonnier, F. (2011). Le contrôle des réseaux de
franchise. Comptabilité-Contrôle-Audit, 17 (1), 99-122.
Goureaux P. & Meyssonnier F. (2011). Business models et contrôle
opérationnel dans les services : le cas de la gestion conjointe des
coûts, de la qualité et des délais dans la restauration commerciale.
Recherches en Sciences de Gestion, 82, 41-58.
Jougleux M. (2006). Enrichir l’approche théorique de la qualité dans
les services : qualité du service et qualité de service. Recherche et
Applications en Marketing, 21 (3), 19-46.
Lorino P. (2008). Méthodes de recherche en contrôle de gestion : une
approche critique. Finance-Contrôle-Stratégie, n° 11, numéro
spécial, août, 149-175.
Lovelock C. & Gummesson, E. (2004). Whither Services Marketing ?
In Search of a New Paradigm and Fresh Perspectives. Journal of
Service Research, 7 (1), 20-41.
Lovelock C., Wirtz J., Lapert D. & Munos A. (2008). Marketing des
Services. Pearson Education.
Malmi T. & Brown D. (2008). Management Control Systems as a
Package – Opportunities, Challenges and Research Directions.
Management Accounting Research, 19 (4), 287-300.
Meyssonnier F. (2012). Le contrôle de gestion des services : réflexion
sur les fondements et l’instrumentation. Comptabilité-Contrôle-
Audit, 18 (2), 73-98.
Meyssonnier F. & Tahar C. (2011). Le contrôle des temps et des délais
dans les services publics communaux. Actes du congrès de l’AFC.
Montpellier.
Otley D. (1999). Performance Management : A Framework for
Management Control Systems Research. Management Accounting
Research, 10, 363-128.
Sampson S. & Froehle C. (2006). Foundations and Implications of a
Proposed Unified Services Theory. Production and Operations
Management, 15 (2), 329-343.
Simons R. (1995). Levers of control. Harvard Business Press. Boston.
Van Looy B., Gemmel P. & Van Dierdonck P. (2003). Services
Management, 2e édition. Prentice Hall.
Vargo S. & Lusch R. (2008). Service-dominant logic : continuing the
évolution. Journal of the Academy of Marketing Science, 36, 1-10.
Zott C., Massa L. & Amit R. (2011). The Business Model : Recent
Developments and Future Research. Journal of Management. 37
(4), 1019-1042.
Chapitre 13

Le contrôle de gestion bancaire :


entre standardisation et
interactions

CHRISTINE MARSAL

La crise financière de 2007 a mis en évidence, la faiblesse des


dispositifs de contrôle interne dans les établissements de crédit et
parmi eux des dispositifs de contrôle de gestion. On songe en
particulier aux dispositifs de contrôle de gestion des activités de
marché, qui ont été singulièrement mis en défaut dans certains
établissements. Comment expliquer une telle « anomalie » ? Quelles
sont les limites et opportunités des pratiques de contrôle mis en
place dans les banques ?
Une première explication réside dans le fait que cette fonction est
relativement récente et fortement liée aux contraintes réglementaires
du secteur. La place des équipements informatiques a permis de
diffuser massivement les outils de contrôle, au sein des agences
bancaires. Or, les bouleversements que connaît la banque de détail,
depuis une quinzaine d’années, nécessitent de revoir les dispositifs en
axant davantage les outils de contrôle sur les problématiques
d’apprentissage.

1. Les spécificités du contrôle de


gestion bancaire
1.1 Un métier relativement récent dans le
secteur bancaire
En 1999, la commission bancaire publie un « Livre blanc sur la mesure
de la rentabilité des activités bancaires ». Long d’une centaine de
pages, ce recueil présente les meilleures pratiques sur l’analyse de la
rentabilité des établissements bancaires. Il s’inscrit dans le contexte
réglementaire de l’époque47. En creux, ce rapport souligne surtout les
retards accumulés par la profession dans la mise en place des outils et
pratiques de contrôle de gestion.
La lecture du livre blanc montre que l’influence des pratiques de
contrôle de gestion industriel y est très notable (recherche des temps
de traitement standards de certaines opérations, temps moyen par
tâche, analyse poussée du temps commercial). Ceci est
particulièrement le cas de l’annexe technique consacrée à l’analyse des
coûts commerciaux. Les pistes de réflexion sont nombreuses et sont
justifiées par le coût élevé de l’entretien des réseaux d’agence qu’il
s’agit donc d’optimiser. Elles se focalisent sur la productivité des
agents, en proposant soit des outils perfectionnés de suivi de l’activité
commerciale (suivis budgétaires, tableaux de bord), soit des outils
(suivis budgétaires) destinés à limiter les dépenses d’exploitation. Le
contrôleur de gestion rattaché à la direction générale trouve sa
légitimité dans la mise en cohérence de la stratégie, cependant, les
principaux outils proposés sont destinés à décentraliser la fonction :
« Avec le développement des outils informatiques, le contrôle de
gestion a de plus en plus vocation à devenir une fonction
décentralisée. En effet, même si certains aspects du contrôle de
gestion sont, par vocation, centralisés… chaque acteur doit appliquer
des normes de gestion qui doivent être imposées au sein de
l’établissement de crédit. Ceci est vrai par nature d’activité… mais
c’est aussi vrai par zone géographique : c’est ainsi qu’un directeur
d’agence doit être en mesure de pouvoir effectuer une analyse de son
activité, qu’un directeur de groupe ou de secteur doit pouvoir
analyser l’activité de ses agences, etc. » (Livre Blanc).
Dans ce contexte, les années 1990 et le début des années 2000 ont
vu l’émergence d’un contrôle de gestion commercial de plus en plus
sophistiqué, relativement facile à mettre en œuvre comparativement
aux autres activités bancaires. Cette forme de contrôle est
parfaitement en cohérence avec le modèle stratégique dominant :
accroissement de la taille des établissements par croissance externe,
standardisation et industrialisation des processus. De fait, le contrôle
présenté dans ce document est avant tout un contrôle de nature
disciplinaire puisqu’il doit permettre d’appliquer des « normes ». Les
tableaux de bord synthétiques « remontent » à la Direction Générale,
dans un système pyramidal qui relie la base opérationnelle au sommet
stratégique.

1.2 Un métier fortement marqué par le


déploiement massif des T.I.C.
Le secteur financier investit traditionnellement une part importante
de ses revenus dans les Technologies de l’Information et de la
Communication48 (T.I.C.). En 2002, les principales banques
européennes dépensent près de 48, 5 milliards d’euros dans ce
domaine. En 2013, les banques consacrent près de 7,3 % de leur
Produit Net Bancaire (PNB) aux dépenses informatiques alors que la
moyenne observée dans les autres secteurs est de 3,7 %. Les montants
concernés sont considérables entre 270 et 460 milliards de dollars
selon les estimations (rapport 2012 de la Deutsch Bank).
Alors que les investissements du début des années 2000
reconfigurent de nouveaux processus, en automatisant certaines
activités administratives, en développant les transactions en ligne, en
généralisant le développement et l’accès aux bases de données
internes, les priorités actuelles évoluent. Il s’agit de réduire les coûts
du matériel en place, d’adapter les systèmes aux contraintes
réglementaires et d’améliorer la prestation de service aux clients. Cette
évolution concerne l’ensemble des établissements financiers et plus
particulièrement les banques de réseau. En 2013, près de 70 % des
dépenses des banques européennes concernent des applicatifs
destinés à l’exploitation bancaire (par opposition à des projets
innovants).
Dans ce cadre, les systèmes d’information ont permis aux
principaux établissements d’élaborer un système, de plus en plus
sophistiqué, de comptabilité analytique (Bessire, 1998).
1.3 Un positionnement variable dans les
organigrammes
L’enquête Deloitte, réalisée auprès de 15 établissements et publiée en
février 2012, évoque un métier parvenu à maturité dont la légitimité
n’est plus à démontrer. Cependant, cette étude ne se focalise que sur
une partie du métier de contrôleur de gestion : le pilotage financier.
Un premier résultat montre l’élargissement des activités réalisées par
les contrôleurs. Un tiers des équipes interrogées combine pilotage
financier et pilotage commercial. Dans 50 % des cas, ces équipes sont
intégrées pour partie à l’animation commerciale, et pour 94 % des cas,
elles fournissent une information à l’équipe de pilotage commercial. Les
évolutions recensées dans l’enquête montrent une sophistication
croissante des indicateurs de suivi de l’activité commerciale. Pour
autant, le positionnement de la fonction reste très dépendant de la taille
de l’établissement concerné. Pour en rendre compte, nous avons
consulté plusieurs offres d’emploi de contrôleurs dans le secteur
bancaire.
Dans les grandes banques cotées en bourse, telles la Société Générale
ou BNP-Paribas, l’étude des profils de poste montre une spécialisation
très forte du métier qui reste rattaché au siège central (contrôle de
gestion social, contrôle de gestion de projet, contrôle de l’inspection
centrale, des investissements informatiques). Dans ces établissements,
le contrôle de gestion commercial se fond dans les activités d’animation
au sein des directions ou délégations régionales. Certaines fédérations
du Crédit Mutuel adoptent aussi cette forme d’organisation. D’autres
fédérations de Crédit Mutuel, ou les caisses régionales de Crédit
Agricole, de Caisse d’épargne, le contrôle de gestion du siège social est
encore fortement consacré à l’analyse et au suivi de l’activité
commerciale.

Pour illustrer notre propos, nous prenons appui sur une étude de cas
comparée des pratiques de contrôle, observées dans trois établissements
bancaires régionaux. Ces établissements appartiennent tous au secteur
mutualiste et coopératif.
La banque A.
Le positionnement hiérarchique du contrôle de gestion est peu lisible. La
Direction du Contrôle de Gestion et de la Prévision (DCGP) se situe sous la
responsabilité d’un cadre qui supervise trois directions (juridique,
comptabilité et contrôle de gestion). Ce cadre étant lui-même sous la
responsabilité d’un DGA.
La banque B.
Au début des années 2000, le service contrôle de gestion se situe sous la
responsabilité de la Direction Finances, Recouvrement et logistique. Il existe
par ailleurs un service Pilotage et Coordination rattaché à la Direction du
Développement Commercial.
En 2012, le service « Pilotage et Contrôle de gestion » est toujours rattaché
à la Direction Financière. Il se scinde en deux pôles. Un pôle « Pilotage »
chargé du suivi de l’activité commerciale et financière de la banque (tableaux
de bord à destination du comité de Direction, Conseil d’Administration,
Direction Générale). Un pôle « Contrôle Budgétaire » en charge du suivi des
budgets de fonctionnement et d’investissement.
La banque C.
La Direction du Contrôle de Gestion est rattachée au pôle Finances et Risques
et hiérarchiquement sous la Direction des Finances.

2. Le déploiement massif des outils de


contrôle dans les réseaux
La diffusion des TIC permet aux établissements bancaires de
multiplier les outils de contrôle financiers et commerciaux : tableaux
de bord automatiques, mails de rappels sur les objectifs, indicateurs de
suivis de risque, etc. Dans le même temps, la nécessité de gérer « le
risque opérationnel » conduit à d’autres formes de contrôle :
autocontrôle, contrôle sur les procédures. L’effet combiné de la
réglementation et de la décentralisation des outils de contrôle produit
une pression accrue sur les équipes commerciales. Dans une étude
doctorale réalisée en 200349, cette pression est envisagée sous l’angle
de la fréquence des contrôles. Pour 70 % des répondants il existe un
point hebdomadaire de l’activité financière et commerciale, mais la
fréquence peut s’accélérer pendant les campagnes commerciales. Les
résultats révèlent que cette pression est plus forte dans les banques
type Société Anonyme (S.A) lorsqu’il s’agit du suivi de l’activité
commerciale. Dans le volet financier du contrôle, ce sont les banques
mutualistes qui exercent une plus forte pression (Marsal, 2009).
Les dispositifs de contrôles, se caractérisent par des pratiques
systématiques de benchmark (point 1). Les limites associées à ces
dispositifs sont nombreuses (point 2).

2.1 Les pratiques généralisées de


benchmarking
Ces pratiques concernent à la fois les agences (2.1) mais aussi les
salariés (point 2.2).

2.1.1 Le benchmark de l’activité commerciale et f nancière


des agences bancaires
Les résultats de l’enquête doctorale de 2003 donnent les
informations suivantes : 89 % des répondants exercent un suivi du
PNB, la moitié d’entre eux précisent qu’il existe un classement des
agences sur ce type d’indicateur. Le suivi du résultat net de l’agence est
effectif pour 88 % des répondants. 90 % des répondants exercent un
suivi régulier des objectifs commerciaux, les résultats des agences font
l’objet de comparaison et de classement. Plus précisément, les
tableaux de bord régulièrement reçus en agence (commentés et
analysés au moins une fois par semaine) font apparaître les
indicateurs suivants pour tous les établissements concernés : objectifs
commerciaux de l’agence, objectifs commerciaux de la zone
géographique à laquelle appartient l’agence, objectifs commerciaux du
groupe, objectifs financiers de l’agence, objectifs financiers du groupe
auquel appartient l’agence, taux d’incidents clients, taux d’équipement
client, classement des agences.
Cette pratique se retrouve dans les thèmes d’échanges entre
responsables d’agence. L’étude doctorale indique que les responsables
d’agence échangent régulièrement entre eux, pour près de 35 % des
répondants la discussion porte sur les objectifs commerciaux (51 % sur
les dossiers clients). Les échanges sont d’autant plus importants que
les directeurs disposent d’une marge de manœuvre importante (en
matière d’engagement de crédit ou de négociation sur les taux).
Dans la banque B, le pôle « Pilotage » met à jour le suivi et la gestion des
activités de la caisse (collecte, crédits, résultat). Il s’agit de connaître par
mois la quantité et la valeur des produits vendus par agences par secteurs.
Les objectifs de ce travail sont nombreux :
1. établir un classement des agences
2. connaître l’évolution des ventes par agence et par produit
3. établir des atterrissages mensuels
4. servir de support à la détermination des objectifs futurs de la banque.

En complément des comparaisons « agences » les pratiques de


classement et de comparaison des salariés se développent aussi.

2.1.2 Les pratiques de comparaison de l’activité des salariés


Ces pratiques concernent l’individualisation des rémunérations et le
classement des salariés.
L’individualisation des rémunérations est couplée avec l’atteinte
d’objectifs individuels, cette pratique de motivation n’est pas l’apanage
des banques type S.A.. Deux grands réseaux mutualistes pratiquent
des politiques de rémunérations individuelles relativement agressives,
alors qu’un troisième réseau ne pratique aucune rémunération à la
commission (Marsal, 2005).

Dans la banque B la mise en place des outils de suivi de l’activité


commerciale est utilisée pour calculer la rémunération extra-conventionnelle
et en assurer le reporting.

Les résultats de l’enquête doctorale de 2003 indiquent que cette


comparaison prend la forme de publication des classements sur
l’intranet des établissements (54 % des répondants). Les classements
sont établis à l’occasion de campagnes commerciales spécifiques. Les
résultats ne montrent pas de différence de pratiques entre banques
mutualistes et banques type SA.

2.2 L’ambivalence des dispositifs mis en place


La mise en place des outils de contrôle telle que nous les avons
présentés révèle des faiblesses qui amenuisent leur efficacité (point 1)
mais recèle aussi des opportunités (point 2).

2.2.1 Limites liées à une certaine conception du contrôle de


gestion
La première limite provient du rôle assigné au contrôle de gestion
bancaire. Il s’agit d’un contrôle essentiellement financier et, si l’on
reprend la typologie de Simons (1995), de type diagnostic. Cette forme
de contrôle est bien adaptée à un environnement stable pour lequel les
choix et objectifs stratégiques sont délibérés et peu ambigus. Dans ce
contexte, les outils de contrôle font le lien entre l’atteinte des objectifs
stratégiques de long terme et les objectifs assignés à court terme. Pour
s’en convaincre il suffit de se référer à l’ouvrage de Rouach et Naulleau
(seul ouvrage de référence en contrôle de gestion bancaire en France).
Le contrôleur de gestion donne des conseils, ses interlocuteurs
naturels ne sont pas les opérationnels, ces derniers « ont moins
consciences de leurs besoins » et sont « moins enclins que la Direction
Générale à demander assistance aux services fonctionnels ». La vision
des besoins des opérationnels se limite à des données statistiques pour
prendre les meilleures décisions. Une illustration de cette forme de
contrôle peut être donnée par le témoignage suivant : « Chaque début
d’année, il y a la grande messe du Plan d’Action Commerciale. Nous
découvrons les objectifs annuels de notre agence à cette occasion. On
ne nous demande pas notre avis ».50
Or cette image est fort éloignée des réalités du contrôle ressenties
par les collaborateurs, comme en témoignent les illustrations
suivantes.

LE CAS DE LA CAISSE D’ÉPARGNE ÎLE DE FRANCE PARIS


En 2007, dans le cadre d’une intervention en prévention des
risques professionnels, le diagnostic de l’équipe de consultants
apporte un éclairage sans concession sur les effets de la mise en
place des outils de contrôle dans l’organisation. Le constat est
sévère : les objectifs assignés sont perçus comme inatteignables,
sans considération des particularités des agences bancaires et
sans lien évident avec la stratégie à long terme de
l’établissement. Les salariés ressentent une pression
commerciale accrue, renforcée par la concurrence instaurée
entre les agences. Le suivi du PNB et les pratiques de Benchmark
mettent en lumière les contradictions de la double logique de
résultat (accroître le PNB) et de service (conseiller le client). La
mise en concurrence des salariés, l’individualisation des
rémunérations sont vécues comme des dangers menaçant
l’esprit d’équipe, la qualité du lien social.
Dans la banque C
Un chargé de clientèle témoigne : « Jeudi est le jour difficile
dans la semaine. Lorsqu’on ouvre sa session, il y a l’angoisse du
mail. Si on n’a pas atteint les objectifs, on reçoit un mail de
relance, ce n’est pas très agréable ».
Le contrôleur de gestion de la banque C : « Les nouveaux outils
sont très puissants, on peut tout savoir de l’activité des agences.
Les données ne sont pas utilisées, ce n’est pas très motivant pour
les salariés. »
Un directeur d’agence de la banque C : « Je dispose d’un nombre
très important d’informations sur le fonctionnement de ma
caisse, sur les emplois du temps de mes collaborateurs, ce qu’ils
produisent… Je n’utilise pas tout, sauf en cas de problème… là je
ressors les statistiques de rendez-vous, les chiffres individuels et
on en discute ».

Ces cas sont loin d’être isolés : le site de l’ANACT révèle une mission
d’audit portant sur les risques psycho-sociaux d’un établissement
bancaire de la région Languedoc Roussillon, le rapport annuel 2009
du groupe Crédit Agricole fait état de formations à destination des
salariés pour la prévention des risques psycho-sociaux. On y apprend
qu’il existe un manuel des bonnes relations au travail. L’établissement
procède régulièrement à des enquêtes d’opinion pour renforcer la
motivation et l’adhésion des collaborateurs à la stratégie du groupe.
Dans ces différents contextes, les outils de contrôle de gestion loin
d’emporter l’adhésion des collaborateurs et de permettre la mise en
place des stratégies, agissent comme de puissants instruments de
démotivation. Pour autant, cette situation n’est pas une fatalité comme
en témoignent les pratiques de contrôle interactif que l’on retrouve
dans certains réseaux.

2.2.2 Le contrôle interactif Dirigeants/salariés


L’interactivité du contrôle rend compte de dispositifs d’échanges
soutenus entre les cadres de terrain et les dirigeants de la firme. Ces
échanges prennent appui sur le processus budgétaire ou sur le suivi
des indicateurs d’une nouvelle activité, d’un nouveau produit.
L’étude 2012 du cabinet Deloitte indique que la fonction
d’animation est largement répandue chez les contrôleurs interrogés.
Cette animation concerne l’analyse des écarts du budget, la projection
de l’activité mais aussi la diffusion d’une culture financière au sein des
établissements concernés.
La négociation budgétaire peut être l’occasion d’un véritable
dialogue dans une organisation décentralisée où la responsabilisation
des salariés est à la fois gage de maitrise des risques et de réactivité. Le
processus budgétaire de la banque A en est un bon exemple.
Dans la banque A51, la Direction Générale (DG) fixe les axes
stratégiques à suivre. À partir de ces indications la Direction du
Contrôle de Gestion et des Prévisions (DCGP) élabore des propositions
chiffrées pour le réseau, en s’appuyant essentiellement sur les
tendances observées et prévisibles du marché. Une étude
macroéconomique de la banque complète ce chiffrage : comment se
positionne la banque sur le marché national, quelle est sa position par
rapport à l’ensemble du groupe, quelle est la rentabilité dégagée par
les différents produits ?
Le chiffrage global est présenté à la DG fin septembre. Il y a ensuite
une phase de négociation avec les caisses. Chaque directeur de caisse
élabore ses objectifs pour l’année à venir. Différents indicateurs
calculés par la DCGP aident les caisses à positionner leurs objectifs.
Les intentions d’objectifs sont renvoyées à la DCGP, ils sont
comparés au prévisionnel DCGP. La DG donne son accord ou non sur
les écarts constatés. Fin décembre, les objectifs sont officialisés et
présentés devant le Conseil d’Administration.
Un suivi mensuel par caisse est mis en place sur l’intranet. Le
tableau de bord du groupe suit également chaque mois la réalisation
des objectifs de l’ensemble du réseau.
Le processus budgétaire est envisagé comme servant de support au
choix de réellement décentraliser les responsabilités, il s’appuie donc
sur plusieurs points forts :
1. Décentralisation claire et effective des responsabilités
2. Possibilité de dialogue et de négociation entre les différents
niveaux hiérarchiques
3. Renforcement du sentiment de responsabilité des cadres par des
retours pertinents d’informations sur leurs réalisations
4. Maillage comptable correspondant à l’organigramme des
responsabilités.
Si l’interactivité dirigeants/salariés permet une première ouverture
aux dispositifs traditionnels de contrôle dans les banques, le
fonctionnement de la gouvernance des banques du secteur mutualiste
et coopératif offre de nouvelles opportunités au contrôle de gestion
bancaire.

3. Les voies du renouveau : la


gouvernance cognitive
Le concept de gouvernance cognitive vient compléter l’approche de la
gouvernance traditionnelle52 en introduisant d’autres variables
explicatives du succès à long terme des organisations. Les ressources
financières sont ainsi complétées par des ressources cognitives
mobilisées lors des choix stratégiques (Charreaux, 2002). Le conseil
d’administration devient un véritable lieu d’échanges. Les
administrateurs apportent leur capacité à imaginer, saisir les nouvelles
opportunités de croissance. De fait, les compétences et les
connaissances des administrateurs, complètent, renforcent les
compétences des dirigeants. Dans ce contexte, les outils de contrôle de
gestion peuvent être mobilisés pour diffuser une certaine culture
financière auprès des administrateurs.
Cette diffusion est particulièrement marquée dans les banques du
secteur mutualiste et coopératif, au sein desquelles, les
administrateurs élus, sont de véritables parties prenantes au pilotage
court terme et long terme de leur établissement (3.1.). Les outils de
contrôle font partie intégrante des réunions auxquelles ils participent,
ce qui contribue à une interaction étroite avec les salariés (dirigeants,
cadre du comité de direction, cadres intermédiaires) lors de la mise en
œuvre de nouvelles stratégies commerciales, la commercialisation de
nouveaux produits (3.2.). La participation des élus est aussi
importante dans la définition des axes stratégiques à moyen long
terme (3.3.). Les exemples que nous allons évoquer concernent
principalement les administrateurs de certaines fédérations du Crédit
Mutuel ou de certaines caisses régionales de Crédit Agricole.

3.1 Les administrateurs élus : nouveaux


partenaires du contrôle de gestion
Les missions assignées aux administrateurs des banques mutualistes
en font des destinataires « naturels » des outils de contrôle de gestion
(point 1). C’est ainsi que l’étude d’une offre d’emploi de contrôleur de
gestion, au sein du groupe Crédit Mutuel, révèle qu’outre les travaux
de budgétisation, de reporting, d’analyse, le collaborateur recruté
devra « intervenir auprès des administrateurs sur les résultats
financiers ». Ces missions s’accompagnent d’une politique active de
formation des administrateurs (point 2).

3.1.1 Les missions assignées aux administrateurs élus


La gouvernance des banques du secteur mutualiste et coopératif
suppose que les élus participent activement aux décisions financières
et stratégiques de leur banque. C’est pourquoi, nous analyserons
l’engagement des élus dans les pratiques de contrôle, au sein de
plusieurs caisses régionales de Crédit Agricole et au sein de plusieurs
fédérations de Crédit Mutuel53. Les renseignements collectés
proviennent d’une part de documents mis en ligne sur les sites
institutionnels54 et d’autre part d’une enquête effectuée au sein du
crédit mutuel entre 2008 et 2009.
Les missions dévolues aux administrateurs de caisses régionales et
aux élus de caisse de crédit mutuel sont similaires. La première d’entre
elle consiste à favoriser le développement local, et de participer à la
bonne gestion de la banque (tableau 1).

Tableau 1. Les missions assignées aux administrateurs


dans les deux réseaux.
Crédit Agricole Crédit Mutuel

Favoriser le développement local (représentation, Oui Oui


apporteur d’affaires, participation à des
commissions)

Bonne gestion de la caisse locale (résultat comptable) Pas mentionné Oui

Conditions d’octroi des crédits (décision d’octroi) Oui Dans certaines caisses,
examen des dossiers et
validation du processus
d’octroi de crédit

Contrôle du fonctionnement de la caisse (éthique, Oui Oui, rôle du conseil de


réglementation) surveillance

Contrôle interne, suivi des risques crédit, délégation, Oui Le conseil de surveillance
reporting des encours risqués. effectue le contrôle interne
des procédures.

Il est possible de compléter ce premier tableau par deux exemples


(ci-contre). Nous pouvons noter que la dimension contrôle de gestion
est plus marquée dans la caisse locale de Crédit Mutuel, que dans la
CRCA de Val de France.

LE RÔLE DES ÉLUS À LA CCM DE PORTE D’ALSACE (SITE


INSTITUTIONNEL)
1. L’élu est porteur des valeurs morales des fondateurs du Crédit
Mutuel, un humanisme généreux et une conception de la vie et
de la société ou chacun peut s’engager et exercer des
responsabilités.
2. L’élu est d’abord le représentant et le porte-parole des
sociétaires de la Caisse. Il exerce ses activités en conformité avec
les lois et décrets en vigueur, les statuts de la Caisse et le
Règlement Général de Fonctionnement.
3. Élus et salariés mènent une action conjointe et
complémentaire. Ensemble et chacun dans leur domaine, ils
concourent à la réalisation des objectifs.
4. Le Conseil d’Administration est responsable de l’organisation
et de la gestion de la Caisse et règle par ses délibérations les
affaires de celle-ci. Le Conseil de Surveillance a pour mission de
contrôler au nom des sociétaires l’activité de la Caisse et la
gestion du Conseil d’Administration.
5. Responsables de la pérennité de la Caisse, les élus doivent tout
particulièrement veiller à la consolidation et au développement
de son assise financière

Le conseil d’administration de la caisse régionale de Val de


France (extrait du rapport annuel 2012).
Le CA décide, à partir des orientations proposées par la
Direction Générale
1. De la politique générale et de la stratégie commerciale
2. De la politique financière
3. Des budgets d’investissement et de fonctionnement
4. De la stratégie de placement des fonds propres
5. De la politique de risque de taux
6. De la politique crédit et de garantie

Ces missions s’accompagnent de politiques actives de formation.


L’objectif affiché de ces formations est de permettre d’établir un
langage commun entre les salariés et les administrateurs. Le profil
professionnel et les compétences des administrateurs sont souvent fort
éloignés du métier de banquier. Les dispositifs de contrôle sont
légitimés avec un début de professionnalisation de l’activité
d’administrateur.

3.1.2 La formation des administrateurs élus


Les deux groupes bancaires proposent des formations destinées à
familiariser les administrateurs avec les principes de gestion bancaire,
la réglementation, l’environnement économique et financier du
secteur bancaire. Au sein du groupe Crédit Agricole, le plan de
formation 2013 des administrateurs prévoit ainsi deux modules pour
appréhender la gestion d’une caisse locale (connaissances financières,
approfondissement des connaissances financières). Les deux banques
organisent un parcours de formation pour les administrateurs
nouvellement élus afin de les préparer aux missions qui leur seront
confiées. Le rapport RSE 2012 du groupe CM11-CIC, fait état de
78 583 heures de formation dispensées auprès de 5 408
administrateurs. Il s’agit de soutenir : « les administrateurs dans le
développement de leurs compétences techniques, financières,
d’animation et de prise de décision. Elles favorisent l’échange et la
mise en réseau des administrateurs des Caisses locales » (tableau 2).

Tableau 2. Exemples de formations suivies par les


administrateurs des deux réseaux
Thèmes des formations CA Crédit Mutuel

Gestion d’une banque Connaissances financières de Les métiers bancaires et les


l’administrateur de caisse régionale. produits distribués par les
Approfondissement des connaissances caisses locales. La gestion d’une
financières caisse locale

Réglementation bancaire
Comprendre les exigences en matière Le rôle d’un administrateur au
de risque et de contrôle permanent sein de sa caisse, réglementation
Les impacts de la réglementation sur bancaire
les activités de la banque
Être auditeur

Connaissances Formation à la stratégie L’environnement financier


économiques et financières Bulles, crises et équilibres financiers

Localement, des actions de formation spécifiques peuvent être


organisées. Au sein de la caisse régionale de Crédit Agricole de Côte
d’Armor, les administrateurs bénéficient d’une formation interne en
finance effectuée par la Direction financière. En 2008, les
administrateurs de la CRCA de Nord Pyrénées ont bénéficié de 4
séances internes de formation sur les thèmes suivants : la politique
agricole commune, les assurances (le métier d’assureur, les produits et
services vendus), les ressources des collectivités publiques, la gestion
financière. En 2011, le rapport annuel de la CRCA de Provence Alpes
Corse fait état du tour de banque réalisé par un nouvel élu. Ce dernier
a bénéficié de 11 demi-journées de formation afin de « mieux
appréhender l’organisation de la caisse régionale et de développer sa
compréhension des mécanismes bancaires ». Cette même année, un
autre administrateur suit un cycle de perfectionnement se déroulant
sur une période de 8 mois (12,5 jours de formation) et comprenant 7
séquences (panorama des activités du Crédit Agricole, méthode de
travail permettant à l’administrateur de développer ses capacités à
exercer ses fonctions.
Dans ce contexte, les échanges d’idées, les questions sur la politique
suivie par le groupe (au regard des tableaux de bord diffusés et
commentés) prennent une toute autre ampleur et renforcent les
dispositifs de contrôle des dirigeants.

3.2 La dimension interactive du contrôle mis en


place
La dimension interactive repose sur la reconnaissance des
compétences mises en œuvre par les administrateurs des deux
réseaux, comme en témoignent les extraits suivants.
EXTRAIT DU RAPPORT ANNUEL2010, DU CRÉDIT MUTUEL MAINE
ANJOU- BASSE NORMANDIE
« Les 1 000 élus du Crédit Mutuel, observateurs de leur
territoire et garants du fonctionnement de leurs caisses locales,
sont les forces de proposition qui déterminent la politique de
notre groupe. Impliqués dans la vie locale, acteurs de leur
environnement, ils savent être les porte-parole des sociétaires
qui les ont choisis comme représentants ».
Nous retrouvons cet aspect dans les caisses locales de Crédit
Agricole.
Extrait du rapport annuel 2009 du président du CA, de la CRCA
de Côte d’Armor.
« Les membres du conseil sont également administrateurs
d’autres structures tant au niveau national et/ou qu’au niveau
local, ce qui accroît leur connaissance des problématiques du
groupe et du territoire d’intervention de la caisse régionale ».
Extrait du rapport annuel 2008, du président de CA de la CRCA
de Nord Pyrénées.
« Le Conseil d’administration est composé de 20 membres élus
par votre assemblée afin d’assurer un maillage aussi complet
que possible du territoire de la Caisse régionale mais également
une représentation des différentes activités économiques qui s’y
exercent. Ainsi, conformément à l’article 17 des statuts, le
Conseil est composé par quart d’administrateurs domiciliés
dans l’Aveyron, le Lot, le Tarn et le Tarn et Garonne. La
composition du Conseil lui permet d’autre part d’assurer une
complémentarité entre les administrateurs en disposant de
compétences dans les multiples domaines d’activités de la
Caisse. Ainsi, le Conseil dispose de compétences économiques
dans le domaine des productions céréalières, de la viticulture, de
l’arboriculture, de l’élevage mais aussi dans le domaine de
l’industrie, de l’artisanat et du commerce ».
Rapport RSE 2012, groupe Crédit Mutuel
Engagés dans le projet coopératif, ils sont aussi très investis
dans la vie locale : près de la moitié d’entre eux est impliquée
dans des associations, des coopératives, dans un mandat
politique, syndical ou patronal. Bénévoles, ils ne perçoivent
aucune rémunération, ni aucun titre de capital ou donnant
accès au capital.

Le contrôle interactif se déroule à l’occasion des réunions et des


remontées d’informations que chaque administrateur réalise. Nous
illustrons notre propos par les résultats d’une enquête conduite au
sein d’une fédération du Crédit Mutuel (CM11-CIC).
Cette fédération est historiquement découpée en Districts (qui
regroupent des zones géographiques ne correspondant pas forcément
avec les régions économiques et institutionnelles). Les districts sont
découpés en directions régionales (elles-mêmes découpées en
secteurs), ils ont pour fonction d’animer le réseau commercial. À la
tête de chaque District, un bureau d’élus anime un ensemble de
réunions à destination des présidents de caisses locales. Ces réunions
sont destinées à présenter les chiffres commerciaux et financiers du
District, les chiffres du secteur, les chiffres des agences composant ce
secteur. Ces présentations sont l’occasion de comparaisons,
d’échanges sur l’environnement économique et social, d’échanges de
bonnes pratiques. Ils contribuent à renforcer les liens entre les salariés
du groupe et les élus.
Les outils de contrôle de gestion présentés lors de ces diverses
réunions contribuent à l’apprentissage organisationnel dans son sens
premier. Les salariés, cadres de la direction régionale le plus souvent55,
répondent aux questions des élus (ils prennent connaissance des
préoccupations du terrain, des sources de conflit potentiel). Les élus
comprennent mieux la stratégie suivie, l’environnement économique
et financier du groupe (tableau 3).
Tableau 3. Les outils de contrôle de gestion présentés
dans les réunions régionales
Fréquence annuelle
de diffusion auprès Les thèmes du contrôle de gestion à l’ordre du jour
des élus

Tableau de bord du District (épargne, crédit, rentabilité, risques)


9 Le P.M.T. du District : les avancées, les retards, comparaison avec la
Fédération

Les données financières et économiques du groupe (résultat économique,


6
Fonds propres, notation)

2 Comparaison des résultats commerciaux et financiers des caisses du secteur

Reporting, annuel et politique du groupe, essentiellement données


1
comptables du District, données financières du groupe

Tableau de bord de la caisse (épargne crédit, rentabilité, risques), Budget de


12
la caisse, Suivi du CR de la caisse, le P.M.T. de la caisse

Données recueillies après analyse des comptes rendus de réunion et entretiens avec les
dirigeants.56

L’enquête conduite fin 2008 et début 2009 a permis de qualifier les


modalités de contrôle à l’œuvre dans ce District (tableau 4).
L’interactivité relevée permet d’expliquer comment l’établissement
reste à l’écoute de son territoire et de ses élus. Elle est
particulièrement utile lorsque la banque propose des produits
nouveaux, se lance dans des métiers nouveaux.

Tableau 4. Participation des élus au contrôle interactif

Quoi Les cadres intermédiaires et les élus sont impliqués régulièrement et de façon
importante dans les activités de la caisse

Pourquoi Pour focaliser les élus sur les nouveaux défis : téléphonie et concurrence de nouveaux
acteurs dans le secteur bancaire.

Comment Les discussions sont importantes et régulières. Il y a des débats entre élus et entre élus
et cadres intermédiaires.
Pas de changement des hypothèses de travail durant la crise financière.

Quand Incertitudes stratégiques fortes sur les axes de diversification du groupe, importance de
maîtriser la dimension technologique.

Impact sur Pas de stratégie radicalement différente qui émerge au niveau local et qui viendrait
les contraindre l’action du dirigeant ou orienter ses choix. Ils connaissent mieux l’accueil
dirigeants qui est fait sur le terrain des nouveaux produits commercialisés.

Reproduction du tableau présenté dans l’article Marsal (2013,


page 93).

Pour ce qui concerne les administrateurs de caisses régionales de


Crédit Agricole, nous retrouvons des modes similaires de coordination
entre administrateurs et cadres dirigeants.
Les outils de contrôle sont cependant moins développés, les caisses
régionales étant davantage préoccupées par la gestion des risques de
crédit et la vérification des bonnes pratiques de contrôle interne.
Cependant, l’activité commerciale et financière fait l’objet d’un suivi
régulier (tableau 5).

Tableau 5. Les outils de contrôle de gestion présentés


dans les réunions des CA de Caisses Régionales
Fréquence annuelle de diffusion Les thèmes du contrôle de gestion à l’ordre du jour
auprès des administrateurs des conseils d’administration de 10 caisses
régionales de CA

Entre 4 et 12 selon les caisses Activité commerciale de la caisse régionale

Cité deux fois Plan d’action commercial annuel

Cité deux fois Plan pluriannuel

4 fois par an (arrêtés trimestriels) Les résultats financiers de la caisse régionale

Entre 4 et 12 selon les caisses Comparaison des résultats commerciaux et financiers des
autres caisses régionales

1 à 4 fois par an Reporting, annuel et politique du groupe, essentiellement


données comptables du District, données financières du
groupe

1 à 2 fois Budget de la caisse régionale

12 fois Tableau de bord des risques de crédit

Données recueillies après analyse des comptes rendus de l’activité des conseils
d’administration lors des AG de Caisses Régionales.
L’examen attentif de certains rapports annuels permet de supposer
que les dimensions interactives du contrôle sont aussi bien présentes
dans le fonctionnement des caisses régionales. Parmi les thèmes
abordés en conseil, ceux concernant les nouveaux produits et services,
les nouveaux canaux de distribution, les campagnes commerciales en
cours sont régulièrement évoquées. Pour ces thèmes, il existe un
véritable suivi (un premier CA est par exemple consacré au lancement
d’une campagne novatrice, plusieurs CA suivants seront consacrés à
l’avancée des résultats). Le bureau en charge de préparer les travaux
du CA (et qui comprend à la fois des administrateurs et des salariés)
consacre aussi son temps à l’étude de ces thèmes. Il existe parfois des
commissions dédiées à ces thèmes ou des groupes de travail.
Dans ces deux exemples, la contribution des administrateurs est
réelle, et les outils de contrôle de gestion servent de « support » aux
discussions entre élus et salariés. Le rôle des administrateurs ne se
résume cependant pas à la participation au pilotage de court terme, ils
sont aussi sollicités pour l’élaboration du plan stratégique à moyen
terme.

3.3 Les élus dans le processus stratégique des


établissements bancaires
La caisse régionale de Crédit Agricole de Côtes d’Armor organise
chaque année un séminaire d’information et de réflexion rassemblant
les membres du conseil d’administration et les membres du comité de
direction. Dans certaines fédérations du Crédit Mutuel, les séminaires
annuels des présidents et directeurs permettent de communiquer sur
la stratégie du groupe. L’étude réalisée au sein du groupe en 2008-
2009 permet d’illustrer la participation des élus dans l’élaboration du
plan à moyen terme. Dans le District étudié, la démarche a débuté en
2007 par une phase de diagnostic à laquelle les élus ont été associés,
puis le plan a été formalisé fin 2007, pour une mise en application
début 2008. Les élus ont été mobilisés lors du séminaire annuel de
septembre 2007 à l’occasion d’un atelier qui a consisté à faire la
synthèse des principaux axes de développement pertinents dans le
District.
Le témoignage du contrôleur de gestion précise davantage le
contexte. Dans le processus stratégique, le siège fixe les grandes
orientations mais les objectifs finaux sont décidés par le D.R. en
accord avec les élus de son District. Dans ce cadre, le contrôleur sert
de force d’appui à la fois au Directeur Régional mais aussi au Président
de District, mais il ne sert pas de force de proposition.
Sur la question de savoir quelle était l’influence des élus sur la
définition des objectifs du P.M.T., le contrôleur reconnaît le rôle
important des élus. Ces derniers peuvent choisir des orientations
stratégiques éloignées des grandes priorités affichées par la Fédération
(préférer axer les efforts sur l’assurance, au détriment de produits
d’épargne par exemple, parce que cela correspondra plus aux
possibilités du secteur).
Cette synthèse sert de base de négociation avec la Fédération pour
obtenir plus de moyens financiers, humains, techniques pour atteindre
les objectifs assignés. En effet, la Fédération participe aux efforts de
développement locaux par le biais de contributions financières
accordées à la D.R. qui les redistribue aux C.C.M. concernées par le
plan de développement. Concrètement, l’accent est mis sur les projets
de partenariats entre caisses : opérations commerciales communes,
partenariats avec le tissu économique local en associant plusieurs
caisses.

EXTRAIT DE LA PLAQUETTE INSTITUTIONNELLE 2010, DU CRÉDIT


MUTUEL MAINE ANJOU- BASSE NORMANDIE
« Dans les travaux préparatoires à l’élaboration de notre plan à
moyen terme couvrant les années 2010-2012, une commission
composée d’élus fédéraux a été amenée à réfléchir et formuler
des propositions sur le thème : « Comment accompagner les
projets collectifs et/ou individuels de protection de
l’environnement ? » Dans le même temps, des formations de
sensibilisation à la RSE sont proposées aux élus de la
Fédération ».
Rapport RSE 2012, groupe Crédit Mutuel
« Décideurs, ils contribuent à définir les orientations et le projet
de l’entreprise aux côtés des dirigeants salariés. Engagés dans le
projet coopératif, ils sont aussi très investis dans la vie locale :
près de la moitié d’entre eux est impliquée dans des associations,
des coopératives, dans un mandat politique, syndical ou
patronal. Bénévoles, ils ne perçoivent aucune rémunération, ni
aucun titre de capital ou donnant accès au capital ».

Les recherches sur l’utilisation des outils de contrôle dans les


mécanismes internes de gouvernance sont encore à l’état
embryonnaire. Il ressort de ces premières observations que les
administrateurs, sont destinataires des outils de contrôle de gestion.
Par leur contribution à la planification à moyen terme de leur
établissement, ils participent aux évolutions des métiers de la banque
de détail. Observateurs privilégiés de leur territoire, remontant les
informations du terrain, ils constituent une véritable veille
informationnelle qui est utile lorsque la banque s’oriente vers de
nouveaux produits, services, canal de distribution.

Conclusion
Le contrôle de gestion bancaire se caractérise par un déploiement
massif des outils de contrôle de l’activité commerciale. L’application
systématique des pratiques de comparaison, la dimension
exclusivement disciplinaire des outils de contrôle en limitent
l’efficacité. Pour autant, les dispositifs en place peuvent aussi servir de
support à un contrôle de gestion plus « flexible », en phase avec les
évolutions rapides de l’environnement. Les salariés de terrain et les
administrateurs deviennent alors les partenaires privilégiés des
contrôleurs de gestion et des dirigeants. Ce mode de coordination n’est
développé que dans certaines banques mutualistes. La question de son
efficacité à long terme est alors posée et fera l’objet d’un prochain
agenda de recherche.
Références bibliographiques
Battac J. & Errami Y. (2005). Le rôle du service contrôle de gestion
dans l’adaptation stratégique des banques : le cas d’une banque de
détail. Comptabilité et Connaissances. France.
Bessire D. (1998). Logiques d’entreprises et design du contrôle de
gestion : une comparaison entre la grande distribution et la banque
commerciale. Revue FCS, vol. 1, n° 4, p. 5-57.
Charreaux G. (2002). Au-delà de l’approche juridico-financière : le
rôle cognitif des actionnaires et ses conséquences sur l’analyse de la
structure de propriété et de la gouvernance. Working paper FARGO
020701. Université de Bourgogne, juillet.
Commission bancaire (1999). Livre blanc sur la rentabilité des
activités bancaires.
Heike Mai (2012). IT in Banks : What does it cost ? High IT costs call
for an eye on efficiency, Deutsch Bank Research Management,
December 20.
Drida M. (2008). Caisse d’épargne Île de France – Paris : étude des
risques psycho sociaux.
ssl3.ovh.net/~observata/images/pdf/rapp_enqu_caisepargne.pdf
Le Boennec N. & Descout R. (2012). Pilotage de la performance dans la
banque de détail : Panorama des pratiques et perspectives. Deloitte,
Financial services. Février.
Marsal C. (2005). Création de valeur des TIC et banques de réseau :
une contribution de la théorie de l’architecture organisationnelle.
Thèse de doctorat- Université de Bourgogne.
Marsal C. (2011). Quelles sont les spécificités du management des
banques coopératives ?. RECMA, n° 322, octobre 2011, pp. 27-46.
Marsal C. (2013). La gouvernance mutualiste comme levier de
contrôle : le cas d’une banque. Annals of Public and Cooperative
Economics, vol. 84, n° 1, mars, pp. 83-101.
Rouach M. & Naulleau G. (2009). Contrôle de gestion bancaire et
direction financière. Revue banque édition, 5e édition.
Simons R. (1995). Levers of control. Harvard University Press, Boston.
Chapitre 14

L’évolution du management de la
performance à l’hôpital : du
contrôle de gestion au contrôle
organisationnel

THIERRY NOBRE

Les hôpitaux et les établissements de santé sont soumis à une double


contrainte qui se traduit d’une part par une demande de soins en
constante progression et d’autre part par une pression de plus en forte
sur les ressources mobilisables. Dans ce contexte, la principale voie
envisagée par les tutelles et les autorités responsables du secteur de la
santé permettant de satisfaire simultanément ces deux tendances de
fond consiste à améliorer la performance du système hospitalier. Le
management de la performance s’avère ainsi un passage
incontournable pour préserver les caractéristiques d’un système de
santé qui est classé régulièrement dans les premiers rangs du
classement de l’Organisation Mondiale de la Santé. Cette injonction
explique que le contrôle de gestion a fait son entrée depuis une
quinzaine d’années dans les établissements et occupe maintenant une
place prépondérante dans les préoccupations des équipes de direction.
Fer de lance du management de la performance dans les
établissements, le contrôle de gestion n’en est pour autant pas le seul
vecteur. D’autres acteurs, d’autres dispositifs et d’autres modalités
apportent leurs contributions à l’objectif maintenant reconnu et
accepté de l’amélioration de la performance des établissements.
L’objectif de cet article est de montrer comment la problématique de la
performance a été portée par le contrôle de gestion et a, par la suite,
évolué. Ce rapide retour en arrière permet de mieux montrer quels
sont les enjeux actuels et de comprendre les fondements des réponses
apportées aujourd’hui dans les établissements en recensant les
différentes pratiques et en identifiant les défis qui se profilent.
L’analyse de l’introduction du management de la performance à
l’hôpital montre que cette préoccupation est initialement prise en
compte par la création puis par le développement d’une fonction
contrôle de gestion. Ensuite, ce cadre fonctionnel s’élargit pour aller
vers une appréhension plus large du pilotage de la performance qui se
traduit par la prise en compte de la dimension organisationnelle pour
toucher en profondeur les établissements dans leur structure et leurs
processus notamment par la transformation de leur fonctionnement
stratégique et opérationnel. Autrement dit, la performance est d’abord
abordée dans sa dimension instrumentale et ingéniérique par le
contrôle de gestion pour être ensuite envisagée dans une perspective
organisationnelle et toucher tous les acteurs de l’hôpital.
Pour montrer ce double mouvement nous présentons dans un
premier temps les différentes étapes qui ont contribué à la mise en
place du contrôle de gestion en mettant en perspective les
problématiques de la performance et de la mesure et en positionnant
la place de la démarche stratégique et du rôle des acteurs. Dans un
deuxième temps, pour identifier comment le pilotage de la
performance passe par la maitrise de la dimension organisationnelle
nous mettons l’accent sur les travaux de l’ANAP (Agence Nationale
d’Appui à la Performance). En effet, cette agence est en charge du
développement de la performance dans les établissements et son
programme d’action permet d’identifier les leviers actionnables par les
contrôleurs de gestion mais aussi par les autres acteurs.

1. Une évolution des fondements du


contrôle de gestion à l’hôpital
Pour analyser comment, à l’hôpital, le contrôle de gestion a, dans une
première étape, permis de sensibiliser les établissements à la
performance puis de développer des pratiques de management de la
performance, il est nécessaire au préalable d’en rappeler les éléments
constitutifs. En effet le contrôle de gestion se définit par rapport à un
cadre conceptuel (quelle performance ?), un cadre stratégique (quels
objectifs ?), un cadre ingénierique (quels outils ?) et un cadre socio-
politique (quels acteurs ?).

1.1 Quel cadre conceptuel pour quelle


performance ? Une injonction paradoxale pour
la déf nition de la performance
Les établissements de santé présentent une particularité qui entraîne
certaines confusions en matière d’évaluation de la performance. En
effet, le consommateur n’est pas le payeur et un même acteur peut
avoir des intérêts divergents. Un même individu est à la fois patient,
assuré social, contribuable, citoyen et, suivant ces différents rôles, peut
avoir des critères de performance différents voire contradictoires. De
plus, la faible prégnance de la dimension économique qui a existé
jusqu’à récemment a entraîné une sensibilisation minimaliste voire
inexistante par rapport à cette problématique de la performance. Ces
caractéristiques sectorielles et historiques expliquent la faible
sensibilité du système hospitalier à la problématique de la
performance jusqu’à récemment. En revanche, les établissements sont
désormais confrontés à une double exigence. Ils sont soumis d’une
part à une focalisation intense sur la problématique budgétaire et
d’autre part ils doivent prendre en compte de nouvelles contraintes
imposant une pluralité de critères en matière de référentiel de
performance.
De la révélation de la contrainte budgétaire à sa
prééminence
C’est l’irruption récente de la dimension économique par
l’introduction de la tarification à l’activité qui a imposé un critère de
performance qui jusqu’alors était très virtuel, la notion d’équilibre
budgétaire, avec son corollaire synonyme de mauvaise gestion, le
déficit. Ce contexte induit une focalisation sur la contrainte budgétaire
et la pression de cet objectif s’impose aux établissements, relayée,
entre autres, par les articles dans la presse qui se délectent du montant
des déficits des établissements et médiatisent très fortement les plans
de retour à l’équilibre. Cette nouvelle donne est d’autant plus
prégnante qu’elle est renforcée par l’épée de Damoclès du déficit de la
sécurité sociale qui accentue la pression économique sur tous les
acteurs du système de santé parmi lesquels les hôpitaux se situent
dans l’œil du cyclone.
La nécessité d’une appréhension multiforme de la
performance
Après une quasi-absence de définition de la performance due à la non
prise en compte de la dimension économique, une forte évolution a vu
la multiplication des définitions pour aller vers une très forte diversité
de critères. En particulier, compte tenu des différentes missions de
l’hôpital, de la complexité de ses activités et de la diversité des parties
prenantes différents modèles ont été développés pour tenter de rendre
compte des multiples facettes de la performance des établissements.
Plusieurs modèles peuvent être retenus pour montrer l’élargissement
des critères de performance mobilisables pour les établissements de
santé.
Tout d’abord, le modèle de l’Organisation Mondiale de la Santé
propose une première approche institutionnelle constituant un cadre
de référence s’imposant à l’ensemble des établissements. Il considère
trois perspectives principales : la capacité de satisfaire la demande des
besoins de santé sur une zone géographique, la satisfaction des
patients et l’optimisation de l’utilisation des ressources.
Issu de la théorie de l’action sociale de Parsons (1977), le modèle de
Sicotte et al. (1998) privilégie une vision de la complémentarité des
approches et de la recherche d’un équilibre négocié entre les
différentes dimensions de la performance. Il propose un système
d’évaluation de quatre fonctions d’un établissement de santé et un
équilibre entre ces quatre fonctions : l’atteinte des buts, l’interaction
avec l’environnement, l’intégration des processus internes, le maintien
des valeurs et des normes pour pérenniser les trois autres fonctions.
Le modèle du Balanced Scored-Card (BSC) (Kaplan et Norton 1996)
repose également sur une approche multicritère où le principe
fondamental de l’outil résulte du constat de l’insuffisance des
indicateurs financiers à guider et évaluer le pilotage stratégique des
organisations. En conséquence, le BSC complète l’analyse financière
avec trois autres axes d’analyse (processus, clients, apprentissage
organisationnel) avec une double logique :
1. Des indicateurs internes et des indicateurs externes, les
indicateurs externes concernent les actionnaires/financeurs et
les clients/patients. Ils permettent de montrer comment
l’organisation crée de la valeur pour ces deux partenaires
externes. Les indicateurs internes sont relatifs aux processus
considérés comme essentiels pour réaliser les missions retenues.
2. Des indicateurs permettant le suivi de la performance passée et
des indicateurs permettant le pilotage des constituants de la
performance future. Les quatre dimensions du TBP permettent
d’établir un équilibre entre d’une part, les objectifs à long terme
et les résultats souhaités et, d’autre part, les déterminants de ces
résultats.
La dimension financière est indispensable pour évaluer les effets
économiques des actions passées. La dimension client définit des
indicateurs montrant la satisfaction et la fidélité des clients, l’évolution
de la clientèle et ainsi la pertinence de la prestation délivrée.
La dimension processus interne permet de définir les processus clés
de l’entreprise qui ont une influence déterminante sur la satisfaction
des clients et la réalisation des objectifs financiers. La dimension
apprentissage organisationnel concerne les infrastructures que
l’établissement doit mettre en place pour améliorer la performance à
long terme. Comme les organisations ne peuvent atteindre leurs
objectifs de long terme avec leurs caractéristiques actuelles cet axe doit
permettre l’implantation et le suivi des infrastructures nécessaires
(processus internes, technologies, capacités, savoir-faire,
compétences). Cette approche a été mobilisée dans des établissements
de santé et a fait l’objet de travaux de recherche conséquents (Nobre,
2001).
Ainsi, les managers des établissements de santé sont soumis à un
double mouvement antagoniste où ils sont pris en tenaille entre une
conception de la performance extensive en accord avec la diversité des
représentations des acteurs de santé privilégiant le moyen et long
terme dans une perspective explicative et une conception restrictive de
court terme privilégiée par les financeurs à visée praxéologique.

1.2 De l’absence de la stratégie d’établissement


à son af rmation puis à sa dilution
La définition de la performance ne peut se définir que par rapport à un
contexte stratégique où le contrôle de gestion fait le lien entre le
contrôle opérationnel et le management stratégique (Anthony 1988,
Bouquin 1995). Il est donc nécessaire pour mieux comprendre la
réalité du contrôle de gestion hospitalier de connaître la réalité de la
nature et du rôle de la démarche stratégique dans les établissements.
Trois étapes principales peuvent être identifiées pour retracer le
développement du management stratégique à l’hôpital
Une première étape se caractérise par une absence de démarche
stratégique. En effet, dans le cadre d’un fonctionnement très
administré les établissements ne disposaient que d’une faible marge
de manœuvre et les directions maîtrisaient peu de leviers pour pouvoir
établir et mettre en œuvre une stratégie propre.
Pour la deuxième étape, il faudra attendre la loi de réforme
hospitalière de juillet 1991 pour voir apparaître l’obligation de la
formalisation d’une stratégie pour les établissements à partir de la
rédaction du projet d’établissement. C’est la tutelle qui oblige les
établissements à développer une démarche stratégique
d’établissement et qui valide par la suite les projets d’établissements
qui doivent être en lien avec les SROS (Schémas Régionaux
d’Organisation sanitaire). Il faut reconnaitre que cette démarche a
connu un développement laborieux et qu’il faudra attendre les
ordonnances de 1996 et la création des ARH pour imposer
effectivement cette pratique et lui donner un sens avec une
contractualisation incitative dans le cadre de COM (contrat d’objectifs
et de moyens). Ces projets d’établissements, véritables plans
stratégiques, matérialisent l’entrée des établissements de santé dans
l’ère du management stratégique en consacrant la dynamique
stratégique propre à chaque établissement.
Une troisième étape a été initiée par la loi HPST (Holcman, 2013)
en 2009 qui en instaurant des CHT (Communauté hospitalière de
territoire) donne une nouvelle dimension à la démarche stratégique de
chaque établissement en l’insérant dans une dynamique territoriale.
Ainsi l’établissement doit se positionner par rapport à différents
acteurs et d’autres établissements sur un territoire de santé mais aussi
par rapport à la médecine de ville et au secteur médico-social et ainsi
dépasser les frontières de son organisation. L’exercice stratégique
évolue vers une forme de multipolarité dans la mesure où plusieurs
acteurs doivent coopérer pour coordonner leurs propres stratégies.
Le contrôle de gestion à l’hôpital est ainsi confronté à un défi
complexe nécessitant de développer un système de pilotage dans le
cadre d’une démarche stratégique qui peine à stabiliser le périmètre de
référence.

1.3. Une évolution des outils du contrôle de


gestion par l’introduction de la mesure
Une première étape par la mesure interne
L’introduction du contrôle de gestion à l’hôpital a été initiée par une
volonté de mesure dans un contexte où cette préoccupation était
totalement absente dans la sphère du management. C’est la mise en
œuvre en 1982 du PMSI (Programme de Médicalisation du Système
d’Information) qui va permette à partir du point ISA (indice
synthétique d’activité) d’évaluer la production de chaque
établissement pour son activité MCO (médicale, chirurgicale et
obstétrique). Même dans un contexte d’enveloppe globale, cette
valorisation de l’activité va proposer une première approche de la
performance par le coût du point ISA en faisant le rapport entre le
budget de l’établissement et sa production cumulée. Parallèlement à
cette mesure de la production, est développée une comptabilité
analytique qui vise à calculer le coût des patients pris en charge à
partir d’une classification des pathologies classées en fonction du
référentiel des GHM (groupes homogènes de malades). D’autres outils
sont également développés comme le TCCM (tableau coûts/case mix)
qui permet de faire un benchmarking de la structure des coûts par
rapport à un hôpital théorique développant la même activité en GHM
mais avec valorisation en coûts de référence définis par l’Étude
Nationale des Coûts (ENC). Il faut reconnaitre que la mise en œuvre
de cette instrumentation de management centrée sur la mesure
interne n’a pas été suivie d’effets significatifs en matière de
performance en particulier parce que les systèmes d’incitation et de
sanction ont été quasiment inexistants (Lenay et Moisdon 2003). Cet
échec est à l’origine de la nouvelle étape dans la dynamique de mesure
et d’objectivation de l’activité hospitalière : la tarification à l’activité.
Une seconde étape par la mesure externe
Comme la mise en œuvre d’une mesure sans système de
sanction/récompense s’est avérée peu efficace, les tutelles ont évolué
d’un PMSI contemplatif sans véritables conséquences pour les acteurs
à une T2A qui valorise les ressources obtenues par les établissements
par la mesure de l’activité déployée. Les hôpitaux voient leur
financement lié à un tarif qui définit une rémunération pour les
séjours (Groupes homogènes de séjour). La mesure devient externe
par la quantification des prestations réalisées pour la prise en charge
de patients. Le système de rémunération des établissements prévoit
ainsi une rémunération principalement liée à l’activité (entre 70 et
80 % du budget total). Elle concerne les séjours et les consultations
externes réalisés mais le financement prévoit également une
rémunération forfaitaire pour des missions d’intérêt général et une
rémunération mixte pour des activités qui nécessitent une
infrastructure entraînant des charges fixes partiellement dépendantes
du niveau d’activité comme les urgences ou le prélèvement d’organes.

1.4 De l’apparition du contrôleur de gestion à


l’hôpital à l’implication des autres acteurs
Cette introduction du contrôle de gestion s’accompagne d’une
évolution organisationnelle avec l’apparition de la fonction contrôle de
gestion et de l’arrivée d’un nouvel acteur pour l’hôpital : le contrôleur
de gestion. Ce dernier est fréquemment recruté hors du champ de la
santé. Il s’agit de jeunes diplômés venant de master ou d’école de
commerce ou de contrôleurs de gestion qui ont une expérience dans
d’autres secteurs d’activité. Leur objectif principal est de développer
les outils du contrôle de gestion. L’introduction du contrôle de gestion
est réalisée par le développement d’une cellule ou une direction,
suivant la taille de l’établissement, rattachée à la direction économique
et financière. Ce centralisme est interpellé par la mise en place des
pôles qui en instaurant une forme de divisionnalisation dans les
établissements (Nobre, 2012) voient apparaître de nouveaux acteurs
participant au développement et aux activités du contrôle de gestion.
En particulier, les chefs de pôle de part leurs activités et leurs
responsabilités deviennent des partenaires naturels pour le
développement de l’instrumentation de gestion car ils sont à la fois
utilisateurs et demandeurs d’outils de pilotage de la performance.
Comme ils ne sont pas des spécialistes du management ce sont les
assistants de gestion de pôles, qui deviennent les interlocuteurs pour
le contrôle de gestion au sein de chacun des pôles. Ainsi, après une
étape ou le contrôle de gestion est conçu et exercé en central, le
contrôle de gestion évolue vers une décentralisation pour
accompagner la mise en place des pôles.

1.5 Une double modalité d’introduction du CDG


à l’hôpital
L’observation de l’introduction du contrôle de gestion dans le système
hospitalier et plus particulièrement dans les établissements montre
que deux dynamiques conduisent à l’implantation des outils et
dispositifs de pilotage de la performance. La première institutionnelle
repose sur l’action des tutelles qui incitent à la mise en place d’une
ingénierie de gestion définie en central, la seconde issue des
établissements voit des tentatives d’introduction de méthodologies
sortant du cadre envisagé par ces tutelles.
La première modalité que nous qualifions d’introduction massive
par catalyse réglementaire repose sur méthodologie préconisée par le
ministère et les autorités de tutelles. Elle est massive pour deux
raisons. Tout d’abord une ingénierie très lourde est mise en œuvre
pour élaborer les outils (PMSI, GHM, base nationale des coûts, guide
méthodologique de comptabilité analytique) à partir d’une production
importante de textes (législatifs, réglementaires, des ordonnances).
L’implantation devant découler de l’application des différents textes.
Ces derniers devant permettre une catalyse conduisant à la mise en
œuvre effective en jouant le rôle de réactif.
La seconde, une introduction spontanée diffusant par capillarité,
montre que certains établissements, en marge des actions menées par
les ministères et les autorités de tutelles, développent des démarches
qui ne sont pas envisagées par le ministère (par exemple : l’ABC ou le
Balanced Scorecard). Dans ce cas ce sont des acteurs clés, des
directeurs d’établissements, des directeurs administratifs et financiers,
des contrôleurs de gestion qui initient ces démarches différentes par
rapport aux approches officielles. Ces acteurs fondent leur action sur
leur conviction profonde d’une part, de la nécessité d’introduire des
outils de pilotage permettant de lier les outils aux pratiques
professionnelles et, d’autre part d’avoir une meilleure lisibilité entre
l’activité réalisée et les ressources consommées. Cette introduction que
nous qualifions de spontanée, par rapport aux actions des tutelles, se
diffuse ensuite au sein des établissements par un mécanisme de
capillarité. Le champ d’application est élargi progressivement. Les
acteurs décideurs au sein de l’hôpital, en général les chefs de pôles ou
de service, sont l’objet d’une campagne de
« séduction/conviction/conversion » puis, compte tenu de l’exemple
des services ayant déjà expérimenté les outils, ces derniers se
répandent progressivement dans l’établissement par un phénomène
de mimétisme et d’imitation.
Ces différents constats montrent que le contrôle de gestion s’est
imposé dans les établissements. Après avoir introduit la mesure
externe puis interne et confié à un nouvel acteur privilégié, le
contrôleur de gestion, la mission de développer le cadre technique et
ingénierique du pilotage de la performance, il s’avère nécessaire
depuis quelque temps de dépasser ce stade pour appréhender le
pilotage de la performance pour le restituer dans une perspective
organisationnelle globale et intégrée.

2. La transformation du pilotage de la
2. La transformation du pilotage de la
performance par l’irruption du fait
organisationnel
Les contraintes de performance se renforcent pour les établissements.
Après avoir fait l’objet de nombreuses critiques cet impératif s’impose
et commence à faire l’objet d’un consensus au sein de la communauté
hospitalière. Cette évolution se traduit par un élargissement de la
perception des modalités à mettre en œuvre pour prendre en compte
la performance. Après une première étape fortement marquée par le
développement de l’instrumentation du contrôle par des outils
développés pour y voir plus clair (CAH, PMSI, TSA, TCCM)57, une
autre démarche se met progressivement en place pour appréhender la
performance à partir de sa dimension organisationnelle. Cette
transition est perceptible à partir d’une action volontariste au niveau
institutionnel puisque les tutelles mettent en place le bras armé de la
performance pour le système hospitalier et médico-social à savoir
l’Agence Nationale d’Appui à la Performance (ANAP). C’est en effet
cette agence qui a pour mission d’améliorer la performance des
établissements en menant un programme de travail qui aborde les
différentes facettes de la performance à partir d’une pluralité de
modalités d’actions. L’analyse du programme de travail de l’ANAP
nous permet ainsi de recenser les pistes actuelles de l’évolution du
contrôle et gestion et du pilotage de la performance à partir des
différents chantiers entrepris actuellement. L’ANAP s‘avère ainsi la
concrétisation et l’affirmation de la dimension organisationnelle de la
performance.
L’ANAP (Agence Nationale d’Appui à la Performance de santé et
médico-sociaux) est créée en octobre 2009 en fédérant les expériences
et les compétences du GMSIH, de la MAINH et de la MEAH,
auxquelles sont venues s’ajouter des compétences complémentaires.
La loi HPST (Hôpital, Patients, Santé et Territoires) lui confie la
mission d’appuyer les établissements de santé et médico-sociaux et les
ARS (Agences Régionales de Santé) afin d’améliorer leur performance.
Encadré. Les précurseurs de l’ANAP

Le GMSIH (Groupement pour la modernisation du système d’information


hospitalier), créé en 2000 sous forme de groupement d’intérêt public,
répondait aux besoins des établissements de santé publics et privés dans le
domaine des systèmes d›information. Le GMSIH a publié des référentiels et a
accompagné les établissements. Il a permis d’assurer la mise en place
opérationnelle de ces derniers.
La MAINH (Mission Nationale d’appui à l’investissement hospitalier), créée en
2003 dans le cadre du Plan Hôpital 2007, est rattachée au Ministère de la
santé (DHOS). Elle accompagne l’administration centrale, les agences
régionales de l’hospitalisation et les décideurs hospitaliers dans leur
démarche d’investissement, de rénovation et de déploiement des
programmes nationaux. Elle a proposé également un accompagnement des
maîtres d’ouvrage sur des projets immobiliers et systèmes d’information.
La MEAH (Mission Nationale d’Expertise et d’Audit Hospitalier), créée
également en mai 2003, a aidé les établissements de santé publics et privés
à améliorer leur organisation. Dans son champ opérationnel, elle a déployé
des outils et des solutions pour l’amélioration de la qualité des soins et de
l’efficience à l’hôpital.

L’action de l’ANAP pour améliorer la performance des


établissements et plus globalement celle du système hospitalier et
médico-social emprunte différentes modalités dans une démarche
systémique. Elle vise le fonctionnement interne en ayant une
démarche intégrée auprès des établissements avec un
accompagnement au changement. L’ANAP appréhende la dimension
ingénierique en proposant des outils de gestion. Elle assure un
accompagnement pour faire évoluer le cadre structurel notamment
immobilier et les systèmes d’information. Elle développe aussi un
volet concernant la gestion des ressources humaines. Le programme
de l’ANAP comporte également un ensemble d’actions abordant la
problématique de la performance en dépassant les frontières de
chaque établissement pour appréhender des thématiques sectorielles
en particulier médico-sociale ou territoriale en visant la coordination
des différents acteurs dans le parcours du patient. Enfin, elle se saisit
de thématiques qui constituent un véritable enjeu pour l’évolution des
établissements de santé comme le management de pôle ou
développement de l’activité ambulatoire.

2.1. Une action multiforme et intégrée auprès


des établissements
Pour améliorer la performance des établissements, l’ANAP a
développé une politique de contractualisation avec les établissements
et les ARS concernées pour mettre en œuvre des « projets
performance » avec une approche globale pour un établissement qui
après un diagnostic interne vise à cibler puis faire évoluer des
processus internes des étapes du circuit du patient ou des activités
considérées comme déterminantes pour améliorer la performance. Les
2 premières vagues de Projets Performance, qui concernent 23
établissements, avaient pour objectif d’obtenir des impacts
économiques ambitieux, de près de 230 millions d’euros annuels et
pérennes en agissant sur les organisations afin d’améliorer les 3
dimensions de la performance (la qualité de la prise en charge des
patients, les conditions de travail et l’efficience opérationnelle et
économique), et en assurant un accompagnement des établissements
dans la durée. La quasi-intégralité de l’ambition financière sur les
établissements de santé des vagues 1 et 2 a été atteinte. Les impacts
opérationnels et les améliorations tangibles des organisations obtenus
grâce à l’implication des professionnels de terrain concernent par
exemple :
1. la diminution de moitié des délais d’obtention de rendez-vous en
neurologie, une meilleure occupation de 20 % des équipements
d’imagerie,
2. la diminution de 10 % des demandes d’examens pour les patients
hospitalisés par une diminution des redondances,
3. le développement du nombre de séjours pris en charge en
ambulatoire (de + 15 % à + 100 % selon les établissements),
4. la révision des vacations de blocs permettant d’assurer 5 000
interventions supplémentaires à moyens constants.
Après les vagues 1 et 2, la « vague 3 » des Projets Performance
lancée en 2012 et qui concerne 5 établissements, se situe au niveau du
pilotage et de la gouvernance. La démarche de transformation initiée
par les Projets performance de l’ANAP est rendue duplicable et
reproductible grâce à une capitalisation des outils et expériences
entreprises pour permettre des démarches autonomes, une formation
des acteurs, ainsi qu’une démultiplication de l’effort via l’outillage
méthodologique des Agences régionales de santé (ARS). D’autre part,
La montée en compétence des acteurs est accélérée par la création de
communautés thématiques sur plusieurs des chantiers rencontrés
dans le cadre des Projets Performance (gestion des lits, pharmacie et
circuit du médicament, achats,…) via la mise en place et l’animation de
« Cercles performance ».
Cette action a été complétée par un programme d’accompagnement
au changement pour les établissements de santé qui a également été
suivie d’une action auprès de l’acteur qui en région doit piloter cette
transformation sous forme d’un Programme d’accompagnement au
changement du système de santé pour les ARS (PACSS-ARS).

2.2. Une action ingénierique pour développer


les outils de management de la performance
L’action sur la conduite du changement est complétée par un
programme visant à instrumenter les établissements pour les doter en
outils de gestion ou les inciter de façon plus insistante à développer et
implanter ces outils. Cette action concerne le déploiement de la
comptabilité analytique hospitalière mais aussi des projets plus ciblés
comme l’élaboration d’un outil performance sur la chaîne de
facturation et de recouvrement. De même, l’ANAP a développé des
outils concernant le pilotage comme le tableau de Bord de la
Performance des Etablissements de Santé, l’amélioration de la
performance organisationnelle comme l’outil AElipce ou des outils de
parangonnage permettant aux établissements de se situer par rapport
aux autres comme Hospi Diag.

2.3. Une action pour faire évoluer le cadre


2.3. Une action pour faire évoluer le cadre
structurel vers l’hôpital numérique
Cette action sur la dimension organisationnelle des établissements
comprend également une intervention sur les structures. Un premier
volet concerne les locaux dans lesquels les établissements exercent
leur activité mais aussi, compte tenu de la place privilégiée des
systèmes d’information, l’ANAP développe un second volet pour
accompagner les établissements dans ce domaine pour évoluer vers
l’hôpital numérique.
En matière d’infrastructures immobilières l’ANAP a créé un
Observatoire des Surfaces et Coûts Immobiliers en Etablissements de
Santé (OSCIMES) et accompagne les établissements pour
l’optimisation des coûts de maintenance immobilière et de gros
entretien, le renouvellement, la valorisation immobilière et la
modernisation immobilière.
Pour les systèmes d’information l’ANAP réalise un
accompagnement pour les Systèmes d’Information (SI) de production
de soins avec des thématiques plus ciblées comme l’archivage du
dossier patient. Elle intervient aussi plus globalement dans la mise en
œuvre d’un portefeuille de projet de système d’information (SI) en
santé notamment en ayant développé un guide de constitution et de
suivi des indicateurs d’impact des projets de SI en santé.
Plus globalement, l’action de l’ANAP pour faciliter l’évolution vers
l’hôpital numérique se structure en différents projets interdépendants.
Il s’agit d’accompagner les établissements pour l’atteinte des cibles
d’usage et d’évaluer la valeur créée par les SIH. Pour ce faire l’ANAP
coordonne un programme de recherche national sur la création de
valeur des SI pour concevoir des outils de mesure de la contribution
des SI à la performance des établissements. Cette action passe par le
développement et/ou une adaptation des compétences de tous les
acteurs du SI : chefs d’établissements, utilisateurs, chefs de projets
métiers, DSIO… L’objectif est ainsi de fournir des éléments objectifs et
documentés aux décideurs d’établissements, régionaux et nationaux,
pour faciliter à terme l’établissement de lignes directrices vertueuses
dans les domaines de la mutualisation et de l’externalisation des SI
pour finalement structurer la demande des établissements en SI,
notamment par le moyen des cahiers des charges type.

2.4. Une action visant spécif quement la


performance du secteur Médico-social
En charge du secteur médico-social, l’ANAP a développé un
programme d’actions visant à améliorer la performance de ce secteur
pour lui permettre de répondre aux enjeux fondamentaux auxquels il
doit faire face, notamment la prise en charge des personnes âgées et
des différentes formes de handicap.
Après avoir établi un panorama des organisations innovantes dans
la prise en charge des personnes âgées, l’ANAP a lancé un programme
de travail visant à comprendre et réinventer le secteur médico-social.
Il s’agit également d’interroger la performance des parcours de santé
soit à partir d’une approche territoriale ou d’une catégorie spécifique
comme les Personnes Âgées En Risque de Perte d’Autonomie
(PAERPA) ou encore d’un secteur, la psychiatrie et la santé mentale.
Les travaux portent également sur un processus considéré comme
central pour la prise en charge de cette catégorie de patients ou de
résidents à savoir la sécurisation de la prise en charge
médicamenteuse en EHPAD.
La gouvernance et l’évolution stratégique des établissements sont
également l’objet d’une attention particulière de l’ANAP. Cela se
traduit par le développement et le déploiement d’un tableau de bord
de pilotage pour le médico-social. De même, les systèmes
d’information dans ce secteur constituent une piste de travail
largement investiguée pour permettre un meilleur pilotage. Enfin la
thématique des coopérations dans le secteur médico-social représente
un axe fort dans la mesure où cette manœuvre stratégique s’avère une
évolution incontournable pour les établissements de ce secteur.
Enfin, compte tenu des difficultés rencontrées dans ce secteur pour
disposer des ressources humaines compatibles avec les enjeux et les
exigences, l’ANAP a développé un axe visant à capitaliser des retours
d’expérience sur la gestion prévisionnelle des emplois et des
compétences dans le secteur mais aussi à valoriser des métiers du grand
âge.

2.5. Une action visant la performance des


étapes du circuit du patient
L’activité hospitalière est caractérisée par une multitude de processus
complexes en interaction qui participent à la prise en charge globale
du patient. Fort de ce constat, l’ANAP s’est attaquée aux processus qui
aussi bien dans les activités cliniques que dans les fonctions de
supports constituent des leviers prioritaires pour améliorer la
performance des établissements. C’est ainsi qu’ont été lancés les
programmes nationaux :
1. de gestion des lits avec la production des outils pour améliorer la
gestion des lits,
2. de Distribution Individuelle nominative (DIN) « Circuit du
médicament » pour sécuriser et optimiser la dispensation de
médicaments,
3. de Sécurisation du circuit des dispositifs médicaux stériles,
4. de Facturation Individuelle des Etablissements de Santé pour les
fonctions de support.

2.6. Une action visant la dimension territoriale


de la performance
Les établissements sont insérés dans un maillage territorial qui
implique de nombreuses coopérations conditionnant leur propre
performance. L’ANAP a ciblé quelques relations externes qui doivent
être améliorées pour passer d’une optimisation locale à une
optimisation sinon globale du moins territoriale. Cet axe de travail vise
plus particulièrement l’approche territoriale des transports sanitaires,
de la biologie médicale et des coopérations territoriales des Pharmacie
à Usage Intérieur. Une action est également entreprise visant les
systèmes d’information des coopérations pour pouvoir connecter les
différents partenaires et faciliter, à partir de l’échange des données, les
activités opérationnelles transversales.
Il s’agit clairement de définir des modes de fonctionnement qui
assure une performance d’un système intégrant différents partenaires
avec un arbitrage entre la performance locale d’un acteur et la
performance globale d’un territoire composé de différentes structures
aux intérêts qui au départ ne sont pas forcément convergents.

2.7. Une action visant la ressource principale de


l’hôpital : les ressources humaines
Afin de mobiliser au mieux les ressources humaines et d’optimiser ces
ressources qui représentent suivant les établissements entre 70 % à
75 % du budget plusieurs axes prioritaires ont été définis. Il s’agit
d’appuyer la mobilité des professionnels, de développer la gestion des
ressources humaines et d’optimiser le temps de travail des
professionnels auprès des patients. Pour cela l’ANAP a développé une
gamme d’outils de gestion des ressources Humaines (RH) et a
organisé le retour d’expérience sur la gestion prévisionnelle des
emplois et compétences.

2.8. Une action visant l’amélioration de la


performance par le management de pôle
Consciente du rôle fondamental joué par les pôles d’activités pour la
performance des établissements l’ANAP a développé un important
programme de travail comportant deux volets principaux. Le premier
appelé « Pôles d’excellence » vise à accompagner les chefs de pôle
pour les former et les aider dans leur prise de fonction et leur activité
de manager d’un pôle. Après une première campagne «100 pôles
d’excellence» menée en 2010-2011, l’ANAP propose régulièrement un
dispositif dédié aux chefs de pôle cliniques, médico-techniques ou
administratifs, en provenance d’établissements de santé publics ou
privés en mettant l’accent sur différentes compétences avec différentes
modalités d’accompagnement. Il s’agit de renforcer leurs compétences
managériales et de gestion de projet pour améliorer leur
positionnement et le portage des projets au sein de leur pôle. Cette
démarche ancrée dans le terrain implique la conduite d’un projet
d’amélioration structurant et porteur de sens pour les patients, les
équipes et l’établissement, tout en participant à une démarche
nationale favorisant les échanges, les travaux et réflexions entre chefs
de pôle. D’une durée de 18 mois, ce programme comporte deux
journées de formation à la gestion de projet et à la conduite du
changement suivies de 6 sessions de coaching en groupe et d’un appui
personnalisé à distance appuyant le chef de pôle et ses équipes dans la
mise en œuvre d’un projet.
Cette action sur la performance des pôles visant à mettre l’accent
sur les acteurs est complétée par second volet sur l’instrumentation de
gestion qui fait l’objet de nombreux travaux. Ces actions concernent
principalement la comptabilité analytique par pôle (CREA, TCCM,
tableaux de bord) et une aide méthodologique au dialogue de gestion.
En effet, la mise en place des pôles implique une délégation de gestion
qui nécessite une instrumentation du dialogue de gestion pour
permettre aux chefs de pôle d’exercer pleinement leurs activités et
leurs responsabilités.

2.9. Une action participant à une évolution


structurelle de la chirurgie : le développement
de la chirurgie ambulatoire
La chirurgie ambulatoire constitue une priorité de santé publique, en
effet la France est encore très en retrait par rapport aux autres pays
ayant un système de santé comparable. L’ANAP et la HAS (haute
autorité de santé) ont décidé d’unir leurs efforts en construisant un
programme de travail pluriannuel comportant 6 axes de travail : le
socle commun de connaissance, les recommandations
organisationnelles, l’approche patient, le volet économique, les
indicateurs et la certification. Ce programme de travail a débuté dès
décembre 2011. Il a conduit à l’élaboration de recommandations
organisationnelles françaises sur la chirurgie ambulatoire qui a reposé
sur l’adoption de 3 grands principes directeurs.
Tout d’abord il s’agit d’une approche ascendante issue du terrain.
Un benchmark identifie les facteurs clés de succès du développement
de la chirurgie ambulatoire dans les 15 établissements français les plus
performants et représentatifs (étude conduite par l’ANAP) et une
analyse de risques dans 5 établissements de santé identifie leurs
défaillances potentielles et les barrières de sécurité à mettre en œuvre
(étude conduite par la HAS).
Ensuite, ont été mobilisées des théories et des techniques
organisationnelles issues du monde industriel : approche Lean pour la
gestion des flux et méthode d’analyse des modes de défaillance et de
leurs effets pour la gestion des risques. Enfin, ce travail a donné lieu à
l’accompagnement d’experts professionnels de terrain tout au long de
la démarche.
Ces différents chantiers entrepris par l’ANAP sont déterminants
pour le contrôle de gestion et les contrôleurs de gestion à double titre.
Ils fixent le cap et placent les contrôleurs de gestion au cœur du
dispositif de pilotage de la performance. En effet, ils indiquent tout
d’abord clairement les pistes institutionnelles préconisées par les
tutelles pour améliorer la performance des établissements. Ils
constituent ainsi une feuille de route précisant aux acteurs internes en
charge de la performance et en priorité aux contrôleurs de gestion les
différents leviers à mobiliser pour remplir leur mission.
Ensuite, ils sont d’autant plus importants pour l’action des
contrôleurs de gestion que ces derniers doivent jouer un rôle
déterminant dans la mise en œuvre de chacune des actions prescrites
dans ce plan d’actions. En effet, les contrôleurs de gestion remplissent
une triple mission. Tout d’abord, ils sont prioritairement les relais
internes qui pilotent et implémentent dans les établissements les
différents projets. Ils sont également les interfaces qui coopèrent avec
l’ANAP et les ARS pour assurer la coordination entre les différentes
parties prenantes impliquées dans les différents projets comme la
conduite du changement ou l’implantation d’outil. Enfin, ils peuvent
être amenés à participer en amont, en coopération avec l’ANAP à la
conception et à l’élaboration des dispositifs et des démarches qui sont
ensuite déployées dans les établissements

Conclusion
Le pilotage de la performance est devenu une préoccupation
fondamentale pour l’hôpital. Sa prise en compte est marquée par deux
évolutions. La première réside dans l’apparition de la fonction contrôle
de gestion qui s’est développée au sein des établissements, animée par
une nouvelle figure pour l’hôpital, le contrôleur de gestion et dans
l’introduction d’outils de contrôle de gestion pour pouvoir disposer de
mesures et d’outils permettant l’instrumentation de l’analyse et du
pilotage de la performance. Plus récemment, une seconde étape issue de
la prise de conscience de la dimension organisationnelle de la
performance a poussé les tutelles à aborder cette thématique avec une
perspective systémique. Il s’agit d’actionner différents leviers
simultanément pour jouer sur les différentes facettes du
fonctionnement des établissements afin d’appréhender la complexité de
leur fonctionnement. Ainsi, compte tenu de la place centrale de l’ANAP
pour améliorer la performance du système hospitalier, les actions
entreprises par cette agence permettent d’une part d’identifier les leviers
mobilisables et d’autre part les pistes d’actions pour les contrôleurs de
gestion dans les établissements.

Références bibliographiques
Anthony R. N. (1988). La Fonction contrôle de gestion. Publi-union.
Bouquin H. (1995). Les Fondements du contrôle de gestion. Que sais-
je, PUF.
Holcman R. (2013). Management hospitalier, manuel de
gouvernance et de droit hospitalier. Dunod.
Lenay O. & Moisdon J.C. (2003). Du système d’information
médicalisée à la tarification à l’activité trajectoire d’un instrument de
gestion du système hospitalier. Revue française de gestion, vol. 5, n
° 146, pp. 131-141.
Kaplan R.S. & Norton D.P. (1996). The Balanced Scorecard :
Translating Strategy into Action. Harvard Business School Press.
Harvard.
Nobre T. (2001). Management hospitalier : du contrôle externe au
pilotage, apport et adaptabilité du Tableau de Bord Prospectif.
Comptabilité, Contrôle, Audit, vol. 2, n° 7.
Nobre T. & N. Biron (2002). L’ABC à l’hôpital le cas de la chirurgie
infantile. Finance, Contrôle et Stratégie, vol. 4, n° 2.
Nobre T. (2001). Management hospitalier : du contrôle externe au
pilotage, apport et adaptabilité du Tableau de Bord Prospectif.
Comptabilité, Contrôle, Audit, Tome 7, vol. 2.
Nobre T. & Lambert P. (2012). Le Management de pôle à l’hôpital.
Dunod.
Parson T. (1977). Social Systems and the Evolution of Action Theory.
New-York Free Press.
Sicotte C. et al. (1998). A conceptual framework for the analysis of
Health Care Organizations’ performance. Health Services
Management Research, AA, 24-28.
Chapitre 15

Le contrôle de gestion dans la


PME : mythe ou réalité ?

THIERRY NOBRE
CINDY ZAWADZKI

La contribution des PME58 à l’économie est considérable. En Europe,


les 23 millions de PME représentent 99 % de la totalité des entreprises
et participent à 58 % de la création de valeur ajoutée totale dans le
secteur privé59. L’intérêt de conduire des recherches sur ce type
d’entreprises n’est plus à démontrer. Dès 1984, Julien identifie six
caractéristiques associées à la PME : une personnalisation de la
gestion, une faible spécialisation de la direction et du personnel, une
stratégie intuitive et peu formalisée, un système d’information interne
peu complexe, un circuit décisionnel court et un système
d’information externe simple. Les travaux de Torres (1998) érigent la
PME au rang d’objet de recherche absolu. Cet auteur souligne l’intérêt
d’identifier les spécificités de la PME, au-delà des critères quantitatifs.
Les caractéristiques du dirigeant, les types de financement,
l’internationalisation de la PME constituent des thèmes développés
dans la littérature mais peu de recherches traitent du contrôle de
gestion. Face à ce manque identifié dans les travaux en sciences de
gestion, nous nous proposons d’apporter une contribution à cette
thématique en deux étapes. Nous dressons un état des lieux qui
permet par la suite de formuler quelques axes de recherche pour
développer les travaux académiques dans ce domaine. Pour ce faire,
nous analysons dans un premier temps les travaux actuels sur le
contrôle de gestion en PME puis nous identifions, dans un deuxième
temps, la nécessité d’élargir la vision des recherches sur ce thème.
Nous nous interrogeons ensuite sur la présence effective d’un contrôle
de gestion en PME et proposons des pistes pour favoriser son
introduction.

1. Les recherches actuelles sur le


contrôle de gestion en PME
La PME est l’objet de nombreuses recherches, toutefois, les travaux
dans le domaine du contrôle de gestion demeurent peu nombreux.
Des travaux peu nombreux et focalisés sur les outils
L’état de l’art dressé par Condor (2012) sur les dix dernières années
recense seulement trente-cinq références parmi lesquelles trois thèses
de doctorat, un cahier de recherche et neuf communications.
Finalement, depuis dix ans, le contrôle de gestion en PME a fait l’objet
de vingt-deux articles seulement, dont six francophones. Par ailleurs,
une revue anglophone semble accorder une place importante à ce type
de recherche puisque la moitié des articles est publiée dans la revue
Management Accounting Research.
La plupart des recherches sur le contrôle de gestion en PME
l’aborde dans une perspective globale (Sandelin, 2008 ; Perren, 2000 ;
Amat, 1994). D’autres travaux empruntent une démarche plus ciblée.
Ils traitent de l’importance de la planification dans ce type
d’entreprises (par exemple, Hodges, 2006 ; Goy, 2001). Les
publications francophones sur le contrôle de gestion dans les PME
étudient quant à elles majoritairement la dimension ingéniérique : les
outils de contrôle de gestion pour Nobre (2001 b), les outils de gestion
pour Fernandez (1996), le système d’information comptable pour
Affès et Chabchoud (2007), les tableaux de bord pour Germain (2005
et 2006). Les auteurs ayant travaillé sur cette problématique
soulignent le poids faible du contrôle de gestion dans le
fonctionnement de la PME. Il s’agit d’une fonction sous structurée
(Fournier, 1992) peu instrumentée (Abi Azar, 2005), et les outils sont
faiblement élaborés (Germain, 2006). En 2000, Malo relevait
toutefois qu’il existait peu d’études sur la forme que les outils prennent
en PME.
Une étape cruciale à étudier : l’introduction du contrôle
de gestion
Certaines publications montrent le rôle central que joue l’introduction
du contrôle de gestion dans le développement de la PME (Meyssonnier
et Zawadzki, 2008 ; Sandino, 2007 ; Reid et Smith, 2000). Ces auteurs
s’intéressent à un type particulier de PME : les PME en croissance. Il
s’agit d’étudier comment ces systèmes apparaissent (Flamholtz et
Randle, 2000 ; Greiner, 1972, 1998 ; Simons, 2000 ; Kazanjian et
Drazin, 1989 ; Miller et Friesen, 1984 ; Moores et Yuen, 2001). Davila
(2009) relève la nécessité de répondre à ces questions, tant d’un point
de vue managérial qu’académique. Le lien entre contrôle de gestion et
croissance est direct : les systèmes de contrôle de gestion sont
déterminants pour la croissance de l’organisation (Flamholtz et
Randle, 2000). A contrario, leur absence freine la croissance et cause
même l’échec de certaines organisations (Greiner, 1972, 1998). Davila
(2009) caractérise cette phase de transition critique, les entreprises en
croissance étant confrontées aux tensions liées aux processus
informels. Davila (2005) montre que les systèmes de contrôle formels
interviennent quand les facteurs informels et interindividuels (culture,
leadership, contexte affectif) de management montrent leurs limites.
D’après Davila (2005), les facteurs associés à la mise en œuvre d’un
système de pilotage global reposent principalement sur :
l’augmentation de la taille de l’entreprise par une croissance intensive
et continue, l’âge de l’organisation, le recours à un « venture capital »
permettant de financer la croissance lorsque l’endettement financier a
atteint ses limites, le remplacement du fondateur au profit d’un
directeur général, les contraintes réglementaires, l’intensité de la
concurrence (Khandwalla, 1972).
C’est au cours de cette phase que le management informel laisse
place au développement d’un système de contrôle de gestion formel.
Pour Moores et Yuen (2001), c’est pendant la phase de croissance que
les besoins en système de contrôle formels apparaissent car les
structures deviennent plus complexes.
Des travaux anglophones s’intéressent à un type particulier de
PME : la start-up. Neuf articles traitent de ces entreprises en phase de
création, souvent technologiques. Ils démontrent les enjeux de la crise
entrepreneuriale, au cours de laquelle le management doit se
professionnaliser et qui passe par l’introduction d’un système de
contrôle de gestion. Les travaux de Davila, Foster et Jia (2010)
démontrent que la mauvaise gestion de cette crise entrepreneuriale
peut conduire la start up à l’échec.
Les auteurs identifient une raison principale à l’introduction
précoce d’un contrôle de gestion dans ce type de PME : l’ouverture du
capital à un fonds d’investissement. D’autres raisons internes sont
évoquées par Davila, Foster et Jia (2010) : l’expérience en contrôle de
gestion des manageurs, le besoin ressenti, l’apparition de problèmes,
la nécessité de formaliser les procédures dans un processus de
« Learning by doing ». Un besoin de légitimer l’entreprise ou une
pression exercée par les partenaires ou les clients peuvent également
être à l’origine de la mise en place d’un système de contrôle de gestion
(Davila, Foster et Jia, 2010).
Deux courants semblent donc se dessiner dans les travaux sur le
contrôle de gestion en PME. Une première approche très
instrumentale, avec une vision technique du contrôle de gestion,
regroupe les travaux francophones, où l’on cherche à identifier les
particularités de ces outils dans un contexte PME. Une deuxième
approche s’intéresse à la phase de structuration du contrôle de gestion,
notamment dans les PME en croissance, puisqu’il s’agit d’une étape
essentielle à la survie et à la poursuite du développement.
L’émergence de recherches soulignant le rôle des acteurs
Les recherches présentées ci-dessus relèvent d’une vision restrictive
du contrôle de gestion remise en cause par la définition d’Anthony60 de
1988 qui intègre la dimension managériale de cette fonction en
soulignant sa démarche transversale et en replaçant les acteurs au
cœur des dispositifs à mettre en œuvre.
Pourtant, à notre connaissance, les travaux s’intéressant aux acteurs
du contrôle de gestion en PME sont peu nombreux. Chapellier (1997)
s’intéresse au dirigeant, acteur clé de ce type d’entreprises.
Greenbhalgh (2000) et Nobre (2001 b) étudient le rôle du contrôleur
de gestion en PME. Dès 1993, Bajan identifie une partie prenante
externe ayant un poids considérable dans le fonctionnement de la
PME : l’expert-comptable. En 1996, Chapellier s’intéresse aux conseils
dispensés par l’expert-comptable au dirigeant de PME. Nobre et
Zawadzki (2013a) étudient quant à eux les relations entre les acteurs
stratégiques de la PME que sont le directeur administratif et financier,
l’expert-comptable et le dirigeant pour mettre en évidence l’incidence
des rapports de pouvoir sur l’implantation des outils. Alors que le
fonctionnement de la PME repose majoritairement sur des relations
informelles entre les acteurs, ces éléments restent peu étudiés dans la
littérature.
Les failles dans les recherches sur le contrôle de gestion en PME
montrent qu’il est nécessaire de le considérer sous une forme plus
large, se rapprochant du contrôle organisationnel afin de mieux rendre
compte des mécanismes mis en œuvre par les acteurs. Ainsi, la
mobilisation de théories sociologiques servira de grille d’analyse de la
dimension humaine du contrôle de gestion de PME pour recouvrir
l’ensemble des facettes de la gestion de ce type d’entreprises.

2. La nécessité d’élargir la vision des


recherches sur le contrôle de gestion
en PME
Analyser le contrôle de gestion en PME nécessite de dépasser
l’approche ingénierique pour s’orienter davantage vers l’analyse du
contrôle organisationnel. Elargir la vision des recherches sur le
contrôle de gestion permet de replacer l’acteur au cœur de la réflexion.
Dans un premier temps, l’analyse se fait par rapport aux
connaissances détenues, en mobilisant des approches cognitives puis
dans un second temps, par rapport aux rôles des acteurs et à leurs
interactions, dans une perspective sociologique et socio-politique.
L’intérêt des approches cognitives
En PME, le savoir partagé par les acteurs repose sur des notions
d’intuitivité, de bon sens et d’initiative et ne laisse que peu de place à
une instrumentation du fonctionnement de l’organisation. Ce sont les
conventions, en tant que dispositifs cognitifs collectifs, qui guident les
représentations des acteurs et leurs comportements. Elles permettent
ainsi une auto régulation et une auto organisation de l’entreprise
(Gomez, 1997). Par ailleurs, les routines, réponses comportementales
issues du référentiel cognitif, apparaissent comme un mécanisme de
coordination et de capitalisation des connaissances opérationnelles
(Guilhon et Huard, 1999). Elles sont la cristallisation d’un processus
d’apprentissage (Argote, 1999). Mobiliser des approches cognitives
permet d’analyser le passage d’une coordination par les conventions et
les routines à une coordination formalisée et outillée. En PME,
l’introduction de nouveaux savoirs et outils contraint les acteurs à faire
évoluer leurs routines, par un phénomène de désapprentissage (Doz,
1994) ou de codification des routines (Davila, 2009).
Le rôle des routines a déjà été mobilisé dans le cas d’introduction
d’outils de contrôle de gestion dans d’autres organisations que sont
l’hôpital (Nobre, 2001) et l’université (Solle, 2001) par exemple, qui
connaissent les mêmes évolutions dans leur mode de fonctionnement.
Nobre et Merdinger-Rumpler (2002) montrent d’ailleurs que la
rigidité des routines pousse les organisations à une transformation
incrémentale sur un sentier organisationnel et que leurs compétences
fondamentales risquent de ce fait de devenir leurs causes d’échecs.
Utiliser cet angle d’analyse en PME a tout son sens. Pour Lorino
(1995), le contrôle, lorsqu’il ne se cantonne plus à son rôle de maintien
d’un conformisme, devient d’ailleurs un élément clé du processus
d’apprentissage organisationnel.
L’intérêt des théories sociologiques
Conduire des recherches sur le contrôle de gestion en PME nécessite
d’agréger les impacts des mécanismes informels du contrôle
organisationnel et ceux des outils du contrôle de gestion pour les
étudier. Il convient de s’éloigner de la dimension technique des outils
pour aborder le contrôle de gestion sous l’angle des relations
humaines : « Il n’est pas vrai que les outils de gestion s’appliquent
mécaniquement, sans participation des salariés à leur mise en œuvre
donc sans que ceux-ci les acceptent » (Bernoux, 2004). Les théories
sociologiques sont des grilles d’analyse intéressantes des situations
auxquelles sont confrontées de nombreuses PME. L’analyse
stratégique de Crozier et Friedberg offre une lecture des jeux de
pouvoir qui se développent au sein de la PME. Le fonctionnement
largement informel de ce type d’entreprise contribue à alimenter les
zones d’incertitude contrôlées par certains acteurs, à l’origine de leurs
pouvoirs. La délégation issue de l’introduction d’un système de
contrôle de gestion a une influence sur ces jeux de pouvoirs et
contribue à des modifications dans le système d’action concret. Nobre
et Zawadzki (2013a) montrent par exemple que l’avènement du
contrôle de gestion en PME bouleverse les zones d’incertitude
contrôlées par le dirigeant et son expert-comptable et leurs pouvoirs.
La mobilisation de la théorie de la traduction appliquée à la même
PME permet de mettre en lumière le rôle joué par les autres acteurs
impliqués dans le processus et d’identifier les phénomènes de
transformation des outils. Les auteurs soulignent que le directeur
administratif et financier n’est pas légitime pour conduire une telle
mission en PME et illustrent des traductions concurrentes issues des
salariés. (Nobre et Zawadzki, 2013b).
Les travaux recensés précédemment montrent deux tendances
principales sur le contrôle de gestion. D’une part, malgré le poids des
PME dans l’économie, peu de travaux s’intéressent à cette thématique
et d’autre part, ces recherches, exceptées quelques évolutions récentes,
ont une conception relativement restrictive en s’intéressant
principalement à la dimension technique. Ce double constat peut
amener à se poser la question de l’existence effective du contrôle de
gestion dans les PME.

3. Existe-t-il vraiment un contrôle de


gestion en PME ?
Le contrôle de gestion en PME apparaît sous une forme particulière. Il
est dilué dans le contrôle organisationnel, notamment parce que les
normes organisationnelles implicites et les caractéristiques culturelles
de la PME s’opposent aux principes d’objectivation et de formalisation
structurant les pratiques du contrôle de gestion. C’est en effet lorsque
l’entreprise quitte le stade de PME pour devenir ETI qu’apparaît un
système global et cohérent afin d’assurer le pilotage interne de
l’entreprise pour accompagner son développement et déployer sa
stratégie.

Un contrôle de gestion dilué dans le contrôle


organisationnel
Le système de contrôle de gestion présent dans ce type d’organisation
repose davantage sur des outils basiques de comptabilité de gestion de
type budgets, analyse de compte de résultat ou costing que sur un
véritable système de pilotage de la performance. Par ailleurs, le
contrôle qui y est mis en place est informel et dilué. La coordination
des comportements repose principalement sur un management de
type clanique, où par socialisation, les intérêts des individus s’alignent
avec ceux de l’organisation (Langevin et Naro, 2003). Le clan peut être
défini comme une organisation culturellement homogène, hostile aux
comportements déviants (Ouchi et Price, 1993) et se faisant
naturellement confiance (Allouche et Amann, 1995). Dans un premier
temps, c’est donc un contrôle social par une dynamique de groupe qui
assure la coordination. Face à l’augmentation de la taille de la PME,
une nouvelle forme de contrôle vient compléter ce management
clanique : la supervision panoptique (Bentham, 1787, 1791 a et b), dans
lequel les salariés ont toujours l’impression d’être surveillés et
orientent donc leur comportement dans la direction attendue.
En PME, le contrôle social semble donc largement pallier l’absence
de contrôle de gestion. Le besoin d’introduire un système global et
cohérent de management de la performance n’y est pas ressenti.
Le contrôle de gestion, une fonction inadaptée aux
caractéristiques de la PME
Le fonctionnement de la PME repose sur une dimension
entrepreneuriale forte dont les valeurs sont l’intuition, la réactivité, la
proximité, la prise de risque, etc. Insufflées par le dirigeant, elles sont
partagées par l’ensemble des acteurs et forment la culture d’entreprise.
Elles se heurtent à la nature même du contrôle de gestion qui se
définit par la rigueur, l’efficience, le reporting, l’anticipation : « La
rigueur et la créativité ne peuvent cohabiter que très difficilement »
(Berland et Persiaux, 2008). Mintzberg (1982) démontre que les
caractéristiques des entrepreneurs sont faites pour gérer des start up
dans un environnement incertain et sont mal adaptées pour manager
une organisation plus grande et structurée. Introduire un contrôle de
gestion en PME revient donc à gérer le paradoxe organisationnel
classique entre exploitation et exploration. Le contrôle de gestion en
PME empêche l’exploration de nouvelles opportunités au profit de
l’exploitation des activités existantes, par une meilleure attention
apportée à la maîtrise des ressources. L’accent mis sur
l’instrumentation de l’évaluation financière des nouvelles opportunités
est réducteur voire inhibiteur et apparaît comme un frein au
développement de la PME et à l’innovation. La préférence des PME
pour l’exploration les incite à délaisser ces démarches. Pourtant, le
contrôle de gestion pourrait être utilisé pour stimuler l’innovation
(Chenhall et al., 2011), notamment dans sa dimension interactive
(Simons, 1995).
De l’absence du contrôle de gestion en PME à son
développement dans l’ETI
Les PME sont par nature des organisations où le niveau de délégation
est faible. La communication informelle et les contacts directs sont
privilégiés. Ce mode de fonctionnement par ajustement mutuel
(Mintzberg, 1982) est rendu possible grâce au faible nombre d’acteurs
concernés dans cette structure simple où les mécanismes de
coordination interpersonnels sont privilégiés. Dans ce contexte, le
contrôle de gestion ne présente donc que peu d’intérêt. En effet, il
reste perçu par les manageurs comme un outil de surveillance plutôt
que comme un outil de pilotage de la performance de leurs centres de
responsabilité. Les manageurs ne ressentent pas un besoin
d’informations plus fréquentes, plus précises ou plus cohérentes
puisque la majorité des décisions est prise par le dirigeant. Le
dirigeant utilise le contrôle de gestion à des fins d’aide à la décision
pour conforter son intuition. Lorsqu’il obtient des informations en
contradiction avec sa vision stratégique et ses attentes, il remet en
cause cette nouvelle pratique managériale. C’est finalement le
dirigeant qui, dans ce cas de figure, s’avère un frein à la formalisation
du contrôle en PME.
Le contrôle de gestion, en tant que système de management de la
performance, reste peu développé en PME. Lorsqu’il existe, il ne sert
bien souvent qu’à rendre des comptes, dans un processus
d’accountability. Il n’est pas destiné aux dirigeants, dans le cadre de la
délégation qui nécessite un contrôle, mais est plutôt introduit à la
demande de partenaires externes notamment à la suite d’une
ouverture de capital. L’introduction d’outils de gestion se fait alors de
manière exogène et forcée, la demande provenant du fonds
d’investissement. Le contrôle de gestion ne sert dans ce cas qu’aux
investisseurs et non à piloter la performance de l’entreprise, qui est
pourtant l’objectif principal du contrôle de gestion. On est confronté à
un détournement du contrôle de gestion par les acteurs visés. Il se
limite alors à une perspective financière, ce qui réduit la
problématique du contrôle de gestion.
Finalement, le contrôle en PME devient formel lorsque l’entreprise
franchit le seuil de 250 salariés, c’est-à-dire quand l’entreprise quitte
le stade de PME pour devenir une entreprise de taille intermédiaire
(ETI). C’est à ce moment que la taille acquise par l’entreprise oblige le
dirigeant à déléguer et à confier de réelles responsabilités à ses
managers, pour se concentrer quant à lui sur la gestion par exception.
Un phénomène de « managérialisation » apparaît qui remet en cause
la dimension entrepreneuriale au profit d’une focalisation sur la
maîtrise des ressources. Les outils de contrôle de gestion jouent alors
progressivement leur rôle traditionnel de planification, de mesure, de
suivi, d’évaluation dans une optique de pilotage de la performance.
C’est l’étape de structuration de la gestion interne, où un système de
contrôle de gestion devient nécessaire pour manager la performance
de l’entreprise.
L’introduction d’un contrôle de gestion en PME se fait donc dans un
processus d’apprentissage qui présente trois caractéristiques
principales. Il est fondateur car il renouvelle les principes
d’ajustement organisationnel, structurant puisqu’il formalise le
fonctionnement de l’entreprise et collectif car il associe tous les
acteurs. Compte tenu de la place de ce processus dans le
développement de la PME pour se transformer en ETI, il convient
d’identifier les enjeux de cette démarche et de proposer des pistes pour
favoriser l’évolution du fonctionnement de la PME.

4. Quelles pistes pour faciliter


l’introduction du contrôle de gestion en
PME ?
Ces différents travaux concernant le contrôle de gestion dans les PME
permettent d’identifier les défis qui doivent être relevés lors de
l’introduction d’un système de pilotage de la performance dans ce type
d’entreprises. Quatre pistes peuvent être avancées pour structurer les
préconisations à destination des acteurs en charge de ce processus.
Tout d’abord, en accord avec les travaux développés par Anthony
(1988) et Bouquin (2007), le contrôle de gestion doit être en lien direct
avec la démarche stratégique. Ensuite, les spécificités de la PME
montrent qu’il doit être appréhendé à partir du contrôle
organisationnel. Par ailleurs, les approches sociologiques ont mis en
évidence le rôle des acteurs dans la dynamique de développement du
contrôle de gestion. Enfin, la dimension éminemment ingénierique du
contrôle de gestion nécessite de s’intéresser aux caractéristiques des
outils. Néanmoins, il faut souligner que ce processus d’introduction du
contrôle de gestion doit s’inscrire dans une démarche volontariste et
proactive. En effet, compte tenu de la complexité de cette mise en
œuvre, il ne s’agit pas d’une évolution spontanée mais au contraire,
d’un projet qui doit être conçu puis conduit par des acteurs conscients
des difficultés et des enjeux.
Comme le rappellent Bouquin (2007) et Anthony (1988), le contrôle
de gestion ne peut se concevoir que dans un cadre global intégrant une
vision à long terme qui est appréhendée par la démarche stratégique.
Dans une organisation où les acteurs sont habitués à un
fonctionnement « au jour le jour », cela nécessite d’insuffler cette
perspective qui est instrumentée par le management stratégique afin
de trouver un équilibre entre les exigences de compétitivité, de
légitimité et de sécurité (Koenig, 2004). En conséquence, les enjeux de
l’introduction du contrôle de gestion dans la PME résident dans
l’arbitrage entre deux conceptions. Il s’agit d’une part du maintien de
la dimension entrepreneuriale qui implique une vigilance stratégique
pour continuer à saisir les opportunités et, d’autre part, de la
perspective managériale qui privilégie le contrôle des ressources et
risque ainsi d’entraver la dynamique stratégique (Stevenson, 1983 ;
Stevenson et Gumpert, 1985 ; Stevenson et Jarillo, 1986, 1990).
Concernant la dimension organisationnelle, le dirigeant de PME
doit gérer le paradoxe organisationnel auquel il est confronté :
introduire davantage de formalisation dans le fonctionnement de sa
PME tout en conservant une forme d’autonomie synonyme de
réactivité. Comme l’a montré Greiner (1972, 1998), la trajectoire de
croissance de l’entreprise passe par des phases d’évolution, plutôt
calmes, et des crises. Les entreprises font ainsi l’objet d’un mouvement
de balancier qui se traduit par une alternance entre des périodes
marquées par un mouvement de centralisation et d’autres marquées
par une dynamique de délégation. La tâche critique du management
est alors de conduire les changements nécessaires afin d’anticiper ces
crises organisationnelles (crise de leadership, crise d’autonomie, crise
de contrôle, crise de bureaucratie). Pour cela, il doit d’une part
identifier le positionnement de son entreprise sur la trajectoire de
croissance et d’autre part reconnaître les signes évocateurs d’une crise
(centralisation excessive ayant un impact sur les managers, perte de
contrôle du top management, etc.). Dans ce contexte, le contrôle de
gestion doit trouver un juste équilibre pour maintenir une forme
d’autonomie assurant un degré de créativité suffisant tout en
optimisant l’utilisation des ressources dans une perspective globale.
Au niveau des acteurs, l’introduction d’un contrôle de gestion en
PME bouleverse le fonctionnement de l’organisation et les régulations
internes qui se sont instaurées. Certains acteurs voient leurs pouvoirs
menacés et déploient des stratégies pour préserver leurs marges de
manœuvre et ainsi remettre en cause les changements envisagés.
L’évolution du système d’action concret mis en œuvre dans le
fonctionnement de ce type d’organisation constitue un enjeu majeur.
Cela impose d’arbitrer entre la nécessaire implication des différents
acteurs pour assurer la réussite du projet et une forme de refus de
l’ensemble de leurs exigences qui conduiraient inévitablement à une
forme d’immobilisme. Autrement dit, il faut identifier les zones
d’incertitude contrôlées par les acteurs stratégiques de la PME et
appréhender les risques liés au système d’action concret pour définir
jusqu’où les impliquer dans la démarche de conception et
d’implantation du nouveau système de management de la
performance.
Enfin, l’introduction du contrôle de gestion passe par la mise en
place d’outils qui instrumentent la démarche de management de la
performance. Toute la difficulté de cette implantation réside dans la
définition des caractéristiques des outils appropriées au cadre de la
PME. En effet, les outils nécessitent un formalisme et une technicité
pour appréhender la complexité des composants de la performance
qui peut être en décalage avec le fonctionnement informel de la PME.
De plus, il s’avère que les acteurs internes ne disposent pas de
compétences managériales leur permettant de maitriser ce type
d’instrumentation de gestion. Ce déficit de savoir-faire constitue un
frein important à l’appropriation du système de contrôle de gestion
par les différents utilisateurs. Ainsi, le contrôleur de gestion doit
réaliser un arbitrage entre un degré suffisamment important de
technicité des outils pour assurer l’efficacité du système de pilotage et
une adaptation par simplification des outils permettant leur
appropriation.

Conclusion
Le contrôle de gestion, en tant que système global et cohérent de
gestion de la performance a du mal à trouver sa place dans la PME. Il
est mis en évidence les interrogations sur l’adéquation du contrôle de
gestion aux caractéristiques de la PME. Dans ce contexte particulier, le
contrôle de gestion est dilué et informel, prenant des formes relevant
davantage du contrôle organisationnel. Il doit donc être appréhendé
dans une vision plus globale, relativisant les approches purement
mécanistes et rationnelles. Étudier le contrôle de gestion en PME
nécessite d’accorder une place plus importante à la dimension
humaine en mettant les acteurs au cœur de l’analyse. Pour cela, il
semble indispensable de mobiliser d’autres regards tels que les
approches cognitives et les théories sociologiques pour mieux rendre
compte des mécanismes liés au contrôle de gestion.
Finalement, le contrôle de gestion apparaît lorsque l’entreprise
quitte le stade de PME pour atteindre celui d’Entreprise de Taille
Intermédiaire (ETI). L’intérêt réside donc dans l’étude de cette phase
d’introduction du contrôle de gestion, qui nécessite une approche
longitudinale, souvent absente dans les recherches académiques. Les
différents travaux identifiés permettent de définir des pistes
structurant le processus d’introduction et guidant les acteurs en
charge de l’implantation d’un système de management de la
performance. Ces derniers doivent appréhender cette évolution en
intégrant les dimensions stratégique, organisationnelle, humaine et
ingénierique.

Références bibliographiques
Affès H. & Chabchoub A. (2007). Le système d’information
comptable : les déterminants de ses caractéristiques et son impact
sur la performance financière des PME en Tunisie. La Revue des
sciences de gestion, Direction et Gestion, n° 224-225, pp. 59-67
Allouche J. & Amann B. (1995). Le retour triomphant du capitalisme
familial. In Jacques Cœur à Renault : gestionnaires et organisation,
Presses de l’université des sciences sociales de Toulouse, 23 p.
Amat J.S., Carmona S. & Roberts H. (1994). Context and change in
management accounting systems : a spanish case study.
Management Accounting Research, vol. 5, pp. 107-122
Anthony R.N. (1988). The Management Control Function. The
Harvard Business School Press, Boston. Trad. fr. La Fonction
contrôle de gestion. Paris, Publi-Union, 1993.
Argote L. (1999). Organizational Learning : Creating, Retaining, and
Transferring Knowledge. Kluwer Academic Publishers. Norwell,
MA.
Bentham J. (1787). Panopticon or the Inspection House. In The Works
of Jeremy Bentham, Partie III. Edinburgh, William Tait, 1838-43,
pp. 37-66.
Bentham J. (1791a). Panoptique. Mémoire, édité par Laval Ch. Paris,
Mille et une nuits, 2002, 676 p.
Bentham J. (1791b). Panopticon. Postscripts, in The Works of Jeremy
Bentham, Partie III. Edinburgh, William Tait, 1838-43, pp. 67-172.
Berland N. & Persiaux F. (2008). Le contrôle des projets d’innovation
de haute technologie. Comptabilité, Contrôle, Audit, décembre,
Tome 14, vol. 2, 75-106.
Bernoux P. (2004). Sociologie du changement dans les entreprises et
les organisations. Paris, Le Seuil, 382 p.
Bouquin H. (2007). Les Fondements du contrôle de gestion. Paris,
Que sais-je, 127 p.
Chapellier P. (1997). Profils de dirigeants et données comptables de
gestion. Revue Internationale PME, vol. 10, n° 1, pp. 9-41.
Chenhall R.H., Kallunki J. & Silvola H. (2011). Exploring the
relationships between strategy, innovation, and management control
systems : the roles of social networking, organic innovative culture,
and formal controls. Journal of Management Accounting Research,
vol. 23, pp. 99- 128.
Condor R. (2012). Le contrôle de gestion dans les PME : une approche
par la taille et le cycle de vie. Revue Internationale PME, vol. 25, n
° 2, pp. 77-97.
Davila A., Foster G. & Jia N. (2010). Building sustainable high-growth
startup companies : Management systems as an accelerator.
California Management Review, vol. 52, n° 3, pp. 79-105.
Davila A. (2009). Performance measurement and management control
Systems : Current research and ideas going forward. In Epstein M. J.
& Manzoni, J. (Eds), Performance Measurement and Management
Control : Measuring and Rewarding Performance. Studies in
Managerial and Financial Accounting, (18), pp.43-69.
Davila T. (2005). An Exploratory Study on the Emergence of
Management Control Systems : Formalizing Human Ressources in
Small Growing Firms. Accounting, Organizations and Society, avril,
pp. 223-248.
Doz Y. (1994). Les dilemmes de la gestion du renouvellement des
compétences clés. Revue Française de Gestion, vol. 97, pp. 92-104.
Fernandez V., Picory C. & Rowe F. (1996). Outils de gestion et espaces
concurrentiels des PME. Revue Internationale PME, vol. 9, n° 1, pp.
79-102.
Flamholtz E. & Randle Y. (2000). Growing Pains : Transitioning from
an Entrepreneurship to a Professionally Managed Firm, new rev. ed.
Jossey-Bass, San Francisco.
Germain C. (2005). Une typologie des tableaux de bord implantés
dans les petites et moyennes entreprises. Finance Contrôle
Stratégie, vol. 8, n° 3, pp. 125-143.
Germain C. (2006). Le pilotage de la performance dans les PME en
France : une comparaison des pratiques des entreprises familiales et
des filiales. Revue Internationale PME, vol. 19, n° 1, pp. 69-94.
Gomez P.Y. (1997). Information et convention ; le cadre du modèle
général. Revue Française de Gestion, n° 112, janvier-février, pp. 64-
77.
Goy H. (2001). De la nécessité de poursuivre la recherche sur la
planification des PME. Revue Internationale PME, vol. 14, n° 2,
pp. 85-108
Greenhalgh R.W. (2000). Information and the transnational SME
controller. Management Accounting Research, vol. 11, pp. 413-426
Greiner L. (1972). Evolution and Revolution as Organizations Grow.
Harvard Business Review, juillet-août, pp. 37-46.
Guilhon A. & Weill M. (1996). Démarche qualité : de la stratégie
d’adaptation aux processus stratégiques de changements dans les
PME – Résultats d’un test empirique. Actes de la 5e Conférence de
l’Association Internationale de Management Stratégique, mai, Lille.
Hodges H.E. & Kent T.W. (2006). Impact of planning and control
sophistication in small business. Journal of Small Business
Strategy, automne, vol. 17, n° 2, pp. 75-87.
Julien P.A. (1984). Qu’est-ce qu’une PME ? Six caractéristiques qui
permettent enfin de les identifier. Le Devoir, octobre, p. 2.
Kazanjian R.K. & Drazin R. (1989). An empirical test of a stage of
growth progression model. Management Science, vol. 35, pp. 1489-
1504.
Khandwalla P.N. (1972). The Effect of Different Types of Competition
on the Use of Management Controls. Journal of Accounting
Research, autumn, pp.275-285.
Langevin P. & Naro G. (2003). Contrôle et comportements. Une revue
de la littérature anglo-saxonne, avec Pascal Langevin. Actes du
24e congrès de l’Association Francophone de Comptabilité, mai,
Louvain-La-Neuve.
Lorino P. (1995). Comptes et récits de la performance. Paris, éd.
d’Organisation, 288 p.
Malo J. L. (2000). Tableaux de bord. In Colasse B. (2000),
Encyclopédie de comptabilité, contrôle de gestion. Paris,
Economica, pp. 1133-1144.
Meyssonnier F. & Zawadzki C. (2008) L’introduction du contrôle de
gestion en PME. Étude d’un cas de structuration tardive de la gestion
d’une entreprise familiale en forte croissance. Revue Internationale
PME, vol. 21, n° 1, pp. 60-92.
Mintzberg H. (1982). Structure et dynamique des organisations.
Paris, Les Éditions d’Organisation, 434 p.
Moores K. & Yuen S. (2001). Management Accounting Systems and
Organizational Configurations : a Life-cycle Perspective. Accounting
Organizations and Society, vol. 26, pp. 352-389.
Nobre T. & Zawadzki C. (2013a). Stratégie d’acteurs et processus
d’introduction d’outils de contrôle de gestion en PME. Comptabilité
Contrôle Audit, Tome 19, vol. 1, pp. 91-116.
Nobre T. & Zawadzki C. (2013b). Analyse de l’échec de l’introduction
du contrôle de gestion en PME par la théorie de la traduction : un
manque de légitimité et des moments incomplets. 34e congrès de
l’Association francophone de Comptabilité, Montréal.
Nobre T. & Merdinger-Rumpler C. (2002). Quelle métamorphose pour
l’hôpital ?. Actes de la 2e colloque « la métamorphose des
organisations », Vittel.
Nobre T. (2001). Management hospitalier : du contrôle externe au
pilotage, apport et adaptabilité de tableau de bord prospectif.
Comptabilité Contrôle Audit, novembre, Tome 7, vol. 2, pp. 125-146.
Nobre T. (2001, a). Le contrôleur de gestion en PME. Comptabilité
Contrôle Audit, Tome 7, vol. 1, mars, pp. 129-146.
Nobre T. (2001, b). Méthodes et outils du contrôle de gestion dans les
PME. Finance –Contrôle – Stratégie, vol. 4, n° 2, juin, pp. 119-148.
Ouchi W.G. & Price R. (1993). Hierarchies, Clans, and Theory Z : A
New Perspective on Organizational Development. Organizational
Dynamics, vol. 21, n° 4, pp. 62-70.
Perren L. & Grant P. (2000). The evolution of management accouting
routines in small businesses : a social construction perspective.
Management Accounting Research, vol. 11, pp. 391-411.
Reid G.C. & Smith J.A. (2000). What makes a new business start-up
successful ?. Small Business Economics, vol. 14, pp. 165-82.
Sandelin M. (2008). Operation of management control practices as a
package. A case study on control system variety in a growth firm
context. Management Accounting Research, vol. 19, pp. 324-343.
Sandino T. (2007). Introducing the first management control
systems : evidence from the retail sector. The Accounting Review,
vol. 82, n° 1, pp. 265-293.
Simons R. (2000). Performance measurement and control systems
for implementing strategy. Prentice Hall.
Solle G. (2001). Rénovation des outils de gestion et faits sociaux : le
cas des organisations universitaires. Comptabilité - Contrôle –
Audit, vol. 7, n° 1, pp. 147-159.
Stevenson H.H. (1983). A Perspective On Entrepreneurship. Harvard
Business School. Working Paper.
Stevenson H. H., Gumpert D. (1985). The heart of entrepreneurship.
Harvard Business Review, vol. 63, n° 2, 1985, pp. 85-94.
Stevenson H.H. & Jarillo J.C. (1986). Preserving entrepreneurship as
companies grow. Journal of Business Strategy, vol. 6, 1986, pp. 10-
23.
Stevenson H.H. & Jarillo J.C (1990). A paradigm of entrepreneurship :
Entrepreneurial management. Strategic Management Journal,
vol. 11, pp. 17-27.
Torres O. (1998). Vingt-cinq ans de recherche en gestion de la PME :
une discipline entre courants et contre-courants, chapitre 1. In
PME : De nouvelles approches. Paris, Economica, octobre,
187 pages.
Conclusion
MARC BOLLECKER
GÉRALD NARO

Les débats, controverses et perspectives exposés dans cet ouvrage


invitent le lecteur à voyager dans différents mondes d’application du
contrôle de gestion d’aujourd’hui : celui des banques, de l’industrie,
des hôpitaux, des universités, des PME, des services, de l’immatériel,
de l’écologie. Les différents univers explorés par les auteurs dévoilent
clairement une grande variété des situations dans lesquelles le
contrôle de gestion prend place. C’est donc sur l’hypothèse forte d’une
capacité à s’adapter à différentes situations parfois très spécifiques sur
laquelle repose cette exploration. A priori, rien de nouveau sous le
soleil, notre lecteur voyage ici dans la contingence largement explorée
dans de nombreux travaux de recherche depuis plusieurs décennies.
Rien de nouveau, sauf à considérer qu’il s’agit là probablement d’une
question centrale et permanente pour la pérennité du contrôle de
gestion actuel !
Ce voyage multipolaire suppose en effet la transférabilité d’un
contrôle de gestion, né dans l’industrie automobile et l’industrie
chimique61 au début du XXe siècle. Cette transférabilité est possible
sous réserve de transformer les pratiques originelles, c’est-à-dire à
condition de considérer le contrôle comme potentiellement flexible et
de ne pas céder à un mimétisme simpliste. Plus précisément, c’est
l’hypothèse d’une mobilisation prudente de l’un des modèles
génériques du contrôle de gestion qui caractérise le caractère
opérationnel de son adaptabilité. Rappelons brièvement que le
contrôle de gestion d’aujourd’hui se construit de manière exclusive ou
complémentaire sur quatre modèles.

(1) Celui de Sloan (1966) Brown (1977) de contrôle coordonné de la


décentralisation :
Fondé sur l’idéologie de responsabilité individuelle et de déclinaison de la
stratégie au sein des divisions, il s’opérationnalise notamment par le
processus d’allocation des ressources au sein de centres de profit et par la
définition de prix de cession interne. Le contrôle à distance de la
décentralisation, c’est-à-dire la vérification de la contribution des centres de
profit à la performance financière globale, suppose l’utilisation d’indicateurs
financiers tel que le ROI et d’un système de reporting.
(2) Celui de R. Anthony (1965, 1988) de hiérarchisation des niveaux de
contrôle :
Reposant sur la planification stratégique, l’apport majeur de ce modèle est de
situer le contrôle de gestion à l’interface de la stratégie et des opérations.
Fonction caractérisée de fait par une distinction hiérarchique et temporelle,
elle vise à influencer les managers pour qu’ils agissent dans le sens des
objectifs. La relation entre les différents niveaux est assurée par le processus
de planification et d’allocation des ressources, en particulier le contrôle
budgétaire.
(3) Celui du bottom-up empowerment de T. Johnson (1992) aux US ou de
pilotage fondé sur l’autonomie politique et cognitive des acteurs de P. Lorino
(1995, 1997) en France :
L’importance de l’autonomie des acteurs dans la compétitivité et la création
de valeur conduit à un modèle substituant le contrôle de gestion « top-down
» à un contrôle « bottom-up ». Ce sont des modes de pilotage axés sur
l’engagement collectif, l’apprentissage organisationnel, les interdépendances,
la transversalité que permettent notamment l’ABC et l’ABM
(4) Celui des leviers de contrôle de R. Simons (1995) :
Modèle basé sur quatre leviers de contrôle (systèmes de croyance, systèmes
de contrôle interactif, système de délimitation, systèmes de contrôle
diagnostic) dont disposent les dirigeants pour la mise en œuvre ou le
changement de la stratégie, l’enjeu est l’utilisation équilibrée de ces leviers.
Fondé sur une approche intégratrice, le modèle suppose une démarche «
top-down » et « bottom-up », basée sur des informations financières et non-
financières articulées entre elles, et des outils tels que la Balanced Scorecard
ou le Skandia Navigator.

Lequel de ces modèles les praticiens peuvent-ils emprunter ? La


réponse n’a rien d’évident ! Chacun d’entre eux repose sur des
hypothèses spécifiques de fonctionnement de l’organisation. Les deux
premiers supposent une entreprise cybernétique, contractuelle, ayant
procédé à un découpage en centres de responsabilité. L’objectif est de
permettre la déclinaison des facteurs clés de succès et la
communication de la stratégie (Burlaud et Simon, 1997). L’absence
d’une de ces hypothèses fait-elle alors basculer mécaniquement le
contrôle de gestion dans l’un des deux modèles suivants ?
On peut fortement en douter compte tenu de l’hybridité actuelle de
la plupart des organisations : certaines activités correspondent aux
hypothèses et d’autres s’en écartent fortement. Et ce sont en amont
des facteurs objectivistes et subjectivistes (Oriot, 2004) qui
déterminent les caractéristiques organisationnelles et donc les
hypothèses des modèles : dynamisme et complexité de
l’environnement, taille de l’organisation, style de gouvernance, type de
stratégie et structure déployée, profil des dirigeants et des autres
managers, caractéristiques du secteur d’activité, technologie… Les
spécificités du contexte offrent autant de possibilités complémentaires
mais aussi et malheureusement souvent contradictoires.
Dès lors, peut-on concevoir raisonnablement que les contrôleurs de
gestion disposent du temps nécessaire et d’une lecture suffisamment
distanciée de la carte pour s’assurer que les hypothèses sur lesquelles
se fonde le modèle à déployer soient bien vérifiées dans leur
organisation ? Peut-on concevoir raisonnablement que le top
management voire les instances de gouvernance disposent d’une
lisibilité claire des enjeux (apports et surtout risques !) du
développement d’un de ces modèles ? Comment éviter que des
modèles opposés se juxtaposent dans une même organisation et
contribuent à « écarteler le contrôle de gestion entre sa composante
qui sert à la direction générale (une approche financière) et celle qui
régule « le terrain » et ses processus » (Bouquin et fiol, 2007, 12) ? Au
fond, les controverses développées dans cet ouvrage trouvent
probablement leurs sources dans ces trois interrogations majeures.
Un des contextes les plus emblématiques actuellement de ces
controverses est celui des anarchies organisées (Cohen et al., 1972), en
particulier celui des universités françaises. La crise du business model
qu’elles traversent incite au déploiement massif de dispositifs de
contrôle. Or, ces organisations sont encore très éloignées d’un
fonctionnement cybernétique, contractuel, permettant la mise en
œuvre d’une stratégie. C’est plutôt une grande variété de préférences
mal définies et peu cohérentes entre elles, des procédures peu
comprises par des membres dont la participation est fluctuante
(Cohen et al., 1972) qui les caractérisent aujourd’hui encore. Dès lors,
comment déployer des dispositifs de contrôle conçus originellement
pour la stabilité, à des contextes d’exploration, d’incertitude,
d’ambiguïté (March et Olsen, 1976) ? Comment mobiliser les modèles
(1) ou (2) compte tenu des missions et activités multidimensionnelles
de ces organisations ? S’agit-il de recourir définitivement aux modèles
(3) et (4) ?
Il est particulièrement troublant de constater les caractères
cybernétique et contractuel des outils proposés dans ce secteur :
1. « le tableau de bord dont l’objectif est de mesurer de la
performance de l’université et permettre de vérifier la
conformité des résultats par rapport aux objectifs ; d’enclencher
des actions correctives sur les moyens et les activités ; d’ajuster
les objectifs, cibles et trajectoires en accord avec les parties
prenantes » (CPU 2010).
2. « la comptabilité de gestion dont les objectifs sont de calculer
des coûts pour mieux se connaître, valoriser les échanges et la
coopération entre services, se comparer, analyser les coûts,
prévoir et expliquer les écarts » (AMUE, 2009)
3. « les Contrats d’Objectifs et de Moyens qui définissent
l’ensemble des moyens nécessaires à la mise en œuvre des
politiques d’établissements au sein d’une composante » (CPU,
2010)
Devant la difficulté à choisir un modèle de contrôle adapté,
certaines équipes de direction et/ou présidentielles, hésitantes, ont pu
laisser filer les pratiques et les finalités du contrôle. Au-delà d’un
reporting imposé par et assuré pour la tutelle, c’est la radicalisation
des modèles de Johnson et de Lorino (3) qui peut être constatée dans
certaines de ces organisations fortement politisées. Le contrôle de
gestion se construit ainsi en « bottom » pour devenir plus une
« machine à munition » (Burchell et al., 1980, Bollecker, 2013) qu’un
système de contrôle global coordonné. Trop décentralisé, les acteurs
ont l’opportunité de façonner leurs propres outils pour des
apprentissages locaux et, parfois les utiliser à des fins stratégiques.
Mais, cette complexité des contextes d’application du contrôle a pu
et peut conduire également des organisations du secteur marchand à
simplifier ou à ignorer les particularités des situations. On ne peut
exclure que cette simplification ait conduit dans certains cas à
différentes impasses dans le déploiement du contrôle de gestion
comme le souligne A. Eggrickx dans ce livre, à une réification et à une
déconnexion du réel, bref à une radicalisation du modèle de Sloan et
Brown (1). D’ailleurs, pouvant parfois tourner à vide et produire des
effets indésirables, ces pratiques de contrôle désencastré ont pu
favoriser la mobilisation toujours et encore de nouveaux mécanismes
de pilotage qui s’empilent pour pallier l’inefficacité du système. Plus
de contrôle pour réguler les carences d’un contrôle inadapté !
L’inflation des indicateurs de mesure de la performance illustre cette
tendance qui n’est probablement pas étrangère aux critiques qu’essuie
la fonction depuis plusieurs années et dont il a été fait mention à
plusieurs reprises dans cet ouvrage.
Les réponses apportées à ces critiques dans les différents chapitres
de ce livre constituent des propositions fructueuses et prometteuses
pour envisager l’adaptabilité du contrôle de gestion dans différentes
situations. C’est la connaissance fine des mondes d’application qui
apparaît clairement comme un prérequis à l’application et au
développement du contrôle de gestion voire même à sa pérennité. La
connaissance des métiers, des stratégies, de l’environnement, de la
technologie, de la structure organisationnelle, des cultures
professionnelle et d’entreprise… contribue à façonner des systèmes de
contrôle spécifiques. Elle est de nature à éviter, ou en tout cas à
atténuer, les risques de rejet de ces derniers et les effets indésirables
sur les personnels. Mais cette connaissance est aussi utile pour définir
dans quelle mesure le contrôle de gestion en retour transforme
certains de ces facteurs. Ce n’est pas simplement une démarche
pragmatique d’adaptabilité qui serait à adopter : c’est davantage une
perspective interactive de mise en adéquation des systèmes de
contrôle avec leur contexte. Car, on le sait bien, le contextualisme ne
peut supposer de renoncer définitivement à des modèles, outils, cadres
construits ailleurs, comme le souligne clairement Dupuy (2013, 8) :
« Le sur-mesure en contrôle relève certes, dans ses pratiques
quotidiennes, de l’improvisation et de l’habileté artisanale, mais qui
ne resterait que bricolage… s’il ne s’enracinait pas au cœur de
principes méthodologiques et de fondement théorique solidement
établis et assimilés ». Ces principes et fondements du contrôle sont le
résultat d’une capitalisation des connaissances depuis plusieurs
décennies permettant de dessiner le ou les cadres généraux de la
fonction et, surtout, l’enseignement de la discipline aux (futurs)
praticiens. Les perspectives qui se dessinent alors relèvent de
l’application d’un ou de modèles, outils, cadres préétablis de manière
très souple. Cette application permet des adaptations mutuelles, entre
les dispositifs de contrôle et les caractéristiques des organisations,
pour ne pas figer ces dispositifs dans le marbre compte tenu des
changements contextuels récurrents que connaissent ces dernières
aujourd’hui. Dès lors, comment les professionnels du contrôle de
gestion peuvent-ils procéder ?
C’est par l’intermédiaire d’objets frontières malléables (tableau de
bord, comptabilité de gestion, système d’information, budget),
d’acteurs intermédiaires de liaison (contrôleurs, managers), de
situations et de structure de travail communes (inter et intra-
organisationnelle) que la flexibilité requise peut se déployer. C’est
aussi dans la définition des finalités du contrôle que cette adaptabilité
est à définir, de manière alternative ou complémentaire : régulation
des dysfonctionnements et donc incitation à l’action ; apprentissage,
transfert des savoirs individuels vers les savoirs collectifs ;
rationalisation et justification des décisions prises ; promotion des
intérêts de parties prenantes ; convergence des comportements, aussi
bien dans la mise en œuvre que dans le changement de la stratégie.
Enfin, c’est sur sa dimension ontologique que la flexibilité peut se
concrétiser. La variété du périmètre de contrôle (centralisé à
décentralisé, global à local, interne à externe, intra à
interorganisationnel, hiérarchique à transversal…) lui confère une
forte aptitude à la flexibilité. Le périmètre suppose que le contrôle soit
l’affaire de quelques-uns jusqu’à celle de tous les membres dans et/ou
en dehors de l’organisation, sur une partie ou sur l’ensemble du
processus de pilotage. La souplesse du contrôle se concrétise
également dans son degré de formalisme. Le curseur peut se déplacer
de dispositifs explicites et visibles à des systèmes de pilotage plus
informels reposant sur la confiance. C’est aussi l’orientation
temporelle qui confère une aptitude à la flexibilité : d’une gestion
rétroactive du passé à un pilotage de l’incertitude des situations
financières. Enfin, la variété du langage employé (financier et/ou non
financier, coût et/ou valeur, économique et/ou sociétal), susceptible
de faire sens à un public limité jusqu’à très large, lui permet de
dépasser la rigidité et la simplicité de modèles radicaux.
Au fond, ce qui émerge probablement le plus dans le contrôle de
gestion d’aujourd’hui, c’est sa quête de cohérence avec les
caractéristiques multicritères du contexte. Que ce soit pour la
cohérence-cohésion et donc la convergence des comportements, pour
la cohérence-complémentarité des différents dispositifs de contrôle,
ou pour la cohérence-pertinence des outils mobilisés dans un contexte
spécifique, c’est la recherche d’absence de contradiction à laquelle
nous encouragent clairement différents contributeurs de cet ouvrage.
Cela évidemment ne signifie pas d’éluder les paradoxes et tensions
organisationnels, mais au contraire de les identifier, les affronter, les
traiter pour en atténuer les effets.
Voyager dans les contextes d’accueil du contrôle de gestion conduit
donc à constater la complexité de la démarche pour le rendre cohérent
avec son environnement humain, social, économique et technique. La
multiplicité des caractéristiques du contexte et les nombreux leviers
permettant de flexibiliser les dispositifs de contrôle rendent l’usage en
l’état d’une carte universelle impraticable. Occulter cette assertion
présente le risque de s’exposer au rejet d’un traitement qui ne serait
pas adapté au patient. C’est bien alors la question du dosage des
dispositifs de contrôle de gestion qui se pose et, en amont, celle du
diagnostic pour identifier les enjeux (valeur ajoutée et risques), les
objectifs, les moyens et les conditions de développement du contrôle
de gestion dans un contexte donné et à un moment donné. C’est donc
l’élaboration d’une méthodologie susceptible de réaliser le diagnostic
qui reste à inventer. Car, rares et anciennes sont les productions
scientifiques permettant de guider les professionnels dans la
conception, la mise en œuvre et l’audit des systèmes de contrôle. Au
fond, seule une forte coopération entre les chercheurs du domaine et
les praticiens peut rendre praticable une telle démarche dans une
époque où les risques de dissociation entre la recherche et les
pratiques (Hopwood, 2008) sont réels. Cette démarche suppose de
connaître parfaitement le terrain et, parallèlement, les différentes
conditions d’usage des modèles du contrôle de gestion ainsi que leur
potentiel de flexibilité.

Références bibliographiques
Agence de Mutualisation des Universités et Établissements AMUE
(2009). Mise en place d’une comptabilité analytique au sein des
EPSCP, 227 p.
Anthony R.N. (1965). Planning and Control systems : A framework
for analysis. Boston, Graduate School of Business Administration,
Harvard University.
Anthony R.N (1988). The Management Control Function. Harvard
Business School Press.
Bollecker M. (2013). Pourquoi le contrôle de gestion à l’Université est-
il un échec ?. Politiques et Management Public, vol. 30, n° 2, pp.221-
239.
Bouquin H. et Fiol M. (2007). Le contrôle de gestion : repères perdus,
espaces à retrouver. Actes du 28e Congrès de l’AFC, Poitiers.
Bouquin H. (2011). Fondements du contrôle de gestion. Collection
« Que Sais-Je ? », PUF, Paris.
Brown D. (1977). Some Reminiscences of an Industrialst. Easton, Hive
Publishing Company.
Burchell et al. (1980). The roles of accounting in organizations and
society. Accounting, Organizations and Society, 5 (1), 5-27.
Burlaud A. & Simon C. J. (1997). Le contrôle de gestion. Éditions La
Découverte.
Cohen M.D., March J.G. & Olsen J.P. (1972). A Garbage Can Model of
Organizationnal Choice. Administrative Science Quarterly, 17 (1),
pp. 1-25
Conférence des Présidents d’Université, CPU (2010a). Guide
méthodologique pour l’élaboration du tableau de bord stratégique
du président d’université et de l’équipe présidentielle, disponible sur
www.cpu.fr.
Conférence des Présidents d’Université, CPU (2010b). Groupe de
travail Contrat d’objectifs et de Moyens. Ph. Dulbecco, 2010.
Dupuy Y. (2013). Préface. In Alcouffe et al., Contrôle de gestion sur
mesure. Dunod.
Johnson H.T. (1992) Relevance Regained : From Top-Down Control
to Bottom-up Empowerment. New York. The Free Press.
Hopwood A. G. (2008). Changing pressures on the research process :
on trying to research in an age when curiosity is not enough.
European Accounting Review, vol. 17, pp. 87-96.
Lorino P. (1995). Comptes et récits de la performance. Les éditions
d’organisation.
Lorino P. (1997). Méthodes et pratiques de la performance. Les
Éditions d’Organisation.
March J. & Olsen J. (1976). Ambiguity and Choice in Organizations.
Bergen, Norway, Universitetsforlaget.
Oriot F. (2004). L’influence des systèmes relationnels d’acteurs sur les
pratiques de contrôle de gestion. Comptabilité, Contrôle et Audit,
numéro thématique, juin, pp. 237-255.
Simons, R. (1995). Levers of control : how managers use innovative
control systems to drive strategic renewal. Harvard Business School
Press.
Sloan A. P. (1966). Mes Années à la General Motors. Puteaux,
Éditions Hommes et Techniques.
Remerciements

Cet ouvrage est le fruit d’une réflexion de plusieurs auteurs que


nous remercions vivement : Denis TRAVAILLÉ et Yves DUPUY, Lionel
HONORÉ, Pascal FABRE, Annick ANCELIN-BOURGUIGNON,
Hugues BOISVERT et Marie-Andrée CARON, Ariel EGGRICKX,
Grégory WEGMANN, Nicolas ANTHEAUME, Laurent CAPPELLETTI,
François MEYSSONNIER, Christine MARSAL, Thierry NOBRE et
Cindy ZAWADZKI.

Un grand merci également aux praticiens du contrôle de gestion


ayant accepté de répondre à notre enquête ainsi qu’à Alain Crozier
pour son éclairage sur les pratiques de contrôle au sein de Microsoft.

Notre reconnaissance va également à la Faculté des Sciences


Économiques Sociales et Juridiques de Mulhouse (Université de
Haute Alsace), au laboratoire HuManiS de l’École de Management
Strasbourg (Université de Strasbourg), ainsi qu’à la chaire
Management et Entrepreneuriat Responsables du LabEx
Entreprendre (Université de Montpellier) pour leur soutien financier.
Les auteurs

Annick ANCELIN-BOURGUIGNON est Professeur à ESSEC


Business School et coach. Elle enseigne et conduit des recherches dans
les domaines suivants : aspects psycho-sociaux des instruments de
gestion (contrôle de gestion, GRH, etc.), management d’équipe,
leadership, accompagnement du changement, management
interculturel, développement personnel, créativité, précarité et santé
au travail. Son travail, souvent critique, a été publié dans de nombreux
chapitres et articles dans des revues nationales et internationales.

Nicolas ANTHEAUME est Maître de conférences HDR à l’IEMN-


IAE de l’Université de Nantes et membre du LEMNA (Laboratoire
d’Économie et de Management de l’Université de Nantes). Au cours de
sa carrière universitaire il a travaillé avec des organisations publiques
et privées, sur des contrats de recherche ayant trait aux outils de la
comptabilité environnementale. Il a été membre de différents groupes
de travail sur la comptabilité environnementale dans les organismes
de normalisation comptable.

Hugues BOISVERT, PhD, FCPA, FCMA, a obtenu son doctorat de


l’Université Stanford en Californie. Il a publié plusieurs travaux qui
portent sur l’analyse comparative, la comptabilité par activités et le
contrôle de gestion. M. Boisvert est professeur titulaire au Service de
l’enseignement des sciences comptables et directeur de la Chaire
internationale CPA de recherche en contrôle de gestion de HEC
Montréal.

Marc BOLLECKER est Professeur des universités en Sciences de


gestion à l’Université de Haute Alsace à Mulhouse. Responsable du
Master contrôle de gestion et audit de cette université et du Master
contrôle de gestion de l’École de Management Strasbourg, il est
membre du laboratoire HuManiS. Ses travaux de recherche, qui ont
fait l’objet de publications dans plusieurs revues académiques en
contrôle, portent notamment sur le métier de contrôleur de gestion, la
responsabilité sociale de l’entreprise, l’introduction du contrôle de
gestion dans les universités, la cohérence organisationnelle.

Laurent CAPPELLETTI est Professeur titulaire de la chaire


Comptabilité et Contrôle de Gestion au Conservatoire national des arts
et métiers (CNAM), où il est directeur délégué du développement.
EDHEC, Docteur-HDR en sciences de gestion, il est aussi directeur de
programmes à l’Institut de Socio-Economie des Entreprises et des
Organisations (ISEOR). Il a réalisé plus d’une centaine de publications
en management et contrôle primées notamment par l’Academy Of
Management (USA).

Marie-Andrée CARON, PhD, FCPA, FCMA, est professeur au


département des sciences comptables de l’École des sciences de la
gestion de l’Université du Québec à Montréal et chercheure à la Chaire
de responsabilité sociale et de développement durable. Ses intérêts de
recherche sont le contrôle de gestion, la comptabilité
environnementale et la responsabilité sociale de l’entreprise. Elle a
publié plusieurs travaux sur le sujet, notamment dans les revues
Accounting, Auditing and Accountability Journal et Sustainability
Accounting, Management and Policy Journal.

Yves DUPUY est Professeur émérite à l’Université de Montpellier 2.


Ses publications, directions de HDR et de thèses ont porté et portent
sur le contrôle des organisations considéré notamment sous l’angle
des liens entre l’évolution des systèmes d’information et celle des
systèmes de contrôle de gestion.

Ariel EGGRICKX est Maître de conférences HDR en sciences de


gestion à l’Université Montpellier II, membre de MRM (Montpellier
Recherche Management) et responsable du groupe « santé ». Ses
recherches portent sur le contrôle des organisations publiques,
l’impact des réformes à l’heure du New Public Management (LOLF,
hôpitaux, universités), la dynamique des réseaux d’organisations
publiques et privées et leur performance.

Pascal FABRE, Professeur des universités en Sciences de Gestion,


est actuellement directeur de l’IAE de Franche Comte. Il a vingt-cinq
ans d’expérience dans les domaines de la formation, de la recherche et
du conseil aux collectivités locales. Ses recherches actuelles portent
sur la contingence des outils de contrôle de gestion et la
décentralisation du contrôle de gestion dans les conglomérats publics.

Lionel HONORÉ est Professeur des Universités et chercheur au


Centre de Recherche sur l’Action Politique en Europe (UMR CNRS-
Sciences Po Rennes). Il dirige l’Observatoire du Fait Religieux en
entreprise (OFRE – chaire de recherche CRAPE-Institut Randstad).
Ses travaux portent sur les transformations du travail et des
organisations ce qui l’amène à s’intéresser à des thématiques telles que
la déviance au travail, les risques psychosociaux ou encore le fait
religieux en entreprise. Ses terrains de recherche ont été tour à tour les
banques, l’industrie, la marine marchande ou encore, plus récemment
les services de réanimation néonatale à l’hôpital. Il a publié plusieurs
ouvrages ainsi que de nombreux articles de recherche.

Christine MARSAL est Maître de conférences à l’IAE de


Montpellier. Doctorat en sciences de gestion à l’Université de
Bourgogne. sept ans d’expérience professionnelle dans un
établissement bancaire (chargée d’études financières, gestion de
bilan). Lauréate du concours externe de l’agrégation du secondaire
(option comptable et finance), 10 ans d’enseignement au niveau
secondaire (mise en place du BTS banque dans l’académie de Dijon).
Enseignante à l’IAE de Dijon (Université de Bourgogne) en contrôle de
gestion, pilotage bancaire, institutions financières. Depuis 2013,
responsable du master 2 professionnel Banque et Assurances à l’IAE
de Montpellier
François MEYSSONNIER est Professeur des Universités en Sciences
de Gestion en poste à l’IEMN-IAE de Nantes. Ancien élève de l’ENS de
Cachan. Responsable du master « Contrôle de gestion » de l’Université
de Nantes. Ses travaux de recherches portent sur les systèmes de
pilotage de la performance des entreprises, l’instrumentation du
contrôle de gestion, le contrôle de gestion dans les activités de service
et dans les organisations publiques. Il a réalisé plus de 90
publications, fait soutenir 10 thèses, participé à 40 jurys de thèses et
HDR et est membre de plusieurs comités scientifiques de revues de
référence dans le champ du contrôle de gestion. Il est l’organisateur
depuis 2009 des Journées d’Étude en Contrôle de Gestion de Nantes
(JECGN).

Gérald NARO est Professeur des universités en sciences de gestion à


l’Institut des Sciences de l’Entreprise et du Management de
l’université Montpellier 1. Il est directeur du laboratoire Montpellier
Recherche en Management (MRM EA 4557) et co-directeur de la
chaire Management et Entrepreneuriat Responsables du LabEx
« Entreprendre ». Après avoir dirigé le Master Contrôle de Gestion et
Nouveaux Systèmes Technologiques, il est à présent directeur du
Master Gestion des Etablissements de Santé de l’ISEM. Ses travaux
portent sur le pilotage stratégique et le rôle des tableaux de bord de
type Balanced Scorecard dans les processus stratégiques de
l’entreprise et l’apprentissage organisationnel. Il conduit également
des recherches dans le domaine du contrôle de gestion des
organisations de santé ainsi que dans celui du pilotage et du reporting
environnementaux et sociétaux.

Thierry NOBRE est Professeur des universités en sciences de


gestion à l’École de Management Strasbourg. Il est directeur du
laboratoire HuManiS et dirige l’Executive MBA Management
hospitalier et des Structures de santé de l’EM Strasbourg. Il co-anime
depuis 2011 la chaire de management hospitalier de l’EHESP (École
des hautes études en santé publique). Ses travaux portent sur la
conduite du changement, le management stratégique et le contrôle de
gestion dans le domaine du management hospitalier à partir de
démarches de recherche-action conduites notamment à partir de
missions de conseil dans des établissements.

Denis TRAVAILLÉ est professeur agrégé des Universités en


Sciences de gestion à l’IAE de Lyon, université Jean Moulin – Lyon3.
Il est responsable scientifique de l’axe transversal « Management et
Responsabilité sociétale des Organisations » au Centre de Recherche
Magellan de l’IAE, université Jean Moulin – Lyon 3. Ancien élève de
l’ENS Cachan et ancien directeur du Master Contrôle de Gestion et
Nouveaux systèmes technologiques de l’IAE de Montpellier, ses
enseignements portent sur le contrôle de gestion. Il conduit des
recherches sur les liens entre contrôle de gestion, logistique et
processus stratégiques. Dans ses travaux de recherche les plus récents,
il interroge le lien entre contrôle de gestion et Responsabilité Sociétale
des Organisations.

Grégory WEGMANN est Maître de conférences – HDR à l’IAE de


Dijon, Université de Bourgogne. Il est chercheur au CREGO, Centre de
recherche en gestion des organisations (EA 7317). Spécialiste du
contrôle de gestion, il a créé et développé le Master Contrôle de
gestion. Ses recherches portent sur les dimensions stratégiques du
contrôle de gestion, les nouveaux outils, et le contrôle de gestion
comparé. Il est actuellement directeur de l’IAE de Dijon et Vice-
président du Conseil des études et de la vie universitaire de
l’Université de Bourgogne.

Cindy ZAWADZKI est Professeur associée à Neoma Business


School – campus de Reims où elle enseigne le contrôle de gestion. Sa
thèse portait sur les enjeux et difficultés de l’introduction du contrôle
de gestion en PME, dans le cadre d’une Convention Industrielle de
Formation par la REcherche (CIFRE). Membre du laboratoire
HuManiS (Strasbourg), ses recherches traitent du processus de
décision et de l’instrumentation du fonctionnement des organisations,
notamment les PME et les ETI, dans une perspective sociologique.
ISBN : 978-2-311-40195-0
La loi du 11 mars 1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41, d’une part, que
les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à
une utilisation collective  » et, d’autre part, que les analyses et courtes citations dans un but
d’exemple et d’illustration, « toute représentation ou reproduction intégrale, ou partielle, faite
er
sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinéa 1
de l’article 40).
Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une
contrefaçon sanctionnée par les articles 425 et suivants du Code pénal.
Cette œuvre est protégée par le droit d’auteur et strictement réservée à l’usage privé du client.
Toute reproduction ou diffusion au profit de tiers, à titre gratuit ou onéreux, de tout ou partie de
cette œuvre, est strictement interdite et constitue une contrefaçon prévue par les articles L.335-2
et suivants du Code de la Propriété Intellectuelle. L’éditeur se réserve le droit de poursuivre
toute atteinte à ses droits de propriété intellectuelle devant les juridictions civiles ou pénales…
© Magnard-Vuibert, octobre 2014 – 5, allée de la 2e DB, 75015 Paris
Site Internet : www.vuibert.fr
1 http://www.varmatin.com/toulon/lopera-de-toulon-essuie-les-critiques-de-la-chambre-regionale-des-
comptes.1430754.html, http://www.lindependant.fr/2013/09/25/hopital-le-rapport-qui-pointe-du-doigt-la-
gestion-des-effectifs,1793154.php, http://www.lesechos.fr/economie-
politique/politique/actu/0203002035342-enseignement-francais-a-l-etranger-la-cour-des-comptes-
donne-l-alerte-604471.php
2 « … un ensemble résolument hétérogène, comportant des discours, des institutions, des aménagements
architecturaux, des décisions réglementaires, des lois, des mesures administratives, des énoncés
scientifiques, des propositions philosophiques, morales, philanthropiques, bref : du dit, aussi bien que
du non-dit, voilà les éléments du dispositif. Le dispositif lui-même, c’est le réseau qu’on peut établir
entre ces éléments » Foucault, 1977. In « Dits et Ecrits 1976-1988 » (2001).
3 Ces développements, ne sauraient traduire la richesse et l’étendue de ce courant critique, nous en
sommes bien conscients. Plus généralement les perspectives critiques en comptabilité portent sur les
systèmes comptables dans leur globalité, regroupant tout autant le reporting, l’audit et le contrôle de
gestion. Ici, nous nous sommes plus particulièrement focalisés sur les travaux pouvant s’avérer
intéressants pour notre propos qui porte davantage sur le contrôle de gestion.
4 Pour une revue de la littérature post-structuraliste et des recherches comptables qui s’en inspirent, voir
notamment Macinstosh (2002).
5 Une version précédente de ce texte a fait l’objet d’une publication dans la revue Humanisme et
Entreprise, n° 112, janvier-février 2012. Il est ici partiellement repris avec l’accord de la revue.
6 Les références datées aux travaux de ces auteurs sont en bibliographie.
7 21000 en 2008.
8 Certains instruments sont inventés et construits par les équipes et n’existent qu’à l’état de prototype ou,
au mieux, à quelques exemplaires que les services des CHU se prêtent en urgence lorsqu’il y a un besoin
et s’ils sont disponibles.
9 Par exemple parce qu’ils doivent reprendre le travail, où parce qu’ils résident loin et ne peuvent rester
davantage sur place.
10 Le médecin référent ne change pas en revanche il y a deux binômes infirmière-puéricultrice par bébé :
un de jour et un de nuit.
11 Variation de la température d’une couveuse, avancée du moment d’un repas, etc.
12 Ce texte emprunte à ces trois ouvrages, mais le lecteur intéressé pourra également consulter La
propension des choses (Seuil, 1992) ou Le détour et l’accès : stratégies du sens en Chine, en Grèce
(Grasset, 1995) – versions plus anciennes de certaines analyses reprises ultérieurement.
13 Yin et Yang sont les deux forces qui sont « constamment en processus de devenir l’autre, dans un cycle
qui n’a pas de fin » (Marshak, 1993, p. 398).
14 Cette différence fonde la distinction entre sociétés individualistes et sociétés communautaires,
classique des travaux interculturels (voir par exemple Hofstede, 2001).
15 Seul l’ajout d’un mot dans la phrase permet d’indiquer si l’action est à comprendre au présent, au
passé, au futur ou si elle n’a pas encore été réalisée.
16 La Japon a été sinisé à partir du 5e siècle et reste considéré comme un pays du monde sinisé, même si
la culture japonaise a conservé des caractéristiques parfois éloignées du modèle chinois - par exemple,
en société, l’ordre ne saurait être sacrifié à l’individualisme, comme c’est le cas en Chine (Chieng,
2006).
17 La bienveillance est usuellement rapportée au confucianisme, dont il n’a pas été question jusqu’à
présent. Non que le confucianisme n’ait pas laissé des traces également durables dans les pratiques
sociales (et de management). Mais la bienveillance n’est pas au cœur de la tradition de pensée qui est
l’objet de cette réflexion – même si elle est totalement cohérente avec l’idée d’un soi qui n’est pas
séparé des autres.
18 Cet argument paresseux ne résiste pas à un examen minutieux. Quel employé résiste au changement
que représente le départ d’un supérieur hiérarchique pervers ? Quel chef d’équipe se désole du départ
d’un équipier incompétent ? Quel contribuable se plaint d’une réduction de son imposition ? Il n’y a
résistance au changement que lorsqu’il y a menace de perte. La résistance au changement est une
réaction parfaitement rationnelle du point de vue du psychisme, certainement pas une fatalité
« naturelle ».
19 Pour les OSBL, il s’agit de l’atteinte d’objectifs stratégiques en lien avec la mission dans le respect de
l’équilibre budgétaire.
20 La rentabilité à long terme des organisations à but lucratif fait l’unanimité des chefs de la direction
financière interrogés (CICMA 05-01, 2005).
21 Sur la base du livre Boisvert Hugues et collab. (2011). La comptabilité de management, prise de
décision et contrôle, 5e édition, Éditions du Renouveau Pédagogique inc (ERPI).
22 Ordre professionnel regroupant tous les comptables professionnels en exercice au Québec, en
organisation ou en cabinet, lien www.cpaquebec.ca.
23 Les mécanismes que nous considérons dans ce chapitre sont tirés de l’ouvrage de Boisvert H. et M.
Vézina (2014). Outils de contrôle stratégique, 2e édition, Les éditions JFD. inc. Ce livre présente, à
l’aide d’une série de fiches, les outils du contrôle de gestion, chacun présentant une analyse particulière
susceptible d’être utilisée par les analystes et les contrôleurs en organisation à divers niveaux
hiérarchiques d’une organisation.
24 Boisvert et Déry (2013). Op. cit. p.7.
25 Drolet, Simon et collab. (1999) «Analyse de l’impact productif des pratiques de rémunération incitative
pour une entreprise de services : Application à une coopérative québécoise». CIRANO ― Série
scientifique.
26 Simons, Robert (2000). Performance Measurement & Control Systems for Implementing Strategy.
Prentice-Hall. P.270.
27 Institut canadien des comptables agréés (2008). Améliorer son rapport de gestion, information sur
les risques, 14 p.
28 Simons, Robert (1999). «How Risky Is Your Company?», Harvard Business Review. May-June, p. 85-
94.
29 Boisvert, Hugues et collab. (2011). La comptabilité de management, prise de décision et contrôle, 5e
édition. ERPI, p.608.
30 Boisvert, Hugues et Michel Vézina (2011). Op. cit., p. 43.
31 Porter, Michael (1986). L’avantage concurrentiel. InterÉditions, p. 15.
32 Appelée matrice BCG parce qu’elle fut proposée pour la première fois par le Boston Consulting Group.
33 Société canadienne d’analyse de la valeur. http://www.scav-csva.org/aboutva.php?section-1.
34 Côté, Daniel (1993). La comptabilité par activités et son mode d‘implantation dans une entreprise
manufacturière. Mémoire de maîtrise. Département de génie industriel. École Polytechnique de
Montréal.
35 Pour une présentation des méthodes allemandes, voir, Sharman, 2003 ; Krumwiede, 2007 et Ewert et
Wagenhofer, 2007.
36 Pour Anthony (1965) le Contrôle de gestion est « le processus par lequel la direction s’assure que les
ressources sont exploitées de manière efficiente et efficace pour atteindre les objectifs fixés » et pour ce
même auteur (1988), «le contrôle de gestion est le processus par lequel les managers influencent
d’autres membres de l’organisation pour appliquer les stratégies».
37 Selon Simons (1995), les organisations disposent d’un système de contrôle dit interactif qui se
concentre sur l’acquisition de connaissances à des fins de dialogue et d’échange. Ce levier de contrôle
favorise l’apprentissage organisationnel et la recherche de solutions nouvelles.
38 http://www.developpement-durable.gouv.fr/Le-principe-de-la-responsabilite,12046.html, consulté le
4 janvier 2013
39 http://www.developpement-durable.gouv.fr/-Systeme-d-echange-de-quotas-.html, consulté le 4
janvier 2014
40 http://www.developpement-durable.gouv.fr/Directive-IPPC.html, consulté le 4 janvier 2014
41 Acquisition of Major Defence Systems, DoD Directive 5000 (Washington D.C., U.S. Department of
Defence, July 1971).
42 Department of Industry, Life Cycle Costing in the Management of Assets. A Practical Guide.
Department of Industry, HMSO: London, 1977.
43 http://www.lemonde.fr/planete/article/2013/12/27/les-dechets-electroniques-intoxiquent-le-
ghana_4340635_3244.html?xtmc=ghana&xtcr=2
44 Pour des éléments complémentaires d’explication, issus de la littérature en comptabilité, voir Milne
(1992), Bebbington et al (2001), Antheaume (2004, 2007)
45 ACV du pantalon en jean, ADEME, 2006.
46 Méthode notamment présentée dans l’ouvrage de Bernard Christophe (1995).
47 En 1997, le comité de la réglementation bancaire et financière, dans le règlement 97-02 dédié au
contrôle interne, pointe la nécessité d’intégrer la rentabilité prévisionnelle des opérations de crédit
dans les critères de gestion des établissements.
48 Au niveau européen et pour l’année 2005, le cabinet de consultant Celent estime le coûts des dépenses
en technologies de l’information à 3% en moyenne des charges d’exploitation des principaux groupes
bancaires européens (HSBC,UBS AG,Deutch Bank AG, ABH AMRO, Royal Bank of Scotland, Crédit
Suisse, ING Bank, Barclays PLC, BNP Paribas, BSCH)
49 73 responsables d’agence bancaire, représentant 30 établissements différents (Marsal, 2005).
50 Témoignage recueilli lors du travail doctoral de 2003.
51 Ce processus budgétaire est décrit dans un mémoire de stage réalisé en 2002.
52 Ou gouvernance actionnariale, basée sur des mécanismes disciplinaires et focalisée sur la création de
valeur à court terme.
53 Le choix de ces deux groupes bancaires est justifié par l’importante documentation institutionnelle
disponible sur les sites institutionnels des deux groupes ou des caisses régionales.
54 Rapport RSE du crédit Mutuel, Rapports annuels, rapport LSR des présidents de CA dans le cas des
caisses régionales de crédit Agricole
55 Pendant la crise financière, les directeurs généraux adjoints se sont aussi déplacés sur le terrain
56 Tableau extrait de l’article de Marsal (2013), page 91
57 CAH (Comptabilité analytique hospitalière), PMSI (programme de médicalisation du système
d’information), TSA (tableau synthétique d’activité), TCCM (Tableau coût casse-mix)
58 « La catégorie des micro-, petites et moyennes entreprises (PME) est constituée des entreprises qui
occupent moins de 250 personnes et dont le chiffre d’affaires annuel n’excède pas 50 millions d’euros
ou dont le total du bilan annuel n’excède pas 43 millions d’euros » (Extrait de l’article 2 de l’annexe à
la recommandation 2003/361/CE).
59 Les Echos, mars 2013
60 « Le contrôle de gestion est le processus par lequel les managers influencent d’autres membres de
l’organisation pour mettre en œuvre les stratégies de l’organisation »
61 Henri Bouquin, s’appuyant sur plusieurs travaux (Sloan, 1966 ; Chandler, 1967 ; Brown, 1977) fait
remonter la naissance du contrôle de gestion à la mise en place de la structure en divisions chez
Dupont de Nemours et Général Motors au début du vingtième siècle. Il fait alors référence au modèle
« Sloan-Brown », de décentralisation avec contrôle coordonné, des noms d’Alfred Sloan (1875-1966),
Chairman de la General Motors et Donaldson Brown (1885-1965), d’abord « Treasurer » chez Dupont
de Nemours où il met en place la « pyramide du ROI », avant de devenir « Comptroller » chez General
Motor (Bouquin, 2011).

Vous aimerez peut-être aussi