Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
MESURE ET
PILOTAGE DES
PERFORMANCES
Wakil OLADEPO
Manager et Financier
Consultant en Finance et en Management
SOMMAIRE
Page
sommaire
Avant Propos 03
Introduction Générale 04
CONCLUSION GENERALE 73
BIBLIOGRAPHIE
La stratégie et contrôle de gestion répond d'abord à des questions très simples (Quelles sont
les performances réelles de mon entreprise ?). Avec la Business Intelligence, les indicateurs
de performances stratégiques de l'entreprise et les fonctions analytiques sont accessibles
en permanence pour permettre des décisions proactives et prédictives. L'EPM met à
la disposition des entreprises la puissance nécessaire pour gérer et améliorer leurs
performances opérationnelles, à tous les niveaux de l'organisation. Dans le monde entier, les
dirigeants des plus grandes entreprises suivent avec grand intérêt l'évolution des outils EPM,
ce qui leur permet de formuler des prédictions et de visualiser les avantages dont pourront
bénéficier leurs activités".
L'avantage essentiel de l'EPM est d'améliorer la qualité des choix stratégiques à tous
les niveaux de l'entreprise. Pour définir les meilleures pratiques, les utilisateurs
doivent avoir la possibilité de mesurer leur impact sur l'amélioration des
performances, de collaborer sur les actions qui garantiront la réalisation des objectifs
et de suivre leurs activités sur la durée.
L'EPM doit aider à motiver les collaborateurs, à leur permettre de mieux comprendre
ce que l'entreprise attend d'eux et les conséquences qu'entraîneraient des résultats
individuels insuffisants. Avec l'EPM, les responsabilités de pertes ou des profits sont
L'EPM est en train de transformer radicalement l'attitude des dirigeants vis-à-vis des
performances. Dès qu'ils sont familiarisés avec l'EPM, les PDG ne se concentrent plus
seulement sur la rentabilité par action, mais aussi sur les indicateurs. Il suffirait donc
que les décideurs s'habituent à l'EPM pour que leurs actions se focalisent en fonction
des performances de l'entreprise...
Au cours de ce module, nous allons étudier quelques outils d'EPM, ce qui nous permettra
d'être beaucoup plus opérationnels sur le marché.
C'est une méthode de comptabilité analytique qui prolonge et complète les méthodes
traditionnelles, dont elle cherche à pallier les insuffisances.
Pour voir comment se situe la méthode ABC, un rappel rapide des principes de la
comptabilité semble nécessaire.
• les objectifs,
Nous verrons ensuite en quoi l'évolution des entreprises et de leurs marchés a posé de
nouveaux problèmes, que la méthode ABC prétend résoudre.
I- OBJECTIFS ET PROBLEMATIQUE
Cet objectif a été peu à peu élargi et modifié pour en arriver à l'ensemble défini par le Plan
comptable révisé :
d'une part,
Aujourd'hui, la notion de produit n'est plus aussi nette qu'autrefois :au lieu d'un ensemble de
pièces, c 'est de plus en plus une combinaison de services et de fonctions qu'achète le
client. Le produit lui-même se diversifie fortement, et sa durée de vie se raccourcit en
proportion. Il en résulte la nécessité de ne pas attendre sa mise sur le marché pour en
calculer le coût : il faut le faire maintenant de plus en plus tôt, pratiquement dès le stade de
la conception. La lenteur des méthodes traditionnelles les rend ainsi de moins en moins
propres à satisfaire les besoins de la gestion
Autrefois, les coûts de revient comprenaient une grosse majorité de coûts directs (souvent
de l'ordre de 70 %), c'est-à-dire directement affectables aux produits. Les coûts non
directement affectables aux produits pouvaient faire l'objet de répartitions globales : le
choix de la clé de répartition influait peu sur le résultat.
matières premières
+ main-d’œuvre directe
= coût direct
= coût de revient.
Cette façon sommaire d'opérer, avec en particulier une répartition des charges indirectes
sous forme de pourcentage fixe d'un élément direct (souvent le nombre d'heures directes),
pouvait s'admettre tant que la proportion de charges indirectes, c'est-à-dire non
Il n'en va plus ainsi actuellement où les proportions ont été inversées, avec des coûts directs
qui ne constituent souvent que moins de 30 % du coût total, comme l'indique le schéma
suivant
Non seulement la répartition, en fonction de clés globales, des charges indirectes crée un
élément d'arbitraire dans le calcul des coûts de revient, mais elle obscurcit le contrôle,
puisque personne ne se sent plus responsable de charges ainsi tronçonnées.
Ces deux préoccupations ont donné lieu à de nombreuses études qui ont fini par modifier
profondément les systèmes de calcul des coûts de revient.
Au lieu d'une clé globale, on a voulu répartir en plusieurs fois, afin de cerner de plus près le
processus de production et de vente. On décompose à cet effet l'entreprise en cellules
relativement homogènes, c'est-à-dire dont le niveau d'activité puisse se repérer par un
paramètre simple et visible baptisée unité d'œuvre. Ces cellules sont généralement appelées
centres d'analyse ou centres de responsabilité.
Une première opération répartit les charges entre les centres. Après cumul des fractions de
charges affectées à chaque centre, on divise les totaux ainsi obtenus par les nombres
d'unités d'œuvre correspondants, ce qui donne le coût de chaque unité d'œuvre. Il ne reste
alors plus qu'à répartir sur les produits les charges affectées aux centres, en fonction des
Comme on le voit, il est assez complexe, et l'entreprise a souvent du mal à obtenir de son
personnel des imputations sincères et exactes. Il y a déjà là matière à réflexion.
b) Besoins du contrôle
Mais à cela s'ajoute la nécessité de contrôler une masse de charges indirectes de plus en
plus importantes par rapport aux autres. Il en résulte que la répartition sur les centres
d'analyse perd son caractère d'homogénéité et ne prend plus en compte tous les coûts, en
particulier les coûts cachés. Deux voies ont été explorées à ce sujet, la méthode budgétaire
et la comptabilité à coûts incomplets.
L'objectif est de ne décomposer les charges indirectes que dans la mesure où l'opération
leur conserve un minimum d'homogénéité. On renonce en conséquence aux structures à
base de centres d'analyse et/ou de responsabilité, pour leur préférer la notion d'activité.
L'activité. D'après Philippe Lorino, une activité est un ensemble de tâches élémentaires :
Pour garder à la méthode toute sa généralité, on ne parlera pas de produits mais d'objets de
coût. On évitera de même d'examiner les centres d'analyse et centres de responsabilité qui
ont pourtant l'avantage de permettre de définir des responsables - , pour ne tenir compte
que des entités précédemment définies, les activités, et des ressources consommées par
elles.
Il faut donc commencer par dresser une liste, aussi exhaustive que possible, de toutes les
activités dont la juxtaposition représente l'entreprise dans son ensemble. On procédera
ensuite à l'allocation, entre ces activités, de toutes les ressources consommées.
Il s'agit de définir ce que fait l'entreprise. Une activité consomme des ressources et fournit une
production mesurable. Les activités peuvent être de nature très variées. Elles ne
concernent pas seulement les produits fabriqués et vendus, mais s'étendent aux activités
commerciales, administratives, d'études et de recherches, etc. Leur détermination doit être
faite en allant suffisamment dans le détail pour pouvoir isoler les paramètres significatifs.
Sauf dans le cas de fabrications particulièrement simples, une activité du genre « fabriquer
tel produit » est trop générale car elle met en œuvre plusieurs facteurs. Il faudra préciser
«usiner telle pièce». Et définir aussi des activités telles que « rédiger un bon de commande,
une facture, un bordereau de livraison », « relancer un client », « réceptionner des
marchandises », etc.
Nécessairement détaillée, la nomenclature des activités ne doit toutefois pas être poussée
trop loin, car on risquerait de rendre trop difficile les tâches d'imputation demandées aux
exécutants, et de multiplier ainsi les erreurs de codification. Quelques dizaines d'activités
semble le maximum à prévoir pour une entreprise normale.
Mais il importe que la décomposition soit véritablement exhaustive, puisque l'on ne saurait
laisser sans imputation aucune charge, si faible qu'entreprise soit le montant. Pour cet
Une liste des activités ayant été dressée, qui couvre exactement toute l'entreprise sans
omission ni recouvrement, il faut maintenant procéder à ce qu'on peut appeler une
modélisation des coûts. C'est-à-dire un examen de tous les paramètres susceptibles d'agir
sur le coût de chaque activité, en vue de procéder à une allocation des ressources aux
activités.
Si les activités ont été judicieusement choisies, la plupart des charges sont directes par
rapport à elles. On voit l'avantage important que présente cette analyse par rapport à la
décomposition habituelle en centres de responsabilités, puisque le recours à des clés de
répartition, toujours contestables, peut être réduit au minimum. Si cette condition n'est pas
remplie, on peut avoir intérêt à modifier quelque peu la définition de l'activité pour
simplifier la liaison entre charges et activités.
Les ressources — terme par lequel les promoteurs de la méthode ont rebaptisé les charges
pour mieux montré qu'ils ne les considèrent pas comme une fatalité, mais au contraire
comme des facilités mise à disposition, et dont il convient d'user avec parcimonie — doivent
• etc.
Ce genre de typologie permet de déterminer dans chaque cas quel est l'inducteur le plus
pertinent pour l'activité étudiée, après quoi le coût de l'inducteur sera calculé le plus
souvent par simple division du montant total de la ressource par le nombre d'inducteurs
consommés.
c) Domaines d'application.
Une première utilisation consiste, bien entendu, à calculer des coûts de revient comme avec
une comptabilité traditionnelle. Mais, l'affectation des coûts aux activités étant beaucoup
moins arbitraire qu'avec un réseau de centres d'analyse, on peut s'en servir autant et
davantage pour le calcul économique et le contrôle.
• Calcul du coût de revient des produits. Après avoir dressé la liste des activités,
on détermine le plus finement possible les ressources consommées par
chacune d'elles. Un traitement analogue permet ensuite de repérer, pour
chaque produit, les activités auxquelles il fait appel et de lui affecter le coût
correspondant en fonction de ses volumes de consommation d'inducteurs.
• Étude de rentabilité des produits. On peut le faire à partir des coûts de revient
ci-dessus. Mais la question posée est souvent de choisir entre deux produits
ou entre deux types de fabrication. Il suffit dans ce cas de ne s'occuper que
des coûts qui risquent de ne pas être les mêmes dans les deux cas. A la limite,
on tombe sur les seuls coûts directs au sens classique.
d) Démarche générale
a) Problématique :
Le système traditionnel de calcul des coûts de revient repose sur une distinction qui est
toujours d'actualité : il isole les charges directes des charges indirectes 3 par type de
fabrication ou encore par produit. Chaque coût comprendra donc à des degrés divers des
charges directes et indirectes quelque soit le stade de fabrication du produit on distinguera
alors un coût d'achat, de production etc... Ce système convient parfaitement dans un
contexte de standardisation ou les charges indirectes représentent une faible part du coût
de revient (environ 30%). Aujourd'hui, en raison des changements dans les processus de
production ces mêmes charges atteignent souvent 80% du coût global et correspondent à
des compétences qu'il convient d'identifier en vue de les gérer, elles deviennent le facteur
central de création de valeur.
Ces nouveaux systèmes intègrent un ensemble de charges qui n'étaient pas prises en
compte antérieurement (figure IV et V), ils permettent ainsi d'obtenir des coûts plus
pertinents et aussi de cibler avec beaucoup plus de rigueur les compétences. Le
management des connaissances, source de valeur, implique donc des systèmes de calcul des
coûts spécifiques, ils conduisent naturellement à une gestion stratégique des connaissances.
La notion d'activité n'est pas très précise, puisque dans la pratique tout s'enchaîne dans un
certain continuum. On peut dire que l'activité s'intercale entre la tâche et le processus.
Autrement dit, plusieurs tâches forment une activité, et plusieurs activités forment un
processus. Il existe encore un échelon au-dessus du processus, celui de la fonction, mais qu'il
convient d'éviter car trop relié au réseau de centres de responsabilité, et susceptible de
masquer des vues transversales ou transfonctionnelles particulièrement utiles pour
l'amélioration des performances.
L'objectif est ici de couvrir l'ensemble de l'entreprise avec une carte des activités de taille
raisonnable. Les spécialistes estiment que le nombre optimal d'activités est de quelques
dizaines, le maximum se situant entre 20 et 50. Mais on doit tenir compte de la branche, de
l'entreprise elle-même, de la plus ou moins grande hétérogénéité de ses processus, etc. Si
par exemple le niveau de détail est tel que de nombreux collaborateurs se retrouvent
responsables de plusieurs activités différentes, on risque d'être ensuite conduit à organiser
un système coûteux de suivi des temps. Une analyse sur le terrain, en liaison avec les
utilisateurs, permet de trouver les bons compromis entre la recherche de la vérité des coûts
et le souci de ne pas trop compliquer le travail de recueil des données correspondantes. Ce
qui veut dire qu'un certain flou subsistera dans le tracé des frontières, et que la liste
finalement retenue ne sera pas rigoureusement homogène.
On est souvent conduit à opérer des regroupements d'activités lorsque leur nombre
apparaît finalement trop élevé. Ces regroupements peuvent être entraînés par les
constatations faites au cours de la phase suivante.
Il est recommandé de repérer, pour chaque activité, un choix de deux, ou même davantage,
inducteurs capables d'en mesurer les consommations. Un tableau regroupant tous les
inducteurs potentiels face à l'ensemble de toutes les activités retenues permet de découvrir
des activités mesurées par un même inducteur, en vue de regrouper éventuellement ces
activités pour en diminuer le nombre.
MESURE ET PILOTAGE DES PERFORMANCES / WAKIL OLADEPO Page 19
D'autres regroupements sont possibles, en particulier pour des activités identiques ou
voisines qui s'exercent en des points différents de l'entreprise. On peut également trouver
des activités qui obéissent à un déclencheur commun ; ces activités ne sont généralement
pas homogènes ni même apparentées. Mais elles constituent des processus, dont la mise en
évidence contribue à structurer la gestion.
Ces opérations de regroupement contribuent à faire perdre à la notion d'activité une partie
de son homogénéité. Il ne faut donc pas aller trop loin, sous peine de faire perdre toute
représentativité aux inducteurs retenus, et donc à la méthode une bonne partie de son
intérêt. Par exemple en production, il faut souvent éviter de réunir les activités liées au
nombre d'unités fabriquées et celles qui — comme les réglages des machines — varient
davantage avec le nombre des séries produites, autrement dit avec la taille desdites séries
Les deux étapes qui précèdent ont permis de définir une liste exhaustive des activités de
l'entreprise et des inducteurs mesurant les consommations de ressources. Il s'agit
maintenant de relier ces notions aux coûts engendrés, dans l'entreprise, par toutes les
décisions, grandes ou petites, qui s'y prennent. Et définir pour cela quels sont les objets de
coûts auxquels on s'intéresse.
Ces objets de coûts ne se limitent pas nécessairement aux produits, comme en comptabilité
classique. Les analyses de la comptabilité ABC permettent en effet de dépasser ce cadre
pour s'intéresser à tout ce qui peut permettre de réduire les coûts, en quelque endroit que
ce soit, et à éclairer la réflexion stratégique.
Dans son principe, la méthode consiste à calculer — parfois à l'aide de données comptables
mais le plus souvent à l'aide des budgets — le total des coûts à imputer à chaque activité, et à
diviser le coût par le nombre total d'unités consommées de l'inducteur choisi pour
représenter cette activité. On obtient ainsi le coût unitaire de chacun des inducteurs. On
peut alors déterminer le coût de chaque objet jugé intéressant pour aider la prise de
décision : peut-être le produit si l'on souhaite se raccorder à la comptabilité classique, mais
aussi bien le coût d'un client, d'une visite de maintenance, ou même d'une fonction
complète ou d'une compétence.
La méthode ABC ne représente pas seulement une nouvelle technique de détermination des
coûts. Elle peut également servir à mesurer les performances et à les améliorer. On parle
alors d'Activity Based Management (ABM), c 'est-à-dire management des activités. En effet,
l'étude des coûts des inducteurs et de leurs conditions d'évolution donne un éclairage
nouveau sur des éléments mal contrôlés, dont la surveillance doit permettre une
amélioration des conditions de fonctionnement. Ces éléments peuvent se situer très loin des
facteurs qui agissent à court terme sur le coût des produits. Il peut s'agir par exemple
d'interventions d'un bureau d'étude à mentalité perfectionniste qui modifie sans arrêt les
spécifications des modèles sans penser aux répercussions de ces mesures sur la taille des
séries produites, donc sur les coûts. Ou bien du coût excessif des achats dû à une
insuffisante normalisation des composants. Etc.
Présenté parfois comme la panacée en matière de gestion, le management des activités est
cependant critiqué par certains, qui se demandent quel est son avenir véritable en tant que
discipline de gestion. On ne connaît guère en effet d'exemples convaincants de réussite de
ces techniques. Peut-être pour la simple raison que son apparition est encore trop récente.
Mais cela pourrait provenir aussi de la complication des analyses qu'il exige, et de la
difficulté à les faire passer dans la pratique des opérationnels de base.
En fait, le management des activités présente, selon le cas, trois « visages » différents que
l'on peut baptiser respectivement de projet, de modèle ou de système.
Le modèle de calcul des coûts de revient. C'est le cas le plus fréquent, qui sert à
décrire à différents niveaux les activités de l'organisation. On y introduit parfois des
informations émanant de projets ABM, mais on se contente le plus souvent de
fonder le diagnostic sur les entretiens avec le personnel pour en cerner les activités.
Photographie statique de l'entreprise, il n'est généralement actualisé que de temps en
temps, au prix d'un travail de recueil d'informations presque aussi important que
lors de la réalisation initiale..
Les trois variantes du management des activités ne font pas toujours bon ménage entre
elles, car elles répondent à des objectifs qui ne sont pas les mêmes.
L'entreprise doit donc se demander de quel type d'ABM (outil, modèle ou système), elle
estime avoir besoin. Particulièrement pour le troisième type, le plus coûteux, mais qui
permet seul de disposer d'informations dynamiques, et non plus de simples photographies.
Ce qui peut être indispensable, par exemple dans les cas suivants :
• Pour servir de support aux décisions d'exploitation fondées sur les coûts
Celle-ci se focalise en effet sur la seule variable «volume », avec la distinction entre les frais
variables, proportionnels à l'activité, et les charges fixes, réparties ou non sur les produits.
La comptabilité par activités cherche au contraire à isoler toute catégorie de frais dont le
montant varie avec un ou plusieurs paramètres identifiables, ce qui permet d'en mieux
assurer le contrôle et, donc, la réduction.
Introduction :
La nécessité de planifier l'activité d'entreprise de taille de plus en plus importante sur des
marchés complexes, les possibilités ouvertes par la budgétisation pour suivre et mesurer les
résultats associés à la prise de décision humaine pour motiver ont conduit les directions
générales à mettre en place des structures de plus en plus décentralisées en instaurant un
découpage en unités plus petites appelées : « centres de responsabilité ».
a- Définition
Un centre de responsabilité est donc une partie de l'entreprise, base d'évaluation des
performances du gestionnaire.
- La stratégie de l'entreprise,
La définition des centres crée entre eux des rapports de pouvoir que nous pouvons
représenter par le schéma suivant :
Centre de rentabilité
Centre de profit
Centre de coût
Centre de dépenses
Centre de chiffre
Définition :
Le prix de cession interne est le prix auquel un centre de responsabilité cède le produit de
son activité à d'autres centres de responsabilité. Il est parfois appelé le prix de transfert,
même si cette appellation est souvent réservée aux cessions entre filiales d'un même
groupe.
ENTREPRISE
Prix de cession
Centre vendeur Interne Centre acheteur Marché final (ventes externes
(Centre de profit) (Centre de profit)
Le coût réel :
L'utilisation du coût réel pour les prestations entre centres ne permet pas la localisation des
responsabilités.
En effet, le coût réel transfert l'efficience ou l'inefficience du centre vendeur vers celui qui
reçoit la prestation.
Voir exemple
Le coût marginal :
La théorie microéconomique démontre que la maximisation conjointe des résultats pour le
centre vendeur et pour le centre acheteur est obtenue lorsque la vente se réalise au coût
marginal, c'est-à-dire au coût supplémentaire que le vendeur supporte pour livrer la
dernière unité.
Le coût d'opportunité :
Très souvent la prestation interne oblige à renoncer à une recette : dans cette perspective,
le vrai coût marginal est la perte de recette, c'est-à-dire le manque à gagner donc le coût
d'opportunité.
La nature de la stratégie :
CONCLUSION :
La définition du prix de cession interne est le moyen de mettre œuvre les préoccupations
précédentes : les choix retenus sont forcément contingents puisque les finalités des
directions générales sont différentes.
Qu'est ce que la qualité ? Les témoignages que l'on peut recueillir suggèrent quatre (04)
orientations possibles :
A chaque perspective correspond une façon spécifique d'aborder la qualité. Les voici :
De court terme (plutôt statique) : pour une La qualité (au sens étroit) mise en œuvre à
opération bien définie travers l' « assurance de la qualité ». ce
processus vise la satisfaction du client.
La qualité et l'assurance qualité sont normalisées à travers notamment les normes ISO 9000
relatives au système de management de la qualité.
APTITUDE d'un ensemble de caractéristiques intrinsèques d'un produit, d'un système ou d'un
processus à satisfaire les exigences des clients et autres parties intéressées.
La référence aux autres parties intéressées implique que la qualité ne s'étend pas seulement
de la satisfaction des exigences du client (externes ou internes) mais aussi de celles de
l'environnement, du personnel, des associés,
Mode de management d'un organisme, centré sur la qualité, basé sur la participation de
tous ses membres et visant au succès à long terme par la satisfaction du client et à des
avantages pour tous les membres de l'organisme et pour la société.
Pour conclure, voici comment les approches empiriques de la qualité s'articulent avec la
pensée dominante telle qu'elle s'exprime dans les documents normatifs :
Assurance de la QUALITE
QUALITE TOTALE
1- Le questionnement de la qualité
Construire la qualité, c'est répondre à 2 questions successives :
Ces étapes de la construction de la qualité sont suggérées par la grille récapitulant les
différentes acceptions de la qualité selon qu'on envisage un raisonnement dans le sens
vertical ou dans le sens horizontal.
Logique De demande
D'offre ou de fournisseur
Perspective Ou de client
Perspective Ou de client
l'intérieur de l'entreprise ?
Pour ce faire, un accord est nécessaire entre chaque salarié et l'entreprise sur la "juste
place" que celui-ci doit occuper. Si le contrat de travail peut expliciter une part de cet
accord, une autre part reste largement implicite, notamment tout ce qui concerne la
motivation, l'implication et l'adhésion adéquate (ni trop, "on tue le métier", ni trop peu). Le
même auteur parle à ce propos de "convention d'effort".
Il existe un continuum de situations entre les deux modèles suivants pour la construction
interne de la qualité :
- Le modèle de la grande armée classique dans laquelle les rôles de chacun sont étroitement
normés et ne prennent leur sens relativement qu'à l'ensemble logique constitué par
l'entreprise tout entière, la liberté individuelle étant réduite au minimum. P.-Y. GOMEZ
qualifie ce modèle de "firme communautaire" (hôpital, banque traditionnelle, entreprise
sportive).
- Le modèle de l'armée de guérilla dans lequel l'initiative individuelle largement ouverte est
bornée par quelques principes et objectifs généraux précis émis par l'organisation. L'auteur
la qualifie de "firme marchande" en ce sens que la relation entre le salarié et la firme
s'apparente à une relation client-fournisseur (cabinet d'avocats, grande distribution,
assurances).
Attention, les exemples cités n'ont ici que valeur indicative. L'appartenance à un secteur
d'activité donné détermine moins la forme de la convention d'effort qu'elle ne déterminait la
forme de la convention de qualification. D'autres facteurs liés à l'histoire spécifique de la
firme, les valeurs individuelles de ses dirigeants ou le contexte culturel s'avèrent tout aussi
majeurs. Par exemple, la firme communautaire trouve sa place naturelle dans la société
japonaise alors que la firme marchande trouvera la sienne dans l'espace anglo-saxon.
L'entreprise Délégation à
comme clan l'entreprise de
soumis aux l'évaluation des
contraintes de la normes de qualité
guerre articulée avec
économique attribution à la
représente le sens firme de la
de l'effort capacité de
commun. La donner du sens au
satisfaction du travail des
désir du client est employés qui la
la variable clé de la composent.
qualification. Hôpitaux, clubs de
L'école "japonaise" football
Marché compétition : Sony, Michelin Marché délégation
L'entreprise est une entité sociale baignée dans un environnement par rapport auquel elle
doit développer un comportement pertinent. Cette pertinence se juge à 2 niveaux :
- Au niveau supérieur (niveau 1) par la définition d'une stratégie et de principes généraux
d'action adaptés au contexte ;
- Au niveau inférieur (niveau 3) par une action quotidienne (opérations courantes) conforme à
ces principes d'action.
MESURE ET PILOTAGE DES PERFORMANCES / WAKIL OLADEPO Page 39
La cohérence entre ces deux niveaux est assurée par un déploiement (une traduction) fidèle
de la stratégie à travers toute l'entreprise. Cette traduction, de plus en plus détaillée à
mesure qu'on descend vers le champ de la décision opérationnelle puis la traduction inverse
des résultats en éléments de plus en plus synthétiques pour remonter au niveau stratégique,
s'appelle le pilotage (niveau 2).
Une traduction fidèle de la stratégie exige deux qualités :
- La cohérence : non-contradiction (verticale) avec les principes généraux ;
- La convergence : non-contradiction (horizontale) entre les préceptes énoncés pour deux
entités opérationnelles de même niveau (la direction commerciale et la direction de
production, par exemple).
Un pilotage performant exige la réunion des trois qualités évoquées ci-dessus (pertinence,
cohérence et convergence). Il assure la mise sous contrôle de la gestion de l'entreprise.
Cette mise sous contrôle s'opère dans deux sphères :
- La sphère des activités productives d'une part (contrôle des flux de biens et services) dont
le degré de maîtrise est rapporté par les indicateurs inclus dans le système de tableaux de
bord ;
- La sphère financière d'autre part (contrôle des flux financiers) dont le degré de maîtrise est
rapporté par le contrôle budgétaire.
Voici quelques éléments d'explication complémentaires concernant le déploiement de la
qualité dans l'entreprise.
2- Au niveau du pilotage
La stratégie étant définie en intégrant explicitement peu ou prou de qualité, il faut
désormais la piloter
- au niveau des activités productives (flux non financiers) par la mise en place d'un système
qualité. La description des méthodes de pilotage de la qualité est transcrite dans le manuel
qualité qui constitue le document de référence de l'ensemble du système.
- au niveau financier, par une recherche obstinée de la réduction des coûts liée à la non-
qualité.
Si les coûts des anomalies peuvent être sans doute imputés à la première catégorie, on
remarquera que les coûts de la fonction qualité (administration de la qualité, détection des
anomalies, prévention des anomalies) y sont également imputés.
Comme le dit P. LEMAITRE : « un produit parfait est un produit qui, pour un service défini,
donne, à tous les points de vue, entière satisfaction à la totalité des clients auxquels il est
destiné ce qui conduit à dire qu'il serait réalisé sans aucun aléa, au plus juste prix, cédé de
même, que son utilisation coûterait le minimum, que sa maintenance serait nulle, et que de
surcroît il serait toujours disponible. Si nous savions réaliser cela, la fonction qualité serait
totalement inutile. Elle ne se justifie donc qu'en fonction des anomalies C'est une
anomalie de substitution. »
C'est elle qui doit permettre ici et maintenant d'atteindre la qualité promise au client dans les
délais requis.
- La disponibilité du matériel par une maintenance adaptée, c'est l'objet de méthodes telles que
la méthode TPM (Maintenance productive totale). Elle contribuera au respect des délais
;
- L'inspection qui consiste à vérifier toutes les pièces : cas qui prévalait au début du siècle
quand les séries étaient suffisamment courtes ; cas qui subsiste lorsqu'une défaillance du
produit peut avoir des conséquences graves (sur la santé ou l'environnement, par exemple).
- Le contrôle statistique (apparu dans les années 30) qui consiste à vérifier une partie des
pièces choisies selon un protocole très précis (la SPC, contrôle statistique de processus
appartient aux techniques mises en œuvre à cette fin). C'est le cas général pour les grandes
séries.
Il s'agit globalement de créer les conditions pour traiter les problèmes dans l'ordre où ils
méritent de l'être.
C'est le champ dit des "outils de la qualité". Ces outils techniques sont mis en œuvre dans
différentes formes de groupes de travail tels que les cercles de qualité ou les groupes de
projet.
Cette mise en œuvre s'opère par la mise en place d'un système de management de la
qualité décrit dans un manuel qualité.
Un système particulier peut être défini pour assurer les relations entre un fournisseur
particulier et son client. Sa validité peut aussi être attestée par une certification générale de
conformité à une norme de type ISO 9000. Une telle certification dispense, dans les cas les
plus courants, le fournisseur d'apporter des preuves complémentaires de l'efficacité de son
système qualité.
Un système de management de la qualité certifié suppose que toutes les phases allant de
l'identification des exigences du client à l'obtention de sa satisfaction soient maîtrisées.
- Si elle conçoit une collection, qu'elle fabrique ensuite totalement ou non le produit final, la
totalité des exigences du référentiel devra être traitée dans le système de management de la
qualité.
CONCLUSION :
En guise de conclusion sur la « Qualité totale » nous proposons les conditions de succès dans
une approche de Qualité Totale et d'amélioration continue :
Il faut que la mission et les valeurs soient bien comprises, acceptés de tous et deviennent
l'élément moteur pour tout ce qui concerne l'entreprise où le service.
Il faut que le principal actionnaire cautionne le processus et en fasse son cheval de
bataille.
Il faut que les priorités de l'entreprise soient bien identifiées et comprises par tous.
Il faut se mettre en phase sur les priorités qui ont étés identifiés par tous.
Il faut que des équipes de travail homogènes et naturelles soient formées.
Il faut que ces équipes aient le pouvoir de contribuer aux changements.
Il faut que de la formation et où du développement soit mis à leurs dispositions.
Le leader, l'animateur où facilitateur, doit s'assurer également d'une bonne synergie
entre les différents intervenants.
(Source : Codling, S., Best practice benchmarking, Gulph Pub. Col, Houston, Texas, 1996, 177
pages.)
C'est vers la fin des années 70 que la compagnie américaine Xerox a commencé à faire de
l'analyse comparative telle que nous la connaissons aujourd'hui. Celle-ci se présentait
comme un véritable outil de gestion, allant au-delà des simples comparaisons. L'entreprise a
alors commencé à se soucier des pratiques et façons de faire à adopter afin d'améliorer sa
situation.
Les militaires utilisent également l'analyse comparative depuis quelques décennies. Afin de
prendre des décisions stratégiques et tactiques, ils comparent la puissance de leurs ennemis
à la leur. De nos jours, le benchmarking a pris de plus en plus la forme d'analyse
concurrentielle, de comparaison de performance des entreprises.
une méthode qui consiste, pour l'entreprise, à se comparer aux autres pour identifier
ses points faibles en vue de les améliorer;
une activité permettant de comparer vos données financières et/ou
organisationnelles à celles d'autres entreprises de qui vous pouvez apprendre, afin
d'améliorer votre propre organisation.
de l'espionnage industriel;
du plagiat;
un processus réservé uniquement aux entreprises qui veulent devenir « les
meilleures ».
Il existe plusieurs types d'analyse comparative qu'on peut regrouper dans les 3 grandes
catégories suivantes :
Vous comparez les données entre les différents départements, différentes divisions ou
usines de votre entreprise afin de trouver la meilleure façon de faire les choses.
Vous comparez les informations de votre entreprise à celles d'autres entreprises semblables.
Les entreprises peuvent être semblables parce qu'elles appartiennent au même secteur
d'activité, qu'elles ont la même taille, qu'elles connaissent le même rythme de croissance,
qu'elles ont le même taux d'exportation ou tout autre critère susceptible d'influencer leur
mode d'organisation et de fonctionnement.
Vous comparez les données de votre entreprise à des « normes » obtenues à partir
d'entreprises considérées de classe mondiale.
La PME est comparée à des « normes idéales » à adopter plutôt qu'à une ou des entreprises
particulières œuvrant dans un contexte relativement semblable. Ce type d'analyse
comparative permet d'identifier les meilleures façons de faire, souvent appelées « pratiques
exemplaires » ou « best practices » en anglais.
C'est une activité qui permet de prendre conscience des points faibles de votre entreprise
lorsque vous la comparez aux autres et vous donne de l'information sur ce que vous devriez
faire afin d'y remédier.
Il est plus facile d'identifier les points à améliorer en se basant sur la performance
d'entreprises comparables à la vôtre. L'analyse comparative permet ainsi de déterminer
quels résultats souffrent d'un écart par rapport à un groupe témoin d'entreprises. Par la
suite, ces résultats peuvent être améliorés par des modifications appropriées dans vos
pratiques de gestion et de production.
Exemple :
Une entreprise perd chaque année 20% de son personnel de production et ses frais de
ventes et d'administration représentent 15% de ses ventes. L'entrepreneur est plus
préoccupé par la rotation de son personnel que par l'ampleur de ses frais de gestion.
Toutefois, une comparaison avec des entreprises similaires lui démontre que celles-ci
perdent 25% de leur personnel de production alors que les frais de ventes et
d'administration représentent 10% de leurs ventes. L'entrepreneur devrait alors se
concentrer plutôt sur ses frais de ventes et d'administration, car c'est sur ce plan qu'il est le
moins compétitif.
Exemple :
Plusieurs entreprises comme Xerox, TNT et IBM ont déjà fait la preuve de l'efficacité de
l'analyse comparative. Pendant les années 70, Xerox perdait des parts de marché et
subissait une forte pression de ses concurrents lorsqu'elle a décidé d'utiliser l'analyse
comparative générique pour identifier des sources d'amélioration. Après avoir trouvé les
normes de qualité adaptées à sa situation, Xerox a modifié ses façons de faire et est
devenue l'une des entreprises les plus florissantes de l'époque.
(Source : McNair et Leifried, 1992.)
Pour d'autres exemples, consultez le site britannique du Department of Trade and Industry.
Ce site présente quelques cas d'entreprises telles ICL, Rover Body and Pressings, NCR
Manufacturing, Motorola, Hawker Fusegear qui en sont à des stades différents de leur
processus d'analyse comparative, mais qui montrent tous les bienfaits que l'on peut en
retirer, tels l'amélioration de la satisfaction de la clientèle, l'identification des priorités, ou la
découverte d'améliorations possibles dans les façons de faire.
Plusieurs exemples d'entreprises ayant utilisé le Benchmark Index, l'un des outils les plus
utilisés au Royaume-Uni, sont également disponibles.
Les principaux obstacles à l'utilisation de l'analyse comparative par les PME sont le fait que
cette pratique d'affaire est encore méconnue malgré sa popularité croissante, et que les
outils existants sont souvent coûteux et peu adaptés aux PME.
Cette méconnaissance suscite, chez les entrepreneurs d'un peu partout dans le monde, des
interrogations légitimes :
Réponse : À des PME « semblables ». Il est vrai que chaque PME est unique. Cela ne veut pas
dire que vous ne pouvez pas apprendre d'autres entreprises qui opèrent dans un
environnement semblable au vôtre.
Entrepreneur : Est-ce que nos informations seront transmises à nos concurrents, ce qui
pourrait nous faire perdre des parts de marché?
Réponse : C'est une question stratégique et légitime, à laquelle tous les outils d'analyse
comparative devraient être en mesure de répondre. C'est l'une des préoccupations majeures
qui a guidé le développement de l'outil Balise. Aussi, peut-on vous garantir que les données
transmises seront entièrement confidentielles. Consultez notre rubrique Confidentialité et
sécurité pour en savoir davantage.
Entrepreneur : Est-ce que les renseignements que l'on obtiendra seront valides?
Réponse : Les outils d'analyse comparative de qualité utilisent des bases de données à jour.
Toutefois il faut, avant de choisir un outil, s'en assurer. Dans le cas de Balise, l'information
provient d'une base de données réelles sur des PME manufacturières, qui est
continuellement mise à jour par le LaRePE.
Entrepreneur : Pourquoi faire de l'analyse comparative, alors que mon entreprise va bien et
que je ne souhaite pas modifier ma situation?
Réponse : Pour vérifier si vous ne pourriez pas être encore plus efficace! Avec la
mondialisation des marchés, les concurrents arrivent de plus en plus vite et, souvent, sans
avertissement. De plus, les « grands donneurs d'ordres » sont plus exigeants envers leurs
sous-traitants. Une façon de vous assurer de préserver votre part de marché est donc de
vérifier si vos résultats ou les pratiques de gestion et de production que vous utilisez sont
conformes à vos besoins et n'ont pas besoin d'être revus.
2- Principes de conception
La mise en place des tableaux de bord dans l'entreprise doit respecter le découpage des
responsabilités et des lignes hiérarchiques.
Cette structure oblige chaque niveau de responsabilité à trois (03) types de communication :
Il s'agit de choisir parmi les informations disponibles et possibles celles qui sont essentielles
pour la gestion du centre ou du responsable concerné.
Il faut donc choisir des indicateurs pertinents par rapport au champ d'action et la
responsabilité du destinataire du tableau de bord.
Effectifs
Productivité
POINTS CLES Fonctionnement du matériel
de la gestion Qualité de la production
La rapidité doit l'emporter sur la précision : il est souvent préférable d'avoir des éléments
réels estimés plutôt que d'avoir des données réelles précises mais trop tardives.
Le rôle principal du tableau de bord reste d'alerter le responsable sur sa gestion. Il doit
mettre en œuvre des actions correctives rapides et efficaces.
La maquette d'un tableau de bord de type standard fait apparaître quatre zones :
Rubrique 1
Indicateur A
Indicateur B
Rubrique 2
La zone « résultats réels » : ces résultats peuvent être présentés par période ou/et
cumulés. Ils concernent les informations relatives à l'activité.
La zone « objectifs » : dans cette zone apparaissent les objectifs qui avaient été
retenus pour les résultats pour la période indiquée.
La zone « écarts » : ils sont exprimés en valeur absolue ou relative. Ce sont ceux du
contrôle budgétaire mais aussi de tout calcul présentant un intérêt pour la gestion.
a) Définition
Les tableaux de bord sont constitués d'indicateurs qui sont des informations précises, utiles et
pertinentes pour le gestionnaire exprimés sous des formes et des unités diverses.
b) Typologie d'indicateurs :
Définition de la mission
Il s'agit ici de bien définir ce que fait le service, pour qui travaille-t-il et pourquoi ?
- Les objectifs :
o cet organigramme est revu par l'ensemble des responsables et discuté jusqu'à
l'obtention d'un accord.
Analyser l'historique
o pratiquer le brainstorming
o Valider que les objectifs qui sont couverts par des variables d'action
prédictifs : alerter le décideur sur l'émergence d 'un problème avant que des
conséquences irréversibles n'interviennent
Indicateurs de résultat
Ils mesurent l'atteinte des objectifs : niveau d'activité, marge, qualité, coût
Indicateurs de moyens
Ils mettent en perspective les résultats obtenus compte tenu des moyens engagés : ratios
moyens / unités produites
Ils sont exprimés en pourcentage (%) de personnel formé, nombre de propositions émises..;
Indicateurs d'environnement
Ils sont internes (activité d'autres services liés) et externes (marché, concurrence)
Contribution agence = CA
= Marge brute
= Contribution agence
1. Direction d'agence
4. Direction générale
DIRECTEURGENERAL
Direction des
Centre d'Appel
Achats
« Hot Line »
Direction d'agence
1. La direction d'agence
Dynamisme commercial
Cette variable conditionne la fidélité des clients et l'extension des services d'Itelcom chez les
clients existants. La direction technique, la direction commerciale et le directeur d'agence
doivent associer leurs efforts sur cette variable d'action.
OBJECTIF 2 : CONTRIBUTION
Ces variables d'action contribuent à augmenter la part du CA réalisé dans des interventions
d'adjonction et d'entretien, qui, du fait d'une moindre concurrence, autorisent des marges
supérieures à celles des contrats de première installation.
Cette variable est essentielle pour obtenir une bonne rentabilité, car tout dépassement sur
devis est à la charge d'Itelcom.
Ils comprennent les charges générales (loyer, courrier, téléphone, fournitures diverses) et les
frais de déplacement des vendeurs. Ils doivent être limités, en liaison avec l'évolution du CA.
Tableau bord du directeur commercial agence objectifs, variables d'action et indicateurs (1)
Tableau bord du directeur commercial agence objectifs, variables d'action et indicateurs (2)
CONCLUSION
Le tableau de bord est un document synthétique dans lequel on privilégie la lisibilité sur tout
autre facteur.
Les tableaux de bord suivent le principe additif : le tableau de bord du DG est une synthèse
de tous les niveaux inférieurs ajoutés à des informations spécifiques à son niveau.
Le calendrier de mise en œuvre des tableaux de bord est plus ou moins précis.
* 5 premiers jou rs d e la clôture , on doit dis poser des premiers é lé m e n t s p ou r tous les
centres de responsabilité. Cela permet à chaque responsable de réfléchir à la mise
en place des actions correctives.
* on fixe à 10 jours les premières synthèses qui se situent au niveau des services,
départements, usines...on agrège un certain nombre de responsabilité aux mêmes activités.
La construction est devenue essentielle et a évolué au cours des années récentes dans les
grandes entreprises.
Elle a été formalisée par deux auteurs américains : Kaplan et Morton, qui ont remis au goût
du jour les tableaux de bord.
Claude ALAZARD et Sabine SEPARI, Contrôle de Gestion, Dunod, DECF Epreuve n°7