Académique Documents
Professionnel Documents
Culture Documents
les économies d’échelle : produire en grande série pour augmenter la productivité et réduire les
coûts unitaires par une meilleure imputation des charges fixes;
la standardisation des produits;
la division du travail et la parcellisation des tâches;
la séparation des fonctions de conception, d’exécution et de contrôle;
la motivation par un système de rémunération en fonction du rendement
L’école classique : approche rationnelle de l’entreprise Le contrôle de gestion est perçu comme un
contrôle a posteriori : une mesure quantitative des écarts associée à un système de sanctions et
récompenses.
L’école des relations humaines Les réactions aux modèles rationnels apparurent dès les années 1920-
1930. Face aux dysfonctionnements induits par l’organisation taylorienne (manque de qualité,
absentéisme, etc.), différentes études mettent en évidence les facteurs de motivation :
Elton Mayo (1880-1949) met en évidence que les salaires et les conditions de travail ne suffisent
pas à motiver les acteurs de l’entreprise. La productivité augmente avec l’attention qui leur est
portée et les motivations sont plus fortes avec un degré de responsabilité plus élevé (l’effet
1
Hawthorne). Il met en évidence aussi, l’influence du groupe sur l’individu et les notions de
leadership, de créativité et d’interaction en plus de la logique des sentiments.
Abraham Maslow (1908-1970) établit une hiérarchie des besoins que l’homme cherche à
satisfaire et démontre que seuls les besoins non satisfaits sont facteurs de motivation ;
Douglas McGregor (1906-1964) Il a travaillé sur la manière de conduire les hommes.
la théorie X : l’individu éprouve une aversion innée pour le travail qu’il fera tout pour l’éviter.
L’homme doit donc être contraint, contrôlé, dirigé et menacé de sanction.
la théorie Y : selon laquelle l’individu peut être motivé par son travail et capable d’initiatives. Il
peut s’auto-diriger et s’auto-contrôler.
∙ Frederick Herzberg (1923-1966) démontre l’importance d’enrichir et d’élargir les tâches et les
responsabilités des acteurs de l’organisation. les facteurs de satisfaction au travail
(accomplissement, reconnaissance, le travail lui-même, la responsabilité et l’avancement).
. Kurt Lewin (1890-1947) : la notion de la dynamique de groupe.
Le courant sociotechnique
Frederick Emery et Eric Trist (1969) : mettent en évidence la double dimension technique et sociale de
l’entreprise et privilégient les groupes de travail semi-autonomes fondés sur la polyvalence et le travail
en groupe
Selon les théories qui perçoivent l’entreprise comme un groupe social, le contrôle de gestion est un
moyen pour stimuler les acteurs de l’organisation. Le système d’animation le plus répandu, inspiré de
ces fondements théoriques est la DPO (direction par objectifs). La DPO consiste à assigner aux
responsables d’unités décentralisées, non pas des tâches, mais des objectifs. La direction générale laisse
la liberté aux centres de responsabilité du choix des moyens nécessaires à la réalisation des objectifs
fixés. Le centre est jugé en termes d’efficacité, c’est-à-dire sur sa capacité à atteindre les objectifs. L’un
des risques de la DPO est de fixer des objectifs trop ambitieux, ce qui peut entraîner une démotivation
des centres de responsabilité. Pour éviter ce travers, la DPPO (direction participative aux objectifs)
associe les responsables des centres à la fixation des objectifs.
Dans cette approche, l’entreprise est un système complexe, finalisé, ouvert sur un environnement
incertain, regroupant des acteurs et des fonctions en interaction , Dans cette approche, le contrôle de
gestion est un instrument de pilotage du système. La cybernétique, science qui étudie les mécanismes
de communication et de contrôle, permet de préciser le rôle du contrôle de gestion : c’est un sous-
système qui permet d’organiser les rétroactions nécessaires sur les prévisions, les objectifs et les actions.
Le contrôle de gestion : un outil cybernétique de régulation.
Dans cette approche, le contrôle de gestion est un instrument de pilotage du système. La cybernétique,
science qui étudie les mécanismes de communication et de contrôle, permet de préciser le rôle du
contrôle de gestion : c’est un sous-système qui permet d’organiser les rétroactions nécessaires sur les
prévisions, les objectifs et les actions. Le contrôle de gestion : un outil cybernétique de régulation.
2
7. Rappelez l’approche contingente des organisations.
À la différence des théories classiques qui cherchent à établir the one best way (LE bon modèle
applicable quelle que soit l’organisation), la théorie de la contingence montre qu’une organisation est
soumise à un contexte particulier qui évolue avec elle. Chaque organisation génère son propre modèle.
Plusieurs facteurs de contingence sont repérables:
∙ la technologie : Joan Woodward (1965) conclut que le choix d’une structure est influencé par la
technologie de production utilisée : production en grandes séries, production unitaire et
production continue; Plus la technique est régulée et classique, plus il y a de procédures et plus
l’organisation est bureaucratique. Plus la technique est complexe et plus les fonctions de
supports, de maintenance, de logistique sont élaborées; la structure évolue vers un ensemble
organique et non bureaucratique
l’environnement du marché : Paul Lawrence et Jay Lorsch (1967); Robert Hamblin et Alfred
Chandler : plus l’environnement est dynamique, plus l’organisation est organique (c’est-à-dire
capable de s’adapter par elle-même grâce à la souplesse de chacun de ses membres
contrairement aux organisations mécanistes qui s’appuient sur la capacité de réaction de
l’ensemble, donc davantage rigide), allant vers une flexibilité totale en cas d’instabilité de cet
environnement. Plus il est stable, plus il est facile de prévoir, et donc d’organiser, de
standardiser, de bureaucratiser.
l’environnement culturel national : Depuis quelques décennies, du fait de la globalisation des
marchés, une nouvelle contingence est apparue, portée par Geert Hofstede (1987) : la culture,
tant nationale que spécifique à l’entreprise. L’organisation doit en tenir compte, en distinguant :
– l’organisation multinationale, présente dans plusieurs pays, mais avec une culture d’origine
dominante : les managers étrangers à la culture dominante se doivent d’être biculturels pour
réussir.
– l’organisation transnationale, née d’une fusion de deux organisations de nationalités
différentes : le management est le plus complexe, chacun devant intégrer la culture de l’autre,
mais sans l’écraser.
– et l’organisation internationale, sans culture nationale spécifique : les managers partagent
une culture organisationnelle commune, basée sur leur compétence, et gomment leur diversité
nationale (ex. adopter l’anglais, langue « interculturelle et non multiculturelle »).
la taille, l’âge, le pouvoir : Mintzberg (1982) : plus l’organisation est âgée, plus le comportement
est formalisé. Plus l’organisation est grande, plus la structure est élaborée.
∙ les finalités (associations, services publics, entreprises, mutuelles, etc.).
8. Quelle est la place du contrôle de gestion dans cette théorie ?
Le contrôle de gestion n’est pas un outil standard : il doit être en adéquation avec son environnement
interne et externe. Sa place, l’importance de son rôle, sa conception et son utilisation diffèrent selon les
spécificités des organisations. Le contrôle de gestion sur mesure.
3
Il existe deux formes de coopération économique : la coordination par le marché par un système de prix
et la coordination administrative (ou hiérarchique) au sein d’une firme. Dans une économie de marché, il
existe, pour chaque transaction, des coûts incontournables de fonctionnement du système d’échange :
coût d’information, coût de transport, coût de négociation, etc. Le recours à la firme permet de les éviter
mais génère des coûts internes organisationnels. de fonctionnement, ce qui limite la substitution
complète du marché par les organisations
La théorie de droits de propriété développée par Armen Alchian et Harold Demsetz (1972) et
s’inspire des travaux d’Adolph Berle et Gardiner Means (1932) sur les relations entre
propriétaires et gestionnaires. Dans l’entreprise, propriétaires et dirigeants (managers) n’ont pas
les mêmes objectifs, les mêmes informations et les mêmes moyens d’action. Ce type de
délégation (donc de contrats) donne lieu à des conflits, des jeux de pouvoirs et des contrôles.
La théorie de l’agence a été développée en 1976 par Michael Jensen et William Meckling. Elle
fait la synthèse des deux approches précédentes. La théorie de l’agence appréhende l’entreprise
comme un ensemble de contrats au sein de l’organisation qu’il faut mettre en place et contrôler.
Toute relation contractuelle interne ou externe à une organisation est une relation d’agence
(le principal engage l’agent pour exécuter en son nom une tâche) caractérisée par l’asymétrie
d’information (l’agent a en général une meilleure connaissance de la tâche qu’il doit accomplir).
Il existe une divergence d’intérêts entre le principal et l’agent, et si le principal veut contrôler
l’agent, il doit supporter des coûts d’agence.
10. Quel contrôle de gestion selon les approches contractuelles ?
Selon les approches contractuelles, le contrôle de gestion est un outil de régulation des comportements.
Il doit être élaboré et utilisé comme un outil de mesure des performances, un système d’information et
de communication pour limiter les comportements opportunistes. Il doit également contribuer à la
convergence des objectifs individuels et organisationnels. Le contrôle de gestion doit donc permettre de
mesurer, coordonner et faire communiquer les différentes unités internes ou extérieures à l’organisation.
Il sera d’autant plus difficile et complexe que l’entreprise sera éclatée (ou en réseau) en raison des
stratégies d’impartition : coopération, sous-traitance, franchise, etc. Il doit aussi permettre de réaliser
des arbitrages : internalisation/externalisation
Le sommet hiérarchique, ou sommet stratégique qui s’assure que l’entreprise remplit sa mission
de manière efficace.
Au milieu, la ligne hiérarchique relie le sommet au centre opérationnel.
À droite, les fonctions support remplissent des fonctions particulières comme la R&D ou la
logistique.
À gauche, la technostructure regroupe les analystes comme les comptables et contrôleurs de
gestion, les ingénieurs du bureau des méthodes ou de la programmation, qui ne laissant pas de
place à d’éventuels changements opérés par les employés.
En bas, le centre opérationnel regroupe les opérateurs.
Autour de ces éléments, l’idéologie, c’est l’élément englobant qui présente les valeurs que partagent les
salariés, et qui ont une incidence sur leurs comportements.
4
12. Quels sont les mécanismes de coordination de Mintzberg ?
L’ajustement mutuel dans lequel la coordination du travail est effectuée par simple
communication informelle.
La supervision directe est un mécanisme de coordination dans lequel une personne est investie
de la responsabilité du travail de plusieurs autres.
La standardisation des procédés de travail : ce mécanisme assure la coordination en spécifiant le
contenu du travail à accomplir (descriptifs des tâches, des modes opératoires).
La standardisation des résultats : elle assure la coordination en précisant le résultat à atteindre
(spécification des dimensions du produit à fabriquer).
La standardisation des qualifications : elle assure la coordination en précisant la formation, les
compétences que doit avoir celui qui occupe le poste.
5
collaborent davantage entre elles. Elle convient également aux entreprises internationalisées en
facilitant une approche globale et une adaptation locale.
o La structure fonctionnelle classique correspond à l'entreprise mono-activité. Elle lui permet de
se développer en améliorant sa compétitivité dans un environnement stable. La division du
travail par fonctions (opérationnelles et supports) permet une spécialisation qui favorise
l'efficacité de l'entreprise.
o Les structures par projet sont des structures dans lesquelles des organes sont mis en place pour
réaliser un ou plusieurs projets particuliers. La structure par projet se superpose à la structure
hiérarchique dans les entreprises innovatrices. Lorsque le projet est réalisé, l’organe spécifique
créé au départ disparaît et les activités créées sont prises en charge par la structure principale,
traditionnelle, de l’entreprise. Pour David Courpasson (2000), l’action par projet est un modèle
qui implique une domination subtile par, ce que l’auteur appelle une « contrainte souple »,
acceptée par les membres du groupe comme allant de soi. Refuser cette contrainte, c’est se
mettre à l’écart ; l’organisation devient alors une « communauté de sujets en concurrence ». Il
n’existe pas de structure par projet pure. Les structures matricielles réalisent la combinaison
d’une structure par fonctions et d’une organisation par projet et il y a une superposition de deux
structures : une structure par projet verticale, de nature temporaire et une structure par
fonction horizontale, stable par tâches. On trouve ce type de structure dans des entreprises qui
ont des activités relativement complexes (cinéma, bâtiment, travaux publics, ligne TGV, etc.).
Dans ces entreprises, il n’y a pas de structure purement hiérarchique, ou purement
fonctionnelle, ou purement matricielle
15. Les structures en réseaux s’appuient plutôt sur des relations horizontales mais pas verticales ni
hiérarchiques.
Les réseaux modernes s’appuient plutôt sur des relations horizontales mais pas verticales ni
hiérarchiques. L’enjeu est de démultiplier des flux et pas de gérer des stocks accumulés; ceci suppose
confiance et coopération, mais aussi sociabilité, privilégiées au respect de règles et de contraintes. Le
développement des réseaux se calque sur les systèmes d’information (qui sont tous en réseau), et
concerne toutes les entreprises en réalité : les grandes pour partager l’information et éviter les
doublons, les petites pour inciter chaque salarié à échanger l’information et favoriser sa propre
polyvalence
16. Expliquez comment les grandes tendances organisationnelles de l’entreprise ont contribué à
définir les objectifs du contrôle de gestion et ont permis d’aboutir à des outils de suivi et de
contrôle différents, de l’activité de l’entreprise.
Les grandes tendances organisationnelles qui ont défini des objectifs au contrôle de gestion et abouti à
des outils de suivi de l’activité des entreprises sont :
Le modèle général est celui de l’école classique, cher à Adam Smith, où l’amélioration de la production
vient d’abord de la division du travail. Le modèle organisationnel est celui de Frederick W.Taylor, de Max
Weber et de Henri Fayol. L’outil pratique est la théorie marginaliste de maximisation du profit par
maîtrise du coût marginal et le bon usage de la courbe d’apprentissage. Son objectif est de maximiser
son profit en égalisant son coût marginal à sa recette marginale (cas du monopole) ou son coût marginal
6
au prix du marché (cas de la concurrence). On peut s’interroger sur l’efficacité de ces méthodes de
contrôle aujourd’hui : l’environnement change de plus en plus vite et est de moins en moins stable.
D’autre part, un outil de prédilection de ces méthodes est la planification budgétaire dont les résultats
sont pour le moins insatisfaisants, voire surprenants.
o L’entreprise axée sur une industrialisation de ses process pour répondre à une consommation
de masse (l’entreprise automobile des années 1920) ; Il s’agit de l’industrie du début du XXème
siècle qui a pour rôle d’optimiser l’outil de production, en saturant les machines et de suivre
l’utilisation des matières premières qui organisent la production. Le modèle organisationnel est
la structure divisionnelle et les travaux de l’école des relations humaines. Le modèle développé
est celui dit de Sloan – Brown, qui met en place des outils de gestion formatés allant du sommet
à la base et rendant service au seul DG, qui pilote de son bureau, sans connaître les causes des
réussites ou des échecs
o l’entreprise axée sur ses marchés et soumise à une concurrence forte : Il s’agit de l’industrie de
la fin du XXème siècle, orientée client qui a pour rôle d’optimiser l’outil de production en
répondant aux exigences des clients : c’est l’achat du produit/service qui déclenche
théoriquement la mise en place de l’activité de l’entreprise. La maîtrise des coûts devenant
essentielle, tout devait être mis en place pour les limiter, les chasser : c’est la démarche qualité
érigée en philosophie qui sera la réponse japonaise. Le modèle organisationnel est la structure
matricielle et les travaux de Michael Porter. Il va systématiser ces idées en mettant en place des
chaînes de valeur, qui représentent la succession d’activités permettant de satisfaire les besoins
des clients. Dans cette chaîne de valeur, les activités de l’entreprise se développent pour
satisfaire les besoins de chaque client. L’outil pratique est la comptabilité à base d’activité (ABC,
Activity Based Costing) avec un suivi budgétaire par les tableaux de bord prospectifs
o L’entreprise axée sur les services : Il s’agit de l’industrie des services du début du XXIème siècle
qui a pour rôle d’optimiser voire d’anticiper la satisfaction du besoin du client. Les outils
pratiques sont les TB.
7
LES CENTRES DE RESPONSABILITE ET LES PRIX DE CESSIONS INTERNES
Une politique de PCI suppose que l’on réponde à deux questions Qui fixe les PCI ? Par quels mécanismes
? Selon quel principe d’évaluation ? Fait on référence au prix du marché ou à un coût calculé ?
Le mécanisme de fixation de PCI peut être centralisé ou décentralisé. On peut laisser les centres
négocier leur PCI ( autonomie des centres) ou définir une politique des PCI au niveau du groupe
(autonomie limitée des centres).
À partir du prix du marché : lorsqu’il existe un marché extérieur pour un produit semblable, le
PCI doit être calculé à partir du prix du marché augmenté ou diminué d’un montant représentant
les différences de spécification du produit ou du service rendus par le centre (x) : PCI = Prix du
marché +(-) x L’utilisation du prix de marché oblige constamment les centres à se poser la
question de l’opportunité de poursuivre une activité de production PCI calculé à partir des
coûts :
Le coût complet réel : cette méthode reporte le coût de la sous-activité de la division amont sur
la division avale. Elle ne doit pas être utilisée lorsqu’il existe une forte sous-activité. PCI = Coût
complet + Marge
8
Le coût d’imputation rationnelle : en cas de modification des conditions d’exploitation du centre
amont, l’inefficience de ce centre est subie par le centre aval qui supporte une augmentation du
PCI (Coût complet × (Activité réelle/Activité Normale)).
Le coût marginal : le PCI ne prend en compte que les charges supplémentaires liées à la cession
interne. Pour que la division amont ait intérêt à effectuer cette cession interne, il faut que le PCI
soit supérieur ou égal au Cm
Le coût d’opportunité : Selon la théorie micro-économique, le «vrai» coût marginal devrait tenir
compte d’un coût d’opportunité qui consiste à évaluer des PCI en fonction du prix du marché car
pour honorer la prestation interne, le centre amont renonce souvent à une vente à un client
extérieur (et donc à un prix supérieur).
4. Quelles sont les limites du découpage de l’organisation en centres de responsabilités
autonomes
Le centre de responsabilité est conçu pour que la direction puisse déléguer le pilotage de l’entité vers les
objectifs visés et pour que l’intervention de la direction se limite à l’amont et à l’aval du pilotage, aux
phases de finalisation et de post-évaluation.
-Ainsi, non seulement le poids des éléments non contrôlables s’alourdit, mais leur neutralisation devient
également plus difficile à mettre en œuvre, dans la mesure où les influences s’avèrent à la fois multiples
et diffuses. Le découpage en zones de contrôlabilité claires et compartimentées est problématique. Cela
exige en toute logique que tout ce qui est externe à sa zone de contrôle soit neutralisé :
-La difficulté est de faire cohabiter ce principe de responsabilité avec d’autres exigences : à tel point
qu’on parle d’influençabilité plutôt que de contrôlabilité, càd : le partiellement contrôlable sur lequel on
a la possibilité juste d’exercer une influence. D’où la nécessité de procéder dans certains cas à un
arbitrage, parfois au détriment du principe de contrôlabilité et de la mesure de la performance.
continuent éventuellement à produire leurs effets (« filtre de période »).
-Une difficulté liée à la pertinence de ce principe de contrôlabilité : Certains auteurs estiment ainsi que
ce principe favorise une conception individuelle de la responsabilité qui constitue un frein à une bonne
coordination des entreprises, et qu’il convient d’évoluer vers une responsabilité plus collective (Mc Nair
et Carr, 1994).
- La qualité du système d’information, la pertinence, la fiabilité des informations que doit avoir le
responsable du centre de responsabilité et aussi les interactions internes qui doivent être fortes entre
9
pilote-système opérant et système d’information, des conditions à avoir pour que le pilote puisse agir en
connaissance de cause.
5. Les PCI peuvent être utilisés par l’entreprise pour l’inscrire dans une approche dynamique de
pilotage. Expliquez comment ?
Création de valeur
La valeur est un concept flou, polysémique et largement éclatée. Nombreuses définitions sont données
dans la littérature dont trois conceptions prédominantes :
les approches de la création de valeur : On peut distinguer les trois approches de création de valeur dans
la littérature
Les deux premières se focalisent sur la façon de répartir la valeur créée afin de limiter les conflits
d’intérêt alors que la dernière s’interroge sur la façon dont la valeur est créée afin de la maximiser. Dans
les deux premières approches, les opportunités de création de valeur sont considérées comme données,
la source de création de valeur est la « mise à disposition d’une ressource financière relativement
indifférenciée pour saisir des opportunités données de manière exogène sous le regard vigilent d’une
gouvernance disciplinaire » (Wirtz282, 2006). La rationalité est financière. Dans l’approche cognitive,
l’entreprise créatrice de valeur est celle qui se positionne autrement sur le marché grâce à sa base de
connaissances (approche resource-base-view/approche knowledge-base-view).
10
3. Quels sont les avantages d’un système de coûts par activité ?
Il n’y a plus que des coûts de revient qui sont tous traités comme des coûts variables. En effet,
les coûts des produits sont suivis au travers de leur consommation d’activités, lesquelles
intègrent toutes les charges sous une forme directe et variable.
Les coûts indirects et directs n’existent plus car toutes les charges sont affectées à des activités
: en fait, ce sont les activités qui consomment toutes les charges, et les produits qui
consomment toutes les activités.
Avec la gestion par activités, il est alors possible de cerner précisément les coûts de revient
dans des secteurs comme les services, le tourisme, les transports, associations, ONG. Elle
représente un point de départ pour un management par les processus.
Cette méthode permet de choisir pour un processus donné des inducteurs de coûts pertinents pour
chacune des activités, ce qui permet d’analyser la performance du processus. La méthode des coûts
par activité est particulièrement adaptée aux changements.
Cette approche nécessite une vision globale de l’entreprise ainsi que la maîtrise de certains
aspects :
Conséquences : La pratique du coût cible vise à optimiser les performances du produit sur
l’ensemble de son cycle de vie dès la conception sachant que les coûts engagés pour cette
conception ont un impact plus important sur les résultats futurs que sur les résultats présents. La
méthode du coût cible inverse les relations traditionnelles entre prix, coût et marge en considérant le
coût comme une contrainte a priori qu’il faut absolument satisfaire pour réaliser ses objectifs
stratégiques.
Déterminé, d’une part, par le prix de vente PV dont le niveau est fixé par la valeur du produit perçue par
le client, d’autre part, par l’exigence de marge cible (Mc) engendrée par les choix stratégiques de
l’entreprise… Et la pression des actionnaires, le coût cible (Cc) apparaît comme une contrainte à
satisfaire.
À partir du coût estimé (Ce), évalué sur la base des compétences actuelles de l’entreprise, généralement
supérieur au coût cible, la méthode du coût cible met en lumière et mesure l‘amélioration nécessaire
(AN) cohérente avec les ambitions et les possibilités techniques de l’entreprise.
AN = Ce – Cc Cc = PV – Mc
11
Objectif AN = 0 : Cette formule mesure l’amélioration nécessaire (AN).
6. Quelles sont les conditions de mise en œuvre et difficultés d’application de la méthode du coût
cible
Des pratiques managériales orientées vers l’apprentissage organisationnel Selon les travaux de
P. Lorino, trois principes sont nécessaires :
2. Orientation vers le marché : la gestion des coûts, en étant reliée aux objectifs de marché et de
profit, entre dans le champ du pilotage stratégique dont elle constitue un mode essentiel
d’intégration à l’action.
La mise en action de ces principes nécessite une maîtrise suffisante des exigences de tout apprentissage
organisationnel : pratiques de communications impliquant l’acquisition de langages communs
(formalisés ou non), formalisation des savoirs expérimentaux tacites, simulation technico-économique,
construction de compétences nouvelles (analyse de la valeur, estimation de coûts).
La méthode du coût cible fait l’hypothèse que la valeur globale d’un produit pour un segment de
clientèle peut être décomposée en attributs indépendants et cumulatifs correspondant chacun à une
fonction, niant ainsi le fait que certains attributs de cette valeur sont liés à son existence globale.
Le recours à des « fonctions d’estime » ou à des évaluations différentielles ne constituent que des pis-
aller (des palliatifs).
La méthode des coûts cibles amène à confronter un référentiel de coût interne à travers les coûts
estimés, généralement valorisés à partir de pratiques héritées des méthodes traditionnelles de calcul de
coûts de revient (souvent fondés sur le coût de la main d’œuvre directe) et un référentiel externe à
12
travers l’analyse de la valeur perçue par le client décomposée en fonctions du produits (liées aux
activités déployées par l’entreprise).
L’application de la méthode ABC pour évaluer le coût estimé peut constituer une réponse au risque
d’inadéquation entre les deux référentiels.
L’analyse des expériences concrètes d’application de la méthode révèle les risques suivants :
- des temps de développement plus long que prévu (par la priorité donnée à la recherche de
baisse de coûts sur les objectifs de qualité et de tenue des délais) ;
- la banalisation des produits engendrée par la recherche du prix le plus bas (cas de NISSAN avant
sa reprise par RENAULT) ;
- Des coûts de conception, élevés associés à des produits à un cycle de vie court (puisque l’objectif
de la méthode est de réduire le CT sur l’ensemble du CV);
L’analyse de la valeur doit être soutenue par la direction générale car elle oblige des services différents,
ayant des objectifs parfois contradictoires, à collaborer. Il faudra pour certaines entreprises accomplir
une véritable «révolution culturelle». Un mode de management participatif est indispensable pour que
s’instaure un climat de confiance propice à la créativité et à la collaboration. Le groupe chargé de
l’analyse de la valeur ne doit pas dépasser une dizaine de personnes.
La règle doit être la liberté d’expression et l’absence de toute hiérarchie, conditions indispensables au
dialogue qui dynamisent l’entreprise.
L’animateur joue un rôle essentiel. Ce doit être une personne ayant des connaissances et de l’expérience.
Il doit être capable d’orienter les débats, de coordonner le travail de groupe, d’informer chacun des
membres de l’avancement du programme.
En conclusion, l’analyse de la valeur est parfois longue et coûteuse mais elle permet, si tout a été mis en
œuvre pour qu’elle réussisse, de réaliser des économies non négligeables, tout en répondant aux
attentes des clients internes ou externes. Elle permet de réconcilier les approches souvent antagonistes
de la «production» et «du marketing».
13
Les systèmes d’information et contrôle de gestion
14
connaissance est un concept qui intègre l’ensemble des composantes explicites et implicites susceptibles
d’améliorer la conduite des activités (expérience, savoirs, aptitudes, compétences). Les systèmes de
gestion de la connaissance sont importants dans l’apprentissage organisationnel et l’amélioration des
performances.
Leur impact sur l’organisation se traduit : Par la diffusion de plus en plus étendue de best practices
formalisées (ex. un mémo d’analyse des attentes clientèle, émis par la direction marketing, et jusqu’au là
limité en diffusion à cette direction, peut être mis à la disposition de la R&D, la production, le service
après-vente ou encore une filiale intervenant dans une zone géographique éloignée du siège pour le
même client). Par la mise en œuvre de systèmes collaboratifs (ex. communautés virtuelles expertes dans
un domaine précis) dont l’enjeu est de partager et de capitaliser l’expérience diffuse des différents
acteurs.
3. Qu’est-ce que la mise en œuvre d’un ERP change-t-elle dans les techniques et pratiques de
comptabilité de gestion et de contrôle de gestion ?
Les contrôleurs de gestion deviennent des interfaces incontournables pour mettre en place l’ERP :
- Renforcement du rôle d’« architecte » du département de contrôle de gestion.
- Renforcement du contrôle et du sentiment de contrôle.
- Permet d’augmenter le travail à forte valeur ajoutée : l’analyse des données, en réduisant le
temps de traitement de masses d’informations.
Cependant, si la mise en œuvre de l’ERP est mal maîtrisée, les résultats peuvent être très dommageables
pour le contrôle : données saisies par les opérationnels non fiables, également perte de cohérence entre
le budget et les réalisations, ce qui rend l’interprétation des écarts difficiles, enfin temps mobilisé
important pour remédier aux dysfonctionnements informationnels.
4. Avec l’arrivée de l’ERP quelles sont les évolutions déterminantes dans l’environnement de contrôle
de gestion ?
trois grandes évolutions déterminantes de l’environnement du contrôle de gestion.
• La première concerne le développement de systèmes de reporting multidimensionnel
(indicateurs monétaires et non monétaires).
• La seconde se réfère à l’horizon temporel et à la fréquence de la prise de décision. En effet, dans
un environnement fluctuant et incertain, les décideurs sont conduits à repenser de façon plus
fréquente leur stratégie et son implication concrète. De surcroît, ils doivent disposer d’une
capacité de réaction et d’anticipation des évolutions majeures ou des retournements de
conjoncture à l’œuvre dans certains secteurs.
• La troisième porte sur les nouveaux outils technologiques à la disposition des dirigeants pour
diffuser l’information de gestion et faire de la fonction contrôle de gestion un partenaire des
opérationnels.
5. Quel est le rôle des systèmes d’information décisionnels ( l’informatique décisionnelle ) ?
Si les systèmes d’informations opérationnels intégrés évoluent vers une plus grande homogénéisation et
intégration, notamment via la mise en place d’ERP, Une contradiction peut se poser entre intégration
globale du système d’information et besoins de pilotage local des performances. Une différenciation des
15
systèmes d’information par niveau de responsabilité, est nécessaire afin de permettre un meilleur
pilotage local des performances. C’est le rôle des systèmes d’information décisionnels qui cherchent à
prendre en compte les besoins d’analyse des managers locaux en leur fournissant des informations et
des outils d’interrogation adaptés à leur champ de décision et de responsabilité (cubes décisionnels,
tableaux de bord de l’activité consultables via l’intranet). La plus grande accessibilité et visibilité des
informations doit ainsi permettre à la fois de développer les pratiques d’auto-contrôle et d’effectuer des
synthèses au niveau central.
6. Big data et ERP, au service des décisions. Expliquez.
Le big data désigne un ensemble très volumineux de données qu’aucun outil classique de
gestion de base de données ou de gestion de l’information ne peut totalement exploiter.
Le traitement de cette masse de données numériques soulève diverses problématiques :
• une quantité considérable de données à gérer,
• des sources de données différentes,
• des performances de traitement accrues,
• une gestion efficace des données de référence.
Les outils innovants de traitement en temps réel du big data sont :
• les systèmes de stockage, comme le cloud computing,
• les solutions de BI (Business Intelligence) et Analytics performants.
L’Entreprise Resource Planning (ERP), ou Progiciel de Gestion Intégrée, désigne un système
informatique capable de gérer et de suivre au quotidien l’ensemble des informations lié aux
principaux processus opérationnels d’une entreprise comme la gestion des commandes, la
facturation, la gestion des écritures comptables, la gestion commerciale ou encore la
planification des ressources. L’ERP est une solution informatique dont le déploiement offre
plusieurs avantages
• la centralisation du stockage des données dans un seul outil,
• l’accroissement de la traçabilité des informations et des actions,
• l’augmentation de la fiabilité et de la qualité des données,
• l’amélioration de la productivité,
• la simplification du pilotage de l’entreprise grâce à la vision globale et à la fiabilité des
informations.
Le flux massif de données, le big data, est valorisé grâce à l’analyse des données pour la prise de
décision.
Pour aider les sociétés à utiliser efficacement leurs données, les ERP centralisent les informations en
assurant leur fiabilité et leur traçabilité.
16
17