Vous êtes sur la page 1sur 255

Comment répondre aux nouveaux besoins de pilotage des entreprises ?

L’auteur propose une


démarche en 7 étapes pour mettre en place les tableaux de bord du manager innovant. Cette
démarche pratique permet de bâtir un système de mesure de la performance qui remplit pleinement sa
fonction d’assistance au pilotage, dans une logique de coopération et de prise de décision en équipe.

La première partie développe une analyse critique de la mesure de la performance telle qu’elle est
pratiquée aujourd’hui. Elle apporte notamment des réponses aux questions : pourquoi la mesure de la
performance est-elle encore un outil de coercition ? Comment démasquer les mesures maquillées ?
Comment éviter les indicateurs inadaptés et donc trompeurs ?

La seconde partie détaille, exemples à l’appui, les sept étapes de la démarche pour bâtir les tableaux
de bord de l’organisation innovante : concevoir des stratégies coopératives ; identifier collectivement
les objectifs tactiques ; instaurer un climat de confiance, premier pivot de la démarche ; pratiquer la
reconnaissance, second pivot de la démarche ; sélectionner les indicateurs pertinents ; construire
l’aide à la décision ; développer la prise de décision en équipe.

Alain Fernandez est depuis plus de trente ans consultant indépendant spécialiste de la
mesure de la performance. Il conçoit pour les entreprises, en France comme à l’étranger,
des systèmes de tableaux de bord de pilotage et d’aide à la décision, en utilisant la
démarche décrite dans cet ouvrage. Enseignant et formateur, il est aussi l’auteur de
plusieurs livres de référence sur le thème du management de la performance vendus à
plusieurs milliers d’exemplaires.
Alain Fernandez

Les tableaux de bord du manager


innovant
Une démarche en 7 étapes pour faciliter la prise de décision en
équipe
Groupe Eyrolles
61, bd Saint-Germain
75240 Paris Cedex 05
www.editions-eyrolles.com

Du même auteur chez le même éditeur


L’essentiel du tableau de bord (2005, 2008, 2011, 2013, 2018)
44 astuces pour démarrer votre business (2013)
Le Chef de projet efficace (2003, 2005, 2011, 2013)
Les Nouveaux Tableaux de bord des managers (1998, 2000, 2003, 2008, 2011, 2013)
À son compte (2012)
Le Bon Usage des technologies expliqué aux managers (2001)
Les Systèmes d’information : Art et pratiques (collectif, 2002)

En application de la loi du 11 mars 1957, il est interdit de reproduire intégralement ou partiellement


le présent ouvrage, sur quelque support que ce soit, sans l’autorisation de l’Éditeur ou du Centre
Français d’exploitation du droit de copie, 20, rue des Grands Augustins, 75006 Paris.

© Groupe Eyrolles, 2018


ISBN : 978-2-212-56928-5
REMERCIEMENTS

Je tiens à remercier toutes les directions d’entreprise sans exception qui


depuis 25 ans m’ont permis d’affiner la démarche présentée au fil de ces
pages. Quels que soient leur domaine d’activité ou le type de management
pratiqué, elles ont toutes contribué à leur manière à ce livre qui synthétise
quelque part ces multiples expériences. Je remercie chaleureusement
Marguerite Cardoso, responsable éditoriale chez Eyrolles, qui entre autres, a
pris le temps de commenter méthodiquement la toute première mouture de
cet ouvrage. Je remercie aussi Clotilde de Royer qui a adroitement amélioré
le confort de lecture d’un écrit un peu trop monolithique dans sa version
initiale. Et bien sûr, je n’oublie pas dans cette courte liste de remerciements
Marie-Claude Sonzini, fidèle lectrice attentive des premières ébauches.
SOMMAIRE

Introduction
Avant-Propos

Première partie
Pourquoi le management de la performance freine l’innovation

1. Mesurer pour piloter, c’est encore de la théorie. Dans les faits,


sur le terrain, la mesure ne sert qu’au contrôle systématique des
individus… Pourquoi ?
La méfiance règne…
L’entreprise est passée de Taylor à cyber, mais on contrôle toujours
La schizophrénie des entreprises

2. Les fanatiques du contrôle systématique affichent la modeste


ambition de vouloir tout mesurer. Mais ils ne savent que
compter… et encore, uniquement ce qui est facile à compter…
Démonstration
Le reporting n’est qu’une lucarne translucide, on distingue vaguement quelques formes mais on
ne voit pas les détails
En attendant le tout-numérique
Mesurer, c’est résumer
Avec le big data, va-t-on enfin tout savoir ?
Le principe de l’analyse big data en quelques mots
Le big data nous promet monts et merveilles, mais qu’en est-il réellement ?
Quantité et qualité ne sont pas synonymes
Homo Œconomicus, le retour !
Les limites de la « chiffromanie », tout ne se compte pas…
Grandeurs qualitatives et subjectivité
De toute façon, on ne compte que ce qui est facile à compter
En complément pour enfoncer le clou : l’évaluation individuelle à l’épreuve de la réalité du
travail
3. Dominer, c’est aussi savoir manipuler l’information. Ou comment
démontrer que le verre à moitié vide est à moitié plein et vice
versa… Quelques cas typiques
Ce sont les indicateurs ! Ou comment changer la réalité en manipulant les indicateurs de
performance
Mesurer, c’est comparer
Mesurer, c’est donc évaluer
Les principales techniques de manipulation
Les indicateurs alibis
Les indicateurs artificiels
Les indicateurs insignifiants
Les indicateurs incomplets
Les indicateurs « écrans »
Les indicateurs « globaux »
Les indicateurs volontairement déséquilibrés
Les indicateurs faussement équilibrés
Leurrez votre entourage en ne choisissant pas le meilleur format d’affichage de la mesure
N’affichez que les moyennes et masquez les valeurs médianes et modales
Adoptez les pourcentages pour exprimer les progressions
Doublez, triplez, quadruplez, pourquoi pas…
Abusez sans retenue de la précision des nombres proposés
Commencez à tromper votre entourage dès la collecte d’informations
Les sondages d’opinion

4. C’est si facile de leurrer son auditoire avec les présentations


graphiques !
Les faux graphiques
Jouez avec les échelles
Et maintenant sans tricher…
Exploitez les graphiques illustrés et les infographies
Comparez l’incomparable
Profitez des outils statistiques
Seul le sens de la flèche importe
Les corrélations abusives sont un excellent outil de manipulation des esprits
Abusez de l’hystérésis
Confondez stock et flux…
… Et profitez de l’effet d’aubaine
5. La majorité des indicateurs de performance sont faux, cela dit,
quelques-uns sont utiles… Explication
Définition et principe des indicateurs de performance
L’indicateur de performance est une aide à la prise de décision
En fait, l’indicateur de performance est la clé du déploiement stratégique
Les dérives de la mesure de la performance
Les indicateurs de performance « orphelins »
Quand l’indicateur devient l’objectif
Les indicateurs de performance choisis pour leur facilité de mise en œuvre
L’objectif suivi n’est pas lié à la stratégie
Lorsque l’objectif devient une obsession de tous les instants…
… et de surcroît est totalement arbitraire…

6. Mais alors, qu’est-ce donc qu’un indicateur de performance


« utile » ?
Un indicateur n’est pas une marionnette pour ventriloque
L’indicateur unique est un mythe
Un exemple typique : l’indicateur du PIB
Il ne s’agit pas pour autant de multiplier les indicateurs inconsidérément
À moins qu’il ne s’agisse d’indicateurs « équilibrés »
Il ne s’agit pas non plus de fuir tous les indicateurs globalisés
Quelle précision choisir ? Affiche-t-on ou n’affiche-t-on pas les décimales ?
L’escroquerie des centimes
L’orbite circulaire des planètes
L’énigme de la quadrature du cercle enfin résolue
Un tableau de bord n’offre qu’une vision réductrice de la réalité

Deuxième partie
Comment y remédier : la démarche

7. Tout bien réfléchi, ce n’est pas bien compliqué : pour suivre un


indicateur de performance, encore faut-il en avoir envie…
Bâtir le système de mesure de la performance, une démarche typique
Qu’est-ce que la performance ?
La démarche
8. Tout commence (normalement) par l’élaboration d’une stratégie
raisonnable et raisonnée, et donc pertinente
Mais qu’est-ce donc que la stratégie ?
La stratégie, ce n’est pas se préparer à la guerre…
La stratégie, ce n’est pas suivre les leaders médiatiques…
Corollaire évident : la stratégie ce n’est pas copier les autres
La stratégie, ce n’est pas cocher une check-list pour ressembler au modèle idéal…
La stratégie, ce n’est pas adorer les gourous…
La stratégie, ce n’est pas une chasse gardée de la direction
La stratégie, ce n’est pas que la conception, c’est aussi le déploiement
En fait, une bonne stratégie est le fruit d’une démarche coopérative
L’analyse SWOT, un outil aussi essentiel que mal utilisé
La technologie est à notre service
Un cas pratique : le démarrage d’une SCOP
Synthèse : les avantages incommensurables d’une approche participative
Une fois la stratégie déployée… on reste aux aguets, prêts à tout bouleverser s’il le faut

9. De la stratégie aux tactiques, ou comment le choix des objectifs


de performance conditionne la réussite du déploiement
stratégique
Qui est concerné ?
La pierre d’achoppement : décliner la stratégie en objectifs de terrain
Et le management par les objectifs ?
La démarche en pratique
Qu’est-ce qu’un bon objectif de performance ?
Les six caractéristiques d’un bon objectif de performance
Le bon objectif exprime des ambitions raisonnables
Le bon objectif est univoque et explicite
Comment s’assurer que les objectifs tactiques sont bien au service de la stratégie ?
La cohérence globale : marcher sur deux jambes permet d’avancer
La sous-traitance et la chaîne de valeur globale

10. La question de la confiance, première clé de voûte de la


démarche
On ne participe pas, on s’engage…
… Mais sans confiance on ne s’engage pas
Pourquoi la question de la confiance n’est-elle pas traitée à sa juste valeur en entreprise ?
Confiance et poka-yoke
Mais alors qu’est-ce donc que la confiance ?
Pour gagner la confiance on commence par instaurer la transparence
Les limites de la transparence et donc de la confiance
(Re)découvrir les avantages d’un contrat d’engagement
Les conditions d’obtention d’un objectif

11. Mais qui dit « action » doit aussi entendre « reconnaissance »,


seconde clé de voûte de la démarche
De l’exactitude des fiches d’action découle la définition des responsabilités
Je veux bien me défoncer, encore faut-il me dire pourquoi !
Dites-moi que vous aimez ce que je fais
Mais quelle reconnaissance ?
La reconnaissance comme moteur d’un management responsable
Le principe de la carotte et du bâton est encore aujourd’hui l’instrument privilégié de la
reconnaissance en entreprise
La reconnaissance, ce n’est pas uniquement récompenser les résultats obtenus…
La reconnaissance, c’est aussi le moyen de délivrer un feedback positif…
Mais la reconnaissance, c’est surtout le moyen de montrer sa considération
Le management, c’est aussi parvenir à conjuguer les motivations personnelles de chacun avec
celles de l’entreprise
Reconnaissance de l’individu ou de l’équipe ?
Le droit à l’erreur conditionne la prise d’initiative
Et pourtant, on apprend de ses erreurs… Et parfois on innove !

12. Choisir les bons indicateurs de performance


Les critères de choix d’un bon indicateur de performance
Orienté : l’indicateur est orienté selon l’objectif choisi
Constructible : l’indicateur est relativement facile à construire
Rafraîchi : la fréquence de rafraîchissement de toutes les composantes de l’indicateur est
compatible avec le cycle de prise de décision
Coût acceptable : l’indicateur est obtenu à un coût compatible avec l’enveloppe budgétaire
Fiable : l’indicateur est fiable au sens des décideurs
Décisif : l’indicateur incite à la prise de décision
Présentation des indicateurs : Le tableau de bord
Règle numéro 1 : Limiter le nombre d’indicateurs
Règle numéro 2 : Choisir la représentation graphique la plus adéquate
Règle numéro 3 : Informer les utilisateurs
Règle numéro 4 : Éliminer le bruit
Règle numéro 5 : Équilibrer le tableau de bord
Règle numéro 6 : Élaborer les vues de détail
Règle numéro 7 : S’approprier le tableau de bord
Un peu de pragmatisme

13. Les indicateurs de performance ne sont utiles que si l’on s’en


sert pour prendre des décisions
Qu’est-ce qu’une décision ?
La démarche de progrès
L’incertitude, le risque et la décision
La décision est une prise de risque
La décision, c’est impérativement l’action
Nous sommes toujours seuls face à la décision
Quelles initiatives peut-on prendre sans risquer les coups de règle sur les doigts ?
Coordination et coopération

14. La décision en équipe


Décider en équipe, ce n’est rien d’autre que négocier pour mieux coopérer
Pour bien négocier encore faut-il disposer d’un référentiel commun… C’est là la finalité des
indicateurs et des objectifs de performance bien choisis
Des règles de cadrage pour une démarche « contractuelle »
Le guide pratique du modérateur averti
Une séance de décision en équipe se prépare à l’avance
Sans diversité de points de vue, il n’y a pas de décision efficace
La polémique est une situation normale du débat d’idées
Une question demeure toutefois : les divergences de vues visent-elles la résolution du
problème ou, plus insidieusement, s’agit-il de conflits de pouvoir ?
Convaincre, ce n’est pas expliquer plus que de raison
Avant de boucler, on réfléchit aux conséquences de la décision
Ce qui importe c’est l’adhésion, mais comment y parvenir ?
Le rôle du modérateur
Arbitrer
Synthétiser
S’abstenir
Aiguillonner
Encourager : si jamais le groupe est un peu coincé et ne démarre pas, comment le dérider ?
Conclure
Les difficultés de la modération
Absence de confiance
Se sentent-ils concernés ?
Décoder les termes du langage, les mots n’ont pas toujours la même signification
Écouter les doubles sens
L’implicite et l’explicite
L’échelle de valeur: qu’est-ce qui est normal, juste ou bien ?
Les trublions
Les manipulateurs sont là
Les paradoxes de l’expérience et les biais cognitifs
Comment devient-on un « bon » modérateur-animateur ?

15. Apprenons à mesurer quelques grandeurs qualitatives pour en


finir avec l’obscurantisme doctrinal des compteurs de petits pois
Comment passer du qualitatif au quantitatif
Échelle de Likert
Comment passer du quantitatif au qualitatif
À l’attention des plus curieux : un peu de théorie à propos des univers continu et discontinu
Indicateurs de performance et logique floue, une expérience à télécharger

Troisième partie
Pour conclure…

16. Au XXIe siècle, c’était encore des humains qui faisaient


fonctionner les entreprises. Vous savez, ces êtres dotés de
raison, de sentiments et de passions…
Ils appellent cela « Le facteur humain… »
Un système de mesure de la performance adapté pour chaque type de management
Mais alors quelles sont donc ces entreprises qui favorisent la coopération pour une meilleure
prise de décision sur le terrain ?
L’holacratie et l’entreprise dite « libérée »
La SCOP
La start-up
Et… les entreprises plus traditionnelles

Bibliographie
Index
INTRODUCTION

La mesure de la performance a été dévoyée de sa finalité d’aide au pilotage


pour ne servir qu’au contrôle systématisé. Elle est pourtant l’indispensable
catalyseur d’un mode de management qui favorise la coopération et
l’innovation.
Un management « responsable » en quelque sorte…

La course à la performance n’aura jamais été autant encensée que ces


dernières années. Élevée au rang de culte national, elle semble être
désormais l’unique planche de salut pour nos sociétés vieillissantes,
engluées dans une crise qui n’en finit pas… de finir. Chaque entreprise, ou
plus généralement chaque organisation publique ou privée en mal de
compétitivité, tente de dénicher les sources d’amélioration de la
performance globale au sein même de toutes ses activités. Le couperet bien
en main, les cost killers professionnels ou improvisés sont prêts à trancher
pour éliminer ce qui, en apparence, ne serait qu’un générateur de coûts.
Mais comme nous ne savons pas toujours très bien définir la notion de
performance, et encore moins la mesurer, on se contente de compter. Et l’on
compte à peu près tout ce qui peut être compté sans trop d’effort : des
minutes, des quantités, des euros. C’est une appréciation de la performance
incomplète. Toutes les formes de valeurs ne s’expriment pas en unités
triviales. La coopération naturelle entre les membres de l’entreprise, qu’ils
soient de la même équipe ou pas, l’indispensable partage d’informations et
des tours de main sans lesquels aucune organisation ne fonctionnerait,
restent invisibles pour celui qui ne sait pas les chercher. Pourtant, c’est avec
une grille de lecture aussi grossière que s’opèrent les réorganisations.
Toutes les activités dont la contribution à la performance globale n’est pas
nécessairement perceptible sur le bilan comptable sont éliminées sans
regret. La recherche et le développement, les actions d’amélioration du
bien-être des salariés, ou encore les actions de formation à long terme
passent ainsi à la trappe. Mais ce n’est pas là le seul effet pervers engendré
par cette vision simpliste et donc nécessairement partielle de la mesure de la
performance.
Avec les technologies de l’information, le contrôle systématique et
généralisé de l’ensemble des salariés est aujourd’hui entré encore plus
profondément dans les mœurs managériales. Maintes fois dénoncée, cette
dérive est en passe de devenir une norme de fait, tant les moyens de la
contrecarrer sont illusoires. Pratiquer ainsi la mesure de la performance
garantit la survivance d’un management de la soumission par la crainte,
vestige des débuts de l’ère industrielle où il s’agissait de transformer de
braves laboureurs en ouvriers automates. Il ne faut donc pas être surpris si
la créativité et l’innovation, tant invoquées pour un réveil de la
compétitivité, restent bloquées dans les tréfonds des cerveaux des salariés
aussi brillants soient-ils. Le management, non pas le vertueux décrit par les
gourous auteurs d’ouvrages à succès, mais bien celui actuellement pratiqué
dans les entreprises, ne laisse guère de place à l’indispensable prise
d’initiative, unique clé de l’innovation. Et ce ne sont ni les réseaux sociaux,
ni le big data, ni plus globalement le mythe de l’entreprise numérique, qui
changeront quoi que ce soit à cet état de fait. Ces principes managériaux
anachroniques sont encore foncièrement ancrés dans les modes de
fonctionnement de nombre d’organisations privées ou publiques.
Pourtant, nous ne sommes plus à l’époque où l’efficacité d’une organisation
était proportionnelle à la rigidité de ses structures et processus. La
radicalisation excessive et imposée unilatéralement, comme le suggèrent
bien des méthodes de management lorsqu’elles sont appliquées à la lettre,
est à terme contre-productive. Le « Lean management » en est l’exemple le
plus récent. D’expérience, la recherche de l’amélioration de la performance
ne peut fonctionner si l’on ne prend pas soin d’instaurer un climat de
confiance et de reconnaissance dans un esprit coopératif digne de ce nom.
Coopérer signifie que l’on décide et que l’on agit en commun, c’est-à-dire
avec l’ensemble des employés, partenaires pour l’occasion. Cette définition
ainsi formulée ne se suffit pas à elle seule. Encore faut-il la préciser
concrètement pour prendre ses distances avec les gesticulations verbales des
communicants d’entreprise. Coopérer, c’est évaluer ensemble les objectifs
possibles et opportuns, estimer les gains réciproques, et préciser les mesures
optimales balisant le progrès. Coopérer, c’est tout mettre en œuvre pour
faciliter la prise de décision sur le terrain, seule approche possible pour un
pilotage au plus près des événements, qu’il s’agisse des menaces comme
des opportunités. Encore faut-il que chacun connaisse bien le sens et la
portée de sa mission, et que celle-ci soit tout à fait en phase avec ses
possibilités et ses ambitions. C’est là la règle de la réussite d’un système de
mesure de la performance utile, utilisable et utilisé.
Enfin, pour cerner une notion aussi complexe que la performance, on ne
peut se contenter des seules grandeurs quantitatives aussi bien choisies
soient-elles. Pour mieux exprimer toute la subtilité des multiples facettes de
la notion de performance, la mesure se doit d’intégrer une juste appréciation
des grandeurs qualitatives. Ces dernières sont particulièrement délicates à
formaliser. Elles sont étroitement liées à la subjectivité de chacun. C’est
justement cet aspect qui mérite d’être développé. Pour y parvenir, il est
grand temps de changer de paradigme et de remplacer le mode de
management autoritaire, fondé sur un contrôle systématique permanent, par
un management responsable et émancipateur des individualités, véritable
terreau de l’innovation collective.
Au fil de cet ouvrage, nous étudierons le lien étroit entre le management et
la mesure de la performance, avant de proposer une démarche de
conception facilitant le pilotage et la prise de décision en équipe.
Au cours de la première partie, nous adopterons un indispensable regard
critique, afin de donner une explication aux dérives de la mesure de la
performance vécues au quotidien par les femmes et les hommes de
l’entreprise. Nous consacrerons ensuite le temps nécessaire pour passer en
revue les principaux types de manipulations des mesures afin de mieux les
déjouer. Puis, nous poursuivrons par l’étude des cas les plus courants de
mésusage des indicateurs de performance en entreprise.
Au cours de la deuxième partie, nous développerons chacune des phases
d’une démarche pratique pour bâtir un système de mesure de la
performance qui remplit pleinement sa fonction d’assistance au pilotage, de
la stratégie aux indicateurs de performance, en passant par le choix délicat
des objectifs tactiques dans une logique de coopération. Piloter, c’est
prendre des décisions. Nous étudierons une méthode pour faciliter la prise
de décision en équipe. Enfin, nous ébaucherons quelques techniques
simples pour intégrer les mesures qualitatives dans notre système de mesure
de la performance et d’aide au pilotage.
Enfin, la troisième et dernière partie conclut cette étude en proposant un
outil pratique pour mieux comprendre le mode de management pratiqué au
sein des entreprises, et choisir ainsi le système de mesure de la performance
et de pilotage le plus adéquat.
Site associé : www.piloter.org
AVANT-PROPOS

Il est désormais notoire que le développement de l’esprit d’innovation en


entreprise ne se fera pas sans adopter de nouveaux modèles organisationnels
plus flexibles et plus réactifs. Ces nouveaux modèles sont fondés sur une
délégation étendue du pouvoir de décision auprès des équipes
opérationnelles. Plus autonomes, les femmes et les hommes de l’entreprise
prennent alors les décisions d’orientation qui s’imposent, sans être
contraints d’en référer systématiquement à une hiérarchie loin des réalités
du terrain. Encore faut-il que chaque équipe dispose d’un système de
mesure de la performance et d’aide au pilotage en parfaite adéquation avec
les exigences du poste de travail, la stratégie poursuivie et les aspirations de
chacun. Cette dernière phrase révèle en substance la mutation à
entreprendre pour bâtir les tableaux de bord d’un management innovant. Ce
ne sera sûrement pas en recopiant des exemples de tableaux de bord types
de la profession proposés « prêts à l’emploi » sans aucun lien avec le
contexte précis de l’organisation. Un indicateur de performance oriente les
décisions. C’est là son rôle. Son choix ne peut être arbitraire. La sélection
de chaque indicateur doit être le fruit d’un processus précis qui tend à
orienter dans le sens de la stratégie choisie les décisions effectivement
prises. C’est ce processus que nous allons étudier dans ce livre et nous
bâtirons concrètement les tableaux de bord qui favorisent la prise de
décision en équipe, véritable terreau de l’innovation en entreprise.
PREMIÈRE PARTIE

POURQUOI LE MANAGEMENT DE LA
PERFORMANCE FREINE L’INNOVATION

Où l’on comprend les origines d’un management pris au piège de la


frénésie du contrôle systématique et de ses dérives pernicieuses.
Nous étudierons alors le moyen de déjouer les mesures fallacieuses et
d’esquiver les indicateurs farfelus.
1.

Mesurer pour piloter, c’est encore de la


théorie. Dans les faits, sur le terrain, la
mesure ne sert qu’au contrôle systématique
des individus… Pourquoi ?

Le paradoxe du management moderne :


systématiser le contrôle
pour s’assurer d’aucun écart à la règle,
et s’étonner ensuite du manque d’initiative…

Depuis déjà bien des années, les auteurs de management « mainstream »


vantent à juste titre l’importance d’une mesure efficace de la performance
pour conduire une démarche de progrès stratégique. Dans son principe, le
schéma est simple et logique. Une fois la stratégie soigneusement
formalisée, elle est déclinée au sein de l’entreprise afin que chaque salarié
contribue au progrès ainsi défini. En fait, ce sont les femmes et les hommes
de l’entreprise qui portent la stratégie et agissent en conséquence pour la
rendre réalisable. Chacune et chacun, à son niveau et dans son métier, se
doit d’atteindre des objectifs réalistes et précis, en parfaite cohérence avec
la stratégie poursuivie. Pour prendre les bonnes décisions de terrain, il est
donc impératif que chaque manager, que chaque équipe, dispose d’un
instrument de mesure de la performance adapté.
En résumé, la mesure de la performance n’a donc d’autre but que celui de
guider la mise en œuvre d’une stratégie et de faciliter la prise de décision de
l’ensemble des acteurs de l’entreprise. Tout cela est parfaitement clair
aujourd’hui.
En théorie.
Parce qu’en pratique, c’est tout à fait autre chose que l’on trouve sur le
terrain. Le principe de mesure est totalement détourné de sa mission initiale.
Les évaluations individuelles à répétition, les objectifs flous, les stratégies
jalousement tenues secrètes par la direction, les reportings répétitifs et
fastidieux aux finalités incompréhensibles pour ceux qui doivent les
produire, sont le quotidien des salariés de la très large majorité des
organisations privées ou publiques aujourd’hui. Pourquoi ? Tout
simplement pour mieux les contrôler. Collecter un maximum d’information
confère l’impression d’être à même de tout surveiller et de s’assurer que
tout sera exécuté selon les règles prescrites. Bref, la méfiance règne. Pour
une large majorité d’entreprises, il n’est pas question de déléguer un
quelconque pouvoir de décision, et donc d’initiative, sans un contrôle de
tous les instants. C’est la principale raison de cette multiplication des
mesures déployées tous azimuts sans pour autant être nécessairement reliée
à une stratégie bien définie.

La méfiance règne…
Depuis les débuts de l’industrialisation, l’humain a toujours été considéré
comme la partie subsidiaire du processus. On aimerait bien s’en passer,
mais ce n’est pas possible, donc il faut faire avec. En revanche, il faut
s’assurer que les salariés ne s’approprient pas un espace de pouvoir non
prévu par les strictes nécessités de la tâche allouée. Frederick Winslow
Taylor, initiateur de l’organisation scientifique du travail, n’avait guère
d’autres ambitions. Il affichait ouvertement son manque total de confiance
envers les employés qui, d’après lui, cherchaient toujours le moyen d’en
faire le moins possible.

La citation qui interpelle


« Si un ouvrier américain joue au base-ball ou un Anglais au cricket, il emploie toutes
ses facultés pour assurer la victoire à son camp et gagner le plus grand nombre
possible de points (…) Quand ce même ouvrier retourne à l’usine le lendemain, loin
de s’efforcer de travailler de son mieux, il s’arrange le plus souvent, pour faire
délibérément le moins de travail possible. »
FREDERICK W. TAYLOR (1856-1915)1.
Sous prétexte d’améliorer les processus de production, Taylor s’est efforcé
de capter la connaissance des professionnels afin de les priver d’un pouvoir
jugé inacceptable par la direction des entreprises. Avant qu’il impose ses
lois d’organisation industrielle, un mécanicien tourneur par exemple,
définissait lui-même la méthode à employer et le temps nécessaire pour
réaliser une pièce précise. Il disposait d’un pouvoir sur les temps, les modes
de réalisation et donc sur les coûts. La direction était bien contrainte de se
soumettre. Pour Taylor, la solution était simple. Il suffisait de s’approprier
la connaissance détenue par les professionnels de terrain en charge de
l’exécution proprement dite. Une fois les connaissances liées à un métier
donné formalisées par le bureau des méthodes, il est alors aisé de diviser le
métier en tâches suffisamment élémentaires pour être exécutées par des
salariés ne disposant d’aucune compétence particulière. Ces derniers sont
dépourvus du pouvoir de résistance que confère la parfaite maîtrise de son
métier. Ils ne peuvent donc rechigner à subir la pression des chronométreurs
et autres contrôleurs. La division du travail était née. Ceux qui ont la
maîtrise des techniques de production ne sont pas ceux qui sont tenus de les
appliquer, les bras sont isolés des cerveaux. Il suffisait ensuite que Henry
Ford récupère l’idée pour généraliser le travail à la chaîne et « inventer » les
premiers processus2.
On pourrait penser que dans l’entreprise moderne, le taylorisme tout comme
le fordisme ne sont plus d’actualité. Il faudrait pour cela faire abstraction de
toutes les entreprises industrielles qui appliquent le Lean management sans
l’avoir vraiment compris et avec plus ou moins de succès, ou encore toutes
celles qui, comme Amazon, dépendent de la performance de la logistique.

La citation qui interpelle


« Les salariés et leur production sont observés en temps réel. Leurs temps de travail
et de pause sont encadrés à la minute près. Au “pack”, où l’on emballe les petits
articles, l’objectif est récemment passé de 110 à 115 colis par heure. “Beaucoup
faisaient un geste inutile en attrapant le carton avec la main droite, explique Ronan
Bolé, directeur du site. En utilisant la gauche, ils évitent une torsion du buste et
gagnent en productivité.” »
LE MONDE, « DANS LES ENTREPÔTS,
LA FOLLE CADENCE DES OUVRIERS DE LA LOGISTIQUE », 7 JUIN 2016.
Cela dit, il est vrai que nous ne sommes plus exactement dans la même
dimension. Il ne s’agit plus de transformer de braves laboureurs en ouvriers
à la chaîne, comme ce fut le cas durant toute la première moitié du XXe
siècle.

Et aujourd’hui ?
On prône l’autonomisation et la prise de responsabilités. Pour faire face à la
complexification des métiers et à l’incertitude des marchés, il n’existe guère d’autres
solutions que de se reposer sur la capacité des femmes et des hommes à affronter de
telles situations.

L’entreprise est passée de Taylor à cyber, mais on contrôle


toujours
Une organisation actuelle ne peut fonctionner sans déléguer aux
opérationnels sur le terrain quelques bribes de pouvoir et une bonne dose de
responsabilité afin qu’ils puissent prendre les indispensables décisions ad
hoc le plus rapidement possible. Nous avons rapidement évoqué le modèle
taylorien pour bien préciser notre héritage. Le management s’inspire
d’avantage aujourd’hui d’un modèle de type cybernétique que taylorien.
Les opérationnels sont qualifiés et compétents. Ils ont reçu la formation
adéquate et connaissent suffisamment bien leur métier pour accomplir la
tâche qui leur est dévolue dans les règles de l’art. La mesure agit alors
comme la boucle de contreréaction afin de réguler le « système » sous
pilotage dans un pur principe d’autocontrôle.
Les opérationnels (« Pilote ») exploitent directement la mesure de la
performance (« Mesure ») afin de réguler eux-mêmes l’activité sous
contrôle (« Système ») et parvenir ainsi à l’objectif fixé (« Consigne »)
(figure 1).
Figure 1 : Modèle théorique de pilotage d’un système3

Figure 2 : Modèle de pilotage d’un système décliné dans l’entreprise

La figure 2 décline plus précisément ce modèle théorique au sein de


l’entreprise. Les membres de l’équipe connaissent l’objectif. Ils possèdent
les qualifications et les compétences pour piloter l’activité malgré les
inévitables aléas qui perturbent la bonne marche du système global. Ils
disposent d’un instrument de mesure précis, un tableau de bord donc, afin
de prendre les bonnes décisions pour atteindre le résultat le plus conforme
aux attentes. Les « pilotes » en charge de l’activité ne sont pas isolés. Ils se
coordonnent mutuellement et directement avec les autres responsables
d’activité du même processus ou des processus connexes, sans être
contraints de passer par la hiérarchie (figure 3). Ils bénéficient donc d’une
délégation de responsabilité et de pouvoir décisionnel suffisante pour
accomplir leur mission. En principe, seul le résultat importe.
Figure 3 Modèle de pilotage de terrain, schéma de principe

En résumé
Ce modèle d’efficacité, multipliant les centres de décision au plus près du terrain, est par
définition le mieux adapté aux exigences actuelles d’organisation flexible et réactive en
environnement complexe et incertain. Il répond aussi aux aspirations des salariés qui
ont soif de responsabilité, d’une hiérarchie allégée et de relations horizontales plus
aisées.

Mais malheureusement, pour encore bon nombre d’organisations publiques


ou privées, ce modèle vertueux, c’est (encore) de la théorie4.
Dans la vraie vie de l’entreprise, comme nous l’avons constaté à la section
précédente, la méfiance règne, même dans un modèle « cybernétique ». Les
dirigeants de l’exécutif souhaitent s’assurer qu’ils conservent malgré tout le
contrôle sur les opérationnels. À quelques exceptions près, les entreprises et
les organisations publiques ont conservé l’état d’esprit de l’époque
taylorienne et son organisation scientifique. Elles se méfient de leurs
salariés, et cherchent par tous les moyens à cadrer l’action des
professionnels à l’aide de normes rigoureuses, d’outils de gestion
contraignants et de mesures systématiques. Elles collectent donc un
maximum d’informations pour s’assurer notamment que les procédures sont
bien suivies, espérant ainsi qu’au final les résultats seront nécessairement
tels qu’attendus (figure 4). Elles ne prennent pas le risque de laisser la totale
autonomie aux acteurs de terrain. D’ailleurs, si ces derniers sont
régulièrement contrôlés, ils n’ont pas non plus le choix des moyens pour
réaliser au mieux leur tâche. Ce ne sont que des délégations sur le papier.
Nous sommes donc toujours dans une division du travail entre les exécutifs
qui définissent les buts et attendent les résultats, les gestionnaires qui fixent
et vérifient les modes de travail, et les opérationnels qui réalisent et créent
donc la valeur.

Figure 4 : La réalité du pilotage de terrain en entreprise

Et aujourd’hui ?
Comme le note Vineet Nayar auteur de Les Employés d’abord, les clients ensuite5,
ceux qui créent la valeur rendent des comptes à ceux qui n’en créent pas. Là est le
paradoxe de la dérive bureaucratique des entreprises actuelles.
Avec la course à la rentabilité maximale que l’on nomme par euphémisme
« l’efficacité », le pouvoir des gestionnaires est sérieusement renforcé aux
dépens des opérationnels. Le succès de l’entreprise semble aussi passer par
une automatisation et une standardisation absolues. Au cours des dernières
décennies, les outils de gestion informatisés se sont généralisés et
systématisés. Dotée du pouvoir d’imposer le rythme et les modes de travail,
cette gestion instrumentalisée joue un rôle de premier plan toujours plus
contraignant6.

La schizophrénie des entreprises


Vue de l’extérieur, le management de l’entreprise actuelle semble plutôt
paradoxal. D’un côté, on incite les salariés à faire preuve d’initiative et d’un
autre côté, on les assujettit au carcan des normes et procédures. On rêve
d’innovation comme seule démarche de progrès, et on limite les
prérogatives des acteurs de terrain7. On cherche à stimuler la participation,
mais on fixe unilatéralement les objectifs des salariés. On sait que la
coopération est la seule voie de succès dans un monde complexe, et l’on
maintient fermement la division du travail à l’aide d’évaluation de la
performance individuelle. De plus, toutes les suggestions effleurant le
thème de la stratégie sont considérées comme crime de lèse-majesté.

Et aujourd’hui ?
La stratégie est et restera la chasse gardée de la direction. C’est un résumé sans
concession, mais qui reflète bien le comportement totalement schizophrénique d’une
large majorité d’entreprises contemporaines.

Poursuivons cette approche critique en traitant maintenant les dérives de la


mesure dans l’entreprise. C’est le sujet des trois prochains chapitres.
• l’illusion qu’il suffit de tout mesurer pour tout maîtriser ;
• la manipulation des mesures pour justifier l’injustifiable ;
• l’inutilité et le côté trompeur de nombre d’indicateurs dits de performance.
1 « Principe d’organisation scientifique des usines », publié par H. Dunod et E. Pinat Éditeurs,
préface de Henry Le Chatelier, 1912.
2 Bon, ce n’est pas tout à fait vrai. Henry Ford s’est en fait inspiré des abattoirs de Chicago qui
pratiquaient déjà la division du travail et l’organisation des travailleurs en poste fixe devant une
chaîne en mouvement. Ce principe est bien décrit dans le roman La Jungle de Upton Sinclair, Le
Livre de Poche, 2011.
3 Extrait de Les Nouveaux Tableaux de bord des managers, Alain Fernandez, Eyrolles, 6e édition
2013.
4 Bien évidemment, toutes les entreprises ne se comportent pas ainsi. Cette première partie est une
indispensable critique pour bien comprendre ce qu’il faut éviter dans les principes de mesure de
la performance. Au cours de la seconde partie, nous nous appuierons sur les modèles
organisationnels et managériaux des entreprises (bien trop rares) qui ont profité justement de
cette intelligence collective, offerte par les organisations autorégulées, pour bâtir le système
d’aide à la décision pour tous.
5 Vineet Nayar, Les Employés d’abord, les clients ensuite, Diateino, 2011.
6 Les Enterprise Resource Planning (ERP), traduit en français par « progiciel de gestion intégrée »
(PGI) sont un bon exemple de l’emprise de la technologie sur les modes de fonctionnement de
l’entreprise. Les ERP, outils particulièrement complexes, ont plus pour vocation d’imposer un
fonctionnement organisationnel standardisé que de fluidifier les processus existants sans
dénaturer l’entreprise. La mise en place (souvent pénible) d’un tel « bazar », comme disent nos
amis belges, se traduit toujours par une avalanche de nouvelles contraintes pour les
opérationnels.
7 On ne compte plus les entreprises qui profitent, voire abusent, du droit de contrôle des salariés et
limitent l’accès aux réseaux sociaux, surveillent les mails et les pages Web visitées ou encore
pistent les déplacements des salariés.
francetvinfo.fr Sanofi : « Des employés pistés à l’aide de puces » (15-04-2016).
2.

Les fanatiques du contrôle systématique


affichent la modeste ambition de vouloir tout
mesurer. Mais ils ne savent que compter… et
encore, uniquement ce qui est facile à
compter… Démonstration

Chaque homme prend les limites de son champ de vision


pour les limites du monde.

ARTHUR SCHOPENHAUER (1788-1860), PHILOSOPHE ALLEMAND.

C’est pour le big data !

Témoignage de Mario, ingénieur dans une société de services


informatiques
« Dans ma boîte, on est passé à un mode de fonctionnement de type “Lean start-up”,
dixit la direction, et nous sommes désormais organisés en équipes autonomes et
responsables. Il faut tout mettre en œuvre pour satisfaire nos clients, nous dit-on, ils ont
soif d’innovations. Nous en sommes convaincus, aucun doute à ce sujet. Mais si nous
n’avons plus de manager direct, nous perdons beaucoup de temps à préparer des
reportings. Je me suis plaint de cet état de fait lors de mon évaluation :
Pourquoi toujours autant de reportings ?
Vous travaillez tous en mode business unit en contact direct avec les clients. C’est
une grande responsabilité. Il faut bien qu’au siège nous puissions suivre de près
comment cela se passe au sein même de chaque activité.
Mais, on perd du temps à collecter et à mettre en forme toutes ces données. Nous
sommes déjà sous pression avec toujours de nouveaux projets, de nouvelles
procédures à intégrer, et on n’a pas le temps de faire notre travail correctement.
Je veux bien croire que certaines informations peuvent vous sembler inutiles ou
insignifiantes, mais sachez qu’elles nourrissent le big data. Plus il y a
d’informations, plus nos algorithmes d’optimisation sont performants. C’est ainsi
que l’on découvre des opportunités cachées, que l’on prend l’avantage sur la
concurrence, que l’on perfectionne les méthodes de travail. Vous, votre rôle, c’est
de suivre les indicateurs de performance afin de toujours satisfaire vos clients,
ceux qui sont sous la responsabilité de votre business unit.
Effectivement, je suis d’accord, mais il nous faut toujours aller plus vite et les
objectifs de performance changent tout le temps, on n’y comprend rien et je ne suis
même pas sûr de leur rôle stratégique.
Vous n’êtes pas sans savoir que nous vivons dans un environnement
hyperconcurrentiel. Les bons clients sont rares, il faut savoir les attirer et les
conserver. C’est pour cela que les objectifs évoluent ! Ne vous inquiétez pas, ils
sont choisis avec soin. Et quant à leur rôle stratégique, c’est de la responsabilité de
la direction générale. Votre rôle à vous consiste à atteindre, voire à dépasser, les
objectifs qui vous sont assignés.
J’ai l’impression que vous êtes encore un peu ancré dans le passé, et que vous ne
comprenez pas le changement. L’esprit start-up, c’est innover, c’est prendre plaisir
à créer, c’est le stress positif qui vous stimule pour aller vite, toujours plus vite !
C’est aussi une compétition, ne nous le cachons pas. Vous êtes en compétition
avec les autres business units, c’est juste. Mais nous participons tous quelque part
à la même aventure.
Nous nous reverrons dans trois mois, et nous aviserons alors si notre coopération
est réellement viable. Je sais que vous avez des capacités. Je vous conseille de
vous impliquer un peu plus, et de développer au sein même de l’entreprise votre
potentiel de passion. Faites donc comme vos collègues, soyez motivé et prenez
plaisir à construire notre projet. C’est cela que l’on attend de vous. C’est aussi cela
qu’attendent vos clients. J’ai vos chiffres sous les yeux, si vous ne vous motivez
pas un peu plus, j’ai bien peur que vous n’atteigniez pas vos objectifs. »

Fin de l’entretien.
Bref, business as usual. Pour conclure, j’aurais peut-être dû effectivement faire comme
les collègues, fermer ma grande gueule et reporter ma colère sur les miens, sur mes
voisins, sur mon chien, ou tout garder en moi quitte à développer les pathologies du
stress… « Have fun » qu’ils nous disent…

Commentaire
L’importance prise par la loi du chiffre dans la société actuelle conduit irrémédiablement
à une occultation de la notion de compétence, de l’expertise du professionnel et du sens
du travail bien fait. Chacun se doit de devenir individuellement un centre de profit dont la
valeur ajoutée est directement perceptible en espèces sonnantes et trébuchantes. Les
cost killers occupent le terrain, et les « normalisateurs », trop loin des réalités du terrain
pour les comprendre, disposent d’un pouvoir absolu pour imposer des modes de travail
standardisés. C’est là toute la difficulté du salarié pris au piège comme dans un étau
entre des règles imposées aussi rigoureuses qu’inadaptées, des objectifs trop flous, des
indicateurs astreignants et la nécessité d’accomplir la tâche dévolue dans les meilleures
conditions1. Dans cette entreprise, comme dans bien d’autres, la mesure semble avoir
pris le pas sur toutes les autres préoccupations.
Le reporting n’est qu’une lucarne translucide, on
distingue vaguement quelques formes mais on
ne voit pas les détails
Le processus de reporting empêche
60 % des acteurs de la finance de dormir.

ENQUÊTE TAGETIK, FÉVRIER 20172

La collecte de « contrôle » repose essentiellement sur les reportings, ces


comptes rendus que remplissent à échéances fixes la majorité des managers
et responsables d’une activité. Ces reportings ne sont pas toujours remplis
avec la méticulosité qui serait nécessaire pour que l’on puisse en extraire un
quelconque enseignement. Pressés par le temps et par la culture du résultat,
des managers se laissent tenter par des « corrections » des mesures, sachant
bien que ces « rectifications » des nombres seront noyées parmi bien
d’autres mesures une fois parvenues à destination. Enfin, le fonctionnement
d’une activité ne peut pas s’exprimer aussi simplement par quelques ratios,
aussi judicieusement choisis soient-ils. De toute façon, ils ont toutes les
chances d’être ensuite amalgamés avec d’autres mesures jugées de la même
famille. « Le diable est dans les détails », dit-on. Mais le détail est alors
invisible, et on ne verra ni le diable, ni sa queue, ni le signe avant-coureur
d’une menace, que ce soit la fin de vie d’un produit ou la perte d’un gros
client, pas plus que l’opportunité qui s’annonce toujours par des signaux
faibles. L’information est aussi et surtout dans le détail. Lisser une
irrégularité, c’est peut-être effacer un signal faible bien utile à une veille
active.

Le reporting, à quoi ça sert ?

Le reporting vu par l’un de ses fervents soutiens, contrôleur


de gestion de métier
Une fois collectés, vous en faites quoi des reportings ?
Ce qu’on en fait ensuite des reportings ? Eh bien, on les analyse, on les
« agglomérise », on les « amalgamise », on les synthétise, on les « bigdatamise »,
bref, on les pressurise afin d’en extraire la substantifique moelle, celle qui nous
indiquera comment améliorer notre efficacité pour vaincre nos concurrents et
satisfaire nos clients.
C’est aussi un moyen de contrôle de l’activité des managers et des équipes, non ?
Évidemment, chez nous, on ne veut que les meilleurs, ceux qui en veulent, ceux
qui ont la niaque, ceux qui ne comptent pas leurs heures, ceux qui n’ont que le
client en ligne de mire.
Et avec les reportings, vous voyez tout cela ?
Bien sûr, il suffit de bien les analyser, et on sait absolument tout !
Et connaissez-vous le pourcentage d’erreurs dans vos reportings ?
???
On sait que le reporting est un véritable cauchemar des managers opérationnels.
Ceux qui n’ont pas le temps les font un peu à l’estimation. Il y a aussi tous ceux qui
enjolivent un tant soit peu les résultats afin qu’ils soient un peu plus conformes aux
attentes de la direction…
À mon avis, ces dérives sont encore très minimes. De toute façon, avec le
développement du tout-numérique, on finira par tout connecter directement, il n’y
aura pratiquement plus de saisies humaines, donc le risque d’erreurs sera proche
du zéro absolu.

En attendant le tout-numérique
Cet échange a réellement eu lieu, pas tout à fait en ces termes mais en
substance, le sens du propos est bien respecté. Cela dit, ce contrôleur de
gestion n’a pas tout à fait tort. Les outils de production, machines,
ordinateurs, tablettes et smartphones sont déjà connectés. D’ici peu, on
finira par connecter et centraliser tous les objets. Les puces RFID (Radio
Frequency IDentification ou la lecture d’étiquettes à distance) sont déjà là et
l’Internet des Objets (IdO)3 se déploie à vitesse grandissante. Les rapports
seront donc tous générés automatiquement afin de tenter de tout chiffrer
avec un taux d’intervention humaine quasi nul. Comme nous l’avons déjà
brièvement évoqué, dans le monde de l’entreprise, nous sommes entrés
depuis déjà quelques décennies dans un modèle managérial de type
cybernétique.
Le modèle cybernétique qui pêchait jusqu’alors par le manque de fiabilité
de sa boucle de rétroaction atteindrait ainsi son apogée pour servir au mieux
l’amélioration continue de la productivité. C’est bien par l’avènement de ce
modèle parfait au sens de ses concepteurs que l’on s’autorise aujourd’hui à
imaginer remplacer l’humain par des robots pour une large majorité de
fonctions. C’est une pure fiction. Les promoteurs de ces prospectives n’ont
vraiment aucune idée de la réalité du travail sur le terrain, des ajustements
des procédures que chaque acteur réalise au quotidien, des indispensables
décisions ad hoc prises au pied levé, sans lesquelles toutes les tâches un peu
complexes, et elles le sont pratiquement toutes aujourd’hui, seraient
impossibles à réaliser.
L’idée derrière tout cela est particulièrement claire : diminuer encore et plus
les coûts en réduisant l’exigence de compétences par un recours
systématique à la technologie. C’est aussi cela l’objectif du tout-numérique.
En tout cas, pour le moment et selon l’enquête Tagetik citée en exergue de
ce paragraphe, 95 % des répondants utilisent Microsoft Excel pour rédiger
leurs rapports toujours plus chronophages. Les directions sont en effet
friandes d’annotations pour expliquer les chiffres transmis. On les
comprend !

Mesurer, c’est résumer


On ne peut mesurer que ce qui est unidimensionnel.

ALBERT JACQUARD (1925-2013), CHERCHEUR ET ESSAYISTE.

Parfois, les anagrammes révèlent bien plus que l’on ne pourrait le supposer.
« Résumer » est la parfaite anagramme de « Mesurer », et cela tombe bien,
une mesure est toujours réductrice. Aussi bien choisie soit-elle, elle ne
présente qu’une seule dimension d’un objet, d’un phénomène ou d’une
activité. Cette information est utile lorsqu’elle est judicieusement choisie et
étalonnée en étroite relation avec l’objectif poursuivi. Elle apporte alors une
information essentielle sur le déroulement des actions engagées, et offre
ainsi une précieuse aide à la décision. Sortie de ce contexte, son utilité est
plus que limitée. Dans bien des cas, elle est même trompeuse. Une mesure
peut être un indicateur de performance pour celui qui l’a sélectionnée. Il
vise un objectif bien précis, et un seul aspect de l’activité sous contrôle
l’intéresse. Cette mesure ne reflète en rien une imaginaire performance
globale de l’activité ou du processus, si tant est qu’elle puisse exister. Il est
inutile, voire parfois néfaste, de la collecter pour tenter de l’intégrer dans
quelque chose de plus général, loin des préoccupations de ceux qui
l’utilisent au quotidien.

Exemple : le cas des fusions d’entreprises


De nombreuses données issues de chacune des deux entreprises rapprochées portent
un même libellé sans pour autant se référer à la même entité. Il existe de multiples
façons de calculer un chiffre d’affaires, un coût de revient ou un coût de production. Les
consolider sans prendre la précaution de vérifier les modes de calcul est plutôt risqué.
Pourtant bien des entreprises procèdent innocemment ainsi, et ne découvrent que trop
tardivement ces différences de calcul qui faussent les résultats et donc les
appréciations.

Pour généraliser, les données de l’entreprise ne peuvent ainsi être prélevées


en faisant fi des consignes et recommandations que pourrait préciser celui
qui les génère ou les utilise régulièrement. Les collectes aveugles et
systématiques introduisent ainsi dans les systèmes décisionnels des données
jugées comme standards alors qu’elles ne le sont pas. C’est une source
d’erreurs récurrentes en entreprise. Quoi qu’il en soit, erreur ou pas erreur,
il est de toute façon impossible d’interpréter le sens profond des
informations si l’on n’est pas concerné au premier plan par lesdites
informations. Sans l’expertise de celui qui les utilise au quotidien, on ne
peut que constater les variations avec la période précédente. La collecte
systématique des mesures est aussi un appauvrissement de la connaissance.
On peut généraliser cette remarque à bien des mesures de l’entreprise
collectées sans discernement. L’utilisateur averti connaît et assume les
limites de la mesure qu’il a sélectionnée pour ses besoins propres.

Quand petit arrangement rime avec falsification


Un responsable data warehouse en charge de la collecte des données devait fournir
mensuellement un état précis des résultats des multiples succursales. C’était là sa
mission. Mais plusieurs de ces succursales étaient un peu laxistes pour fournir les
renseignements demandés, jugeant, on imagine, cette quête périodique pour le moins
fastidieuse. Malgré les relances, elles ne transmettaient pas en temps et en heure les
reportings attendus. Ce responsable pris entre deux feux avait donc choisi la solution la
plus simple. Il estimait au jugé les résultats des succursales retardataires et les publiait.
Ensuite, lorsque les reportings demandés lui parvenaient, il les modifiait pour
correspondre à ses estimations. La supercherie a fonctionné durant de longs mois
jusqu’au jour où une série de ventes exceptionnelles opérées par une filiale étrangère
est totalement passée inaperçue, et pour cause4…

L’aberration actuelle consiste à s’imaginer qu’il suffirait de cumuler des


mesures non étalonnées et des données non vérifiées pour embrasser
l’ensemble de la connaissance d’une activité, d’un processus, d’une
entreprise… Passer de la mesure à la démesure donc. Le big data, c’est un
peu cela qu’il nous promet.

Avec le big data, va-t-on enfin tout savoir ?


Les chiffres sont des êtres fragiles qui, à force d’être torturés,
finissent par avouer tout ce qu’on veut leur faire dire.

ALFRED SAUVY (1898-1990),


ÉCONOMISTE ET DÉMOGRAPHE FRANÇAIS.

Le big data désigne un ensemble d’outils technologiques et de méthodes


pour traiter de très grandes quantités de données afin d’établir des modèles
originaux. Ces nouveaux modèles sont censés nous offrir une vision plus
fine de la réalité afin que nous puissions prendre des décisions plus
pertinentes. Le big data, c’est la possibilité de stocker un très grand nombre
de données de type non structuré, c’est-à-dire des données qui ne sont pas
nécessairement formatées pour être incluses au sein des traditionnelles
bases de données relationnelles organisées en colonnes. Le big data, c’est
aussi le moyen de procéder à des analyses sur de très grandes quantités de
données inconcevables jusqu’à présent. Le big data, sur le plan
technologique, est une avancée spectaculaire. Il réforme en profondeur la
notion de traitement parallèle, tout comme les règles du stockage des
données pour favoriser la vitesse de traitement. Maintenant que les limites à
la capacité de stockage et de traitement ont été pulvérisées, il n’y a plus
vraiment de restriction à l’exploitation de l’Internet des Objets.

Et aujourd’hui ?
Avec le big data, nous sommes prêts, technologiquement parlant, pour l’entrée dans
un monde ultraconnecté où tout est identifié, pisté et mémorisé pour des analyses
toujours plus pointues.

Le principe de l’analyse big data en quelques mots


Les statisticiens partent d’hypothèses et tentent de les vérifier par l’analyse
des données. Ils travaillent sur un échantillon, et extrapolent ensuite à une
population plus large afin d’en tirer des conclusions d’intérêt. Avec le big
data, la modélisation beaucoup plus complexe profite des outils
technologiques pour extraire du « sens » directement en travaillant sur une
très large population. Les algorithmes d’autoapprentissage sont de précieux
outils pour tester un grand nombre de schémas avant d’identifier un réseau
de relations significatif susceptible d’être utile à la prise de décision selon le
thème de recherche. Seul le résultat compte, il est quasi impossible de
disséquer le mécanisme ayant conduit au résultat. Le raisonnement est au
cœur d’une boîte noire. Personne ne vous expliquera pourquoi les voitures
de couleur orange du marché de l’occasion sont plus fiables que leurs
équivalentes d’une autre couleur5.

Le big data nous promet monts et merveilles, mais qu’en est-


il réellement ?
Là encore nous pouvons jouer avec les anagrammes. L’anagramme de
« Promet », verbe du titre de ce paragraphe, est « Trompe ». Sans chercher à
(trop) renier les avantages du big data, il faut bien admettre que les
promoteurs, en chasse d’une nouvelle vache à lait pour l’industrie
informatique, n’hésitent pas à force de légendes et de contes fantastiques à
parer la « belle » des plus beaux atours. Avec le big data, nous entrons de
plain-pied dans le monde du merveilleux et donc de l’invraisemblable.
C’est l’oracle qui répondrait aux questions avant qu’on ne les pose. Et plus
on le nourrira de données, et plus il nous apportera de réponses à des
questions dont on ne se doute même pas de l’existence. Ainsi, grâce à la
modélisation, on découvre de surprenantes corrélations qui seraient, en
théorie, riches de sens. Nous venons de citer la curieuse relation de cause à
effet entre la couleur d’une voiture et sa fiabilité. Le big data nous enseigne
aussi que les femmes à la poitrine avantageuse dépensent plus en ligne6. Ou
encore, que ceux qui remplissent leurs demandes de prêt en majuscules font
plus défaut que ceux qui utilisent correctement majuscules et minuscules7.
Le big data aurait aussi révélé qu’une jeune fille était enceinte uniquement
en étudiant ses achats8. Durant un temps, Google se faisait fort d’annoncer
les épidémies de grippe avant qu’elles ne soient perceptibles par les moyens
plus classiques. Après quelques fausses alertes, ils ont préféré refréner leurs
prétentions à la divination9.

Contre-performance du big data


Durant la campagne de l’élection présidentielle française 2017, sous prétexte d’avoir
prévu la victoire de Donald Trump, le big data, ou en tout cas les sociétés l’exploitant, se
faisait fort d’être un bien meilleur oracle que les traditionnels sondages d’opinion. À l’aide
d’intelligence artificielle et d’exploitation des tendances discernables sur le Web et les
réseaux sociaux, ces sociétés « high-tech » prévoyaient un résultat du premier tour
radicalement différent de celui proposé par les instituts de sondages. Finalement, ce
sont ces derniers qui ont vu juste et ont gagné haut la main le duel des prédictions.
Aucune prévision du big data ne s’est réalisée10.

Dès 2008, Chris Anderson, médiatique rédacteur en chef de la revue Wired


à cette époque, avait annoncé rien de moins que « la fin de la théorie » dans
un article éponyme qui secoua la communauté scientifique11. Selon l’auteur,
avec le big data, on pouvait pratiquement oublier le célèbre adage :
« Corrélation n’est pas causalité ». Sous-entendu que ce n’est pas parce que
deux phénomènes évoluent en synchronisme qu’il existe nécessairement un
lien évident de causalité. Pour Chris Anderson, les petabytes (1015) de
données se suffisent à eux-mêmes pour révéler des connaissances qui ne
correspondent pas nécessairement à des hypothèses de recherche. Cette
théorie est intéressante, mais en pratique elle n’est pas si simple. On peut
aussi faire dire tout ce que l’on veut aux corrélations à partir du moment où
l’on ne recherche pas un solide lien de causalité. Les manipulateurs que
nous verrons au chapitre suivant maîtrisent à la perfection cette
falsification.

Quantité et qualité ne sont pas synonymes


Il est prudent de garder les pieds sur terre si l’on souhaite profiter de cet
outil dans les limites de ce qu’il peut nous offrir. La découverte de
corrélations est évidemment un enrichissement des connaissances
lorsqu’elles sont démontrées et expliquées. Encore faut-il que les
techniques d’extraction répondent aux règles les plus élémentaires, c’est-à-
dire que le data scientist12 en charge de domestiquer le big data soit un vrai
professionnel et que les données de l’étude soient de qualité, et c’est là que
bien souvent le bât blesse.
Lorsqu’il s’agit de collecter des clics sur des pages comme le font Google,
Facebook ou les majors du e-commerce, les erreurs de données sont assez
insignifiantes au vu de la quantité collectée. Si Google se trompe un peu
dans son classement sur un mot recherché, si Facebook commet une erreur
dans l’ordre d’affichage de son fil d’actualité, si Amazon propose une
recommandation peu adaptée au visiteur, on ne leur en tiendra pas rigueur.
En revanche, dans l’entreprise, la moindre donnée défaillante peut entraîner
des conséquences pour le moins fâcheuses. Une donnée erronée peut
induire, si ce n’est une mauvaise décision, une erreur de modélisation aux
conséquences tout autant dramatiques, puisque l’interprétation de la réalité
qu’est censé représenter le modèle proposé sera sensiblement faussée.

Exemple
Un pour cent d’erreurs sur un million de clics de visiteurs sur une boutique en ligne, ce
sont dix mille clics qui risquent de fausser notre interprétation. Le risque est insignifiant
puisqu’il nous reste tout de même neuf cent quatre-vingt-dix mille clics justes pour
modéliser les comportements. En revanche, un pour cent d’erreurs sur dix mille fiches
produit, ce sont tout de même cent fiches produit erronées. Le risque et ses
conséquences sont tout autres.

Et ce n’est pas en multipliant les données disponibles que l’on remédie à la


médiocrité de la collecte. Le nombre n’efface pas l’erreur, la quantité ne
remplace pas la qualité. Bref, ce n’est pas si simple.

Et aujourd’hui ?
La préparation des données représente une part plus que conséquente d’un projet
d’aide à la décision de business intelligence. Il s’agit en effet, de vérifier chaque
donnée afin d´éliminer les valeurs aberrantes, de mettre au même format les données
issues de sources hétérogènes, voire de combler les données absentes afin que le
modèle ait un sens. Une tâche titanesque et donc très coûteuse. Gare à celui qui ne la
juge pas à sa valeur !

Homo Œconomicus, le retour !


Le big data est fondé sur le principe que la clé de la connaissance absolue
résiderait dans l’étude de myriades de données. Pour vaincre l’incertitude
que l’on pensait inhérente à notre monde actuel, il suffirait donc de disposer
de toujours plus de données. Avec la chute drastique des coûts de stockage
et d’acquisition des données, on en aurait fini avec le doute. Les
modélisations du big data, parfaites par définition, ont réponse à quasiment
tout, rien de moins. Le trait est à peine forcé. Avec le big data, on déterre
une nouvelle fois le mythe ultra-rationnel de l’Homo Œconomicus. Cet
individu tout-puissant prend toujours la bonne décision puisqu’il est
pleinement informé. Au diable Herbert Simon, prix Nobel d’économie
1978, la rationalité limitée13 et tous les chercheurs en psychologie de la
décision qui ont enrichi cette voie ! Bien entendu, on peut extraire des
enseignements de données bien choisies, de surcroît lorsqu’elles sont en
grand nombre. De là à imaginer que le big data puisse être le « puits de la
vérité », il y a un pas qu’il serait avisé de ne pas franchir.

Les limites de la « chiffromanie », tout ne se


compte pas…
Tout ce qui peut être compté ne compte pas nécessairement
et ce qui compte réellement ne peut pas toujours être compté14.

ALBERT EINSTEIN (1879-1955), PHYSICIEN THÉORICIEN.

Toute la connaissance n’est pas formalisable et encore moins quantifiable.


Ce que l’on dénomme les données « socioculturelles » sont par définition
non quantifiables et non structurées15. Nous, les humains, nous raisonnons
bien peu avec des données quantifiées et supposément objectives. Nous
préférons très nettement les mesures qualitatives et très nettement
subjectives. On parlera d’un problème difficile, d’une personne
sympathique, d’une bonne ambiance, d’une température agréable. On peut
toujours tenter de traduire en une grandeur discrète des mesures qui relèvent
plus du subjectif. Cette grandeur sera difficilement consensuelle puisque
chacun a sa propre échelle de valeur et, de toute façon, elle n’expliquera pas
le ressenti réel16.
Grandeurs qualitatives et subjectivité
Pourtant, c’est ainsi que nous décidons en univers complexe, non pas avec
des mesures quantitatives et discrètes, mais bien avec des notions
qualitatives bien plus riches en sens.

Exemple : la conduite automobile


Lorsque l’on s’apprête à dépasser un véhicule qui nous précède sur une route à deux
voies, en instantané notre cerveau procède à de multiples estimations : l’espace nous
séparant dudit véhicule, sa vitesse, notre réserve de puissance, la distance à parcourir
pour achever ce dépassement en toute sécurité, ainsi que l’éloignement du véhicule que
l’on discerne en sens contraire. Sans vraiment réfléchir, on construit notre décision de
dépasser en se fondant sur des postulats du type : « Le véhicule me précédant est
assez lent, j’ai suffisamment de puissance pour le dépasser17, le véhicule qui vient en
face est suffisamment éloigné, j’ai donc le temps de réaliser ce dépassement sans
prendre de risques inconsidérés. ». Imaginez si vous deviez effectuer le même
dépassement uniquement avec des valeurs discrètes. Mission impossible. La
problématique ressemblerait à un problème d’arithmétique pour le moins ardu : le
camion qui circule sur la voie contraire se situe au moment de la décision à 443 mètres
et roule à 85 kilomètres/heure. Le véhicule devant vous à une distance de 27 mètres
roule à 83 km/heure. Vous-même, vous pouvez rouler durant un temps limité à 125
kilomètres/heure. Pouvez-vous doubler ce véhicule sans prendre de risque ? Impossible
de répondre en instantané à ce problème.

La prise de décision en entreprise en univers complexe et incertain est


parfois bien plus délicate que cela.
Poursuivons avec l’exemple d’un parcours en automobile. Il est aisé de
quantifier et donc de mesurer la distance parcourue, la vitesse moyenne ou
la consommation de carburant. Il sera en revanche plus difficile de
quantifier et donc de mesurer la beauté du paysage ou les difficultés de
circulation. Aucune des trois mesures précédentes, la distance parcourue en
kilomètres, la vitesse moyenne en kilomètres/heure et la consommation en
litres, ne sauraient exprimer toutes les caractéristiques du parcours. En
revanche, subjectivement et en termes qualitatifs, on saura partager ses
impressions de voyage : « le paysage était extraordinaire, la circulation
fluide, la météo clémente… » Le constat est tout à fait identique dans
l’entreprise.
Les dimensions quantitatives et donc mesurables, telles que les temps, les
coûts et les quantités ne révèlent pas grand-chose sur les difficultés
rencontrées, sur le plaisir ou l’ennui à exécuter la tâche assignée. Le goût du
travail bien fait, vraisemblablement la seule et unique clé de la réussite et
donc de la performance, ne s’exprime pas non plus en temps, en coûts ou en
quantité.

De toute façon, on ne compte que ce qui est facile à compter


Cela dit, les données quantitatives, si elles sont de qualité et judicieusement
choisies sont d’une grande utilité pour assister les décideurs que sont
désormais tous les membres de l’entreprise du haut de la pyramide jusqu’à
sa base. Mais elles sont nécessairement partielles. De nombreuses données
quantitatives présentes dans l’entreprise ne sont pas intégrées dans les
systèmes décisionnels au vu de la difficulté technique et du coût
qu’engendrerait cette collecte. Les budgets sont toujours serrés et les
équipes en charge du projet sont bien souvent contraintes de faire l’impasse
sur des collectes exigeant une infrastructure technologique spécifique ou sur
des standardisations de formats délicates.18 Et ne parlons pas des données
externes à l’entreprise tout autant indispensables à la prise de décision.
L’information est en effet aussi en grande partie à l’extérieur, chez les
clients, les partenaires, les concurrents, les pouvoirs publics… Mais tout
n’est pas perdu, il reste encore l’humain « ordinaire », celui qui sait quitter
son écran des yeux pour nouer des relations, s’informer à droite à gauche et
prendre le temps de regarder autour de lui. Il est encore incontournable,
heureusement pour le devenir de notre humanité.

En complément pour enfoncer le clou :


l’évaluation individuelle à l’épreuve de la réalité
du travail
Travailler, c’est combler l’écart entre le prescrit et l’effectif.

CHRISTOPHE DEJOURS, PROFESSEUR TITULAIRE


DE LA CHAIRE DE PSYCHANALYSE-SANTÉ-TRAVAIL.
Tout rapporter à des données chiffrées permet de se déconnecter du concret,
de se détacher de la réalité du terrain. Pour ceux qui se tiennent loin de
l’exécution, le modèle construit à l’aide des mesures est parfait par
excellence. Ils s’imaginent ainsi assurer, par le contrôle, la standardisation
des comportements. Ils ne perçoivent pas les luttes permanentes et
quotidiennes des employés pour accomplir au mieux leur tâche sous la
contrainte des règles, des procédures et des contingences. Ils n’ont aucune
notion des risques pris, ni des difficultés résolues sans bruit et sans vagues,
tout simplement parce qu’il était indispensable de prendre ces risques et de
résoudre ces difficultés pour parvenir à accomplir la tâche assignée.
Comme elles ne sont pas mentionnées sur la fiche de fonction, ils ne voient
pas non plus les indispensables compétences « cachées » pour naviguer
dans un monde complexe et incertain. En vrac, on peut citer la capacité à
tisser des réseaux d’entraide, la volonté d’assurer le transfert de
connaissance de manière informelle, le sens de la responsabilité pour
assurer l’intégration à l’équipe des derniers arrivés, ou encore le subtil
talent pour trouver la bonne idée qui débloque une situation inextricable en
apparence19.
Ceux qui sont loin de tout cela, derrière leurs écrans de chiffres, ne jugent
de la performance de chaque employé qu’en surveillant l’accession aux
objectifs fixés. Les faits s’estompent, les détails n’existent plus, les
difficultés pour l’obtention de ces chiffres disparaissent, et on ne retient que
le résultat20. Seul le chiffre parle et impose sa vérité comparativement aux
autres chiffres, c’est-à-dire les résultats des collègues devenus concurrents
pour l’occasion.
Et aujourd’hui ?
Tout rapporter à des données chiffrées, c’est le moyen de dépersonnaliser les
humains de l’entreprise afin de mieux les rendre interchangeables, un rêve de
dirigeant aussi ancien que l’entreprise. L’outil : l’évaluation.

Quelle que soit la technique, chaque individu est ainsi transcrit en une série
de données chiffrées censées exprimer sa valeur selon une grille bien
spécifique. Cette grille n’est jamais assez fine pour noter les compétences
mises en œuvre, entre autres pour toutes les raisons que nous avons
énoncées dans le paragraphe précédent. Au mieux et vraiment au mieux,
comme l’exprime Christophe Dejours, on ne mesure que le résultat du
travail réalisé. Toutes les difficultés pour accomplir une tâche
particulièrement ardue sont masquées, tout comme la qualité du travail
réalisé.
Dans une société idéale, l’évaluation ne devrait exister que pour fournir à
chacun un feedback sur ses propres performances. C’est l’occasion de faire
un point précis sur ses compétences, savoir-faire et savoir-être, afin de
mieux progresser ou se réorienter le cas échéant. C’est là où l’évaluation du
type 360º trouve toute sa substance. Elle propose en effet un éclairage à
large spectre des performances personnelles en collectant l’avis de
l’ensemble des relations professionnelles. L’évaluation est un instrument
indispensable de l’aide au développement professionnel. Elle n’est en rien
le mécanisme de la machine à trier de l’entreprise. Mais nous ne sommes
pas dans une société idéale.

Une dérive de l’individualisation de l’évaluation


En 2012, la Caisse d’Épargne Rhône-Alpes a été condamnée par le tribunal de grande
instance de Lyon pour un usage abusif d’un principe de mise en concurrence des
agences du réseau. La performance de chaque agence, suivie informatiquement, est
évaluée heure par heure et confrontée aux autres agences. Les salariés, eux-mêmes en
concurrence avec tous les autres salariés, ne disposent d’aucun objectif, si ce n’est celui
de faire mieux que les autres. Une part variable du salaire dépend de la performance
ainsi mesurée. Ce principe de mise en concurrence imposé de manière autoritaire ne
prend absolument pas en compte le contexte particulier de chaque agence, sa clientèle
ou son environnement. Le tribunal a jugé que le stress permanent et l’ambiance
particulièrement détestable générée par ce type de management étaient une atteinte à la
dignité des personnes et une mise en danger de la santé des salariés par un
accroissement des risques psychosociaux.
JUGEMENT DU 4 SEPTEMBRE 201221

Il est intéressant de comparer ce jugement avec cet extrait de La Jungle écrit en 1905 :
« L’entreprise Durham appartenait à un homme dont le seul but était de s’enrichir autant
qu’il le pouvait quels que soient les moyens. Au-dessous de lui, on trouvait les cadres,
organisés selon une hiérarchie toute militaire, avec en tête les directeurs suivis des
chefs de service puis des contremaîtres, chacun commandant celui qui était à l’échelon
directement inférieur et essayant de tirer de lui le maximum. Tous les salariés d’un
même grade étaient mis en concurrence : comme on tenait une comptabilité séparée
pour chacun, ils vivaient dans la terreur d’être renvoyés si l’un de leurs collègues
obtenait de meilleurs résultats. Du haut jusqu’en bas de l’échelle, l’usine était un
véritable chaudron, bouillonnant de jalousies et de haines. Il n’y avait place ni pour la
loyauté ni pour le respect : ici un dollar avait plus de valeur qu’un être humain. »
LA JUNGLE22, UPTON SINCLAIR

La mesure de la performance est nécessairement réductrice. Elle survalorise


les composantes servant à son calcul. Elle dévalorise tous les autres aspects.
En connaissant ces limites on peut bâtir un système de mesure de la
performance utile et efficace circonscrit à un besoin bien précis et se
soustraire ainsi à la chiffromanie23, véritable pandémie dans les entreprises
et les organisations publiques actuelles. Mais avant d’aller plus avant
voyons déjà comment déjouer les manipulateurs qui profitent du manque de
clarté de la notion de performance pour biaiser notre perception du sens
porté par les mesures et les indicateurs. Il existe bien des techniques pour
influencer son auditoire et mieux servir ses intérêts personnels à l’aide
d’une présentation altérée des mesures. Il vaut mieux bien les connaître,
c’est une règle de survie en entreprise…
1 http://www.fabriquedesens.net/ « Le nouvel âge du travail » (10-09-2009) de Christophe
Dejours, pour mieux comprendre ce thème.
2 Courrier cadres : « Qu’est-ce qui empêche les cadres de la finance de dormir ? » (20-02-2017).
3 Ou en anglais, IoT = Internet of Things. Chaque objet dispose de sa propre adresse Internet et est
connecté au réseau. Passeports, cartes de paiement et diverses cartes d’accès contiennent aussi
un marqueur RFID qui permet l’identification individuelle. Cette course à l’identification des
humains n’en est qu’à ses balbutiements. Quelques « précurseurs », encouragent les salariés à se
faire greffer une puce de type RFID dans la main pour « simplifier » l’identification. Voir
notamment l’exemple de l’Epicenter, un immeuble de bureaux au cœur de Stockholm (Suède).
Depuis, l’idée a été reprise et les expérimentations se multiplient…
4 Rien d’exceptionnel, un sondage relativement récent (novembre 2015, CareersinAudit.com)
révèle que la moitié des comptables interrogés ont subi des pressions pour truquer les comptes de
l’entreprise : Alternatives Économiques « Les mauvais comptes des entreprises » (30-11-2015).
D’une manière plus policée on parle de « Windows dressing » quand il s’agit juste « d’arranger »
les comptes pour les rendre plus présentables et de « comptabilité créative » pour de réelles
falsifications. L’affaire Enron en est l’exemple le plus représentatif (http://tb2.eu/p10).
5 http://on.wsj.com/2hTu1UN The Wall Street Journal : « Big Data Uncovers Some Weird
Correlations » (23-03-2014).
6 En tout cas sur alibaba.com https://qz.com/295370/how-alibaba-is-using-bra-sizes-to-predict-
online-shopping-habits/ Quartz : « How Alibaba Is Using Bra Sizes to Predict Online Shopping
Habits » (12-11-2014).
7 Même source du Wall Street Journal que la note numéro 1 de la page précédente.
8 Il est intéressant de noter que, à quelques variantes près, ce sont toujours les mêmes exemples
qui sont répétés pour ne pas dire ressassés dans la presse et par les vendeurs de solutions. Il y a
une bonne vingtaine d’années, lorsque le Data Mining était alors la solution miracle, les
promoteurs utilisaient aussi un même exemple traduit dans toutes les langues : « Les acheteurs
de couches-culottes sont aussi les principaux consommateurs de bière. »
9 Sciences et Avenir : « Google arrête de prévoir (mal) les épidémies de grippe » (10-09-2015).
10 http://lemde.fr/2p9soBP Le Monde : « Filteris, Enigma… Face aux instituts de sondage, la
défaite des prévisions “alternatives” » (24-04-2017) Nous reviendrons sur ce cas au chapitre
suivant.
11 Wired : « The End of Theory: The Data Deluge Makes the Scientific Method Obsolete »,
https://www.wired.com/2008/06/pb-theory/
12 Spécialiste du big data, le data scientist cumule de nombreuses compétences : analyses
statistiques, modélisations spécifiques, technologies, langages et algorithmes spécialisés. Il est
aussi au fait des réalités et des attentes de l’entreprise pour mieux servir les besoins de
modélisation des différents métiers. Ce sont des spécialistes très recherchés, on s’en doute.
13 Nous sommes toujours prêts à adopter un comportement rationnel, mais comme notre sphère
informative et notre connaissance ne seront jamais exhaustives, notre rationalité est limitée et,
finalement, on se contente du premier choix satisfaisant…
14 « Not everything that can be counted counts and not everything that counts can be counted. »
Albert Einstein.
15 Dans la littérature américaine on utilise le terme de « Thick Data » pour désigner les grandeurs
qualitatives en opposition aux big data qui ne gèrent que des grandeurs quantitatives.
16 Il existe toutefois des solutions simplificatrices mais suffisantes pour bâtir un indicateur de
performance, nous y reviendrons au terme de la deuxième partie.
17 Après un coup d’œil rapide à votre tableau de bord pour vérifier votre vitesse et estimer votre
réserve de puissance. Là on intègre une mesure quantitative dans son raisonnement.
18 C’est un sujet important, nous y reviendrons au cours d’un prochain chapitre consacré à l’étude
de la pertinence et donc de l’utilité des indicateurs de performances, et nous étudierons avec
attention l’enchaînement : si l’on ne pilote que ce que l’on mesure, et que l’on ne mesure que ce
qui est facile à mesurer alors…
19 Comme Christophe Dejours le signale régulièrement au fil de ses écrits et conférences, il
n’existe pas de travail d’exécution où il suffit de suivre les procédures. La réalité du terrain est
tout autre : il faut faire face à de nombreux imprévisibles.
20 « Il n’y a pas de proportionnalité entre le travail et les résultats du travail, si vous prenez un
travail très difficile, si vous prenez un patient, un malade qui est particulièrement difficile à
soigner, vous allez travailler beaucoup et vos résultats seront de piètres résultats. » Christophe
Dejours, L’Évaluation du travail à l’épreuve du réel, Inra, 2003.
21 www.miroirsocial.com/uploads/documents/c92a901e008a.pdf. Repéré par Alain Supiot, La
Gouvernance par les nombres, Fayard, 2015.
22 Op. cit. Cet ouvrage utilise pour toile de fond les fameux abattoirs de Chicago qui ont inspiré
Henry Ford pour la fabrication des voitures à la chaîne.
23 « Le suffixe “manie”, du grec mania, folie désigne un état pathologique caractérisé par un
comportement pulsionnel ou un délire limité à un thème particulier. » (Le Robert)
3.

Dominer, c’est aussi savoir manipuler


l’information.
Ou comment démontrer que le verre à moitié
vide est à moitié plein et vice versa …
Quelques cas typiques

Il y a trois sortes de mensonges : les mensonges,


les sacrés mensonges et les statistiques.

BENJAMIN DISRAELI (1804-1881), HOMME POLITIQUE BRITANNIQUE.

Un peu d’espoir…
On peut tromper tout le monde durant un temps,
on peut tromper quelques-uns tout le temps,
mais on ne peut pas tromper tout le monde tout le temps.

ABRAHAM LINCOLN, PRÉSIDENT DES ÉTATS-UNIS (1809-1865).

Il n’est pas bien difficile de faire dire tout et son contraire aux indicateurs.
Mais où s’arrête l’information et où commence la manipulation pour un
parfait enfumage ?

Ce sont les indicateurs ! Ou comment changer


la réalité en manipulant les indicateurs de
performance
Ce sont les indicateurs...1
Le week-end dernier, j’ai croisé une ancienne voisine. Elle n’était pas vraiment au
meilleur de sa forme. Elle venait juste d’apprendre la veille qu’elle faisait partie de la
prochaine charrette. Licenciée donc.
« Ce sont les indicateurs », me dit-elle. « Ils sont tous dans le rouge, et comme je
suis la dernière arrivée… En tout cas, c’est ce que l’on m’a expliqué lors de mon
entretien express ce matin. Il n’y a pas d’autre solution m’ont-ils confirmé. »
« Ce sont les indicateurs », cette phrase résonne encore dans ma tête.

Moi, qui consacre une bonne part de mon temps à promouvoir l’usage des
indicateurs de performance, je me sens un peu mal à l’aise lorsque j’entends
ce type de discours.
Il est temps de faire une mise au point.
Il est vrai que les indicateurs ont envahi notre quotidien. Dévoyés de leur
rôle initial, ils sont bien pratiques pour servir d’explication incontestable à
un peu tout et n’importe quoi. Ainsi, il devient coutumier dans l’entreprise,
comme dans la vie publique, de justifier les décisions prises ou à prendre
par la publication d’un indicateur, à l’intitulé ronflant, appuyant
l’argumentation et coupant court à toutes objections : « Vous voyez bien que
j’ai raison d’agir ainsi, c’est l’indicateur qui le dit, il n’y a pas
d’alternative. »
En fait, tout est dans l’intitulé de l’indicateur et le discours l’accompagnant.
C’est un peu l’histoire du verre à moitié vide et du verre à moitié plein.
Étudions deux interprétations trompeuses d’un même groupe d’indicateurs
de performance selon l’intérêt poursuivi par le manipulateur.

Exemples
Premier cas
« Voyez nos indicateurs, nos résultats ne sont pas au niveau de nos prévisions, et nous
n’avons pas atteint les objectifs fixés. Il faut aussi reconnaître que la concurrence est
rude. Pour sauver l’entreprise, nous devons recentrer nos activités sur notre cœur de
métier… »
En d’autres termes, celui-ci veut licencier…
Second cas
« Depuis que je suis aux commandes, la barre est maintenant redressée. Voyez donc
les indicateurs ! Nous venons de loin ! Mais attention, la route est encore longue,
unissons nos efforts pour franchir ce cap difficile… »
En revanche, celui-là tient à garder sa place.
Bref, c’est de la manipulation classique, un vrai tour de passe-passe. Le prestidigitateur
du moment attire notre attention vers l’objet visible, l’indicateur, afin de masquer la
réalité de l’entourloupe.
L’idée étant d’éviter que notre capacité de réflexion entre en action, et de ne s’adresser
qu’à notre cerveau limbique, voire reptilien, qui lui ne réagit qu’en émotion primaire,
comme la peur notamment qui entraîne la soumission.

Cet exemple est assez révélateur de la dissymétrie d’informations entre la


direction, ceux qui décident, et les salariés, ceux qui exécutent.
Un indicateur déconnecté de son contexte ne veut rien dire.

Les questions à se poser pour interpréter la valeur portée à un indicateur

Comment est calculé l’indicateur ?


Quelles sont les données utilisées pour son calcul ?
Que mesure-t-il exactement ?
Quel était l’objectif initial ?
À quelle échéance devait-il être atteint ?
Quelles actions ont été mises en place ?
Avec quel résultat ?

Nous disposons tous d’un QI moyen largement suffisant pour saisir en


substance la valeur d’un indicateur, et en décoder le sens porté lorsqu’il
nous concerne au premier chef. Nous sommes des êtres humains, êtres
logiques et raisonnables. Exigeons que l’on s’adresse à notre néocortex en
répondant aux questions ci-dessus.

Mesurer, c’est comparer


Le principe de la mesure est simple. Il s’agit de comparer une grandeur par
rapport à un mètre étalon.
Mesurer : « Action de déterminer la valeur de certaines grandeurs
par comparaison avec une grandeur constante de même espèce prise
comme terme de référence (étalon, unité). »

LE PETIT ROBERT.

Une mesure, quelle qu’elle soit, s’exprime toujours en référence à une


unité. Bien évidemment, dans l’entreprise, on pourra se référer à des unités
qui ne sont pas nécessairement définies par le système international. Le
choix de l’unité est directement lié à l’objectif poursuivi.

Exemple
Si l’on cherche à gagner quelques minutes sur un processus, c’est bien en mesurant
des temps que l’on y parviendra. En revanche, si l’on vise à améliorer la conformité des
livraisons, ce ne sera pas en comptant des quantités produites ou en évaluant des
variations de coûts unitaires que l’on atteindra le but fixé. Il faudra trouver une autre
unité.

Mesurer, c’est donc évaluer2


La mesure en entreprise vise de multiples finalités :
• On mesure pour comparer la valeur actuelle d’une grandeur avec une
valeur antérieure afin d’apprécier le progrès réalisé. C’est l’usage le plus
simple.
• On mesure encore pour mettre en balance la valeur du jour d’une grandeur
avec un objectif, et estimer ainsi le chemin restant à parcourir. La mesure
est ainsi une aide à la prospective.
• On mesure aussi pour confronter la performance d’une activité ou d’un
individu avec d’autres activités, ou d’autres individus, afin de juger de leur
efficacité. On pratique alors un benchmark. Dans ce cas, la mesure introduit
une notion d’ordre, de hiérarchie.

Exemple
Si A obtient de meilleurs résultats que B, on ne pourra que constater que A est plus
performant que B, et l’on déduira abusivement que A est donc meilleur que B. Le
jugement de valeur est immédiatement formulé en conséquence de ce constat.
Les limites de la mesure sur la définition du travail réel que nous avons
évoquées au chapitre précédent sont déjà plongées bien au fond des
oubliettes de la raison. On oublie les difficultés rencontrées qui justifient un
résultat plus modeste. Seule la mesure affichée compte. Comme le
chronomètre pour un coureur de vitesse, le chiffre est devenu loi. Il ne
s’agit plus d’une mesure de progrès mais bien d’une évaluation, c’est-à-dire
l’action d’exprimer par un nombre la valeur de quelque chose ou de
quelqu’un.

Et aujourd’hui ?
C’est là le fondement de la course à la performance que nous vivons d’une manière
outrancière depuis déjà plusieurs décennies. La compétition est désormais la
principale composante du management tel qu’il est pratiqué au sein de l’entreprise et
de toutes les organisations publiques actuelles.

Sans pour autant les approuver, on peut comprendre aisément les raisons
qui poussent les moins scrupuleux à manipuler un tant soit peu les résultats
afin de mieux servir leurs intérêts.

CONSEIL
Ne jamais perdre de vue que même au sein de la meilleure ambiance d’entreprise, chacun
poursuit ses propres intérêts3.

Les principales techniques de manipulation


Les indicateurs ne sont pas nécessairement un instrument de progrès.
Ils sont aussi utilisés pour justifier les décisions politiques
prises ou à prendre.

Une manipulation n’est pas toujours volontaire. Bien des contresens ne sont
que la conséquence d’erreurs involontaires autant lors de la sélection des
données que du mode de calcul ou du choix de présentation.

C’est dit !
Comme partout ailleurs, la bêtise chronique sévit en entreprise, mais on préfère
utiliser l’euphémisme d’incompétence pour la désigner.
L’incompétence étant un sujet bien trop vaste, nous limiterons cette courte
étude aux seuls vrais manipulateurs qui savent très bien ce qu’ils font, et
pourquoi ils agissent ainsi. Procédons dès à présent à un inventaire des
techniques de manipulation. Bien qu’il ne puisse être exhaustif,
l’ingéniosité des manipulateurs étant sans limites, cet inventaire est bien
suffisant pour comprendre et prévenir les chausse-trappes qui guettent les
plus candides d’entre nous.

Les indicateurs alibis


Ma décision était juste !
Ce sont les événements qui ne se sont pas déroulés comme prévu !4

Un indicateur peut s’avérer être un excellent instrument pour justifier


auprès de sa hiérarchie, de ses collègues ou de ses subalternes, voire de soi-
même, de la pertinence des décisions prises. Si jamais l’effet attendu n’était
pas au rendez-vous, le décideur pourra toujours argumenter en s’appuyant
sur une sélection d’indicateurs « alibis » judicieusement choisis pour
expliquer qu’il n’existait pas d’alternatives. À la décharge de ces décideurs,
il faut aussi reconnaître qu’il n’est pas toujours aisé, et le mot est faible, de
justifier des conséquences d’une décision prise en se fondant uniquement
sur son sentiment ou des impressions, même si celles-ci étaient solides.
« Prendre les décisions avec ses tripes » est un bon slogan pour illustrer la
détermination d’un décideur de génie. Mais seulement si les résultats sont
au rendez-vous. Dans le cas contraire, le décideur risque de se retrouver sur
la sellette face à des juges improvisés qui exigent des explications. Aussi,
pour éviter de se retrouver en une position aussi peu enviable, les décideurs
limitent leurs ambitions5. Les plus malins d’entre eux, pour ne pas dire les
moins scrupuleux, préfèrent se garantir des éventuels retours de bâton à
l’aide justement d’indicateurs incontestables, en apparence en tout cas.
Ensuite, si l’on extrapole, un indicateur de performance est aussi un bon
instrument pour justifier du caractère inéluctable des politiques engagées,
pour le moins déplaisantes pour tous ceux contraints d’en subir les
conséquences.
Il existe une multitude de techniques pour choisir les indicateurs de
performance adéquats, en phase avec ses ambitions et leur faire dire tout et
n’importe quoi. Voyons les plus courantes.

Les indicateurs artificiels


La manipulation la plus grossière consiste évidemment à présenter des
indicateurs totalement artificiels qui ne reposent sur rien de concret. Ce
n’est pas la pratique la plus courante, la supercherie est bien vite éventée.
Les manipulateurs ont bien d’autres tours dans leur sac pour enfumer leur
public, leur hiérarchie ou leurs subordonnés.

Les indicateurs insignifiants


Lorsque l’entourage est moins porté à l’investigation, la solution la plus
simple reste encore de ne présenter comme indicateur que les données qui
n’engagent pas grand-chose, mais présentent l’immense avantage d’être
orientées dans la bonne direction. Imaginons un responsable, en charge d’un
projet délicat et important, qui choisit de présenter comme indicateur de
performance les dépenses en consommables qu’il a justement choisi de
contrôler minutieusement. L’indicateur est positif, n’en doutons pas, mais il
révèle bien peu de la capacité de ce manager à conduire avec succès les
projets dont il a la charge.

Les indicateurs incomplets


Il suffit bien souvent d’omettre d’inclure dans le calcul d’un indicateur les
composantes qui fâchent, autrement dit de ne sélectionner, sans le dire
évidemment, que les éléments qui tendent à afficher un joli score. On oublie
par exemple d’inclure dans l’indicateur évaluant l’occupation d’un atelier,
une unité de production régulièrement en panne que l’on se refuse à
changer pour ne pas pénaliser… un autre indicateur de mesure de coût de
production !

Les indicateurs « écrans »


Une technique plus malicieuse est d’user d’un indicateur « écran ». On
multiplie le nombre d’indicateurs, et l’on ne met en évidence que ceux qui
affichent une belle progression.
C’est une technique réservée aux as de la rhétorique qui sauront captiver
leur public pour qu’il ne tente pas de découvrir les indicateurs que l’on
conserve en retrait. On met ainsi en avant avec force emphase les ventes des
magasins qui ont affiché les meilleurs résultats sur le trimestre, et on oublie
les moins performants.

Les chiffres officiels du chômage


La catégorie A ne comporte que les demandeurs d’emploi n’ayant pas du tout
travaillé le mois précédent. La catégorie B inclut les demandeurs d’emploi ayant
travaillé moins de 78 heures. Et ainsi de suite pour parvenir à un classement en cinq
catégories distinctes. Il est bien évident que les individus classés ainsi sont tous
demandeurs d’un emploi stable et durable. Le chômeur qui n’a travaillé que quelques
heures dans le mois ne vit pas de son salaire. Pourtant, classé dans la catégorie B, il
sort du taux de chômage calculé par Pôle emploi, celui qui est généralement
présenté aux médias. En effet, celui-ci ne mesure que la catégorie A6.
On peut aussi tromper son auditoire en comparant des catégories différentes. C’est
ce que fit François Hollande en mai 2016 quand il annonçait une hausse de six cent
mille chômeurs sous son mandat comparativement au million de chômeurs en plus
sous celui de son prédécesseur. Sauf, que le nombre de « six cent mille » concernait
l’augmentation uniquement de la catégorie A, tandis que celui d’un « million » incluait
les trois catégories A, B et C cumulées7.

Les indicateurs « globaux »


Et pourquoi ne pas tout regrouper sous un même indicateur ? Le PIB,
produit intérieur brut, le plus célèbre des indicateurs économiques est bien
unique non ? En tout cas, c’est ainsi qu’il est largement diffusé. Qui a déjà
cherché à savoir comment était calculé cet indicateur ? Hormis les étudiants
en économie, bien peu d’entre nous se sont livrés à cette enquête. On nous
l’impose ainsi et on le prend tel quel. Le directeur commercial d’une
entreprise peut procéder de la même manière en regroupant sans détailler
toutes les entités d’un réseau commercial sous un même indicateur. Tant
que les commerces qui fonctionnent le mieux comblent le déficit généré par
tous ceux qui enregistrent une faible performance, il est certain d’afficher
un résultat positif.

La publication des chiffres de la délinquance


Un ministre de l’Intérieur avait regroupé sous un même indicateur unique toutes les
formes de délinquance. Il pouvait ainsi afficher une baisse globale de la délinquance
sans être tenu de préciser s’il s’agissait de la diminution des crimes et assassinats ou de
la dégradation des abribus8.

Les indicateurs volontairement déséquilibrés


Un indicateur de performance se suffit rarement à lui-même. Dans la
plupart des cas, il doit être équilibré par au moins un autre indicateur afin de
s’assurer que l’accession à la performance se déroule dans les meilleures
conditions. Un tableau de bord utile est impérativement conçu ainsi. Ainsi,
s’efforcer de respecter les délais de réalisation d’un projet ou d’un chantier
par un appel massif à la sous-traitance sera sûrement bénéfique pour
l’indicateur de durée de réalisation qui affichera vraisemblablement un joli
vert printanier. En revanche, les indicateurs de coût réel et de retour sur
investissement dans le cadre d’un projet interne risquent de flirter avec le
rouge intense. Il suffit donc de montrer le premier et d’oublier les seconds.
Rien de plus simple.

Exemples
Une entreprise qui souhaite montrer auprès de ses clients et de ses concurrents son
dynamisme et son carnet de commandes bien rempli affichera ostensiblement son
besoin de recrutement en publiant le nombre de postes vacants et d’offres d’emploi
proposées. Elle prendra soin d’oublier d’indiquer le nombre de démissions, de
ruptures conventionnelles, de licenciements bruts et de départs à la retraite. Les
entreprises à fort turnover telles que les sociétés de services informatiques utilisent
ce subterfuge.
Un directeur commercial peut présenter fièrement un indicateur affichant les ventes
records d’un nouveau produit sans pour autant préciser que ledit nouveau produit
remplace une gamme plus ancienne dont les ventes étaient déjà au même niveau.
Une ministre de l’Éducation nationale peut annoncer la création de 500 nouvelles
formations professionnelles sans préciser le nombre de sections plus anciennes
fermées pour l’occasion9.

Les indicateurs faussement équilibrés


Si l’on reprend l’exemple précédent du management de projet, le
prestidigitateur improvisé peut aussi équilibrer son indicateur de
performance, mesurant la durée de réalisation, avec le taux de recours aux
heures supplémentaires des salariés affectés au projet. S’il a essentiellement
fait appel à la sous-traitance, il peut en effet présenter un indicateur « heures
supplémentaires » proche de zéro, donc au beau fixe.
Là encore, toute la supercherie repose sur le talent oratoire du manipulateur
du moment. Lorsque l’orateur dispose d’une autorité bien assise, il est
toujours utile de glisser un voile de flou en utilisant des phrases,
tarabiscotées peut-être, mais riches en oxymores comme une croissance
négative ou la baisse de l’augmentation. Les sciences de la
neurolinguistique nous enseignent que notre cerveau ne retient que la valeur
positive et élimine l’aspect négatif de l’information.

Le nombre de chômeurs
« Les chiffres de ce soir manifesteront une amélioration de la situation, avec une baisse
tendancielle de l’augmentation du nombre de chômeurs. Cette augmentation sera assez
modérée. » affirmait ainsi Nicolas Sarkozy tentant de masquer les chiffres
catastrophiques du chômage en 2012. Le geste à l’appui cinq fois répété renforçait l’idée
de baisse et donc d’amélioration alors que les chiffres portaient une tout autre
information10.

Leurrez votre entourage en ne choisissant pas


le meilleur format d’affichage de la mesure
Sans pour autant maquiller les nombres, il y a toujours moyen de présenter
les résultats d’une manière plus avantageuse, quitte à en détourner le
message.
N’affichez que les moyennes et masquez les valeurs
médianes et modales
Si la moyenne est la seule information à retenir,
alors tous les zèbres sont gris.

Le calcul de la moyenne est fort simple. Il suffit de cumuler l’ensemble des


valeurs, puis de diviser cette somme par le nombre de valeurs, et l’on
obtient la moyenne arithmétique. Ce ratio est en fait assez peu expressif. Il
élimine toutes les disparités de la distribution.

Exemples
Imaginez un bar de quartier fréquenté par des salariés des entreprises
environnantes à l’heure du café, et Bill Gates entre dans ce même bar. Par le calcul
de la moyenne, toutes les personnes présentes sont devenues milliardaires !11
Lorsqu’on annonce le salaire moyen net mensuel des Français, 2 225 euros en
201712, et que l’on se flatte de sa progression d’une année sur l’autre, on ne
procède guère différemment. Ce chiffre n’apporte aucune information. Il masque la
distribution particulièrement étendue des salaires.
Une entreprise augmente ses tarifs de 2,5 % par an depuis dix ans, sauf cette année
où les prix de vente ont fait un bond de 18 %. Il est évidemment préférable de
présenter la moyenne des augmentations sur dix ans, soit 4,05 % pour faire passer
la pilule.

Pour bien des situations, le calcul de la médiane est bien plus porteur
d’information. La médiane marque le juste milieu de la distribution.
Cinquante pour cent des valeurs sont inférieures à la médiane et 50 % des
valeurs sont supérieures. Le salaire médian français en 2017 est de 1 770
euros. Donc 50 % des salariés gagnent moins que cette somme et 50 %
gagnent plus. On comprend aisément que si l’on veut modérer un tant soit
peu le sentiment d’inégalité, il est préférable d’annoncer publiquement le
salaire moyen.
La valeur modale est aussi intéressante pour mieux saisir le déséquilibre
d’une distribution. Pour mémoire la valeur modale pointe sur la valeur la
plus fréquente d’une distribution.
En exemple, la table des salaires d’une entreprise fictive :
Salaires 1 500 2 000 2 500 3 000 3 500

Employés 23 145 65 34 21

Salaires 4 000 4 500 5 000 5 500 6 000

Employés 23 25 24 19 18

Tableau 1 : Table de répartition des salaires

La moyenne des salaires proposés dans cette entreprise est de 3 021 euros.
Pourtant, on constate à la lecture de ce tableau que 2 000 euros sont le
salaire le plus couramment versé.

Figure 5 : Représentation graphique de la répartition des salaires

Adoptez les pourcentages pour exprimer les progressions


Les pourcentages sont aussi bien utiles pour abuser son auditoire.

Exemples
Vous gérez une boutique en ligne et une entreprise marketing vous propose un outil
miracle, fruit de longues recherches, qui augmentera sans coup férir le taux de clics
d’un produit précis de… 100 % ! Incroyable ! Bon, si le taux de clics n’était que de
0,1 %, on risque de beaucoup dépenser pour le voir seulement passer à… 0,2 % !13
En 2015, la plupart des grands organes de presse publiaient un article
particulièrement anxiogène ainsi titré : « La consommation de viande rouge ou de
viande transformée (charcuterie) augmente le risque de cancer !!14 »
Le lecteur inquiet cherche rapidement des éléments chiffrés. De combien le risque est-il
donc augmenté, quel est le taux ? Et là, le couperet tombe : 18 % d’augmentation du
risque de cancer colorectal ! Ces articles sont sourcés. Il s’agit des résultats d’une
enquête officielle conduite par le Centre international de recherche sur le cancer
(CIRC)15. Comme la plupart des articles n’approfondissent pas plus avant l’analyse des
chiffres, ces résultats sont particulièrement angoissants. En fait, cet accroissement du
risque ne concerne que les gros mangeurs de viande. Soit 25 % de la population tout de
même. Ensuite le taux de 18 % ainsi présenté ne signifie pas grand-chose. On parle
d’un accroissement du risque pour une population donnée. Encore faut-il connaître le
taux de risque de cancer auquel est soumise la population concernée. Ainsi, si cas
d’école, pour une population adulte donnée le risque est de 0,002 %, les gros
consommateurs de viande rouge ou de charcuterie, soit 25 % de la population, sont,
eux, soumis au même risque augmenté de 18 % soit : 0,00236 %. Nous sommes loin de
la panique et on peut continuer à déguster les plaisirs de la table16.

Les valeurs exprimées en pourcentage sont également commodes pour


éviter de citer des chiffres trop significatifs.

Exemple
Il vaut mieux parler d’un taux de pauvreté de 14,3 % plutôt que d’annoncer le nombre de
9 millions de personnes contraintes de vivre avec moins de 1 000 euros par mois.

Doublez, triplez, quadruplez, pourquoi pas…


Dans le même ordre d’idées, intuitivement, les verbes tels que « doubler »,
« tripler » ou « quadrupler » sont fortement connotés dans la langue
courante. Ils laissent entendre une progression radicale. Il est toutefois
prudent de revenir aux chiffres bruts.

Exemples
Compte rendu commercial de fin de mois : « Ce mois-ci, j’ai doublé mes ventes ! »
Bravo ! Enfin, si le mois précédent vous n’avez réalisé qu’une seule vente, ce mois-
ci vous en avez donc réalisé deux. Si ce sont des usines clés en main, on peut
féliciter le commercial. En revanche s’il s’agit de stylos-billes…
En décembre 2015, l’Agence France-Presse (AFP) transmet l’information suivante :
« Dans le cadre de la solidarité européenne, le grand-duché du Luxembourg a
décidé de doubler son effectif militaire au Mali. Ils dépêcheront donc un second
militaire.17 »
Abusez sans retenue de la précision des nombres proposés
Dans toutes statistiques, l’inexactitude du nombre
est compensée par la précision des décimales.

ALFRED SAUVY, (1898-1990), ÉCONOMISTE ET DÉMOGRAPHE FRANÇAIS.

Il est vrai que les nombres trop ronds ont quelque chose d’irréel pour le
sens commun. Un commercial qui annonce que ce mois-ci il a concrétisé les
ventes de 1 000 produits risque de croiser quelques regards sceptiques.
Mille ? Ce n’est pas possible. Ne serait-ce pas plutôt 987 par hasard ou
quelque chose comme cela ? Pourtant d’un point de vue arithmétique rien
ne différencie ces deux nombres. Ils ont la même probabilité de
correspondre au nombre de ventes du mois réalisées par ce vendeur. Mais
voilà, un chiffre bien rond ça ne semble pas assez réel, c’est trop vague. Un
chiffre trop rond ressemble plus à un chiffre volontairement arrondi pour
améliorer l’effet sur son public. Il est donc tout à fait judicieux pour le
manipulateur de profiter à son avantage de cette idée reçue. Plutôt que de
faciliter la compréhension d’une mesure en arrondissant le nombre, il va au
contraire ajouter les caractéristiques de la précision : des décimales.
Jusqu’à maintenant, on accusait les instituts de sondage de pécher par excès
de précision en proposant un classement ordonné des résultats, sans tenir
compte de la marge d’erreur théorique qui est tout de même d’environ 3
points en moyenne. Si le premier du classement bénéficie d’un score de
22 % et le second de 21 %, on peut aisément les inverser sans pour autant
fausser le résultat du sondage18.

Exemple : le plantage retentissant des analyses big


data pour les présidentielles
Peu avant le premier tour des élections présidentielles françaises de 2017, quelques
instituts ont même poussé le vice dans ses limites en proposant des estimations à un
demi-point près. Depuis, les frontières de l’honnêteté intellectuelle ont été pulvérisées
par quelques sociétés exploitant le big data. S’appuyant sur l’intelligence artificielle et
une parfaite connaissance des réseaux sociaux (dixit), ces sociétés high-tech
prétendaient narguer les instituts de sondage plus classiques. Elles affichaient la
modeste ambition de mettre purement et simplement un terme aux techniques
sondagières jugées imprécises et donc obsolètes. Crânement, elles publient juste avant
le premier tour de l’élection des estimations fermes et validées avec une précision
défiant toute concurrence. Pas moins de 2 chiffres après la virgule ! Sans vergogne et
sûres d’elles, elles annoncent les résultats suivants le 21 avril, soit deux jours avant le
premier tour du scrutin : 1er François Fillon : 22,09 %. Les autres candidats suivent avec
des scores tout aussi précis : 21,75 %, 21,11 % et 19,92 % pour Emmanuel Macron qui
ferme la marche du quatuor de tête. Les résultats sont publiés sans préciser pour autant
la marge d’erreur. Relayés par une presse fascinée par les big data19, on pouvait alors
se poser la question de l’utilité de procéder au scrutin puisque l’on disposait déjà de
résultats fermes et précis !
Comique de l’histoire, comme chacun le sait désormais, les prévisions de ces nouveaux
oracles se sont toutes révélées totalement fausses tandis que les instituts de sondage
avaient plutôt bien anticipé les résultats. Ces sociétés à la pointe des analyses big data
venaient de confirmer malgré elles l’aphorisme d’Alfred Sauvy cité en exergue de ce
paragraphe.

Commencez à tromper votre entourage dès la


collecte d’informations
La mesure se veut objective.
Pourtant, celui qui choisit les objets à mesurer
effectue un choix orienté qui peut servir à la manipulation.

Les sondages d’opinion


Le déroulement des sondages d’opinion est toujours sujet à discussion si ce
n’est à polémique. En effet, pour qu’un sondage soit valide encore faut-il
que l’échantillon soit représentatif. Le choix de la cible est donc un bon
moyen d’orienter les résultats du sondage. En entreprise, que l’enquête soit
externe auprès des clients ou interne auprès du personnel, il est toujours
possible d’établir l’échantillon adéquat en fonction de ce que l’on souhaite
mettre en évidence. On prendra soin d’éviter de calculer la marge d’erreur
et bien sûr de la publier.
Mais pour orienter un sondage, le meilleur moyen reste encore de préparer
minutieusement le questionnaire en ne sélectionnant que les questions qui
contraignent à des réponses bien précises. La réponse attendue peut-être
contenue dans la formulation même de la question. Elle ne laisse donc
aucune ouverture de réponse alternative.
La question piège
Bien des sondés affichent systématiquement leur opinion, même s’ils n’ont qu’une idée
assez vague de la question. Ils réagissent sans analyse en se fiant à leur propre
système de valeurs Lors de la campagne électorale américaine de 2016, la question
suivante était glissée dans un sondage destiné à un panel de Républicains :
« Soutiendrez-vous un bombardement de la ville d’Agrabah ? » 57 % des personnes
sondées ont fait part de leur indécision, 30 % étaient prêtes à soutenir le bombardement,
et seulement 13 % y étaient opposées. En conclusion, un tiers des personnes sondées
étaient ainsi tout à fait d’accord pour détruire la ville d’Aladdin du célèbre dessin animé
des studios Disney20!

Les questions à choix multiples sont particulièrement adéquates lorsqu’il


s’agit d’orienter un tant soit peu les réponses. Il suffit d’éviter de proposer
comme choix possible la ou les réponses qui gênent. Une vague question
ouverte pour achever le questionnaire est suffisante pour servir d’exutoire à
tous ceux qui n’apprécient pas le principe des questions fermées et bien
verrouillées. La case « ne se prononce pas » est aussi assez pratique. Il
suffit d’oublier d’intégrer ce cas lors de la publication des résultats.

Exemple
Oui 40 %
Non 25 %
Ne se prononce pas 35 %
Si l’on espère une réponse positive franche et massive, autant omettre de citer tous
ceux qui ne se sont pas prononcés. Il est ainsi assez courant de rétablir par une simple
règle de trois les proportions en ne considérant que les deux premiers cas. Le « oui »,
61,5 % des votes exprimés, est alors très nettement majoritaire, ni vu ni connu21. C’est
d’ailleurs le principe retenu pour traiter les bulletins blancs lors des consultations
électorales22.

Cas pratique
Un sondage proposé par l’institut Odoxa (26-27 mai 2016) révèle que 67 % des Français
ont une mauvaise opinion du secrétaire général de la CGT, Philippe Martinez. La presse
relaie l’information en citant parfois même 7 Français sur 10. Or, ce n’est pas tout à fait
cela que révèlent les chiffres de ce sondage. Les 67 % représentent uniquement le
pourcentage d’avis négatif des personnes qui se sont exprimées. 32 % des Français
sondés ont précisé ne pas le connaître suffisamment pour formuler une opinion. Si l’on
intègre cette catégorie, les Français qui ont une mauvaise opinion de Philippe Martinez
ne sont en réalité que : 45 %23.

Figure 6 : L’art et la manière d’ajuster les résultats des sondages

1 Témoignage antérieurement publié sur le site https://www.piloter.org


2 Évaluer : porter un jugement sur la valeur, Le Petit Robert.
3 L’art du management n’est autre que de parvenir à conjuguer les intérêts personnels de chaque
individu avec les intérêts de l’entreprise… Il est aussi vrai que si elle a le choix, une personne
normalement sensée n’est pas suffisamment masochiste pour choisir des indicateurs de
« performance » qui n’évoluent pas dans le bon sens et au rythme souhaité.
4 Les explications des économistes à la suite de la crise financière de 2008 qu’ils n’avaient pas vu
venir étaient de cette teneur, justifiant la citation de Jacques Attali : « L’économiste, c’est celui
qui est toujours capable d’expliquer le lendemain pourquoi la veille il disait le contraire de ce
qui s’est produit aujourd’hui. » cité par Bernard Maris dans son ouvrage Lettre ouverte aux
gourous de l’économie qui nous prennent pour des imbéciles, Points Économie, 2003.
5 Peter Drucker notait que toutes les décisions d’importance étaient fondées en priorité sur des
opinions et non sur des faits. On cherche ensuite les faits qui justifient les opinions et non
l’inverse. Il suffit de réfléchir un peu aux quelques décisions d’importance que l’on a pu prendre
au cours de sa vie pour bien saisir la pertinence de cette remarque.
6 En 2017 : l’INSEE et le BIT utilisent une méthode différente mais qui n’intègre pas non plus
toutes les personnes sans emploi fixe et durable.
7 http://lemde.fr/2yuM6zB le Monde : « Augmentation du nombre de chômeurs : l’erreur de calcul
de François Hollande » (17-05-2016).
8 Libération : « Au secours, les sarkozystes ressuscitent le chiffre imbécile de la délinquance
globale » (31-10-2016).
9 Le Canard enchaîné du 12 avril 2017 « Formation pro : des chiffres et des miettes » et SNUEP :
« 500 nouvelles formations : la manipulation par les chiffres » (22-03-2017).
10 La vidéo est disponible au moment de ces lignes : https://www.youtube.com/watch?
v=Qr7z2BNLztA
11 Un trait d’humour d’économistes.
12 Le Figaro : « Les Français gagnent en moyenne 2 225 euros nets » (28-01-2017).
13 Exemple inspiré par Dominique Cardon, À quoi rêvent les algorithmes, Seuil 2015.
14 Le Point : « OMS : charcuterie, viande rouge et porc accusés de favoriser le cancer » (26-10-
2015).
15 https://www.iarc.fr/fr/media-centre/pr/2015/pdfs/pr240_F.pdf
16 Par ailleurs, en poursuivant la lecture de l’étude, on apprend aussi que ce risque est annulé si le
repas est équilibré, c’est-à-dire composé de légumes et de fruits pour leurs effets antioxydants.
17 La Libre Belgique : « Le Luxembourg double sa présence militaire au Mali… avec un deuxième
soldat » (11-12-2015).
18 La marge d’erreur est directement liée à la taille de l’échantillon, en partant du principe que ce
dernier est suffisamment représentatif de la population à étudier pour ne pas fausser les résultats.
Dans tous les cas, plus l’échantillon est étroit, plus la marge est élevée. « Prendre pour argent
comptant un écart de 2 points, c’est presque de la naïveté. », explique Emmanuel Rivière, de la
Sofres, sur Europe 1 le 24 février 2017. Avant de considérer les résultats d’un sondage, il est
plus prudent de vérifier les conditions de réalisation sur le site de l’institut l’ayant réalisé que de
se contenter des titres chocs relayés sans discernement par la presse généraliste.
19 … Et par le premier de la liste pour certains médias franchement orientés politiquement.
20 The Guardian : « Poll : 30 % of GOP Voters Support Bombing Agrabah, The City from
Aladdin » (18-12-2015).
21 Pierre Bourdieu avait présenté une étude des sondages dans le cadre de ses travaux sur l’opinion
publique dont s’inspire ce court paragraphe adapté au monde de l’entreprise :
http://www.acrimed.org/L-opinion-publique-n-existe-pas
22 Entendu sur une chaîne d’info (mai 2017) : « Au premier tour de l’élection présidentielle, 24,1 %
des Français ont choisi Emmanuel Macron ». En fait, il ne s’agit que des suffrages exprimés (ni
blancs, ni nuls, ni abstentions), soit 75,8 % des inscrits qui ne représentent d’ailleurs que 88,6 %
des Français en âge de voter (Insee 02/2017). Donc 24,1 % de 75,8 % de 88,6 %. En fait, ce sont
en réalité 16,1 % des Français qui ont exprimé clairement ce choix au premier tour de l’élection
présidentielle 2017. Cet abus des chiffres et de leur interprétation est systématique à chaque
élection.
23 « 67 % des Francais ont une mauvaise opinion de Philippe Martinez, vraiment ? » http://www.la-
bas.org (03-06-2016).
4.

C’est si facile de leurrer son auditoire avec


les présentations graphiques !

Un bon schéma vaut mieux qu’un long discours dit-on, cela tombe bien
je n’ai pas du tout envie d’expliquer à quoi correspondent ces chiffres…

SIGNÉ : LE MANIPULATEUR ANONYME

L’art de la manipulation est à son zénith avec les présentations graphiques.


Il existe tant de manières de tromper son auditoire en exploitant les
possibilités graphiques qu’il serait dommage de se gêner. D’ailleurs les
manipulateurs professionnels ne s’en privent pas.

Les faux graphiques


C’est la tromperie la plus grossière. Le graphe proposé est en total
désaccord avec les données utilisées pour le réaliser. La supercherie est
rapidement éventée.

Cas pratique
Durant la campagne électorale espagnole de 2016, un porte-parole du Partido Popular
(Parti populaire) n’avait pas hésité à présenter dans une émission de télévision et sur
Twitter le graphique suivant des dépenses sociales annuelles :
Figure 7 : Un exemple de graphique manipulé pour laisser croire à une
progression continue

Cette grossière manipulation n’est pas passée inaperçue, on s’en doute1.

Jouez avec les échelles


Un graphique selon la définition du Robert est : « la représentation du
rapport de deux variables par une ligne joignant des points caractéristiques
(les abscisses représentant une grandeur, par ex. le temps, les ordonnées
l’autre, par ex. l’espace). »
La manipulation la plus simple sera de ne pas afficher les axes de référence,
ni abscisses, ni ordonnées. Le manipulateur a donc toute liberté pour donner
la valeur qu’il souhaite à l’écart entre deux barres du graphe.

Cas pratique
Durant la campagne des élections présidentielles américaines, Donald Trump avait
publié sur Twitter le graphe suivant :
Figure 8 : Un exemple de discordance entre la taille des barres et les valeurs
représentées

Un petit 2 % seulement sépare les deux candidats. Pourtant la différence de taille entre
les deux barres laisse supposer un écart bien plus important. Le procédé est
particulièrement efficace. Tout naturellement le lecteur du graphique se focalise sur la
différence de longueur des barres et ne prend pas en compte la faible différence entre
les deux scores. L’échelle n’est d’ailleurs pas affichée2.

Et maintenant sans tricher…


Sans tricher sur la longueur des barres, il est tout à fait possible de parvenir
à un tel résultat. Il suffit de prendre soin de ne pas faire démarrer l’échelle à
zéro.

Exemple
Imaginons un service commercial qui a sensiblement augmenté ses ventes d’un
trimestre à l’autre, et qui cherche à faire bonne impression auprès de sa direction. il
affiche donc le graphe suivant sur son tableau de bord :
Figure 9 : En décalant l’origine de l’échelle, la progression semble
particulièrement conséquente

En réalité l’accroissement des ventes est relativement modeste. Mais en choisissant une
échelle ne débutant pas à 0, un effet de loupe amplifie la différence.

Figure 10 : la différence entre les chiffres est minime malgré le message porté
par les deux barres

Avec une échelle démarrant à 0, l’augmentation des ventes est très nettement moins
impressionnante.
Figure 11 : Avec une échelle commençant à zéro, les proportions sont
rétablies

Plus vicieux, mais moins courant toutefois, on utilise une échelle


logarithmique. Plus les nombres sont importants et plus ils sont comprimés.
La perception de la réalité est donc totalement faussée.

Exemple
Un responsable d’atelier, ne souhaite pas que l’augmentation drastique du nombre de
défauts enregistrés au cours de la fabrication soit mise en évidence. Il utilise donc une
échelle logarithmique de ce type :

Figure 12 : Un exemple d’échelle logarithmique pour fausser la perception des


résultats

Pourtant l’accroissement du nombre de défauts est plutôt significatif !


Les mêmes données, mais représentées avec une échelle linéaire :
Figure 13 : Les mêmes chiffres mais avec une échelle linéaire

Exploitez les graphiques illustrés et les


infographies
La surface de l’image devrait être proportionnelle
à la différence entre les valeurs.
Sinon, c’est une tromperie.

D’APRÈS EDWARD TUFTE (1942- ), STATISTICIEN


ET PROFESSEUR ÉMÉRITE AMÉRICAIN.

Les graphiques illustrés, et par extension les infographies, sont un excellent


instrument pour transmettre un message sans pour autant encombrer le
lecteur de détails inutiles. C’est aussi l’outil parfait pour fausser la
perception de l’information chiffrée et tromper ainsi son auditoire. Il suffit
de ne pas respecter les volumes des représentations graphiques.

Exemple
Imaginons un chef des ventes régional d’un réseau de succursales automobiles qui
aimerait bien que son action à ce poste ne passe pas inaperçue auprès de la direction
générale lors de la présentation annuelle. Il propose donc les images suivantes pour
bien visualiser l’augmentation significative des ventes d’une année sur l’autre.

Figure 14 : la taille des véhicules n’est pas proportionnelle aux chiffres


annoncés

Mais ce graphique est totalement faux. La surface des images matérialisant les ventes
de 2016 et de 2017 est fortement exagérée. En réalité, si l’on respecte les chiffres
annoncés, la représentation fidèle ressemble plutôt à ceci :
Figure 15 : La surface des représentations de véhicules est maintenant
proportionnelle aux nombres affichés

Nettement moins impressionnant, n’est-ce pas3 ?

Comparez l’incomparable
Comparaison n’est pas raison, dit-on…

Le manipulateur peut aussi focaliser l’attention sur un détail de la courbe


qu’il a pris soin d’extraire d’une présentation plus globale.

Cas pratiques

L’évolution du marché de l’emploi


En 2016, lors de la promulgation de la loi El Khomri, le ministère du Travail alors en
exercice vantait la croissance du marché de l’emploi en Espagne depuis que son
gouvernement avait procédé à des réformes du même type.

Figure 16 : Présentation partielle d’un graphique pour fausser l’information


Pourtant, lorsque l’on observe la courbe dans la durée, on constate que la croissance
espagnole, ainsi mise en exergue, n’est qu’un moindre mal après la chute vertigineuse
des années précédentes. En revanche, l’emploi en France s’est nettement mieux
comporté durant la même période4. « Pour éclaircir une situation, ajoutez des
données. » conseille Edward Tufte5. Pour l’obscurcir et tromper son auditoire, il suffit
donc de faire l’inverse. Réduire le nombre de données à visualiser est en effet l’un des
meilleurs stratagèmes pour leurrer son public.

Figure 17 : En présentant le graphique en totalité, l’information est tout autre

Les parts de marché prises à la concurrence d’un produit


Pour exposer le dynamisme d’un nouveau produit auprès de ses partenaires, une
entreprise, développant des produits informatiques de gestion, avait utilisé le même
stratagème. Elle présentait un premier fragment de courbe qui tendait à la baisse, c’était
les ventes du produit de la concurrence, et un second fragment de courbe en pleine
croissance, c’était les ventes du produit maison. Le dirigeant de cette entreprise avait
soigneusement pris soin de ne pas présenter la courbe de la concurrence en totalité. Le
public aurait alors pris conscience que la courbe de la concurrence était en cloche, et
qu’il ne s’agissait que d’un produit en fin de vie. Les prises de marché tant vantées
étaient tout simplement le résultat d’un retard de la concurrence dans le lancement du
nouveau produit de remplacement. Ça n’allait pas durer…

Profitez des outils statistiques


Quelle que soit la représentation choisie, l’important c’est le sens de la
progression. C’est cela que mémorise le lecteur du graphique.

Cas pratique

Les chiffres du chômage


Fin 2015, le ministère du Travail n’a pas hésité à présenter la progression du chômage à
l’aide des « moyennes mobiles ».
Les moyennes mobiles sont un outil intéressant pour suivre les tendances à condition
qu’il ne masque pas la réalité de la courbe. Il est notamment utilisé en analyse boursière
pour éliminer les fluctuations les moins significatives du cours d’une action.

Figure 18 : Un exemple de graphiques du type « moyennes mobiles ». Est-ce


réellement le plus adapté pour présenter les chiffres du chômage ?

Le graphique est juste, mais il présente une image trompeuse du taux de chômage6. En
effet, le chiffre du chômage est en hausse de 2,5 % pour l’année 2015. Le lecteur du
schéma, non initié aux outils statistiques, voit pourtant une baisse. Dans ce cas précis,
cet outil est vraisemblablement utilisé pour donner l’impression d’une tendance à la
baisse bien que la courbe soit en hausse quasi continue.

Figure 19 : Les mêmes chiffres du chômage présentés sur une courbe linéaire
Il importe que l’auditoire soit focalisé sur la tendance baissière et ne cherche pas à
visualiser une représentation linéaire telle que ci-dessus…
Le procédé fonctionne nettement mieux si le manipulateur prend soin d’enfumer un peu
son public à l’aide d’un bla-bla adapté riche en termes positifs : « stabilisation,
progression, amélioration, reprise, favorable, croissance etc. ». C’est exactement le
procédé exploité par le ministère du Travail dans ce cas précis7 !

Bien entendu, en utilisant à contre-emploi les outils statistiques, il devient


aussi aisé de masquer une hausse indésirable (nombre de défauts de
fabrication, hausse de dépenses…) qu’une baisse malvenue (chute des
ventes, perte d’un contrat…). L’outil marche dans les deux sens.

Seul le sens de la flèche importe


Pour justifier un résultat décevant, à la baisse comme à la hausse, on peut
toujours tenter de se lancer dans de grandes explications, évoquer la
complexité des marchés, invoquer la conjoncture, en vain. Quel que soit
votre auditoire, ce qu’il retient, ce ne sont pas les chiffres mais bien la
tendance de la courbe, le sens de la flèche. C’est bien pour cela que les plus
malins n’hésitent pas à se lancer dans des manipulations pour le moins
acrobatiques.

Les corrélations abusives sont un excellent outil


de manipulation des esprits
Puisque ces mystères nous dépassent, feignons d’en être l’organisateur.

JEAN COCTEAU (1889-1963), LES MARIÉS DE LA TOUR EIFFEL.

Comme nous l’avons vu à propos du big data, l’adage : « Corrélation n’est


pas causalité » semble passer au second plan. Pour les plus fervents adeptes
du big data et de l’intelligence artificielle, il suffit de profiter du résultat
sans se poser plus de questions. L’analyse révèle une corrélation, l’on
profite de cet enseignement sans chercher plus avant. « Ils » vous
expliqueront qu’il s’agit de tendances bien utiles pour anticiper les
événements. Quant à la causalité, en creusant un peu, on finira bien par la
trouver mais ce n’est pas le plus utile. Attention toutefois, les corrélations
sont trompeuses. Face à deux événements concomitants, on perd un peu
notre rationalité, persuadé au fond de nous qu’ils sont quelque part liés.

Exemple
Vous pensez à votre ami Laurent, le téléphone sonne… C’est Laurent ! Incroyable !
Transmission de pensée, télépathie involontaire, le destin ? Ou plus prosaïquement des
probabilités mal comprises ? Les deux événements ont chacun leur propre causalité, ils
sont totalement indépendants l’un de l’autre. C’est le pur hasard qui les a fait se
rencontrer. Mais les coïncidences sont toujours troublantes et le pur hasard est bien la
dernière explication que l’on considérera.

Pour le manipulateur averti, il est alors aisé de faire passer des corrélations
pour de pures causalités. Un outil de choix pour justifier ses décisions.
Il existe tout même quelques règles, théoriquement on ne peut pas tout faire
dire à propos des corrélations.
Le calcul de l’indice de Pearson8 permet de juger de la vraisemblance de la
corrélation. Si ce coefficient est proche de la valeur « 1 », les deux
phénomènes sont dits « fortement corrélés ».
Google propose un outil, « Trends/Correlate » pour explorer son big data et
rechercher les corrélations. C’est ce dernier outil que nous allons utiliser
ici : https://www.google.com/trends/correlate

Exemples
Commençons par une première corrélation, assez évidente, d’ailleurs l’indice est très
proche de la valeur maximale 1.
Figure 20 : Corrélation entre les termes : « été » et « Juan-les-Pins »

Poursuivons avec deux corrélations assez logiques qui confirment d’ailleurs les deux
premiers chapitres de cette étude. L’indice de corrélation est là aussi quasi au
maximum.

Figure 21 : Corrélation entre « norme » et « management »


Figure 22 : Corrélation entre « management » et « procédures »

Jusqu’ici, rien de bien surprenant. Voyons maintenant quelques corrélations étonnantes.

Figure 23 : Corrélation entre « pizza » et « mal au ventre »

Il est tout à fait possible de trouver un lien de causalité entre ces deux recherches.
Mais que dire de celle-ci ?
Figure 24 : Corrélation (curieuse) entre « frites » et « après-shampooing »

Ou encore celle-là totalement surréaliste ? Pourtant l’indice de corrélation est


suffisamment élevé pour que l’on soit tenté de faire confiance à ce résultat.

Figure 25 : Corrélation aberrante entre « salaire » et « chocolat en poudre »

Puisqu’il existe ce type de corrélations sans queue ni tête, on peut imaginer


qu’un manipulateur saura trouver les données pour expliquer un peu tout et
n’importe quoi dans la mesure où la démonstration sert ses intérêts. Avec un
échantillon de données assez réduit, on trouve assez aisément une
corrélation qui, à défaut d’être digne d’intérêt, cause toujours son petit
effet9.
Abusez de l’hystérésis
L’hystérésis est un principe bien connu des sciences physiques. On appelle
« hystérésis », le retard entre l’effet et la cause d’un phénomène.
L’hystérésis s’applique aussi aux sciences économiques et donc au monde
de l’entreprise. Dans ce cas l’hystérésis peut être caractérisée par la
continuité d’un effet bien que la cause ait disparu.

Exemples
Une entreprise d’équipements industriels recrute un nouveau responsable de
l’organisation. Ce dernier, issu du monde de la grande distribution, est un grand
« fan » des méthodes de Jack Welch, et plus particulièrement du « destaffing », une
technique bien connue qui consiste à éliminer toutes les personnes qui ne sont pas
jugées « nécessaires »10. Ce n’est pas pour rien que durant les années 1980, Jack
Welch était surnommé « Neutron Jack » en référence à la bombe à neutrons qui
élimine tous les humains sans toucher aux constructions. Bref, notre nouveau
responsable décide de réduire drastiquement le personnel de la plupart des
services, notamment de l’administratif, des études et du commercial. Cette
entreprise travaille sur des contrats assez conséquents et les commandes sont
enregistrées plusieurs mois à l’avance. Les projets d’innovation sont à longue
échéance et, de surcroît, le carnet de commandes est bien rempli. Durant plusieurs
mois, cet adepte des méthodes radicales peut pavoiser en affichant des résultats
records : une activité équivalente et des frais drastiquement réduits. Ce n’est que
l’hystérésis. L’entreprise est sur sa lancée. Les effets négatifs de ses décisions
draconiennes ne sont pas encore perceptibles11.

Figure 26 : La double hystérésis du premier exemple

Hystérésis numéro 1 : les dépenses chutent sérieusement après la première action


de réduction des frais, tandis que l’activité continue durant un temps sur sa lancée
dans la même dynamique.
Hystérésis numéro 2 : seconde action, prise de conscience, l’on tente de retrouver
un niveau de dépenses compatibles, mais là, l’activité poursuit sa chute et mettra un
temps plus ou moins conséquent avant que l’on puisse espérer la voir revenir, au
mieux, aux niveaux antérieurs.
Une banque privée avait décidé de supprimer la majorité des services au client
qu’elle jugeait peu rentables, tels que les coffres privés. La rentabilité fut nettement
améliorée et elle ne constata que peu de défections des clients. En effet, il n’est pas
facile de quitter une banque du jour au lendemain. Il faut prendre son temps. Mais
dans la durée, nombre de clients avec de multiples comptes bien approvisionnés ont
préféré passer à la concurrence.

Il existe de bien nombreuses situations dans l’entreprise où les


conséquences d’une décision (ou d’une non-décision) ne sont pas
perceptibles immédiatement. Il est donc assez facile d’en profiter pour
leurrer son auditoire.

Confondez stock et flux…


Assez proche de l’hystérésis, ne pas dissocier le stock du flux est aussi un
bon moyen de manipuler son auditoire.

Exemples
Un responsable commercial pourra se vanter auprès de sa direction du chiffre
d’affaires réalisé auprès de ses clients fidèles, le stock, tout en évitant d’aborder la
question du piètre taux du nombre de prospects transformés en clients sur la même
période, le flux.
Un chef d’entreprise pourra se féliciter de la rentabilité de ses produits phares,
véritables « vaches à lait », le stock, sans pour autant aborder la question de la
pauvreté du portefeuille de nouveaux produits en cours de développement, le flux.

Cas pratique
En France, en matière d’emploi, le contrat à durée indéterminée (CDI) est « la forme
normale et générale de la relation de travail » pour reprendre l’assertion du
gouvernement.
Si l’on raisonne en logique « stock », un ministère du Travail et de l’Emploi peut
s’enorgueillir du nombre de CDI. En effet 85 % des salariés sont liés à leur
employeur par un contrat de ce type.
Si, en revanche, on raisonne en termes de « flux », 86 % des nouvelles embauches
sont réalisées sous contrat à durée déterminée (CDD) dont 70 % sont des contrats
d’une durée inférieure à un mois12. Le bilan est alors moins glorieux et laisse
présager un avenir un peu plus sombre.

… Et profitez de l’effet d’aubaine

Exemples
Pour justifier le bien-fondé d’une mesure de réduction drastique mais temporaire des
cotisations sociales, un gouvernement se targuera d ’un accroissement significatif du
nombre d’embauches de salariés d’une certaine catégorie socio-économique. Il
prendra soin d’éviter d’aborder la question de l’estimation du nombre de chefs
d’entreprise qui auront judicieusement choisi de précipiter une embauche déjà
planifiée afin de bénéficier de la réduction, de l’effet d’aubaine. Au cours de la
période suivante, bien évidemment, ces embauches déjà effectives ne seront pas
comptabilisées.
Un chef des ventes pourra mettre en avant les bienfaits sur le chiffre d’affaires
mensuel d’une remise commerciale temporaire, tout en prenant soin d’éviter de
décompter les clients réguliers qui ont opportunément augmenté le volume d’achats
sur la même période pour bénéficier de la remise. C’est aussi l’effet d’aubaine. Les
produits achetés à l’avance sont déjà stockés chez le client, le chiffre d’affaires de la
prochaine période sera vraisemblablement inférieur à celui réalisé habituellement.

Après avoir utilisé au cours du premier chapitre un premier néologisme


« chiffromanie » ou le suffixe « manie » rappelle le côté obsessionnel de
cette fascination pour les chiffres, nous aborderons le prochain chapitre
sous l’influence d’un second néologisme « perfomanie », un chapitre que
nous aurions aussi pu baptiser « Lorsque la course à la performance fait
perdre la raison ». Nous en profiterons pour recentrer le débat sur la
question des indicateurs de performance.
1 Eldiario.es, « El curioso gráfico del PP sobre el gasto social » (21-06-2016).
2 https://twitter.com/realDonaldTrump/status/783808918824681472
3 C’est un exemple fictif. Dans la vraie vie, un responsable des ventes peut se livrer à des
falsifications bien plus osées. Durant sept ans, de 2010 à 2017, la filiale française de Volkswagen
transmettait à la maison mère des chiffres de vente maquillés. Près de 800 000 véhicules ont
ainsi été abusivement déclarés comme vendus. Les Échos : « Volkswagen France aurait embelli
ses chiffres de vente » (01-07-2017).
4 Alternatives Économiques : « INTOX Un miracle de l’emploi en Espagne et en Italie ? Ah bon !
Où ça ? » (10-03-2016). D’autant plus que les emplois créés en Espagne ne sont que des emplois
précaires, des contrats temporaires de très courte durée…
5 Edward Tufte est une référence incontournable de l’art de la présentation des données et de la
datavisualisation.
6 Source : ainsi qu’une analyse L’Expansion : Pour faire baisser le chômage, le gouvernement joue
avec des graphiques (24-12-2015).
7 Lire la courte note accompagnant le graphique sur le site gouvernemental http://travail-
emploi.gouv.fr/ à l’adresse suivante http://bit.ly/2wBFPgT.
8 https://fr.wikipedia.org/wiki/Corr%C3%A9lation_(statistiques). Ce coefficient de corrélation est
aussi disponible sous Excel Microsoft.
9 Au XIXe siècle, on constate que l’arrivée des cigognes en Hollande coïncide avec de
nombreuses naissances dans les foyers. Fallait-il impérativement en déduire un lien de
causalité ? Le site suivant a répertorié un grand nombre de corrélations aussi curieuses que
farfelues : http://www.tylervigen.com/spurious-correlations
10 Par la suite, on a préféré remplacer ce néologisme de « destaffing » qui ne cachait pas son sens
par celui plus politiquement correct de « Management Lean et Agile ».
11 Ce militant des méthodes radicales a ensuite compris qu’une expérience dans la grande
distribution nécessitait quelques aménagements avant d’être appliquée telle quelle dans un
contexte totalement différent.
12 Le Figaro : « Un marché du travail de plus en plus instable » (10-10-2016).
5.

La majorité des indicateurs de performance


sont faux, cela dit, quelques-uns sont
utiles1… Explication

Il n’y a rien de plus inutile que de faire avec efficacité quelque chose
qui ne doit pas du tout être fait.

PETER DRUCKER (1909-2005), PROFESSEUR, CONSULTANT AMÉRICAIN


EN MANAGEMENT D’ENTREPRISE, AUTEUR ET THÉORICIEN.

Depuis déjà bien des années, la généralisation des normes qualité ISO au
sein des entreprises s’est traduite par une profusion d’indicateurs de
performance. Les normes ISO recommandent avec raison une mise sous
contrôle systématique des processus clés de l’entreprise. Mais dans un
mouvement de cause à effet, les indicateurs de performance se sont alors
multipliés comme des petits pains. Il semble que nous soyons passés d’une
logique : « Je poursuis un objectif de performance et je choisis
soigneusement un indicateur pour baliser le chemin » à la logique plus
discutable : « Je place des indicateurs dits de performance pour être en
conformité avec la norme et je m’imagine ainsi ou, en tout cas, je donne
l’impression que tout est sous contrôle. »
Les entreprises qui ont privilégié la conformité aux normes qualité ISO, aux
dépens des démarches stratégiques plus originales exploitant la nature
même de l’organisation, sont les principales victimes de cette dérive.

Vite, des indicateurs, voilà l’auditeur...


Lors d’une mission de conseil, l’équipe dirigeante me fait part des difficultés qu’elle
rencontre depuis quelques mois. La concurrence exacerbée du secteur est la principale
préoccupation du moment, et l’entreprise a donc lancé plusieurs mesures en direction de
ses clients, notamment l’éradication des erreurs de livraison, un mal récurrent dans
l’entreprise. Au fil de l’échange, on en vient naturellement à la question du choix des
indicateurs de performance et donc des tableaux de bord. Justement, la première
tranche d’un projet d’envergure est quasi achevée. Après un rapide audit, il faut bien
constater qu’aucun des tableaux de bord réalisés n’affiche le moindre indicateur lié à la
stratégie engagée. Les indicateurs de durée de production, de quantités produites, de
taux de rebut ou de coûts unitaires, foisonnent mais quasiment aucun retour sur la
fiabilité des livraisons et le suivi des sous-traitants, principales voies d’amélioration au
sens de la direction de l’entreprise. Les tableaux de bord conçus et réalisés sous la
direction du responsable qualité, par ailleurs rattaché à la production, ne semblent
refléter que les préoccupations de ce dernier. Un indicateur de satisfaction client est tout
de même présenté sur le tableau de bord destiné au contrôleur de gestion, mais comme
celui-ci n’a aucune idée de son mode de calcul, il me confie qu’il n’en tient pas compte.
Sage décision. Lorsque l’on ne connaît pas le contenu d’un indicateur autant éviter de
l’utiliser. En conclusion, aucun indicateur digne de ce nom ne peut aider les décideurs de
l’entreprise à accomplir leurs plans. Lorsque l’on cherche à améliorer la conformité des
commandes clients, souhait maintes fois répété en comité de direction, ce n’est pas en
s’assurant que machines et personnel sont occupés à temps plein. C’est pourtant ce que
mesurent en priorité les tableaux de bord présentés.

Commentaire
Si une hirondelle ne fait pas le printemps, l’indicateur ne fait pas le pilotage. L’indicateur,
c’est l’instrument de navigation. Si vous ne savez pas où vous souhaitez aller,
l’indicateur ne sert à rien. Si vous n’avez pas la volonté d’atteindre le but fixé, l’indicateur
n’est guère plus utile. Il faut commencer par définir avec précision des objectifs réalistes.
C’est-à-dire en parfait accord avec la stratégie poursuivie et les actions que l’on peut
réellement engager à ce niveau d’intervention. Ensuite, on peut choisir et fabriquer les
indicateurs. En suivant ce déroulement, on est sûr de définir de vrais indicateurs. Cela
dit, si comme dans ce cas précis, le chef du projet tableau de bord est tenu à l’écart de
l’élaboration des plans stratégiques, il ne peut deviner les ambitions de sa direction. Il
n’est pas responsable de l’excès de discrétion de sa hiérarchie.

Définition et principe des indicateurs de


performance
Par définition, un indicateur de performance est une mesure
ou un ensemble de mesures braquées sur un aspect critique
de la performance globale de l’organisation.

Cette brève définition sous-entend bien qu’un indicateur est spécifique à un


besoin d’amélioration bien précis. Si l’on mesure un aspect de la
performance, critique de surcroît, c’est bien pour l’améliorer. C’est là
l’objectif de performance du manager ou de l’équipe chargée de suivre cet
indicateur. Si l’on replace la problématique dans l’ordre, avant de préciser
un indicateur, encore faut-il bien cerner l’objectif visé et donc le type de
performance que l’on cherche à maximiser. L’indicateur de performance
remplit ensuite son office, canalise et oriente les actions dans le sens de
l’objectif. C’est un instrument de mesure qui intègre plusieurs types
d’informations toutes essentielles pour le pilotage : il indique le sens de
l’effort, il mesure le progrès réalisé, ainsi que le chemin restant à accomplir.
On peut alors en déduire la valeur de l’allure suivie et juger de sa
pertinence.

L’indicateur de performance est une aide à la prise de


décision
Un indicateur de performance ne laisse jamais le décideur indifférent.
Lorsque le décideur n’agit pas, c’est en toute conscience.

Il est alors temps d’identifier les actions à lancer :


• Tout va bien, on est sur la bonne voie et au bon rythme, on ne touche à
rien.
• On ne va pas assez vite, il est peut-être nécessaire de renforcer les
moyens.
• De nouvelles actions doivent être engagées sans délai.
• On n’y parviendra pas, il est indispensable de réviser toute la tactique2.
Il s’agit de décider et donc d’agir, l’indicateur de performance est un
instrument d’aide à la décision.

En fait, l’indicateur de performance est la clé du déploiement


stratégique
Pour progresser significativement, une entreprise commence par se fixer un
but à atteindre. Ensuite, elle établit le plan du parcours à suivre pour
accéder à ce but, se fixe des contraintes temporelles et se donne les moyens
de ses ambitions. C’est un peu cela une stratégie3. Pour passer au stade
opérationnel, la stratégie est ensuite déclinée en objectifs de performance
bien spécifiques et adaptée à la réalité du terrain, aux besoins et aux
capacités des femmes et des hommes chargés de la mettre en œuvre. Pour
atteindre ces objectifs, ils devront lancer des actions et prendre de multiples
décisions. Les indicateurs de performance bien choisis offrent une
perception orientée de la situation selon les objectifs à atteindre afin
d’assister les décideurs dans la prise des décisions.
C’est là la théorie que l’on enseigne dans les formations, ou que l’on peut
lire dans les bons ouvrages traitant du sujet. Ensuite, il faut passer à la
pratique et là les vieilles croyances et les anciennes habitudes ressurgissent.

Les dérives de la mesure de la performance


Les indicateurs de performance
sont comme les objets de pacotille vendus dans les bazars discount.
On en trouve de toutes les formes, de toutes les couleurs,
du plus ordinaire au plus insolite,
mais il faudra chercher longtemps pour en trouver un
bien conçu et réellement utile.

Les indicateurs bien choisis sont les instruments de mesure du progrès mais
quand ils sont mal choisis, c’est un peu le grand n’importe quoi qui
pervertit la mesure de la performance et son rôle de soutien stratégique.
Passons en revue les dérives les plus courantes afin de mieux les prévenir.
Au cours de cet inventaire de « ce que l’on ne devrait pas faire », on
abordera autant la question des indicateurs que celle des objectifs. Elles
sont étroitement liées et toutes deux particulièrement sensibles aux funestes
dérives si l’on n’y prend garde. Plusieurs de ces dérives ne sont pas
uniquement des erreurs de conception, mais bien des actes volontaires
visant des desseins inavouables et généralement inavoués mais que l’on
devine assez aisément. Quoi qu’il en soit, tout cela ne simplifie pas la tâche
du concepteur de système de performance.

Les indicateurs de performance « orphelins »


Pour bien des concepteurs amateurs, le lien avec l’objectif de performance
poursuivi n’est pas une évidence. Ils pensent qu’il suffit de construire un bel
indicateur pour placer sous « contrôle » une activité ou un processus sans
chercher plus avant.
Indicateurs « qualité »
On retrouve cette dérive dans la lignée des démarches qualité comme le
rappelle le témoignage ci-dessus. Des indicateurs sont placés un peu à la va-
comme-je-te-pousse, supposément pour améliorer un processus dans une
optique qualité normalisée4, sans pour autant toujours évaluer la criticité
dudit processus vis-à-vis de la stratégie poursuivie. Pour bon nombre de
responsables qualité peu ou pas formés, les indicateurs de performance ne
sont utiles que pour remplir les cases correspondantes des fiches de
description des processus5.

Les indicateurs que l’on pourrait baptiser « La force de l’habitude »


Les habitudes aussi sont trompeuses.
On a toujours utilisé ces indicateurs, pourquoi aujourd’hui
faudrait-il en changer ?
Parce que l’on ne suit pas la même stratégie !

Les indicateurs promotionnels


Enfin, on voit aussi quelquefois des indicateurs de performance uniquement
destinés à la promotion publicitaire. Là on perd totalement tout sens
commun, il s’agit de montrer des indicateurs au vert, histoire d’assurer son
marketing. C’est vraisemblablement l’un des principaux facteurs qui ruinent
les politiques d’amélioration de la performance. Tous ces indicateurs sont
au mieux inutiles au pire néfastes, voire désastreux. Ils risquent en effet de
motiver des prises de décision irraisonnées.

Quand l’indicateur devient l’objectif


Lorsqu’une mesure devient un objectif, elle cesse d’être une mesure6.

D’APRÈS CHARLES GOODHART (1936-),


ÉCONOMISTE BRITANNIQUE.

La pression des indicateurs de performance conduit à des comportements


pour le moins inattendus. Il est bien évident que si votre performance et, par
voie de conséquence, votre carrière, dépend de la valeur d’un nombre, il
semble naturel de tout mettre en œuvre pour s’assurer que ce nombre
évolue dans le bon sens. Il ne s’agit plus d’atteindre un objectif bien précis
mais d’afficher un indicateur au beau fixe. Aussi, on sélectionnera non pas
les actions qui contribuent au mieux à l’accession à l’objectif, mais bien
celles qui font évoluer rapidement l’indicateur dans le bon sens. Il existe
bien des cas où l’on peut agir directement sur la mesure en lieu et place de
la cause à l’origine de l’effet7.

Cas pratique
Dans le film L.627 (1992) coécrit avec un ancien enquêteur judiciaire, Bertrand Tavernier
décrit le quotidien d’une brigade de police aux prises avec la délinquance et les trafics
de stupéfiants. Il cherche avant tout à dénoncer le manque de moyens, la lourdeur
bureaucratique et une administration obsédée par les statistiques. Une scène de ce film
est assez caractéristique de la dérive de la mesure de la performance.
Nota : le paragraphe contenu entre les deux mots « spoiler » révèle le dénouement
d’une scène du film.
« SPOILER ON »

L’équipe d’inspecteurs « planquait » depuis déjà pas mal de jours pour arrêter un gros
fournisseur et démanteler ainsi un réseau de trafic de stupéfiants. Ils avaient pris en
filature un petit dealer en quête de ravitaillement et attendaient que la transaction se
réalise. Mais le chef de groupe, joué par Jean-Paul Comart, ne poursuit qu’un seul but :
être bien noté par ses supérieurs. Il n’hésite pas à interrompre la planque et à la surprise
de l’équipe, il procède à l’arrestation du petit dealer saccageant ainsi un long travail de
repérage et anéantissant les ambitions de détruire le réseau en totalité. Son argument
est simple : que ce soit un petit ou un gros dealer, de toute façon, c’est une barre en plus
sur mon rapport mensuel.
On comprend alors que les équipes sont notées selon le nombre d’arrestations réalisées
sans tenir compte de l’importance du délit. On peut pourtant deviner que l’objectif initial
poursuivi n’est autre que de freiner l’expansion du trafic de stupéfiants. Mais le système
de mesure inadaptée conduit à ce type de comportement totalement contre-productif.
« SPOILER OFF »

Un tel comportement existe aussi dans l’entreprise. Un manager peut être


ainsi convaincu de devoir boucler un dossier sans aucun intérêt ou
d’achever un projet devenu inutile uniquement pour servir son indicateur de
dossiers ou de projets achevés.
La citation qui interpelle
« Dites-moi comment vous me mesurez, et je vous dirai comment je me comporterai.
Si vous me mesurez d’une manière illogique, ne vous plaignez pas si mon
comportement est illogique. »8
ELIYAHU M. GOLDRATT (1947-2011), SPÉCIALISTE DU MANAGEMENT INDUSTRIEL,
DE LA CHAÎNE CRITIQUE ET CRÉATEUR DE LA THÉORIE DES CONTRAINTES.

Ce sont là les effets pervers d’une « culture du résultat » pour qui seul le
chiffre compte. Et selon la valeur de ce chiffre, ce sera une récompense ou
une punition, la carotte ou le bâton.
Chercher à améliorer le chiffre tout en respectant les règles établies pour
décrocher la récompense et éviter la punition semble tomber sous le sens.
Toute règle a une faille et il ne faut guère de temps à un cerveau humain
pour se l’approprier. Ce sont les conséquences d’une méthode de
management infantilisante, fondée sur la déresponsabilisation des femmes
et des hommes. Ce phénomène est d’ailleurs fortement amplifié dans une
société qui prône le « mérite » comme seule clé d’incitation à la
performance. Pourquoi consacrer du temps et de l’énergie à soigner
l’exécution de tâches dont le résultat n’est pas perçu à sa juste valeur par le
système de mesure ?
Les conséquences sur la qualité du travail en équipe ne sont pas non plus
anodines. Dans un système de mesures parcellaires, la carte de
l’individualisme est toujours la plus payante.

En résumé
La mesure oriente les comportements. Si l’on veut changer les comportements, il faut
donc changer la manière dont on mesure la performance.

Le classement de Shanghai
L’influence prise par le classement des universités mondiales en termes d’efficacité, dit
classement de Shanghai, est assez troublante. Depuis quelques années ce classement,
officiel de fait, incite les organisations universitaires mondiales à se structurer afin de
mieux correspondre aux critères un peu arbitraires choisis pour ce classement9. Si sur le
plan éthique, ces adaptations sont discutables, elles sont pourtant indispensables sur le
plan pratique afin d’être mieux classées, et attirer ainsi les meilleurs étudiants tout
comme les sources de financement les plus profitables.

Il est aussi évident que si la valeur de l’action d’une entreprise cotée en


Bourse a autant d’importance au sein des comités de direction, c’est bien
parce que c’est cette mesure-là que l’on rend publique. Quel que soit l’ordre
du jour, la question du cours boursier sera toujours le thème principal. Par
conséquent, les décisions prises seront fortement influencées par cette
mesure.
Ensuite, on peut généraliser à de multiples champs d’activité. Quel que soit
le domaine ou le métier, on cherchera toujours à maximiser la valeur
mesurée, c’est humain tout simplement.

Les indicateurs de performance choisis pour leur facilité de


mise en œuvre
On ne pilote que ce que l’on mesure, dit-on…

Mais en sommes-nous certains ? Cet aphorisme est bien connu. Si l’on ne


mesure pas un aspect précis de la performance, on est bien mal placé pour
l’améliorer. C’est simple comme une vérité de La Palice. Dans la vraie vie
de l’entreprise, les faits sont un peu différents. Les concepteurs n’ont pas
toujours le temps, l’énergie et les budgets pour choisir et bâtir les justes
indicateurs pour mesurer les finesses du chemin vers l’objectif de
performance fixé. La force de l’habitude aidant, on se contente bien souvent
des indicateurs productivistes les plus triviaux : des délais, des quantités et
des coûts unitaires. Les concepteurs vous diront qu’ils ne mesurent que ce
qui est mesurable. En réalité, ils mesurent ce qui est facilement mesurable.
Figure 27 : On ne pilote que ce que l’on mesure…

Bien des grandeurs quantitatives qui seraient fort utiles pour le pilotage sont
difficiles à intégrer. C’est toujours au final pour des raisons de coût. Mettre
des données au bon format, les rendre cohérentes avec l’ensemble du
système, voire bâtir une infrastructure spécifique représentent des coûts
conséquents qui pourraient faire exploser les budgets consacrés au projet
d’aide au pilotage10. Les grandeurs plus qualitatives sont aussi loin d’être
évidentes à intégrer. Pourtant, toutes les formes de progrès ne s’évaluent pas
systématiquement en données quantifiées.
L’entreprise a bien compris que l’amélioration du « bien-être » des salariés
était une voie de progrès. C’est une préoccupation récurrente depuis déjà
quelques années. Mais comment s’y prendre ? Comment bâtir une échelle
fiable et consensuelle ? Ce n’est sûrement pas en cherchant des réponses à
une question commençant par « Combien ? » que l’on parviendra à
apprécier la notion de « bien-être ». La mesure sera sûrement plus fine et
précise en étudiant les réponses aux questions commençant par d’autres
adverbes interrogatifs tels que « Comment ? ». La vraie difficulté vient
ensuite. Par quel moyen traduire en données quantitatives les réponses
données ? Si les questions ont été bien formulées, elles seront
nécessairement de l’ordre du subjectif. Comment rapprocher les résultats,
comment les combiner, comment choisir les facteurs correctifs pour obtenir
un unique indicateur synthétique ? En quelque sorte, il s’agit de parvenir à
étalonner le qualitatif11.
On comprend mieux pourquoi les concepteurs privilégient les grandeurs
faciles à mesurer pour bâtir des indicateurs de performance.
En résumé
Si l’on ne pilote que ce que l’on mesure, on ne mesure que ce qui est facile à mesurer.
De là à dire que l’on ne pilote que ce qui est facile à mesurer, ce n’est que boucler le
syllogisme.

L’objectif suivi n’est pas lié à la stratégie

Le théorème du lampadaire

Si les objectifs que la direction met en pleine lumière ne sont pas ceux qui importent
vraiment pour l’entreprise, nous n’aurons aucune chance de comprendre pourquoi le fait
de les avoir atteints ne résout nullement le problème initial12.

Toutes les entreprises n’ont pas une stratégie bien définie. Elles ont des
ambitions, mais ne prennent pas le temps de bâtir des plans concrets afin de
les rendre réalisables. Elles se contentent de définir des objectifs de
performance afin, s’imaginent-elles, de motiver les troupes. D’autres
entreprises bâtissent une stratégie mais appliquent la loi du secret. Les
objectifs de performance proposés aux exécutants ne sont pas réellement
ceux qui permettraient d’atteindre les buts stratégiques. Pour ces deux cas,
il ne faut pas rêver. Les objectifs seront peut-être atteints, mais les
ambitions initiales ne seront jamais accomplies… Et on ne comprendra pas
pourquoi.

Les objectifs « sportifs »


Pour bien des dirigeants, un objectif de performance doit être équivalent à
un challenge sportif. Ils ont d’ailleurs trouvé sans effort la définition tant
recherchée en entreprise de l’adverbe « mieux ». Pour eux « mieux » serait
le synonyme de « plus ». Que ce soit des quantités d’articles vendus, des
clients contactés, des quantités de produits fabriqués, ou des lignes de code
écrites, l’objectif sera toujours d’en faire « plus » pour la période suivante.
La stratégie ? Quelle stratégie ?
L’objectif comme instrument de coercition
Sous prétexte d’émulation, les objectifs totalement détachés de toute
stratégie sont fixés à des niveaux quasi inatteignables. Dans l’esprit du
toujours « plus », il s’agira de faire mieux que l’an passé, peu importe que
ce fût une année exceptionnelle. Ne pas avoir rempli « ses objectifs » est en
effet éliminatoire le jour de l’entretien annuel.
Le système a été poussé au-delà de ses limites avec les multiples formes du
management par le stress. Le salarié ne connaît pas exactement les objectifs
à atteindre, et ne peut se référer qu’aux remarques de son supérieur. Sans
repère, il cherche à se dépasser au maximum et cumule les heures de travail
sans être sûr d’être plus apprécié pour autant. La crainte de la sanction qui
peut tomber au moment où l’on s’y attend le moins est un mode de
soumission vieux comme le monde. Une telle violence n’est pas évidente à
canaliser. Les plus fragiles la reportent sur leurs subordonnées ou sur leur
entourage familial. Pour les cas les plus tragiques, l’extériorisation de la
violence reçue ne suffit pas toujours. Saisis par un sentiment insondable
d’impuissance et d’inutilité, ils retournent alors leur colère contre eux-
mêmes. « Ce n’est pas si grave, la fin justifie les moyens et de toute façon
personne n’est irremplaçable ! » semble être la morale de ce mode de
management cynique à l’extrême13.

Lorsque l’objectif devient une obsession de tous les


instants…
La conjoncture est fluctuante. Un objectif tout à fait réalisable au moment
de sa fixation peut devenir plus difficile à atteindre dès que l’entreprise est
aux prises avec des difficultés. La démission d’un salarié clé, la perte d’un
marché important, le retrait d’un partenaire de premier plan, l’arrivée d’un
concurrent qui cherche à bousculer l’ordre établi, ce ne sont là que quelques
exemples d’événements totalement imprévisibles qui, en toute logique,
devraient inciter à réviser les plans et à fixer de nouveaux objectifs.
Pourtant, bien des directions se cramponnent contre vents et marées aux
objectifs fixés à l’origine, sans remettre en question leur bien-fondé bien
qu’ils ne soient plus légitimes.

Cas pratique
Depuis déjà deux décennies, les États européens sont astreints à réduire drastiquement
leurs dépenses afin de ne pas dépasser le seuil limite de 3 % du PIB. L’objectif n’a pas
évolué d’un centième en dépit du coup et des contrecoups de la crise de 2008 qui ont
mis à mal la majorité des économies nationales. Même si l’on peut comprendre
l’importance de limiter les déficits, l’origine de cet objectif immuable fixé à 3 % par décret
explique mal cette opiniâtreté à toute épreuve.

… et de surcroît est totalement arbitraire…


Et c’est là le plus surprenant. Cet objectif qui organise et structure notre vie
économique a été fixé d’une manière totalement arbitraire, et ne repose sur
aucun fondement économique.

Cas pratique (suite)

Guy Abeille, l’un des économistes à l’origine de la fixation de cet objectif à 3 % au début
des années 1980, explique sans détour dans un long article du périodique La Tribune sa
construction totalement artificielle. Il précise que ne pouvant rechercher le soutien
d’aucune théorie économique, ils ont choisi arbitrairement cette valeur de 3 % : « Deux
pour cent seraient, en ces heures ardentes, “inacceptablement” contraignant, et donc
vain ; et puis, comment dire, on sent que ce chiffre, 2 % du PIB, aurait quelque chose de
plat, et presque de fabriqué. Tandis que trois est un chiffre solide ; il a derrière lui
d’illustres précédents (dont certains qu’on vénère). »
LA TRIBUNE, 1ER OCTOBRE 201014

Avec le temps, les origines sont oubliées et l’objectif devient une loi divine
qu’il s’agit de ne pas transgresser au risque de s’attirer les foudres des
dieux, c’est-à-dire l’endettement sans fin, la récession, la déflation, et tous
les maux dont nous menacent les cassandres de l’économie. Il est
intéressant de noter qu’un objectif suffisamment rabâché devient
indiscutable. Gare à celui qui s’aventurerait à le contester en évoquant les
opportunités insaisissables avec un objectif aussi rigoureux, la vox populi
aura tôt fait de le ranger dans la catégorie des béotiens et des inconscients.
Ce peut aussi être le cas en entreprise avec des objectifs imposés par la
direction, dont on n’indique ni la raison, ni le mode de fixation, et que
l’encadrement ressasse à l’envi, afin que tout un chacun l’intègre dans son
système de valeurs. « Cette année, il faut tout faire pour augmenter les
ventes du produit alpha de 34 % ! » Pourquoi celui-ci et pas un autre ?
Comment ce taux a-t-il été choisi ? On n’en saura pas plus. Avec le temps et
le rabâchage, on oubliera ces questions essentielles et la cible unanime sera
bien l’objectif fixé. Les inévitables conséquences néfastes sur les ventes des
autres produits et l’insatisfaction de leurs acheteurs passeront au second
plan.
Poursuivons ce thème en restant au niveau des normes européennes avec
une seconde règle dogmatique aux origines fallacieuses : la définition du
seuil limite d’endettement fixé à 90 % du PIB.

Cas pratique
En 2010, deux professeurs d’économie de renom, Carmen Reinhart et Kenneth Rogoff,
ont démontré, modèle à l’appui, que plus la dette publique s’accroît, moins il y a de
croissance. Par la même occasion, ils ont aussi identifié le seuil fatidique : 90 %. À partir
d’un taux d’endettement de 90 % du PIB, nous basculons dans la récession, autrement
dit, l’enfer pour nos économies de marché dont le salut ne repose que sur une
croissance significative et constante. Les commissaires européens se sont d’ailleurs
appuyés sur cette étude pour exhorter les gouvernements à l’intensification des
politiques d’austérité, que nous subissons depuis le début de la crise financière de 2008.
En 2013, Thomas Herndon, un étudiant de l’université du Massachusetts, a mis en
évidence des erreurs grossières dans les formules Excel® de cette étude, dévoyant
totalement la conclusion. Michael Ash et Robert Pollin, professeurs et tuteurs de
l’étudiant, ont démontré à leur tour que les deux économistes, à l’origine de la règle,
avaient sciemment omis d’intégrer, dans leur modélisation, des cellules du tableur pour
parvenir à un résultat de croissance négative. Une fois l’étude corrigée, en considérant
le même panel de données, mais en totalité, Michael Ash et Robert Pollin ont conclu
qu’un déficit de 90 % entraînait une croissance positive de 2,2 %. Ce qui n’a pas
empêché Olivier Blanchard, alors le chef économiste du Fonds monétaire international
(FMI), d’estimer que le seuil de 90 % d’endettement maximal était un bon objectif.
Arbitraire quand tu nous tiens !15

1 Le titre de chapitre est librement inspiré du constat de George Box (1919-2013) statisticien
britannique : « Tous les modèles sont faux mais certains sont utiles », une formule bien connue
des statisticiens et maintenant des data scientists.
2 Nous reviendrons sur ce thème lors de la phase de sélection des indicateurs au chapitre 12.
3 Nous développerons un peu plus avant le thème de la stratégie au prochain chapitre.
4 En pratique, il s’agit surtout d’éliminer les écarts à la norme.
5 De toute façon, comme le rappelle justement Vincent de Gaulejac, la pratique de la qualité en
entreprise n’a plus rien à voir avec l’idéal que pourrait laisser entendre son intitulé « La qualité
apparaît non pas comme un outil d’amélioration des conditions de production mais comme un
outil de pression pour renforcer la productivité et la rentabilité de l’entreprise », issu de son
ouvrage La Société malade de la gestion, Points, 2014.
6 Citation inspirée de Charles Goodhart : « Once a social or economic indicator or other
surrogate measure is made a target for the purpose of conducting social or economic policy,
then it will lose the information content that would qualify it to play such a role. »
7 C’est d’autant plus vrai si les indicateurs ne sont pas trop bien choisis ou ne sont pas équilibrés
comme nous l’avons vu au chapitre précédent.
8 « Tell me how you measure me, and I will tell you how I will behave. If you measure me in an
illogical way… do not complain about illogical behavior. »
9 http://lemde.fr/2aYj5fv, Le Monde : « Universités : pourquoi le classement de Shanghai n’est
pas un exercice sérieux » (16-08-2016). « J’ai rencontré à Shanghai le monsieur qui avait
inventé ce ridicule classement des universités. Il était seul, dans un petit bureau. Je lui ai dit :
vous nous avez pourri la vie » Bruno Latour dans l’émission La suite dans les idées France
culture 21/10/17.
10 Il est aussi vrai que l’on ne tranche pas toujours aisément face à une dépense non prévue lors de
la phase de collecte des données. Le coût d’accession à la mesure est-il justifié au vu de
l’importance de ladite mesure pour l’aide au pilotage selon l’objectif poursuivi ? Le jeu en vaut-
il la chandelle ? Oui ou non. Voilà la vraie question à se poser.
11 C’est un peu plus difficile, mais c’est loin d’être impossible, Nous étudierons une méthode
efficace au terme de la deuxième partie.
12 Il s’agit d’une adaptation à l’entreprise du théorème du lampadaire proposé par Jean-Paul
Fitoussi : « Si les objectifs que la politique économique met en pleine lumière ne sont pas ceux
qui importent vraiment pour les sociétés, nous n’aurons aucune chance de comprendre pourquoi
le fait de les avoir atteints ne résout nullement le problème initial. » Ce théorème est inspiré de
l’historiette humoristique : « Une nuit un homme en état d’ébriété avancé cherche ses clés sous
un lampadaire. Un passant serviable se propose de l’aider : vous êtes sûr de les avoir perdues
ici ? Ah bien sûr que non, c’est près de ma porte que je les ai perdues, mais là-bas il n’y a pas
de lumière. » http://lemde.fr/2xntkFr
13 Les vagues de suicides au Technopôle de Renault et à France Télécom ont marqué les esprits,
tout autant que l’infâme commentaire de Didier Lombard alors PDG de France Télécom après le
suicide de 23 salariés en 18 mois : « Il faut marquer un point d’arrêt à cette mode du suicide qui
évidemment choque tout le monde. » (septembre 2009). Voir aussi le film Corporate de Nicolas
Silhol (2017). Cette fiction, véritable thriller, cerne assez justement la question des modes de
management par le harcèlement.
14 La Tribune : « À l’origine du déficit à 3 % du PIB, une invention 100 % française » (01-10-
2010). Un peu cyniquement, l’auteur avoue s’amuser que ce ratio totalement arbitraire, élaboré
sur un coin de table, soit devenu le mantra de tous les politiques. Ce plaisir n’est pas vraiment
partagé par les habitants des pays d’Europe du Sud (le nôtre y compris) contraints à des coupes
budgétaires, notamment dans les services sociaux, en respect du sacro-saint 3 %.
15 Aucun jugement de valeur sur la question de l’endettement dans ce paragraphe. C’est le
processus pour parvenir à un objectif arbitraire et erroné qui est ici mis en évidence. « The
Economist: Revisiting Reinhart-Rogoff » (17-04-2013), L’Expansion :« Reinhart et Rogoff
corrigent leurs erreurs de calcul sur l’austérité » (10-05-2013).
6.

Mais alors, qu’est-ce donc qu’un indicateur


de performance « utile » ?

C’est un indicateur qui a été soigneusement choisi pour mesurer la


progression vers l’accession à un objectif de performance, lui-même
minutieusement sélectionné pour servir au mieux le projet stratégique. Il est
parfaitement adapté aux besoins de l’activité à laquelle il est destiné. Le
manager ou l’équipe qui l’utilisent ont une totale confiance dans
l’information portée par cet indicateur. Ils comprennent cette information
bien au-delà de la seule valeur affichée, et sont donc capables de porter un
avis plus complet. C’est cette connaissance qui leur permettra de prendre
les décisions avec une estimation raisonnable du risque encouru1.
Un exemple trivial pour bien comprendre ce point essentiel de la définition
de l’indicateur de performance utile.

Exemple
Vous écoutez les cours de la Bourse, et le journaliste vous informe que l’action de la
société Gamma a grimpé de cinq points dans la journée. Si la Bourse ne vous intéresse
pas, le message a juste traversé vos oreilles sans passer par le cerveau. Il est oublié à
peine entendu. En revanche, si vous êtes un amateur éclairé, boursicoteur à vos heures,
vous vous dites peut-être : « Tiens j’aurais dû m’intéresser à cette valeur, il n’est peut-
être pas trop tard. » Enfin, si vous êtes un spécialiste des marchés financiers, un trader,
vous avez lu le dernier rapport financier de l’entreprise Gamma et vous savez que ses
perspectives de développement sont très limitées. Elle risque de rencontrer des
difficultés à court terme, et il est temps de vendre cette valeur, cette hausse n’est
qu’artificielle. Les décideurs qui utilisent un indicateur de performance judicieusement
choisi sont dans cette dernière situation. Pour eux, l’indicateur est révélateur d’un sens
bien plus complet que ne pourrait le saisir un étranger à l’activité.

Voyons maintenant encore quelques recommandations pour bien utiliser un


indicateur de performance.
Un indicateur n’est pas une marionnette pour
ventriloque
Il est toujours tentant de faire dire à un indicateur de performance ce qu’il
ne dit pas. Même sans chercher à manipuler l’auditoire, on confond
facilement l’information donnée par l’indicateur et l’interprétation qu’on lui
prête. Imaginons un indicateur de performance qui évolue fort peu malgré
les actions engagées. En déduire que les membres de l’équipe sont laxistes
ou incompétents est un raccourci un peu rapide. Ce n’est qu’une
interprétation possible. Ce n’est pas en tout cas le message de l’indicateur.
D’autres interprétations sont tout à fait envisageables. Il s’agit peut-être
plus prosaïquement d’un manque de moyens, d’un objectif impossible à
atteindre, ou de l’une de ces entreprises aux décisions stratégiques instables
au sein desquelles les objectifs changent en permanence, ou encore pour
bien d’autres raisons. L’interprétation de la cause et de ses solutions est du
domaine de l’humain. L’indicateur ne révèle qu’un fait précis, et encore
dans un contexte bien particulier. Rien de plus. À sa lecture, le décideur, ou
le groupe de décideurs, juge des actions les plus opportunes à mettre en
œuvre à courte ou moyenne échéance.

L’indicateur unique est un mythe


Je n’ai jamais cru que la grandeur d’un ensemble,
l’ampleur d’une synthèse
puissent dispenser de la vue aiguë et infiniment particulière du détail.

JULES ROMAINS (1885-1972), LES HOMMES DE BONNE VOLONTÉ.

Il est toujours tentant d’intégrer en un unique indicateur de multiples


mesures toutes porteuses d’une information primordiale. On parle alors
d’indicateur « synthétique », sous-entendant ainsi qu’aucune valeur
informationnelle ne serait perdue. Il suffirait ensuite de lire la valeur de cet
indicateur pour prendre une décision sans faille. C’est surtout de la théorie.
En réalité un indicateur dit « synthétique » n’est qu’un agrégat de mesures.
Évidemment, l’information de détail portée par les mesures le composant
est noyée dans ce conglomérat nébuleux. Il est difficile d’extraire un
quelconque enseignement d’un indicateur globalisé, si ce n’est à titre de
comparaison avec la valeur de l’échéance précédente. Mais même dans ce
cas, il faudra chercher ailleurs les raisons de l’éventuelle différence
constatée.

Et aujourd’hui ?
C’est là le principal défaut de la multiplication des reportings dans les entreprises
fortement stratifiées, où les informations, à force d’être globalisées, ne révèlent plus
grand-chose de la réalité d’une situation, une fois présentées sur le tableau de bord
des dirigeants.

Figure 28 : L’indicateur unique : synthèse ou perte de sens ?

Pour être efficace, un indicateur de performance mérite d’être plus simple,


afin non plus de masquer l’information des mesures le composant, mais
bien d’être un révélateur, un amplificateur du sens. Un indicateur de
performance se suffit rarement à lui-même. La performance n’est pas
unidimensionnelle. Pour cela, un indicateur, ou un groupe d’indicateurs de
la même famille, sera contrebalancé par un autre aspect de la performance,
afin de ne pas risquer de piloter avec des œillères. Il s’agit d’adopter un
regard plus large et plus équilibré pour éviter de favoriser un unique aspect
de l’activité, aux dépens des autres aspects ou des autres activités de
l’entreprise et de ses partenaires, ou de ne viser qu’une amélioration de la
performance à court terme aux dépens du long terme.

Un exemple typique : l’indicateur du PIB


Le PIB augmenterait si la cathédrale Notre-Dame
devait être détruite et remplacée par un parking2.

BERTRAND DE JOUVENEL (1903-1987), ÉCRIVAIN ET POLITOLOGUE.

Un autre point de vue :


Épousez votre femme de ménage et vous ferez baisser le PIB.

ALFRED SAUVY, (1898-1990), ÉCONOMISTE ET DÉMOGRAPHE FRANÇAIS.

Enfin, plus radical :


Le produit intérieur brut (PIB) ne constitue pas un bon outil
pour calculer la croissance et la qualité de vie.
En considérant les mauvais facteurs, nous prenons les mauvaises décisions.

JOSEPH STIGLITZ (1943-), ÉCONOMISTE AMÉRICAIN,


PRIX NOBEL D’ÉCONOMIE 20013.

L’indicateur du PIB mesure la richesse d’un pays4. Controversé à juste titre,


ses faiblesses et ses limites sont en effet de notoriété publique aujourd’hui.
Pourtant, c’est toujours le seul indicateur de référence pour évaluer la santé
économique d’un pays. Pour le PIB, la richesse d’un pays est égale à la
valeur ajoutée de sa production globale. Il s’agit donc de produire, et non de
préserver le futur et la qualité de vie. Le calcul du PIB encourage toutes les
actions destinées à accroître la valeur ajoutée. Il défavorise par conséquent
la quasi-totalité des mesures environnementales.

Exemple
Déboiser une forêt primaire pour planter des palmiers à huile, donne des couleurs à cet
indicateur unidimensionnel. Financièrement parlant, la forêt primaire ne rapporte rien.
Elle occupe inutilement un terrain que l’on peut mieux rentabiliser en cultivant des
palmiers à huile, une valeur marchande en pleine expansion, et créer ainsi de la valeur
ajoutée.

Si le PIB n’est pas vraiment orienté vers la soutenabilité environnementale,


il ne s’intéresse pas non plus au bien-être des citoyens. D’ailleurs, il n’est
pas corrélé avec le revenu moyen des ménages. Lorsque le PIB croît, le
revenu des ménages ne suit pas nécessairement la même tendance. Dans
leur ouvrage Un nouveau monde économique, Éloi Laurent5 et Jacques Le
Cacheux montrent que depuis 2009 le PIB des États-Unis a connu une
croissance significative de 12 %, tandis que le revenu moyen des ménages a
décru de 3 % sur la même période.
En 2008, pour tenter de remédier à ces dysfonctionnements, Nicolas
Sarkozy a commandé un rapport à une commission créée pour l’occasion, et
chargée de trouver de nouveaux indicateurs de mesure de la richesse
nationale. Cette commission est pilotée par trois économistes de renom :
Joseph Stiglitz, Amartya Sen et Jean-Paul Fitoussi. En conclusion, le
rapport préconise justement de multiplier les indicateurs de mesure de la
richesse, afin de compléter et d’équilibrer la mesure de la performance
économique, avec une sélection d’indicateurs de mesure du bien-être et de
la soutenabilité du développement6.

Il ne s’agit pas pour autant de multiplier les indicateurs


inconsidérément
Il n’y a rien de plus facile que de construire un indicateur de performance
qui ne mesure pas grand-chose, en tout cas sans grand rapport avec la
stratégie. On ne manque pas de sources d’inspiration, c’est peu dire. Le
réflexe le plus courant sera de piocher dans des listes d’indicateurs types,
elles circulent sur l’internet, et d’intégrer les plus faciles à construire. Plus
simple encore, depuis deux bonnes décennies, les outils informatiques de
gestion ont pris une telle place dans le quotidien de nos entreprises, qu’ils
s’insèrent même dans la construction de notre système de pilotage de la
performance et fournissent, sans qu’on leur demande quoi que ce soit, des
indicateurs de performance « prêts à l’emploi ». Pourquoi ne pas en
profiter ? Ce sont des informations utiles, non ? Eh bien, non.

Et aujourd’hui ?
Partir du postulat généralement admis que nous ne sommes jamais trop informés est
une grave erreur. L’excès d’informations tue l’information.

Déjà en 1971, Herbert Simon, prix Nobel d’économie 1978 et spécialiste de


la décision, mettait en garde sur les méfaits de l’abondance d’informations
comme dévoreuse de l’attention7. Plus on a accès à de l’information moins
on dispose d’un capital d’attention à accorder à chacune. C’est donc bien
d’une raréfaction de l’attention que nous sommes les victimes, et non d’un
manque d’informations. Donc non, cent fois non, il ne faut surtout pas
surcharger nos tableaux de bord d’indicateurs sans rapport avec la stratégie
poursuivie. Ces indicateurs superfétatoires n’apportent pas d’informations
complémentaires. Ils ne font que consommer inutilement une attention, qui
serait bien mieux utilisée, en étant totalement focalisée sur les quelques
indicateurs étroitement liés aux objectifs tactiques. Ils risquent d’ailleurs de
nous détourner de nos préoccupations, c’est-à-dire des objectifs poursuivis.

À moins qu’il ne s’agisse d’indicateurs « équilibrés »


Il est toutefois utile d’ajouter des indicateurs lorsque ceux-ci complètent et
enrichissent la compréhension de la performance au sens des objectifs fixés.
Deux exemples triviaux.

Exemples
Pour réussir dans les délais les projets dont il a la charge, un manager pourrait être
tenté de recourir abusivement à la sous-traitance. Il risque alors de faire exploser le
budget consacré aux projets. Sur son tableau de bord, l’indicateur des dépenses est
alors utilisé pour rééquilibrer les indicateurs d’avancement des projets. Ce premier
exemple est un classique, on ose espérer que tous les managers de projets
procèdent ainsi.
Le manager pourrait aussi être tenté de mettre la pression sur ses équipes, en les
poussant à produire sans cesse et sans jamais observer un moment de repos, quitte
à multiplier les heures supplémentaires. Ce n’est efficace qu’un temps. La fatigue
aura tôt fait de substituer la lassitude à l’enthousiasme. Sur le tableau de bord de ce
manager, il sera ainsi utile d’associer, à l’indicateur d’avancement des projets, un
indicateur évaluant le moral et l’enthousiasme des membres de l’équipe. Ce second
indicateur est moins facile à réaliser. Les retards, les absences justifiées ou non
justifiées, la multiplication des erreurs, les velléités de changement d’équipe, sont
déjà une première série d’informations de premier choix. La capacité à trouver de
bonnes idées, et à résoudre les problèmes du quotidien, les simplifications
opportunes, et le sens du partage et de la communication au sein de l’équipe, sont
une seconde série d’informations, là aussi de premier choix, pour bâtir cet indicateur.

En tout cas, c’est ainsi que l’on mesure la performance. On suit


l’avancement vers un objectif, un objectif de délai de réalisation des projets
dans ce cas, tout en prenant garde aux conditions de son accession, les
budgets et le moral des équipes pour cet exemple.

Aide-mémoire pour les managers de projet8

Si vous voulez être plus productif (indicateur de productivité),


respectez vos délais (indicateur d’avancement),
tout en prenant soin de bien faire (indicateur qualité),
assurez-vous de maîtriser vos dépenses (indicateur de coûts),
et que tout le monde y prenne plaisir (indicateur de satisfaction des membres de
l’équipe), c’est le minimum à suivre.

Il ne s’agit pas non plus de fuir tous les indicateurs


globalisés
Un indicateur globalisé est utile lorsqu’il est parfaitement ciblé sur un
aspect précis de la performance, et que sa composition est connue et
accessible. L’indicateur TRS, (taux de rendement synthétique) utilisé dans
la production industrielle, mesure le taux d’utilisation d’une unité de
production. C’est un bon outil de benchmark pour se comparer à d’autres
équipements de même nature ou à des périodes antérieures. On connaît
parfaitement la composition de cet indicateur. Il est en effet construit à
partir de trois autres ratios, chacun ciblé sur un aspect précis de la
production : taux de pannes, temps d’arrêt, problème qualité, baisse de
rendement etc. C’est pourquoi, si l’on note une variation significative de
l’indicateur global TRS, l’explication est immédiatement disponible9. Le
tableau de bord est conçu en conséquence et offre d’un simple clic, un accès
à la vue de détail. Mais pour qualifier une variation significative, encore
faut-il éclaircir la question du degré de précision acceptable de l’indicateur.

Quelle précision choisir ? Affiche-t-on ou


n’affiche-t-on pas les décimales ?
Les nombres arrondis
sont toujours faux.
SAMUEL JOHNSON (1709-1784), ÉCRIVAIN BRITANNIQUE.

Trop de précision tue l’indicateur, dit-on. Il est vrai qu’un indicateur


s’apprécie généralement en termes plutôt subjectifs. L’indication portée est
en écho avec notre propre échelle de valeurs concernant le thème de
mesure. Un chiffre bien trop précis risque plus de nous perturber que de
nous informer. En revanche, ce raisonnement n’est pas applicable dans
toutes les situations. Par conséquent, il ne s’agit pas d’arrondir toutes les
mesures, toutes les données avant de les agréger. On risque dans ce cas de
fausser totalement l’information synthétique résultante.
Voyons dès à présent trois anecdotes pour redonner un peu de lustre aux
décimales :

L’escroquerie des centimes


Supprimer toutes les décimales des nombres utilisées dans un calcul, plutôt
que se contenter de n’arrondir que le résultat final, est une technique
d’escroquerie assez classique. Un employé comptable peut ainsi avoir
l’idée, malhonnête bien sûr, de virer sur son compte personnel tous les
centimes des paiements lui passant entre les mains. Le bilan final est
présenté uniquement avec des résultats arrondis à l’euro près, donc sans
aucune décimale. Il ne prend pas le risque de voir sa manipulation
indélicate éventée trop rapidement, et s’enrichit à bon compte. C’est un cas
d’école. Cette technique d’entourloupe est appelée « salami slicing ».

L’orbite circulaire des planètes


Au XVIe siècle, il était de notoriété publique que toutes les planètes avaient
nécessairement une orbite circulaire autour du soleil. Comment pourrait-il
en être autrement ? De création divine, les astres étaient ainsi conformes au
modèle circulaire et à la sphère, symbole de la perfection depuis Aristote.
Selon les astronomes de l’époque, les quelques minutes d’arc d’erreur
relevées lors de l’observation de l’orbite de Mars, notamment par
l’astronome danois Tycho Brahe (1546-1601), étaient vraisemblablement
dues à l’imprécision des instruments et des techniques de mesure. Johannes
Kepler (1571-1630) étudia à son tour l’orbite de Mars en exploitant les
mesures relevées par Tycho Brahe. Il ne put que parvenir à la seule
conclusion qui s’imposait : cette erreur n’en était pas une. Dans ce cas, les
planètes n’adoptent pas une orbite circulaire, mais bien elliptique dont le
soleil est l’un des foyers. C’est la première loi de Kepler. « Scire est
mensurare », Savoir c’est mesurer était la devise de Johannes Kepler. Qui
pourrait affirmer le contraire ?

L’énigme de la quadrature du cercle enfin résolue


Le nombre π est par définition le rapport entre la circonférence d’un cercle
et son diamètre. Irrationnel de nature, il comporte donc un nombre de
décimales infinies, ce qui ne facilite pas les calculs. La question de la
quadrature du cercle a longtemps occupé les esprits scientifiques avant
d’admettre son insolubilité. Il est donc impossible de trouver un carré
occupant la même surface qu’un cercle donné. Pourtant, en 1897, un
mathématicien amateur de l’État d’Indiana (États-Unis) a tout de même
trouvé la solution. Il suffit d’utiliser une valeur de π arrondie. Pourquoi
s’embêter avec des décimales sans fin alors que, par la loi, on peut fort bien
fixer une valeur de π parfaitement utilisable ? Il a donc été décidé que la loi
de l’Indiana fixerait dorénavant la valeur de π à 3,2. Cette solution présente
en effet une multitude d’avantages. Les collégiens auraient sûrement
apprécié la simplification des calculs de trigonométrie. La loi a été
officiellement soumise au sénat. Sans l’intervention salutaire d’un vrai
mathématicien, elle était votée10.

Figure 29: L’énigme de la quadrature du cercle… résolue ?


La question de la précision des mesures est aussi une question de bon sens.
Chacun dans son métier connaît en général suffisamment la « chose »
mesurée, pour estimer la précision nécessaire, afin d’en apprécier toute la
substance. C’est aussi une question de tolérance d’acceptabilité. Quel degré
de variation de la mesure peut-on qualifier de négligeable ? Si pour une
mesure donnée, les décimales ne modifient en rien le sens porté par la
valeur, on peut effectivement les supprimer à l’affichage. Pour mémoire,
une mesure est toujours une comparaison à un étalon servant d’unité avec
une précision fixée et connue.

Un tableau de bord n’offre qu’une vision


réductrice de la réalité
Comme l’indique la définition mentionnée en introduction du chapitre
précédent, un indicateur de performance pointe sur un aspect précis de la
performance. Un tableau de bord bien conçu présente un ensemble cohérent
d’indicateurs équilibrés. Ces indicateurs sont soigneusement choisis en
fonction des objectifs de performance poursuivis, du contexte de l’activité
et des besoins du manager, ou de l’équipe chargée de les atteindre.
Ils ne peuvent en aucun cas être considérés comme universels et utilisés à
d’autres fins que la poursuite des objectifs de performance fixés. Il s’agit
effectivement d’une vision partielle et réductrice de la réalité, mais
parfaitement orientée pour les besoins bien spécifiques du manager ou de
l’équipe. Ainsi pour reprendre le titre de ce chapitre, les quelques
indicateurs utiles sont ceux qui ont été minutieusement choisis, tels que
décrits ici11 et comme nous l’approfondirons au prochain chapitre.
1 Le choix des objectifs et des indicateurs de performance sera le sujet du prochain chapitre.
2 Cette citation et la suivante ont été rapportées par Patrick Viveret et Olivier Pastrée au cours
d’une émission assez ancienne de la série « l’Économie en questions » sur France Culture.
3 Source : Revue Bilan (21-01-2016). Le PIB est désormais obsolète, selon Joseph Stiglitz.
4 Désormais, le trafic de drogue est intégré dans le calcul du PIB français. D’autres pays
européens intègrent aussi la prostitution (source La tribune 31-01-2018). Même si ces formes de
« création de richesse » bien peu éthiques redonnent des couleurs à l’indicateur phare, on peut
sérieusement douter de la précision de la mesure.
5 Éloi Laurent, économiste à l’Observatoire français des conjonctures économiques (OFCE), co-
auteur en 2015 de l’ouvrage Un nouveau monde économique, Mesurer le bien-être et la
soutenabilité au XXIe siècle, chez Odile Jacob.
6 Pour le lecteur intéressé par cette étude qui déborde un peu de notre sujet, l’Insee a publié un
rapport à télécharger : https://www.insee.fr/fr/statistiques/1372481?sommaire=1372485. Lire
aussi l’excellent petit guide de la collection Repères des éditions La Découverte : Les Nouveaux
Indicateurs de richesse de Jean Gadrey et Florence Jany-Catrice, 4e édition 2016.
7 « Designing Organizations for an Information-Rich World » in : Martin Greenberger,
Computers, Communications, and the Public Interest, Baltimore. MD : The Johns Hopkins
Press, 1971, pp. 40–41 http://en.wikiquote.org/wiki/Herbert_A._Simon. Une récente étude
menée auprès de 32 000 salariés révèle que « Devoir traiter des informations complexes et
nombreuses » est un facteur majeur de stress voire d’hyperstress (sic). http://www.stimulus-
conseil.com/wp-content/uploads/2017/11/Observatoire-Stress-novembre-2017.pdf
8 Un principe classique, repris d’ailleurs par les techniques de management de projet agiles.
9 http://tb2.eu/p1
10 https://en.wikipedia.org/wiki/Indiana_Pi_Bill
11 Un modèle est une tentative de représentation partielle d’un environnement complexe afin de
mieux le comprendre. Un modèle est nécessairement simplificateur. Il est donc faux vis-à-vis de
la réalité. En revanche, il est utile pour étudier des aspects bien précis de cette même réalité.
D’où la pertinence de la formule de George Box déjà mentionnée au chapitre précédent ; « Tous
les modèles sont faux mais certains sont utiles. », Un tableau de bord bien conçu, composé
d’indicateurs judicieusement choisis, est une modélisation bien utile pour évaluer la performance
selon les orientations choisies.
DEUXIÈME PARTIE

COMMENT Y REMÉDIER : LA
DÉMARCHE

Où l’on déroule chacune des sept étapes depuis la conception de la


stratégie jusqu’à la prise de décision en traitant en particulier les
points délicats comme le choix des objectifs de performance, la
pratique de la confiance et de la reconnaissance et les spécificités de
la décision en équipe.
7.

Tout bien réfléchi, ce n’est pas bien


compliqué : pour suivre un indicateur de
performance, encore faut-il en avoir envie…

« Ceux qui prennent leurs désirs pour des réalités,


sont ceux qui croient à la réalité de leurs désirs. »

SLOGAN DE MAI 68.

Une vision d’avenir qui mérite d’être rééquilibrée :


« Le problème est la réalité,
parce que nous ne faisons pas ce que nous voulons,
nous faisons ce que nous pouvons dans les limites de la réalité. »

JOSÉ MUJICA (1935-), EX-PRÉSIDENT DE L’URUGUAY1.

Pour développer la démarche de conception et de mise en œuvre d’un


système de mesure de la performance, nous nous appuierons sur
l’expérience acquise auprès des entreprises les plus finaudes, celles qui ont
bien compris que l’intelligence cumulée était bien plus profitable que la
compétition individuelle. La réussite du projet repose sur les deux notions
essentielles que sont la confiance et la reconnaissance. Sans instaurer un
climat de confiance et une culture de la reconnaissance, on ne parviendra
pas à dynamiser la prise de décision seul ou en équipe. C’est pourtant bien
là la finalité d’un système de mesure de la performance. Dans un
environnement complexe et incertain, il vaut mieux être armé pour prendre
sans attendre les décisions ad hoc au plus près du terrain, là où est
l’information, là où se déroule l’action. Les systèmes ultra-centralisés
considérant les humains de l’entreprise comme des automates bien
programmés, qu’il s’agit toutefois de contrôler, sont totalement inadaptés.
Même en un environnement plus paisible, l’entreprise traditionnelle ne
fonctionne pas uniquement grâce à ses rouages bien huilés de procédures et
de normes. De multiples problèmes apparaissent au quotidien. Ils sont
résolus en silence par ceux qui prennent les initiatives qui s’imposent. Dans
un contexte plus chahuté, soumis en permanence à la dictature de l’aléa, les
salariés sont contraints de prendre le risque d’aller au-delà des normes, des
procédures et des méthodes, pour accomplir leurs missions dans les
meilleures conditions. Autant simplifier leur tâche en bâtissant un système
de mesure de la performance facilitant l’appréciation des risques pris. Une
décision en un contexte incertain est toujours une prise de risques.

Bâtir le système de mesure de la performance,


une démarche typique
Étudions dès à présent, étape après étape, les principes de la construction
d’un système de mesure de la performance exclusivement conçu pour
faciliter l’aide à la décision. Mais commençons par une mise au point avant
d’entrer dans le vif du sujet.

Qu’est-ce que la performance ?


Théoriquement, la performance s’exprime selon deux dimensions
spécifiques : l’efficience et l’efficacité. L’efficience, c’est exploiter du
mieux possible les moyens disponibles. Tandis que l’efficacité, c’est agir
pour atteindre les objectifs fixés. L’un ne va pas sans l’autre, même s’il est
vrai que dans les entreprises et les organisations publiques l’on a tendance à
privilégier l’efficience aux dépens de l’efficacité.
Figure 30 : Le triangle théorique de la performance

Plus concrètement, le ratio service rendu/coûts semble la définition la plus


couramment utilisée aujourd’hui pour exprimer la performance. Le
dénominateur coût étant plus facile à travailler que le numérateur service
rendu, il ne faut pas être surpris de ne plus être surpris. Cette manière
d’aborder la question de la performance, satisfaisante sur le plan
économique à court terme, est un véritable castrateur de l’inventivité et de
l’innovation. Le petit brin de folie, qui fait de nous des humains créateurs,
se trouve ainsi mis à mal par une rationalisation extrême.

Et aujourd’hui ?
C’est le principal danger actuellement. Il vaudrait mieux éviter de laisser le monde
passer aux mains des dévots de la rationalisation et autres pisse-froid.

La performance n’est pas une notion universelle. Son expression même est
étroitement liée au but poursuivi.

Exemples
Pour un coureur de fond, la performance s’exprime en dixièmes de seconde, pour un
sauteur à la perche, elle se traduit en centimètres.
Pour une entreprise de ventes en ligne, qui fait le pari de la livraison en 24 heures
chrono, la performance prendra alors plusieurs aspects. Le temps évidemment,
depuis la prise de commande jusqu’à la livraison client, mais aussi la précision et le
soin de la préparation des commandes, la juste optimisation de la gestion des
approvisionnements, tout comme l’harmonie des relations avec l’ensemble des
partenaires et sous-traitants intervenant dans la chaîne vue dans sa globalité. Le
confort d’utilisation du site Web et la qualité du service de réclamations sont aussi à
prendre en compte.

En creusant un peu, on trouvera vraisemblablement bien d’autres formes


que prend la performance pour servir cette finalité stratégique. La
performance est le pur produit de la stratégie, dans le sens où, plus on
l’améliore, plus on accroît ses chances d’accomplir ladite stratégie, et donc
d’en récolter les fruits.
Pour être plus complet et plus théorique à la fois, précisons s’il était
nécessaire, que la notion de performance se décline aussi selon les intérêts
spécifiques de l’ensemble des parties prenantes que sont : les actionnaires,
les clients, les salariés, les partenaires et les sous-traitants, le public et sans
oublier toutes les questions liées à l’environnement et au développement
durable. Voilà pour la dimension idéale et vertueuse de la performance, le
but à atteindre sans aucun doute. Mais la réalité est encore tout autre et bien
du chemin reste à parcourir.

Figure 31 : Les axes de performance théorique

Nul besoin de longues démonstrations pour noter, que, hormis quelques cas
exceptionnels toujours cités en exemple dans la presse spécialisée, la large
majorité des entreprises considèrent encore aujourd’hui la question de la
création de valeur uniquement dans sa dimension la plus sommaire, celle
susceptible de générer un profit immédiat. La performance au sens de
l’actionnaire est la raison d’être de bien des entreprises. Hormis les clients,
source directe de rentabilité, l’intérêt spécifique des autres parties
prenantes, y compris les salariés et les partenaires, est encore jugé comme
négligeable.

C’est dit !
Bien qu’il semble aujourd’ui évident qu’une éthique responsable et respectueuse de
l’environnement et de la société soit désormais un enjeu stratégique, les dirigeants
sont encore bien trop peu nombreux à envisager l’avenir de leur entreprise en ce
sens2. Les opérations marketing de « greenwashing » et les falsifications des plus
grands fabricants automobiles sont là pour nous rappeler que ces questions
essentielles aux yeux du public ne sont pas des priorités pour tout le monde3.

La démarche
Il existe plusieurs méthodes pour bâtir un système de tableaux de bord avec
suffisamment de singularités, pour que chacun puisse effectuer un choix
raisonnable, selon son besoin et son approche de la problématique. La
démarche proposée ici présente l’intérêt d’être totalement orientée vers la
prise de décision effective sur le terrain. C’est bien là la finalité d’un
système de mesure de la performance conçu pour une organisation
réactive4.

Figure 32 : La démarche pour bâtir le système de mesure de la performance pour


un pilotage réparti

• S comme Stratégie « Où souhaite-t-on aller ? »


Définition d’une stratégie raisonnable et raisonnée.
• O comme Objectif tactique « Comment agir sur le terrain ? »
Déploiement de la stratégie et donc choix des objectifs tactiques.
• C comme Confiance « Si je m’engage, est-ce que la direction et le
management s’engagent aussi ? »
C’est la première condition de réussite du projet qui mérite d’être traitée
comme une étape fondamentale du projet.
• R comme Reconnaissance « Mais qu’est-ce que je gagne à me
défoncer ? »
C’est la seconde condition de réussite du projet.
• I Comme Indicateur de performance « Quel outil de mesure de la
performance choisir pour une aide au pilotage ? »
Sélection des mesures et construction des indicateurs de performance.
• D comme Décision « Comment prend-on les décisions en entreprise ? »
Un point sur la prise de décision, l’appréciation du risque et le droit à
l’initiative.
• E comme décision en Équipe « La prise de décision en équipe est-elle
toujours consensuelle ? »
Une démarche pratique pour parvenir à une décision collective construite.

Ce chapitre suit un déroulement méthodique et donc didactique et nous


traiterons dans l’ordre chronologique chacun de ces sept temps.
1 Interview donnée à la BBC en décembre 2014 : « El problema es la realidad porque no hacemos
lo que queremos, hacemos lo que podemos dentro del margen de la realidad. »
2 Selon le sondage Medef/Viavoice du 28 août 2017, seulement 12 % des chefs d’entreprise et
10 % des salariés consultés imaginent que l’entreprise d’après demain sera : responsable,
soucieuse de l’environnement, transparente et à l’écoute de ses clients et des différentes parties
prenantes. Baromètre Les chefs d’entreprise et l’avenir (www.medef.com).
3 Sans être trop cynique pour autant, on peut effectivement douter que les questions de non-respect
de l’environnement ou de la plus simple éthique soient vraiment gênantes du strict point de vue
économique. Au cours de l’année 2016, les ventes de véhicules de la marque Volkswagen ont
battu des records malgré le « dieselgate » pourtant dénoncé à la fin de l’année 2015. Capital :
« Ventes de VW au niveau record de 10,3 millions d’unités en 2016 » (10-01-2017).
4 Cette étude s’inspire de la méthode Gimsi, une démarche de conception des tableaux de bord de
pilotage qui privilégie les acteurs de terrain. Elle est d’une portée suffisamment généraliste pour
être utilisée dans la plupart des secteurs privés ou publics. Voir http://tb2.eu/p9
8.

Tout commence (normalement) par


l’élaboration d’une stratégie raisonnable et
raisonnée, et donc pertinente

« On sait bien que le programme le mieux étudié


ne se réalisera jamais exactement !
Les prévisions ne sont point des prophéties.
Elles ont pour but de réduire la part de l’imprévu. »

HENRI FAYOL (1841-1925), ADMINISTRATION INDUSTRIELLE


ET GÉNÉRALE, 1916.

Sans pour autant proposer un traité de conception de la stratégie qui


dépasserait les ambitions de cette étude, attardons-nous à détruire quelques-
unes des principales idées reçues. Elles risquent en effet de détourner les
dirigeants peu initiés à cette science de la réelle problématique du devenir
de l’entreprise. Pour mémoire, une large majorité d’entreprises ne prennent
pas le temps de construire une stratégie durable, et se contentent de
fonctionner au jour le jour, de copier les quelques leaders du secteur
concerné et, parfois même plus grave encore, de se fourvoyer dans des
investissements peu réfléchis. Puis, nous étudierons un cas pratique, et nous
recentrerons notre étude sur la question du déploiement qui est étroitement
liée à celle de la prise de décision sur le terrain.

Mais qu’est-ce donc que la stratégie ?


Pour Alfred Chandler, économiste, « La stratégie, c’est l’acte de déterminer
les finalités et les objectifs fondamentaux à long terme de l’entreprise, de
mettre en place les actions et d’allouer les ressources nécessaires pour
atteindre lesdites finalités » (1962).

Figure 33 : Qu’est-ce que la stratégie ?

La stratégie, ce n’est pas se préparer à la guerre…


Ce n’est donc pas en abordant la question de la stratégie comme une
déclaration de guerre à la concurrence que l’on parviendra à élaborer un
programme de développement profitable. Les salariés ne sont pas des
fantassins, la main sur la couture du pantalon, attendant d’exécuter les
ordres reçus sans discuter, prêts à donner leur vie pour la bonne cause. Dans
un monde complexe et changeant, ce n’est pas vraiment le modèle
organisationnel à suivre. La solution sera plutôt du côté du développement
de l’intelligence collective que de l’obéissance aveugle à un chef de guerre
ainsi désigné. Par ailleurs, la stratégie ne se résume pas à la seule dimension
belliqueuse. La stratégie, c’est aussi construire des alliances, rechercher des
complémentarités ou encore découvrir des marchés libres de concurrence
comme le démontrent W. Chan Kim et Renée Mauborgne, auteurs du livre
Stratégie Océan Bleu1. On va donc laisser les mémoires de Clausewitz aux
amateurs de l’histoire militaire et de ses grandes batailles2.

La stratégie, ce n’est pas suivre les leaders médiatiques…


On peut aussi être tenté de s’inspirer des leaders du marché, ceux qui ont
déjà atteint le haut du podium et se parent de la couronne de laurier des
vainqueurs. Ces cas méritent d’être étudiés. Il y a vraisemblablement des
pistes à creuser, mais sans trop perdre de temps. Les récits épiques de leurs
réussites sont truffés d’omissions. Aussi grands stratèges que soient leurs
dirigeants médiatiques, ils ont fatalement fait bien des erreurs et leur
parcours est un peu plus chaotique que ce que cherchent à nous en dire les
chansons de gestes relatant leur légende. Les sagas Amazon, Ikea, Apple,
Google, Zara ou Free, contées à l’envi, seraient intéressantes si les
inévitables écueils et la manière de les surpasser étaient détaillés. Ce n’est
jamais le cas3.

Corollaire évident : la stratégie ce n’est pas copier les autres


Ce n’est pas parce que l’entreprise « THE BEST » a réussi qu’il suffit de la
copier pour réussir à son tour. Une stratégie gagnante fonctionne dans un
contexte bien spécifique. Chaque entreprise est unique, elle s’est construite
selon une histoire qui lui est propre. Ses collaborateurs, chargés de
concevoir et de déployer la stratégie, ont développé une culture originale
qui s’est concrétisée en une volonté de réussir largement partagée. Et enfin,
on ne connaît pas les obstacles qu’elle a rencontrés, on ne sait pas comment
elle a adapté son plan d’origine.

En résumé
Le plus important est dans les détails, et comme on ne connaît pas les détails on ne voit
pas ce qui est important. Ce qui a réussi chez l’un ne fonctionnera pas nécessairement
chez un autre.

La stratégie, ce n’est pas cocher une check-list pour


ressembler au modèle idéal…
De toute façon, la stratégie est une affaire très personnelle et, malgré la
croyance durable dans le monde du management, il est préférable d’éviter
de se fier aux listes de critères qu’il suffirait de remplir pour réussir
immanquablement. Il n’existe pas de modèle d’entreprise parfait à copier en
tout point pour réussir sans coup férir. Les prix Qualité de type EFQM,
Malcolm Baldrige, ainsi que toutes les déclinaisons régionales, sont très
« modestement » dénommés « modèles d’excellence » par leurs promoteurs.
Ils colportent cette légende de l’organisation idéale.

Le prix de l’excellence ou le miroir aux alouettes ?

S’il existe un ouvrage qui a marqué l’univers du management durant les décennies 1980
et 1990, c’est bien Le Prix de l’excellence de Tom Peters et Robert Waterman. Ce livre
est très rapidement devenu un des best-sellers internationaux les plus importants du
management. L’ouvrage, traduit en différentes langues, a été vendu à plusieurs millions
d’exemplaires. Les deux auteurs étaient alors consultants chez Mac Kinsey. Après avoir
étudié une multitude d’entreprises leaders de leur secteur, ils ont identifié les huit règles
de management stratégique qui font la différence. C’est là le thème de ce livre. Bien que
bon nombre d’entreprises citées comme exemples à suivre aient connu des déboires
(Delta Airline, IBM…), voire des faillites, le livre a tout de même perduré durant des
années comme ouvrage incontournable, un « must-read » pour des générations de
managers en herbe. En 2001, pour le vingtième anniversaire de la publication, Tom
Peters a fait quelques confidences. Il a révélé avoir inventé une bonne part des données
recueillies, contraint quelque part par son cabinet qui exigeait impérativement des
données quantifiées. Il a aussi avoué avoir rédigé les huit principes du livre sur un coin
de table quelques heures avant de les présenter au cours d’un séminaire commercial
pour lequel il n’avait rien préparé de suffisamment concis. Il est bon de reconnaître à la
décharge des deux auteurs que les huit règles sont portées par le bon sens, et c’est
vraiment là la recette du succès du livre !4

La stratégie, ce n’est pas adorer les gourous…


La stratégie a aussi ses « gourous » dont la moindre parole fait loi. Il est
vrai qu’ils détiennent le talent de réduire la complexité à une formulation en
quelques points de bon sens, résumés à l’aide de schémas d’une simplicité
enfantine. Leurs travaux et réflexions sont de bons instruments d’initiation
et de formation tant que l’on ne prête pas des vertus magiques aux outils
ainsi exposés. Par ailleurs, la plupart des études s’appuient sur l’expérience
d’entreprises de taille respectable, multinationales pour la plupart. Rien ne
démontre que les méthodes, outils et approches, sont déclinables au niveau
de la PME. Pour mémoire, 99,9 % des entreprises françaises sont des
PME5.
Enfin, les conseilleurs ne sont jamais les payeurs…

Lorsque les gourous appliquent leur recette miracle...


Bien que datant des années 1980, la théorie de l’avantage compétitif de Michael Porter,
maître à penser de la stratégie, est toujours un incontournable des formations en
management. Le modèle des cinq forces6, notamment, synthétise la problématique
concurrentielle d’une entreprise. Le succès de ce graphique est vraisemblablement dû à
sa simplicité. Farce de l’histoire, la société de conseil Monitor Group, fondée par Michael
Porter et un aréopage de professeurs émérites de Harvard, a fait faillite en 20127. C’est
au pied du mur que l’on reconnaît le maçon, dit-on…

La stratégie, ce n’est pas une chasse gardée de la direction


L’approche de la conception de la stratégie, habituellement préconisée par
une large majorité d’ouvrages, réserve son élaboration à un étroit cénacle de
dirigeants qui, tels les dieux de l’Olympe, décident du devenir de
l’ensemble des salariés-sujets. Des techniques d’accompagnement du
changement pour le moins aléatoires et l’autoritarisme d’une organisation
pyramidale séculaire seront ensuite suffisants pour faire avaler la pilule,
lorsque les objectifs stratégiques trop ambitieux s’avéreront peu
mobilisants. Les salariés ne sont pas toujours informés de la stratégie suivie.
Ils se contentent de grands principes tels que : « le sens du service client,
l’esprit d’équipe, l’initiative, l’innovation, l’intégrité, la transparence, le
respect, l’honnêteté etc. ». Ces valeurs ainsi claironnées ne prêtent pas à
discussion tant elles sont triviales. Elles ne sont choisies que dans un esprit
de propagande, aux fins de motivation des équipes et de promotion auprès
des clients. Mais personne n’est dupe.

La stratégie, ce n’est pas que la conception, c’est aussi le


déploiement
Il ne faut pas s’étonner si la plupart des stratégies, aussi soigneusement
élaborées soient-elles, échouent lamentablement lors du déploiement. Il y a
déjà quelques années, Robert S. Kaplan, cocréateur du Balanced Scorecard,
tableau de bord prospectif en français8, estimait que 90 % des stratégies ne
passaient pas la phase de déploiement. Il se fondait sur une large étude
internationale réalisée par la Harvard Business School. Il y a peu de chances
que le constat soit très différent aujourd’hui.

Et aujourd’hui ?
Pour la très large majorité des entreprises, un fossé d’une profondeur insondable
maintient une frontière infranchissable entre les dirigeants qui définissent et planifient
la stratégie, et les femmes et les hommes de terrain chargés de la mettre en œuvre.

Le schéma typique est assez simple sans pour autant être caricatural. D’un
côté les opérationnels sont tenus d’atteindre des résultats toujours plus
ambitieux, tout en respectant une avalanche de procédures, de règles et de
normes souvent inapplicables. Contraints par des objectifs flous et
productivistes, ils ne voient pas toujours le lien avec la stratégie de
l’entreprise. De l’autre côté du fossé, les tenants du pouvoir trop loin des
réalités sont méfiants. Ils multiplient alors les reportings, s’imaginant
récupérer ainsi les informations essentielles pour s’assurer de la parfaite
exécution des plans. Peine perdue.

Le sandwich à « rien du tout »

Pour décrire de façon imagée ce fossé isolant la direction de l’exécution, Nilofer


Merchant9, spécialiste de stratégies collaboratives, utilise la métaphore de « l’air
sandwich ». Un air sandwich, c’est un sandwich à « l’air », fourré au « vide ». La tranche
de pain supérieure, ce sont les décideurs. Ils sont dans la stratosphère. Leur altimètre ne
descend jamais en dessous de 20 000 pieds. Ce sont eux qui choisissent les
orientations et bâtissent les plans. La tranche de pain inférieure, ce sont les exécutants
confrontés aux réalités du terrain. Entre les deux, une couche d’air, le vide. Tout ce qui
fait un sandwich est inexistant. La tranche de jambon, la salade, la rondelle de tomate, la
mayonnaise, les cornichons, bref la consistance et la saveur du sandwich, ce sont les
échanges, les retours les rencontres pour partager l’expérience. Les organisations
manquent cruellement d’une compréhension partagée indispensable pour atteindre les
résultats nécessaires.

Une personne totalement étrangère au monde de l’entreprise, peu au fait de


ses pratiques et de ses conventions, sera vraisemblablement étonnée de
constater cette appropriation unilatérale du pouvoir aboutissant au paradoxe
suivant : « Ceux qui sont chargés d’appliquer le plan stratégique ne sont
pas censés participer activement à son élaboration, ne serait-ce que pour
préciser les subtilités du déploiement. »

Et aujourd’hui ?
Dans un contexte économique aux mutations rapides tel que le nôtre, on peut
aisément prendre conscience que les opérationnels sont justement les plus qualifiés
pour ajuster au mieux si ce ne sont les grandes lignes ce sera au moins les détails de
mise en œuvre de la stratégie.

Les déploiements stratégiques ultra-dirigistes où la direction distribue les


consignes, fixe les objectifs et contrôle régulièrement pour s’assurer que
tout se déroule comme prévu, devraient en toute logique avoir fait leur
temps. Les avalanches d’imprévus sont désormais le quotidien des
entreprises et le pouvoir égocentrique des directions absolutistes est
difficilement accepté par des salariés demandeurs de relations plus simples
et plus égalitaires. On exige qu’ils s’engagent, ils demandent donc de
participer. Quoi de plus naturel ?

En fait, une bonne stratégie est le fruit d’une


démarche coopérative
Sans rejeter en bloc la théorie et les outils, ce qui serait une pure
absurdité10, il est prudent de recadrer la démarche stratégique selon un
principe de coopération largement étendue. Autant profiter à fond du capital
d’expérience et d’idées disponibles au sein même de l’entreprise.
Confronter les approches et les points de vue des salariés de l’entreprise est
en effet le meilleur moyen de dénicher les pistes les plus porteuses.
L’idée n’a rien de révolutionnaire. Henri Fayol dans son ouvrage de
référence propose déjà une ébauche de démarche coopérative11 :

La citation qui interpelle


« L’étude des ressources, des possibilités d’avenir et des moyens à employer pour
atteindre le but, appelle l’intervention de tous les chefs de service dans le cadre de
leurs attributions ; chacun apporte dans cette étude le concours de son expérience
avec le sentiment de la responsabilité qui lui incombera dans la réalisation du
programme. Ce sont là d’excellentes conditions pour qu’aucunes ressources ne soient
négligées, pour que les possibilités d’avenir soient évaluées avec courage et
prudence, et pour que les moyens soient bien adaptés au but. »
HENRI FAYOL, ADMINISTRATION INDUSTRIELLE ET GÉNÉRALE, 1916.

En pratique, la technique n’est pas d’une difficulté insurmontable. Il suffit


d’organiser des rencontres croisées, où l’on invite les salariés à confronter
leur point de vue depuis l’exercice de leur métier. Au cours de ces séances,
on les incite chaudement à écouter leurs collègues s’exprimer. Puis, l’on
réfléchit et l’on analyse en commun les avis et suggestions. C’est dans ce
contexte que l’on exploite au mieux de leurs possibilités les outils de la
stratégie. Les membres du service commercial, du support technique et du
service client, sont les mieux placés pour indiquer au reste de l’assemblée
les attentes des clients. Dès que l’on traite de la qualité des produits, il vaut
mieux s’informer auprès des responsables de production et des techniciens
du service après-vente, cela tombe sous le sens. Enfin, qui connaît mieux
les offres de la concurrence, si ce ne sont les agents commerciaux sur le
terrain ?
Nous pourrions continuer cette liste, et passer ainsi toutes les activités de
l’entreprise pour bâtir une matrice SWOT12.

L’analyse SWOT, un outil aussi essentiel que mal utilisé

Figure 34 : Un exemple de matrice SWOT

La matrice SWOT propose d’identifier les forces et les faiblesses de


l’entreprise, tout comme les menaces et les opportunités potentielles. C’est
l’un des outils les plus connus de la panoplie du concepteur de stratégie,
mais c’est aussi l’un des plus mal utilisés. Simple en apparence, l’analyse
SWOT ne fonctionne qu’à la condition d’être quasi exhaustif pour chacun
des quatre axes. C’est à cette condition que l’on pourra tirer des conclusions
suffisamment solides pour servir de fondamental à la stratégie à engager.
C’est dire l’importance de procéder à une large et minutieuse consultation,
au sein de l’entreprise et de ses partenaires, afin d’explorer toutes les pistes.
C’est d’ailleurs dans cet esprit de coopération étendue que l’on parviendra à
extraire la quintessence de la plupart des outils de la conception stratégique.

La technologie est à notre service


Bien des questions posées ici nécessitent une enquête approfondie. Un
simple forum thématique permet d’exposer les premières idées et de
recueillir les commentaires. Les idées sont alors reformulées et discutées en
réunion.

Le fait à suivre
Avec les outils technologiques de communication disponibles aujourd’hui, comme les
réseaux sociaux déployés dans l’entreprise, il est encore plus simple d’étendre cet
échange à l’ensemble du personnel. C’est d’ailleurs ce que démontre Vineet Nayar
dirigeant de HCL Technologies, une importante société de services informatiques de
plus de 70 000 salariés répartis dans plusieurs pays13. Il utilise en effet le réseau
interne de l’entreprise pour présenter les plans stratégiques dans un premier temps
aux 8 000 managers puis à l’ensemble du personnel de l’entreprise. L’idée étant de se
rapprocher au plus près de la zone de création de valeur afin de se confronter avec la
réalité du terrain dans un esprit « peer to peer », ce sont ses termes. Les résultats
sont évidemment positifs. Les employés se sentent considérés, ils discutent plus
librement des stratégies proposées et n’hésitent pas à soumettre suggestions et
critiques pertinentes pour le bien de la communauté.

Un cas pratique : le démarrage d’une SCOP

Cas pratique

L’entreprise Alpha
Alpha est une entreprise spécialisée dans la conception et la fabrication
d’instrumentation scientifique. Depuis peu, Alpha est devenue une SCOP (Société
COopérative et Participative). L’ancien dirigeant a choisi de céder son entreprise à ses
salariés qui se sont constitués en coopérative. Au cours des deux dernières années,
l’entreprise a bien périclité. La retraite approchant, l’ancien dirigeant avait délaissé la
conduite des affaires à son fils peu motivé, et donc peu compétent. Aujourd’hui, les
caisses sont quasiment vides et il est urgent de relancer l’entreprise. Mais quelle voie
choisir ? Doit-on lancer en toute urgence une nouvelle gamme de produits, ou peut-on
encore exploiter l’ancienne ? Faut-il explorer de nouveaux marchés ? Qu’en est-il des
clients actuels ? Pour répondre à ces questions essentielles, nous avons choisi d’utiliser
un outil assez simple en apparence : la matrice d’Ansoff14.
La matrice d’Ansoff est avant tout un cadre de travail. Elle va nous aider à trouver les
voies de croissance les mieux adaptées.

Figure 35 : Un exemple de matrice d’Ansoff

Quatre types de stratégie nous sont proposés. Passons-les rapidement en revue.

Meilleure pénétration des marchés existants


Sommes-nous sûrs d’exploiter correctement notre secteur de marché ? Les clients
fidèles à l’entreprise sont peut-être intéressés par d’autres produits du catalogue.
D’autres segments de ce marché sont peut-être encore inexplorés.

Développement de nouveaux marchés


Comme l’intitulé l’indique, il s’agit de prospecter avec la gamme existante des « terres
inconnues ». Ce peut être de nouvelles régions ou de nouveaux acheteurs locaux, mais
d’un secteur d’activité encore jamais exploré.

Développement de nouveaux produits


Une entreprise quelle qu’elle soit a toujours intérêt à avoir en portefeuille des projets de
nouveaux produits, ou des améliorations significatives de la gamme existante, tant le
besoin en renouvellement et en innovation est devenu une condition de survie.

Diversification
Est-il possible de se développer en prospectant de nouveaux marchés avec une
nouvelle gamme adaptée ? C’est une démarche généralement plus risquée.
Alors, quelle stratégie pour Alpha ?
Cette matrice a permis de cadrer les échanges lors des multiples réunions nécessaires
pour choisir la bonne direction de développement.
La stratégie de diversification, qualifiée « le grand saut dans l’inconnu », a été assez vite
évacuée des pistes possibles. Tenter de pénétrer de nouveaux marchés avec de
nouveaux produits est une stratégie profitable, à condition d’avoir les reins solides, et
donc d’être déjà bien installé sur son secteur de marché. Ce qui n’est plus le cas de
l’entreprise Alpha.
En revanche, le lancement d’une nouvelle gamme de produits, plus sophistiquée que
celles existantes, était déjà une option étudiée depuis quelques mois. C’est aussi une
stratégie bien plus risquée. En matière d’instrumentation scientifique, la sophistication
est rapidement synonyme de complexité. La conception d’un produit trop complexe est
bien souvent source de multiples déconvenues. Les budgets sont systématiquement
dépassés, les délais ne sont plus tenus, et les clients sont mécontents. Bref, le risque de
travailler à fonds perdu est présent. Cette option n’a pas pour autant été rejetée. Quelle
que soit l’activité, il est désormais essentiel de monter en gamme. Elle sera reprise dès
que l’entreprise aura retrouvé une base solide. Il sera alors temps de réfléchir
concrètement aux possibilités de lancer une nouvelle gamme innovante à budgets
maîtrisés.
Bien évidemment, vu la situation financière de l’entreprise, c’est bien la stratégie de
meilleure pénétration des marchés qui est retenue. Dans son principe, cette stratégie de
croissance est assez simple. Elle consiste à soumettre aux clients fidèles des offres
commerciales ponctuelles, afin qu’ils s’intéressent aux produits ou services qu’ils n’ont
pas coutume d’acheter. On parle alors de « cross-selling ». Une autre technique, l’« up-
selling », invite les clients à monter en gamme. C’est une technique assez efficace si le
catalogue s’y prête. Enfin, sur une part de marché donnée, il existe peut-être des clients
potentiels d’autres secteurs professionnels qui méritent d’être approchés. Sommes-nous
certains d’exploiter tous les segments du marché ?
Mais ne perdons jamais de vue que le but d’une stratégie est bien de se différencier de
la concurrence, en mieux de préférence. Si ce n’est par les prix bas, ce qui est difficile
actuellement pour l’entreprise Alpha, ce sera en proposant une meilleure offre de
services. La réactivité et les délais courts sont une voie à privilégier15. C’est bien un
travail de fond qu’il s’agit d’entreprendre. Plusieurs processus sont concernés, et il
faudra impérativement inclure dans la démarche de progrès l’ensemble des fournisseurs
et sous-traitants. Bref une lourde tâche, même si les ambitions peuvent sembler
modestes aux lecteurs habitués des récits de stratégies révolutionnaires. C’est en tout
cas ainsi que l’on parvient le mieux à un résultat positif.

Les approches par petits pas, en s’appuyant quasi exclusivement sur les
moyens rapidement disponibles, sont vraisemblablement plus profitables
qu’un grand chamboulement qui met l’entreprise cul par-dessus tête.
D’expérience, les virages trop brusques sont toujours périlleux. L’entreprise
se retrouve en effet sur un parcours inconnu parsemé de nouvelles
embûches qui désorientent les salariés, troublent les partenaires et sèment la
confusion parmi les clients et les prospects.

Et aujourd’hui ?
En matière de stratégie, il ne s’agit pas de gagner le gros lot en découvrant le
business model disruptif qui générera une croissance fulgurante et sera ensuite relaté
dans les livres de management (« Waouh ! »)16, mais bien d’assurer une viabilité
pérenne en plaçant le maximum de garanties de son côté. Les risques d’échecs sont
toujours bien plus imprévisibles qu’on ne l’imagine. Cela dit, toute stratégie, aussi
mesurée soit-elle, comporte toujours un risque de perte financière.

Synthèse : les avantages incommensurables


d’une approche participative
L’approche participative étendue à l’ensemble du personnel présente un
double intérêt. En consultant très largement, on accroît les chances
d’explorer la plupart des pistes. Comme l’ensemble des salariés a participé
au choix, une large majorité s’engage donc naturellement à porter la
stratégie choisie.

Une fois la stratégie déployée… on reste aux aguets, prêts à


tout bouleverser s’il le faut
Une fois la stratégie déployée, on ne baisse pas les bras pour autant. Les
plans méritent d’être ajustés afin de saisir les opportunités. On demeure
donc aux aguets, on écoute les retours du terrain, et on n’hésite pas à
ajuster, à réviser ou à bouleverser les plans. Pour y parvenir, on range aux
oubliettes l’approche militaire et dirigiste, et on écoute avec attention dans
une relation d’égal à égal les points de vue et les impressions des femmes et
des hommes de terrain en contact avec la réalité. Ce peut être l’occasion de
découvrir une nouvelle stratégie originale, On parle alors de stratégie
émergente.

Stratégie délibérée versus stratégie émergente

Une stratégie dite « délibérée », pour reprendre la terminologie d’Henry Mintzberg17,


n’est autre que la planification de la formulation des objectifs visés par les dirigeants.
C’est l’approche la plus classique. Au contraire, la stratégie dite « émergente » naît du
terrain pour profiter des opportunités au moment où elles se présentent, tout en tenant
compte des contraintes. C’est une approche de la stratégie bien plus réactive. Les deux
approches ne sont pas nécessairement incompatibles. Encore faut-il connaître les plans
détaillés et être au fait des données financières pour bien saisir le rôle stratégique d’une
opportunité. Pour une large majorité des entreprises, ce n’est pas à la portée du salarié
lambda, fut-il manager d’équipe.

D’expérience, les stratégies conçues exclusivement au sein du cercle fermé


des exécutifs avec un nombre d’incursions limité dans le vrai monde de
l’entreprise, conduisent nécessairement à une focalisation exagérée sur les
données chiffrées. C’est logique. Sans trop forcer le trait, il faut bien
admettre que pour une large majorité de dirigeants, les processus de
l’entreprise aussi complexes soient-ils se résument à des séries de nombres,
des statistiques et des ratios. La suite est claire. La réalisation de la stratégie
devient rapidement une course aux résultats avec tous les travers et toutes
les dérives que nous avons listés et expliqués dans la première partie de cet
ouvrage.

C’est dit !
Un spécialiste de la performance publique évoque le « syndrome du mirage » pour
définir le comportement des acteurs institutionnels, qui se contentent de leur propre
production de statistiques, sans s’intéresser à la réalité vécue dans les
administrations. À leur sens, ces données sont la réalité, et ils se complaisent ainsi
isolés dans leur tour d’ivoire… Ils n’ont pas tort, leur monde fictif est tellement plus
simple !

Une stratégie plus participative, impliquant dans sa conception une majorité


d’acteurs de terrain, sera plus concrète, orientée sur les métiers de
l’entreprise, et conduite en accord avec leurs attentes. Avec le premier type
de conception stratégique, il ne sera pas nécessaire de déployer de grands
efforts pour comprendre que la motivation des femmes et des hommes
chargés de la mettre en action s’émoussera rapidement. Avec le second type
de conception, on peut espérer une implication plus franche sur le terrain, et
donc une prise de décision plus opportune en phase avec les objectifs
stratégiques ainsi fixés.

1 Stratégie Océan Bleu, Pearson Village Mondial, 2e édition 2015. Voir aussi : http://tb2.eu/p11
2 Carl von Clausewitz (1780-1831), théoricien prussien de la stratégie militaire.
3 Bien évidemment, il faudrait aussi considérer la part de chance ou encore le talent des
innovateurs anonymes qui ont construit ce succès dans l’ombre du leader médiatique.
4 https://www.fastcompany.com/44077/tom-peterss-true-confessions. Le livre est toujours réédité
en français sous le titre : Le Prix de l’excellence - Les 8 principes fondamentaux de la
performance, Dunod, 2012.
5 https://www.economie.gouv.fr/cedef/chiffres-cles-des-pme
6 Voir l’ouvrage de Michael Porter, L’Avantage concurrentiel, Dunod, 2003, et aussi
http://tb2.eu/p2
7 www.reuters.com : « UPDATE 1-Monitor Company files for Chapter 11; Deloitte to buy assets »
8-11-2012. Voir aussi : Alternatives Économiques 9-2013 « Quand les gourous se gourent ».
8 Robert S. Kaplan et David P. Norton, Le Tableau de bord prospectif, Éditions d’Organisation, 2e
édition, 2003.
9 Nilofer Merchant auteur de l’ouvrage The New How: Creating Business Solutions through
Collaborative Strategy. O’Reilly, 2014, et aussi ici : http://tb2.eu/p3
10 Comme pour tous les métiers, il s’agit de maîtriser l’utilisation et de bien connaître les limites
des outils utilisés.
11 Administration industrielle et générale, op. cit., page 68.
12 Strengths Forces, Weaknesses Faiblesses, Opportunities Opportunités, Threats Menaces. Une
rapide présentation pour le lecteur intéressé http://tb2.eu/p4
13 Lire Vineet Nayar, Les Employés d’abord, les clients ensuite, Diateino, 2011.
14 Igor Ansoff (1918-2002) est un mathématicien, homme d’affaires russo-américain, précurseur du
management stratégique.
15 En fait rien n’a bien changé depuis l’ouvrage Vaincre le temps de George Stalk et Thomas Hout
édité il y a plus de deux décennies. Sur un secteur de marché et une gamme de produits donnés,
on se différencie toujours par la rapidité de réaction. La qualité et les coûts maîtrisés sont des
incontournables, ne pas les respecter est éliminatoire. En revanche, on peut se différencier des
concurrents par une meilleure réactivité aux demandes des donneurs d’ordre et plus
généralement des clients. Le livre en version française : Vaincre le temps. Reconcevoir
l’entreprise pour un nouveau seuil de performance, Dunod, 1993.
16 Dans la littérature managériale anglo-saxonne, on parle d’une courbe de croissance de type
« hockey stick curve », c’est-à-dire en forme de canne de hockey, plate durant une courte période
puis se dressant quasiment à la verticale… De quoi faire rêver plus d’un dirigeant…
17 Henry Mintzberg (1939-) est un universitaire canadien, auteur de nombreux ouvrages et une
référence incontournable du management stratégique.
9.

De la stratégie aux tactiques, ou comment le


choix des objectifs de performance
conditionne la réussite du déploiement
stratégique

« …Son expérience lui avait déjà appris qu’à la guerre


les plans les plus savamment élaborés n’avaient pas d’importance ;
que tout dépend de la façon dont on pare les coups inattendus et imprévisibles de l’ennemi,
que tout dépend de la conduite même des opérations
et de ceux qui les conduisent. »

LÉON TOLSTOÏ (1828-1910), GUERRE ET PAIX, LIVRE III, 1RE PARTIE.1.

Une stratégie ne prend vie qu’au moment où elle se transforme en actes.


Tant que l’on n’a pas franchi le cap de l’action de terrain, les orientations
stratégiques, les plans, ne sont qu’une vue de l’esprit. Une fois déclinée sur
le terrain auprès des opérationnels chargés de la mettre en œuvre, elle
prendra corps. Ce sont donc les femmes et les hommes de l’entreprise qui
portent la lourde responsabilité de la mise en action de ces plans
stratégiques. Sa réussite est directement liée au talent des acteurs de terrain
pour affronter les aléas du réel. À moins de rêver aux grâces d’un joyeux
concours de circonstances, le « prévu » ne se transformera en « un réalisé
acceptable » qu’à force d’efforts et de corrections de la trajectoire. Des
corrections qui parfois sont radicales. C’est bien pour cela qu’il est
nécessaire d’accorder tous les moyens possibles aux femmes et aux
hommes de l’entreprise, afin qu’ils puissent affronter la part d’imprévu.
Encore faut-il que le « souhaitable », choisi lors de la phase de conception
de la stratégie, puisse être compris dans le sens de « possible » sur le
terrain. Autrement dit, les stratégies trop ambitieuses ou trop éloignées du
concret actuel ont bien peu de chance de trouver des supporters dans
l’entreprise.

Qui est concerné ?


La mise en œuvre d’une stratégie réaliste ne va pas chambouler l’entreprise
de la cave au grenier. En tout cas pas en un temps unique. Seules des
activités bien précises s’inscriront dans une dynamique de changement et de
progrès. Les équipes responsables desdites activités sont donc en charge de
mettre en action les tactiques les plus adéquates, selon le contexte et la
stratégie poursuivie. Une batterie d’objectifs de terrain, soigneusement
sélectionnés, canalise et oriente les plans d’actions « tactiques » dans la
bonne direction, c’est-à-dire dans le sens où ils contribuent à accomplir la
stratégie choisie. Une batterie d’indicateurs de performance mesure le
progrès sous l’angle desdits objectifs. Les informations portées par les
indicateurs de performance et les mesures associées orientent les décisions
prises par l’équipe. Faut-il réorienter les actions programmées, renforcer
celles qui sont en cours de réalisation, en engager de nouvelles ? Cela se
passe sur le terrain dans le feu de l’action. Toutes ces décisions ad hoc ne
sont par définition, ni prévisibles ni planifiables. C’est cela le pilotage de la
performance.

La pierre d’achoppement : décliner la stratégie en objectifs


de terrain
Lorsque l’on expose auprès d’une assemblée de dirigeants la problématique
de la mesure de la performance, en choisissant les bons arguments, l’on
parvient sans effort insurmontable à les convaincre de l’importance de
laisser les salariés choisir eux-mêmes les indicateurs. Ces femmes et ces
hommes sont sur le terrain, ils sont responsables des actions à engager, il
semble donc logique qu’ils définissent eux-mêmes l’instrument de mesure
de progrès le mieux adapté. Hormis une poignée d’irréductibles de la vieille
école qui n’objectent que des convictions à défaut d’arguments, le constat
est quasi unanime et l’adhésion aux principes coule de source. En revanche,
dès que l’on aborde la question de la liberté de choix des objectifs tactiques,
l’opposition est bien plus vigoureuse.

Figure 36 : De la conception de la stratégie à sa mise en action

Il s’agit là en effet de partager avec l’ensemble des équipes le détail des


orientations stratégiques. Cette réaction d’hostilité est prévisible. Lorsque
l’on s’adresse à un aréopage de dirigeants, éduqués dans un univers de
management traditionnel fondé sur la méfiance envers les subalternes, on
peut en effet douter d’une adhésion spontanée. Tant que l’on ne parvient pas
à franchir cet obstacle, il ne faut pas rêver, l’on ne réussira pas à bâtir un
système de mesure de la performance facilitant l’aide à la décision pour un
juste déploiement de la stratégie sur le terrain. Il n’est guère envisageable
d’imaginer les salariés de l’entreprise s’investir plus que de raison pour
atteindre des objectifs imposés par une direction distante. Ce n’est pas une
question de mauvaise volonté que l’on éradiquera avec une série de séances
de motivation de groupe. Agir sur le terrain, ce n’est pas uniquement
appliquer à la lettre une procédure, une méthode ou une technique. Agir sur
le terrain, c’est décider en un univers incertain, c’est prendre le risque
d’effectuer des choix dont on ne peut garantir une issue heureuse à cent
pour cent. Nous ne sommes plus dans le conceptuel, dans l’abstrait, dans
l’imaginaire utopique, où tout se passe nécessairement bien, mais au cœur
même du principe de réalité. Attardons-nous un instant sur les origines du
management par les objectifs pour mieux comprendre les réticences, puis
nous passerons à la phase de choix des objectifs en nous appuyant, comme
nous l’avons évoqué au début de ce chapitre, sur les entreprises qui ont tout
compris.
Et le management par les objectifs ?
Dès les années 1950, Peter Drucker, maître à penser incontesté des sciences
du management moderne, propose une méthode originale de management
par objectifs (MPO). Drucker voyait la fixation des objectifs comme la
colonne vertébrale d’une organisation, où toutes les contributions de chaque
département de l’entreprise sont orientées dans le même sens.

La citation qui interpelle


« Le cadre doit savoir et comprendre ce que les objectifs de l’entreprise exigent de lui
en termes de performance, son supérieur doit savoir quelle contribution attendre et
exiger de lui et le juger en conséquence. »
PETER DRUCKER, THE PRACTICE OF MANAGEMENT2, 1954.

Il envisage alors la relation entre les cadres exécutants et les dirigeants sur
le plan de l’intelligence partagée, et non sur celui de l’autorité et de
l’obéissance aveugle. Drucker anticipe en effet l’entreprise actuelle où les
spécialistes occupent une place prépondérante au sein des processus. Le
management par les objectifs serait alors l’outil de coordination pour
conduire toutes les actions engagées vers un même et unique but. C’est
aussi avant tout un outil de responsabilisation. Chaque salarié, quel que soit
son échelon, ne se contente pas uniquement de réaliser la tâche qui lui est
assignée. Il est désormais tenu de considérer l’entreprise dans son
ensemble, et de comprendre ce qu’elle attend de lui. C’est aussi une
démarche contractuelle établie entre le salarié et sa direction. Chacun doit
donc respecter sa part de contrat.
Dès 1968, cette étude a été poursuivie par Octave Gélinier3, à laquelle il
ajoute la notion essentielle de participation : DPPO, direction participative
par objectifs. Il ouvre ainsi la porte à une véritable négociation des objectifs
entre la direction et les managers chargés de les poursuivre.
Malheureusement, au lieu d’être adaptée à notre environnement toujours en
évolution la démarche a été ensuite dévoyée. Pour les entreprises adeptes
des pratiques d’un autre temps, le management par les objectifs est devenu
un instrument de coercition. Essayez donc d’aborder le thème des objectifs
dans une entreprise, où équipes et managers sont tenus d’accomplir leur
tâche respective, sous la contrainte conjuguée d’une batterie d’objectifs
productivistes hors de propos et d’une évaluation périodique inquisitoire !
Bien peu d’entre eux sauront dissimuler une moue de rejet. Nul besoin de
lancer une nouvelle étude sur le phénomène du stress en entreprise,
l’explication est claire dans ce cas. On peut supposer sans prendre trop de
risques que les dirigeants de ces entreprises n’ont guère évolué depuis la
vision du salariat des débuts de l’ère industrielle. Voici comment Taylor
envisageait les relations entre les exécutants et les dirigeants :

La citation qui interpelle


« Pour notre projet, nous ne demandons pas que nos hommes fassent preuve
d’initiatives. On ne veut aucune initiative. La seule chose que l’on attend d’eux, c’est
qu’ils obéissent aux ordres qu’on leur donne, fassent ce que l’on dit et le fassent
vite. »4
FREDERICK WINSLOW TAYLOR, THE PRINCIPLES OF SCIENTIFIC MANAGEMENT, 1911.

Bref, réfléchir, c’est déjà désobéir.


Ce n’est en tout cas pas ainsi que l’on dynamisera l’esprit d’innovation, tant
invoqué comme ultime bouée de sauvetage de notre croissance nationale
durablement en berne5.
La société a effectivement changé, et ces dirigeants s’efforcent de ne pas
s’en rendre compte. Ils persistent à agir en comptables, et ne jurent que par
le quantitatif. Tout doit être contrôlé, tout doit être mesuré, tout doit être
jaugé à l’aune d’un étalon impérativement quantifiable.

Et aujourd’hui ?
Au XXIe siècle, il ne s’agit plus de gagner des parts de marché en exploitant jusque
dans ses derniers retranchements les économies d’échelle, mais bien d’avoir un léger
temps d’avance sur les marchés et la concurrence. Nous sommes désormais de plain-
pied dans l’ère de l’innovation sans cesse renouvelée, il n’y a plus à en douter.

Nul besoin d’être un visionnaire pour se rendre à l’évidence que ce ne sera


pas par les prix bas et la déflation salariale que l’on assurera un niveau de
compétitivité acceptable et durable. C’est plutôt en améliorant
significativement le niveau de qualité et de sophistication des
fonctionnalités des produits proposés que l’on parviendra à ce légitime
objectif. Mais monter en gamme, c’est entrer dans un monde de produits
plus complexes donc plus difficiles à concevoir, à fabriquer et à vendre. Les
imprévus sont alors au rendez-vous et la rapidité de décision fait toute la
différence. La première innovation est donc organisationnelle. C’est aussi là
le sujet de cet ouvrage.

La démarche en pratique
La question du choix des objectifs de performance est la plus délicate du
projet. Il s’agit en effet de concrétiser la perception de la stratégie afin que
les salariés, déjà aux prises avec leur mission, puissent la rendre réalisable.
Les menaces tout comme les opportunités ne s’annoncent jamais en
tonitruant. Elles se matérialisent bien plus silencieusement d’une façon à
peine sensible, quasiment en catimini. Les microsignaux sont généralement
plus facilement détectables par tous ceux qui sont sur le terrain. Encore
faut-il que les salariés soient suffisamment impliqués et écoutés par la
direction pour échanger leurs inquiétudes et leurs intuitions sans craindre
d’être les sujets d’un jugement négatif. Bref, c’est une indispensable
coopération. Le ciment de cette coopération commence à être coulé dès
l’étape de choix des objectifs. Voyons dans un premier temps les
caractéristiques d’un bon objectif de performance

Qu’est-ce qu’un bon objectif de performance ?


Un bon objectif de performance répond à des caractéristiques bien précises.
Il est nécessairement quantifié. Aussi, il ne peut s’exprimer par un verbe qui
laisse toute liberté à l’appréciation. « Améliorer le service au client » ne
veut strictement rien dire. De quel type d’amélioration parle-t-on ? S’agit-il
d’accélérer les délais ? De soigner la préparation des commandes ?
D’accroître l’efficacité du service après-vente ? Ensuite comment peut-on
évaluer cette amélioration pour s’assurer que l’on suit bien la voie du
progrès ? Et quand donc en tirerons-nous le bilan ? Un objectif doit aussi
être borné avec une date butoir. Soyons plus précis.

La COP21 de Paris 2015 a été un succès...


Le consensus à 195 pays quasi inaccessible en apparence a pourtant été atteint. La
prise de conscience des causes humaines du réchauffement climatique est effective et
partagée par tous les participants. Cela semblait inconcevable il y a encore peu, tant les
climato-sceptiques profitaient de la faiblesse des modèles pour diffuser leurs doutes, en
évoquant des causes naturelles ou en minimisant les conséquences. L’accord est très
ambitieux… Mais il ne contient pratiquement aucune contrainte ! Un balisage
particulièrement flou et des objectifs laissés à la totale discrétion de chacun des pays,
qui bien que conscients de la réalité, cherchent à conjuguer leurs intérêts personnels
respectifs. Aucune échéance sérieuse fixée, si ce n’est celle de la prochaine rencontre. Il
y a bien peu de chance d’observer une amélioration significative à courte échéance6.
C’est bien cela dont il faut se méfier au cours de la définition des objectifs. La prise de
conscience est déjà un point très important, mais il est loin d’être suffisant. Il faut
s’engager sur des objectifs précis et des actions réalistes pour y parvenir.

Un bon objectif s’exprime donc impérativement par un verbe d’action que


l’on peut quantifier précisément et avec une échéance ferme. « Réduire les
erreurs de livraison de 15 % d’ici six mois » est un objectif qui remplit ces
premières exigences. On connaît l’échéance, et l’on peut mesurer notre
progrès tout au long du parcours. Le manager ou l’équipe en charge des
activités concernées par la réalisation de cet objectif définissent une série
d’actions à engager pour parvenir à l’atteindre dans le délai imparti. Encore
faut-il qu’il soit réaliste et accessible, c’est-à-dire que les acteurs en charge
de l’atteindre disposent des moyens pour y accéder.

Les six caractéristiques d’un bon objectif de performance

Figure 37 : Qu’est-ce qu’un bon objectif de performance ?

Un bon objectif se doit donc d’être7 :


Borné Une date d’achèvement raisonnable a priori, mais ferme, est précisée
impérativement.

Mesurable L’objectif s’exprime selon une unité de mesure, il est quantifié. Il est alors
possible d’estimer le chemin restant à parcourir avant de l’atteindre. On
mesure ainsi son progrès, et l’on juge de la justesse des efforts déployés et
de la pertinence des actions mises en œuvre. On est mieux armé pour
prendre les bonnes décisions d’orientation.

Accessible Les moyens sont disponibles, les contraintes sont surmontables et les
risques d’échec estimés sont limités et maîtrisables. Selon les cas, une
rapide étude des risques potentiels, de leur probabilité de survenance et de
leur pouvoir de nuisance pour l’accession à l’objectif fixé offre une sécurité
supplémentaire8.

Réaliste Il est ancré dans le concret, univoque et bien ciblé. La méthode pour y
accéder est tout à fait plausible, les indispensables actions à mettre en
œuvre pour l’atteindre sont réalistes. Traverser la Manche à la nage n’est
pas un objectif réaliste, même si ce record a déjà été réalisé à plusieurs
reprises. S’imaginer supprimer tous les rebuts d’une fabrication,
particulièrement complexe et délicate en un temps record, n’est peut-être
pas non plus réaliste.

Fédérateur La large majorité de tous ceux qui sont chargés de suivre l’objectif y
adhèrent sans réserve. Ils sont aussi tout à fait d’accord du choix de la
méthode retenue pour y accéder.

Constructif C’est un objectif tactique, il sert les intérêts de la stratégie sélectionnée.

Tableau 2 : Les six critères d’un objectif de performance

Pour trouver les objectifs de performance les plus pertinents, la meilleure


méthode est encore d’étudier les suggestions de chacun et de les valoriser
selon ces six critères. Seuls ceux dont on peut maximiser l’ensemble des
critères seront conservés. N’en retenir qu’un est déjà un bon début. À
quelques exceptions près, au-delà de deux objectifs fixés, le pari devient
difficile.
Objectifs Borné Mesurable Accessible Réaliste Fédérateur Constructif

Améliorer le service
0 0 0 0 2 2
au client

Supprimer tous les


3 3 0 0 2 3
défauts d’ici 3 mois

Éliminer 15 % du
nombre d’erreurs
3 3 2 3 3 3
de livraison d’ici 6
mois

Tableau 3 : Exemple de crible pour sélectionner en commun les objectifs les


mieux adaptés

Chaque critère est valorisé d’une note comprise entre 0 et 3. La note


attribuée est le fruit d’une appréciation subjective. Mais si l’on s’est donné
le temps de la réflexion, elle est d’autant plus significative. La note évolue
au fil de l’échange. Chacun apporte son point de vue et l’on parvient à un
consensus satisfaisant.

CONSEIL
Éviter les échelles avec un nombre impair de positions possibles. La position centrale, qui
permet de s’abstenir de s’engager ni totalement pour, ni totalement contre, ne facilite pas le
choix final.

L’objectif de la première ligne du tableau-exemple ci-dessus (tableau 3) est


bien trop vague pour être retenu. Celui de la deuxième ligne présente bien
des caractéristiques positives, mais il est trop ambitieux. En revanche, la
troisième ligne du tableau est vraisemblablement un bon objectif, si l’on
parvient à lever les quelques doutes sur son accessibilité. S’agit-il d’une
question de moyens disponibles, de contraintes difficiles à dépasser ou de
risques qu’il s’agirait de couvrir par anticipation ? Cette question sera
impérativement résolue avant de le sélectionner officiellement comme
objectif de performance9.

Le bon objectif exprime des ambitions raisonnables


Un objectif « réaliste » et « accessible » est nécessairement raisonnable.
C’est-à-dire, qu’au moment de son choix, l’on n’envisage pas de déployer
des efforts inconsidérés pour l’atteindre. Les objectifs plus modestes
présentent de multiples avantages. Le progrès est plus facile à mesurer, et
ils sont bien plus motivants. On parvient plus rapidement aux résultats et les
efforts sont ainsi récompensés. Les objectifs plus ambitieux sont bien plus
contraignants. Le progrès est plus lent et les difficultés, non prévues à
l’origine, sont autant de handicaps qui pénalisent les chances de réussite.
Un objectif présenté comme un challenge peut être stimulant. Mais s’il
engendre trop de pression il sera franchement démotivant. Notons qu’un
objectif que l’on jugeait modéré à l’origine peut se révéler comme un
générateur de stress au fil du temps si les événements ne se déroulent pas
comme prévu. Dès qu’il s’agit de raccourcir les délais et d’accélérer les
cycles, même si a priori les gains envisagés semblent raisonnables, la
fatigue et le découragement auront le dernier mot sur les ambitions initiales.

CONSEIL
Un objectif très ambitieux est bien plus efficace s’il est fractionné en deux ou trois autres
objectifs successifs plus raisonnables.

Le bon objectif est univoque et explicite


On en profitera aussi pour documenter soigneusement l’objectif afin qu’il
soit univoque et explicite pour tout le monde. Ce n’est pas toujours aussi
évident. Tous ceux qui pratiquent un même métier dans un contexte précis
se comprennent à demi-mot. Les explications sont superflues. Mais un
objectif décrit sommairement, de manière implicite, peut générer un
contresens et sembler ainsi équivoque pour celui qui n’est pas dans le feu de
l’action.

Comment s’assurer que les objectifs tactiques


sont bien au service de la stratégie ?
Le dernier critère « Constructif » est vraisemblablement le plus délicat à
traiter. Pour juger du degré de contribution de l’objectif choisi au processus
stratégique de l’entreprise, encore faut-il connaître suffisamment ce dernier.
Autrement, il est évident qu’il ne sera guère possible de choisir un objectif
qui oriente toutes les actions engagées dans le sens de l’accomplissement de
la stratégie. Cet objectif ne doit pas non plus s’avérer pénalisant pour les
autres services.

Exemple
Imaginons un processus aux multiples activités, un processus de fabrication à la
commande par exemple. On cherche à réduire significativement la durée d’un processus
depuis la prise de commande jusqu’à la livraison client. Il ne sera peut-être pas trop
difficile de réorganiser une activité A, comme la préparation de la commande, afin de
l’accélérer. En revanche, l’activité B, l’assemblage, est nettement plus complexe, et les
voies d’amélioration sont nettement moins radicales. Une fois l’activité A optimisée, les
lots traités s’empilent à l’entrée de l’activité B bien plus lente. En conséquence, les
efforts déployés pour accélérer l’activité A ajoutent une pression supplémentaire et
inutile sur l’activité B. Le processus global n’a pas gagné une seconde10.

La cohérence globale : marcher sur deux jambes permet


d’avancer
C’est à ce stade que se doit d’intervenir le management de l’entreprise. Son
rôle attendu n’est pas d’ordonner des directives, mais bien de coordonner
les objectifs choisis par les différentes unités concernées par le déploiement
stratégique. C’est un échange, une discussion entre deux parties, non pas en
opposition mais bien complémentaires. Les exécutants ont établi un premier
choix. Ils sont parfaitement conscients des enjeux stratégiques, ils
connaissent le terrain, et savent très bien ce qu’il est envisageable
d’améliorer à leur niveau d’intervention.
La direction ou ses représentants disposent nécessairement d’une vision
plus globale de la situation. Elle remplit alors le rôle de coordinatrice et
maintient le contact avec les autres équipes engagées au sein du processus
de déploiement stratégique11.
Figure 38 : Mettre en cohérence les objectifs de terrain

Enjeu de l’échange : parvenir à une cohérence satisfaisante pour chacune


des parties. C’est une discussion, mais qui dit discussion dit négociation.
Chacun défend aussi ce qu’il juge profitable pour ses propres intérêts. Ce
n’est pas toujours évident. Comme le note à juste titre Debra Smith12,
chaque département, chaque professionnel a ses propres priorités qui se
télescopent et entrent parfois en concurrence deux à deux. Ainsi, le
responsable des achats cherche le fournisseur moins-disant, tandis que le
directeur de production doit assumer les exigences de fiabilité et de qualité.
Le commercial exige des délais ultra-courts et s’oppose au responsable de
la planification qui doit gérer sa charge de travail. Le contrôleur de gestion
est persuadé que la soustraitance est la solution, au contraire du reste de
l’entreprise qui souhaite continuer à produire en interne ; le même rêve
d’éliminer tous les stocks, tandis que le responsable logistique est bien
obligé de les maintenir à niveau pour assurer une disponibilité de tous les
instants auprès de ses clients. Enfin, le chef du bureau d’études recherche la
standardisation des produits et s’oppose au responsable des ventes qui
aimerait, lui, proposer des produits personnalisés à ses clients. Aucune
entreprise n’est exempte de comportements contradictoires de ce type. Ils
apparaissent au grand jour au moment de la définition des objectifs. Chaque
responsable, chaque équipe a sa vision personnelle du juste accord entre sa
mission au sein de son service et son rôle pour l’accomplissement de la
stratégie globale. Bref, il va falloir négocier sérieusement pour glisser un
peu d’harmonie et contenter chacune des parties. La question n’est pas
neuve. Pour Mary Parker Follett13, il ne s’agit pas d’adhérer étroitement à la
stratégie, mais bien d’y contribuer du mieux possible, tout en respectant les
enjeux locaux au niveau du service ou du département. En substance, on
perçoit dans le propos de cette pionnière mythique du management
moderne, la subtile différence entre la subordination aveugle et la
contribution.

La sous-traitance et la chaîne de valeur globale


L’entreprise éclatée, thème majeur des années 1990, est un modèle effectif
aujourd’hui. Que ce soit pour des raisons de coûts, de compétences
spécifiques ou de capacité de production, les entreprises de taille
raisonnable privilégient la sous-traitance généralisée. Les processus de
fabrication, d’assemblage ou de conception, intègrent désormais des entités
extérieures totalement indépendantes.
La réflexion sur la cohérence des objectifs tactiques choisis se doit
d’intégrer cette dimension. La chaîne de valeur de l’entreprise comporte
ainsi de multiples sous-traitants et partenaires, parfois au sein même
d’activités clés. Leur rôle dans le processus de création de valeur est donc
effectif, et leur participation à la stratégie globale semble tomber sous le
sens, mais ce n’est pas si simple d’intégrer des entités différentes dans un
projet commun. Chacune de ces entreprises sous-traitantes poursuit des
ambitions personnelles et se débat au quotidien avec ses propres
contraintes. C’est là toute la difficulté de préciser les objectifs tactiques
cohérents au sein d’un processus comportant des entités externes et
indépendantes à l’entreprise. On comprend mieux le maintien du rapport
dominant-dominé dans les relations donneur d’ordre/sous-traitants.
Depuis bien des années, Il est pourtant recommandé d’établir de solides
liens de partenariats « gagnant-gagnant » régis par des contrats à long terme
avec les sous-traitants et fournisseurs. Dans les faits, cette démarche
vertueuse n’est pas si aisée que cela à mettre en place, et il est rare
d’ailleurs qu’elle tienne dans la durée. Selon le pouvoir financier que l’une
ou l’autre partie exerce sur son « partenaire », un rapport de force s’instaure
quasi naturellement. Depuis la nuit des temps, ou en tout cas depuis les
débuts de l’industrie, les donneurs d’ordre d’importance s’arrogent le droit
de s’immiscer dans l’organisation des sous-traitants. Avec l’essor du juste-
à-temps, et plus généralement du Lean management qui tend vers
l’universalité des techniques d’organisation industrielle, les sous-traitants
sont toujours plus soumis aux règles imposées par leurs donneurs d’ordre.
S’ils souhaitent conserver le statut de source principale
d’approvisionnement, ils n’ont d’autre choix que celui de répondre du
mieux possible aux exigences répétées des principaux clients. Les solutions
de partenariats plus vertueuses, évoquées ci-dessus, sont toujours
envisageables. Mais si en théorie les différents acteurs sont toujours de
bonne volonté et tout est possible, en pratique, la réponse est loin d’être
simple. Il est bien plus facile d’imposer ses desiderata que de réfléchir à une
synergie viable pour chacune des parties.

CONSEIL
Au cours de cette étape de mise en cohérence des objectifs tactiques, il faut tenir compte
de la nature des relations avec les sous-traitants, l’harmonie n’est peut-être qu’une façade.
Si l’on gratte un peu on découvrira que sous la bienséance de rigueur, l’obséquiosité des
uns répond à l’arrogance des autres.

1 Tolstoï s’appuie vraisemblablement sur son expérience de jeune lieutenant au siège de


Sébastopol (1854-1855).
2 Traduit en français en 1957 aux Éditions d’Organisation sous le titre La Pratique de la direction
des entreprises. Ce livre n’a pas été réédité depuis.
3 Ancien président de la Cegos décédé en 2004. Il est l’auteur de nombreux ouvrages de
management de référence.
4 « In our scheme, we do not ask the initiative of our men. We do not want any initiative. All we
want of them is to obey the order we give them, do what we say and do it quick. »
5 Les multiples textes publiés par la Commission européenne dans le cadre du programme
« Horizon 2020 » sont pour la plupart focalisés sur « l’innovation ». Ne serait-ce que pour cet
extrait du Journal officiel de l’Union européenne, le terme est répété plusieurs centaines de fois
en seulement une soixantaine de pages : RÈGLEMENT (UE) L347/104 n° 1291/2013 du 11
décembre 2013.
6 D’ailleurs les défections ont déjà commencé, comme chacun sait, en mai 2017, les États-Unis se
sont retirés de l’accord.
7 Ce sont les caractéristiques d’un bon objectif selon la méthode Gimsi®. Il est préférable
d’utiliser cette grille de critères plutôt que la plus classique fondée sur l’acronyme
mnémotechnique : SMART. Cette dernière omet les critères essentiels de Fédérateur et de
Constructif. Voir ici la différence entre les deux méthodes : http://tb2.eu/p6
8 Nous reviendrons sur le thème de l’identification et la valorisation des risques potentiels et
prévisibles au chapitre 13 consacré à la prise de décision.
9 Nous étudierons au chapitre 14 la question de la prise de décision en équipe.
10 C’est un cas d’école. Les spécialistes de l’organisation industrielle savent très bien que la
question des interfaces est toujours à traiter en priorité.
11 Cet échange est plus délicat lorsque les dirigeants ou leurs représentants chargés de la
coordination ne connaissent pas le métier des exécutants. Par exemple, la généralisation des
gestionnaires au poste de direction des entités de la santé publique est assez représentative des
difficultés de la négociation par manque de culture du métier et de l’institution.
12 Coauteur de l’ouvrage collectif The Theory of Constraints and its Implications for Management
Accounting, North River Press, 1995.
13 Mary Parker Follett (1868-1933), conseil en management et spécialiste des organisations,
proposait une approche du management humaniste fondé sur la responsabilité, l’art du conflit et
les accords gagnant-gagnant. Malheureusement, pour les générations de salariés qui ont suivi,
elle fut écartée pour laisser passer le rouleau compresseur des méthodes de rationalisation ultra-
mécanistes pilotées par Frederick Taylor et Henry Ford et tous leurs disciples. Oubliée durant
plusieurs décennies, on prend conscience aujourd’hui de ses apports fondamentaux à la science
du management. Les éditions Village Mondial ont publié un recueil en français de ses
conférences sous la direction de Marc Mousli : Mary Parker Follett, pionnière du management,
Diriger au-delà du conflit, 2002.
10.

La question de la confiance, première clé de


voûte de la démarche

Le critère « fédérateur » du tableau numéro 21 est tout aussi essentiel. Sans


une motivation largement partagée, les objectifs de performance ne seront
jamais atteints. Les contraintes sont toujours insurmontables pour celui qui
n’a aucune envie de déployer des efforts outre mesure.

On ne participe pas, on s’engage…


Il est toutefois avisé de mettre en évidence la différence entre la
participation et l’engagement. Il ne s’agit pas de participer au choix des
objectifs, mais bien de s’engager une fois ceux-ci sélectionnés. La nuance
change tout. « Participer » a perdu son sens en entreprise et se résume trop
souvent à être informé des décisions prises et, dans le meilleur des cas, à
donner son avis sans être sûr que l’on en tienne compte pour autant.
Engager sa responsabilité implique au contraire de bien soupeser le pour et
le contre, d’évaluer la portée et les risques de son choix. C’est un choix
volontaire pour un consensus actif.

… Mais sans confiance on ne s’engage pas


Nous avons introduit le chapitre précédent en évoquant les réticences de la
direction à confier une quelconque responsabilité stratégique aux
opérationnels. Les exécutants ne sont pas non plus toujours enthousiastes à
l’idée de s’engager sur la base d’objectifs même si ceux-ci ont été
correctement négociés.
Tant qu’ils ne disposent pas de la certitude que la direction leur donnera les
moyens d’agir et respectera les objectifs choisis, ils hésitent à s’engager.
Bref, le climat de confiance est des plus fragiles. Et sans confiance, on
n’avancera pas plus avant. Chacune des parties campera sur ses positions.

Pourquoi la question de la confiance n’est-elle


pas traitée à sa juste valeur en entreprise ?
Dans l’entreprise, la question de la confiance est souvent évoquée mais elle
est rarement approfondie. On préfère généralement se reposer sur le mythe
du leader suivi aveuglément par l’ensemble des salariés. La confiance
semble alors quelque chose de simple et d’évident. Il suffirait de bien
asseoir le leadership pour instaurer un climat de confiance naturel. Cette
question est pourtant bien plus complexe que cela. D’autant plus que le
modèle d’organisation fondé sur le leadership n’est pas du tout adapté à
l’ère de l’économie de la connaissance. Il n’est que temps de changer de
paradigme. Aujourd’hui, les salariés ne sont pas des exécutants
interchangeables mais bien des spécialistes. Chacun dispose d’un domaine
d’expertise bien défini, un domaine que ne connaît pas nécessairement celui
qui est officiellement chargé de conduire la « troupe ». La question doit
donc être abordée différemment en adoptant un modèle organisationnel de
type « égal à égal » et instaurant le respect réciproque de la compétence de
l’autre.

Et aujourd’hui ?
Il ne s’agit plus d’entretenir un culte de la personnalité d’un leader charismatique, mais
bien de dynamiser la prise d’initiative de tout un chacun. C’est cela dont on a besoin
dans un monde où l’innovation fait la différence, c’est en ce sens que l’on peut
découvrir l’avantage concurrentiel.

Cela dit, donner des directives et veiller au respect des procédures est bien
plus aisé à mettre en œuvre que de bâtir un environnement de travail, où
chacun se sent libre de prendre les initiatives qui s’imposent. C’est bien
pour cela que le management évolue bien peu dans les faits. Depuis déjà de
nombreuses années l’on nous annonce l’avènement d’une ère nouvelle, une
révolution managériale où l’on instaurerait « l’empowerment » comme
disent les Anglo-Saxons, c’est-à-dire l’autonomie et la délégation d’une
part de pouvoir et de responsabilité aux équipes opérationnelles. Il ne s’agit
pas uniquement de répondre aux aspirations de salariés qui souhaitent
légitimement sortir du carcan des règles pour gagner quelques degrés
d’autonomie.

Et aujourd’hui ?
Déporter les centres de décisions au plus près du terrain est bien l’unique moyen de
maîtriser un tant soit peu la complexité et l’incertitude du contexte économique. Le
besoin est là, aucun doute à ce sujet. Mais la délégation de pouvoir ne se décrète pas
aussi simplement.

Confiance et poka-yoke2
L’une des toutes premières fois où j’ai animé une prise de décision en
équipe, à la question : « Pour vous, qu’est-ce qu’une bonne décision ? » un
participant un peu espiègle me répondit : « C’est la décision qu’aurait prise
le patron s’il avait été à notre place ». J’appris ensuite que ce trait
d’humour était récurrent en entreprise. Il révèle en tout cas la réalité du
transfert de pouvoir. Le principe de délégation en vigueur au sein de la
majorité des entreprises n’accepte qu’une prise d’initiative ultra-contrôlée.
Ce contrôle passe par des comportements bien formatés. Si intuitivement,
prendre une décision dans le cadre d’une délégation de pouvoir c’est penser
qu’il faudra agir comme le leader l’aurait fait, nous sommes bien dans le
cadre de la méfiance déjà présentée au début de cette étude.
Ainsi, dès que l’on juge indispensable de placer des garde-fous une fois la
délégation mise en place, on affiche un signe évident de manque de
confiance envers ses subordonnés. Établir des procédures ultra-précises,
destinées à parer à toutes les erreurs possibles, en est le meilleur exemple.
C’est en fait une extension de la supervision. Comme on ne peut pas tout
contrôler on installe des ridelles afin que les exécutants ne puissent pas se
tromper et suivent le chemin prescrit. Effet pervers, comme le note David
Marquet dans son excellent ouvrage Turn the Ship Around !3, plus on limite
la réflexion des employés, plus le nombre d’erreurs s’accroît et l’on doit
donc ajouter de nouveaux garde-fous. Si l’on pousse plus avant le
raisonnement, les « bonnes pratiques » imposées, sans laisser aucune
latitude aux opérationnels, sont aussi par définition des freins à la réflexion.
Une délégation sans confiance, ce n’est pas une délégation.

Et aujourd’hui ?
L’extension des procédures détaillées ultra-rigoureuses et le principe du poka-yoke
étendu au-delà du raisonnable obéissent à de nouveaux impératifs. Avec la mobilité et
la multiplication des emplois temporaires, les opérationnels n’ont pas toujours le
temps de bien se former et d’intégrer les subtilités de leurs tâches. On leur demande
donc de s’en tenir à suivre les procédures sans autoriser le moindre écart pour parer à
tout risque d’erreur.

Mais alors qu’est-ce donc que la confiance ?


Imaginez un trapéziste voltigeur qui n’accorderait qu’une confiance limitée
à son partenaire chargé de le réceptionner. Pensez-vous franchement qu’il
s’élancerait dans le vide pour effectuer un saut périlleux ?
La confiance, c’est étymologiquement avoir foi en l’autre, être certain qu’il
sera fidèle à sa parole et qu’il accomplira ses promesses. La confiance sous-
entend la loyauté.
Pour mieux cerner cette notion essentielle, David H. Maister, Charles H.
Green et Robert M. Galford, auteurs de l’ouvrage The Trusted Advisor 4
proposent de calculer un coefficient de confiance à l’aide du ratio suivant :

Pour se faire une idée du degré de confiance que l’on accorde à son
interlocuteur, il suffit de confirmer ou d’infirmer chacune des quatre
assertions suivantes. Cet outil fonctionne aussi bien du point de vue de la
direction que de celui des salariés.
• Fiabilité
Vous êtes parfaitement d’accord avec la proposition suivante :
Il n’a jamais failli par le passé, lorsqu’il s’engage, il respecte son
engagement et agit comme nous avions convenu, aucun doute à ce
sujet.
• Crédibilité
Vous êtes parfaitement d’accord avec la proposition suivante :
L’interlocuteur mérite d’être cru, il sait de quoi il parle, on peut se
fier à son expertise professionnelle, il est parfaitement compétent sur
ce sujet.
• Intimité
Vous êtes parfaitement d’accord avec la proposition suivante :
Il n’a jamais trompé ma confiance par le passé et je sais que je peux
aborder avec lui des sujets précis sans aucun risque d’embarras. La
discussion sera constructive.
• Motivations personnelles
Vous êtes parfaitement d’accord avec la formulation suivante :
Il accorde la priorité à l’accomplissement des objectifs fixés pour le
bien de l’équipe et de l’entreprise. Je ne lui connais pas d’ambitions
personnelles contraires à cette finalité.
Les ambitions personnelles réduisent le potentiel de confiance, c’est pour
cela qu’elles sont placées au dénominateur. Évidemment, si l’on sait que
l’interlocuteur accorde la priorité à son intérêt personnel, la confiance
s’érode quelque peu.
Cela dit, dans une société où la mobilité est devenue la règle, cette formule
mérite d’être sensiblement adaptée. Les femmes et les hommes de
l’entreprise ont aussi une carrière à construire. Ils cherchent donc
naturellement à accomplir leurs propres ambitions. Tant qu’ils s’efforcent
de conjuguer leurs intérêts personnels avec ceux de l’équipe et de
l’entreprise pour réaliser la tâche assignée du mieux possible, ce n’est pas
en soi un problème. C’est d’ailleurs un facteur de motivation positif. En
revanche, dès que l’on commence à mettre en doute la franchise de son
interlocuteur en lui prêtant des motivations dissimulées contraires au bien
commun, la confiance est définitivement rompue quelle que soit la valeur
assignée aux trois critères précédemment évoqués. C’est ce que vise à
représenter ce schéma adapté de la formule de Green et Maister :
Figure 39 : L’équation de la confiance adaptée à l’entreprise

Disposer d’un outil pour mesurer la confiance est nécessaire mais ce n’est
pas suffisant. La confiance ne se gagne pas sans quelques efforts préalables.
Chaque critère précédemment cité mérite d’être développé c’est évident.
Mais la confiance en entreprise ne sera jamais acquise si l’on n’instaure pas
au préalable un principe de transparence en communiquant les informations
essentielles sans aucune réticence ni rétention.

Pour gagner la confiance on commence par


instaurer la transparence
Travailler dans un environnement sans transparence
revient à tenter de résoudre un puzzle sans connaître l’image à obtenir.

VINEET NAYAR, LES EMPLOYÉS D’ABORD, LES CLIENTS ENSUITE5.

On commence par donner si l’on souhaite recevoir. Ce principe évident


fonctionne aussi pour la question de la confiance. Le partage de
l’information en toute transparence est l’étape fondamentale. Encore faut-il
opter pour un mode de communication débarrassé de son formalisme et des
oripeaux officiels. Communiquer en toute franchise c’est aussi ne pas
hésiter à faire part de ses doutes et ne pas se contenter d’exprimer des
certitudes. Il s’agit en effet de parvenir à lever les préjugés sur la
communication interne de l’entreprise.
Et aujourd’hui ?
Combien de chefs d’entreprise et de politiques ont perdu toute crédibilité en jouant
avec les mots pour tenter de duper leur auditoire ! Mais vos interlocuteurs ne sont pas
plus bêtes que vous. Ils vont rapidement décoder le principe et une fois trompés, ils
mettront en doute tous vos propos quelle que soit leur véracité. Le lien est
définitivement cassé.

La communication c’est aussi l’écoute. Il ne s’agit pas de prêter une


attention faussement intéressée aux propos de l’autre comme par
bienveillance, tout en espérant qu’il termine au plus vite pour enfin clore
l’entretien à l’aide de propos convenus : « Je vous ai bien compris, j’en
prends bonne note, ne vous en faites pas, on réglera tout cela au plus vite,
etc. » Chacun d’entre nous connaît ces réponses toutes faites et vides de
sens, révélatrices quelque part de l’inanité de notre intervention. L’écoute
attentive au contraire, c’est justement profiter des remarques, commentaires
et retours d’expériences de tout un chacun pour enrichir le capital
d’intelligence collective de l’entreprise. Une bonne écoute n’est pas
uniquement attentive, elle est aussi active. C’est alors une discussion. Celui
qui écoute commente et, le cas échéant, invite son interlocuteur à préciser
son propos. Le questionnement ne doit pas non plus être perçu comme une
enquête policière, mais bien comme la volonté de comprendre le point de
vue, l’idée ou la récrimination de son interlocuteur. Il faut aussi comprendre
les difficultés, les peurs et les angoisses.

Les limites de la transparence et donc de la confiance


Instaurer un accès à l’information ouvert à tous n’est pas une règle
fondamentale de l’entreprise, tant s’en faut. Les informations qui confèrent
un pouvoir de domination pour celui qui les détient sont jalousement
gardées. Elles marquent la limite entre une transparence ouverte et assumée,
et une transparence de façade destinée aux communiqués marketing. Les
difficultés d’instauration de la transparence de l’information, et donc de la
confiance, ne concernent pas uniquement les relations entre l’exécutif et les
opérationnels. Mises en concurrence au sein même de l’entreprise, les
différentes unités, divisions ou équipes projet, sont tout aussi réticentes à
partager les informations, financières notamment. Il est un peu risqué dans
ce cas de se reposer uniquement sur un esprit de loyauté réciproque pour
bâtir un système complexe de pilotage réparti. Aussi est-il plus prudent de
verrouiller la question de la confiance à l’aide d’un filet de secours. Pour
rassurer chacune des parties, on redécouvrira les avantages indéniables d’un
contrat formalisant des engagements fermes et définitifs.

(Re)découvrir les avantages d’un contrat


d’engagement
Il est vrai que la logique du contrat n’est pas totalement entrée dans les
mœurs des entreprises françaises. C’est ce qu’explique fort justement
Philippe d’Iribarne avec l’ouvrage La Logique de l’honneur6, ce best-seller
écrit il y a déjà de nombreuses années et toujours d’actualité. C’est ainsi
que l’on peut expliquer la cause de l’échec du management par objectifs
(MPO) évoqué ci-dessus. La cause de cet échec est avant tout culturelle.
Comme l’indique Philippe d’Iribarne, les États-Unis et les pays latins, à
plus forte raison la France, n’adoptent pas du tout la même approche des
relations entre salariés et dirigeants. Si aux États-Unis, la mise en place
d’un contrat de performance ne pose pas de problèmes en soi, tant qu’il est
accepté et respecté par les deux parties, en France, comme dans la plupart
des pays latins, nous n’abordons pas la question de la même façon. Nous
raisonnons plus en termes de respect des valeurs qu’en termes
d’engagement contractuel. C’est bien cette différence culturelle qui,
toujours d’après Philippe d’Iribarne, explique l’échec de bon nombre de
méthodes de management d’origine outreAtlantique, déployées en France
sans prendre la précaution de les adapter. Si les Anglo-Saxons sont plutôt
dans une vision de type « utilitariste » du travail, où chacun remplit sa
fonction selon ce qui lui est assigné contractuellement, les Français sont
enclins à préférer un modèle de type « intégration » où l’assimilation au
sein du groupe, de l’équipe, de l’entreprise, est primordiale7.

La citation qui interpelle


« Lorsque chacun considère que ses devoirs sont largement fixés par la coutume du
groupe professionnel auquel il appartient (et que cette coutume ne peut être modifiée
sans l’assentiment du groupe), il acceptera mal que son supérieur prétende fixer ses
objectifs. »
PHILIPPE D’IRIBARNE, LA LOGIQUE DE L’HONNEUR, 1989.

Il est aussi vrai que nous sommes actuellement dans une phase de mutation
de la société. Les nouvelles générations sont vraisemblablement plus
sensibles à cette notion contractuelle des relations entre la direction et les
salariés. Ce changement de comportement s’explique aisément. Il n’est plus
guère possible de réaliser toute sa carrière dans une même entreprise.
D’ailleurs, ce n’est plus vraiment une ambition. Les salariés d’aujourd’hui
ont plus soif de changement et d’évolution rapide, d’une certaine forme de
liberté. Il faut, dit-on, construire son « employabilité ». D’où un intérêt
croissant pour les approches de type contractuel, où la relation avec
l’employeur et l’ensemble des partenaires de l’entreprise est du type
« donnant-donnant », une expression moins galvaudée, plus concrète et
moins trompeuse que le sempiternel « gagnant-gagnant ».

En résumé
Un contrat, c’est un filet de sécurité. Bien préparé, il peut devenir l’instrument du
renforcement de la confiance. Chaque partie se sent liée par cet accord. Chacune est
alors assurée que l’autre partie respectera ses responsabilités ainsi précisées8. On peut
donc s’engager. Le contrat ne remplace pas la culture du travail bien fait et la
satisfaction de la mission accomplie, il la complète.

Les conditions d’obtention d’un objectif


C’est aussi le bon moment pour préciser les conditions d’obtention de
l’objectif. Si des moyens supplémentaires sont nécessaires pour y accéder, il
est hautement recommandé de formaliser et de mentionner cette exigence
dans le contrat, afin d’éviter les quiproquos sur le moment et les
controverses stériles par la suite dans le feu de l’action, au moment où les
moyens supplémentaires font défaut.
1 Page 178.
2 Le poka-yoke est un terme japonais que l’on peut traduire en français par « prévention d’erreur »
ou plus simplement « détrompeur ». La disposition des broches d’une prise électrique qui impose
un seul mode de branchement est un bon exemple. Le poka-yoke est parfaitement utile dans ce
type d’utilisation simple.
3 David Marquet, Turn the Ship Around ! A True Story of Turning Followers into Leaders,
Portfolio Penguin, 2013.
4 David H. Maister, Charles H. Green, Robert M. Galford, The Trusted Advisor, Free Press, 2001.
À noter, Vineet Nayar auteur de Les Employés d’abord, les clients ensuite, déjà mentionné,
utilise la même formule pour établir un climat de confiance dans l’entreprise HCL Technologies.
5 Op. cit.
6 Philippe d’Iribarne, La Logique de l’honneur, Seuil, 1989.
7 Les Français sont adeptes du système D, dit-on. Une pratique bien utile pour combler l’écart
entre le prescrit et le réalisable. Pour la bonne cause, bien entendu. La satisfaction du travail bien
fait et de la mission accomplie en dépit des impondérables est toujours une source de motivation,
même si la folie de la normalisation limite drastiquement les degrés de liberté.
8 Toutes les entreprises ne respectent pas les accords passés avec les salariés. Continental à
Clairoix (Oise) ou plus récemment Whirlpool à Amiens (Somme), pour ne citer que celles-ci, ont
rompu unilatéralement les engagements contractuels avec les conséquences que l’on connaît
pour un bassin d’emplois déjà fort sinistré. Avec ces précédents, l’on peut comprendre les
réticences des salariés à signer des accords contraignants. Ce n’est pas avec des pratiques de ce
type que l’on accédera à des relations plus saines et donc plus productives.
11.

Mais qui dit « action » doit aussi entendre


« reconnaissance », seconde clé de voûte de
la démarche

Pour atteindre l’objectif, la méthode choisie implique nécessairement le


lancement de plusieurs actions destinées à l’amélioration de l’activité ou du
processus sous contrôle. La réussite du déploiement stratégique localement
dépend de la pertinence des actions lancées et de leur effectivité. C’est dire
l’importance que l’on doit accorder à l’identification des actions et à leur
suivi tout au long du processus d’amélioration.

De l’exactitude des fiches d’action découle la


définition des responsabilités
Toujours dans l’esprit du contrat, tous les moyens humains, financiers,
matériels, nécessaires pour l’accomplissement de chacune des actions,
seront soigneusement listés en précisant les dates ultimes de disponibilité.
Le plan d’action précisera aussi les rôles et responsabilités des femmes et
des hommes de l’équipe, mobilisés directement ou indirectement, pour
mener à bien chaque action. L’investissement en temps de chacun à
l’accomplissement de chaque action peut aussi être mentionné, il s’exprime
en pourcentage1.
Nom, prénom Rôle % temps investi Date d’implication Approbation

Responsable 20 %

Exécution 15 %

Exécution 15 %

Exécution 20 %

Conseil 10 %

Tableau 4 : Un exemple de fiche d’action

Être responsable n’est pas un vain mot. Il s’agit de répondre de ses actes
ainsi que de ceux de toute personne placée sous son autorité. Autant
s’assurer de disposer de toutes les cartes en main. Selon la complexité des
actions à mettre en œuvre, il est parfois prudent de se livrer à une courte
analyse des risques et des menaces potentielles pour éviter de se lancer sans
filet. Le responsable avisé prendra le temps d’enquêter afin de lister les
éléments de réponse à la question : « Qui ou quoi pourrait me gêner ou
m’empêcher de conduire à son terme l’action dont j’ai la responsabilité ? »
Mais il ne suffit pas de définir des objectifs et d’établir des fiches d’action
précises et réalistes. Encore faut-il que la volonté d’atteindre ces objectifs
soit suffisamment entretenue pour que les salariés trouvent l’énergie de
dépasser les obstacles et de vaincre les moments de découragement.
Autrement dit :

Je veux bien me défoncer, encore faut-il me dire pourquoi !


Le fonctionnement de l’entreprise ne repose pas que sur des normes et des
procédures, tout n’est pas programmable. L’entreprise produit, s’améliore et
devient plus efficace uniquement grâce à la volonté des femmes et des
hommes d’accomplir au mieux leur tâche assignée. Il n’y a guère besoin de
passer trop de temps au cœur d’une entreprise pour comprendre comment
elle fonctionne. La large majorité des acteurs de l’entreprise s’efforcent,
lorsqu’il le faut, de transgresser leur fiche de fonction. Ils communiquent
des informations essentielles, échangent des analyses, partagent leur
expérience et leurs tours de main. On connaît bien les méfaits de la grève du
zèle. Dès que les salariés d’une entreprise, ou plus généralement d’une
organisation, appliquent les règles et procédures à la lettre, au mieux le taux
d’efficacité plonge, au pire l’organisation est paralysée. Pas de vision
idyllique pour autant. Les tire-au-flanc, les incompétents, les râleurs, les
fraudeurs, les profiteurs et autres opportunistes, sont bien présents au sein
de toutes les organisations. C’est un fait. La rumeur existe aussi et elle
circule fort bien. On n’échappe pas si facilement à la médiocrité. Mais toute
organisation fonctionne ainsi.
Les salariés les plus constructifs apprennent rapidement à reconnaître et à se
méfier des éléments perturbateurs. C’est d’autant plus vrai au sein d’une
entreprise qui pratique un management moins distant et donc plus humain,
et qui de surcroît connaît la valeur du mot « reconnaissance ».

Dites-moi que vous aimez ce que je fais


En fait, ce n’est pas bien compliqué. Vous aimez vous sentir considéré ?
Vous êtes exactement comme tout le monde. Le besoin de considération est
justement un des ciments de la vie sociale.

La citation qui interpelle


« La notion de reconnaissance permet de mieux rendre compte de la manière dont se
résolvent les conflits individuels et sociaux que ne le feraient les notions d’intérêt,
d’appétit de pouvoir ou les principes abstraits comme l’amour, l’égalité ou la liberté. »
AXEL HONNETH (1949-) PHILOSOPHE ALLEMAND, LA LUTTE POUR LA RECONNAISSANCE.

Pour se construire une image positive de soi-même, on se fie au regard que


les autres portent sur nous. Les jugements flatteurs nous ennoblissent, les
dénigrements nous mortifient, l’indifférence nous obsède. Elle nous laisse
dans le doute, elle peut parfois même être interprétée comme une forme de
mépris. Chaque individu d’un collectif éprouve le besoin de se sentir utile,
de comprendre que sa contribution est considérée à sa juste valeur, en tout
cas celle que lui estime intimement.

Et aujourd’hui ?
L’indifférence, trop courante dans l’entreprise, engendre des frustrations, des
résignations, des résistances, voire des rejets.
La reconnaissance des autres, de la hiérarchie bien sûr, mais aussi des
collègues du groupe et des partenaires de travail, est une brique essentielle
pour construire une estime de soi digne de nos attentes. Reconnus, nous
avons conscience d’accomplir un travail utile et nous nous sentons valorisés
par notre entourage.

C’est dit !
L’estime de soi renforce la confiance en soi.

C’est une clé de la survie en entreprise. Elle est indispensable pour résister
aux influenceurs persuasifs et défendre son point de vue, sans trop subir la
pression du groupe dans le cas d’un débat ou d’une prise de décision
collective. Il est clair que les individus qui ont une faible estime d’eux-
mêmes sont rarement les premiers à s’engager en terrain inconnu. Ils sont
généralement réticents à sortir du quotidien et craignent les changements
d’habitudes. D’où l’importance de développer la question de la
reconnaissance en entreprise pour dynamiser la prise d’initiative, sans
laquelle aucune innovation n’est envisageable et donc aucune démarche de
progrès n’est concevable 2.

Mais quelle reconnaissance ?


La reconnaissance des résultats n’est pas suffisante. L’effort fourni et les
compétences déployées méritent tout autant d’être reconnus à leur juste
valeur. La reconnaissance est un tout. Les vrais professionnels affichent une
certaine fierté à bien faire leur travail, quitte à aller au-delà du rôle qui leur
est assigné et à transgresser (un peu) les procédures. C’est cela qu’il s’agit
de reconnaître, de valoriser, de renvoyer une image positive et donc
encourageante envers tous ceux qui se démènent, et donnent toute leur
énergie pour remplir du mieux possible leur mission. Ce ne sont pas les
mesures aussi précises soient-elles qui renverront une image exacte de cet
effort au quotidien.

Témoignage
Il y a déjà quelques années, j’intervenais sur un projet en déroute au sein d’un atelier de
mécanique de précision. Le manager en poste avait développé une « chiffromanie
aiguë » pour le moins pathologique. Il ne faisait confiance qu’à la mesure et à ses deux
corollaires, la pression du temps et la course aux prix bas, sans tenir compte du
professionnalisme de ces vrais artisans et de la qualité du travail réalisé. Il est vrai que
l’atelier concerné méritait une sérieuse réorganisation. Mais il n’était pas envisageable
de l’aborder sans discernement.

Le respect du métier et de l’amour-propre de ceux qui l’accomplissent est le


premier fondamental. La reconnaissance du travail bien fait est le second.
Les impératifs de productivité et de rentabilité sont une évidence, mais ils
ne seront jamais remplis sans la connaissance intime de ceux qui
accomplissent le travail. Après, bien entendu, il s’agit de convaincre ces
professionnels de l’importance d’utiliser des indicateurs de performance,
mais c’est moins difficile qu’il n’y paraît si l’on suit la bonne démarche.
C’est là, l’objet de cette étude. Mais développons au préalable cette
question fondamentale de la reconnaissance.

La reconnaissance comme moteur d’un


management responsable
Avez-vous remarqué ? Ceux qui décrivent ainsi leur emploi : « Je suis
parfaitement autonome dans mon travail et je prends seul(e) mes
décisions » éprouvent un plaisir évident. Tandis que ceux qui confessent :
« Je suis contrôlé(e) en permanence, je ne peux pas faire comme je veux, je
dois attendre les directives ou suivre les procédures, ce qui est du pareil au
même » semblent porter la croix de tous les malheurs du monde… N’est-ce
pas révélateur d’un malaise profond et aussi de sa solution ?

Le principe de la carotte et du bâton est encore aujourd’hui


l’instrument privilégié de la reconnaissance en entreprise
Dans les entreprises appliquant les règles managériales traditionnelles
fondées sur le modèle domination-soumission, on ne jure que par le
principe ancestral de la promesse de la carotte et de la menace du bâton
pour motiver les salariés. Comme pour une bête de somme, ce sera une
double ration de picotin si tu as bien travaillé, ou quelques coups de
cravache si tu as un peu musardé au lieu de te consacrer à fond à ta tâche.
L’évaluation annuelle des collaborateurs dans bien des sociétés de conseils
ne vise pas d’autres finalités. La promotion pour les uns, la porte pour les
autres.
Adopter la promesse de la prime ou la menace de la punition comme
instrument de motivation, c’est faire totale abstraction de ce qui motive
réellement les salariés pour accomplir leur mission. Bien plus d’activités
qu’on ne l’imagine satisfont pleinement ceux qui les réalisent. Ce n’est pas
la seule perspective d’une prime ou la peur d’un blâme qui motive pour se
lever le matin. L’ambiance de travail, les rencontres, la tâche à réaliser ou
les responsabilités à assumer, et toutes combinaisons des éléments de cette
courte liste qui mérite d’être complétée sont autant de facteurs de bien-être
au travail. Le salaire et les primes sont des points essentiels, n’en doutons
pas, mais ce ne sont pas les seuls facteurs de motivation. Heureusement
d’ailleurs, sinon aucun salarié n’accepterait spontanément d’aller au-delà de
sa fiche de poste pour assumer les inévitables imprévus, et aucune
entreprise ne pourrait fonctionner3. C’est une évidence, mais il fallut tout de
même attendre les années 1960, avec les travaux de Douglas Mac Gregor,
pour mesurer à quel point Frederick Taylor, pour qui tout salarié est un
fainéant qui s’ignore, avait tort4.
Douglas McGregor (1906-1964), professeur de management au
Massachusetts Institute of Technology (MIT), est l’auteur en 1960 de
l’ouvrage de référence The Human Side of Enterprise5. Dans cette étude,
l’auteur démontre l’aberration managériale de se fier encore aux vieux
concepts tayloriens. Il classe ainsi les modes de management en deux
catégories bien distinctes : X et Y.
• Le management traditionnel de type X part du principe que le salarié
moyen déteste le travail et fera tout ce qu’il faut pour l’éviter. Il n’a pas
d’ambition et ne souhaite aucune responsabilité, et préfère suivre un leader
sans se poser de questions. Il se fiche des objectifs de l’organisation, seul
son intérêt personnel l’importe. Tous les principes de rémunération au
mérite et les primes de rendement, que l’on peut apparenter au principe de
la carotte, sont parfaitement adaptés à un mode de management de type X.
• Le management de type Y, au contraire, prône que le travail n’est pas une
contrainte par définition. Les femmes et les hommes aspirent à exprimer
leur créativité et ont besoin d’autonomie pour y parvenir. Ils recherchent les
responsabilités et s’engagent à atteindre les objectifs de travail, d’autant
plus que ceux-ci accomplissent aussi leurs ambitions personnelles.

C’est dit !
Il est tout de même surprenant qu’à notre époque où la différence concurrentielle se
joue sur l’économie de la connaissance, les entreprises qui font le choix d’un mode de
management inspiré de ce type Y apparaissent encore comme révolutionnaires.

La reconnaissance, ce n’est pas uniquement récompenser


les résultats obtenus…

Figure 40 : les types de reconnaissance en entreprise

La reconnaissance ne s’exprime pas uniquement sous la forme classique


d’une récompense une fois les résultats atteints (cas 1 et 2 de la figure 40).
Il est désormais reconnu que la promesse d’un prix, une prime par exemple
si l’on atteint l’objectif fixé dans les délais, n’est peut-être pas le moyen le
plus efficace pour stimuler l’efficacité individuelle ou collective. En effet,
une fois le résultat prévu atteint, la prime est considérée comme un dû et
non comme une félicitation5.

La reconnaissance, c’est aussi le moyen de délivrer un


feedback positif…
La reconnaissance, ça sert à…
Sentir que l’on suit la bonne direction, que l’on adopte la bonne
approche, et surtout que cela vaut le coup de se défoncer !

Figure 41 : Le rôle de la reconnaissance sur la performance individuelle et


collective

Avec un mode de management fondé sur la responsabilisation et


l’autonomie des équipes, les marques de reconnaissance favorisent le
progrès continu. Elles fonctionnent non seulement comme un
encouragement à progresser, mais aussi comme un feedback positif destiné
à confirmer au salarié ou à l’équipe qu’ils suivent bien la bonne direction
(cas 3 et 4 de la figure 40).

Mais la reconnaissance, c’est surtout le moyen de montrer sa


considération
Théoriquement, il existe deux types de motivation : extrinsèque et
intrinsèque.
• La motivation extrinsèque caractérise une source extérieure de
satisfaction, telles que les promesses de récompenses, qu’elles soient
financières ou plus généralement sous la forme d’avantages matériels, de
promotion ou de formation profitable6.
• En revanche, on qualifie de motivation intrinsèque les stimulateurs
internes qui nous animent, comme le plaisir d’achever la tâche assignée, de
se dépasser en acceptant des missions plus difficiles, le goût de la qualité et
celui du travail bien fait que l’on a déjà abordé (cas 5 de la figure 40). Les
motivations intrinsèques sont bien plus puissantes pour parvenir à un
objectif fixé et conforme à ses attentes et à ses possibilités. La
reconnaissance, vue sous l’angle de l’estime et de la considération des
qualités et du talent de l’individu ou de l’équipe, est bien le moyen de
renforcer les motivations intrinsèques.

Remarque : les deux modes de motivation ne s’opposent pas mais se


complètent.

Les enquêtes le prouvent


Plusieurs enquêtes montrent que les salariés souhaitent une réelle implication au cœur
même du processus de décision, non seulement pour donner leur opinion mais bien
pour être écoutés. Ils aspirent aussi à un réel soutien de leur management dans les
moments les plus délicats, notamment en cas d’erreur. Évidemment, si la rémunération
n’est pas jugée suffisante pour les responsabilités et la charge de travail, il ne faut pas
trop compter sur les motivations intrinsèques7.

Le management, c’est aussi parvenir à


conjuguer les motivations personnelles de
chacun avec celles de l’entreprise
Il est évident que de nos jours, bien rares seront ceux qui passeront toute
leur vie dans la même entreprise. Une carrière se construit justement en
changeant régulièrement d’entreprise et de fonction afin d’enrichir son
« employabilité », un terme à la sonorité détestable mais qui dit ce qu’il
veut dire. Nous cherchons tous à acquérir de l’expérience afin de mieux
progresser dans notre carrière personnelle. Ce ne sera pas en prônant la
dévotion pour l’entreprise, sa marque et ses finalités, comme le suggèrent
les promoteurs de l’entreprise libérée8, que l’on parviendra à impliquer plus
étroitement les salariés. Le but n’est pas de se donner corps et âme pour
l’entreprise, mais bien de se sentir responsable et compétent pour accomplir
du mieux possible sa mission pour la réussite collective. Pour cela, encore
faut-il être conscient de l’estime en laquelle on nous tient, et savoir que nos
qualités professionnelles sont reconnues à leur juste valeur. Et si les
objectifs visés sont à peu près en phase avec ses motivations personnelles,
le pari est gagné (cas 6 de la figure 40).
La reconnaissance ne doit surtout pas faire abstraction des motivations
personnelles, bien au contraire. Le développement de l’employabilité est
une préoccupation prioritaire. Toutes les actions allant dans ce sens, que ce
soient des propositions de formations utiles ou de nouvelles responsabilités
conformes aux attentes du salarié, seront autant de stimulants pour une
amélioration continue profitable, autant pour le salarié que pour
l’entreprise9.

Démarche à suivre

Au cours de l’entretien d’évaluation, le manager n’hésitera pas à montrer franchement


qu’il considère son subordonné. Sans se focaliser exclusivement sur la performance, il
s’intéresse attentivement à sa contribution dans le processus de création de valeur et
écoute ses remarques et suggestions, notamment sur les améliorations à apporter telles
que les moyens nécessaires ou encore les tâches inutiles.
Attention, si dans la foulée il n’y a pas de changement perceptible, ce questionnement
sera perçu comme un jeu de dupes !

Reconnaissance de l’individu ou de l’équipe ?


Pour être efficace, la reconnaissance mérite d’être dosée et raisonnablement
distribuée tel un maître queux assaisonnant ses préparations. Si l’on ne
prend pas les précautions d’usage, les marques de reconnaissance adressées
à un salarié méritant risquent de devenir le carburant de la rivalité au sein
de l’équipe. Cette dérive perverse est d’autant plus difficile à contrôler dans
un monde où la performance individuelle est encensée. Une rivalité mal
contrôlée entraîne nécessairement une chute de la performance collective de
l’équipe. Il existe déjà suffisamment d’antagonismes au sein d’un groupe de
travail, sans pour autant aviver malgré soi des conflits passionnels latents.
Au contraire, il s’agit de démontrer que la réussite est justement le fruit de
la coopération. Une coopération qui exige l’affirmation de chacune des
individualités. C’est là le seul moyen de résoudre les problèmes complexes
auxquels est confrontée l’équipe10. Et c’est bien cela que le management
doit impérativement encourager.
Mais ce n’est pas si aisé. Éviter l’impression d’arbitraire dans la distribution
des récompenses est la principale difficulté et aussi la plus délicate à
résoudre. Si le manager ne prend pas le soin de déminer cette question dans
les délais les plus courts, la frustration et le sentiment d’injustice ressentis
par quelques-uns auront tôt fait de saper l’ambiance et de dévaster la
cohésion de l’équipe. Il s’agit en effet de s’assurer que l’on ne peut se poser
au sein de l’équipe des questions telles que : « Quelles sont les règles pour
être bien vu ? », « Pourquoi untel a-t-il touché une prime exceptionnelle, et
moi qui me suis défoncé, on ne me dit même pas merci ? ».

En résumé
Une communication simple et informelle bien conduite pour rétablir la confiance lèvera la
plupart des incompréhensions et des malentendus, sans pour autant que l’on soit certain
de satisfaire tout le monde. Les humains sont ainsi.

Le droit à l’erreur conditionne la prise d’initiative

Figure 42 : Qu’est-ce que l’autonomie ?

Sans un droit à l’erreur bien défini, aucune personne sensée ne se risquera à


affronter l’éventualité de ne pas réussir. Elle rechignera à prendre des
initiatives, et évitera d’expérimenter d’elle-même de nouveaux procédés, de
nouvelles méthodes ou de nouveaux outils pour ne pas endosser la
responsabilité d’un possible échec. L’autonomie n’est alors qu’une
dénomination vide de sens. Si le droit à l’erreur est livré à l’arbitraire d’un
manager, lui-même dans le doute et l’incertitude, les plus intrépides se
métamorphosent rapidement en simples velléitaires. C’est la rançon de
l’expérience. Mais parfois, on n’a pas le choix. Pour accomplir sa mission,
la prise d’initiatives s’impose et le stress devient alors le compagnon du
malheureux expérimentateur malgré lui. C’est bien pour cela que les
salariés attendent un réel soutien de leur management en cas de contre-
performance suite à une expérimentation infructueuse. C’est cela que l’on
appelle « le droit à l’erreur ».

Et pourtant, on apprend de ses erreurs… Et parfois on


innove !
En entreprise, on n’est pas très chaud pour l’empirisme. Pourtant, dire que
l’on apprend de ses échecs, ce n’est pas qu’une formule, c’est aussi la
recette de l’innovation11. En tout cas, c’est ainsi que Peter Sims12 décrit le
processus de l’innovation après avoir étudié de près les modes de
conception des principaux innovateurs du moment.

Processus d’innovation

Les innovateurs ne démarrent pas le processus avec une idée bien arrêtée. Ils
privilégient plutôt le principe des « petites expériences » et progressent selon un principe
d’essais/erreurs. Chacune de ces expériences est un petit pari. On se lance, on essaie
puis on juge ensuite si l’idée est bonne ou pas. Les échecs ne sont pas considérés
comme des fautes. Au contraire, c’est l’occasion de mieux saisir les subtilités du
contexte et de se réorienter en connaissance de cause. Les échecs sont un facteur de
rebond, parfois le déclencheur d’une bien meilleure idée. Un principe encore mal perçu
en entreprise. Malheureusement.

1 Une fiche d’action type est disponible avec les compléments de l’ouvrage L’Essentiel du tableau
de bord, Eyrolles, 5e édition, 2018. Ces compléments sont en accès libre et téléchargeables à
cette adresse : http://tb2.eu/p7
2 Le lecteur intéressé par la question de la reconnaissance profitera de la lecture du petit fascicule
La Reconnaissance. Des revendications collectives à l’estime de soi, Sciences Humaines,
collection La Petite Bibliothèque de Sciences Humaines, 2013 et disponible en version e-book
sur le site de l’éditeur.
3 Les logiciels open source non plus n’auraient jamais vu le jour. La majorité des serveurs Web
reposent sur des outils open source, comme Linux et Apache, développés en premier lieu par des
passionnés bénévoles. Le catalogue d’outils open source est aujourd’hui particulièrement étoffé
et les entreprises utilisatrices, parfaitement conscientes de la qualité des développements
originaux, ne s’y trompent pas.
4 Cela dit, Taylor pensait satisfaire les intérêts des ouvriers en versant des salaires
significativement plus élevés en échange d’une disponibilité maximale aux limites du possible. Il
explique que sans ces augmentations (60 à 90 % tout de même), il sera difficile d’obtenir le
rendement demandé. Les ouvriers sont donc a priori heureux de gagner un salaire très supérieur
à la moyenne. Il est assez symptomatique de noter que le préfacier de la traduction française de
1912, le célèbre chimiste Henry Le Chatelier, l’un des principaux supporters français de la
méthode scientifique, juge que cette augmentation de salaire est une erreur. Voici son
raisonnement : en appliquant cette méthode révolutionnaire, la productivité augmente
significativement. Grâce aux économies d’échelle ainsi réalisées, les prix des produits vont
sérieusement chuter et les ouvriers en profiteront. À salaire égal leur pouvoir d’achat sera donc
plus important… Le patronat français a bien sûr unanimement salué cette explication opportune.
Comme quoi il y avait nettement pire que la méthode scientifique de Taylor : ses supporters
français.
5 Douglas McGregor, The Human Side of Enterprise, Annotated Edition McGraw-Hill
Professional, 2006.
6 Cindy Ventrice, auteur de l’ouvrage Make their Day!, précise toutefois qu’accompagnée d’un
commentaire flatteur (« bravo, c’était difficile, votre talent mérite d’être récompensé ») et d’un
sincère « merci », la prime est alors effectivement considérée comme une marque de
reconnaissance. Dans une entreprise où la confiance est déjà bien établie, ces quelques
compliments auront certainement un effet positif sur les performances à venir.
7 Le livre de Bob Nelson, 1501 Ways to Reward Employees (Workman Publishing, 2012), est une
mine d’exemples illustrés pour les managers un peu à court d’idées.
8 Lire à ce sujet, La Vérité sur ce qui nous motive, Daniel Pink, Flammarion, 2016.
9 Voir notamment l’ouvrage de Tony Hsieh, fondateur de Zappos, L’Entreprise du bonheur,
Leduc, 2011.
10 Les formations proposées ne sont pas uniquement dans l’intérêt immédiat de l’entreprise, comme
une formation au nouveau logiciel de gestion maison, mais bien en priorité pour l’intérêt du
salarié et de sa carrière. La question de la promotion est une option plus délicate pour nombre de
PME : les postes à responsabilité sont déjà occupés…
11 Nous développerons ce thème au chapitre 14.
12 En revanche, le droit à l’erreur ne doit pas permettre de ne pas apprendre de ses erreurs. Si
commettre une erreur alors que toutes les précautions ont été prises est tout à fait admissible,
réitérer les mêmes erreurs est a priori une faute impardonnable.
13 Peter Sims est l’auteur de Little Bets: How Breakthrough Ideas Emerge from Small Discoveries,
Simon & Schuster, 2013.
12.

Choisir les bons indicateurs de performance

L’indicateur est loin d’être neutre, il est même quelque part performatif.
Non seulement il reflète l’état d’une situation, mais il structure aussi notre
cadre de pensée et oriente l’action. C’est d’ailleurs là son rôle. Les voies
d’amélioration ont été soigneusement identifiées, elles sont matérialisées
par les objectifs tactiques choisis à l’étape précédente. Les indicateurs
canalisent notre perception sur les seuls aspects de la performance ainsi
ciblés. Ils font abstraction de tout ce qui pourrait risquer de nous dérouter
de notre mission. C’est dire s’ils doivent être bien sélectionnés. Ainsi,
choisir un indicateur générique parce qu’il est habituellement utilisé par la
profession n’est pas la décision la plus judicieuse. Il peut être tentant pour
un responsable logistique d’adopter sans plus de réflexion un indicateur
incitant à réduire drastiquement les stocks. C’est un indicateur classique de
la profession. Cependant, si la stratégie choisie vise à fidéliser ses clients
par une disponibilité à toute épreuve et des livraisons sans délai d’attente,
ce n’est peut-être pas un choix très astucieux. Il est évidemment important
de limiter les stocks, ils représentent un coût conséquent. Mais sans un
stock raisonnable, l’objectif stratégique est impossible à atteindre. Un
indicateur oriente toujours l’action. Cet indicateur choisi par habitude
risque de détourner ce responsable de sa mission. Il ne sera plus question
d’agir pour fidéliser les clients, mais bien de réduire les stocks par tous les
moyens disponibles.

Les critères de choix d’un bon indicateur de


performance
Figure 43 : Qu’est-ce qu’un bon indicateur de performance ?

Indicateurs Orienté Constructible Rafraîchi Budget Fiable Décisif

Qualité service client 3 0 0 0 0 0

Taux de réclamations 3 3 3 3 3 3

Taux d’erreurs de livraisons 3 3 2 3 3 3

Tableau 5 : Le crible de sélection des indicateurs les plus adéquats en commun

La procédure est en tout point similaire à celle que nous avons utilisée pour
choisir les objectifs les plus pertinents. Les suggestions des membres de
l’équipe chargés de suivre les indicateurs et d’atteindre les objectifs sont
ventilées selon les six critères que nous allons détailler un peu plus avant.
Seules les propositions d’indicateurs maximisant l’ensemble des critères
sont retenues. Là encore, une échelle à quatre niveaux s’impose. Un
indicateur doit être suffisamment précis et univoque pour que chacun puisse
s’y référer sans qu’il existe la moindre opportunité de quiproquo. Le
premier indicateur en exemple sur ce tableau est bien trop vague pour être
retenu. Il fut un temps pourtant, où c’était un incontournable des tableaux
de bord des entreprises, conçus sans une véritable réflexion, et donc
totalement inutiles1.

Orienté : l’indicateur est orienté selon l’objectif choisi


L’indicateur de performance est un instrument de mesure. Il doit
impérativement s’exprimer dans une unité en accord avec l’objectif choisi.
L’indicateur mesure la progression et oriente les efforts dans le bon sens,
c’est-à-dire dans le sens de l’objectif sélectionné.

Constructible : l’indicateur est relativement facile à


construire
Toutes les informations nécessaires à sa construction sont disponibles ou le
seront à court terme. L’algorithme de calcul n’est pas trop complexe et ne
fait pas appel à des fonctions un peu absconses. Tout un chacun peut
comprendre la manière dont cet indicateur est construit. C’est aussi une
question de confiance. Dès que le décideur commence à douter des
éléments utilisés pour construire cet indicateur, il ne lui accordera aucune
confiance. La question de la consolidation des données intervient aussi à ce
stade. Les données en provenance d’autres activités, ou d’entités
extérieures, méritent d’être considérées avec un minimum de précautions. Il
est en effet essentiel de bien comprendre à quoi se rapportent précisément
ces données si l’on souhaite en tirer profit. Ceux qui produisent ou utilisent
régulièrement ces données en connaissent les limites.

Exemple
Une information en provenance d’une filiale régionale est ainsi libellée « Chiffre
d’affaires global ». Ce libellé est en fait erroné. L’information remontée n’intègre pas les
résultats d’une ou de plusieurs boutiques récemment intégrées dans le réseau. La
direction régionale est au courant et en tient compte. Elle sait qu’elle doit la cumuler
avec les résultats de chacune des boutiques. Cette information transmise au siège telle
quelle, sans plus de précaution, sera globalisée avec d’autres résultats pour bâtir un
indicateur faux.

Construire un indicateur, c’est aussi prendre le temps de questionner


soigneusement tous ceux qui utilisent les données au quotidien, en espérant
ne pas rencontrer de résistance et de rétention d’information. Un cas bien
plus courant qu’on ne le pense.

Rafraîchi : la fréquence de rafraîchissement de toutes les


composantes de l’indicateur est compatible avec le cycle de
prise de décision
Une information n’est valable que durant un temps donné. Il vaut mieux ne
pas être contraint de prendre une décision au pied levé avec pour seule aide
à la décision un indicateur obsolète. Le risque sera bien moindre de jouer à
pile ou face que de se fier à une information dépassée. Le cycle de
rafraîchissement de l’information doit être en phase avec le cycle de prise
de décision. C’est un impératif.

Figure 44 : La décision en « temps réel »

Exemple
Décider du bon moment pour une opération boursière, un acte d’achat ou de vente, ce
peut être une question de minutes, voire de secondes2. S’il s’agit d’exploiter le chiffre
d’affaires réalisé par une filiale, on pourra se contenter du dernier rapport mensuel. Les
cycles financiers sont des cycles plus lents. Avec l’intensification du numérique, la
production de rapports s’est sérieusement accélérée sans pour autant apporter plus
d’informations. Les résultats financiers sont donc publiés impérativement à une
échéance plus longue, afin d’intégrer toutes les informations qui mettent parfois plus de
temps à parvenir (cycles de ventes, délais de paiement, remboursements, crédits…).

Il est assez tendance d’inclure sous le vocable péjoratif « d’indicateurs


rétroviseurs » les informations issues des rapports comptables. « On ne
pilote pas l’avenir en regardant le passé » affirment quelques radicaux un
peu excessifs en matière de pilotage d’entreprise. C’est partiellement juste.
Une donnée de résultat échu est orientée sur le temps passé, et révèle, a
priori, bien peu d’information sur le futur. Mais elle est porteuse d’une
information utile pour des démarches d’amélioration à plus long terme. Si
le cycle de rafraîchissement de l’information est en phase avec le cycle de
décision, elle peut être intégrée au sein d’un indicateur plus global si besoin
est. Elle sera aussi pertinente pour équilibrer des indicateurs plus
dynamiques. À voir au cas par cas.
À titre d’analogie, les économistes utilisent les notions d’indicateurs
avancés, d’indicateurs retardés et d’indicateurs coïncidents.
• Les indicateurs avancés sont tournés vers l’avenir afin de mieux anticiper
les tendances à plus long terme.
La mesure du moral des ménages est un indicateur avancé du taux de
consommation à venir. Si les ménages ont le moral, ils augmentent leur
consommation et vice versa. Ce ne sont pas les indicateurs les plus faciles à
interpréter. Et les raccourcis ne servent pas la science. Ainsi l’information
sur le moral des ménages mérite d’être corrélée avec le taux d’inflation ou
l’accès au crédit, ou encore l’indice des prix à la consommation, avant d’en
déduire des généralités. Il n’est pas aisé d’offrir une juste interprétation des
tendances économiques sans se fourvoyer en des conjectures plus ou moins
bien étayées.
• Les indicateurs retardés apportent un regard sur le passé, ce sont des
éléments concrets de la réalité des tendances des marchés.
Le produit intérieur brut (PIB) ou le taux de chômage sont des indicateurs
retardés.
• Les indicateurs coïncidents mesurent l’activité économique, ils sont en
phase avec les marchés.
L’indice de la production industrielle est mis à jour chaque mois par l’Insee,
c’est un indicateur coïncident.
Les trois types d’indicateur sont tout autant indispensables pour étudier
avec précision les tendances des marchés dans la continuité et faciliter la
prise de décision3.

Coût acceptable : l’indicateur est obtenu à un coût


compatible avec l’enveloppe budgétaire
Pour construire un indicateur, il peut être nécessaire d’engager des travaux
qui parfois s’avéreront bien plus coûteux que prévu. Les exigences de
qualité des données utilisées à des fins décisionnelles sont en effet sans
commune mesure avec celles généralement admises pour un usage de
production. Le nombre de données erronées contenues dans un système
d’information quel qu’il soit dépasse très largement les pires prévisions. La
correction des erreurs et des incohérences a un coût loin d’être négligeable.
S’il s’avère indispensable d’envisager la construction d’une infrastructure
technologique spécifique pour récupérer des informations qui ne sont pas
encore intégrées dans le système d’information, le budget risque d’être
dépassé avant même d’avoir commencé le projet proprement dit. Ces coûts
ne sont jamais prévus à leur juste valeur dans l’enveloppe budgétaire du
projet. C’est d’ailleurs l’une des principales causes d’échec des projets
décisionnels.

CONSEIL
Le mieux est de lancer une sérieuse réflexion collective pour juger de la nécessité des
indicateurs les plus difficiles à construire. Il peut parfois être ainsi utile de faire l’impasse sur
des indicateurs dont l’apport au processus décisionnel ne justifie pas le coût de
construction.

Fiable : l’indicateur est fiable au sens des décideurs


Si l’on a bien respecté les étapes précédentes, techniquement, l’indicateur
est fiable. Les données servant à sa construction sont de qualité et elles sont
rafraîchies en temps et en heure. En revanche, rien ne dit que les
informations ayant servi à la construction de cet indicateur recueillent toute
la confiance des décideurs amenés à l’exploiter. Dès que le soupçon
s’installe, l’indicateur est inutile.

Exemple
Le soupçon peut, par exemple, porter sur les chiffres transmis par une filiale, dont le
gestionnaire, à tort ou à raison, ne bénéficie pas d’une renommée d’intégrité et de
loyauté à toute épreuve. Si le décideur sait qu’un indicateur de performance essentiel
est construit avec les données transmises par cette filiale, on peut facilement
comprendre qu’il n’accorde pas toute confiance à l’information indiquée.
Décisif : l’indicateur incite à la prise de décision
L’indicateur n’a d’autre finalité que d’aider le décideur à se forger un avis
sur une situation.
À la lecture de l’indicateur, le manager ou l’équipe disposent d’une
information de confiance et sont prêts à décider. Cette décision peut être :
• « On ne touche à rien, tout va bien, on avance comme prévu. »
Ne rien faire dans ce cas est une décision.
• « On ne va pas assez vite, il faut en savoir un peu plus, investiguons plus
avant. »
Tous les éléments qui ont servi à construire l’indicateur sont accessibles
afin de faciliter les analyses plus poussées.
• « Une des actions lancées n’est vraisemblablement pas suffisamment
efficace, il faut la renforcer. »
Il est prudent de prendre le temps d’un rapide audit de l’action pour mieux
identifier les failles.
• « De nouvelles actions doivent être mises en œuvre pour atteindre
l’objectif fixé, voyons lesquelles. »
Bien évidemment, si le décideur ou l’équipe ne dispose pas des moyens
d’action, il/elle ne peut que constater l’information de l’indicateur, et celui-
ci ne sert à rien.
• « On n’y parviendra pas, il est nécessaire de réviser la tactique choisie. »
C’est peut-être l’objectif choisi qui pose problème, le contexte a
probablement évolué et l’objectif s’avère bien plus difficile à atteindre.

Présentation des indicateurs : Le tableau de


bord
Une fois les indicateurs soigneusement sélectionnés, la construction du
tableau de bord proprement dite ne pose pas de difficultés majeures. Il suffit
de respecter les sept règles suivantes qui pour la plupart tombent sous le
sens. Elles résument et synthétisent les constatations que nous avons
étudiées au fil des pages précédentes.
Règle numéro 1 : Limiter le nombre d’indicateurs
Il est contre-productif de multiplier sans retenue les indicateurs sur un
même écran. Notre cerveau est incapable de traiter un grand nombre
d’informations à la fois. Dix informations présentes en même temps sur une
même vue est le maximum à ne pas dépasser.

Règle numéro 2 : Choisir la représentation graphique la plus


adéquate
Chaque indicateur porte une information. Il s’agit de bien saisir toute la
richesse du sens contenue dans cette information. La représentation
graphique utilisée joue un rôle majeur dans le transfert du sens. Les
classiques outils de tableau de bord, ne serait-ce que Microsoft Excel l’outil
préféré d’une large majorité d’utilisateurs, proposent un éventail de
graphiques qui couvrent la majorité des besoins des décideurs les plus
exigeants. Passons ici en revue quelques-unes des principales
représentations graphiques habituellement utilisées pour concevoir un
tableau de bord de pilotage opérationnel.

La jauge

La jauge de type tachymètre est incontournable. C’est le graphique idéal


pour évaluer la progression vers un objectif quelle que soit l’unité de
mesure choisie (durée, coût, quantité, etc.). L’information est claire, riche
de sens et compréhensible pour tout un chacun. On réservera ce type de
graphique pour représenter exclusivement les indicateurs dont on doit
suivre précisément la progression. Il ne s’agit pas de singer le cockpit d’un
Boeing 747.

Le feu de signalisation
Les indicateurs de type « alerte », souvent représentés par un feu de
signalisation ou feu tricolore, sont tout aussi indispensables pour indiquer
un dysfonctionnement tel qu’un problème de trésorerie, une chute du
volume des ventes ou une augmentation du nombre de retours client, bref
toutes informations qui exigent une réaction immédiate. Il est toutefois
prudent de ne pas multiplier le nombre d’indicateurs d’alertes de ce type sur
un tableau de bord au risque de le dénaturer et de le réduire à un simple
concentrateur d’alarmes. En toute logique, pour une équipe de décideurs
donnée, le nombre d’alarmes exigeant une réaction immédiate doit être
limité.

La courbe

Pour suivre l’évolution d’une ou plusieurs valeurs dans le temps, la courbe


s’impose. La représentation sous forme de courbe donne aussi une bonne
idée des tendances pour mieux anticiper. Pour éviter les incompréhensions
et les falsifications, l’échelle et les valeurs d’axes sont parfaitement
visibles.

Le diagramme en aires empilées


Le diagramme en aires empilées est un bon outil pour comparer les
variations de plusieurs grandeurs dans le temps.
D’un simple coup d’œil, on perçoit les différences au fil du temps entre les
grandeurs présentées. Par exemple, un responsable commercial l’utilisera
pour suivre comparativement l’évolution des ventes par produit.

L’histogramme

L’histogramme, comme son intitulé l’indique clairement, permet de bien


visualiser dans le temps les variations d’une grandeur. Toujours en
poursuivant avec l’exemple du responsable commercial, c’est un graphe
simple et fort utile pour suivre les variations des ventes au fil des mois.

Le graphique secteur
Le graphique par secteur est destiné à l’étude des proportions des
composantes d’une grandeur particulière. Le responsable commercial
visualise ainsi les proportions de chacun des produits dans le chiffre des
ventes mensuels global pour une région donnée.

Le graphique en anneaux

Le graphique en anneaux est particulièrement adapté pour comparer les


valeurs prises par des entités équivalentes, comme les ventes réalisées par
deux succursales par exemple. Il est aussi utile pour comparer d’un simple
coup d’œil les résultats par rapport aux prévisions. Le cercle intérieur
présente les résultats et le cercle extérieur matérialise les prévisions.

Le graphique à bulles
Les courbes et histogrammes présentent les informations en deux
dimensions. Le graphique à bulles est une solution pour présenter les
informations en trois dimensions. En effet, la taille de la bulle est elle-même
une information.

Le graphique radar

Le graphique type radar est bien pratique pour visualiser les multiples
caractéristiques d’une grandeur donnée. La toile d’araignée ainsi tracée est
la signature en cet instant de cette grandeur que l’on souhaite mieux
identifier. Les forces et faiblesses apparaissent clairement.
Ce ne sont là que des exemples parmi les plus connus. En règle générale, on
évite d’afficher des tableaux de données. On préfèrera toujours les
graphiques qui assurent une compréhension plus synthétique et plus rapide
de l’information.

Règle numéro 3 : Informer les utilisateurs


Il ne faut jamais oublier d’informer les utilisateurs du tableau de bord des
particularités d’un indicateur donné. La fonction commentaire, disponible
sur bien des outils y compris le tableur Excel de Microsoft, est justement
prévue pour cela. Autant l’utiliser pour éviter les contresens. Ainsi, il peut
être tout à fait opportun d’utiliser l’effet loupe en ne démarrant pas l’échelle
à zéro d’un diagramme pour mieux visualiser les différences. La fonction
commentaire informera l’utilisateur que cet artifice est utilisé à dessein, et
qu’il ne s’agit pas dans ce cas de tromper son auditoire comme nous l’avons
vu au chapitre 4, avec les figures 9, 10, 11.
Règle numéro 4 : Éliminer le bruit
La recherche d’esthétique ne doit en aucune manière empiéter sur
l’ergonomie et le confort d’utilisation de l’outil. Éviter autant que possible
tous les gadgets et fioritures pauvres en information. Ils surchargent le
tableau de bord et affaiblissent le rôle des indicateurs qui de ce fait sont
moins en évidence. Simplifier au maximum est bien la règle la plus
précieuse du concepteur de tableaux de bord, elle n’est malheureusement
pas toujours suivie.
Edward Tufte, statisticien et professeur émérite américain déjà mentionné
dans cet ouvrage, recommande de calculer le « data-ink ratio » afin de bien
évaluer le taux d’informations utiles par rapport au bruit de fond qui
perturbe la compréhension du message. Edward Tufte recommande ainsi de
supprimer le quadrillage sur les graphiques, tout comme les couleurs de
fond, quand ils ne facilitent pas la compréhension de l’information.
Pour ne pas troubler les utilisateurs, il est impératif de respecter les règles
intuitives du code des couleurs. Ainsi, la couleur verte est impérativement
réservée pour représenter les valeurs porteuses d’un sens positif. La couleur
rouge sera utilisée pour les valeurs négatives ou de danger. La couleur
orange ou jaune servira pour signaler une dérive comme dans le cas du feu
tricolore vu ci-dessus.

Règle numéro 5 : Équilibrer le tableau de bord


Comme nous l’avons vu au cours de cette étude, un indicateur se suffit
rarement à lui-même. Pour que l’information soit complète, il mérite dans
bien des cas d’être contrebalancé par un autre indicateur. Ainsi, pour
reprendre un exemple trivial déjà cité, un manager de projet qui souhaite
accomplir dans les meilleures conditions sa mission ne se contentera pas du
seul indicateur d’avancement du projet. Il le complètera dans la même vue
d’autres indicateurs comme une mesure des dépenses et de la
consommation du budget et d’une évaluation du moral de l’équipe.
Ces cinq premières règles visent un seul et même objectif : concevoir un
outil où il suffit d’un seul coup d’œil pour saisir les informations
essentielles.

Règle numéro 6 : Élaborer les vues de détail


Le tableau de bord ne sert pas qu’au constat. Il doit aussi offrir des pistes
pour mieux comprendre une situation précise. Avec un tableau de bord bien
conçu, l’utilisateur accède à une vue de détail d’un simple clic sur un
indicateur. Cette vue de détail présente des éléments d’explication du
phénomène constaté sur la vue principale.
Dans cette phase d’utilisation de l’outil, le décideur est alors plus attentif
pour analyser les données composant l’indicateur. Ces données sont
présentées sous forme de graphiques, mais aussi structurés en tableaux.
Pour enrichir les tableaux et mettre en évidence les données significatives,
le concepteur exploitera avec profit les « sparklines », une géniale invention
de Edward Tufte déjà mentionnée ci-dessus. Les sparklines sont des micro-
graphiques qui tiennent en une cellule du tableau. Ils reflètent la tendance
des données chiffrées, soit sous forme de barres, de courbes ou d’une
simple signalisation des valeurs positives et négatives. Ils sont
particulièrement utiles pour saisir rapidement l’information portée par une
série de données4. S’il est hautement recommandé de ne prévoir qu’une
seule vue de signalisation, le nombre de pages de détail n’est pas limité tant
qu’elles fournissent le maximum d’éléments concrets pour analyser un
disfonctionnement.

Règle numéro 7 : S’approprier le tableau de bord


Afin de s’assurer que l’ergonomie globale facilite l’utilisation de l’outil et
n’entrave pas le raisonnement, l’équipe de décideurs participe activement à
l’élaboration du tableau de bord. C’est un impératif.
Un tableau de bord évolue au fil du temps. Les attentes des utilisateurs
s’affinent et les besoins se précisent. Après quelques semaines d’utilisation,
il sera vraisemblablement nécessaire de recomposer le tableau de bord, de
modifier des indicateurs et de compléter des pages de détail. Il ne s’agit pas
non plus de le reconstruire en permanence. Le nouvel outil impose un
changement des habitudes de travail, et il vaut mieux prévoir un temps
d’adaptation avant d’apporter de nouvelles modifications. Ce temps
d’adaptation ne peut être fixé à l’avance, il sera plus ou moins long selon
les individus et les situations. L’objectif étant qu’au final les utilisateurs
s’approprient le tableau de bord.
Un audit périodique effectué par un intervenant extérieur à l’équipe de
décideurs est une bonne habitude à prendre pour s’assurer de la pertinence
du tableau de bord dans le temps. La périodicité sera ajustée au cas par cas.
Un premier audit au bout d’un à deux mois d’utilisation, puis répété tous les
six mois, est une bonne base de travail. Au cours de cet audit, on se posera
la question de la fréquence d’utilisation du tableau de bord, de son
adéquation avec les attentes, et du degré de confiance que les décideurs
accordent à cet outil essentiel.

Un peu de pragmatisme
Si en France, on aime bien théoriser et mathématiser les problèmes, les
Anglo-Saxons, et surtout les Américains, privilégient l’expérimentation
rapide. Le pragmatisme n’est pas la solution universelle. En revanche, pour
une recherche de solutions aux risques limités, il est bien plus judicieux
d’expérimenter sans tarder trop longtemps. L’indicateur n’est pas parfait ?
Essayons-le tout de même ! On apprendra, on progressera, et si ça ne
marche pas, nous saurons pourquoi. Nous serons alors plus instruits pour
trouver une meilleure solution.
Désormais, le décideur ou l’équipe de décideurs est en mesure d’orienter
son action et dispose d’un tableau de bord de référence, pour évaluer le
progrès et donc la performance. Nous sommes maintenant parfaitement
armés pour aborder la question de la prise de décision.
1 Tous les indicateurs sont impérativement répertoriés : une fiche « indicateur » type est disponible
avec les compléments de l’ouvrage, L’Essentiel du tableau de bord, op. cit. Ces compléments
sont en accès libre et téléchargeables à cette adresse : http://tb2.eu/p7
2 … ou de microsecondes pour le trading haute fréquence, mais qui ne fait pas intervenir
d’humains.
3 L’économie n’est pas une science exacte. Les indicateurs ne sont pas tous univoques. Les
interprétations du sens porté par lesdits indicateurs animent les débats entre économistes, chacun
convaincu d’avoir opté pour la bonne école de pensée et donc d’être au fait de la vérité. Le
management n’est pas non plus une science exacte. Les indicateurs ne sont pas des informations
universelles. C’est bien pour cela que les indicateurs doivent être utilisés uniquement par ceux
qui sont tenus de prendre les décisions de terrain.
4 Pour plus d’informations sur les sparklines, consultez la page : http://tb2.eu/p13
13.

Les indicateurs de performance ne sont utiles


que si l’on s’en sert pour prendre des
décisions

Dans la politique et dans la vie, les demi-mesures et les hypocrisies


font toujours plus de mal que les décisions nettes et énergiques.

STEFAN ZWEIG (1881-1942), MARY STUART.

Les automates remplacent une bonne part du travail manuel depuis déjà
quelques décennies. Les « algorithmes1 » s’apprêtent à remplacer à leur
tour, à plus ou moins long terme, toutes les tâches intellectuelles répétitives
et automatisables. Il existe pourtant deux domaines qui seront toujours
inaccessibles aux machines aussi sophistiquées soient-elles. Le premier,
c’est celui de la prise de décision. Non pas le calcul que l’on peut résoudre
avec des arbres de décision ou des algorithmes d’autoapprentissage, mais la
vraie décision, celle que l’on doit prendre en un contexte aussi complexe
qu’incertain. Décider, c’est s’engager en un territoire qui n’est que très
partiellement balisé. On ne sait pas ce que l’avenir nous réserve, et l’on ne
dispose pas non plus de la totalité des informations pour mieux cerner la
situation présente. La décision est une prise de risques. Et ce n’est pas le big
data qui changera quoi que ce soit à cet état de fait. Nous ne serons jamais
pleinement informés, c’est ainsi. Seulement, nous les humains, nous
sommes bien mieux équipés que les machines pour décider. C’est, en effet,
en nous appuyant sur notre sphère émotionnelle et notre sensibilité affûtée
par notre expérience acquise au fil des années, que l’on sait discerner une
voie possible dans un brouillard entropique généralisé. Bref, on anticipe.
La citation qui interpelle
« Anticiper, ce n’est pas seulement prévoir ; c’est beaucoup plus que prédire ce que
sera le prochain événement. C’est plus que faire face au prochain événement, c’est
créer le prochain événement. »
MARY PARKER FOLLETT, FREEDOM & CO-ORDINATION,
LECTURES IN BUSINESS ORGANIZATION, 19492.

Le second thème inaccessible aux machines, un thème qui rejoint quelque


part le premier, c’est notre capacité à échanger et à partager naturellement
des informations. Il ne s’agit pas d’informations bien formatées comme
deux unités centrales peuvent en échanger, mais des suppositions, des
sentiments ou des émotions. C’est ainsi que depuis l’origine des temps, les
humains mènent leur barque en environnement complexe et incertain.

Qu’est-ce qu’une décision ?


Un art difficile : généralement, dès qu’il avait pris une décision,
la décision contraire lui paraissait à partir de ce moment
comme infiniment préférable.

MARCEL PROUST (1871-1922), JEAN SANTEUIL.

Décider, c’est effectuer un choix qui nous engage dans une direction donnée
et nous contraint à l’action. Décider n’est pas toujours facile. Il ne suffira
pas de peser le pour et le contre pour ne pas se tromper. Décider, c’est aussi
parfois devoir choisir entre plusieurs alternatives alors qu’aucune ne se
distingue réellement. Ce dilemme est encore plus exacerbé en temps
d’incertitude. Les éléments disponibles pour juger de l’opportunité de l’une
ou l’autre option sont insuffisants pour décider sans coup férir. Pour
pimenter un peu plus s’il était nécessaire, ajoutons que la décision n’est
possible que dans une certaine unité de temps. Il faut donc savoir exploiter
au mieux les seules informations disponibles durant la fenêtre de décision.
Exploiter une information confidentielle pour profiter d’une opportunité
boursière ne dure qu’un temps. Une fois l’information connue de tous, il est
trop tard pour s’engager, la fenêtre de décision est déjà fermée.
En résumé
Pour décider, il faut savoir trancher, c’est-à-dire opter pour une alternative et faire son
deuil des autres possibilités. L’étymologie de « décider » est justement le verbe
« trancher » (Le Robert).

Cela dit, fort heureusement d’ailleurs, toutes les prises de décision en


entreprise n’atteignent pas un stade paroxystique. Les professionnels dans
l’entreprise prennent de nombreuses décisions au quotidien. Vues de
l’extérieur, elles peuvent parfois sembler délicates alors qu’elles sont le plus
souvent ce que l’on pourrait dénommer de la routine. Rien de péjoratif dans
ce terme. Prendre les décisions qui s’imposent, c’est justement ce qui
caractérise un professionnel qui maîtrise bien son métier. Il a suffisamment
d’expérience pour recomposer les informations manquantes et effectuer un
bon choix. S’assurer que la livraison sera faite à temps dans une logique de
flux tendus, en gérant à l’optimum les processus d’approvisionnement et de
fabrication, ce sont des décisions assez courantes pour les gestionnaires
chargés de la bonne marche d’une chaîne logistique. Ce ne sont pas
nécessairement non plus des décisions de type « procédurales ». Il ne suffit
pas de suivre le mode d’emploi pour faire fonctionner une chaîne logistique
complexe. Non, c’est tout de même un peu plus compliqué que cela. Au
quotidien, les gestionnaires affrontent des décisions imprévues, et sont
tenus de prendre les décisions de type ad hoc qui s’imposent. Ils exercent
leur métier, remplissent leur rôle dans la chaîne de production et assument
leurs responsabilités.

La démarche de progrès
La situation se complique sensiblement dès qu’il s’agit de sortir du
quotidien pour s’inscrire dans une démarche de progrès. Une fois les
objectifs de performance choisis et acceptés, il s’agit de les atteindre. Le
nombre de décisions ad hoc à prendre se multiplie sensiblement tout
comme le nombre de situations imprévues. Nous ne sommes plus dans la
routine. Nous entrons dans l’inconnu avec ses risques et ses incertitudes.
Conduire son métier, établir un diagnostic, et prendre une décision pour
assurer le bon fonctionnement d’une activité sous contrôle, ne génère pas
nécessairement de stress ni d’angoisse particulière si le professionnel
maîtrise bien son rôle au sein du processus de création de valeur. S’inscrire
dans une démarche d’amélioration implique nécessairement un
changement. Changement d’habitudes et donc changement d’attitudes. Les
salariés vont donc prendre sur eux et s’engager, s’impliquer pour atteindre
les objectifs fixés et affronter l’incertitude.
C’est pour cela que le choix des indicateurs de performance est aussi
crucial. Ce sont en effet ces indicateurs qui informent les décideurs de
terrain sur le bien-fondé des actions lancées. Les indicateurs de
performance bien choisis sont donc des réducteurs d’incertitude. Mais
uniquement lorsqu’ils sont bien choisis.

L’incertitude, le risque et la décision


Les hommes intelligents nourrissent le doute,
seuls les imbéciles n’ont jamais d’incertitudes…
Euh… Vous en êtes sûr ? Absolument certain !

D’APRÈS BERTRAND RUSSELL (1872-1970),


PHILOSOPHE ET MORALISTE BRITANNIQUE3.

L’incertitude ? C’est notre quotidien !


Le mot « incertitude » englobe différentes acceptions4 qui sont toutes
recevables pour décrire le contexte décisionnel en entreprise.
• L’incertitude peut en effet être un manque de précision d’une mesure :
« On n’a pas encore reçu tous les reportings des filiales, essayons d’estimer
tout de même le chiffre d’affaires de ce mois-ci. »
• Ce peut être une inconnue : « D’après vous, il marche si bien que cela le
nouveau produit de notre concurrent ? »
• Ce peut aussi être un hasard, l’incertitude serait alors associée à l’aléa :
« Tu y crois toi à la fusion de nos deux principaux concurrents ? Ça semble
pourtant impossible… »
• Voire le doute, l’anxiété : « J’ai bien peur que face à un tel groupe, nous
ne puissions plus lutter. »
• Et pour finir, la perplexité : « De toute façon, il faut bien agir, mais alors
on fait comment ? Il y aurait bien moyen de faire quelque chose, mais ce
n’est pas clair. »
Voilà, c’est tout cela l’incertitude à laquelle sont confrontés les femmes et
les hommes de l’entreprise. Mais il faut tout de même décider !
Mais attention, fuir la prise de décision est tout de même une décision. Elle
sera prise par défaut, sans la choisir. Le décideur esquivant ses
responsabilités sera mis de toute façon au pied du mur. Une non-décision
n’est jamais sans conséquence : « Et alors, vous l’aviez bien vu venir, vous
vous doutiez bien que notre principal fournisseur allait nous lâcher, vous ne
pouviez pas basculer sur la seconde source d’approvisionnement en temps
et en heure ? On livre comment maintenant ? »

La décision est une prise de risque


Si le décideur mentionné à la ligne ci-dessus ne s’est pas engagé à changer
de fournisseurs, c’est peut-être aussi parce qu’il ne disposait pas de
suffisamment de garanties de fiabilité de cette seconde source
d’approvisionnement. Face à l’incertitude, il n’a pas su estimer les risques
de ce choix et s’est donc abstenu. Il subit aujourd’hui les conséquences de
sa dérobade.
Les risques potentiels d’une décision ne sont pas toujours faciles à estimer.
C’est pourtant bien souvent cette estimation qui fait pencher la balance au
moment de décider entre plusieurs alternatives. Le risque n’est pas le
danger. Le danger c’est ce qui nous menace, le risque c’est la probabilité
que le danger survienne. En entreprise, le risque de la décision se mesure
selon une double échelle qui évalue la probabilité de survenance du danger
et la gravité des conséquences dudit danger s’il se réalisait.
Figure 45 : Une matrice des risques classique

Un danger potentiel peut aussi être prévenu en prenant une assurance (cases
(3,1), (2,2), (1,3) par exemple). Un manager de projet choisira de renforcer
son équipe par anticipation s’il craint des complications à venir. Mais une
assurance a un coût qu’il s’agira de considérer au moment de prendre la
décision. Le décideur avisé sait qu’il ne peut pas se contenter de promesse :
« Ne vous inquiétez pas, s’il le faut on fera intervenir quelques spécialistes
pour vous appuyer le moment venu. ». Le désir de réussir ne doit pas se
transformer en une confiance inconsidérée.

CONSEIL
Se souvenir du classique dicton régulièrement vérifié : « Les promesses n’engagent que
ceux qui les écoutent. »5

Bref décider, ce n’est pas toujours simple.

La décision, c’est impérativement l’action


Une décision n’existe qu’au moment où l’intention de passer à l’action est
ferme et définitive. C’est à cet instant qu’elle se concrétise. Annoncer la
décision que l’on va prendre, ce n’est pas prendre une décision. Nous avons
tous connu des responsables, tous domaines confondus et pas uniquement
dans le monde politique, qui n’hésitent pas une seconde à afficher leur
engagement, prêts à prendre d’audacieuses décisions. Avec le recul, on
constate que ces décisions n’ont jamais dépassé le stade de la seule
formulation. Leur initiateur, conscient des risques potentiels, évite
soigneusement de s’engager. En revanche, décider de ne pas agir, c’est aussi
une décision tant qu’elle est l’expression d’une volonté. Ne pas agir dans ce
cas est tout de même agir : « Non, je ne me rendrai pas à cette convocation
et j’assumerai toutes les conséquences qui s’ensuivront. »

Nous sommes toujours seuls face à la décision


Ensuite, il faut vivre les conséquences de sa décision. Même si l’on a décidé
en groupe, chacun est responsable individuellement, aussi bien de la
réussite que de l’échec. On oublie toujours d’estimer les dégâts durables
causés à sa renommée en cas d’échec ou de réussite partielle d’une
décision. Vos supérieurs vous jugeront peut-être un peu inconséquent. Mais
ce n’est pas tout. Vous risquez d’attirer la réprobation de collègues plus ou
moins proches et pas vraiment sympathiques. Les pires d’entre eux
n’hésiteront pas à formuler, plus ou moins clairement, de vrais reproches où
l’on sent percer une insupportable petite pointe de paternalisme, histoire de
marquer leur supériorité : « Tu n’aurais pas dû », « Moi à ta place, j’aurais
agi autrement ». Le conditionnel passé, voilà un temps grammatical bien
peu constructif ! C’est tellement facile de juger après coup. Toutes les
informations cachées au moment de la prise de décision sont visibles, la
plupart des incertitudes sont levées. On juge alors la qualité de la décision
uniquement à son résultat. C’est une erreur.
Pour estimer si le décideur ou le groupe de décideurs a décidé justement, il
est indispensable de se replacer dans le contexte informationnel disponible
au moment de la prise de décision. Peut-être aussi que cette décision a été
prise trop tôt. Il faut alors réfléchir aux conséquences si cette décision
n’avait pas été prise à ce moment-là. La situation ne serait-elle pas pire
encore ? Les détracteurs ne se fatigueront pas à dérouler ce raisonnement,
bien au contraire, puisqu’ils disposent des arguments, fallacieux c’est
évident, pour se hisser tout en enfonçant le collègue qu’ils n’estiment pas.
C’est là qu’est le principal frein à la prise de décision en entreprise. C’est
pour cela que la prise de risques est toujours très limitée. Ces moralisateurs
arrivistes ne sont rien de moins que des castrateurs d’initiative.
Quelles initiatives peut-on prendre sans risquer
les coups de règle sur les doigts ?
Vous connaissez le mot d’ordre des entreprises : « Prenez des initiatives ! ».
C’est une évidence, il faudra bien en prendre pour accéder aux objectifs
fixés. Encore faut-il savoir, au sens de l’entreprise, où s’arrête l’initiative
acceptable et ou commence l’insubordination ? Où placer la frontière ?
La question de la confiance trouve ici son point culminant. Nous avons
relevé l’importance d’établir un contrat ferme entre la direction et les
acteurs de l’entreprise. Encore faut-il bien préciser le périmètre de la liberté
d’action. Il ne suffit pas d’être désigné « responsable », étymologiquement
celui qui répond, sans disposer pour autant d’une marge de manœuvre
suffisante pour accomplir sa mission.

La citation qui interpelle


« L’initiative de tous, venant s’ajouter à celle du chef et, au besoin, la suppléer, est une
grande force pour les entreprises. On s’en aperçoit surtout dans les moments
difficiles. (…) Il faut beaucoup de tact et une certaine vertu pour exciter et soutenir
l’initiative de tous dans les limites imposées par le respect de l’autorité et de la
discipline. »
HENRI FAYOL, ADMINISTRATION INDUSTRIELLE ET GÉNÉRALE, 1916.

Henri Fayol est le père putatif du management « moderne ». Bien que nous
traversions actuellement un moment difficile, il semblerait que les
entreprises qui consentent à laisser à leurs salariés une plus grande latitude
que cette définition prise stricto sensu, ne sont pas les plus nombreuses, tant
s’en faut. Le contrat est vraisemblablement la meilleure solution pour
établir durablement un climat de confiance entre les salariés et leur
direction. Mais il y a bien peu de chance qu’il balise suffisamment la notion
de liberté d’initiative, pour que chacun apprécie les risques pris à sortir un
tant soit peu des ridelles de la discipline.

Cas pratique
Une entreprise sous-traitante de l’industrie aéronautique a adopté une organisation en
ateliers autogérés par les opérationnels eux-mêmes. Un premier pas vers l’holacratie6
selon le cabinet d’organisation à l’origine de la restructuration de l’entreprise. Cette
courte étude porte sur la réalité du degré de liberté accordé à un atelier de presse à
injection, autonome selon la nouvelle organisation. Nous avons proposé un
questionnaire aux membres de l’équipe et à l’ensemble du management afin de tenter
d’apporter une définition à la notion d’initiative pour cette entreprise.

Sept des questions posées


1) Vérifier, nettoyer et changer les buses d’injection si nécessaire, sans attendre
l’échéance du carnet d’entretien, est-ce d’après vous une initiative acceptable ?
2) Modifier l’ordre des lots de la journée de fabrication pour limiter les opérations de
nettoyage et de réglage, est-ce aussi une initiative acceptable ?
3) Réviser en profondeur le processus de production afin d’en améliorer l’efficacité en
local, est-ce également une initiative acceptable ?
4) Contacter directement son correspondant à la production chez un partenaire sous-
traitant pour rechercher le moyen d’améliorer le processus global, est-ce de même une
initiative acceptable ?
5) Contacter son alter ego à la production chez un concurrent pour partager les subtilités
des processus, est-ce toujours une initiative acceptable ?
6) Exercer son droit de retrait en cas d’utilisation de produits toxiques ou considérés
comme tels par l’OMS (Organisation mondiale de la santé), est-ce encore une initiative
acceptable ?
7) Refuser d’exécuter un lot de pièces que l’on sait nécessaires à la fabrication d’un
armement destiné à un pays en guerre et dénoncé par Amnesty International, la ligue
des droits de l’homme et une majorité d’ONG (organisations non gouvernementales),
sommes-nous toujours dans la liberté d’initiative ?7

Analyse des réponses


Les questions 1, 2, et 3 sont jugées comme acceptables à l’unanimité pour les deux
parties. Quelques cadres ont tout de même un peu hésité avant de répondre
affirmativement à la question nº2, avant de concéder que c’était là « le prix de
l’autonomie » (sic).
À la question nº4, si les opérationnels étaient plutôt enthousiastes à l’idée, la plupart
des managers interrogés ont jugé que cet échange devait être limité à un besoin de
production ponctuel pour résoudre un problème d’approvisionnement par exemple.
En règle générale, il vaut mieux passer par la voie hiérarchique.
La question nº5 a été plus discutée entre les uns qui pensaient « que l’échange de
bonnes pratiques avait du bon » et les autres qui ne voyaient que « divulgation des
secrets de fabrication ». Les seconds ont tout de même fait sourire le reste de
l’assemblée, sans que l’on parvienne pour autant à une réponse claire et franche.
L’animateur a coupé court à la polémique qui s’instaurait autour de la question nº6 en
rappelant que le droit de retrait était inscrit dans le Code du travail8. Curieusement,
plusieurs cadres et non des moindres l’ignoraient.
La question nº7 a semblé dans un premier temps hors sujet, l’entreprise ne reçoit
pas de commandes provenant de sociétés d’armement. En poussant plus avant la
discussion, il semblerait que la réponse ne soit pas si simple que cela dès que l’on
passe du point de vue moral à celui de la survie financière de l’entreprise…
Un questionnaire de ce type peut être décliné sans problème pour la totalité
des métiers. Il permet de mesurer le gouffre qui existe entre les bonnes
intentions d’accorder des blancs-seings sans retenue et la réalité sur le
terrain. C’est aussi une bonne méthode pour bien baliser le périmètre des
initiatives tolérées, et réduire ainsi les hésitations et réticences que peut
rencontrer un groupe autonome au moment de prendre une décision un peu
délicate. Il est essentiel de savoir à quel moment on s’expose à aller trop
loin afin de mieux évaluer les risques.

Coordination et coopération
La réponse à la question n° 4 mérite que l’on s’y attarde un peu. Elle est en
effet significative de la différence qui peut exister entre « coordination » et
« coopération ». Toujours en se référant à Henri Fayol et sans commettre le
péché d’anachronisme, la question de l’efficacité des échanges transversaux
entre les départements d’une même entreprise, sans passer par la voie
hiérarchique, est déjà bien présente à cette époque en 1916. L’auteur relève
justement que le succès de nombreuses opérations repose sur une exécution
rapide. Il préconise donc un échange direct entre les services dépendant des
différentes divisions sans passer par la hiérarchie. Le principe hiérarchique
sera sauvegardé si les chefs ont autorisé leurs agents respectifs à entrer en
relation directe.

La citation qui interpelle


« Quand un agent se trouve dans l’obligation de choisir entre la voie hiérarchique ou
l’accès direct et qu’il ne lui est pas possible de prendre l’avis de son chef, il doit avoir
assez de courage et se sentir assez de liberté pour adopter celui que l’intérêt général
impose. »
HENRI FAYOL, ADMINISTRATION INDUSTRIELLE ET GÉNÉRALE, 1916, PAGE 46.

L’auteur précise que l’intérêt général est bien celui de l’entreprise comme
on pourrait s’en douter. Quoi qu’il en soit, la question du décloisonnement
est bien posée. Aujourd’hui, les entreprises sont éclatées et la chaîne de
valeur intègre nécessairement plusieurs entreprises indépendantes, autant
sur le plan juridique qu’économique. On se retrouve peu ou prou dans une
situation similaire à celle décrite par Henri Fayol. En son temps, en effet,
une même entreprise gérait pratiquement la totalité de la chaîne de valeur,
mais les services et les départements étaient fortement cloisonnés. Une
équipe, qu’elle soit autonome ou pas, contribue à la création de valeur en se
synchronisant avec les autres équipes du même processus ou des processus
connexes. La question du principe d’ajustement se pose alors :
• soit les conditions de l’échange entre les équipes internes comme externes
sont prévues à l’aide d’une série de procédures, les exceptions étant gérées
au cas par cas par le management. On parle alors de coordination ;
• soit on laisse plus de liberté aux acteurs de terrain pour gérer, en autonome
et en dialogue direct, les aléas comme le recommande Henri Fayol, et on
parlera alors de coopération.
Il semblerait que les managers de l’entreprise qui ont répondu au
questionnaire ci-dessus n’aient pas encore franchi le pas de la coopération9.
Ce sont là des points importants pour la question de la prise de décision en
équipe.
Ce thème soulève aussi la question de l’usage des réseaux sociaux en
entreprise. Ils sont la solution clé pour simplifier à l’extrême les échanges,
et partager les idées en interne comme en externe, au sein d’un forum
professionnel tel qu’une communauté de pratiques10.

Et aujourd’hui ?
Les réseaux sociaux rendent possible l’entreprise horizontale tant invoquée mais bien
rarement réalisée. Les outils sont disponibles, les obstacles technologiques sont
levés, ne subsistent donc que l’archaïsme des organisations, en total décalage avec
les besoins de notre époque, et les aspirations des salariés qui créent la valeur et
« font » l’entreprise.

1 Tout comme celui de « big data », le terme « d’algorithme » est passé dans le langage courant.
Selon la presse généraliste, l’algorithme semble désigner aujourd’hui d’énigmatiques systèmes
informatiques d’ultime génération, dotés d’une capacité d’apprentissage infinie qui leur
conféreraient un pouvoir omniscient quasi magique. Ces « algorithmes » au fonctionnement
ésotérique pour le commun des mortels, véritables entités pensantes, seraient en passe de nous
dominer et de nous reléguer, nous autres insignifiantes créatures humaines, à quelque chose
d’anachronique dans une cyber société ultralibérale régnante… Espérons que tout cela s’achève
mieux pour nous que pour les personnages des dystopies ! Cela dit, la crainte d’accorder un
pouvoir inconsidéré aux systèmes d’intelligence artificielle toujours plus autonomes, sans
régulation ni débat éthique officiel est aujourd’hui pleinement justifiée ! Sinon, pour mémoire, le
terme « d’algorithme » désigne à l’origine un enchaînement d’opérations pour exécuter un calcul
et par extension une tâche précise, informatisée ou non. L’algorithme d’Euclide pour trouver le
plus grand commun diviseur (PGCD) en est l’exemple le plus classique.
2 Cité par Marc Mousli, dans Mary Parker Follett, pionnière du management, Cahier du Lipsor,
octobre 2000.
3 Une petite variante humoristique de la citation de Bertrand Russell : « The trouble with the world
is that the stupid are cocksure and the intelligent are full of doubt. » Le problème avec le monde,
c’est que les gens stupides sont sûrs d’eux et arrogants tandis que les gens intelligents sont
emplis de doutes.
4 Source : dictionnaire Le Robert.
5 Prêtée à Henri Queuille (1884-1970) qui fut ministre de multiples fois au cours la IIIe
République et président du Conseil sous la IVe République.
6 Le néologisme holacratie (de holos : entier et kratos : pouvoir) désigne un mode d’organisation
autorégulé de l’entreprise, prônant l’élimination du management intermédiaire et la
responsabilisation des équipes autonomes habilitées à prendre seules les décisions, et donc à
s’auto-organiser. Ce mode d’organisation est censé, théoriquement en tout cas, promouvoir
l’intelligence collective… Lire l’ouvrage de Brian J. Robertson, La Révolution Holacracy,
(Leduc, 2016). En France, depuis l’ouvrage d’Isaac Getz et de Brian M. Carney, Liberté & Cie
(Flammarion, 2016), on parle d’entreprise « libérée » pour désigner un concept connexe. Nous
reviendrons sur ce modèle organisationnel au cours de la troisième et dernière partie.
7 Selon l’activité de l’entreprise cette question peut être remplacée par un autre sujet
d’interrogation éthique comme le risque de pollution (le dieselgate par exemple), la mise en
danger de la santé publique (l’affaire des prothèses mammaires PIP), la sous-traitance et le
travail des enfants (la confection notamment) ou encore le respect du bien-être animal (le
scandale des abattoirs).
8 Article L.4131 du Code du travail.
9 Comme quoi, l’ouvrage Administration industrielle et générale est encore à lire aujourd’hui pour
mieux saisir le côté intemporel des points de blocage rencontrés par une organisation productive,
sans s’arrêter aux seuls principes de hiérarchie et de commandement. On constate alors que la
confrontation entre les invocations à la prise d’initiative et le respect du périmètre de la
soumission puise ses origines dans les fondements du management. Il est donc insoluble sans
réformer en profondeur le style de management des entreprises.
10 Voir http://tb2.eu/p12, une expérience réussie de communauté de pratiques.
14.

La décision en équipe

L’homme ne pourra plus accepter de travailler sans créer ni participer aux décisions.

FRANÇOIS MITTERRAND (1916-1996).

La prise de décision à plusieurs n’est pas innée. Une prise de décision


autoritaire dans une structure hiérarchique est bien plus rapide, n’en
doutons pas. Mais la rapidité n’est pas un synonyme d’efficacité. Rappelons
qu’une décision n’existe qu’au moment où elle se matérialise en une série
d’actions. Si les responsables de la mise en œuvre des décisions prises au
sommet ne cernent pas bien la finalité, s’ils exécutent les directives au strict
minimum avec les chaussures chargées de plomb, la décision prise aura
bien peu de chance d’aboutir. À la décharge de ces derniers, il est aussi vrai
que les décisions prises loin du terrain semblent élaborées dans un monde
imaginaire et merveilleux où les aléas n’existeraient pas. Les opérationnels,
qui eux agissent dans la vraie vie, sont contraints d’assumer les
impondérables pour répondre au mieux selon ce qu’ils ont compris de la
décision. C’est aussi pour cela que bien des décisions prises autoritairement
ont peu de chance d’aboutir en l’état.

C’est dit !
Une loi peut être dénaturée au moment de la publication des décrets d’application.
Une décision peut aussi être détournée lors de sa mise en action pour mieux servir les
intérêts de celui qui la met en œuvre. Ne nous le cachons pas, c’est un cas très
courant.
Dans une organisation moins autoritaire et pratiquant une réelle délégation,
on peut espérer qu’une décision collective soit plus efficace, ne serait-ce
que sur le plan de la motivation et de l’engagement. Encore faut-il maîtriser
le processus de prise de décision en équipe.

Les 4 clés de la réussite de la décision en équipe :

Maîtriser l’art de la négociation.


Exploiter le référentiel commun.
Préciser les règles de cadrage.
Choisir un modérateur à la hauteur.

Décider en équipe, ce n’est rien d’autre que


négocier pour mieux coopérer
Quel est le but dont vous êtes le plus fier ?
Ce n’est pas un but, c’est une passe…

ÉRIC CANTONA QUESTIONNÉ PAR UN FAN DANS LOOKING FOR ERIC,


UN FILM DE KEN LOACH.

Le verbe « négocier » signifie à l’origine : « faire du négoce », c’est un


synonyme de « commercer », c’est-à-dire vendre ou acheter dans l’espoir
d’en tirer un bénéfice. Si une négociation commerciale comporte toujours
une part de concession, le gain doit tout de même être perceptible pour
chacune des parties. La négociation idéale n’est donc pas un jeu à somme
nulle. Le gain de l’un des protagonistes n’est pas proportionnel aux pertes
des autres.
La décision en équipe suit peu ou prou le même principe. Décider en
équipe, c’est prendre le temps de confronter les diverses appréciations du
problème afin de trouver une solution satisfaisante pour chacune des
parties. Chaque membre de l’équipe est une individualité à part entière. Il
affirme sa personnalité et défend son point de vue. Travailler en équipe
n’implique pas de devoir se fondre dans le moule. Ce n’est pas ainsi que
l’on prend des décisions pertinentes. Il faut au contraire profiter de la
diversité d’opinions. Et ce n’est pas la tâche la plus aisée. Un groupe peut
fonctionner comme un véritable étouffoir d’idées. La quête obsédée d’un
accord amiable à tout prix, afin de tuer dans l’œuf toute forme de
polémique, est le meilleur moyen de parvenir à une décision bien trop
raisonnable pour être efficace. Le consensus « mou » nivelle toujours par le
bas et coupe les ailes des idées les plus ambitieuses. En d’autres mots, le
compromis où chacun se sent contraint à se résoudre à des concessions
difficiles, pour parvenir tant bien que mal à un accord, n’est pas la bonne
solution.

La citation qui interpelle


« L’enjeu n’est pas d’amener les participants à parler, mais de les engager à
écouter1. »
GEORGE MITCHELL, SÉNATEUR AMÉRICAIN ET NÉGOCIATEUR AU PROCHE-ORIENT.

Au cours d’une session de décision collective, la négociation doit viser un


objectif plus vertueux, et parvenir à ce qui semble la meilleure décision
pour chacun des membres pris un à un. Ce n’est pas nécessairement l’idée
de l’un ou de l’autre qui l’emporte. Ce peut être une « troisième voie » qui
profite des apports des uns et des autres, et que l’on construit ensemble.
C’est avant tout de la théorie mais, avec un peu de méthode et de patience,
cela peut devenir aussi de la pratique. On sent que l’on y parvient dès que
les oppositions frontales s’émoussent, et que les protagonistes délaissent
l’affrontement direct pour écouter leurs adversaires du moment.

Pour bien négocier encore faut-il disposer d’un


référentiel commun… C’est là la finalité des
indicateurs et des objectifs de performance bien
choisis
Il ne sera guère possible d’envisager la moindre décision collective, tant
que les membres du groupe ne partagent pas une même appréciation de la
situation et un objectif commun. Si chacun a sa propre idée du problème à
traiter, tout comme de la direction à suivre, les échanges seront animés mais
malheureusement totalement infructueux. En revanche, dès que les
membres du groupe de prise de décision partagent la même vision du
progrès, et sont d’accord sur le problème à traiter, l’expression des
différentes personnalités est alors le fondement d’un débat fécond. C’est
ainsi, et seulement ainsi, que l’on parvient à une décision consensuelle et
constructive. Le plus important, c’est donc bien de disposer d’un référentiel
commun à toute l’équipe. C’est là la finalité de l’étape de choix des
objectifs tactiques et des indicateurs de performance que nous avons
déroulée au chapitre précédent. Avec un système de mesure de la
performance bien conçu, la prise de décision en équipe est alors concevable.
La situation présente est claire et précise pour chacun des membres. Les
indicateurs de performance soigneusement sélectionnés offrent une image
univoque de la situation. C’est là le fondamental pour décider en commun.
On est d’accord sur la situation donnée. On est tout autant d’accord sur le
but à atteindre. Maintenant il s’agit de discuter des actions à engager pour
accomplir au mieux la mission selon la dynamique de progrès.

Des règles de cadrage pour une démarche


« contractuelle »
Tout n’est pas résolu pour autant. Conduire un débat entre différentes
personnalités, chacune avec son vécu et ses propres ambitions, n’est pas une
sinécure, on s’en doute. Pour éviter que le débat ne se fourvoie sur les deux
voies de garage que sont la foire d’empoigne ou la discussion stérile, nous
allons imposer quelques règles de cadrage. Ces règles, une fois expliquées
une à une, sont affichées bien en vue dans la salle où se déroulent les
échanges. Elles sont là pour recentrer les débats, limiter les débordements,
et favoriser les interventions constructives. Si le groupe s’avère un peu
difficile d’entrée de jeu, il est utile, une fois chacune des règles et des
recommandations expliquées et acceptées, d’inviter les participants à
s’engager un à un à les suivre à la lettre. Ce sont des règles de bon sens et
cette formalité est toujours bien acceptée puisque c’est bien connu, ce sont
toujours les « autres » qui créent des problèmes2…
Règle 0 : Toute attaque personnelle ajourne la rencontre.
Règle 1 : Il est formellement interdit d’empêcher un participant de développer son opinion.
Règle 2 : Toute thèse défendue doit être argumentée. Les arguments sont aisément
vérifiables. Les arguments sont exclusivement relatifs à la thèse défendue.
Règle 3 : Si vous soutenez une thèse que vous n’avez pas proposée, vous devez aussi la
défendre et donc l’argumenter.
Règle 4 : Toute thèse avancée peut et doit être critiquée. Mais la critique ne doit porter
que sur la thèse, et non sur celui qui la défend. La critique doit être soigneusement
argumentée. Les arguments sont aisément vérifiables.
Règle 5 : Corollaire de la précédente : toute critique est recevable, à partir du moment où
elle est correctement argumentée et ne déforme pas le propos initial. La critique doit
relancer le débat et l’enrichir. Nous ne sommes pas sur le Web où la critique est réduite
aujourd’hui à de simples commentaires aussi sommaires que définitifs.
Règle 6 : Une thèse qui ne peut plus être défendue doit être retirée. Les doutes et
critiques sont justifiés au sens de l’assemblée.
Règle 7 : Une thèse, qui ne peut plus être attaquée, se doit d’être unanimement acceptée.
Les doutes ont été combattus, ceux qui les ont avancés les rétractent d’eux-mêmes.

Tableau 6 : Les règles de la prise de décision en équipe

Pour un meilleur usage, ces quelques règles sont complétées de sept


recommandations pour les participants à la session.
Recommandation 1 : Les arguments, dont la seule solidité est de se référer à des
personnes reconnues comme autorités de la profession, ne sont pas recevables. Les
autorités se trompent elles aussi. Les propos supposés des absents ne sont pas non plus
recevables.
Recommandation 2 : Plus généralement, les évidences et les lieux communs ainsi que
tous les arguments ne se rapportant pas directement à la thèse débattue sont à bannir. Ce
n’est pas parce que l’assemblée semble unanimement d’accord avec l’argument avancé
que celui-ci justifie la thèse en cours d’analyse.
Recommandation 3 : Référez-vous toujours en priorité aux indicateurs de performance et
aux mesures retenus par l’équipe.
Recommandation 4 : Profitez du temps de préparation pour essayer de considérer
plusieurs hypothèses, au moins deux. Dans tous les cas, il faut dépasser la première idée
qui vous vient à l’esprit.
Recommandation 5 : Gardez toujours l’objectif en ligne de mire, et assurez-vous que
votre idée va bien en son sens.
Recommandation 6 :Même si votre idée vous semble intéressante, évitez de vous
cramponner à la défendre contre vents et marées, uniquement parce que c’est la vôtre.
Prenez le temps d’analyser ses points faibles comparativement aux autres suggestions
proposées.
Recommandation 7 : Dans le cas probable où deux hypothèses expliquent les données,
aussi bien l’une que l’autre, il faut toujours préférer la plus simple

Tableau 7 : Les sept recommandations pour les participants à la prise de


décision en équipe3

Le guide pratique du modérateur averti


Nous devons comprendre que l’altruisme est une forme intelligente d’égoïsme,
un choix tout à fait justifié du point de vue rationnel.

JACQUES ATTALI, INTERVIEW DONNÉE À L’OBS EN SEPTEMBRE 2013.

Comme pour toutes les réunions de travail, la présence d’un modérateur est
la seule solution pour accéder à une conclusion constructive. Il n’y a rien de
moins naturel dans notre culture d’entreprise que de décider en équipe. Le
rôle du modérateur est multiple, et sa mission exige une personnalité
particulière conjuguant le goût de la méthode, le sens du dialogue et donc
de la tolérance, ainsi qu’une bonne dose de pragmatisme, pour parvenir à un
résultat concret.
Rapidement résumée, une session de décision en équipe se déroule en toute
logique selon le schéma suivant.

Figure 46 : le processus de prise de décision en équipe

Voyons, dès à présent, sept conseils de bon sens pour animer une session de
prise de décision en équipe réellement productive. Nous nous attarderons
ensuite sur les subtilités de la modération.

Une séance de décision en équipe se prépare à l’avance


Toute réunion de travail se prépare. Il en est de même pour une prise de
décision en équipe. Une fois que l’on s’est mis d’accord sur l’ordre du jour,
il est impératif que chacun des participants prenne le temps nécessaire pour
étudier le problème, élaborer des hypothèses viables, et affûter ses
arguments pour les défendre. Les éternels « touristes » qui fréquentent les
réunions, sans y apporter rien de concret, ne sont pas les bienvenus. Les
rencontres sont parfois difficiles et les participants perdent vite leur patience
s’ils sont tenus d’écouter les interventions improvisées des laxistes qui
n’ont rien préparé.
Sans diversité de points de vue, il n’y a pas de décision
efficace
Que les protagonistes soient d’avis différents, voire opposés, c’est une
chance, ce n’est en rien un obstacle à la construction des débats. La
diversité est une richesse pour qui sait l’exploiter. Le modérateur
s’emploiera à créer un climat propice, afin que chacun se sente en droit
d’affirmer sa différence et puisse s’exprimer librement, en tout cas, le temps
d’argumenter son point de vue.

La polémique est une situation normale du débat d’idées


Tant que la polémique se tient dans les limites du différend d’opinions,
c’est-à-dire sans agressivité gratuite ni violence inconsidérée, il est
préférable de ne pas intervenir trop tôt pour calmer les esprits. L’expression
libérée des passions est un révélateur des sentiments profonds. Le conflit
sous contrôle permet d’avancer à grands pas pour passer de l’opposition
d’idées à une solution fédératrice. Un débat d’opinions bien organisé et
suffisamment actif est le meilleur terreau pour parvenir à la « meilleure
décision », c’est-à-dire celle qui est jugée comme la plus efficace par tous
les participants. Les relations humaines sont aussi fondées sur la polémique.
C’est une réalité, même si dans l’entreprise on s’efforce de la masquer4.

CONSEIL
Ne pas confondre la cohésion d’équipe avec la courtoisie de salon.

La polémique n’est pas nécessairement un synonyme d’un affrontement


nourri par la violence et le ressentiment. C’est aussi l’affirmation de la
diversité de points de vue, des opinions, des expériences passées, des
visions d’avenir, bref, tout ce qui fait la richesse d’un groupe où chaque
membre affiche sa différence.

Une question demeure toutefois : les divergences de vues


visent-elles la résolution du problème ou, plus
insidieusement, s’agit-il de conflits de pouvoir ?
Les conflits latents, la rivalité, et tout ce qui crée un climat d’hostilité
affiché ou sournoisement masqué, risquent de sérieusement corrompre la
qualité des débats. C’est là que réside toute la difficulté de la négociation.
C’est dit !
Dans une société qui consacre l’individualisme et la réussite sociale, l’opportunisme
n’est plus vraiment un défaut.

C’est à ce stade qu’il s’agit de bien faire passer le sens de la citation de


Jacques Attali en exergue de cette section. Dans le cadre de la décision en
équipe, gagner ensemble, c’est aussi gagner pour soi. Il est aussi utile de
s’interroger sur le mode de reconnaissance pratiqué dans l’entreprise, un
sujet que nous avons évoqué au cours du chapitre 11. La certitude que son
effort de coopération sera reconnu est bien plus motivante que bien des
techniques absurdes de cohésion d’équipes, qui ne sont profitables que pour
ceux qui les organisent.

Convaincre, ce n’est pas expliquer plus que de raison


Ce n’est pas en répétant le même propos, sans varier d’un iota, que l’on
parvient à convaincre ses interlocuteurs les plus sceptiques. Décider en
équipe, et donc négocier, ce n’est pas chercher à persuader par tous les
moyens possibles les autres membres de l’équipe, sans écouter les
arguments opposés. Ceux qui agissent ainsi, sans modestie aucune, et même
avec une bonne dose d’arrogance, sont simplement persuadés d’être les
seuls à avoir compris. C’est aussi la technique employée par bon nombre de
manipulateurs, qui tentent de faire passer pour de la négociation ce qui n’est
que de la communication. Bien des acteurs de la conduite du changement
utilisent cette technique. Leur démarche est simple : retourner les opposants
un par un s’il le faut, afin de gagner une majorité et emporter ainsi le
morceau. Bon courage pour la suite du projet… Dans le cadre de la décision
en équipe, on rappellera au participant entêté les règles 2 et 6. Elles sont
suffisantes pour stopper les excès d’opiniâtreté qui, s’ils persistent, risquent
de mettre en péril l’issue positive de la réunion.

Avant de boucler, on réfléchit aux conséquences de la


décision
La question des responsabilités est le corollaire de la prise de décision. Si la
décision est une prise de risque, elle peut être un succès tout comme un
échec. Qui en porte la responsabilité ? Comment est-on jugé dans ce cas ?
Ces deux questions risquent de rester sans réponse satisfaisante. Elles
posent en effet en substance la notion du droit à l’erreur accordé par
l’entreprise. Comme nous l’avons déjà vu, la définition de ce droit est quasi
inexistante dans la plupart des entreprises. C’est pourtant un point qui ne
peut être laissé à la seule discrétion du management, sans que les acteurs de
terrain en connaissent les limites. C’est aussi pour cela que les décisions
prises individuellement, ou en équipe, flirtent généralement avec un taux de
risque tendant vers le zéro absolu. Il est vrai que les décisions les plus
ambitieuses ne sont pas nécessairement les plus risquées. Il n’existe aucune
règle en ce sens, mais on comprendra aisément que l’obsession du risque
zéro métamorphose rapidement les plus audacieux en simples velléitaires.
Voilà une difficulté de plus pour une prise de décision efficace, et une
raison supplémentaire de réformer le management, sans se contenter
d’aménagements cosmétiques.

Ce qui importe, c’est l’adhésion mais comment y parvenir ?


La décision prise en équipe sera qualifiée de « bonne décision » si, et
seulement si, tous les membres jugent la résolution choisie réaliste, efficace
et pertinente pour le problème posé. C’est à cette seule condition qu’ils
seront prêts à s’engager pour la soutenir tout au long du processus de mise
en action. Pour parvenir à une telle unanimité, but de la démarche, la
meilleure solution sera d’établir une liste de critères consensuelle et
objective au sens des membres de l’équipe. C’est ainsi que nous avons
procédé pour sélectionner les objectifs et les indicateurs de performance.
Dans le cas d’une décision commune, il s’agit alors d’apporter une
définition aux termes « réaliste » « efficace » et « pertinente », au sens des
besoins de l’équipe. Toutes les décisions candidates sont passées au tamis
de cette grille de critères et notées en commun.
Tableau 8 : Crible pour choisir collectivement la « bonne décision »

Les colonnes de cette table de valorisation proposent quelques critères


typiques.
Moyens : les moyens et ressources nécessaires sont disponibles.
Délais : les délais seront respectés.
Contribution à la finalité visée : la pertinence est bien là, le problème
soulevé sera bien en voie de résolution.
Responsabilité : les responsabilités de réussite et d’échec seront assumées.
Risques d’échec : le risque d’échec est limité.
Conséquences prévisibles : toutes les conséquences de cette décision sont
maîtrisables.
Interdépendances : cette décision est-elle étroitement liée à une décision
précédente ou à venir ? Implique-t-elle d’autres contributions de personnes
extérieures à cette assemblée ? Il vaut mieux s’assurer au préalable que
l’option qui recueille l’unanimité ne soit pas dépendante des choix d’autres
acteurs extérieurs à la réunion. Ce cas n’est pas exceptionnel. Il est en effet
difficile de travailler sur une partie d’un processus, sans envisager ce
dernier dans sa totalité. Dans cette situation, il faudra peut-être considérer
les options des autres équipes du même processus avant d’entériner la
décision.
Cette liste est modifiée et complétée selon les besoins du groupe et le type
de problème à résoudre. Une grille de critères précis est toujours préférable
à un vote à main levée. La grille de critères est bien plus objective et
fédératrice. Le consensus ainsi validé peut être qualifié d’intégrateur,
puisqu’il satisfait toutes les parties et ne laisse personne en retrait avec ses
réserves. La décision collective ainsi obtenue présente de multiples
avantages. Chacun des membres de l’équipe a intériorisé le choix collectif,
c’est désormais sa décision. On ne peut plus revenir sur les choix entérinés,
sans proposer de solides arguments. Cette décision aura donc toutes les
chances d’être mise en œuvre.

Le rôle du modérateur
Le rôle du modérateur est assez complexe et comporte de multiples facettes.
Il ne s’agit pas uniquement d’animer la réunion, et encore moins de la
présider. Son rôle est plus socratique que dirigiste. Il aide les participants à
exprimer ce qui leur tient à cœur. Même s’il faut parfois être dirigiste pour
placer les participants sur les rails d’un échange riche, et surtout constructif,
puisque c’est cela la finalité : parvenir à une décision collective qui
maximise l’équilibre entre l’efficacité supposée de la décision et l’adhésion
des participants.

Figure 47 : Une « bonne » décision collective


Le modérateur s’assure que les règles sont bien respectées, et il démonte les
sophismes involontaires ou volontaires, si jamais l’assemblée devait
affronter un maître de la rhétorique5. Il gère aussi les temps de parole afin
que les plus extravertis ne mobilisent pas le débat. La règle est simple. Tous
les participants disposent du même droit de s’exprimer et d’un même temps
de parole, si nécessaire. Sans généraliser, les personnalités les moins
expressives, les plus introverties, sont parfois les plus réfléchies, les plus
sensibles et les plus intuitives aussi. Il serait dommage de ne pas profiter de
leur point de vue pour un thème tel que la prise de décision.

Figure 48 : Les six facettes du rôle du modérateur

Arbitrer
Un débat a tôt fait de s’enliser si personne ne surveille les déraillements
intempestifs. Le modérateur est aussi un médiateur. Il arbitre les débats,
interrompt ceux qui digressent trop et s’éloignent du sujet sans aucune
chance d’y revenir. En revanche, il protège des interruptions intempestives
les interventions de ceux qui proposent des solutions, afin qu’ils expriment
clairement leurs idées avant d’ouvrir le champ aux critiques.

Synthétiser
Le bon modérateur profite de son esprit de synthèse pour reformuler les
propositions, s’il y a lieu. Il s’assure auprès de l’auteur de la proposition
que la synthèse proposée ne dénature pas le propos initial. C’est une
excellente technique pour donner une bonne assise au débat et le relancer
dans la bonne direction.
S’abstenir
Le modérateur s’efforce d’être neutre, et ce n’est pas le plus facile. Il est
impératif de s’abstenir de prendre parti pour l’un ou l’autre des
protagonistes, ou pour les thèses défendues. C’est le groupe qui décide. Ce
sont les membres du groupe qui sont chargés de trouver la solution. Le
modérateur affiche une ignorance de façade et se contente de recentrer le
débat, sans pour autant empêcher les participants d’explorer ce qu’il juge
comme de fausses pistes. D’expérience, il faut aussi savoir déroger de
temps en temps à son rôle de neutralité pour aider les participants à donner
les bons coups de volant. Sans intervenir directement sur le fond, il y a
toujours moyen de les inciter à creuser une idée, si l’on sent qu’ils ne font
que l’effleurer, alors que la solution semble être dans cette voie. Bien
évidemment, des participants chercheront à se référer à votre expérience.

CONSEIL
Bien préciser que chaque cas est singulier, que chaque groupe de décideurs est unique et
que toute entreprise l’est aussi, même si intimement on n’en est pas totalement convaincu.
C’est toujours un plaisir de se sentir un cas à part et le sujet est rapidement clos.

Aiguillonner
Pour relancer un débat un peu laborieux ou mal engagé, le modérateur
n’hésitera pas à conter une ou plusieurs anecdotes bien choisies, pour
détendre l’atmosphère et remettre le débat sur les rails. La technique a
souvent de bons résultats. La reformulation que nous avons déjà abordée,
tout comme les synthèses intermédiaires, sont aussi de bons outils pour
mettre en évidence les invraisemblances, et recadrer en douceur un débat
qui s’éloigne d’une solution viable… Avec modération, bien entendu, seuls
les membres de l’équipe de travail connaissent leur contexte et savent en
apprécier les contraintes. C’est à eux de trouver les solutions et d’identifier
le champ des possibles. Il est aussi vrai que lorsque l’on est aux prises avec
un problème, il est difficile de bien apprécier la situation et ses solutions.

CONSEIL
Un regard extérieur avisé est toujours salutaire.

Bien sûr, tout cela n’est pas toujours très « académique » mais sur le terrain,
on a d’autres impératifs que de suivre les règles à la lettre. C’est justement
l’expérience d’avoir vécu des situations similaires qui permet d’anticiper les
comportements et les situations, pour prévenir les risques d’échec et
augmenter ainsi les chances de succès. Le but est simple : parvenir à un
consensus clair et unanime.

Encourager : si jamais le groupe est un peu coincé et ne


démarre pas, comment le dérider ?
Les modérateurs qui maîtrisent bien les outils de créativité y recourront
pour chauffer l’auditoire et dérouiller la machine à produire les idées. Il
existe en effet des jeux assez simples et particulièrement efficaces.

Exemple
Pour inciter chaque participant à parler au moins une fois, on peut proposer une manière
de jeu inspiré de la patate chaude. L’animateur interpelle un membre de l’assemblée, au
hasard, et lui demande à brûle-pourpoint de dire en un mot ce que le thème du jour lui
inspire. La règle est simple : on ne peut pas passer son tour, et on peut dire des âneries,
ça n’a aucune importance. On note le mot au tableau et le membre interpelle à son tour
un autre participant, qui agit de même, jusqu’à ce que chacun des participants se soit
exprimé en évitant d’abuser des synonymes. L’animateur liste les mots et lance la même
opération pour une seconde liste, voire une troisième, si l’élan n’est pas retombé. Ce
petit exercice a bien des avantages. Non seulement, il a déridé l’atmosphère et
débloqué un peu les plus timides, mais le groupe dispose maintenant d’une liste de
mots-clés pour mieux cerner le sujet, et orienter le débat proprement dit dans la bonne
direction.
Cette liste de mots ne reste pas en l’état, on l’organise alors collectivement avec un
diagramme d’affinités6 ou une Mindmap, par exemple. Ce classement final de la liste
génère un effet de bord positif : les participants perdent alors la paternité des mots qu’ils
ont sélectionnés. C’est important, c’est le groupe qui produit, ce ne sont pas des
individualités. Comme le précise la règle 6, il ne faut pas s’accrocher à sa thèse plus
que de raison.
Cet exercice est une préparation à la production en groupe. Il existe bien d’autres jeux
pour dérider une assemblée dans l’expectative ou sur la défensive, mais il vaut mieux en
réserver l’usage aux experts qui sauront juger de l’opportunité.

Conclure
Au terme de la session, on se réserve quelques instants pour prendre la
température du déroulement. A-t-on atteint les objectifs ? Quels ont été les
éléments positifs ? Qui n’est pas totalement satisfait ? Qu’est-ce qui a posé
problème ? Que peut-on faire pour améliorer ?
Et enfin on s’assure que le secrétaire de la session dispose de tous les
éléments pour rédiger la synthèse en précisant une date ferme de
disponibilité. Il est indispensable d’en disposer rapidement pour ne pas
perdre le bénéfice de la session.

Les difficultés de la modération


Absence de confiance
Le manque de confiance entre les membres n’est pas toujours
systématiquement négatif. C’est le moyen d’approfondir les thèmes et
d’aller au cœur du sujet, sans s’en tenir à l’idée de surface. Un
questionnement un peu insidieux, insistant et donc dérangeant, un
questionnement que l’on pratique seulement lorsque la confiance n’est pas
absolue, est un bon moyen de lever le voile sur les inévitables zones
d’ombre et de mettre en évidence les faiblesses de la thèse défendue. La
méfiance systématique est en revanche un tout autre sujet qui peut conduire
à une adversité bien plus délicate à maîtriser.

Se sentent-ils concernés ?
Si les participants ne se sentent pas vraiment concernés par le problème à
traiter il y a peu de chance que l’on parvienne à une solution viable dans la
durée. La question à traiter peut par exemple concerner un nouvel outil
informatique que les décideurs du moment jugent inutile et contraignant :
c’était mieux avant avec l’ancien système. Ils seront peu motivés pour
prendre les décisions.

Décoder les termes du langage, les mots n’ont pas toujours


la même signification
Chaque profession utilise son propre lexique linguistique. Il est en effet
indispensable d’utiliser un vocabulaire spécifique pour désigner
précisément les concepts, les objets ou les situations caractéristiques du
contexte d’exercice de la profession. Ce n’est pas le seul cas où le
vocabulaire mérite d’être décodé. Au sein des entreprises et même des
groupes de travail, au fil du temps, des habitudes langagières s’instaurent et
bien des expressions revêtent alors un sens particulier. Ainsi un échange un
peu abrupt entre deux interlocuteurs n’est pas nécessairement le signe d’un
rapport conflictuel. L’hostilité n’est qu’une façade, une modalité de jeu
entre deux complices. Une critique acerbe à l’encontre d’une autre équipe
ou d’un autre service n’est pas non plus l’expression d’un conflit latent. Ce
peut être plus simplement une posture convenue au sein du groupe. A
contrario, l’absence de critique ne signifie pas pour autant qu’il n’existe pas
un conflit ou un climat hostile qui rendra difficile la résolution des
problèmes de fluidité des échanges et de la communication.

Écouter les doubles sens


Bien des propos sont polysémiques. Il ne suffit pas de se contenter de
l’information énoncée. Le propos contient peut-être une seconde
information. C’est celle-là qu’il s’agit de saisir au vol.

Exemple
Quelques salariés donnent leur sentiment à propos des membres du service voisin :
« Ils sont trop nuls dans l’équipe d’à côté, il faut toujours que l’on rattrape leurs erreurs
et en plus ce sont eux qui nous imposent le rythme de travail ! ». Ce n’est pas
uniquement une plainte, ce propos sous-entend : « Ils sont mauvais et nous sommes
bons. » Mais aussi : « C’est nous qui devrions prendre l’avantage sur eux et décider. »

En règle générale, bien des récriminations récurrentes camouflent d’autres


ambitions.

L’implicite et l’explicite
Tout métier comporte sa part d’implicite. Deux chirurgiens qui discutent
d’une technique spécifique ne vont pas la détailler pour le profane. Deux
informaticiens ne s’attarderont pas non plus à expliquer plus que de raison
des concepts connus implicitement par chacun des deux interlocuteurs. En
revanche pour concevoir un logiciel d’aide au diagnostic, il faudra bien que
chacun des spécialistes oublie l’implicite pour passer à l’explicite.

Et aujourd’hui ?
Cette question de l’implicite et de l’explicite est un problème récurrent en entreprise.
Elle donne toujours lieu, au mieux à des incompréhensions, au pire à des quiproquos
lors des sessions avec des groupes multi-professionnels.

Inviter les différents interlocuteurs à prendre le temps de bien préciser ce


qu’ils imaginent évident pour tout le monde est au final… un gain de
temps !

L’échelle de valeur: qu’est-ce qui est normal, juste ou bien ?


Toutes les équipes intervenant sur un même processus ou sur des processus
connexes ne partagent pas toujours la même échelle de valeur. À un maillon
de la chaîne, à une étape du processus, ce qui est considéré comme
« normal », « juste » ou « bien » n’est pas nécessairement qualifié de la
même notion de valeur par une autre équipe intervenant à un autre stade du
processus. Ce constat est flagrant comme on s’en doute au sein même de la
chaîne de sous-traitance composée d’entités indépendantes, chacune avec
ses pratiques, ses références, son histoire et sa propre culture. Il est aussi
vrai au sein même de l’entreprise, notamment durant les premiers temps
d’une fusion ou encore sur des sites de production différents.

Et aujourd’hui ?
Si les démarches de standardisation qualité ont tenté de résoudre cette difficulté en
proposant une échelle de référence commune, bien des thèmes indirectement liés à la
production sont encore sujets à des discussions… stériles la plupart du temps.

Les trublions
Au sein d’un groupe, on ne rencontre pas que des individus constructifs au
sens de la communauté. On y croise également des gens très peu
coopératifs, des carrément passifs, des angoissés, des convaincus de détenir
toujours la meilleure solution, des questionneurs sans fin, des pinailleurs,
mais aussi des opportunistes, des ambitieux et, plus rarement il est vrai, des
désenchantés qui nourrissent leur frustration d’une jalousie irrationnelle. Et
comme rien n’est simple dans les relations humaines, le même individu
peut adopter un comportement distinct selon le moment, la situation ou les
interlocuteurs auxquels il s’adresse.
À la décharge des personnalités un peu décalées avec les exigences de la
performance collective, il est aussi vrai que les modes de management
actuels, qui font et défont les groupes de travail au gré des affectations, ne
facilitent pas le développement de solides relations. À l’époque où la
mobilité est élevée au rang de règle managériale suprême, du mode projet,
de la soustraitance généralisée, de l’entreprise éclatée et internationalisée et
de la tendance renforcée à la mesure de la performance individuelle, il est
prudent de ne pas s’appuyer sur des rêves de société parfaite où tout le
monde s’entendrait naturellement. C’est un défi de tous les instants, autant
pour le modérateur que pour tous ceux qui souhaitent progresser dans le
bon sens, c’est-à-dire celui des objectifs fixés. Sans passer en revue tous les
types de comportements déviants au sens de notre démarche, attardons-nous
toutefois sur deux caractéristiques que l’on rencontre quasi
systématiquement : la norme de groupe et le narcissisme des petites
différences.

La norme de groupe
Au sein d’un groupe constitué, le réflexe naturel est de montrer son
intégration. Être en accord avec les autres membres du groupe est alors bien
plus important que d’afficher ses différences. D’ailleurs, le membre qui, par
hasard, nourrirait des idées un peu dissonantes avec le collectif supposera
qu’il n’a sûrement pas bien compris, puisque le groupe a forcément raison.
C’est une difficulté que rencontrent tous les modérateurs dès qu’il s’agit
d’inciter les membres d’un groupe, en phase de « cohésion » au sens du
team building, à s’exprimer individuellement et sans retenue. Un
phénomène connexe aux conséquences similaires est aussi très courant au
sein d’un groupe dont la cohésion n’est qu’apparente. Dans un tel groupe,
les leaders de fait imposent leur charisme et bénéficient d’une aura
incontestable et incontestée. Les membres plus effacés se conforment sans
rechigner à la pensée officielle dictée par les plus influents.
Narcissisme des petites différences7
Le comportement inverse existe aussi. Dans un groupe plus hétérogène,
composé de personnalités issues de divers horizons, comme c’est souvent le
cas en entreprise, des oppositions radicales peuvent naître autour de détails
bien spécifiques qui semblent totalement insignifiants pour une personne
extérieure. En revanche, celui qui les défend, arbore ces spécificités comme
un symbole de son identité ou de celle de son groupe d’appartenance. Là
encore, ce n’est pas la tâche la plus aisée pour le modérateur que de tenter
d’aplanir lesdites différences, pour mettre en évidence les valeurs
communes, au risque de froisser justement celui qui les exhibe aussi
fièrement.
Ce cas est assez fréquent dans le cadre de rapprochement d’entreprises ou
lorsque l’on fusionne des groupes de travail différents pour décloisonner et
mieux fluidifier les processus.

Les manipulateurs sont là


Dans une négociation, celui qui a déjà bien exploré le terrain et qui prend
l’initiative peut orienter l’échange dans le sens qu’il juge le plus favorable.
Si l’on se réfère à une métaphore guerrière en s’inspirant de Sun Tzu, le
choix du terrain, le choix des armes et le choix du moment sont toujours
décisifs pour l’issue de l’affrontement. C’est dire l’importance d’inviter
tous les membres à bien préparer la session au cas, pas si improbable, où un
membre privilégierait sa carrière personnelle aux dépens des intérêts du
groupe. C’est aussi le rôle du modérateur de veiller à ce que les débats ne
soient pas trop orientés vers une direction qui ne satisfait pas
nécessairement tous les membres. Les manipulateurs ont de nombreuses
cordes à leur arc. Parcourons quelques pièges de l’argumentation que l’on
rencontre de temps en temps.

Les pièges de l’argumentation


On connaît les sophismes, ces discours trompeurs camouflés sous une
apparence de bonne foi. Le raisonnement semble logique, mais la
conclusion est extravagante et l’on ne sait pourquoi.
Le paradoxe du tas de blé est un bon exemple de raisonnement détourné :
Exemple : le paradoxe du tas de blé
Si je pose un grain de blé sur le sol, ai-je obtenu un tas de blé ? Non.
Si je pose un deuxième grain de blé, est-ce que j’ai un tas ? Non.
Si j’ajoute encore et encore un grain ai-je enfin un tas ? Eh bien toujours pas.
Conclusion : il est donc impossible de constituer un tas de blé.
Ce paradoxe fonctionne aussi dans l’autre sens : si j’ôte un grain de blé à un tas, ai-je
encore un tas de blé ? Si je retire un deuxième grain ? Etc.

Le paradoxe de la flèche de Zénon8 est aussi un sophisme typique. Selon


Zénon, si l’on échantillonne le temps en unités suffisamment courtes, une
flèche tirée vers une cible est immobile durant cet instant. Le temps de
parcours de la flèche étant égal à la somme de ces instants, la flèche est
donc toujours immobile. Le raisonnement semble juste. Le piège est de ne
pas considérer le temps comme un continuum et de le fractionner en
instants très courts.
Tous les sophismes ne sont pas aussi paradoxaux.
Il n’en demeure pas moins qu’ils sont bien utiles pour manipuler
l’argumentation. Voyons quelques exemples en entreprise :

Exemples
Depuis que l’on a multiplié le nombre de contrôles, nous avons évité bien des vols
importants !
Mais on n’a jamais eu de vols importants dans l’entreprise…
C’est bien pour cela qu’il faut maintenir les contrôles !
Dans le même genre, n’oublions pas les réciproques abusives :
Si le carnet de commandes est bien rempli, l’unité de production tourne à plein
régime.
Puisque l’unité de production tourne à plein régime, le carnet de commandes est
donc bien rempli.
Bien sûr, c’est faux, on peut aussi produire sur stock.
Si l’un des employés est absent, l’unité fonctionne quand même.
Si l’unité fonctionne quand même, l’employé absent n’est donc pas nécessaire.
Et encore :
Si les conditions de travail sont optimales, les employés ne protestent pas.
Si les employés ne protestent pas, les conditions de travail sont donc optimales.
Les références à l’expérience passée ou à d’illustres inconnus sont aussi à bannir.
On a toujours fonctionné ainsi et ça marche très bien, ce nouvel outil ne nous
apportera que des ennuis… Sur quoi se fonde notre affirmateur pour être aussi
définitif ? « On a toujours fonctionné ainsi » n’est pas un argument recevable. Les
pratiques du passé ne sont pas nécessairement des recettes d’avenir. Ce n’est pas
parce que l’on a toujours fait ainsi qu’il faut continuer à le faire9.
Je ne suis pas sûr que ce soit un bon outil informatique, j’ai un ami qui a rencontré
beaucoup de problèmes avec cet outil. Quel ami ? Quel contexte ? Quels
problèmes ? On n’en saura pas plus.
À ce que l’on m’a dit, depuis qu’ils ont installé ce nouvel outil informatique, notre
concurrent a augmenté ses ventes de près de 20 %, véridique ! C’est de source
sûre ! Autrement dit, je n’en dirai pas plus, je ne le prouverai pas, je ne dévoilerai
pas mes sources, mais faites-moi confiance…

Les paradoxes de l’expérience et les biais cognitifs


Se souvenir des expériences passées pour éviter de commettre de nouvelles
erreurs est une richesse incommensurable. En revanche, la mémoire n’est
pas un ordinateur. Il est difficile de se rappeler avec précision les faits
comme les chiffres et de restituer dans son contexte exact une situation
passée. Le risque de l’anachronisme est réel. On ne pourra expliquer en
détail la situation actuelle en ne se référant qu’au passé. La mémoire est
parcellaire et trompeuse à la fois. Elle oublie certains faits qui se sont
produits, et accorde une importance hors de propos à des événements qui
n’étaient pas aussi significatifs sans pour autant respecter la chronologie.
Dans le même ordre d’idées, on se méfiera au cours des débats de l’effet de
halo, un biais cognitif qui piège les raisonnements les mieux construits10.
Le biais « effet de halo », ainsi dénommé par les spécialistes de la
psychologie sociale, limite notre perception aux seules informations utiles à
la thèse que l’on souhaite défendre. Les informations qui pourraient la
contredire sont perçues avec moins d’intensité. Ce travers est
singulièrement courant.

Cas pratique
Un dirigeant d’une entreprise de services en solutions technologiques était persuadé
d’être un détecteur de talents. « Je ne me trompe jamais lorsque je choisis un
collaborateur. » aimait-il répéter. Il s’était personnellement engagé dans le choix d’un
manager pour piloter la réalisation d’une partie assez délicate d’un projet complexe. Au
fil de l’avancement, ledit manager s’est révélé un assez piètre chef de projet, et son
équipe peu performante retardait l’ensemble de la réalisation. Les indicateurs du tableau
de bord de suivi du projet affichaient franchement les signes annonciateurs d’une dérive,
comme le dépassement des délais et des budgets, et la lassitude manifeste des
membres de l’équipe. Le dirigeant refusait pourtant d’en tenir compte pour anticiper
l’échec. Il s’entêtait à justifier son choix en évoquant les faits d’armes passés de ce
manager et l’excellence de son jugement en matière d’hommes. Il fallut attendre
l’intervention excédée du client final et les menaces de pénalités de retard, pour
contraindre ce dirigeant obstiné à décharger le manager controversé des parties les plus
critiques de sa tâche, afin de les confier à une autre équipe mieux pilotée. C’était bien la
seule solution envisageable pour éviter la déroute11.

Nous sommes tous sensibles à l’effet de halo. Nous avons tous connu à un
moment de notre vie l’inconfort du conflit entre la réalité et nos
convictions. Rien de grave si l’on ne s’obstine pas dans ses certitudes. Ce
biais pervers se produit quasiment chaque fois que l’on pense avoir pris une
excellente décision que les faits contredisent. Plutôt que de remettre en
cause la qualité de notre décision, nous recherchons dans un premier temps
des échappatoires rassurantes en abusant d’expressions toutes faites : « il
faut laisser du temps au temps ». Mais les faits sont entêtés. Notre
rationalité reprend alors le dessus et nous acceptons le constat. Mais les plus
opiniâtres n’en resteront pas là. Ils laisseront la mauvaise foi prendre le
relais à l’aide de formules du type « les faits sont parfois trompeurs », « les
indicateurs sont mal choisis ». Enfin, les incurables jetteront la faute sur la
fatalité, une explication bien pratique pour justifier tout et n’importe quoi.
La volonté de préserver l’estime de soi est bien la seule motivation d’une
telle obstination.

C’est dit !
S’accorder le droit de faire parfois des erreurs et de les corriger au plus vite est une
qualité dont bien des managers d’entreprise sont dépourvus… Pour le plus grand
malheur de leurs subordonnés.

Il ne faudra donc pas hésiter à recadrer le débat sur la problématique qui


préoccupe l’équipe de décideurs, en invitant les participants à considérer à
sa juste valeur l’ensemble des informations disponibles (règle 2). C’est là,
où l’on saisit mieux l’importance de se reporter en permanence aux
indicateurs de performance et aux mesures associées choisies et reconnues
comme référence par tous les participants (recommandation 3).
Comment devient-on un « bon » modérateur-animateur ?
Évidemment, si le modérateur ne parvient pas à se faire accepter et
reconnaître comme tel, la tâche sera plus difficile. Avec la pratique répétée,
on finit toujours par se construire une posture acceptable pour toutes les
situations. La clé de la réussite est assez simple. Il suffit de bien aimer
endosser ce rôle, apprécier de se tenir à distance tout en étant au cœur du
débat, prendre plaisir à voir se construire un projet à partir d’un échange
d’idées, être attentif à chacun sans aucun a priori. Quelle que soit la
position sociale au sein de l’organisation, nous sommes tous dotés d’un
cerveau en état en fonctionnement, prêt à donner le meilleur de lui-même si
l’on oublie durant un temps les rapports de classe. Autant en profiter pour
construire des solutions viables et satisfaisantes pour tous les participants.
1 « The challenge is not to get people to talk, but to get them to listen. »
2 Ces règles et recommandations sélectionnées, adaptées et complétées par l’auteur pour les
besoins de la décision en équipe, s’inspirent de plusieurs sources notamment Petit cours
d’autodéfense intellectuelle, excellent ouvrage de Normand Baillargeon (Lux, 2006), A
Systematic Theory of Argumentation, the Pragma-Dialectical Approach de Frans H. van
Eemeren et Rob Grootendorst, https://en.wikipedia.org/wiki/Pragma-dialectics,
http://www.ditext.com/eemeren/pd.html. Elles sont très efficaces, et à utiliser sans modération.
Quelques recommandations s’inspirent aussi de Carl Sagan, un scientifique américain doublé
d’un exceptionnel vulgarisateur.
3 La septième recommandation est aussi appelée le « Rasoir d’Ockham » en référence au
philosophe Guillaume d’Ockham (1285-1349) : la simplicité est toujours plus proche de la vérité
que la complication.
4 Même au sein d’un groupe ayant accédé au stade ultime du team building, on a tout de même le
droit de ne pas être d’accord et de l’affirmer. On peut encore légitimement ne pas avoir
nécessairement envie de partager son capital d’enthousiasme avec chacun des membres du
groupe.
5 Nous reviendrons sur les sophismes plus avant.
6 http://tb2.eu/p8
7 Un concept freudien à l’origine.
8 Zénon d’Élée (v. 490 av. J.-C., v. 430 av. J.-C.), un philosophe grec, est aussi l’auteur du
paradoxe d’Achille où par un principe similaire de découpage du temps, il démontre qu’Achille
ne peut pas battre à la course une tortue.
9 « La plupart des gens pensent que puisque quelque chose a fonctionné par le passé, et continue à
fonctionner aujourd’hui, cela fonctionnera demain. C’est faux. » Garry Kasparov (1963-), ancien
champion du monde d’échecs (« Many people think that if something worked yesterday, and is
still working today, it will work tomorrow, that wrong. »).
10 Un biais cognitif est une erreur de jugement produite par notre cerveau. Il peut perturber notre
capacité de décision.
11 Pour assurer son confort mental et éviter de remettre en cause sa capacité de jugement, ce
dirigeant est vraisemblablement parvenu durant un temps à occulter les informations portées par
les indicateurs pour réduire la dissonance cognitive entre les données qui révélaient
l’incompétence du manager et la certitude dans la fiabilité de son jugement. Il a sûrement trouvé
ensuite une explication satisfaisante pour justifier son choix initial.
15.

Apprenons à mesurer quelques grandeurs


qualitatives pour en finir avec
l’obscurantisme doctrinal des compteurs de
petits pois

Un ensemble de mesures regroupées sur un même tableau de bord n’a


d’autre fin que d’offrir une représentation de la réalité d’une situation pour
mieux la comprendre. Un modèle est réducteur par définition. Il est utile
pour saisir un aspect précis de la performance, comme nous l’avons fait
jusqu’à présent. Mais un modèle peut aussi être trompeur si l’on évite
d’inclure les mesures les plus délicates à intégrer.
C’est là tout le problème de ne raisonner qu’en termes quantitatifs. Bien des
facettes d’une situation donnée restent dans l’ombre dès que l’on traite des
thèmes qui ne peuvent être réduits à une modélisation exclusivement
quantitative. Nous avons abordé succinctement cette question au paragraphe
« Les indicateurs de performance choisis pour leur facilité de mise en
œuvre »1. Maintenant que nous avons constitué un groupe de travail en
mesure de prendre des décisions, il est temps d’apporter quelques réponses
aux questions restées en suspens dans ce même paragraphe.

Comment passer du qualitatif au quantitatif


La question du bien-être au travail, exemple évoqué au cours du paragraphe
ci-dessus référencé, ne peut être résolue par un algorithme aussi sophistiqué
soit-il. Seuls un questionnaire précis et des réponses sincères permettent
d’effleurer une appréciation qui, sans être d’une justesse absolue, sera bien
suffisante pour bâtir un indicateur de performance. C’est aussi vrai pour
bien des thèmes qui sont plus d’un ordre qualitatif que quantitatif. La
satisfaction des clients, thème récurrent depuis une bonne vingtaine
d’années, tout comme l’innovation, la qualité perçue ou l’aptitude à la
communication, entrent donc dans cette catégorie.
Ce sont des questionnaires particulièrement délicats à élaborer.
L’indispensable objectivité de l’enquête n’est pas aisée à atteindre. Un
manipulateur peut exploiter cette difficulté. Il est en effet assez facile
d’orienter les réponses du questionnaire, de façon à mieux servir les intérêts
de celui qui l’élabore.

Exemple
Imaginons un manager exécutif qui a décidé de réduire drastiquement les temps de
réalisation d’une commande client, tout simplement parce qu’il dispose des moyens pour
le faire. Il sera évidemment tenté d’orienter à son avantage le questionnaire destiné à
évaluer la satisfaction des clients. En ciblant essentiellement les questions sur le
paramètre résolu des temps de réalisation d’une commande, il parviendra sans difficulté
à une mesure positive de la satisfaction des clients. Avec un questionnaire aussi partial,
l’entreprise ne saura jamais qu’en réalité les clients sont peut-être majoritairement
mécontents des erreurs de livraison, de la qualité déplorable des produits ou de la
politique tarifaire pratiquée.

Tous les questionnaires de mesures qualitatives sont sensibles à toutes les


formes de détournements, qu’ils soient volontaires ou involontaires. Pour
cela, la conception d’un questionnaire ne peut être improvisée. Sondeur,
c’est aussi un métier.

Échelle de Likert
Pour exploiter les résultats de l’enquête et bâtir un indicateur de
performance, le plus simple reste encore d’utiliser une échelle de Likert2.
Elle est un outil de la psychométrie très utilisé, notamment en marketing,
pour formaliser le sentiment intime des personnes sondées.
Pour chacune des questions posées, les participants à l’enquête choisissent
une réponse dans une liste prédéfinie de modalités du type :
• Je suis tout à fait d’accord.
• Je suis d’accord.
• Je n’ai pas d’avis.
• Je ne suis pas d’accord.
• Je ne suis pas du tout d’accord.
Bien d’autres types de modalités sont envisageables : « J’adore/Je déteste »,
« Je préfère/J’évite », « Extrêmement probable/Totalement improbable »,
« Très satisfait/Pas du tout satisfait », etc.
L’exemple suivant présente les cinq premières propositions d’une enquête
consacrée à la mesure de la qualité de la communication d’une équipe en
interne et en externe.

Je suis tout Je n’ai Je ne suis Je ne suis pas


Je suis
Propositions à fait pas pas du tout
d’accord
d’accord d’avis d’accord d’accord

Je n’hésite pas à
communiquer avec les
autres membres 3 2 4 0 0
5 1

Tous les membres


communiquent facilement 3 1 3 2 0
5 1

La communication avec les


autres équipes est limitée 2 2 1 1 3
1 5

La communication avec les


sous-traitants est aisée 0 1 1 3 4
5 1

Le management exécutif ne
communique pas
suffisamment 7 1 1 0 0

1 5

Tableau 9: Un exemple (partiel) d’utilisation d’une échelle de Likert pour une


mesure qualitative de la communication en entreprise
Quelques recommandations pour laisser toute liberté à la personne
sondée
• Les propositions ne sont pas censées orienter les choix.
« Que pensez-vous de disposer de quelques heures par semaine de temps
libre pour développer vos propres projets ? », « Accepteriez-vous volontiers
de venir travailler les week-ends et les jours fériés ? ». Ce ne sont pas des
questions neutres, elles contiennent déjà la réponse.
• Les propositions ne sont pas ambiguës.
« Il n’est pas facile d’accéder aux ressources du système d’information, et
les outils bureautiques ne sont pas assez souvent réactualisés. ». À quel
membre de la proposition faut-il répondre ?
• Le questionnaire commence toujours par des questions relativement
simples. Les propositions les plus délicates sont glissées de préférence au
centre du questionnaire.
• Le questionnaire gagne à ne pas être trop long, afin de ne pas lasser les
sondés et limiter ainsi le nombre de réponses erronées.

Nombre de modalités
Selon les cas, on utilisera une échelle avec un nombre pair de modalités,
pour éviter la position de refuge du milieu qui évite de s’engager. Dans
l’exemple ci-dessus, l’échelle comporte cinq modalités, et le « Je n’ai pas
d’avis » central n’aide pas vraiment à résoudre la question. Si les
participants à l’enquête sont réticents à s’engager et à afficher leur
préférence, il sera judicieux de supprimer cette option afin de les
contraindre à choisir. C’est ainsi que nous avons procédé pour le choix des
objectifs et des indicateurs de performance. En revanche, si le participant
n’a vraiment pas d’avis tranché sur une question précise, il est contraint
d’opter au hasard pour l’un ou l’autre choix et fausse les résultats. Chaque
médaille a son revers. C’est bien pour cela que le questionnaire mérite
d’être soigneusement élaboré.

CONSEIL
Pour plus de précision, l’échelle de mesure peut comporter plus de modalités, sept étant le
maximum généralement admis.
Pondération de l’échelle
Les choix sont ensuite pondérés, de 1 à 5 par exemple pour l’échelle ci-
dessus. On accorde généralement la valeur « 5 » au choix « Tout à fait
d’accord » et la valeur « 1 » au choix « Je ne suis pas du tout d’accord ».
La valorisation peut être totalement inversée selon la question posée. La
valeur « 5 » correspond alors au choix « Je ne suis pas du tout d’accord »,
telle la troisième proposition de l’exemple de mesure de la qualité de
communication.
Il est utile de mixer les propositions positives et négatives, comme pour la
troisième ligne de l’exemple ci-dessus, de manière à éviter les réponses
systématiques inscrites sans vraiment réfléchir. C’est là aussi une
conséquence du biais cognitif « effet de halo » que nous avons évoqué au
cours du paragraphe précédent. Le participant, qui a une idée déjà bien
arrêtée sur le sujet, aura tendance à accorder une note similaire aux
propositions de même nature, sans pour autant vraiment la lire et réfléchir
plus avant. Glisser des questions inversées contraint à bien relire l’énoncé.
C’est une bonne solution pour limiter les effets pervers d’un tel
comportement.
Pour augmenter l’impact des réponses négatives sur le résultat, il suffit de
les affecter d’une valeur négative. L’échelle de valorisation devient alors :
2, 1, 0, -1, -2 en lieu et place 5, 4, 3, 2, 1.

Exploitation des résultats


Une fois valorisée, l’échelle de Likert devient numérique. On peut donc
profiter des outils statistiques pour analyser les résultats. Dans le cas d’une
étude avec un panel limité au niveau de l’équipe ou d’un processus, on se
contentera des outils les plus sommaires, comme le calcul de moyenne,
pour exploiter les résultats.
Les réponses à la première question de ce tableau s’interprètent ainsi :
(3x5+2x4+4x3+0x2+0x1)/9=3,9.
On procède de même pour chacune des questions posées en prenant garde à
la troisième ainsi qu’à la cinquième ligne où le barème est inversé. Les
résultats sont ensuite reportés sur le graphique adéquat selon l’usage
attendu. Le diagramme radar de la figure 49 offre un bon aperçu de la
communication au sens de ce groupe de travail. Il est ensuite assez aisé de
comparer les résultats avec ceux d’une autre équipe ou d’une autre période
pour la même équipe, voir la figure 50.

Figure 49 : Présentation des résultats (partiels) de l’étude de motivation au sein


d’un groupe de travail

Figure 50 : Comparaison des résultats avec ceux relevés pour un autre groupe
de travail
Figure 51 : Une présentation des mêmes résultats sous forme de courbes

Bien qu’elle soit relativement simple, l’échelle de Likert convient


parfaitement pour bâtir un indicateur de performance fiable, au sens de ceux
qui sont chargés de l’utiliser, tant que l’on respecte la transparence tout au
long du processus de réalisation du questionnaire.

Comment passer du quantitatif au qualitatif


Dans la vraie vie, dès qu’il s’agit d’émettre un jugement, nous, les humains,
préférons très nettement les valorisations qualitatives plutôt que
quantitatives. Au contraire des ordinateurs, nous évoluons aisément en nous
appuyant uniquement sur des appréciations de valeurs subjectives qui
semblent en apparence totalement floues : « C’est une bonne
performance », « Le résultat de ce mois-ci est insuffisant », « Les ventes en
région Paca ont été exceptionnelles ce trimestre », « Il a perdu près de dix
mille euros ce mois-ci, c’est une grosse somme ! »… Le chiffre annoncé ne
semble pas assez expressif, l’interlocuteur se sent alors obligé de compléter
d’un jugement de valeur qualitatif et subjectif pour bien faire passer le sens
de l’information.
Pour des besoins assez simples, il n’est pas bien difficile de définir une
échelle qualitative à partir des données quantitatives. Il suffit de définir en
commun ce que l’on entend pour chacune des appréciations.
Exemple
En accord avec tous les salariés concernés, une entreprise peut établir une échelle de
ce type :
Moins de 50 unités vendues, c’est un très mauvais résultat.
De 51 à 200 unités vendues, c’est un mauvais résultat.
De 201 à 500 unités vendues, c’est un résultat moyen.
De 501 à 700 unités vendues, c’est un bon résultat.
De 701 à 900 unités vendues, c’est un très bon résultat.
Plus de 901 unités vendues, c’est un résultat exceptionnel.
C’est simple, cela fonctionne et l’équipe peut prendre des décisions. C’est bien là le but
recherché.
Le point faible d’une telle méthode saute aux yeux à la lecture de l’échelle en exemple.
Pourquoi suffit-il d’une seule unité vendue de plus pour changer de catégorie ? Cela
peut paraître injuste. Un résultat mensuel de 500 unités vendues est qualifié de
« résultat moyen », tandis que 501 unités vendues sont un « bon résultat ». C’est là où
l’on met le doigt sur la vraie difficulté de quantifier notre environnement. Une solution
assez simple consiste à rajouter une ou deux catégories intermédiaires pour les bornes
les plus sensibles. On trouverait alors les catégories : « résultat moyen », « résultat
moyen++ », puis « bon résultat » etc. C’est un peu du bricolage, mais cela fonctionne
dans la majorité des cas.

De 201 à 440 unités vendues, c’est un résultat moyen.
De 441 à 500 unités vendues, c’est un résultat moyen++.
De 501 à 700 unités vendues, c’est un bon résultat.

À l’attention des plus curieux : un peu de théorie


à propos des univers continu et discontinu
La quantification nous contraint à ne travailler qu’avec des valeurs
discrètes, des nombres finis. C’est là l’origine du problème soulevé au
paragraphe précédent. Intuitivement, on se rend bien compte qu’il y a un
certain illogisme dans cette représentation chiffrée de la réalité. Il nous est
difficile d’admettre des ruptures aussi franches entre les catégories. C’est un
peu le même principe pour les couleurs. Si l’on évoque un objet de couleur
rouge, tout le monde sait ce que c’est, il n’y a aucune ambiguïté. De même
que pour la couleur violette, nul besoin de réfléchir pour la visualiser
mentalement. Mais qu’en est-il d’une teinte qui se rapproche de la couleur
magenta ? À quel moment passe-t-on du rouge au violet ? On sent bien
qu’il est impossible de placer une frontière ferme et franche pour délimiter
les nuances. Les limites sont floues.

CONSEIL
Quel que soit le thème, le changement de catégorie mériterait d’être toujours plus fluide et
moins tranché, en passant nécessairement par une zone un peu plus floue.

Reprenons l’exemple ci-dessus.

Exemple (suite)
Nous sommes tous d’accord pour reconnaître qu’il n’est pas logique que 500 unités
vendues correspondent à un résultat mensuel moyen, tandis que 501 unités seraient un
bon résultat. Si l’on se livre à un rapide sondage, on constatera que les avis sont pour le
moins partagés. Pour les uns, dès 480 unités, on sera dans le domaine du bon résultat,
pour les autres, il faudra peut-être attendre 520 ventes.

Figure 52 : Le flou des transitions

Indicateurs de performance et logique floue, une expérience


à télécharger
Pour résoudre ce genre de question insoluble en apparence, Lotfi Zadeh,
professeur émérite de mathématiques à Berkeley (États-Unis), a conçu aux
débuts des années 1960 une autre forme de logique mathématique, la
logique floue. Cette nouvelle logique est fondée sur un principe de sous-
ensembles flous, où les transitions sont plus douces, plus fluides, dans un
univers non plus discret mais continu, tout à fait comme la réalité de notre
monde. Il existe de nombreux travaux autour de l’usage de la logique floue.
Pour le thème qui nous concerne, une expérience assez simple de
construction d’indicateurs de performance, à l’aide de la logique floue au
sein d’une équipe de production, est décrite dans l’ouvrage Les Nouveaux
tableaux de bord des managers3.
En accord avec les éditions Eyrolles, la description de cette expérience est
disponible pour les lecteurs de ce présent ouvrage intéressés par la
démarche. Il suffit de télécharger le dossier complet, accessible en ligne à
l’adresse : http://tb2.eu/logiquefloue. Ce dossier est au format PDF protégé
en lecture. Le mot de passe pour ouvrir le document est simplement :
« logiquefloue ».
1 Page 117.
2 Rensis Likert (1903-1981), psychologue américain spécialiste de psychométrie.
3 Op. cit.
TROISIÈME PARTIE

POUR CONCLURE…

Où l’on achève notre étude en prenant soin d’adapter la méthode aux


réalités du management pratiqué dans les entreprises sans se laisser
leurrer par les déclarations d’humanisme et d’autonomie quand il ne
s’agit que d’un vernis pour masquer la perpétuation d’un
autoritarisme sans concession.
16.

Au XXIe siècle, c’était encore des humains


qui faisaient fonctionner les entreprises. Vous
savez, ces êtres dotés de raison, de
sentiments et de passions…

Je ne m’appuyais que sur mon expérience d’ingénieur et je n’ai pas apprécié à sa juste valeur la
dimension humaine. J’ai appris depuis qu’elle était décisive1.

MICHAEL HAMMER, THE WALL STREET JOURNAL, NOVEMBRE 1996.

Ils appellent cela « Le facteur humain… »


Michael Hammer est le coauteur du best-seller Reengineering the
Corporation: A Manifesto for Business Revolution2, un ouvrage qui connut
un retentissement international au cours de la décennie quatre-vingt-dix.
Dans cette étude, Michael Hammer et James Champy pressent les
entreprises de se réorganiser radicalement, et d’éliminer toutes les activités
qui semblent superfétatoires, au sens de la création de valeur prise dans son
acception la plus stricte. Il s’agit d’une question de survie, rien de moins.
Cet élagage sans aucune concession des fonctions de l’entreprise a enchanté
plus d’un dirigeant privé ou public. Les termes de « downsizing » et de
« dégraissage » étaient des incontournables de tout article de management
ou d’économie. En pratique, la brutalité des restructurations sans aucun
respect pour les acteurs de terrain fut fort mal vécue. Les gains de
productivité se traduisant quasi exclusivement par des licenciements
massifs, l’efficacité globale de la démarche se révéla pour le moins
douteuse. Dès novembre 1996, Michael Hammer semble avoir pris
conscience du fonctionnement réel d’une organisation et fait ainsi son mea
culpa (la citation en exergue) dans le Wall Street Journal.
La question de la dimension humaine comme facteur d’amélioration de la
performance n’est pourtant pas récente. Dès les années 1930, Elton Mayo,
précurseur de l’École des relations humaines, a mis en évidence
l’importance du relationnel au sein d’un groupe de travail au service de la
performance3. Les collègues aiment à se retrouver entre eux, vivre le même
quotidien et produire ensemble. Mais ce n’est pas aussi simple. Il ne suffit
pas d’évoquer le « facteur humain », et de ressasser des slogans du type
« Mettre l’humain au cœur de l’entreprise », pour redynamiser la
motivation, l’esprit d’équipe et le goût de la performance. Comme le
précise fort justement Danièle Linhart4, ce ne sont pas de psys, de coaches
ou d’ateliers de gestion du stress que les femmes et les hommes de
l’entreprise ont besoin, mais bien que l’on reconnaisse les valeurs de leur
profession, et qu’on les laisse libres de s’organiser et de s’exprimer.

C’est dit !
Il est peut-être temps aussi de réformer le vocabulaire de l’entreprise, et de substituer
au vocable de « salarié », celui qui touche un salaire5, le terme de « professionnel »,
celui qui met ses compétences, son savoir-faire et son savoir être au service de la
création de valeur.

C’est en tout cas sous cet éclairage, que l’on peut envisager de concevoir, si
ce n’est une coopération stricto sensu, ce sera en tout cas un partenariat, un
coengagement en toute intelligence entre le management et les
professionnels de l’entreprise. C’est d’ailleurs en s’appuyant sur un modèle
managérial de ce type, qu’au fil de ces pages, nous avons conçu un système
de mesure de la performance facilitant la prise de décision en équipe.
Un système de mesure de la performance
adapté pour chaque type de management
Nous avons aussi mis l’accent sur les questions de confiance et de
reconnaissance. Ce sont les deux clés de la réussite de la coopération, ou du
partenariat le cas échéant. Pour le concepteur de système décisionnel,
l’évaluation, subjective bien entendu, du niveau de confiance et du type de
reconnaissance est une bonne métrique pour définir le type de mesure de la
performance à mettre en œuvre. Entre les organisations qui se moquent
comme de l’an quarante du sort de leurs salariés, celles qui usent et abusent
d’artifices pour stimuler la motivation, et toutes celles qui ont parfaitement
compris l’importance d’une coopération en toute intelligence, l’inventaire
est vaste. Sans une boussole, il n’est pas facile de se repérer. Il est bien
évident que l’on ne bâtira pas le même système de mesure de la
performance pour toutes les organisations, indépendamment du degré de
maturité du management en vigueur.
• Les entreprises classées dans la case numéro 1 sont les héritières des
modes de management traditionnels. Elles maintiennent une logique de
castes et entretiennent un fossé entre les décideurs, l’encadrement et les
exécutants. Ces entreprises privilégient l’ordre à l’efficacité. Le sens du
devoir est étroitement lié à la notion de subordination. Le « facteur
humain » importe peu, ou alors d’une manière artificielle vécue par la
direction comme une contrainte de plus. Néanmoins, rien n’est définitif, le
rôle du concepteur expérimenté, c’est aussi d’inviter les managers à bouger
un peu les règles. Mais les marges sont généralement assez étroites. La
conception de la stratégie tout comme la phase de choix des objectifs de
performance seront difficilement participatives. La démarche dirigiste
semblera plus naturelle pour la majorité des membres de cette entreprise. Le
concepteur du système de tableaux de bord de pilotage consacrera alors
toute son attention à la phase de choix des indicateurs, pour autant que
ceux-ci soient pertinents, même si les objectifs sont fixés unilatéralement. Il
pourra ensuite accorder le temps nécessaire à la phase de prise de décision
en équipe avec les limites imposées par le principe de management.
Figure 53 : Degré de maturité du management

• Les entreprises classées dans la case numéro 2 sont parmi les plus
courantes actuellement. Aucune règle n’est véritablement connue.
L’entreprise fonctionne ainsi et le management ne cherche pas à savoir
pourquoi. En toute logique, les salariés qui savent naviguer dans un tel
marigot seront félicités s’ils accèdent aux objectifs fixés par l’échelon
supérieur de la hiérarchie. C’est la loi du mérite prise dans son acception la
plus stricte où seule l’accession aux résultats fixés à l’avance importe. C’est
ainsi que s’exprime la reconnaissance. Toutefois, comme les règles sont
inexistantes ou totalement floues, une bonne part d’arbitraire dénature un
peu plus les relations entre les exécutants et la direction. Les soupçons de
favoritisme et de mise à l’écart sont les thèmes favoris discutés autour de la
machine à café. Les objectifs sont nécessairement fixés et, comme pour la
classe 1, il vaut mieux réserver son temps et son énergie pour traiter du
mieux possible la phase de choix des indicateurs et celle de la prise de
décision en équipe.
• Les entreprises classées dans la case numéro 3 considèrent leurs employés
comme des prestataires de services. Leurs efforts ne méritent pas une
reconnaissance particulière puisque c’est là leur mission. Il sera difficile de
les motiver à se dépasser, car ils savent très bien que leurs efforts ne seront
en aucune manière reconnus. Quoi qu’il en soit, dans une entreprise
adoptant ce type de management, on peut dérouler le processus complet, tel
qu’il est décrit au chapitre 5, en prenant soin de ne choisir que des objectifs
très raisonnables.
• Les entreprises classées dans la case numéro 4 pratiquent un management
plus responsable et plus respectueux des compétences. La démarche de
réalisation d’un système de mesure de la performance, favorisant l’aide à la
décision et la prise d’initiative décrites au cours de la deuxième partie,
s’appuie sur les entreprises pratiquant ce type de management.

Mais alors quelles sont donc ces entreprises qui


favorisent la coopération pour une meilleure
prise de décision sur le terrain ?
Paradoxalement, la structure organisationnelle n’est pas toujours
représentative du type de management pratiqué. Pour illustrer ce propos,
passons en revue quelques types de structures d’entreprise parmi les plus
connues, et commençons par le fameux modèle d’organisation de
l’holacratie ou de l’entreprise libérée qui semble en apparence le mieux
adapté.

L’holacratie et l’entreprise dite « libérée »


Ces deux concepts assez proches et largement médiatisés demeurent encore
aujourd’hui un peu l’Arlésienne du management. Tout le monde en parle
mais bien peu ont rencontré des entreprises ainsi organisées si ce n’est au
travers de communiqués et de reportages enthousiastes. Voyons le pour et le
contre du modèle tel qu’il est exploité aujourd’hui et nous achèverons
l’étude de ce premier type de structure organisationnelle avec une rapide
synthèse en manière de conseil.

Le « pour »
Le principe fondamental de ce mode d’organisation consiste essentiellement
à supprimer les échelons de management intermédiaires et fonctionnels
pour accroître l’autonomie des opérationnels, et donc mieux les
responsabiliser.
Comme le relève Vineet Nayar6, c’est en effet au niveau opérationnel que se
crée la valeur dans une entreprise. C’est donc là qu’il s’agit de transférer
une partie du pouvoir. Les managers, qui en fait ne managent pas grand-
chose, tout comme les fonctionnels qui ne sont que des poulies de
transmission de l’information sont des handicaps à la fluidité des processus
et des freins à la création de valeur.

Cas pratiques

L’entreprise Delta
Pour accompagner son développement, Delta, une société conceptrice de jeux vidéo et
d’animations graphiques particulièrement dynamique, a cru utile de multiplier les niveaux
intermédiaires et les postes de fonctionnels. Converti aux vertus des programmes de
normalisation, le dirigeant était persuadé que la performance était le fruit d’une mise en
conformité à tous les échelons selon les bonnes pratiques standardisées. Pour cela, il
fallait cadrer les activités à l’aide de règles et multiplier les procédures de contrôle. Les
activités de création de valeur directe ou indirecte, c’est-à-dire celles des développeurs,
des commerciaux, des responsables du marketing et des techniciens de maintenance
pour ne citer que ceux-ci, ont mal vécu cette dérive bureaucratique et le flicage
systématique qui en découle naturellement. Bien évidemment, la productivité a chuté et
l’innovation est restée en panne. Comme la masse salariale comptait toujours plus de
personnes étrangères au processus de création de valeur, le bénéfice s’en est fortement
ressenti. Face à ce constat, la direction a curieusement préféré opter pour la solution la
plus irrationnelle. Plutôt que de revenir sur de bonnes bases et renforcer le pôle création
de valeur en soulageant la pression sur les développeurs et les commerciaux chargés
de débusquer de nouveaux marchés, la direction a préféré renforcer les contrôles et les
reportings7 ; seule clé selon elle de l’amélioration de la performance… Les entreprises
du même secteur d’activité ont dû être enchantées d’engager les meilleurs éléments
démissionnaires. La suite de l’histoire est sans surprise. Une entreprise de nouvelles
technologies qui n’innove plus ne peut perdurer. Pour faire face à ses obligations
financières, l’entreprise a été contrainte de céder ses activités de développement à son
principal concurrent. Elle se contente désormais de la distribution des produits à effectif
réduit.

L’usine Fralib
Dans l’ouvrage Bureaucratie, David Graeber8 relate en quelques lignes les péripéties de
l’usine Fralib (conditionnement de thé, groupe Unilever) reprise en SCOP par ses
salariés après une dure et longue lutte. À l’origine, l’entreprise ne comportait que deux
cadres dont le dirigeant lui-même et un responsable des ressources humaines. Durant
des années, les salariés ont d’eux-mêmes amélioré les processus de production et
l’usine était très nettement profitable. La direction bien loin du terrain a alors choisi
d’exploiter ces profits pour engager une douzaine de cadres intermédiaires aux titres
prestigieux en charge du contrôle, de la mesure et de l’élaboration de rapports et
procédures. « Finalement, ils ont flashé sur l’idée de délocaliser l’usine en Pologne. (…)
Ce plan justifiait rétrospectivement leur existence », précise l’auteur. Ce qui, en toute
logique, a mis le feu aux poudres…
Et aujourd’hui ?
Réduire l’emprise de la bureaucratie et ses lourdeurs, alléger les contrôles pour
laisser plus de liberté aux opérationnels, faciliter la circulation naturelle de
l’information, ce ne sont pas des pistes de recherche expérimentale, mais bien une
obligation aujourd’hui pour toutes les organisations.

Le « contre »
Mais il ne faut pas pour autant jeter le bébé avec l’eau du bain. Pour être
réactif et mieux en phase avec les attentes des marchés, les entreprises ont
bien compris qu’il fallait se rapprocher au plus près du client quitte à
l’intégrer dès le processus de conception. Pour autant, il vaut mieux prendre
garde de ne pas ajouter une pression supplémentaire sur les opérationnels
déjà aux prises avec la complexité de leur mission. D’expérience, le client
n’est pas toujours à sa place au sein des équipes de conception ou de
production. C’est là où le manager intermédiaire remplit un rôle absolument
indispensable d’interface avec les clients qui ne sont pas tous naturellement
rationnels et pragmatiques. Les individus versatiles, fantasques mais
cependant exigeants, sont aussi à l’occasion vos clients. Le manager
anticipe les besoins et assure aussi les relations avec la hiérarchie, les divers
services de l’entreprise et les équipes en charge d’un autre aspect du projet.
Le management joue alors le rôle de filtre protecteur destiné à laisser les
opérationnels accomplir leurs missions dans les meilleures conditions.
Remplacer ce manager par un leader de fait comme le suggèrent les
supporters de l’entreprise libérée, c’est courir le risque de recréer des petits
chefaillons obsédés par la conformité des résultats et la stricte application
des règles et des procédures. Comme nous l’avons vu avec le principe
d’hystérésis (page 101), il est bien plus aisé de couper dans le « gras » sans
discernement que d’évaluer la contribution indirecte à la création de valeur
des managers et des fonctionnels pris dans le collimateur des
réorganisations.
Il est prudent de ne pas trop se fier aux dithyrambes dont abusent quelques
médias pour décrire ce modèle dit « révolutionnaire », et de gratter un peu
la cosmétique pour mettre à nu la réalité du management pratiqué. Il n’est
pas dit que toutes les entreprises qui s’affichent comme « libérées » aient
radicalement rompu avec les pratiques ancestrales du management
traditionnel fondé sur le schéma binaire de domination et de soumission.
Comme le précise Dominique Méda, le chef d’entreprise dispose d’un
pouvoir immense : il donne les ordres, contrôle l’exécution et sanctionne les
manquements9. Ce pouvoir ne semble pas radicalement remis en question
dans le cadre de la plupart des modèles d’entreprise libérée et d’holacratie
régulièrement cités en exemple.

Et aujourd’hui ?
Sous les apparences de « liberté » et d’autonomie, la multiplication des règles, la
systématisation de l’autocontrôle et la pression constante du client sont autant de
moyens de suppléer aux échelons de hiérarchie supprimés.

La synthèse
Il ne suffit pas de constater que « Nous sommes tous sur le même bateau »10
pour que du jour au lendemain, comme après une révélation mystique,
salariés et classe dirigeante décident de marcher main dans la main. Il est
donc recommandé de s’assurer que l’autonomie est réelle, qu’il ne s’agit
pas uniquement d’une démarche opportuniste pour profiter des légitimes
souhaits d’émancipation des salariés, et accroître ainsi les profits grâce à la
réduction de la masse salariale sans perdre pour autant une once de pouvoir.
Bref, tout changer pour que rien ne change11. Pour cela, il suffit de se livrer
à une analyse critique de la pratique de la mesure de la performance et de
s’intéresser ensuite au pouvoir décisionnel accordé aux opérationnels12.
Enfin, le principe de confiance et de reconnaissance pratiqué dans
l’entreprise est un bon crible pour séparer le bon grain de l’ivraie, les
entreprises qui cherchent réellement à déléguer le pouvoir et celles qui ne
font que semblant.

La SCOP
Toute entreprise se doit de réaliser un profit si elle veut survivre.
L’entreprise dite libérée semble réfléchir
à la question du « comment » on réalise le profit.
La coopérative de type SCOP va plus loin et donne aussi les réponses
au « pourquoi et pour qui » on réalise le profit.
Au sein d’une coopérative de type SCOP, les salariés sont associés,
collectivement propriétaires de l’entreprise et donc responsables de la
réussite. Ils sont parfaitement au fait des questions de concurrence et de
compétitivité durable. Ils comprennent aisément l’importance d’entrer dans
un cycle de progrès continu pour assurer la pérennité de l’entreprise. Ces
échanges se déroulent généralement sans problème. Habitués à prendre des
décisions collectives, ils sont généralement déjà rodés à l’exercice. Mais ce
n’est pas vrai pour toutes les coopératives.

Cas pratique

L’entreprise Alpha (suite)


Ainsi les salariés de l’entreprise Alpha, que nous avons déjà évoquée (page 161),
montrent quelques réticences à exprimer publiquement leurs idées. C’est une
coopérative de formation relativement récente, et les salariés éprouvent encore des
difficultés à changer de comportement. L’ancien dirigeant était un paternaliste de la
vieille école. Autoritaire et infantilisant, il décidait seul quel que soit le sujet. Les
nouveaux salariés associés n’ont pas encore parfaitement intégré le pouvoir de décision
et la responsabilité qui leur incombe désormais.

Cette situation n’est pas difficile à régler. Il existe des cas bien plus délicats
où les principes de la coopérative ont été dévoyés.

Cas pratique

L’entreprise Bêta
L’entreprise Bêta, spécialiste de la mécanique de précision, a été rachetée par ses
salariés faute de repreneurs. Les cadres ont pris en charge la formation de la
coopérative et se sont approprié la majorité des pouvoirs. Les autres salariés, trop
contents de conserver leur emploi, n’ont pas protesté et acceptent docilement ce
dévoiement des principes fondamentaux de la coopérative et de l’autogestion. Il est
quasi impossible de les faire participer.

Là encore il est indispensable de bien s’attarder sur le principe de


management réellement pratiqué avant de mettre en place le système de
mesure de la performance et d’aide à la décision répartie13. Par ailleurs, la
large majorité des SCOP sont des entreprises de type PME. Elles
rencontrent les mêmes problèmes que toutes les PME que ce soient la
gestion de la trésorerie, les exigences des donneurs d’ordre, la pression de
la concurrence, le besoin d’augmenter le chiffre d’affaires, de renouveler les
gammes, de recruter et de conserver les compétences, d’établir des
alliances, de trouver de nouveaux débouchés, et surtout d’affronter la
frilosité des banques qui, telle la fourmi de la fable, ne sont guère prêteuses.

CONSEIL
Avant de lancer le projet, il faut prendre le temps de bien planifier les phases de la
démarche en parfait accord avec tous les protagonistes afin de respecter les impératifs
productivistes. Il ne s’agit pas de créer de nouvelles difficultés. Ce conseil vaut d’ailleurs
pour tous les types d’entreprises prêtes à franchir le pas.

La start-up
Les start-up ne sont pas non plus par principe la solution miracle de la
coopération et de la participation, tant s’en faut. Bien des start-up ne sont
« cools » qu’en façade. On se tutoie, on s’appelle par le prénom, on fait une
partie de baby-foot à l’occasion, mais l’autoritarisme et le culte du chef sont
toujours en vigueur14. Là encore, on étudiera de près le mode de
management pratiqué.

Et… les entreprises plus traditionnelles


En revanche, l’on peut obtenir de bons résultats auprès d’entreprises plus
traditionnelles, des entreprises où le dirigeant respecte le professionnalisme
de ses subalternes.

Cas pratique

L’entreprise Gamma
L’entreprise Gamma est une société de développement informatique. Rachetée et
intégrée à un groupe plus important, elle conserve encore une certaine indépendance.
Son directeur, lui-même développeur informatique de talent, dispose d’une véritable
autorité de compétence, la seule acceptable comme le rappelle Michel Serres15. Les
questions de la confiance et de la reconnaissance sont pour lui tout à fait naturelles tant
que les salariés sont eux-mêmes compétents. Toujours en quête d’efficacité, il a
parfaitement compris les avantages qu’il tirera d’une prise de décision facilitée à tous les
niveaux de son unité dans un esprit de « coopération »16.

Ces quelques cas rapidement résumés démontrent bien qu’il est avisé de
ne pas se fier au type de structure de l’entreprise pour en déduire la
répartition des pouvoirs. Seule une observation attentive du management
permet de tirer des conclusions pour aborder la démarche avec les
précautions qui s’imposent. La direction privilégie-t-elle l’efficacité ou
est-elle encore fortement attachée aux valeurs hiérarchiques
traditionnelles ? Voilà la question qu’il s’agit de résoudre.

Et aujourd’hui ?
Il est bien évident que dans un monde de complexité croissante, où l’innovation est
devenue un impératif, les structures archaïques finiront par tomber.

Pour l’instant, il est prudent de bien observer l’envers du décor afin


d’entreprendre la démarche la mieux adaptée… Tout ce qui brille n’est pas
or, et une pépite encore prise dans sa gangue est bien terne en apparence.
1 « I was reflecting my engineering background and was insufficiently appreciative of the human
dimension. I’ve learned that’s critical. »
2 Michael Hammer et James Champy, Reengineering the Corporation: A Manifesto for Business
Revolution, Nicholas Brealey Publishing, 1993. Ce livre fut traduit en français sous le titre « Le
Reengineering » et publié aux éditions Dunod. L’auteur avait fait précéder la publication de ce
livre, paru en 1993, d’un article culte dans la Harvard Business Review sobrement intitulé :
« N’automatisez pas, éliminez ! ». Pour l’auteur, il était inutile de perdre son temps à chercher à
automatiser les tâches qui, en apparence, ne contribuaient pas au processus de création de valeur.
Il valait mieux les supprimer purement et simplement. L’article est toujours en ligne :
https://hbr.org/1990/07/reengineering-work-dont-automate-obliterate. Aujourd’hui, les
communicants ont mieux compris les avantages de la novlangue façon George Orwell, et ont
substitué le terme de « flexibilité » à celui de « dégraissage ». Si l’on y réfléchit un instant, il est
tout autant péjoratif pour les femmes et les hommes concernés.
3 Notamment avec la mythique expérience de la Western Electric à Hawthorne, où Elton Mayo
(1880-1949) et son équipe se rendirent compte que l’intérêt qu’ils portaient aux travailleurs au
cours d’une expérience était un booster de la performance. Voir aussi la présentation des travaux
de Mac Gregor page 206.
4 La Comédie humaine du travail, Érès, 2015.
5 Comme le relève Alain Supiot dans son ouvrage La Gouvernance par les nombres, op. cit., les
salaires sont une charge sur le plan comptable et la contribution à la création de valeur n’est pas
visible. Selon l’auteur, c’est ce principe comptable qui explique les licenciements boursiers.
6 Les Employés d’abord, les clients ensuite, op.cit.
7 Voir notamment la figure 4 page 33. Sans le savoir, ce dirigeant met rigoureusement en
application le principe taylorien ainsi dénoncé par Émile Pouget en 1914 dans son ouvrage
L’Organisation du surmenage (le système Taylor) : « Parce qu’il (Taylor) choisit
scientifiquement l’homme qu’il faut, sur 75 hommes il en élimine 71. En même temps que vous
éliminez l’ouvrier moyen, vous augmentez le nombre de chefs et la paperasserie, vous
compliquez l’administration (pensez au reporting). Et chaque ouvrier restant, un ouvrier de
choix, doit faire le travail de quatre. » (Librairie des Sciences Politiques et Sociales)
8 David Graeber, Bureaucratie, Les Liens qui Libèrent, 2015.
9 Dominique Méda est philosophe et sociologue, spécialiste des politiques de l’emploi. Elle était
l’invitée du 7/9 de France Inter le 1er septembre 2017. À la décharge des dirigeants, le contrat de
travail impose dans son principe fondamental un lien de subordination. Le salarié est donc
contractuellement assujetti à son employeur. Ce principe anachronique ne facilite pas le
développement naturel d’une coopération claire et nette.
10 Isaac Getz coauteur de Liberté & Cie, op. cit. emploie cette métaphore. Avant lui, Henry Ford
utilisait déjà cette image pour justifier l’interdiction des syndicats dans ses usines. Plus
récemment, Laurence Parisot, ancienne dirigeante du Medef, a aussi évoqué cette solidarité de
façade, copieusement raillée sur le Web.
11 Pour mémoire, cette expression passée dans le langage courant est tirée du roman Le Guépard de
Giuseppe Tomasi di Lampedusa (Points, collection Grands Romans, 2017). Au XIXe siècle, un
vieux prince sicilien, dernier représentant d’une aristocratie décadente, craint le changement face
à l’avancée des Garibaldiens durant la révolution italienne. Son neveu, Tancredi qui a rejoint les
émeutiers le rassure : « Si nous voulons que tout reste tel que c’est, il faut que tout change. ».
Les Espagnols et les Italiens nomment « Gatopardismo » (gattopardismo en italien), néologisme
construit sur le titre de l’ouvrage (El Gatopardo et Il Gattopardo), ce principe de tout réformer
en apparence pour ne pas changer les principes fondamentaux. C’est un artifice abondamment
utilisé en politique, pourquoi donc les sciences du management seraient-elles en reste ?
12 Se reporter notamment aux commentaires du questionnaire de la page 242.
13 Fernando Pessoa, auteur de Le Banquier anarchiste (Christian Bourgeois Éditeur, 2017), un
savoureux pamphlet contre le pouvoir de l’argent, explique avec humour qu’à partir du moment
où un groupe d’humains se constitue, une hiérarchie de fait s’instaure. « Certains tendaient
insensiblement à devenir des chefs, et les autres des subordonnés » écrit-il. La constitution d’une
coopérative doit donc suivre un processus rigoureux pour ne pas dévoyer les principes
d’autogestion.
14 Avec son ouvrage Bienvenue dans le nouveau monde (Premier Parallèle, 2017), Mathilde
Ramadier nous offre une exploration guidée du monde des start-up, sa novlangue et ses rites. Le
récit d’une expérience vécue bien moins rose qu’on ne pourrait l’imaginer.
15 Le Point : « La seule autorité possible est fondée sur la compétence » (21/09/2012).
16 Pour préciser le propos, il s’agit bien d’une « baronnie », comme les dénomment les consultants
en management qui n’ont foi que dans la rationalisation et la standardisation organisationnelle.
Une baronnie gérée par une autorité de compétence, la seule qui soit naturellement reconnue par
l’ensemble du personnel, présente bien des avantages pour bâtir de véritables coopérations
constructives et innovantes. D’expérience et sans systématiser pour autant, il semble que ceux
qui détiennent une autorité de compétences sont aussi dotés de qualités essentielles, telles que le
respect du travail bien fait, la reconnaissance de la compétence d’autrui et une ouverture d’esprit
suffisante pour accueillir les nouvelles idées. Malheureusement, ces dirigeants de filiales,
défenseurs d’une certaine autonomie d’action, sont dans le collimateur des adeptes de la
rationalisation sans mesure et sans discernement. Ils sont immanquablement remplacés à terme
par des « courtisans » qui ont tôt fait de casser la dynamique d’ensemble pour privilégier une
recherche absolue de standardisation.
BIBLIOGRAPHIE

Retour aux sources du management


Ce sont des ouvrages que l’on trouve pour la plupart en ligne en
téléchargement libre de droits. Ils sont d’une lecture assez aisée. Sans faire
d’anachronismes acrobatiques, on retrouve en substance l’origine des maux
organisationnels et managériaux de l’entreprise d’aujourd’hui.
Henri Fayol, Administration industrielle et générale. H. Dunod et E. Pinat,
1917.
Henry Laurence Gantt, Industrial Leadership, Yale University Press, 1916.
Émile Pouget, L’Organisation du surmenage (le système Taylor), Librairie
des Sciences Politiques et Sociales, 1914.
Frederick Winslow Taylor, Shop Management, Plimton Press, États-Unis,
1911.
Frederick Winslow Taylor, « Principes d’organisation scientifique des
usines », H. Dunod et E. Pinat Éditeurs, préface de Henry Le Chatelier,
1912 (en ligne sur Gallica).

En complément, les incontournables


Matthew B. Crawford, Éloge du carburateur, La Découverte, 2016.
Satoshi Kamata, Toyota, l’usine du désespoir, Demopolis, 2008.
Marc Mousli, « Mary Parker Follett, pionnière du management », Cahier du
Lipsor, 2000.

Management et performance
Maëlezig Bigi, Olivier Cousin, Dominique Méda, Laetitia Sibaud, Michel
Wieviorka, Travailler au XXIe siècle - Des salariés en quête de
reconnaissance, Robert Laffont 2015.
Luc Boltanski, Ève Chiapello, Le Nouvel Esprit du capitalisme, Gallimard,
2011.
Dominique Cardon, A quoi rêvent les algorithmes, Seuil. 2015.
Antonio Casilli & Dominique Cardon, Qu’est-ce que le Digital Labor ?
INA Éditions, 2015.
Ève Chiapello, Patrick Gilbert, Sociologie des outils de gestion. La
Découverte, 2013.
Daniel Cohen, Le monde est clos et le désir infini, Le Livre de Poche, 2017.
Jonathan Crary, 24/7 : Late Capitalism and the Ends of Sleep, Verso, 2014.
Christophe Dejours, La Panne. Repenser le travail et changer la vie,
Bayard, 2012.
Christophe Dejours, L’Évaluation du travail à l’épreuve du réel, Éditions
Quæ, 2016.
Vincent de Gaulejac, La Société malade de la gestion, Points, 2014.
Béatrice Hibou, La Bureaucratisation du monde à l’ère néolibérale, La
Découverte, 2012.
Philippe d’Iribarne, La Logique de l’honneur, Seuil, 1989.
Robert Kaplan, David Norton, L’Alignement stratégique - Créer des
synergies par le tableau de bord prospectif, Eyrolles, 2007.
Robert Kaplan, David Norton, Le Tableau de bord prospectif, Eyrolles, 2e
édition, 2003.
Eloi Laurent, Jacques Le Cacheux, Un Nouveau monde économique -
Mesurer le bien-être et la soutenabilité au XXIe siècle, Odile Jacob, 2015.
Eloi Laurent, Nos Mythologies économiques, Les Liens qui Libèrent, 2016.
Danièle Linhart, La Comédie humaine du travail, Érès, 2015.
Renée Mauborgne, W. Chan Kim, Stratégie Océan Bleu, Pearson Village
Mondial, 2e édition 2015.
Evgeny Morozov, Le Mirage numérique - Pour une politique des big data,
Les Prairies Ordinaires, 2015.
Tom Peters, Robert H. Waterman, Le Prix de l’excellence - Les 8 Principes
fondamentaux de la performance, Dunod, 2012.
Michael Porter, L’Avantage concurrentiel, Dunod, 2003.
Phil Rosenzweig, Les Mirages du management - Comment éviter de
prendre des belles histoires pour la réalité, Vuibert, 2009.
Pierre Veltz, La Société hyper-industrielle - Le Nouveau Capitalisme
productif, Seuil, 2017.

La mesure et ses abus


Normand Baillargeon, Petit cours d’autodéfense intellectuelle, Lux, 2006.
Isabelle Bruno, Emmanuel Didier, Julien Prévieux (sous la direction de),
Stat-activisme - Comment lutter avec des nombres, Zones, 2014.
Barbara Cassin (sous la direction de), Derrière les grilles - Sortons du tout-
évaluation, Fayard/Mille et une nuits, 2014.
Lorraine Data, Le Grand Truquage, La Découverte, 2009.
Alain Supiot, La Gouvernance par les nombres, Fayard, 2015.

La démarche pour construire le système de pilotage et la prise de décision


coopérative
Norbert Alter, Donner et prendre - la coopération en entreprise, La
Découverte, 2011.
Lionel Bellenger, La Boîte à outils du négociateur, ESF, 2e édition 2007.
Maurice Bercoff, L’Art de négocier avec la méthode Harvard, Eyrolles, 3e
édition 2009.
James F. Cox III et John Schleier (sous la direction de), et préfacé par
Eliyahu M. Goldratt, Theory of Constraints, Handbook, Mac Graw Hill
Professional, 2010.
Peter Drucker, Devenez manager !, Pearson Village Mondial, 2006.
Peter Drucker, The Practice of Management, Harper Business : une
réédition en 2006 de cet ouvrage de 1954 où l’auteur expose les fondations
du management par les objectifs.
Alain Fernandez, Les Nouveaux Tableaux de bord des managers, Eyrolles,
6e édition 2013.
Alain Fernandez, L’Essentiel du tableau de bord, Eyrolles, 5e édition 2018.
Jean Gadrey et Florence Jany-Catrice, Les Nouveaux Indicateurs de
richesse, La Découverte, collection Repères, 4e édition 2016.
Douglas W. Hubbard, How to Measure Anything: Finding the Value of
“Intangibles” in Business, Wiley & Sons, 3rd edition 2014.
Michel Lallement, L’Âge du faire - Hacking, travail, anarchie, Seuil, 2015.
David Marquet, Turn The Ship Around ! A True Story of Turning Followers
into Leaders, Portfolio Penguin, 2013.
Nilofer Merchant, The New How: Creating Business Solutions through
Collaborative Strategy, O’Reilly, 2014.
Marc Mousli, Négocier, l’art et la manière, Maxima, 2003.
Roger Mucchielli, La Conduite des réunions - Les Fondamentaux du travail
en groupe, ESF, 2014.
Roger Mucchielli, Le Travail en équipe – Clés pour une meilleure efficacité
collective, ESF 17e édition 2016.
Richard Sennett, Ensemble – Pour une éthique de la coopération, Albin
Michel, 2014.

La confiance et la reconnaissance
Collectif, La Reconnaissance. Des revendications collectives à l’estime de
soi, Sciences Humaines, collection La Petite Bibliothèque de Sciences
Humaines, 2013.
Douglas McGregor, The Human Side of Enterprise, Annotated Edition,
McGraw-Hill Professional, 2006.
David H. Maister, Charles H. Green, Robert M. Galford, The Trusted
Advisor, Free Press, 2001.
Bob Nelson, 1501 Ways to Reward Employees: Low-Cost and No-Cost
Ideas, Best Practices, Latest Trends, Proven Strategies, Ways to Motivate
the Millennial Generation, Workman Publishing, 2012.
William G. Ouchi, Theory Z, Avon Books, 1983.
Daniel Pink, La vérité sur ce qui nous motive, Flammarion, 2016.
Peter Sims, Little Bets: How Breakthrough Ideas Emerge from Small
Discoveries, Simon & Schuster, 2013.
Cindy Ventrice, La Remuneración No Es Todo ! Empresa Activa, 2004.
Cindy Ventrice, Make Their Day! Berrett-Koehler, 2009.
Steve Zaffron, Dave Logan, The Three Laws of Performance – Rewriting
the Future of Your Organization and Your Life, Wiley & Sons, 2009.

Les « nouveaux » modèles organisationnels


Arte reportage : « Le bonheur au travail », 2014.
Benoît Borrits, Coopératives contre capitalisme, Syllepse, 2015.
Isaac Getz, Brian M. Carney, Liberté & Cie, Flammarion, 2016.
Gary Hamel, Ce qui compte vraiment, Eyrolles, 2012.
Tony Hsieh, L’Entreprise du bonheur, Leduc, 2011.
Annick Lainé, Coopération et management : L’exemple des Sociétés
COopératives et Participatives (SCOP), L’Harmattan, 2015.
Frédéric Laloux, Reinventing Organizations, Diateino, 2017.
Vineet Nayar, Les Employés d’abord, les clients ensuite, Diateino, 2011.
Mathilde Ramadier, Bienvenue dans le nouveau monde, Premier Parallèle,
2017.
Brian J. Robertson, La Révolution Holacracy - Le Système de management
des entreprises performantes, Leduc. S Éditions, 2016.
Dov Seidman, How ou comment le comportement devient la clé du succès
en affaires, Dunod, 2011.
INDEX

A
Abeille Guy 122
action (fiche) 199, 200
adhésion 258
algorithme 47, 278
Anderson Chris 49
Ash Michael 124
Attali Jacques 253
autoapprentissage 47
autocontrôle 29, 301
automatisation 34
autonomie 32, 189, 207, 209, 213, 297, 301, 305

B
benchmark 65, 134
biais cognitif 273, 282
bien-être (mesure) 118, 130, 131
big data 16, 37, 46, 80, 81
Box George 107, 138
Brahe Tycho 136

C
causalité 49, 96, 99
chaîne
- de valeur 184
Champy James 292
chômage (chiffres) 70, 74, 94
cohésion 212, 256, 257, 270
collecte 40, 44, 55, 81
compétence 39, 57, 293, 296, 305
compétitivité 15, 175
complexité 163, 189, 306
conduite du changement 257
confiance 187, 265, 311
- définition 191
contrat 196, 199
contrôle 29, 37, 56
coopération 296, 310
COP21 176
corrélation 96
cross-selling 164
cybernétique 29, 32, 42

D
data scientist 50, 107
décision
- prise de 110, 296, 310
Dejours Chistophe 40, 56, 57, 58, 308
downsizing 292
DPPO, direction participative par objectifs 173
Drucker Peter 68, 107, 172, 310

E
échelle
- de Likert 279
- de valeur 268
- logarithmique 89
- manipulation 86
effet
- d’aubaine 104
- de halo 274
efficacité 31, 34, 142, 295, 311
efficience 142
empowerment 189
entreprise libérée 210, 297
erreur (droit à l’) 213
évaluation 56, 58, 308, 309

F
Fayol Henri 149, 158, 307
Fitoussi Jean-Paul 119, 130
Ford Henry 28, 59, 184, 301

G
Galford Robert 191, 311
Gélinier Olivier 173
Getz Isaac 241, 301, 312
Goldratt Eliyahu 115, 310
Graeber David 299
graphiques 85, 90
Green Charles 191, 193, 311

H
Hammer Michael 291, 292
Herndon Thomas 124
hiérarchie 31, 65, 202, 295, 301, 304
holacratie 297
Homo Œconomicus 51
Honneth Axel 202
Hsieh Tony 210, 312
hystérésis 101, 300

I
incertitude 189
indicateur de performance 125
- choix 215
- définition 109
- suivre 141
indicateurs 62
- alibis 68
- artificiels 69
- de performance 62, 107, 141, 215, 288
- écrans 70
- faussement équilibrés 73
- globaux 71
- incomplets 70
- insignifiants 69
- volontairement déséquilibrés 72
infographies 90
initiative 213
innovation 23, 175, 306
Iribarne (d') Philippe 196, 197, 308

K
Kepler Johannes 136

L
lampadaire (théorème du) 119
Laurent Éloi 130, 309
Lean 17, 28, 185
Le Cacheux Jacques 130, 309
Linhart Danièle 293, 309
logique floue 288
loi El Khomri 92

M
Maister David 191, 311
manipulation 67, 96
marché 29, 92, 93, 162, 175
Marquet David 190, 310
matrice d’Ansoff 162
Mayo Elton 293
McGregor Douglas 206, 311
Méda Dominique 300, 308
médiane 75
méfiance 26
Merchant Nilofer 156, 311
mesure 25, 43, 65, 111, 277, 294, 309
- définition 64
Mintzberg Henry 166
modale (valeur) 76
modèle 30, 31, 277, 294, 296, 312
modélisation 47, 48, 50, 52, 138, 277
modérateur 253, 260, 276
motivation 187, 192, 193, 197, 205, 210, 283
- extrinsèque 209
- intrinsèque 209
moyenne 74
- mobile 94
MPO, management par objectifs 172, 196, 310

N
Nayar Vineet 34, 160, 191, 194, 297, 312
négociation 182, 183, 256, 257, 270
norme 98, 107, 142, 156, 201
- de groupe 269

O
objectif 113, 119, 169, 200
opérationnel 29, 34, 110, 156, 157, 188, 191, 195, 297, 300

P
paradoxe de Zénon 272
Parker Follett Mary 184, 232, 307
participation 35, 173, 187, 304
performance 23, 215, 288, 308
- définition 142
- mesure 59, 294
- objectif 176
Peters Tom 152, 309
PIB, produit intérieur brut 71, 122, 129
poka-yoke 190
polémique 255
Pollin Robert 124
Porter Michael 154, 309
Pouget Émile 298, 307
pourcentages 77
pouvoir 156, 189, 195, 231, 241, 256, 297, 300, 301
précision 79, 135, 282
procédure 43, 56, 99, 142, 172, 191, 201, 300
processus 112, 167, 181, 268
- de création de valeur 185, 211, 292, 293, 297
- d'innovation 214

Q
quadrature du cercle 136
qualitatives (grandeurs, mesures) 53, 277
qualité 50, 107, 112, 216, 268, 279
quantitatives (grandeurs, mesures) 17, 52, 54, 55, 118, 285

R
reconnaissance 199, 204, 296, 308, 311
règles 56
Reinhart Carmen 124
reporting 40, 127
réseaux sociaux 16, 35, 49, 80, 160
responsabilité 31, 187, 198, 199, 258, 259
RFID, Radio Frequency IDentification 42
risque 142, 165
Rogoff Kenneth 124

S
salami slicing 135
Sauvy Alfred 46, 79, 81, 129
SCOP, Société COopérative et Participative 161, 302
Sen Amartya 130
Shanghai (classement de) 116
Simon Herbert 52, 131
Sims Peter 214, 311
Sinclair Upton 28, 59
Smith Debra 183
sondage 49, 80, 81, 83
sophisme 261, 271
standardisation 34, 56, 268, 305
start-up 304
statistiques 50, 94, 167
Stiglitz Joseph 129, 130
stratégie 119, 149, 169, 309
- définition 150
Supiot Alain 59, 293, 309
SWOT, Strenghts, Weaknesses, Opportunities, Threats 159

T
Tableau de bord 72, 88, 108, 132, 134, 138, 274, 277
tactique 169
Taylor Frederick W. 26
TRS, taux de rendement synthétique (indicateur) 134
Tufte Edward 90, 93

U
up-selling 164

V
valeur
- chaîne de 184
- échelle de 268
- médiane et modale 74

W
Waterman Robert 152, 309
Welch Jack 101

Z
Zadeh Lofti 288
Merci d’avoir choisi ce livre Eyrolles. Nous espérons que sa lecture vous a
été utile et vous aidera à mener à bien vos projets.
Nous serions ravis de rester en contact avec vous et de pouvoir vous
proposer d’autres idées de livres à découvrir, des nouveautés, des conseils
ou des événements avec nos auteurs.
Intéressé ? Inscrivez-vous à notre lettre d’information mensuelle.
Pour cela, rendez-vous à l’adresse go.eyrolles.com/newsletter ou flashez ce
QR code (votre adresse électronique sera à l’usage unique des éditions
Eyrolles pour vous envoyer les informations demandées) :

Vous êtes présent sur les réseaux sociaux ? Rejoignez-nous pour suivre
d’encore plus près nos actualités :

Eyrolles Business Eyrolles Business Eyrolles Business

Merci pour votre confiance.


L’équipe Eyrolles.

P.S. : chaque mois, 5 lecteurs sont tirés au sort parmi les nouveaux inscrits à
notre lettre d’information et gagnent chacun 3 livres à choisir dans le
catalogue des éditions Eyrolles. Pour participer au tirage du mois en cours,
il vous suffit de vous inscrire dès maintenant sur go.eyrolles.com/newsletter
(règlement du jeu disponible sur le site)
Pour suivre toutes les nouveautés numériques du Groupe Eyrolles,
retrouvez-nous sur Twitter et Facebook

@ebookEyrolles

EbooksEyrolles

Et retrouvez toutes les nouveautés papier sur

@Eyrolles
Eyrolles

Vous aimerez peut-être aussi