Vous êtes sur la page 1sur 130

FACULTE POLYTECHNIQUE DE MONS

SERVICE DE GENIE DES PROCEDES CHIMIQUES ET


BIOCHIMIQUES

Crédit d’ouverture
QUALITE, SECURITE,
ENVIRONEMENT

Gestion Totale de la Qualité

Prof. Dr. ir. C. DELVOSALLE

Notes de cours – version 2017


FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 1 de 22

ANALYSE PRELIMINAIRE DU CONCEPT QUALITE

I. QUALITE, ... VOUS AVEZ DIT "QUALITE" ???

"Vous qui entrez, laissez toute espérance."


DANTE (l'Enfer)
"Point n'est besoin d'espérer pour entreprendre,
ni de réussir pour persévérer."
Devise de Guillaume d'Orange

1.1 Introduction

Qualité, Qualité, QUALITE, QUALITE !...


Nouveau cri de guerre d'un management en mal d'innovation, nouveau snobisme d'intellec-
tuels hautains, nouvelle "religion" de gestion, nouvelle mode éphémère ?

La référence à la "qualité" n’est pas neuve. Mais elle s’exprime aujourd’hui dans une
acception spécifique, voire technique, en de nombreuses occasions et dans bien des domaines.
Diverses normes internationales y sont consacrées, des modèles, simples ou moins simples, sont
proposés à son sujet. Et voici des cohortes de consultants, plus ou moins inspirés, qui s'érigent trop
souvent en prophètes pour enseigner aux organisations le dernier vade me cum du succès, selon
l'évangile de Sainte Qualité bien entendu ! Les rayons des librairies s'encombrent d'ouvrages
généraux, de livres introductifs, de bouquins spécialisés, … qui prétendent tout vous apprendre, en
cent pages ou en mille le what's what de la qualité.
Dans le cadre du marché unique européen, voire d'un marché mondial toujours plus présent,
les labellisations produits et autres certifications ou accréditations des "systèmes qualité"
interpellent, préoccupent et inquiètent bien des organismes.

Quelle cascade, quelle avalanche, quel engouement subit! Et qu'il est difficile, qu'il est
pénible, dans ce vaste tohu-bohu, de séparer le bon grain de l'ivraie. On peut s’étonner de cet
intérêt pour une notion qui paraît à première vue évidente, tant l’objectif de qualité semble inhérent
à toute organisation de production ou de service qui cultive un tant soit peu le respect de sa propre
image.

Pour autant, certains aspects du sens accordé à cette notion ont changé, et on ne peut nier
que la problématique de la Qualité a pris un tour extrêmement actuel dont l’importance ne fait que
s'affirmer au fil du temps. Originaire du monde industriel, la gestion de la qualité concerne
aujourd'hui tous les secteurs de l'activité humaine et se développe en synergie avec les
problématiques de la gestion de l'environnement et de la sécurité au travail.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 2 de 22

Les choses ne sont pas aussi nouvelles qu'il y paraît : des outils d’analyse statistique de la
production ont été développés dans les pays anglo-saxons depuis la première moitié du 20ème siècle
(Shewart, 1931).
Le fond du problème, des craintes qu'il inspire et des réactions, souvent désordonnées qu'il
provoque, résulte, dans une large mesure, d'imprécisions dans le vocabulaire et les termes
employés, de confusions entre divers aspects du concept "Qualité", voire même d'une réelle
incompréhension du concept lui même. Ainsi, on a trop souvent tendance à limiter son impact sur le
mode de gestion des organisations à certains de ses aspects et notamment ceux directement liés aux
considérations contractuelles en matière d'Assurance de la Qualité.
En réalité le concept "Qualité", dans son acception moderne, est un concept complexe qui
relève donc d'une approche systémique. Il faut admettre que ce concept est un concept relatif et
multiforme dont une définition unique et péremptoire ne saurait être qu'inadéquate. Dès lors, bien
avant de se poser la question des "labels", "certifications", des "accréditations" et autres "revues par
pairs", il est indispensable, sous peine que l'arbre cache la forêt, de prendre du recul, de replacer les
choses dans leur contexte et de s'interroger sur les objectifs réellement poursuivis.

C'est précisément le but que nous poursuivons dans ce texte, en proposant d'abord de
réanalyser le concept d'organisation, de son environnement et de son fonctionnement.

Il est essentiel de démystifier les fondements de l'Esprit Qualité et de faire comprendre


aux entrepreneurs, aux financiers, aux responsables politiques, aux cadres, à tous les travailleurs et
aussi à l'homme de la rue, qu'il ne s'agit pas d'un simple argument commercial, d'une lubie de
grands donneurs d'ordres, d'une mode passagère, ni, surtout, d'un "bibelot" qu'on pourrait s'offrir à
bon compte. Il est également indispensable d'en présenter certains aspects pratiques connexes,
relatifs aux normes et leur application.

Les enjeux sont d'un tout autre ordre, il s'agit de penser, d'agir et
d'entreprendre autrement avec l'Homme pour pierre angulaire.
1.2 Pour éviter une définition lapidaire et inutile

Traditionnellement, pour aborder un sujet neuf, on se sent généralement obligé de donner


une définition de l'objet que l'on veut traiter. Comment pourrait-on, en effet, présenter un concept,
une idée, dont le lecteur ou l'auditeur n'ait pas, a priori, une définition précise? Mais si commencer
par une définition semble une méthode simple et même sécurisante, elle ne peut qu'offrir une
perspective extrêmement simplifiée de l'objet, souvent simplifiée au point d'en vider la substance.
Faire simple n'est jamais une erreur (c'est l'avantage de l'image sur le texte), mais simple n'est pas
simpliste. Nous parlerons d'univers complexes (complexes, pas compliqués) et la complexité, ainsi
que la systémique nous l'apprendra, ne s'aborde pas en deux coups de cuillère à pot!

Nous nous passerons donc de définition, ...pour commencer tout au moins car une bonne
partie de ce texte consistera précisément à tenter d'introduire puis de cerner le concept Qualité.

A défaut de définition préliminaire, essayons alors l'humour, une voie qui en vaut largement
bien une autre.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 3 de 22

Crosby [1] offre cette approche lorsqu'il établit un parallèle entre la qualité et le sexe:

La Qualité a beaucoup en commun avec le sexe. Chacun est pour (sous certai-
nes conditions, naturellement). Chacun a le sentiment de comprendre ce dont il s'agit
(même s'il est incapable de l'expliquer). Chacun pense que, pour passer à l'acte, il
suffit de se laisser aller à un penchant très naturel ("après tout, c'est bien ce que nous
faisons déjà, d'une manière ou d'une autre"). Et bien sûr, chacun pense que, quand il y
a un problème, c'est la faute de l'autre ("si seulement il voulait mettre un peu de bonne
volonté pour faire les choses comme il faut").

Pourquoi ne pas aussi se référer aux "pensées" de quelques grands hommes (ou qui, parfois,
se croient tels):

La qualité est l'aptitude à l'usage (JURAN)


La qualité est la conformité aux spécifications (CROSBY)
La qualité, c'est gratuit,... mais ce n'est pas un cadeau (CROSBY, encore)
La qualité est une mode! (le choeur de ceux qui n'ont rien compris)
La qualité est le contraire de la non-qualité (ceux à qui on ne peut donner tort)
La qualité, c'est les normes ISO 9000 (ceux qui croient avoir compris)
La qualité est l'âme du travail (SOLJENITSINE)
La qualité, c'est le luxe (ceux qui vivent dans le luxe, ou encore ceux qui en
vivent)
La qualité, ...mais c'est très simple (un génie méconnu)

En fait, l'exercice demeure délicat car la qualité est décidément une notion aux multiples
facettes, un concept multiforme.

Il y a, par exemple, la qualité "produit", le contrôle qualité, l'assurance de la qualité, la ges-


tion de la qualité, etc. Et, pourquoi pas, aussi, les outils de la qualité, les coûts de la qualité (ou de la
non-qualité), les audits qualité, la certification des systèmes qualité, etc. Sans parler des hommes de
qualité, de la qualité supérieure, des qualités naturelles, de la qualité de la vie, de ...

Mais, il vaudrait sans doute mieux commencer par le commencement, ... avant que vous ne
vous sentiez vraiment perdus !
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 4 de 22

II. LE CONCEPT D’ORGANISATION ET LES CONCEPTS "QUALITE"

"Mon entreprise est un environnement fluide,


orienté vers l'action."
Mark Shepherd - Président Texas Instrument.

2.1 Première approche du concept d'organisation

Nous vivons, nous travaillons et nous mourrons entourés d'organisations diverses.


Curieusement, nous nous interrogeons rarement sur leur nature, leurs structures et sur leurs raisons
d'être. Tentons de les réduire à un concept commun1.

Dès lors qu'il y a décision, par une personne ou plusieurs personnes, de "faire quelque chose" et
que cette action réclame une certaine structuration et une certaine pérennité, on peut parler
"d'organisation"2.

Toute organisation est ainsi définie, au premier chef, par ses finalités, c'est une entité destinée à
remplir "des fonctions" qui seront censées répondre à des objectifs : elle n'existe que pour et par ces
activités.

Il convient donc de s'interroger d'abord sur le "quoi?", le "pourquoi?" et le "pour qui?" d'une
organisation, bien avant de penser aux différents "comment?", "qui?", "quand?" et "où?" (Figure
1).

POURQUOI ? QUOI ?
ORGANISATION
ORGANISATION
"Demande" "Réponse"

BESOINS RESULTATS
BENEFICIAIRES
BENEFICIAIRES

POUR QUI ?
Figure 1 : Les "Raisons d'être" des organisations

1Mintzberg parle d'organisation qu'il définit "comme une action collective à la poursuite de la réalisation d'une mission
commune". Il ajoute: "une bien drôle de façon de dire qu'un groupe s'est assemblé sous une bannière commune"
(Mintzberg, 1994).
2 Nous utilisons le terme "organisation" mais on aurait aussi pu parler "d'organisme" ou "d'entreprise". Nous aimons
beaucoup le terme "entreprise", car il dérive d'entreprendre, c'est-à-dire exercer une action finalisée. En français,
entreprise a d'ailleurs le double sens d'organisme et d'action d'entreprendre. Faute d'équivalent, en anglais, on se
contentera du terme "organisation" et, dans un souci de généralité, c'est celui que nous utiliserons.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 5 de 22

Le "pour qui?" ce sont les "bénéficiaires" (les clients) de l'organisation au sens large, cette
notion se précisera progressivement par la suite.

Les "besoins" de ce bénéficiaire peuvent être assimilés à une "demande" (explicite ou implicite,
consciente ou non), - le "pourquoi" - , demande à laquelle l'organisation doit fournir une "réponse"
adéquate.

Cette réponse, c'est-à-dire le "quoi", s'exprime, d'une façon ou d'une autre, sous forme de
"résultats" (les produits), directs ou indirects, des activités de l'organisation.

Une organisation doit donc être, au premier chef, définie par ses objectifs: c’est une entité
destinée à réaliser "quelque chose" qui constitue ce qu'on appelle, traditionnellement, son ou ses
résulats ou produits.

Il est fondamental de comprendre que cette notion de résultat ou "produits" déborde très
largement l'acception classique d'objet manufacturé. Le produit peut être matériel ou immatériel, il
peut être durable ou éphémère, il peut être intentionnel ou accidentel, ... et, très souvent, il
présentera toutes ces caractéristiques à des degré divers [Exemples de produits : un minerai, du
charbon, du pétrole, de l'acier, des produits chimiques, une pièce mécanique, une tôle, un boulon,
un moteur, une voiture, des vêtements, de la nourriture, une maison, un acte médical, une leçon, un
livre, un conseil d'avocat, un acte notarié, une pièce officielle (carte d'identité, acte de mariage), un
repas dans un restaurant, un plan, l'entretien (d'une voiture, d'une maison), une conférence, etc.].

En première approche, on peut donc dire que: "Un produit résulte de toute activité
coordonnée", et, corrélativement, que: "Une organisation est une entité qui réalise et/ou fournit des
produits, au sens le plus large du terme." 3

Il est évident que, si cette définition de l'organisation inclut bien entendu la manufacture qui
fournit des produits "matériels" (comme une usine, une société de construction, ...), elle recouvre
également les sociétés de services, les organismes commerciaux qui fournissent des biens
"immatériels", bref tout acteur du monde économique. La distinction entre organisations fournissant
des biens "matériels" et organisations fournissant des biens "immatériels" (services) est artificielle
car il est rare qu'un bien matériel ne soit pas accompagné de services (aide à la mise en oeuvre,
entretien, ...), de même qu'il est rare qu'un service ne soit pas lié à la mise en oeuvre de biens
matériels.

Mais, en outre, il faut comprendre que cette définition inclut également des activités sans
caractère économique direct, tels que les hôpitaux qui soignent des malades, les administrations qui
"servent" les citoyens, les écoles qui forment des étudiants, etc.

3 Le vocabulaire utilisé ("produit", "client", ...) peut sembler convenir aux activités commerciales habituelles, mais être
choquant dans d'autres domaines (école, hôpital, services publics, ...) qui ne se reconnaissent souvent aucun degré de
comparaison avec le monde économique. Mais toute "entreprise" a indubitablement des finalités, elle réalise "quelque
chose" pour "quelqu'un". Les mots sont impuissants à représenter complètement la réalité, ou plus exactement, les mots
n'ont que le sens qu'on veut bien leur donner. S'accorder sur un vocabulaire (voir, par exemple, l'ISO 8402), transcender
les a priori sémantiques par un consensus sur les significations avant toute chose, est la première démarche d'une saine
gestion de la qualité et même de toute démarche intellectuellement honnête.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 6 de 22

2.2 Premières approches du concept de la qualité

Au fil des années (depuis près d'un siècle), on a vu se dessiner divers concepts de la qualité.
Tout d'abord celui d'une "qualité" considérée comme un niveau de supériorité relative d'un produit
(le "meilleur"!). Cette conception descriptive, statique, reste sans doute (et peut-être
malheureusement pour celles qu’elle précède) la plus répandue dans les esprits.

Cette "supériorité" est apparue progressivement comme un leurre si la "qualité" du produit


comprise comme la satisfaction de besoins réels n'est pas d'abord présente. A quoi servirait, par
exemple, l'appareil électroménager le plus sophistiqué à ceux qui n'ont même pas l'électricité (ou un
frigo pour les esquimaux)?

Cette autre approche est beaucoup plus riche car elle découle directement du concept
d'organisation et présente la qualité comme une mesure de l'harmonie de la rencontre entre les
besoins des bénéficiaires, d'une part, et les résultats de l'organisation d'autre part (Figure 2). Elle
peut se résumer par la définition suivante :

La qualité est l'ensemble des propriétés et caractéristiques d'un produit ou service


qui lui confère l'aptitude à satisfaire des besoins exprimés ou implicites (ISO 8402, 1986).

ORGANISATION
ORGANISATION
BESOINS RESULTATS
QUALITE

BENEFICIAIRES
BENEFICIAIRES

Figure 2 : Qualité = Satisfaction de besoins

La qualité est donc ainsi directement liée aux caractéristiques du résultat des activités d'une
organisation, telles qu'elles sont perçues par ceux qui le reçoivent, l'utilisent et/ou le subissent (les
bénéficiaires).

Feigenbaum (1986) précise d'ailleurs à ce sujet : "la qualité est un jugement du client, et non
pas une appréciation de bureau d'étude, de producteur, de marketing ou de direction générale". Et
Juran (1988) de surenchérir : "la qualité d'un produit est son aptitude à l'usage pour lequel il est
destiné (fitness for use)".

C'est donc le jugement, l'appréciation du bénéficiaire (l'utilisateur), sur base de son


expérience réelle et par rapport à ses besoins et désirs, exprimés ou non, conscients ou intuitifs,
techniques ou subjectifs, qui donnent la seule mesure de la qualité d'un "produit".
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 7 de 22

Dans cette approche, le bénéficiaire n'est pas seulement "le Client" au sens classique, mais
toutes "les parties prenantes" au fonctionnement de l'organisation (les sous-traitants, les travailleurs,
les actionnaires, les riverains, … et finalement la Société au sens large). On comprend ainsi
pourquoi les concepts de gestion de la qualité, de l'environnement et de la sécurité sont tellement
connexes!

Corrélativement, tout échec, tout rebut, tout surcoût, tout retard, tout désagrément causé aux
bénéficiaires, tout manquement quelconque à la mission de l'organisation peut être qualifié de
"non-qualité" et devrait être clairement reconnu comme tel, non dans un esprit de sanction mais
dans un esprit d'amélioration et de progrès! Tagushi (1986) ne définit-il pas une "non-qualité"
comme tout ce qui peut causer un tort ou une perte à la Société? 4 Une pollution, un conflit social,
une faillite, une activité néfaste au bien-être physique ou moral des populations, ... sont autant
d'exemples de non-qualité. Cette non-qualité ne concerne d’ailleurs pas seulement des
caractéristiques négatives du produit : elle a trait également à des propriétés potentiellement
intéressantes, mais inutiles par rapport aux besoins du client, dont ce produit pourrait être affublé
(comme par exemple, en parallèle avec un exemple déjà cité, un dispositif de refroidissement d’air
dans l’habitacle d’un véhicule polaire…). La non-qualité doit être évitée, non seulement parce que
la demande du client définit ses caractéristiques, mais parce qu’elle coûte cher.

Il apparaît donc essentiel, pour l'organisation, afin de définir ses objectifs et ses finalités, de
très bien connaître ses bénéficiaires et leurs besoins. Si la démarche semble raisonnable, elle n'en
est pas pour autant chose très facile. D’autant plus que les besoins, comme les bénéficiaires, sont
souvent nombreux et variés.

Dans le cas des Services Publics, par exemple, outre le client-citoyen, les organisations
industrielles, les organisations commerciales, les organisations non-marchandes, bref la Société
dans son ensemble, fait partie des bénéficiaires. Sans oublier les fonctionnaires eux-mêmes, qui
sont à la fois acteurs et bénéficiaires du fonctionnement de l'organisation. On imagine ainsi
aisément que les besoins sont forcément multiformes. On peut cependant penser leur postuler au
moins un dénominateur commun : une certaine forme de "sécurité". Sécurité comprise comme
l'expression et le résultat de la confiance qui doit exister entre un bénéficiaire, d'une part, et
l'organisation, d'autre part.
Une première approche destinée à éviter les non-qualités et garantir les résultats a longtemps
consisté à penser en termes de "Contrôle de la qualité", c’est-à-dire en termes de vérification de
l’adéquation du produit à des normes, définies à partir des attentes supposées (ou mesurées) des
bénéficiaires, dans des limites de tolérance statistiquement définies. Certes ce contrôle est utile,
mais il est souvent lourd et coûteux. Il est en outre insuffisant : s’exerçant sur le produit, il arrive
trop tard et se borne à constater les erreurs sans avoir pu ni les prévoir, ni les prévenir.

Cette première approche de la qualité, dont nous venons de brosser les grandes lignes, est
clairement liée, on l’a vu, aux résultats (produits) de l'organisation et à la mesure dans laquelle ils
satisfont les besoins des bénéficiaires. Cette approche est généralement désignée sous l’expression
de "QUALITE PRODUIT" : les objectifs sont clairement fixés, mais les moyens pour les obtenir
demeurent vagues, difficiles à spécifier et à mettre en œuvre.

4 Tagushi parle de "pertes" dues à des inadéquations de la fonction du produit d'une part, et de "pertes" dues à des effets
secondaires dommageables. Le premier type de pertes concerne souvent le client direct et peut se mesurer par une
"fonction de perte". Le second type de pertes, concerne plus généralement l'environnement de l'entreprise tel que nous
l'avons défini.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 8 de 22

La satisfaction des besoins des clients devraient donc être rencontrées par les
"caractéristiques" d'un produit. Il s'agit évidemment d'un problème fondamental pour lequel il
existe de nombreuses approches de solutions5 .

De façon simple et que nous devrons approfondir, on peut reconnaître trois catégories
principales de "caractéristiques" d'un produit, qui sont :

la perception, le coût et le délai.

La perception correspond à l'adéquation des "fonctions" du produit par rapport aux attentes
du client, le coût représente, d'une façon générale, ce que le client doit donner en échange de la
jouissance du produit, le délai est lié au temps qui s'écoule entre le moment où un besoin (exprimé
ou implicite) apparaît et le moment où il sera (partiellement?) satisfait.

PERCEPTION

Fig. 3 La qualité - satisfaction des besoins du client.

En fait, ces trois caractéristiques (et tous les "produits" ont ces caractéristiques) peuvent
s'agréger en une commune mesure : la "QUALITE" du produit que nous avons déjà citée (Figure
3).

Il apparaît donc essentiel, pour l'organisation, afin de définir ses objectifs et ses finalités, de
très bien connaître ses clients et leurs besoins. Ce n'est, bien sûr, pas toujours chose très facile ...

5 De nombreux "outils qualité" sont précisément destinés à fournir des méthodologies de solution à ce problème.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 9 de 22

LE COURRIER D'UN LECTEUR

Monsieur,

J'ai parcouru avec intérêt votre approche de la qualité d'un produit.

J'éprouve cependant quelques difficultés à bien identifier mon client et ses besoins: est-ce celui
qui me passe une commande, ou celui qui est le destinataire, l'utilisateur, final des mes produits?
Pourriez-vous m'éclairer?

Je précise que je suis fabricant de chaises électriques.

Servir au mieux mon client m'apparaît comme une nécessité absolue, mais j'aimerais bien sa-
voir qui je dois rendre définitivement heureux.

Veuillez, ... etc.

Un élément clé de la relation entre l'organisation et ses clients apparaît ainsi: la


CONFIANCE en la qualité des produits (et donc en l'organisation).

Pour le client, il ne suffit en effet pas que l'organisation soit capable de réaliser des produits
de qualité (c'est-à-dire qui satisfont ses besoins), il faut encore qu'elle réalise effectivement des
produits de qualité (il ne suffit pas de pouvoir le faire, il faut réellement le faire) et surtout, il faut
que l'organisation y parvienne systématiquement!

Le client aura alors CONFIANCE en la qualité des produits de l'organisation, il n'aura pas
tendance à mettre, a priori, cette qualité en doute et ne se sentira pas obligé de vérifier très
régulièrement la conformité des produits à ses attentes.

Pour obtenir cette confiance, l'organisation doit, en son sein, mettre en oeuvre tous les
moyens nécessaires pour assurer la qualité régulière de ses produits.

Il devient ainsi évident que la qualité des produits est liée à la méthode de travail interne de
l'organisation. C'est une seconde approche (plus large) de la qualité qui, comme nous le verrons, est
à la base de l'ASSURANCE DE LA QUALITE et de la GESTION DE LA QUALITE.

Avant d'aller plus loin, il nous faut revenir à un examen plus approfondi du concept
d'organisation.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 10 de 22

2.3 L'environnement de l'organisation

"Pour étudier une organisation, il faut recourir à


une vision globale, replacer cette organisation
dans son environnement, ..."
Jean-Paul Levieux [4].

2.3.1 Introduction

Toute organisation est nécessairement en interaction avec le monde dans lequel elle vit, ce
que nous appellerons son environnement. De façon élémentaire, il semble qu'on puisse distinguer
quatre éléments principaux dans cet environnement (Figure 4):

Les clients, les fournisseurs, les travailleurs, la Société.

SOCIETE

TRAVAIL-
LEURS
FOURNIS-
CLIENTS
SEURS

Fig. 4 L'environnement des organisations

Les clients sont ceux (organisations, individus, collectivité,...)6 qui "bénéficient" des produits
réalisés par l'organisation (il ne s'agit pas nécessairement d'une transaction commerciale).

6 Remarquons que les actionnaires, les propriétaires, les coopérateurs, ... d'une entreprise constituent simplement un
type particulier de clients directs. Remarquons également qu'ils sont aussi fournisseurs de l'entreprise au sens où ils ont
mis des capitaux ou des biens quelconques à sa disposition pour qu'elle réalise son activité. Notons, enfin, qu'il est des
situations où il faudrait distinguer client et utilisateur. Clients et utilisateurs sont parfois confondus mais ce n'est pas
une règle générale.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 11 de 22

Les fournisseurs sont les entités (organisations, individus, collectivité, ...) qui "alimentent"
l'organisation avec les biens et les services (les produits) que requiert son activité. L'organisation est
évidemment un client par rapport à ses fournisseurs et attend donc d'eux qu'ils satisfassent ses
besoins.
Les travailleurs sont toutes les personnes physiques qui, par leur activité, participent direc-
tement au fonctionnement de l'organisation.
La Société est l'ensemble des individus, des organisations, du ou des pays, des éléments
naturels et artificiels avec lesquels l'organisation est en relation directe ou indirecte. Cet ensemble
est régi par des règles, des lois physiques, chimiques, économiques, sociales, réglementaires
(législations diverses), ...

2.3.2 Les "clients" et les "fournisseurs" de l'organisation.

L'analyse de cette "vision externe" de l'organisation ne peut cependant que paraître un peu
simpliste et conduit inévitablement à se demander si tous les autres éléments de l'environnement de
l'organisation ne sont pas eux-mêmes, peu ou prou, de véritables "clients" et de véritables
"fournisseurs" de l'organisation au sens où cette dernière leur fournit ou en attend "quelque chose"
qui satisfasse des besoins?

Il est évident que la réponse à cette question est OUI !!

a) les fournisseurs

Les besoins de l'organisation sont définis, dans une large mesure, par les besoins de ses
clients. Dès lors, la qualité de ce que produira l'organisation est intimement liée à la qualité de ce
que lui procureront ses fournisseurs ("ce qui est mauvais à l'entrée, sera mauvais à la sortie",
"garbage in, garbage out"). Directement ou indirectement, les fournisseurs d'une organisation sont
donc des éléments-clé de la qualité des produits que l'organisation fournira à ses clients. Une
organisation ne peut être assurée de la constance de la qualité de sa production que si elle peut avoir
confiance en la constance de la qualité de ce que lui proposent ses propres fournisseurs. La
CONFIANCE doit donc aussi exister entre l'organisation et ses fournisseurs.

Mais la confiance implique nécessairement une relation bilatérale. De fait, les fournisseurs
sont aussi des clients de l'organisation. Ils en attendent des commandes rédigées en termes précis,
soumises à des cahiers des charges réalistes et négociés. Ils espèrent également aide et conseils dans
la réalisation de leur mission et, par-dessus tout, considération et respect de leurs compétences pro-
pres (c'est un des aspects du "zéro mépris" d'Hervé Serieyx [5]).

Il est, ainsi, toujours judicieux que l'organisation puisse dialoguer avec ses fournisseurs pour
rechercher les meilleures solutions pour satisfaire les demandes de ses propres clients. C'est la base
du concept de PARTENARIAT. Dans le partenariat, l'organisation et ses fournisseurs vont au-delà
de leurs relations de transaction traditionnelle. L'un et l'autre reconnaissent qu'ils ont de nombreux
buts communs et qu'ils doivent travailler en synergie, au sein d'une relation client-fournisseur
bilatérale, pour optimiser leur fonctionnement interne dans le but de satisfaire au mieux les besoins
des clients finaux. Il nous paraît donc assez judicieux de parler de partenaires plutôt que de
fournisseurs.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 12 de 22

b) les travailleurs

Les travailleurs sont tous ceux qui par leur activité participent directement au
fonctionnement de l'organisation. On peut aussi affirmer qu'il existe également une double relation
de client à fournisseur entre l'organisation et ses travailleurs.
En effet, les travailleurs offrent leur temps leur savoir et leurs compétences à l'organisation
pour participer à son activité. Ils sont donc fournisseurs de l'organisation.
Mais ils en sont également clients puisqu'ils attendent de l'organisation un travail qui leur
donne une rémunération raisonnable, mais surtout, qui soit gratifiant au sens le plus large du terme.
En fait, pour une large part, les travailleurs sont l'organisation elle-même!

Cette analyse, radicalement non-taylorienne, est un des fondements de toute l'approche


qualité. Elle s'oppose violemment à la vision mécaniste (et taylorienne) du travailleur simple rouage
de la machine "organisation", mais elle s'oppose aussi à la vision "rousseauiste" de l'école des
relations humaines ou de l'école des motivations (voir l'historique de la qualité plus loin). Nous n'en
finissons plus, à cet égard, de régler son compte à la rationalité techniciste dominante du "one best
way" et à son soubassement philosophique et moral, un trop étroit rationalisme positiviste et
scientiste du siècle dernier. Toute organisation est un construit social, solution humaine au
problème de l'action collective et qui n'existe donc que par et pour les acteurs qui y participent!7Il
semble donc adapté de parler des acteurs de l'organisation plutôt que de travailleurs (Figure 5).

Clients et
Fournisseurs,
les TRAVAILLEURS

Fig. 5 L'organisation et ses travailleurs

7 Voir à ce sujet "la vision systémique de la qualité" plus loin et aussi "L'acteur et le système" de M. Crozier et E.
Friedberg [6].
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 13 de 22

c) La Société

Si les relations entre l'organisation, ses partenaires, ses clients et ses acteurs sont claires,
indiscutables, souvent contractuelles d'ailleurs, par contre les relations avec la Société sont souvent
moins directes et donc moins évidentes.
Certes, il y a des relations qui sont imposées par les législations, comme le respect de
normes, le payement des taxes et impositions diverses, les lois sur l'emploi et sur la protection des
travailleurs, etc. Les services juridiques, financiers et du personnel des organisations constituent,
dans ces domaines, des interfaces privilégiées entre l'organisation et la Société.
Mais les relations entre l'organisation et la Société vont bien plus loin que ces aspects
purement formels. L'organisation attend beaucoup de choses de la Société : un contexte politique et
social relativement stable, des travailleurs formés aux meilleures écoles, un climat global de
sécurité, un ensemble d'utilités (moyens de transport, sources d'énergie, ...), une concurrence saine,
etc. En contrepartie, la Société attend aussi beaucoup de l'organisation : une activité (économique
ou non) génératrice de bien-être et pourvoyeuse d'emplois, le respect de la nature (à court, moyen et
long terme), la minimisation des nuisances et des risques pour la population, etc.
Il y a incontestablement des interactions Client-Fournisseur entre l'organisation et la
Société non seulement dans les domaines légaux, économiques et sociaux, mais aussi dans les
domaines culturels, écologiques, éthiques, etc. (Figure 6).
Le management d'une organisation ne peut être réellement efficace à long terme que si
l'organisation vit en harmonie avec tout son environnement et considère, à des degrés divers, tous
les éléments de cet environnement comme SES CLIENTS !
C'est précisément la base de cette vision systémique du management que nous offre la Ges-
tion Totale de la Qualité.

Financier
Légal Social

Culturel Ecologique
Fig. 6 L'organisation et la Société
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 14 de 22

2.4 Seconde approche du concept d'organisation - l'organisation-flux

"Ceci n'est pas une pipe."


René Magritte.

2.4.1 Introduction

Lorsque le surréaliste belge René Magritte peint une pipe et intitule son tableau: "ceci n'est
pas une pipe", il a parfaitement raison! La représentation n'est pas l'objet, le mot n'est pas la chose.
Ainsi, un organigramme n'est pas une organisation. Si on se contente de déplacer des postes sur un
organigramme, ou de renommer des fonctions, le plus souvent peu de choses changeront en réalité.

Aucun modèle ne représentera jamais la complexité réelle d'un système, mais, en fonction
d'un objectif clair, on peut construire un modèle suffisamment pertinent pour être utile. Néanmoins,
si le modèle se limite à l'aspect structurel du système, il ne saurait être pertinent car il y manque une
dimension essentielle: l'aspect dynamique.
D'un point de vue interne, une organisation pourrait apparaître comme constituée
d'équipements et de travailleurs. Mais cette analyse ne révèlera rien si elle demeure statique.

Une organisation ne constitue jamais un ensemble monolithique mais la juxtaposition d'un


ensemble complexe d'activités parfois très diversifiées (système hiérarchisé). Au-delà des
subdivisions apparentes classiques de l'organisation (en départements, en services, ...) dont l'origine
est souvent historique (même si elles sont nécessaires au fonctionnement de l'organisation),
l'organisation apparaît comme une collection d'entités à la fonction définie et qui interagissent
continuellement pour réaliser divers objectifs (qui devraient se définir que par rapport à de réels
besoins fonctionnels).

Pour éclairer notre analyse, il est utile de considérer toute organisation comme un ensemble
de processus (il s'agit de sous-systèmes finalisés en analyse systémique).

"Un processus est un enchaînement de tâches réalisées à l'aide de moyens, tels que des
équipements, des informations, du personnel, en vue de transformer des matières premières en un
résultat final (produit)" (Figure 7).

MOYENS

MATIERES PRODUITS
PREMIERES

PROCESSUS
Fig. 7 L'organisation, ensemble de processus

Un processus possède donc des entrées et des sorties mesurables, il met en oeuvre des
moyens définis, il produit une certaine valeur ajoutée (sous diverses formes) mais il peut également
générer des sources de non-qualités pour le produit final.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 15 de 22

Pour définir complètement un processus, il faut identifier:

* ses finalités (les produits qu'il génère et son rôle dans l'organisation,
le POURQUOI, le QUOI et le POUR QUI);
* ses frontières (le QUAND et le OU, les processus qui le précèdent et qui le
suivent, ses relations diverses);
* son contenu (le QUI, le COMMENT).

Toute l'organisation peut donc se segmenter en un ensemble de processus dont il faut


identifier les relations.

Ces processus (figure 8) peuvent grossièrement se classer en trois catégories:

¾ les processus "hiérarchiques" (liés aux modes de prise de décision) ;


¾ les processus "transversaux" (liés aux activités relatives aux finalités de l'organisation - son
métier) ;
¾ les processus "de soutien" (logistique, appui de l'activité transversale).
Soulignons que tous les processus, même les plus humbles, sont essentiels au bon fonctionnement
de l'organisation, dès lors que leur articulation concourt de façon nécessaire à la réalisation du
produit final.

PROCESSUS ... H
I
P E
R R
O A
C R
E C
S H
S I RT
P O
U Q
ENTRANTS S U SU
P SORTANTS
E DE
S
PROCESSUS TRANSVERSAUX
S
S SU
CE
P RO
… ET ORGANISATIONS

Figure 8 : Catégories de processus dans une organisation

Il faut identifier les produits de chaque processus, définir des points de mesures (internes et
externes) qui caractériseront son fonctionnement. Il faut documenter tous ces points (trace écrite de
qui fait quoi et comment, de la façon de le mesurer et d'en garder la mémoire → procédures). Enfin,
il faut identifier toutes les interrelations entre processus.
Notons que toute cette démarche est très importante dans le contexte de l'assurance de la
qualité et de la gestion de la qualité. Il faut aussi se souvenir que les principales sources de dysfonc-
tionnement des organisations proviennent des relations entre processus et surtout entre processus
interfonctionnels (processus appartenant à diverses fonctions de l'organisation).
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 16 de 22

La qualité se construit dans chaque processus de l'organisation, tous ont leur poids dans le
résultat final et tous dépendent les uns des autres. Cette notion a été notamment traduite par Juran
[3] dans le concept de SPIRALE de la QUALITE (Figure 9).

"La spirale de la qualité est un modèle conceptuel des activités interdépendantes qui
exercent une influence sur la qualité d'un produit ou service tout au long des phases qui
vont de l'identification des besoins jusqu'à l'évaluation de leur satisfaction" (ISO 8402).

Marketing
Après-vente

Vente
Production
Industrialisation

R&D

Faisabilité

Marketing

Fig. 9 La spirale de la Qualité (d'après JURAN)


Notons que le concept de spirale de la qualité est très proche d'un autre concept souvent
utilisé aussi : le concept de "Chaîne de la Qualité"8.

Ils tentent, tous deux, de montrer que tous les processus de l'organisation et donc tous les
travailleurs de l'organisation interviennent directement dans la QUALITE du produit final.
N'oublions pas que la résistance globale d'une chaîne se ramène toujours à celle de son maillon le
plus faible!

C'est donc par la maîtrise de ces processus que l'organisation pourra acquérir la
CONFIANCE en la qualité de ses produits et, en conséquence, donner, à ses clients, cette même
CONFIANCE.
C'est la maîtrise des processus, des flux qu'ils échangent et la confiance interne qui
créent la confiance externe.

8 La spirale montre, en outre, que les besoins des clients évoluent continuellement et que l'entreprise doit aussi évoluer
à leur rythme.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 17 de 22

2.4.2 La relation client-fournisseur interne

Puisqu'un processus possède des entrées et des sorties, il possède donc, en quelque sorte, des
fournisseurs et des clients. Chaque processus est donc une sorte d'organisation interne.

Le POURQUOI d'un processus est donc aussi la satisfaction des besoins de ses clients!

Se dessine ainsi une forme de relation client-fournisseur semblable à celle que nous avons
décrite dans notre analyse de l'environnement de l'organisation.

C'est la notion de relation "client-fournisseur interne", c'est-à-dire la relation client-fournis-


seur généralisée aux processus (figure 10).

PROCESSUS
INPUT Valeur Ajoutée OUTPUT

Besoins Besoins
FOURNIS- CLIENTS
SEURS

Retour MESURE Retour

Fig. 10 La relation Client-Fournisseur

Il n'y a aucune raison qu'un client interne soit moins bien traité qu'un client externe, d'autant
que la qualité des relations internes rejaillissent inévitablement sur la qualité des relations externes.
Considérer, dans l'organisation, ceux qui utilisent les résultats de votre travail comme des
clients, et ceux qui alimentent votre propre travail comme des partenaires, modifie radicalement le
fonctionnement interne de l'organisation.

Chaque processus dans l'organisation n'exécute plus son travail "parce qu'on lui a dit de le
faire", mais au contraire parce qu'il connaît les buts et l'importance de sa tâche, qu'il connaît ses
clients internes et leurs besoins, et parce qu'il veut les satisfaire.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 18 de 22

2.5 Seconde approche du concept de la qualité - la Gestion de la Qualité

Se basant sur l'analyse qui vient d'être présentée, les concepts modernes de la qualité partent du
constat, finalement assez évident, que pour garantir la qualité des résultats, il faut avoir une
réelle maîtrise des processus de l'organisation (Figure 11).

BESOINS RESULTATS
QUALITE
BENEFICIAIRES
BENEFICIAIRES

Figure 11 : La maîtrise des processus


Pour maîtriser les processus, il faut déployer une stratégie rigoureuse qui peut se résumer
dans les six étapes présentées ci-dessous:

Analyser
Pour analyser un processus, il faut identifier ses finalités et préciser ses frontières. Il s'agit :
¾ de comprendre son rôle dans l'organisation (Pourquoi)
¾ de définir clairement les résultats qu'il doit générer (Quoi et Pour Qui)
¾ de recenser les moyens qu'il utilise (Qui, Quand, Où, Comment).
Intégrer
Il faut aussi intégrer le processus dans la chaîne dont il fait partie et notamment bien analyser
les besoins de ses "bénéficiaires" internes (Pour Qui). Analyse et intégration sont intimement liées.
Décrire
L'analyse et l'intégration, une fois réalisées, doivent se traduire concrètement sous forme d'une
documentation écrite qui en résume clairement les résultats. La documentation écrite est essentielle,
elle est l'ossature du système qualité. Elle doit être précise mais doit demeurer aussi simple que
possible.
Faire
Il faut ensuite, évidemment, faire ce qui est écrit. La réalité de terrain doit être en accord avec la
documentation écrite et réciproquement, sous peine que tout soit inutile.
Mesurer
Aucune appréciation réelle du travail effectué n'est possible sans mesure. Si une caractéristique
quelconque d'un résultat ou d'un processus est importante, si elle correspond à un besoin exprimé
ou détecté, elle peut et doit être quantifiée. Sans mesure, nous sommes ignorants. Il faut parler
"Faits et Chiffres".
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 19 de 22

Travailler ensemble
L'élément essentiel de tout processus, c'est l'être humain. Sans la participation des acteurs de
l'organisation, rien n'est possible. Travailler ensemble, ce n'est pas un slogan mais la clé de la
réussite.

Le management par la qualité est donc une stratégie qui vise à la qualité des résultats, c'est-à-
dire la satisfaction de besoins, par la maîtrise des processus d'une organisation. Si ce sont
essentiellement les processus "transversaux" qui sont concernés, on parlera "d'Assurance de la
Qualité". Si par contre, tous les processus de l'organisation sont concernés, on parlera de "Gestion
Totale de la Qualité".

En outre, cette stratégie vise aussi l'amélioration continue de ces processus et des résultats
qu'ils obtiennent (Figure 12).

E
X
C
ACT PLAN
Q
Q E
L
L
E
CHECK DO
N
ti nue C
Système
Con E
Qualité
ation
l ior
Amé

Figure 12 : Amélioration continue

Cette recherche de l'excellence se représente classiquement par la désormais célèbre "roue de


Deming" ou cycle PDCA. Selon cette approche, quatre étapes successives sont requises pour
progresser :

• PLAN : planifier, fixer des objectifs sur base d'une analyse préliminaire
• DO : faire, agir, mettre en œuvre ce qui est prévu
• CHECK : contrôler par la mesure, vérifier la conformité des résultats ou détecter les écarts
éventuels
• ACT : réagir, tenir compte des résultats acquis, les comparer aux objectifs et préparer un
nouveau cycle.

Les trois premières étapes ont déjà été évoquées dans notre description de la maîtrise des
processus. La quatrième étape ajoute un élément fondamental, un élément dynamique : la remise en
cause de l'acquis dans un but de progrès.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 20 de 22

A la figure 12, l'amélioration continue est symbolisée par le plan incliné que gravit la roue. Le
système qualité, c'est-à-dire la maîtrise des processus et les normes dont nous allons parler, y joue
le rôle d'une cale qui empêche la roue de redescendre. Mais comme tout évolue, et particulièrement
les besoins des bénéficiaires, il faut aussi que l'organisation évolue, toujours en quête d'un idéal
qu'on appelle l'Excellence.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 21 de 22

2.6 Conclusions

Pour conclure notre analyse préliminaire du concept "Qualité", nous pouvons donc dire que:

• La qualité comprise comme un niveau de supériorité relative (avec une nette connotation de
luxe) demeure sans doute une des acceptions les plus courantes et qui conduit à certaines
"labellisations" et "certifications produits" que nous connaissons.
• A l'analyse, cette (pseudo) "supériorité" apparaît comme un leurre si la qualité comprise comme
la satisfaction de besoins réels n'est pas d'abord présente! A quoi servirait, par exemple,
l'appareil électroménager le plus sophistiqué à ceux qui n'ont pas l'électricité. La "qualité
produit" doit donc se définir uniquement par rapport aux besoins qui doivent être satisfaits. C'est
le premier concept moderne de la qualité.
• Mais il apparaît également que pour obtenir cette "qualité-là", c'est la maîtrise des processus
internes de l'organisation et de leurs relations qu'il faut assurer. Cette seconde approche, plus
féconde, est à l'origine des méthodes dites "de l'Assurance Qualité".
• Pourtant, la complexité des organisations et leur profonde imbrication dans leur environnement
rendent insuffisant ce dernier concept lui-même. Nous verrons que ce n'est que par la "Gestion
Totale de la Qualité" érigée en stratégie d'organisation et en stratégie d'entreprendre que toute
organisation peut espérer satisfaire tous ses clients (au sens le plus large du terme) et la Société
dans son ensemble.
• Car nous avons, en effet, montré que toute organisation est un système constitué de processus
fortement interconnectés, régis par des relations Client-Fournisseur internes et qui devraient
oeuvrer tous dans le but commun de satisfaire les besoins de tous les clients au travers d'un
fonctionnement en harmonie avec son environnement

Nous ne prétendons pas avoir pu présenter, en ces quelques pages, toute la richesse du concept
de qualité. Simplement, nous avons essayé de le placer dans son contexte et lui donner sa vraie
perspective. Il ne s'agit pas de construire un nouveau "one best way" mais, au contraire, de
s'éloigner définitivement des concepts tayloriens de l'entreprise.

La Gestion de la Qualité s’est assortie, au cours de son évolution, d’une panoplie d'outils
méthodologiques et/ou pragmatiques, tels que les normes, graphiques, diagrammes, acronymes : ces
instruments parfois rébarbatifs à première vue sont la lettre d’une discipline, et il serait dommage de
les confondre l'esprit Qualité, qui est avant tout une autre manière de penser l’entreprise.

Cet esprit qualité, pour conclure et faire très simple, peut se résumer en dix concepts
(Delvosalle, 2001):

• Le client ou le bénéficiaire : seul juge • La qualité est le fruit d'une organisation


de la qualité ! bien maîtrisée.
• Nous sommes tous clients les uns des • Un maillon fait défaut et tout le reste est à
autres … l'eau.
• Qualité bien ordonnée commence par • La qualité? Tous acteurs, tous
soi-même ! bénéficiaires !
• Pour connaître la qualité, il faut la • L'Homme : pierre angulaire de la qualité !
mesurer …
• La qualité est la recherche permanente • La qualité : pierre angulaire de la Société !
du progrès.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre I
Analyse Préliminaire
DE MONS PRINCIPES GENERAUX. Page 22 de 22

III. BIBLIOGRAPHIE

[1] CROSBY Philip B., "QUALITY IS FREE", McGraw-Hill Company, New York, 1979.

[2] FEIGENBAUM Armand V., "TOTAL QUALITY CONTROL", 3ème édition, McGraw-Hill
Company, New York, 1986.

[3] JURAN J.M. et GRYNA F.M., "JURAN'S QUALITY CONTROL HANDBOOK", 4ème édition,
McGraw-Hill Company, New York, 1988.

[4] LEVIEUX Jean-Paul., "LE PILOTAGE PAR LA QUALITE", ESF Editeur, Paris, 1992.

[5] SERIEYX Hervé, "LE ZERO MEPRIS", Intereditions, Paris, 1989.

[6] CROZIER M. et FRIEDBERG E., "L'ACTEUR ET LE SYSTEME", Editions du Seuil, Paris,


1977 (réédité dans la Collection Points Essais en 1992).

[7] TAGUCHI Genichi, "INTRODUCTION TO QUALITY ENGINEERING", Asian Productivity


Organisation, Tokyo, 1986.

[8] DELVOSALLE CHRISTIAN, "QualiGuide Wallonie 2002", Lyon, Editions DPE, 2001 page
13.

[9] MINTZBERG H., Le Management, Paris ,Les Éditions d'Organisation, 1994.

[10] SHEWART W.A., "Economic Control and Quality of Manufactured Product ", Princeton ,D.
Van Nostrand Company Inc., 1931.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 1 de 33

HISTORIQUE DE LA QUALITE

Les Précurseurs, les Gourous et ... quelques autres

I. INTRODUCTION

On peut violer l'histoire, à condition de lui


faire un enfant. A. DUMAS

Il m'a toujours paru nécessaire, pour bien comprendre un domaine, d'en avoir une bonne
perspective historique. Il est, en effet, évident que les évolutions (et les révolutions) se sont toujours
faites en prolongement du passé ou en réaction au passé. Il n'y a, en effet, pas plus de génération
spontanée des idées qu'il n'y a de génération spontanée des micro-organismes.
Il ne s'agit cependant pas de verser dans le syndrome du "GOD" (Good Old Days), le présent
n'est probablement ni pire ni meilleur que le passé, mais il en résulte inéluctablement.

Il est habituel, lorsqu'on commence à présenter l'histoire de la Qualité, d'essayer de faire re-
monter les choses aussi loin que possible, par exemple au code d'Hammourabi (stèle retrouvée vers
1900) qui, à Babylone en 1750 avant JC, prévoyait que si un maçon avait construit une maison
trop peu solide et que cette maison s'était écroulée sur ses habitants, le maçon devait être tué! Clair,
définitif, sans doute très motivant, mais... l'action corrective paraît peut-être un peu radicale.
On cite aussi souvent cette image (dans la tombe de Rekh-Mi-Re à Thèbes) montrant un ins-
pecteur qui vérifie la perpendicularité d'un bloc de pierre à l'aide d'une corde sous le regard du tail-
leur de pierres.
Il est aussi classique de faire référence aux artisans-compagnons, aux bâtisseurs de cathédra-
les du Moyen-Age qui professaient l'amour du travail bien fait et transmettaient leur savoir au tra-
vers de longs apprentissages initiatiques. Dans ce système économique, c'est le maître-artisan ou les
corporations d'artisans qui fixaient les règles de qualité des produits et qui les inspectaient avant
qu'ils ne soient livrés aux clients. Dans de nombreux cas, le produit recevait une marque distinctive
qui en garantissait la qualité (l'estampillage de l'or, encore pratiqué aujourd'hui, est une réminis-
cence de cette époque).
On aime également se référer à quelques grands noms de l'histoire et on cite souvent ce texte
daté du 3 août 1664 et attribué à Colbert : "Si nos fabriques imposent à force de soin la qualité su-
périeure de nos produits, les étrangers trouveront avantage à se fournir en France et leur argent
affluera dans le Royaume".

Mais nous ne pensons pas qu'il soit vraiment nécessaire de remonter jusqu'à ces glorieux
aïeux, même si cette approche comporte un réel fond de vérité. Notre société actuelle est essentiel-
lement héritière de la révolution industrielle du 19ème siècle et c'est à partir de là que nous dévelop-
perons notre analyse.
Nous verrons que l'approche historique de la qualité se confond souvent avec celle de la pro-
duction industrielle et celle du management. Ce n'est pas par hasard car il s'agit, finalement, de la
même histoire.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 2 de 33

II. AUX ORIGINES DU MANAGEMENT [1]

2.1 Introduction

C'est le jour des révolutions que les choses


rentrent dans l'ordre. MONTHERLANT

L'organisation de la Société, au début du 18e siècle hérite directement du modèle moyenâ-


geux. Le corps social est très cloisonné et hiérarchisé, chacun y occupe une fonction particulière et
ne peut y échapper. Il y a ceux qui servent Dieu, ceux qui font le métier des armes, ceux qui s'occu-
pent de commerce, ceux qui travaillent la terre, ceux qui réalisent des travaux artisanaux, etc. Cet
ordre a été voulu par Dieu puisqu'il n'y a pas de véritable division entre le sacré et le profane. On est
dans une Société rigide et moralisée. Même l'idée de "contrat social" (John Locke) n'est qu'une ten-
tative de laïcisation de la Société qui ne remet pas vraiment en cause celle de l'ordre social, tout au
plus, la référence devient celle d'un droit naturel (plutôt que de celle de Dieu), puis d'un contrat so-
cial chargé de définir les rapports entre le citoyen et l'Etat. La fin du 18e siècle et le début du 19e
siècle vont balayer ces concepts pour conduire à l'avènement et à la victoire de la bourgeoisie indus-
trielle.

..."Alors la vapeur et les machines vinrent révolutionner la production industrielle. La manu-


facture dut céder la place à la grande industrie moderne et les petits industriels se trouvèrent détrônés
par les millionnaires de l'industrie, chefs d'armées industrielles: les bourgeois modernes....
...La bourgeoisie est le produit d'un long processus de développement, de toute une série de révolutions
survenues dans les modes de production et d'échange... Impitoyable, elle a déchiré les liens mul-
ticolores de la féodalité qui attachaient l'homme à son supérieur naturel pour ne laisser subsister
d'autre lien entre l'homme et l'homme que l'intérêt tout nu...
... En un mot, à la place de l'exploitation voilée par des illusions religieuses et politiques, elle a mis
l'exploitation ouverte, éhontée, directe dans toute sa sécheresse...

Karl MARX "Manifeste du Parti Communiste" (1848)

La seconde moitié du 19e siècle est caractérisée par le scientisme et la rationalisation. On y


fait l'éloge de la Science comme source de développement des sociétés humaines et comme moteur
d'une morale capable de rendre les hommes meilleurs. "Le savant ne cesse d'accroître le patrimoine
et le capital collectif des peuples" écrivait le chimiste Marcellin BERTHELOT en 1897. Le machi-
nisme industriel étant le plus grand succès de cette science, aucune inquiétude ne se fera jour quant
à l'impact des machines omniprésentes sur la personne humaine. L'industrie naissante ne peut qu'ap-
porter aux hommes prospérité et bonheur.

La société est censée retrouver un équilibre naturel par le jeu du libre marché où les meil-
leurs gagnent. Ce qui est retenu de l'ouvrage de Darwin, l'Origine des espèces (1859), c'est l'évolu-
tionnisme fondé sur le concept de survie du plus fort, du plus capable. Le "struggle for life" est tra-
duit dans les domaines économiques, sociaux et même moraux. C'est le règne de l'individualisme
basé sur un scientisme réducteur qui imprègne tellement, encore aujourd'hui, toute la culture de
l'Amérique du nord.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 3 de 33

Mais la rationalisation sera la caractéristique la plus marquante et la plus durable de cette


époque. Elle demeure, encore aujourd'hui, une des idées-force du développement industriel. Ce ra-
tionalisme exacerbé à base d'un cartésianisme étroit1 sera à la base des premiers modèles de mana-
gement moderne aujourd'hui connus sous le terme générique d'Organisation Scientifique du Travail
(O.S.T.).

Il ne faut pas voir dans notre propos une critique stérile des révolutions de la pensée, fille des
concepts du 19ème siècle. Certes, nous en reconnaissons les excès et nous les dénonçons. Mais ce
fut une véritable révolution dont les abus, fruits d'une simplification outrancière de la réalité, sont à
l'origine de tous les progrès que nous avons connus, souvent en réaction à ces abus eux-mêmes.

L'histoire de la qualité est faite de trois courants complémentaires mais qui se sont long-
temps développés en parallèle, sans véritable interpénétration. Ce sont les courants technologique,
sociologique et méthodologique.
Nous allons tenter de vous en présenter les grandes lignes. Il est probable que dans notre
analyse, nous oublierons bien des personnages connus et bien des contributions, pourtant importan-
tes.

Néanmoins, nous espérons ne pas avoir trahi l'essentiel.

2.2 Taylor, Fayol - les précurseurs

L'administration des choses remplacera le


gouvernement des hommes.
SAINT-SIMON

A tout seigneur, tout honneur, Taylor et Fayol ont marqué trop profondément toute la théorie
du management pour être simplement intégrés à l'un ou l'autre des trois courants que nous venons de
citer. En fait il sont, en quelque sorte, à l'origine des trois.
La "Théorie Administrative"2 conçue par le français Henri Fayol (1841-1925) et largement
développée par la suite (notamment par Max Weber en Allemagne), part du principe qu'il existe une
manière idéale d'organiser le travail. L'entreprise est perçue comme une grande machine gouvernée
par des lois universelles qui peuvent se résumer comme suit: spécialisation des tâches, standardisa-
tion des opérations, uniformité des procédures, unité de commandement, limitation de l'éventail de
supervision ou de contrôle, centralisation de la prise de décision, organisation par département.
C'est Fayol aussi qui a défini les quatre mots magiques qui ont largement dominé le management
jusqu'à nos jours : les managers planifient, organisent, coordonnent et contrôlent. En fait la réali-
té des études montre, comme le dira Mintzberg, que "cette vision classique des activités du manager
est aussi proche de la réalité qu'une oeuvre cubiste l'est d'un tableau de la Renaissance" [17].
"L'Organisation Scientifique du Travail" (O.S.T.) trouve ses bases dans les travaux de Fre-
derick W. Taylor (1856-1915). Son influence, commencée vers 1890, a atteint son apogée vers
1910-1920 et n'a cessé de se faire sentir depuis. Bien qu'issu d'une famille aisée, de graves ennuis de
santé empêcheront Taylor de faire des études poussées. Il commencera ainsi comme apprenti dans
une usine et, à force de travail, gravira tous les échelons professionnels, d'abord contremaître puis
ingénieur et enfin conseil en organisation (un consultant avant la lettre). Il possède donc une parfaite
connaissance du milieu professionnel.

1 Voir l'annexe consacrée à la systémique.


2 "Administration générale et industrielle", Henri Fayol, Dunod, Paris, 1916.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 4 de 33

A son époque, le travail de l'ouvrier s'apparente encore beaucoup à celui de l'artisan. C'est
l'ouvrier qui organise son travail et définit, par la négociation, sa productivité. Mais le système n'est
pas très performant et conduit, semble-t-il à Taylor, à une perte importante d'efficacité (il parle de
"flânerie systématique"). C'est là qu'interviennent la rationalisation et une certaine idée de la
science. Il va falloir déterminer de manière scientifique, et donc incontestable, une méthode pour
définir la façon de réaliser une opération et le temps requis pour la réaliser.
Un apport évident de Taylor est d'avoir reconnu la nécessité d'une analyse préalable de tout
travail, analyse minutieuse qui se basera sur une décomposition poussée des tâches. Son erreur est
d'avoir transformé en pratique opérationnelle un modèle d'analyse. On passe de la décomposition
des tâches utilisée pour l'analyse préalable, à la tâche décomposée.3
Pour répondre aux problèmes concrets que pose la gestion des entreprises, Taylor construit
une idéologie qui doit permettre une rationalisation des actions dans le travail et qui repose sur une
conception du rôle de la science servant à résoudre les rapports entre les hommes.

Les quatre principes fondamentaux de l'O.S.T. se résument comme suit:

- l'étude de toutes les connaissances traditionnelles, leur enregistrement, leur classement et


la transformation de ces connaissances en lois scientifiques;
- la sélection scientifique des ouvriers et le perfectionnement de leurs qualités et connais-
sances;
- la mise en application de la science du travail par des ouvriers scientifiquement entraî-
nés;
- la répartition presque égale du travail exécuté dans l'entreprise entre les ouvriers et les
membres de la direction.

On est, apparemment, en présence d'un raisonnement scientifique: classer les faits, les analy-
ser et en tirer des lois. C'est ce formalisme qui a fait toute la force du taylorisme mais qui révèle
aussi sa faiblesse. Le travailleur sera assimilé à son travail et le quatrième principe ne sera (ne pour-
ra) jamais être appliqué. Le travailleur a été déposédé de son know-how et il n'en aura plus jamais la
maîtrise.

"La direction se charge de réunir tous les éléments de la connaissance traditionnelle qui, dans le passé,
était en la possession des ouvriers, de classer ces informations, d'en faire la synthèse et de tirer de ces
connaissances des règles, des lois et des formules qui sont d'un grand secours pour aider l'ouvrier à ac-
complir sa tâche journalière. Les membres de la direction ne se contentent pas ainsi de développer une
science, ... ils mettent au point la science de l'exécution de chaque élément du travail qui remplace les
bonnes vieilles méthodes empiriques ...
Mais maintenant il nous faut dire que l'une des caractéristiques d'un homme qui est capable de faire le
métier de manutentionnaire de gueuses de fonte est qu'il est si peu intelligent et si flegmatique qu'on peut
le comparer, en ce qui concerne l'aptitude mentale, plutôt à un boeuf qu'à toute autre chose ... Il est si
peu intelligent qu'il doit être entraîné par un homme plus intelligent que lui-même pour qu'il acquière
l'habitude de travailler en concordance avec les lois de cette science avant de pouvoir accomplir son tra-
vail avec succès".
F.W. Taylor, La direction scientifique des entreprises (1911)

Désormais, le lieu de la définition scientifique du travail est localisé à la direction, non dans
les ateliers. On a déplacé le lieu du pouvoir. Cette construction "rigoureuse" est ainsi opposable à

3 Taylor n'est pas l'inventeur de la "division du travail". Celle-ci était déjà prônée en 1776 par Adam Smith dans son
ouvrage "the wealth of nations" où il écrivait : "les plus grandes améliorations dans la puissance productive du travail
... sont dues à la division du travail".
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 5 de 33

tous ceux qui voudraient la contester. L'esprit scientifique, qui est en principe celui d'un doute fé-
cond, conduit ici à une non-discussion. La "science" taylorienne prétend en outre à l'universalité
puisqu'elle s'applique même aux travaux en apparence les plus simples et les plus élémentaires. Tay-
lor se situe bien ainsi comme l'héritier du 19ème siècle marqué par le positivisme d'un Auguste
Comte.
L'homme au travail est toujours considéré comme un individu isolé, jamais situé à l'intérieur
d'un groupe. En outre, pour l'isoler de l'éventuelle influence néfaste du groupe, Taylor fait appel à ce
qu'il croit être la motivation essentielle, sinon unique, du travailleur : l'argent (concept de l'homo
economicus dont la seule motivation au travail est liée au salaire). Et comme l'intérêt au travail va
être considérablement réduit, voire supprimé, par la division du travail et la spécialisation, c'est ef-
fectivement la seule motivation à laquelle pouvait se rattacher Taylor. Le taylorisme apparaît donc
comme l'antithèse d'une collaboration. Même si Taylor s'en défend, en donnant tout pouvoir à la di-
rection et en attribuant à ce pouvoir l'épithète de scientifique, il ne pouvait aboutir à autre chose.
L'échec du taylorisme réside dans la dévolution de la science du travail à un seul des parte-
naires, ce qui aboutit inéluctablement à la surestimation de son rôle au travers du fameux "one best
way". La dichotomie entre "ceux qui pensent" et "ceux qui agissent", alliée à la brutalité avec la-
quelle les successeurs de Taylor appliqueront ces principes ne pouvaient que conduire à des conflits
sociaux violents et à de profonds dysfonctionnements des entreprises.
Ils seront aussi, heureusement, à l'origine de toutes les autres évolutions.

Une caricature de la rationalisation taylorienne

Pendant des intervalles considérables, Les quatre joueurs de hautbois sont restés sans avoir à
jouer. Il serait logique d'en réduire le nombre et d'étaler leur intervention sur toute la durée du concert
de manière à éliminer les pointes d'activité.
Les douze premiers violons jouent à l'unisson, c'est-à-dire des notes identiques: il semble s'agir
là d'une multiplication d'emplois parfaitement inutile. Il faudrait pratiquer une sévère compression de
personnel dans cette section, quitte à utiliser, si une forte intensité sonore est requise, une amplification
électronique. L'exécution des triples croches nécessite un effort considérable et représente une compli-
cation inutile. On suggère que toutes les notes soient arrondies à la double croche la plus proche. De la
sorte, on pourra dans une plus large mesure faire appel à des musiciens moins qualifiés ou à du per-
sonnel stagiaire.
On constate que le même passage est répété trop souvent. Ces répétitions peuvent être sé-
rieusement réduites. En outre, il est tout à fait inutile de faire jouer aux instruments à vent un thème dé-
jà exposé par les cordes. On peut estimer que si toutes les redondances sont éliminées, un concert de 2
heures peut tenir en 20 minutes, ce qui diminue les frais généraux et évite, de plus, la nécessité d'un en-
tracte. Pour de nombreux exécutants, une des mains sert presque exclusivement à tenir l'instrument;
l'emploi d'un support permettrait de rendre la main oisive disponible pour une autre activité.
L'obsolescence des instruments est aussi un point qui mérite d'être examiné : le programme ne
mentionnait-il pas que l'instrument du premier violon avait plus de 100 ans ? Si on avait appliqué cor-
rectement le barème d'amortissement, on aurait constaté que la valeur de cet instrument était cer-
tainement nulle et aurait pu envisager l'achat d'un instrument moderne.
Dans l'ensemble, nos propositions rencontrent l'adhésion du chef d'orchestre.. Il objecte
néanmoins que leur mise en oeuvre pourrait entraîner une certaine diminution du nombre des entrées.
Dans cette éventualité, d'ailleurs peu probable, rien n'empêcherait de fermer au public des sections en-
tières de la salle, ce qui permettrait de réaliser des économies d'entretien, d'éclairage, de personnel,
etc.
Au pire, on pourrait supprimer les concerts dans cette salle, les mélomanes ayant toujours la
ressource de se rendre dans une autre.

Rapport rédigé par un spécialiste en organisation ,demeuré anonyme, après l'audition d'un concert sym-
phonique au Royal Festival Hall de Londres [11].
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 6 de 33

III. LE COURANT TECHNOLOGIQUE

When you can measure what you are speaking


about, and express it in numbers, you know some-
thing about it; but when you cannot measure it,
when you cannot express it in numbers, your
knowledge is of a meagre and unsatisfactory kind.
Lord KELVIN

3.1 Introduction

Le courant technologique est, en partie, dans la droite ligne de l'organisation scientifique du


travail, mais la plupart du temps, il se contentera essentiellement de développer des outils, sans vou-
loir en faire une idéologie, un scientisme, destiné à servir de modèle "rationnel" pour la gestion des
entreprises. En outre, il se superposera souvent avec la démarche méthodologique, dont nous parle-
rons plus loin. C'est que, effectivement, les mêmes individus en ont généralement fait partie.

3.2 L'école statistique de la qualité

3.2.1 La grande ombre de Shewhart

Il est peu d'hommes qui auront aussi profondément marqué l'histoire moderne de la qualité
de leur empreinte sans pour autant en devenir des gourous patentés. Pourtant il est indéniable que
l'influence directe, et plus encore, sans doute, l'influence indirecte de Walter A. Shewhart (1891-
1967) a été fondamentale sur tous les concepts de l'Assurance et de la Gestion de la Qualité. On doit
réellement le considérer comme le père spirituel de tout le courant technologique et, en partie au
moins, du courant méthodologique de la qualité.

L'aventure commence à Chicago, vers le milieu des années 1920, dans l'usine Hawthorne de
la Western Electric Company qui fait partie du groupe Bell Telephone Laboratories (la même usine
où, au cours des mêmes années , E. Mayo créera le "mouvement des relations humaines")4 . On y
produisait, à l'époque, quelque dix millions de téléphones (en Bakélite) dont la qualité était obtenue
par un impressionnant effort d'inspection systématique (l'usine employait près de 40.000 personnes
dont environ 5.000 travaillant au contrôle). En 1924, le Dr. R.L. Jones est nommé à la tête du nou-
veau département d'Inspection Engineering qui sera rebaptisé, dès 1925, Quality Assurance De-
partment. Très vite, Jones réunit dans ce département tout un aréopage de physiciens, d'ingénieurs,
de mathématiciens et d'experts divers dont la tâche était de découvrir la façon de produire des télé-
phones de meilleure qualité.
Parmi ces divers scientifiques, Walter A. Shewhart était plus particulièrement chargé d'étu-
dier la possibilité d'appliquer, dans le monde industriel, les méthodes de la statistique.
C'est le 16 mai 1924 que Shewhart présenta, dans un célèbre mémorandum adressé à R.L.
Jones, la première description d'une carte de contrôle. Ainsi naquirent les premières cartes de con-
trôle statistique et, à leur suite, toute la philosophie de la maîtrise statistique des processus (Statisti-
cal Process Control)[2,3].

4 La recherche et le développement en téléphonie étaient réalisés par la Bell Telephone Laboratories, la production était
en charge de la Western Electric Company, tandis que la vente était réalisée par les compagnies locales de téléphone.
Un bel exemple de division taylorienne des tâches.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 7 de 33

Il ne saurait être question ici de faire un exposé complet des principes de la maîtrise statisti-
que des processus (M.S.P.), mais il paraît opportun d'en présenter les fondements essentiels. La
M.S.P. part du constat suivant: "un même processus ne produira jamais deux produits rigoureuse-
ment identiques". C'est la variabilité naturelle (statistique) ou accidentelle des processus qui est ré-
vélée. A la base de cette variabilité, on distingue :

* les "causes communes ou aléatoires" qui sont liées de façon intrinsèques au procédé. Elles
sont généralement nombreuses, indépendantes et de faible amplitude (et conduisent générale-
ment, sur base du théorème central limite, à une distribution des variations qui est gaus-
sienne).
* les "causes spéciales ou assignables" qui constituent des événements inhabituels provoquant
des dérives fortes et inacceptables du processus. Il faut non seulement réagir dès leur appari-
tion (pour remettre le processus "sur ses rails") mais il est également capital d'en rechercher
les causes pour les éviter ou les prévenir à l'avenir.

Le but de la M.S.P. est dès lors triple:

 détecter les dérives inacceptables d'un processus aussi rapidement que possible;
 identifier et supprimer les "causes assignables" pour rendre le processus stable;
 diminuer la dispersion due aux "causes communes" pour améliorer, sur le fond, le processus
(accroître sa capabilité).

Un des principaux outils de mesure de la M.S.P. est la carte de contrôle. Il s'agit d'un outil
graphique de suivi des fluctuations d'un processus au cours du temps. Une caractéristique mesurée
d'un produit ou d'un processus y est comparée à la valeur moyenne qu'elle prend et à des limites
(limites supérieure et inférieure de contrôle), correspondant généralement à un écart par rapport à la
moyenne de plus ou moins trois écarts-type. Toute mesure hors limites doit entraîner une correction
immédiate au niveau du processus.

Caracté ristique me suré e X point hors limites

Limite supérieure de controle

Limite inférieure de controle

point hors limites


Me sure s

Figure 2.1 Illustration d'un carte de contrôle

Selon la nature des observations décrites par la carte de contrôle : mesurables (masse, di-
mension, température, ...) ou non (produit défectueux ou non, pourcentage de défauts, ...), deux ty-
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 8 de 33

pes principaux de cartes de contrôle sont utilisés pour détecter des déviations dans la moyenne et/ou
la dispersion d'un processus: les cartes de contrôle par mesures ou par attributs.
En pratique, les cartes de contrôle ne s'attachent pas uniquement à détecter l'apparition de
défauts, mais aussi à prévenir leur apparition (ex. "règles de la Western Electric"). On n'attend pas
de sortir des limites de contrôle pour réagir.
De très nombreux types de cartes de contrôle ont été développés au cours des années. Un des
buts de l'amélioration des cartes est de les rendre plus sensibles à de petites évolutions dans le pro-
cessus. Retenons notamment la Cumulative Sum Control Chart (CuSum chart) développée dès 1954
en Grande-Bretagne par E.S Page et la carte EWMA (Exponentially Weighted Moving Average)
encore plus récente [4]. D'autres concepts, comme la mesure de la "capabilité" d'un processus, ou
encore la "Qualité six-sigma" de Motorola, dérivent des travaux de Shewhart. Nous renvoyons le
lecteur intéressé à la littérature spécialisé [3, 23].
Pour conclure ce paragraphe, nous croyons fort intéressant de noter que, parmi les jeunes in-
génieurs attachés à l'équipe de Shewhart, se trouvait un certain J.M. Juran! Intéressant aussi de
constater qu'un certain W.E. Deming, étudiant en physique à l'Université de Yale, venait, pendant
l'été, travailler à l'usine Hawthorne et, qu'après avoir obtenu son diplôme, il continua à suivre le
développement des techniques statistique créées par Shewhart, tout en travaillant au Département
américain de l'Agriculture. C'est encore lui qui édita, en 1939, les notes d'un cours donné par Shew-
hart [5]. Il est évident que Shewhart a joué un rôle fondamental dans la sensibilisation de Juran et de
Deming aux problèmes de la qualité. Deming s'y référera d'ailleurs très souvent.

3.2.2 Les plans d'échantillonnage

Avant même que ne se développent les concepts de la Maîtrise Statistique des Processus,
l'étude théorique du contrôle et de l'inspection des produits, à divers stades de leur élaboration avait
dû être abordée. Le contrôle systématique, à 100%, d'une production se révèle non seulement très
onéreux, mais parfois impossible (s'il s'agit de tests destructifs, par exemple).
Ce sont à nouveau des chercheurs des Bell Telephone Laboratories qui, dès le début des an-
nées 1920, firent figure de précurseurs dans le domaine. Parmi eux, deux noms s'attachent particu-
lièrement aux plans et tables d'échantillonnage, ceux de H.F. Dodge et H.G. Romig.
Les techniques de contrôle par échantillonnage font partie des méthodes dites "de contrôle
final". Elles constituent une alternative judicieuse au contrôle systématique. Leur objectif est d'aider
un contrôleur à estimer la qualité d'une production en se basant sur les seules caractéristiques d'un
échantillon extrait de la production étudiée. Les plans échantillonnage définissent, pour un niveau
de qualité désiré, la taille de l'échantillon à prélever ainsi que les critères d'acceptation ou de rejet
d'un lot sur base des caractéristiques de l'échantillon. Ils dérivent de la théorie statistique générale
des tests d'hypothèses et utilisent notamment les classiques notions de risque du fournisseur et
risque du client.
Comme pour les cartes de contrôles, il existe des plans d'échantillonnage pour des inspections par
mesure ou par attribut.
Ce sont les militaires américains qui, pendant et après la seconde guerre mondiale populari-
seront l'emploi de ces techniques de réception. Ce n'est donc pas un hasard si, à côté des célèbres ta-
bles d'échantillonnage de Dodge et Romig [6], les tables développées par l'armée américaine (stan-
dards militaires) MIL-STD 105 (pour le contrôle par attributs) et MIL-STD 414 (pour le contrôle
par mesures) constituent les références de base dans le domaine.

3.2.3 Les développements de l'école statistique de la qualité aux Etats-Unis.[7,8]

Dès le début des années 1930, l'American Standard Association, sur base des travaux réali-
sés à la Bell Telephone, tenta de populariser aux Etats-Unis les méthodes de l'école statistique de la
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 9 de 33

qualité 5. Les résultats ne furent généralement pas à la hauteur des espérances. En 1937, le Pro-
fesseur H.A. Freeman, promoteur du contrôle statistique au Massachusetts Institute of Technology
écrivait: "a deep-seated conviction of American production engineers that their principal function is
to so improve technical methods that no important quality variations remain, and that in any case,
the laws of chance have no proper place among "scientific" production methods" (assez taylorien
tout ça ...). A cette époque, il n'y avait guère plus d'une douzaine d'entreprises de production en
masse qui avaient introduit les techniques statistiques dans leurs méthodes de travail.
Le déclenchement de la seconde guerre mondiale allait radicalement modifier le tableau.
Très tôt, les Etats-Unis renforcent leur potentiel militaire et s'engagent dans l'effort de guerre,
d'abord comme fournisseurs des Alliés, puis comme combattants. Il s'en suit une croissance impor-
tante de la demande en matériel militaire. L'armée devient un grand donneur d'ordres et va avoir une
importance de plus en plus marquée sur les standards de qualité.
L'influence des militaires dans ce domaine sera de deux ordres. D'une part, les forces armées
adopteront des procédures statistiques pour la réception de leur matériel. Elles conduiront ainsi indi-
rectement leurs fournisseurs à adopter des méthodes de contrôle statistique de leurs processus. Un
des leaders de l'utilisation des techniques statistiques au sein des forces armées fut le Général L.E.
Simon dont le livre "An engineers' manual of statistical methods" parut dès 1941. D'autre part, les
forces armées se lancèrent également dans un large programme de formation aux techniques statisti-
ques. Il s'en suivit la publication de divers standards militaires relatifs à l'échantillonnage et au con-
trôle statistique. En juillet 1942, un cours intensif d'une dizaine de jours fut donné à l'université de
Stanford pour former aux techniques du contrôle statistique les entreprises fournisseurs des forces
armées. Ce cours était préparé par les Professeurs E. L. Grant et Holbrook (de l'université Stanford)
et par ... W. E. Deming, bien entendu. Ce cours fut ensuite répété de nombreuses fois et environ 810
organisations différentes y envoyèrent des représentants.
Les graines ainsi semées allaient germer dans l'immédiate après-guerre. En juillet 1944, la
Society of Quality Control Engineers publiait, en collaboration avec l'Université de Buffalo (NY), le
premier numéro d'Industrial Quality Control. En 1946, la Society of Quality Control Engineers et la
Society for Quality Control s'unissaient pour former la célèbre American Society for Quality Con-
trol (ASQC), toujours très active et qui a fêté, voici peu, son cinquantième anniversaire. Industrial
Quality Control demeura le journal de la nouvelle association jusqu'en 1967 où il se scinda en deux
publications: Quality Progress et Journal of Quality Technology.
Le premier président de l'ASQC fut G.D. Edwards, directeur de la qualité chez Bell Telepho-
nes. En 1948, l'ASQC créait la célèbre Shewhart Medal, destinée à récompenser un travail dans le
domaine des statistiques appliquées au contrôle qualité.
Le domaine des statistiques appliquées à la qualité allait demeurer et demeure encore fort ac-
tif aux Etats-Unis, mais le grand mouvement de la qualité allait partiellement s'assoupir jusqu'aux
années 1980 où les américains allaient redécouvrir Juran, Deming et les autres.

3.2.4 Les autres outils statistiques

Sous l'influence indirecte des travaux de Shewhart, de nombreux autres outils statistiques
ont été développés en vue d'applications industrielles dans le domaine de la qualité. Ceux dont nous
avons parlé, jusqu'à présent, concernaient soit le contrôle a posteriori (plans échantillonnage), soit le
contrôle "en ligne" des processus (cartes de contrôle). Une troisième voie a été également dévelop-
pée. On y retrouve les plus grands noms de la statistique moderne. Il s'agit du contrôle "off-line"
comme le qualifie Tagushi. Cette méthodologie se place encore plus en amont que les deux autres

5 C'est à cette occasion, en mai 1932, que W.A. Shewhart se rendit en Grande-Bretagne. Son message y fut mieux reçu
qu'aux Etats-Unis. Dès décembre 1932, le célèbre statisticien E.S. Pearson présentait à la Royal Statistical Society une
communication sur l'application des statistiques dans l'industrie.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 10 de 33

puisqu'elle s'intéresse à la mise au point d'un processus. Elle est mieux connue sous l'appellation de
"planification expérimentale" (experimental design).
Ses origines remontent aux années 1920 quand Sir Ronald Fisher inventa l'analyse de la va-
riance (ANOVA) et plus tard, vers 1935, lorsqu'il conçut les premiers plans d'expérience: les plans
factoriels. Il nous faut aussi citer Frank Yates, auteur d'un algorithme qui porte son nom (1937) et
qui est précisément destiné à analyser les résultats d'expériences factorielles. Les méthodes EVOP
(Evolutionary Operation) (1957) et d'analyse des surfaces de réponse dues à Georges E.P. Box
(1951) font également partie du même domaine. Enfin, last but not least, on ne peut passer sous si-
lence les apports de Dorian Shainin et surtout les considérables travaux réalisés dans ce domaine par
Genichi Tagushi (dont la méthodologie qui porte son nom).
Plus encore que dans d'autres domaines, il nous est difficile de présenter ici ces divers tra-
vaux sans commencer à faire un véritable cours de statistique multivariée. Nous dirons simplement
qu'ils essayent de répondre au problème fondamental de l'expérimentation: comment organiser, a
priori, des campagnes de mesures pour maximiser la quantité d'informations contenues dans les ré-
sultats tout en minimisant l'effort expérimental. On peut ainsi, au moindre coût, rechercher les con-
ditions optimales de fonctionnement d'un processus. Nous nous en voudrions de ne pas également
citer, enfin, les nombreux travaux réalisés dans le domaine de la fiabilité et les études sur les modes
de défaillance et leur criticité (FMEA).

3.3 Les sept outils classiques des cercles de qualité [9]

Il est impossible d'attribuer précisément la paternité de certains des célèbres sept outils de la
qualité, tout au moins pour ce qui concerne leurs fondements proprement dits. Ils dérivent tous, peu
ou prou, des enseignements que donnèrent Deming et Juran au Japon dans les années 1950. Néan-
moins, il est généralement admis que leur mise au point sous la forme que nous leur connaissons au-
jourd'hui doit être attribuée au professeur Ishikawa (fin des années 1950, début des années 1960).

3.3.1 Les feuilles d'acquisition et de vérification de données

Le classement des observations est la base de toute analyse et de toute action d'amélioration.
Les feuilles d'acquisition de données sont probablement les plus simples des outils de la qualité

° ° ° ° ° ° ° ° °
° ° ° ° ° ° ° °
° ° ° ° ° °
° ° ° ° °
° ° °
° °
_ °
_
_

Figure 3.2 Exemple de feuille d'acquisition de données


FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 11 de 33

Souvent elles existent déjà dans les entreprises, mais leur intérêt est mal perçu, elles sont
donc souvent mal remplies et mal ou pas utilisées.
Il s'agira souvent de simples feuilles de relevés dont le modèle doit être conçu en fonction de
la facilité d'utilisation, de la facilité de lecture, de présentation, d'archivage,... Les Check-lists font
partie de cette catégorie.

3.3.2 La représentation graphique

Après avoir collecté un nombre plus ou moins important de données, il est judicieux de les
présenter sous une forme synthétique. C'est l'objet des représentations graphiques ("un bon croquis
vaut mieux qu'un long discours" disait déjà Napoléon). La représentation graphique peut prendre
mille formes, souvent classiques. Il peut s'agir de diagrammes en coordonnées cartésiennes, de dia-
grammes en bâtons, de "pyramides", de graphiques en coordonnées polaires, de graphiques circulai-
res à secteurs ("camemberts"), de pictogrammes, d'organigrammes, d'ordinogrammes ("flow-
charts"), de plannings, de graphiques de GANTT, d'abaques, voire du "Grafcet", ...

L'objectif du graphique est d'être simple, synthétique, parlant, voire percutant. Le critère es-
sentiel qu'il doit respecter est l'objectivité.

Motivation des sociétés pour obtenir la certification


Passagers
Air-Company XYZ

Figure 3.3 Exemples de pictogramme et de graphique circulaire

3.3.3 L'histogramme

L'histogramme est un des outils classiques de la statistique descriptive [11]. La forme la plus
élémentaire de présentation de données statistiques relatives à une seule variable consiste en la
simple énumération des observations. Lorsque les observations sont nombreuses, il est utile de les
résumer sous forme d'une distribution de fréquences. Souvent, les observations sont condensées en
classes ou catégories. La fréquence absolue d'une classe est le nombre d'observations qui y sont con-
tenues (fréquence relative = ce nombre divisé par le nombre total d'observations). Les distributions
de fréquences (absolues ou relatives) peuvent être représentées graphiquement par un histogramme.
Il s'agit d'un diagramme qui se compose de rectangles contigus dont les intervalles de classes sont
les bases et les fréquences les hauteurs, de sorte que les aires des rectangles sont proportionnelles
aux fréquences. Il peut être rendu plus expressif par l'adjonction de valeurs de référence (moyenne,
dispersion, valeur nominale, tolérance, ...).
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 12 de 33

3.3.4 Le diagramme de Pareto

Le diagramme dit "de Pareto" est une invention de J.M. Juran6. L'économiste italien Vilfre-
do-Frederico Samoso (1848-1923), surnommé par ses étudiants "marquis de Pareto" (du nom de la
petite ville d'Italie du nord où il habitait) n'en est que très indirectement à l'origine.
Il s'agit d'un diagramme en colonnes qui représente, par ordre décroissant d'importance, les
causes détectées d'un phénomène quelconque. Il apparaît souvent qu'une ou deux causes sont, pour
l'essentiel, à l'origine d'un phénomène. Toutes les autres causes, si nombreuses soient-elles, consti-
tuent une minorité. C'est la règle du 80/20 ou des "vital few and trivial many" de Juran (20% des
causes représentent 80% des effets observés). Trop connue pour que nous nous y étendions longue-
ment, cette règle empirique se vérifie approximativement dans bien des cas, ce qui la justifie ample-
ment. Il est donc essentiel de détecter et de corriger ces causes essentielles avant de se noyer dans
l'analyse des multiples autres causes mineures.

Figure 3.4 Exemple de diagramme de Pareto.

3.3.5 La carte de contrôle

Nous avons déjà longuement parlé de cet outil. Rappelons simplement que cette carte inven-
tée par Shewhart à la fin des années 1920 est à la base de la maîtrise statistique des processus.

3.3.6 La droite de corrélation

C'est à nouveau un outil statistique classique [11]. Si on considère deux variables (comme,
par exemple, un effet et l'une de ses causes supposées) observées et repérées simultanément, on peut
les repérer respectivement par rapport à deux axes définissant un repère cartésien. En repérant par
un point les mesures correspondantes, on peut faire apparaître un nuage de points. Ce nuage de
points constitue un modèle, image de la relation (corrélation) qui existe entre ces deux variables. Si

6 Juran s'est justifié longuement de cette "invention" et en décrit les origines. Il date également la première utilisation du
terme en 1954 [10].
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 13 de 33

ce modèle peut se résumer à une relation linéaire, il peut être décrit mathématiquement par une
"droite de corrélation". C'est le plus simple modèle "cause-effet" qui puisse être imaginé.

3.3.7 Le diagramme causes-effet

Le diagramme causes-effet est attribué au professeur Ishikawa. Ce diagramme s'appelle en-


core "diagramme en arêtes de poisson" (Sakana no hone, en japonais). Ce diagramme se compose
d'une grande flèche horizontale qui indique l'effet étudié. D'autres flèches sont disposées en arêtes
de poisson, la flèche horizontale servant de colonne vertébrale. Les grandes flèches obliques indi-
quent les causes principales. Les flèches supplémentaires qui aboutissent aux flèches obliques indi-
quent les causes secondaires rattachées à une cause principale. La subdivision peut être poursuivie
jusqu'à ce que toutes les causes pertinentes aient été distinguées. C'est typiquement un outil de
"cercle de qualité" et résulte souvent d'un brainstorming7.

Figure 3.4 Exemple de diagramme Causes-Effet

3.4 Les sept nouveaux outils de la qualité

Les sept nouveaux outils ont été créés par les Japonais dans les années 70. Au moment où le
TQC (Total Quality Control, expression due à l'Américain Feigenbaum) se développait, le besoin
s'est fait sentir de créer des outils additionnels aux sept outils utilisés par les cercles de qualité. Le
TQC possède son équivalent au Japon : le CWQC (Company Wide Quality Control). La situation au
Japon dans les années 70 peut se résumer brièvement ainsi : le TQC se proposait d'étendre à l'enca-
drement et aux services fonctionnels de l'entreprise les démarches de maîtrise de la qualité, tout
comme le QC (Quality Control) s'était proposé de placer la qualité de la production sous contrôle,
en développant l'usage des sept premiers outils, par le biais des cercles de qualité.
Il s'agissait donc d'obtenir des outils susceptibles d'aider le management, l'encadrement et les
services fonctionnels à s'engager dans le TQC et à y développer leur rôle de générateur d'idées neu-
ves, de capteurs de nouveaux besoins à satisfaire pour les analyser et les traduire en termes de pro-

7 Le Brainstorming est un terme inventé par Osborne en 1957 pour désigner un mode de réflexion en groupe destiné à
faire jaillir un maximum d'idées sans que s'imposent les inhibitions habituellement rencontrées au cours de ce type
d'exercice (en français : "remue-méninges").
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 14 de 33

blèmes à résoudre et de programmes d'actions à engager. La volonté des chercheurs de la JUSE (Ja-
pan Union of Scientists and Engineers) a donc été de promouvoir, à travers ces nouveaux outils, un
support méthodologique qui faisait défaut à certaines fonctions de l'entreprise. Il s'agissait de lui
assurer une meilleure efficacité par l'identification des problèmes à résoudre, l'élaboration de toutes
les solutions possibles et la collaboration effective de ses différentes divisions.
Créé par la JUSE en avril 1972, un comité ad hoc a fait porter son étude sur plus de trente
outils et techniques de créativité et de management, comme l'analyse de la valeur ou encore la re-
cherche opérationnelle pour en adapter sept correspondant aux objectifs du TQC.
Depuis leur présentation en 1977 par la JUSE, les sept nouveaux outils ont été mis en oeuvre
activement dans de nombreuses entreprises japonaises.
En dehors du Japon, ces outils ont commencé à être utilisés aux Etats-Unis en 1986 et plus
récemment en Europe.
C'est toutefois dans le cadre de leur application au QFD (Quality Function Deployment) que
les sept nouveaux outils ont été utilisés de façon systématique aux Etats-Unis.
Nous nous contenterons de citer ces sept outils, renvoyant le lecteur à la littérature spéciali-
sée [12] pour les découvrir complètement. Il s'agit du diagramme des affinités, du diagramme des
relations, du diagramme en arbre, du diagramme matriciel, du diagramme sagittal, du diagramme
des décisions d'action et de l'analyse factorielle.

3.5 L'Analyse de la Valeur [13]

Dans les années 1940, Larry Miles, ingénieur de la Général Electric, ayant travaillé avec Fei-
genbaum, a mis au point "l'analyse de la valeur" pour étudier les fonctions que doivent assurer des
produits et des services en vue d'améliorer ces fonctions tout en diminuant leur coût.

3.6 Les autres outils

Le temps et la place nous manquent pour présenter tous les outils de la qualité. Pourtant nous
voudrions encore citer : le diagramme de Gantt, le PERT, le Just-in-Time, le Kanban et, bien enten-
du, la certification sur base des normes ISO 9000.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 15 de 33

IV. LE COURANT SOCIOLOGIQUE [1,14,15]

Au lieu de dire à leur femme en rentrant chez eux:


"Sais-tu ce qu'on m'a fait faire?", ces hommes pou-
vaient enfin dire :"Sais-tu ce que j'ai fait?"
Fr. HERZBERG

4.1 Introduction

Après Taylor, l'effort de rationalisation va se poursuivre, mais l'application de l'idéologie


taylorienne va déclencher une double réaction: d'une part, contre les excès de la division du travail
et contre ceux entraînés par une vision simpliste de l'individu; d'autre part, contre l'idée de rationali-
sation au sens de la sacralisation des décisions "scientifiques" prises par la direction. On va s'aper-
cevoir que la rationalité n'est pas l'apanage de ces derniers mais est aussi détenue par tous les acteurs
de l'entreprise. Le tout sur fond de contestation sociale.
La psychologie et la sociologie vont alors orienter leurs recherches d'abord dans la direction
des relations entre l'individu et le groupe, puis des interactions entre l'individu et le groupe d'une
part et l'organisation d'autre part.

4.2 L'école des relations humaines

Au moment même où Shewhart développait les premières cartes de contrôle statistique, les
ateliers Hawthorne de la Western Electric Company allaient être le théâtre d'une expérience célèbre
qui allait donner naissance à l'école des relations humaines. Malgré de bonnes conditions maté-
rielles, des avantages sociaux élevés et une apparente satisfaction des salariés, les signes de dysfonc-
tionnement, comme l'absentéisme, la faible productivité, la mauvaise qualité produit étaient nom-
breux.
La direction décida, avec l'aide de chercheurs universitaires dirigés par E. Mayo, d'étudier
l'impact d'une amélioration des conditions de travail sur la productivité, en commençant par l'éclai-
rage (novembre 1924).
On décida donc d'améliorer l'éclairage d'un groupe d'ouvrières travaillant à la lumière artifi-
cielle, tout en observant un groupe identique où l'éclairage ne changeait pas. Les deux groupes
étaient au courant de l'expérience. On constata que la productivité du groupe expérimental augmen-
tait lorsqu'on augmentait l'éclairage, ce qui paraissait évident. Mais la productivité du groupe de
contrôle augmentait aussi, ce qui l'était moins. Plusieurs améliorations de l'éclairage eurent des ef-
fets similaires. On eut alors l'idée de diminuer l'éclairage du groupe expérimental avec un résultat
encore plus inattendu: la productivité des deux groupes continuait à augmenter.

Il y avait donc autre chose que les conditions de travail qui influençait la productivité!

D'autres expériences furent ensuite tentées, portant sur des améliorations relatives aux do-
maines sociaux. Il apparut, à nouveau, que le changement, dans quelque sens qu'il se fit, apportait
une augmentation de la productivité.
Deux facteurs paraissent être à l'origine de ces résultats pour le moins surprenants. Le pre-
mier est lié au fait que les ouvrières se savaient l'objet d'une observation et qu'elles s'en sentaient
particulièrement valorisées. Elles répondaient à cette situation par la manière qui leur paraissait la
mieux adaptée, en quelque sorte en remerciement de l'intérêt qu'on leur portait. Ce résultat devait
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 16 de 33

évidemment être le même dans le groupe expérimental et dans celui de contrôle. On observait ainsi
une réaction nommée par la suite "effet Hawthorne" et que l'on peut schématiser en disant que les
gens réagissent positivement au seul fait qu'on s'occupe d'eux. L'effet Hawthorme n'est générale-
ment pas durable, ne serait-ce que parce qu'une expérience cesse d'en être une dès qu'elle est généra-
lisée.
Le second facteur révélé par les expériences de E. Mayo concerne l'importance de la vie de
groupe et son influence sur le comportement de chacun de ses membres. Ainsi on s'aperçut d'une
certaine uniformité dans le niveau de production des ouvrières, quels que soient les changements
imposés. Une espèce de norme informelle conduisait chacune à produire autant que les autres, sans
même qu'elles se le disent. En outre, il apparaissait aussi que chaque incident, chaque tension dans
le groupe retentissait sur le niveau de production. Une vie de groupe existait donc et avait une in-
fluence très importante sur le travail de chacun.
D'autres expériences s'attachèrent à l'impact des relations entre les ouvrières et leur contre-
maître ainsi que sa façon de gérer le groupe. Il apparut qu'un bon agent de maîtrise devait être l'ani-
mateur du groupe, avec une forte fonction d'écoute, plutôt qu'un "chef" au sens traditionnel du
terme.
Une campagne d'interviews avait aussi amené les enquêteurs à trouver le besoin, chez les ou-
vriers, de quelque chose qui leur appartienne, où ils aient une fonction, où ils voient le sens et l'im-
portance de leur travail. Il ne suffit pas d'expliquer, d'intégrer et de faire participer, il est également
nécessaire que l'individu se sente acteur à part entière et puisse exercer un certain pouvoir. Selon les
propres termes des chercheurs de l'équipe de E. Mayo, la fonction de toute entreprise est double:
créer un produit et "distribuer des satisfactions". La première, de type économique polarise toute
l'organisation, tandis qu'à la seconde ne correspond généralement rien. Or il y a interdépendance des
facteurs, ainsi qu'ils l'ont démontré.

Les apports de l'école des relations humaines sont considérables et réellement fondamentaux.
Mais elle n'a jamais su se dégager complètement du taylorisme. Elle continue à considérer l'individu
et le groupe comme les rouages d'un mécanisme. Et la rationalité demeure entièrement du côté de la
direction, celle-ci devant seulement intégrer le facteur humain dans sa rationalité. L'environnement
général, et social en particulier, n'était pas non plus pris en compte (Mayo ne parle pratiquement ja-
mais du syndicalisme).

Les tayloriens ont toujours présenté l'opérateur de base comme étant la main
de l'entreprise; et puis, dans les années 30, les avocats des relations humaines n'ont
pas hésité à créditer cet opérateur, très généreusement, d'un coeur. Déjà l'affaire était
intéressante, car avec ces deux éléments on peut commencer à faire de la combina-
toire: espérer, par exemple, que les ouvriers arrivent à l'atelier le matin le coeur sur
la main, ou quelque chose de ce genre (René Robin) (Les uns et les autres, remarque
M. Crozier, oubliaient qu'il est aussi, et avant tout, une tête).

4.3 La théorie des besoins et des motivations

Les promoteurs de la théorie des besoins pensent répondre à des besoins de l'homme que
l'organisation de type taylorien étouffe. Ils attendent de ces réformes un "épanouissement" de
l'homme au travail qui se traduira par un comportement plus coopératif et plus productif.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 17 de 33

4.3.1 A.H. MASLOW

Le premier et un des plus célèbres théoriciens de ce courant est A.H. Maslow. Il a bâti, dans
la seconde moitié des années 50 et la première moitié des années 60, une théorie originale des be-
soins pour expliquer les motivations humaines.
Selon Maslow, les besoins sont hiérarchisés. Non pas qu'un besoin ne se manifeste pas tant
que les besoins inférieurs ne sont pas satisfaits, mais ce besoin supérieur ne peut être réellement
satisfait que dans la mesure où les précédents le sont. A partir de là, il propose la célèbre pyramide
des besoins qui sont, dans l'ordre: les besoins physiologiques, tels que la faim, la soif, le repos, etc. ;
les besoins de sécurité, tels que la protection contre les dangers, la peur, la privation etc. ; les be-
soins d'appartenance (ou sociaux), tels l'amitié, la solidarité de classe et d'identification à une classe,
etc. ; les besoins d'estime qui se subdivisent en besoin individuel d'estime de soi et en besoin social
de prestige (réputation, statut); et enfin les besoins de réalisation de soi, besoins à la fois mal déter-
minés mais essentiels qui correspondent à la réalisation totale de sa personnalité, à la réussite de sa
vie, bref aux plus hautes aspirations humaines.

Besoins de
réalisation

Besoins
d'estime

Besoins d'appartenance

Besoins de sécurité

Besoins physiologiques

Figure 4.1 La pyramide des besoins selon Maslow

Même si cette approche peut paraître très linéaire et trop cartésienne (non systémique), elle a
des fondements très pragmatiques qui rejoignent en partie la réalité. Elle casse en tout cas l'image de
l'homo economicus de Taylor (il y a bien d'autres ressorts dans l'âme humaine que le gain financier).
Le comportement de l'individu dans l'entreprise, et dans la société en général, n'est pas seulement
explicable en termes pécuniaires, il y a autre chose, la sécurité, l'estime et la réalisation de soi au
travail (donc l'intérêt de celui-ci). Cette analyse paraît cependant un peu simpliste. D'une part, elle
ne traduit les phénomènes sociaux qu'en des termes seulement psychologiques. (en négligeant les
effets du groupe, de l'environnement, etc.) D'autre part, et c'est plus gênant, la stricte hiérarchisation
des besoins est quotidiennement démentie par les faits. On voit des dépenses de prestige engagées
par des individus dont les besoins de sécurité et même parfois physiologiques ne sont pas complè-
tement satisfaits. On voit aussi souvent des individus mettre leur sécurité en danger pour des motifs
qui relèvent clairement du besoin de réalisation de soi. Il n'en demeure pas moins que l'apport de
Maslow est important, il remet en cause la vision trop mécaniste de l'homme et ouvre une fenêtre
sur sa complexité.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 18 de 33

4.3.2 D. MAC GREGOR

Mac Gregor, en essayant de développer une théorie de la direction des entreprises, constate
que beaucoup de dirigeants se font de l'homme au travail une image qui correspond à ce qu'il ap-
pelle la théorie X. Selon cette théorie X, l'homme moyen est paresseux, travaille le moins possible,
manque d'ambition, n'aime ni les responsabilités ni le changement. En conséquence, il doit être diri-
gé, contraint, contrôlé si on veut qu'il réalise les tâches qu'on attend de lui. Mac Gregor montre que
cette théorie X est en fait constituée de principes indémontrables mais qui ont valeur d'absolus. Ces
principes ressemblent plutôt à des opinions toutes faites, des a priori sans fondement réel.
A contrario, Mac Gregor prend contre-pied de la théorie X en développant la théorie Y. Non,
l'homme n'est pas passif par nature, il le devient du fait de son expérience dans les organisations. Il
est motivé et possède les capacités et la volonté d'assumer des responsabilités, mais il faut que l'or-
ganisation les découvre et les développe.
L'idée est séduisante mais malheureusement guère plus évidente à étayer que celle de la
théorie X. Néanmoins, Mac Gregor pressent d'une part que le mode de management peut avoir une
influence sur le comportement des acteurs de l'entreprise et, d'autre part que les théories du mana-
gement correspondent à des rationalisations de diverses conceptions de l'autorité et de l'exercice du
pouvoir.

4.3.3 Fr. HERZBERG

Herzberg a développé une théorie dont l'influence a été beaucoup plus importante que celle
de ses prédécesseurs car elle a une portée pratique immédiate. Elle est souvent connue sous la dési-
gnation de "théorie des deux facteurs". Herzberg propose, en postulat, l'existence de deux classes
d'éléments "motivants": d'une part des facteurs extrinsèques (ou facteurs d'insatisfaction ou d'hy-
giène), et d'autre part les facteurs intrinsèques (ou facteurs de satisfaction ou de motivation).
Les facteurs extrinsèques ne seront source que d'un mécontentement limité ou, s'ils sont sa-
tisfaits, d'un changement positif tout aussi limité. Ce sont : la politique de l'administration, le style
de direction, les relations interpersonnelles, la rémunération et les conditions de travail.
Les facteurs intrinsèques sont les seuls éléments motivants véritables et qui entraînent des
changements durables. Ce sont: la réalisation de soi, la reconnaissance, l'intérêt du travail, la respon-
sabilité et les possibilités d'avancement.
On peut constater que ces divers facteurs s'inspirent fort des besoins de Maslow. Mais Herz-
berg met son système en pratique. Il note qu'il convient d'abord de s'intéresser aux facteurs extrinsè-
ques pour éliminer les sources de mécontentement, mais que les seuls résultats durables seront obte-
nus lorsqu'on favorisera les facteurs intrinsèques. Il propose de le faire en réalisant l'enrichissement
des tâches et des groupes autonomes. Et il l'applique à des cas devenus célèbres (les secrétaires de la
Bell Telephone et les installateurs de la Bell Telephone).
On peut cependant objecter que la rigueur des démonstrations laisse à désirer et que la vali-
dité scientifique des travaux d'Herzberg est aujourd'hui très contestée.
Cependant, ses apports sont évidents sur deux points au moins. Tout d'abord, il réhabilite la
motivation au travail pratiquement exclue du modèle taylorien et même de l'école des relations hu-
maines. On admet enfin que l'homme peut s'intéresser au travail qu'il exécute.
En second lieu, les thèses de Herzberg ont contribué à modifier les excès de la division du travail et
du pouvoir omnipotent du bureau des méthodes. Ses propositions vont au-delà des conditions de
travail proprement dites et remettent en cause les organisations elles-mêmes. Elles démontrent aussi
l'influence sur l'efficacité individuelle des responsabilités accordées au personnel. Elles montrent
enfin la motivation liée au fait de réaliser un ensemble plutôt qu'une partie, la nécessité d'une initia-
tive accrue et d'une certaine liberté dans la façon d'accomplir sa tâche.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 19 de 33

4.4 Les modèles structuro-fonctionnalistes

Venant après les théoriciens des relations humaines, ils voient les limites de l'entrée par l'in-
dividu, ses besoins et ses motivations. Selon eux, à raisonner selon ce schéma, on ne prend pas en
compte la relation de l'individu à l'organisation, on oublie les phénomènes des jeux de rôles. Le cou-
rant structuro-fonctionnaliste est né, dans les années 50/60, de ces critiques. Elles portaient sur deux
points principaux. D'abord, les conflits d'intérêt entre acteurs qui auraient mérité d'être mieux analy-
sés, ensuite l'absence d'analyse des ajustements naturels entre les acteurs, le système et la nécessité
d'une régulation entre les deux. Les thèmes de l'école structuro-fonctionnaliste se résument comme
suit.
Tout système a des besoins et ses membres ajustent leurs comportements en conséquence.
Cette approche est intéressante puisqu'elle fait apparaître la notion de système et de régulation, mais
elle a une tendance anthropomorphique marquée. L'organisation se comporte comme un organisme
humain, est sujet de volonté et d'action autorégulatrice. Modèle incomplet, qui ne permet pas d'ana-
lyser le sens que ses membres donnent à leur action puisque celle-ci, par définition, s'ajuste quasi
nécessairement aux besoins de l'organisation à laquelle ils appartiennent. L'organisation existerait en
tant que telle et aurait des buts propres, des macro-finalités auxquels s'ajusteraient ses acteurs.
L'individu n'est certes plus le simple rouage d'une mécanique, mais il est devenu la cellule d'un
corps social. Ce qui n'est guère mieux.

4.5 L'école socio-technique

L'école socio-technique s'est également développée dans les années 50/60, en Grande-Breta-
gne d'abord. Ses thèses recouvrent un ensemble très vaste qu'on peut ramener aux points suivants.
D'abord celui de la définition de l'organisation comme une interaction entre deux systèmes - social
et technique - cette interaction formant elle-même un système. Ensuite, celui de la capacité d'autoré-
gulation. Enfin celui de la possibilité d'optimisation des rapports entre technique et organisation, à
partir de la technique surtout. Cette école est la première à prendre en compte les apports de la théo-
rie des systèmes. Elle refuse de considérer l'entreprise comme un système fermé (ce qui reviendrait
à admettre qu'elle "est suffisamment indépendante pour qu'on puisse se permettre d'analyser la plu-
part de ses problèmes par rapport à sa structure interne et non à son environnement externe"). Au
contraire, cette école oppose la conception de systèmes où l'organisation est pensée comme imbri-
quée à son environnement, comme des systèmes ouverts. Or ces derniers "peuvent se réorganiser
spontanément afin d'atteindre un état de plus grande homogénéité et complexité". Sur base de di-
verses expériences, cette école propose de toujours rechercher une organisation plus souple, qui
fasse confiance à la capacité des travailleurs à s'organiser spontanément. Elle propose une alterna-
tive au modèle d'organisation formelle. Cette alternative est fondée sur une analyse minutieuse de
l'organisation existante et de ses contraintes. Une analyse socio-technique commence par l'étude des
systèmes et sous-systèmes de production, de leur fonctionnement à travers l'interdépendance des
tâches et des écarts entre fonctionnement théorique et réel.
Cette approche constitue un progrès énorme, cependant elle donne encore trop de poids au
système technique par rapport au système social et postule l'adaptation nécessaire de l'homme à son
travail

4.6 Evolutions récentes

Parmi les évolutions les plus récentes de la théorie sociologique des organisations, nous nous
en voudrions de ne pas citer Woodward, Mintzberg ainsi que Crozier et Friedberg.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 20 de 33

Joan Woodward [16] a proposé une typologie des systèmes de production qui détermine,
selon elle, les différents niveaux hiérarchiques et l'étendue du contrôle au sein d'une organisation.
Elle distingue quatre types de procédés:

* Le procédé de type "projet" qui s'adresse à un produit unique et unitaire (prototype, projet);
* le procédé de type "atelier" qui s'adresse à des produits multiples mais réalisés en petite série;
* le procédé de type "masse" qui s'adresse à des produits multiples et réalisés en grande série;
* le procédé de type "process" qui s'adresse à un produit unique réalisé par un système continu.

Henry Mintzberg [17] estime que dès qu'il y a organisation, il y a division et coordination du
travail. Il distingue cinq mécanismes de coordination (l'ajustement mutuel, la supervision directe, la
standardisation des procédés de travail, la standardisation des résultats et la standardisation des qua-
lifications). Il dénombre également cinq éléments de base d'une organisation (le sommet stratégique,
le centre opérationnel, la ligne hiérarchique, la technostructure et la logistique). En fonction de fac-
teurs de contingence et de paramètres de conception, les éléments de base, avec leur logique propre,
vont se combiner, selon que l'une ou l'autre logique domine, donner différentes configurations struc-
turelles. Mintzberg distingue six types d'organisations: l'organisation entrepreneuriale, l'organisation
mécaniste, l'organisation professionnelle, l'organisation divisionalisée, l'organisation innovatrice ou
adhocratie et l'organisation missionnaire.

Figure 4.2 La structure des organisations selon Mintzberg.

Crozier et Friedberg [18] remettent en cause le déterminisme et le caractère technique des


approches classiques qui ne peuvent que tomber dans un réductionnisme "scientifique" au détriment
d'une appréhension de l'organisation où l'homme a sa place entière. Ils montrent que l'intégration de
la variable "stratégie" entre l'environnement et l'organisation permet de prendre en compte la di-
mension politique des choix structurels et de reconnaître la place importante que l'homme, preneur
de décisions, tient au sein de l'organisation. L'influence des relations de pouvoir, le rôle joué par les
individus et la perception de ce rôle, exercent également une influence sur les orientations qui vont
être adoptées.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 21 de 33

V. LE COURANT METHODOLOGIQUE [19]

"There is no substitute for knowledge."


W.E. DEMING

5.1 Introduction

Le courant méthodologique s'est d'abord développé aux Etats-Unis dans les années 50, mais
son impact pratique fut fort faible, sauf au Japon. Il a trouvé un second souffle, en Europe et aux
Etats-Unis dans les années 1980. Il est représenté par un petit groupe de "gourous" qui comprend
essentiellement: W.E. Deming, J.M. Juran, A.V. Feigenbaum, P.B. Crosby, K. Ishikawa et G. Ta-
gushi. En fait, le mouvement de la qualité a eu tendance à former des factions, chacune ayant pour
centre l’un de ces chefs de file.

5.2 W.Edwards Deming [8]

Deming est certainement le personnage le plus frappant du petit groupe de spécialistes mes-
sianiques et parfois rivaux qui se sont battus pendant plus de quarante ans pour amener l’Amérique
et le monde vers la qualité.

Né en 1900, dans une famille très modeste de l'Iowa, Deming a obtenu un bachelor's degree
in engineering de l'Université du Wyoming en 1921 puis, en 1928, a conquis un doctorat en phy-
sique à l'Université de Yale. Durant la plus grande partie de ses années d'école, Deming a dû travail-
ler pour payer ses études. C'est ainsi qu'au cours des étés de 1925 et 1926, il travailla à Chicago à
l’usine Bell Telephone’s Hawthorne dont nous avons déjà parlé. C'est là qu'il rencontra W.A.
Shewhart et se lia d'amitié avec lui. Après avoir obtenu son doctorat, il suivit le développement des
techniques de gestion statistique de la qualité tout en travaillant avec le Département Américain de
l'Agriculture. C'est dans le cadre de ce département qu'il dut mettre sur pied, en 1936, des cours de
mathématique et de statistique. Il fit naturellement appel à Shewhart comme conférencier. Les notes
de ce cours furent éditées par Deming en 1939 [5].
A la fin des années 30, Deming prit en charge un programme innovateur d’étude
d’échantillonnage au Bureau du Recensement. Il utilisa également les méthodes de Shewhart pour
améliorer la qualité du travail de bureau. Durant la seconde guerre mondiale, il participa à la forma-
tion d'ingénieurs, d'inspecteurs et de responsables du recensement à la gestion statistique de la quali-
té. Mais, en 1949, il dut constater que ce que les Etats-Unis avaient réussi en matière de qualité
s’était dissipé ("there was nothing - not even smoke" aurait dit Deming). Avec la montée en flèche
de la demande de produits destinés au consommateur, les chefs d’entreprises étaient alors plus pré-
occupés par la quantité produite que par la qualité des produits. Deming aurait attribué cet échec au
fait que seuls des ingénieurs, et non des managers ou des directeurs, avaient suivi ses cours durant la
période de guerre.

En 1946 et en 1948, Deming se rendit au Japon pour aider l’Occupation américaine à prépa-
rer le recensement pour 1951 et, au cours de ses visites, il s’attacha à établir des relations avec les
scientifiques japonais. C'est ainsi que, deux ans plus tard, la JUSE (Japonese Union of Scientists
and Engineers) invita Deming à se rendre au Japon pour y donner une série de conférences.
Au départ, il présenta ses cours à des assemblées exclusivement composées d'ingénieurs.
Mais, se remémorant ce qui s'était produit aux Etats-Unis, il s'arrangea pour rencontrer Ichiro Ishi-
kawa (le père de Kaoru Ishikawa) alors président de la JUSE et de la Federated Economic Societies
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 22 de 33

of Japan. C'est ainsi qu'il put enfin délivrer son message à des responsables d'entreprises et leur faire
comprendre à quel point la réussite d'un programme qualité était de leur responsabilité directe. Ce
fut le vrai démarrage de tout le mouvement qualité au Japon. Les textes de ses conférences furent
traduits et publiés au Japon, mais Deming, conscient de la pauvreté du pays, abandonna ses droits
d'auteur à la JUSE qui utilisa ces fonds pour instaurer le Prix Deming. A l’heure actuelle, cette pres-
tigieuse récompense est attribuée chaque année aux entreprises japonaises dont les programmes de
maîtrise totale de la qualité sont exceptionnels, après un audit rigoureux.
En dehors du monde des statistiques, peu d’Américains avaient entendu parler de Deming
jusqu’en 1980, année où la qualité japonaise commença à éveiller l’intérêt du consommateur améri-
cain. Clare Crawford-Mason, producteur de la chaîne NBC, découvrit alors que le principal prix ja-
ponais décerné pour la qualité portait le nom d’un Américain et présenta Deming dans un documen-
taire intitulé "Si le Japon le peut, pourquoi pas nous ?". Ce documentaire entraîna un "Deming
Boom" non seulement dans les médias américains mais aussi dans le monde industriel des Etats-
Unis.

Plus que tout autre spécialiste de la qualité, Deming souligne que "détermination et persévé-
rance" sont une nécessité absolue "pour améliorer les produits et les services". En outre, il souligne
l’importance d'une "connaissance approfondie", et principalement la compréhension de la variation
par l’utilisation de l’analyse statistique. Il est l'auteur du célèbre "programme en 14 points". Il est
également connu par la "roue de Deming" (amélioration continue de la qualité), en fait inventée par
Shewhart.

Fig. 5.1 La "roue de Deming".

Deming est mort à Washington, le 20 décembre 1993.

5.3 Joseph M. Juran

Juran est né en 1904 dans une petite ville roumaine. Son père, cordonnier, l’emmena au
Minnesota en 1912. La vie était alors presqu’aussi dure en Amérique qu’en Roumanie et la famille
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 23 de 33

ne parvint jamais à faire fortune. A Minneapolis, Juran se révéla être un excellent élève de l’école
publique et ne tarda pas à avoir 4 ans d’avance. Juran a obtenu un diplôme d’ingénieur à
l’Université du Minnesota et est entré au département Contrôle de Bell Telephone’s Hawthorne
Works en 1924.
En 1926, il travailla avec l'équipe de W.A. Shewhart. Cependant, Juran n’admet pas que la
gestion de la qualité soit le seul fruit du travail des statisticiens de Bell Laboratories. Il pense que
d’autres techniques sont aussi importantes que le recours aux statistiques et demande "comment les
voies ferrées ont-elles bien pu fonctionner lorsque Shewhart n’était pas là ?"

D’après K. Ishikawa, les Japonais ont au départ éprouvé des difficultés à mettre en place une
gestion de la qualité axée sur les statistiques. Il précise que le mouvement japonais de la qualité ne
fit que des progrès limités au cours des années succédant immédiatement à la première visite de De-
ming. Selon Ishikawa, c’est Joseph M. Juran, qui, par sa visite au Japon en 1954, a aidé les Japonais
à passer d’un effort de qualité "s’attachant au début à la technologie, effort axé sur les usines, à une
préoccupation générale pour l’ensemble de la hiérarchie."
Juran était alors un chef de file de la qualité déjà connu aux Etats-Unis. Mais sa notoriété
publique était toute récente. Après sa carrière chez Bell Telephone, Juran fut affecté, durant la deu-
xième guerre mondiale, à l’administration fédérale. Après la guerre, il s’installa comme professeur
indépendant, écrivain et conseil en contrôle de la qualité. Il n’eut pas un succès immédiat. Il rédigea
la première édition de son Quality Control Handbook [20] (Manuel de contrôle de la qualité), mais
plusieurs éditeurs la lui refusèrent. En définitive, les éditions McGraw-Hill la publièrent en 1951
"et, à partir de ce moment-là, tout s’est très bien passé", déclare-t-il. Les Japonais lurent ce manuel
et ne tardèrent pas à l’inviter à Tokyo.

Juran enseigne que la qualité est une responsabilité qui incombe à la direction. Bien que ce
point de vue semble être identique à celui de Deming, il présente une importante différence au ni-
veau de la priorité. Alors que Deming réclame une révolution dans la manière de penser des chefs
d’entreprise, Juran présente la qualité comme une discipline de gestion analogue aux finances. Se-
lon lui :

- le contrôle de la qualité est analogue à la gestion des finances,


- la planification de la qualité est semblable à la planification financière et budgétaire,
- l’amélioration de la qualité est analogue à la réduction des coûts.

Juran insiste sur l’amélioration continue de la qualité. Elle consiste à identifier les problèmes
chroniques8 et à en "programmer la solution". Juran préconise, à ce sujet, de classer les problèmes
par ordre d’importance et montre qu’en traitant le petit nombre des problèmes les plus importants,
on peut améliorer considérablement un processus ("Vital few and trivial many", diagramme de "Pa-
reto"). C'est également lui qui a défini la qualité d'un produit comme "son adéquation à l'usage
qu'on veut en faire" ("fitness for use"). Enfin, on lui attribue généralement la notion d'interdépen-
dance des divers processus de l'entreprise relativement à la qualité finale du produit (représentée par
la célèbre spirale dite "de Juran").
A l’heure actuelle, le Juran Institute, situé à Wilton, Connecticut, cherche à devenir un centre
pilote mondial d’éducation en matière de qualité. Juran en est maintenant Président d’honneur.

8 Pour illustrer la notion de problèmes chroniques opposés aux problèmes sporadiques, Juran se réfère souvent à une
rencontre, probablement apocryphe, entre Winston Churchill et Lady Astor:
Churchill : Lady Astor, vous êtes laide!
Lady Astor : Sir Winston, vous êtes ivre!
Churchill : Vous avez raison, mais demain je serai sobre alors que vous, vous serez toujours laide!
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 24 de 33

5.4 Armand V. Feigenbaum

Alors que Juran et Deming sont occupés à enseigner et à prêcher, Armand V. Feigenbaum
(né en 1920) revendique pour lui l’approche la plus opérationnelle de la qualité. Feigenbaum, actuel
Président de la Société General Systems Company, est le seul parmi les grands spécialistes améri-
cains de la qualité à avoir tenu un poste de direction en dehors de la qualité.
Il est entré à la General Electric comme apprenti outilleur à la fin des années 30, à l’issue de
ses études secondaires, et a continué à y travailler l’été lorsqu’il étudiait au Union College de Sche-
nectady, Etat de New-York, pour devenir ingénieur. En 1942, il a commencé à travailler à plein-
temps à la General Electric, juste à temps pour jouer un rôle-clé dans la fabrication pendant la deu-
xième guerre mondiale. Ses premiers travaux consistèrent à analyser pourquoi le fonctionnement de
certains transformateurs n’était pas régulier et pourquoi certains processus de production produi-
saient des rebuts. En 1942, le groupe de technique de la qualité de la General Electric travaillait sur
les premiers moteurs d’avions à réaction du monde, qui étaient conçus à Lynn, Massachusetts, et
fabriqués à Syracuse, Etat de New-York. Tantôt ces moteurs fonctionnaient, tantôt ils tombaient en
panne. Feigenbaum utilisa des méthodes statistiques pour déterminer exactement quelles étaient les
pièces d’où venaient le problème et pourquoi elles pouvaient se révéler non fiables. Il dit : "Nous
n’avions que quelques mois pour y arriver." Les techniques statistiques fournirent les réponses né-
cessaires. "C’est alors que je me suis rendu compte qu’il y avait tout un corps de connaissances à
mettre au point. C’était aussi important que l’électronique."

Feigenbaum commença rapidement à mettre en place des procédures de qualité dans la con-
ception, les achats, les services et la production de la General Electric. En 1944, à l’âge de 24 ans, il
fut nommé grand expert en qualité de l’usine General Electric de Schenectady. Mais, après la fin de
la guerre, Feigenbaum, comme d’autres experts en qualité, trouva peu de gens intéressés par ses
connaissances. Il compléta alors ses études par un doctorat en physique au Massachusetts Institute
of Technology en 1951.

Alors qu’il étudiait à MIT, il termina un ouvrage sur la gestion de la qualité: cet ouvrage,
"Total Quality Control" [21] (La maîtrise totale de la qualité), en est maintenant à sa troisième édi-
tion.
En 1958, Feigenbaum devint responsable des opérations de fabrication pour la General Elec-
tric à l’échelle internationale, poste qu’il occupa pendant dix ans. Il quitta la General Electric en
1968 avec son frère Donald, qui travaillait comme Directeur dans les moteurs pour avions civils à la
General Electric, pour fonder la société General Systems.

Feigenbaum a été le premier auteur à utiliser le terme de "maîtrise totale de la qualité". Son
approche de l’organisation vise à engager toutes les composantes de l’entreprise dans un effort sys-
tématique de qualité, les services de marketing identifiant les besoins des clients et évaluant le prix
qu’ils sont prêts à payer pour des produits ou des services de qualité, les départements d’ingénierie
concevant des produits en fonction de cela et les départements de fabrication garantissant des pro-
duits conformes aux spécifications. Lorsque le nouveau produit arrive au consommateur, le cycle re-
commence.
Feigenbaum est également à l’origine de la notion de "coût de la qualité". Il a expliqué que
les chefs d’entreprise doivent rechercher le coût total du produit et des défaillances du procédé (y
compris les retouches à l’atelier et le service clientèle), des mesures d’appréciation de la qualité (tels
que les systèmes de contrôle) et des mesures préventives de qualité (telle que la formation). Selon
Feigenbaum, le total de ces coûts représente de 10 à 40% des ventes annuelles des entreprises. La
notion de coût de la qualité incite les chefs d’entreprise à améliorer la qualité et leur permet de voir
leur succès ou leur échec.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 25 de 33

5.5 Philip B. Crosby

Juran, Deming et Feigenbaum sont des ingénieurs, des scientifiques, experts reconnus de la
qualité, telle qu’elle s'est développée à partir du courant technologique. Philip B. Crosby, lui, bien
qu’il ait suivi un parcours beaucoup moins "académique", est plus célèbre auprès du grand public
que les trois autres grâce à son ouvrage “Quality is free” [22] (La qualité est gratuite), devenu un
best seller en 1979.

Fils d’un pédicure du Tennesse, Crosby, né en 1926 à Wheeling, Virginie Occidentale, est
lui-même pédicure diplômé. Mais ce métier ne lui plaisait pas. C’est pourquoi, après avoir fait une
brève apparition comme journaliste, il accepte un poste de technicien débutant en antennes radar
dans une usine de la Crosley Corp, à Richmond, Indiana.. Il devint, sur le tas, "ingénieur fiabiliste".
Mais il ne tarda pas à se rendre compte qu’il n’était pas d’accord avec l’approche de la qualité telle
qu’elle existait alors.
Il partageait l’avis des conseils en qualité alors reconnus, selon lesquels le problème fonda-
mental était le manque d’attention que la direction portait à la question de la qualité. Toutefois,
Crosby pensait que les structures de management existantes pouvaient répondre aux problèmes de
qualité : ce que les chefs d’entreprise devaient faire consistait essentiellement à reconnaître que leur
entreprise pouvait fabriquer des produits qui n’auraient pas de défaillance, inclure la qualité comme
objectif-clé de leurs systèmes de gestion existants et ensuite, s’assurer que leur personnel était formé
pour réaliser cet objectif.
"Le problème avec les statisticiens", dit Crosby, "est qu’il n’y a pas de zéro en statistique".
L’idée de la technique de la fiabilité (dans les programmes militaires des années 50, heure des dé-
buts de Crosby) était que les erreurs sont inévitables. Il fallait prévoir à quel point le résultat allait
être mauvais et effectuer une correction en conséquence. Sept ans plus tard, Crosby devint directeur
de la qualité du projet de missile Pershing pour la société Martin Marietta Corp. Il lança un pro-
gramme visant à ce que les Pershings aient "zéro défaut". La direction apporta son aide et la société
réussit à déceler et à supprimer la cause de la plupart des défauts des Pershings.

Crosby devint une célébrité du monde de l’armement et la campagne "zéro défaut" devint la
politique officielle du gouvernement. Cependant, Crosby estime que presque toutes les entreprises
ayant adopté le slogan "zéro défaut" n’ont pas réussi à engager la direction dans l’action. "Les gens
ont considéré ce slogan comme étant une motivation pour le personnel. Ils ont pratiquement tué le
concept en disant: c’est la faute de l’ouvrier". Dans toute l’Amérique, les chefs d’entreprise invitè-
rent les salariés à signer des cartes d’engagement "zéro défaut" au cours de réunions. Les profes-
sionnels de la qualité, disciples de Juran, Deming et Feigenbaum étaient consternés. Crosby recon-
nut qu’il n’avait pas encore appris à enseigner les façons de "faire correctement les choses". Cepen-
dant, il insista sur le fait qu’il était aussi consterné que quiconque de voir la façon dont son idée
était utilisée.

Crosby quitta son travail pour entrer chez ITT où il occupa pendant quatorze ans le poste de
Vice-Président qualité. Crosby fonda un établissement d’enseignement de la qualité “Quality Colle-
ge” chez ITT pour apprendre au personnel à "faire correctement les choses". En 1979, il quitta ITT
pour fonder Philip Crosby Associates, une société de consultance.

Philip Crosby défini quatre "absolus" de gestion de la qualité relativement simples:

- la qualité "produit" est définie comme étant la conformité aux spécifications;


FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 26 de 33

- le système de la qualité est la prévention;


- l’attitude normale est "zéro défaut";
- la mesure de la qualité est le coût de la non-conformité.

Crosby n’est pas un intellectuel de la trempe de Deming ou de Juran, d’ailleurs ces deux
hommes le critiquent au niveau de sa façon de voir les choses, qu’ils estiment être simpliste, et re-
prochent à sa méthodologie un manque d’élaboration. Crosby est mort en 2001.

5.6 K. Ishikawa

Dans une certaine mesure, les experts américains de la qualité travaillent dans l’ombre de
Kaoru Ishikawa, qui est le chef de file n° 1 de la renaissance de la qualité japonaise depuis 1950.
Contrairement aux experts prônant la qualité aux Etats-Unis, Ishikawa est né en 1915 dans
l’Establishment de son peuple. Son père était un industriel, premier Président de la puissante "Fede-
ration of Economic Organizations".

Ishikawa obtint un diplôme en chimie appliquée à l’Université de Tokyo en 1939 avant de


travailler dans les industries de l’armement et dans la marine pendant la deuxième guerre mondiale.
Après la guerre, à son retour à l’université de Tokyo, il prit part aux activités de promotion de la
qualité de la JUSE (Japan Union of Scientists and Engineers).

Dès le début, le mouvement japonais de la qualité a été nettement différent de celui des
Etats-Unis. Ishikawa et d’autres chefs de file de la JUSE ont pu parler à l’establishment de leur pays
comme à des égaux et les entraîner dans leur cause assez facilement. Selon Ishikawa, le Japon a
commencé à avoir une notion hautement statistique de la maîtrise de la qualité par l’intermédiaire
de conseils en télécommunications américains, qui ont introduit la carte de contrôle dans le Nippon
Telephone and Telegraph en 1946. Au cours des premiers séminaires de Deming, on continua à in-
sister sur la statistique. Cependant, Ishikawa et les autres chefs de file de la JUSE s’écartèrent des
méthodes statistiques complexes, car ils trouvaient que ces méthodes rendaient la compréhension
des problèmes de qualité plus difficile que nécessaire.
Ils mettaient plutôt l’accent sur la qualité comme une sorte de mouvement de masse au sein des en-
treprises. Ils adoptèrent la désignation "Maîtrise totale de la qualité" (ou plutôt "Company Wide
Quality Control") mais Ishikawa note que "l’approche japonaise s’est distinguée de l’approche de
Feigenbaum. Son professionnalisme de type occidental l’a amené à prôner une maîtrise totale de la
qualité animée essentiellement par des spécialistes". Or, peu de Japonais font carrière en entreprise
en tant que spécialistes de la qualité. En revanche, les entreprises font passer leurs directeurs géné-
raux par la direction du département "Promotion de l’Assurance Qualité"; ce poste est souvent un
échelon de l’échelle qui conduit à la Présidence de l’entreprise.

Les principales techniques japonaises de résolution des problèmes, appelées les sept outils
de la qualité, doivent beaucoup à Ishikawa. Ces outils comprennent un grand nombre des idées de
Juran, Deming, Feigenbaum et Crosby mais les insèrent dans des techniques suffisamment simples
pour être enseignées à des ouvriers travaillant en usine par d’autres ouvriers. Ces sept outils indis-
pensables sont parfois comparés aux sept outils de Binkei, guerrier du XIIème siècle. "A moins
d’être entraînée à utiliser ces outils simples et élémentaires, une personne ne peut s’attendre à maî-
triser des méthodes plus difficiles" dit Ishikawa.

A l’origine, les travaux d’Ishikawa ont été traduits en anglais pour que des sociétés japonai-
ses d’assistance à l’étranger puissent les utiliser dans des pays tels que la Malaisie et l’Inde. Cepen-
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 27 de 33

dant, de nombreuses entreprises américaines ont trouvé qu’elles étaient plus utiles pour assurer une
formation de base sur la qualité que les ouvrages écrits aux Etats-Unis.

Notons enfin qu'Ishikawa est aussi le père des "cercles de qualité". Il est mort en 1989.

5.7 G. Tagushi

Genichi Tagushi (né en 1924), ingénieur et docteur en sciences, a travaillé de 1949 à 1961 à
la société Nippon Telephone and Telegraph puis a enseigné le contrôle de la qualité pour la Japan
Standards Association (association japonaise de normalisation) avant de s'installer comme consul-
tant. Il est l'auteur de nombreux travaux dans le domaine de la planification expérimentale et plus
généralement de ce qu'il appelle le contrôle de la qualité "off-line". C'est la maîtrise de la qualité
avant la phase active de production (contrôle "on-line"), c'est-à-dire lors de la détection des besoins
et de la conception et du développement d'un produit. Outre ces domaines rattachés au courant tech-
nologique, Tagushi a apporté des éclairages nouveaux sur certains éléments-clé de la théorie de la
qualité et notamment le concept de la qualité à proprement parler.

Lorsque des développeurs définissent des spécifications pour une pièce ou un processus, ils
le font généralement en termes de limites supérieures et inférieures admissibles: les "tolérances ".
Les statisticiens ont toujours reconnu que cette approche ne sert pas les objectifs de la qualité. Géné-
ralement, il existe une seule et unique valeur optimale pour une caractéristique et tous les écarts par
rapport à cette valeur peuvent entraîner des problèmes tels qu’une augmentation du bruit, plus de
défaillances en service ou des conditions de fonctionnement inférieures à l’optimum.

Un élément essentiel de l’influence de Tagushi aux Etats-Unis a été de souligner que tout
écart d’une pièce par rapport aux dimensions optimales est une non-qualité et se traduira en coûts
pour la société. Le concept de "tolérances" laisse souvent supposer que toute pièce entre les toléran-
ces est "bonne" et toute pièce à l'extérieur de celles-ci est "mauvaise". A cette vision trop dichoto-
mique, Tagushi oppose la notion de "fonction de perte", non nulle dès qu'on s'éloigne de l'optimum.
D'après Tagushi, cette fonction de perte prend généralement une allure quadratique (voir figure 5.2).
Tagushi propose donc, en lieu et place de limites de tolérances, de rechercher un optimum entre les
coûts engendrés par une diminution de la variabilité d'un procédé et les pertes encourues suite à tout
écart par rapport à la valeur idéale. Notons que la notion de non-qualité comprise comme tout ce qui
cause un tort (un coût) à la Société intègre parfaitement le concept de qualité dans une vision systé-
mique.

Pour conclure notre paragraphe "japonais", nous voudrions encore citer Ichiro Ueno qui im-
porta "l'analyse de la valeur" de Larry Miles au Japon dans les années 1960 et, bien sûr, Masaaki
Imai connu pour sa théorie du Kaisen qui peut se comprendre comme un principe "d'amélioration
continue de la qualité".
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 28 de 33

Fig. 5.2 "Fonctions de perte" d'un produit ou processus

5.8 Les acteurs principaux des courants technologique et méthodologique de la qualité

La figure ci-dessous résume les relations entre les divers acteurs des courants technologique
et méthodologique de la qualité, tant aux Etats-Unis qu'au Japon.

Bell Telephone

General Electric
J.U.S.E.

Figure 5.3 Les courants technologique et méthodologique aux U.S.A. et au Japon.


FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 29 de 33

VI. BIBLIOGRAPHIE.

[1] BERNOUX Philippe, "LA SOCIOLOGIE DES ORGANISATIONS", Edition du Seuil, Point -
Essais, 1985.

[2] SHEWART W.A., "ECONOMIC CONTROL AND QUALITY OF MANUFACTURED


PRODUCT ", D. Van Nostrand Company Inc., Princeton, 1931.

[3] OWEN Mal, "SPC AND CONTINUOUS IMPROVEMENT ", IFS Publication UK, Springer Ver-
lag, Berlin, 1989 (le mémorandum de Shewart du 16 mai 1924 y est reproduit).

[4] EL HADJ M., "CONTROLE STATISTIQUE DES PROCESSUS, COMPARAISON ET


UTILISATION DES METHODES", Maîtrise en Sciences Appliquées, Faculté Polytechnique de
Mons, 1991.

[5] SHEWART W.A., "STATISTICAL METHOD FROM THE VIEWPOINT OF QUALITY


CONTROL", (édité par W.E. DEMING), The Graduate School, Department of Agriculture,
Washington D.C., 1939.

[6] DODGE H.F.et ROMIG H.G., "SAMPLING INSPECTION TABLES - SINGLE AND DOUBLE
SAMPLING", John Wiley & Sons, Inc., New York, 1959.

[7] DUCAN A.J., "QUALITY CONTROL AND INDUSTRIAL STATISTICS", R.D. Irwin Inc.,
Homewood, Illinois, 1955.

[8] --------------, "Gone but never forgotten" pp 25-28, "Recollection about Deming" pp 31-36, "The
Government learns about quality in Japan" pp 39-44, série d'articles parus à l'occasion du décès
de W.E. Deming, Quality Progress, ASQC, Vol. 27 number 32, march 1994.

[9] MONTEIL B., PERIGORD M. et RAVELEAU G., "LES OUTILS DES CERCLES ET DE
L'AMELIORATION DE LA QUALITE", les Editions d'Organisation, Paris, 1985.

[10] JURAN J., "LA QUALITE DANS LES SERVICES", AFNOR Gestion, Eyrolles, Paris, 1987.

[11] DAGNELIES P., "THEORIE ET METHODES STATISTIQUES", Volume 1, Les Presses Agro-
nomiques de Gembloux, (2ème édition) 1973.

[12] MITONNEAU H., "CHANGER LE MANAGEMENT : SEPT NOUVEAUX OUTILS", AFNOR


GESTION, Paris, 1989.

[13] JOUINEAU Claude, "ANALYSE DE LA VALEUR", Edition EME, Paris, 1985.

[14] THIETART R-A., "LE MANAGEMENT ", Collection "Que Sais-Je?", Presses Universitaires de
France, Paris, 1980.

[15] HUYBENS N., "Un Pas de Géant pour un Siècle d'Histoire des Entreprises", Technopole
n°145 pp 20-22, 18 avril 1990.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 30 de 33

[16] WOODWARD J., "INDUSTRIAL ORGANISATIONS, THEORY AND PRACTISE", Oxford


University Press, London, 1965.

[17] MINTZBERG Henry, "LE MANAGEMENT ", Les Editions d'Organisation, Paris, 1990.

[18] CROZIER M. et FRIEDBERG E., "L'ACTEUR ET LE SYSTEME", Editions du Seuil, Paris,


1977 (réédité dans la Collection Points Essais en 1992).

[19] CHAPMAN WOOD R., "Les Prophètes de la Qualité", Qualité Magazine (revue de l'AFCIC),
n°15 pp 45-48, février-mars 1990

[20] JURAN J.M. et GRYNA F.M., "JURAN'S QUALITY CONTROL HANDBOOK", 4ème édition,
McGraw-Hill Company, New York, 1988.

[21] FEIGENBAUM Armand V., "TOTAL QUALITY CONTROL", 3ème édition, McGraw-Hill
Company, New York, 1986.

[22] CROSBY Philip B., "QUALITY IS FREE", McGraw-Hill Company, New York, 1979.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 31 de 33

ANNEXES
La formation de l'esprit scientifique
Face au réel, ce qu'on croit savoir clairement offusque ce qu'on devrait savoir. Quand il se présente à
la culture scientifique, l'esprit n'est jamais jeune. Il est même très vieux, car il a l'âge de ses préju-
gés. Accéder à la science, c'est spirituellement rajeunir, c'est accepter une mutation brusque qui doit
contredire un passé.

La science, dans son besoin d'achèvement comme dans son principe, s'oppose absolument à l'opi-
nion. S'il lui arrive, sur un point particulier, de légitimer l'opinion, c'est pour d'autres raisons que
celles qui fondent l'opinion ; de sorte que l'opinion a, en droit, toujours tort. L'opinion pense mal ;
elle ne pense pas : elle traduit des besoins en connaissances. En désignant les objets par leur utilité,
elle s'interdit de les connaître. On ne peut rien fonder sur l'opinion : il faut d'abord la détruire. Elle
est le premier obstacle à surmonter. [... ] L'esprit scientifique nous interdit d'avoir une opinion sur
des questions que nous ne comprenons pas, sur des questions que nous ne savons pas formuler clai-
rement. Avant tout, il faut savoir poser des problèmes. Et quoi qu'on dise, dans la vie scientifique,
les problèmes ne se posent pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la
marque du véritable esprit scientifique. Pour un esprit scientifique, toute connaissance est une ré-
ponse à une question. S'il n'y a pas eu de question, il ne peut y avoir connaissance scientifique.

Rien ne va de soi. Rien n'est donné. Tout est construit.

Gaston Bachelard, La Formation de l'esprit scientifique, Paris, Vrin, 7c éd., 1970, p. 14.

Les préjugés ont la vie dure


"... entendu récemment dans un conseil d'une grande école d'ingénieurs (en France) à propos de
l'enseignement des sciences humaines en général.
Il paraissait entendu que, dans cette école, le sérieux, le dur, c'était la technologie, les sciences dites
exactes. Le reste - en particulier l'organisation - était une affaire de bon sens que la vie apprendrait
aux ingénieurs par la suite ...
... raisonner ainsi, c'est livrer ceux-ci aux réactions traditionnelles: le bon sens, dans le cas des
sciences humaines, n'est rien d'autre que la norme reçue de la tradition et non critiquée.
Ne pas avoir de formation en ce domaine, c'est s'en remettre à ses préjugés."

Ph. Bernoux "la Sociologie des Organisations" Collection Points – Essais, Le Seuil, Paris, 1985
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 32 de 33

Sens commun et faits sociaux


Les sciences sociales et les sciences de la nature ont pour objet commun de découvrir des régularités et de
déterminer des critères de signification. Mais il y a des différences essentielles entre les deux champs
d'investigation. Le monde des événements sociaux est beaucoup moins « visible » que l'univers de la nature.
La chute des corps, le chaud et le froid, le fer qui rouille, sont choses immédiatement évidentes. Il est beau-
coup plus difficile d'apercevoir que les idées sur le bien et le mal varient d'une culture à une autre ; que les
coutumes peuvent avoir une fonction différente de celle que leur attribuent les gens qui les pratiquent ; que
la même personne peut avoir un comportement très différent en tant que membre d'une famille et en tant que
membre d'un groupe professionnel. La seule description du comportement humain, de ses variations d'un
groupe à l'autre et de ses changements suivant les situations, est une entreprise vaste et difficile. C'est cette
tâche, qui consiste à décrire, à trier et à repérer des corrélations, que les enquêtes nous permettent de mener
à bien. Pourtant, cette fonction même conduit souvent à de fâcheux malentendus. Il est en effet difficile de
trouver une forme de comportement humain qui n'ait déjà été observée quelque part. C'est pourquoi, lors-
qu'une enquête fait état d'une régularité dominante, nombre de lecteurs réagissent en pensant que " tout cela
était évident ". Ainsi, on voit souvent avancer l'idée que les enquêtes ne font qu'exprimer d'une manière
compliquée des observations qui étaient déjà évidentes pour tout le monde.
Le lecteur prendra plus facilement conscience de cette attitude s'il a sous les yeux quelques propositions
répondant à des questions que posent de nombreuses enquêtes, et si en les lisant il observe attentivement ses
propres réactions. Voici une liste courte, que j'accompagne de brefs commentaires, pour mieux mettre en
lumière les réactions probables de nombreux lecteurs.

1. Les individus dotés d'un niveau d'instruction élevé présentent plus de symptômes psycho-
névrotiques que ceux qui ont un faible niveau d'instruction. (On a souvent commenté l'instabilité
mentale de l'intellectuel contrastant avec la psychologie moins sensible de l'homme de la rue.)
2. Pendant leur service militaire, les ruraux ont, d'ordinaire, meilleur moral que les citadins. (Après
tout, ils sont habitués à une vie plus dure.)
3. Les soldats originaires du sud des États-Unis supportent mieux le climat chaud des îles du Pacifique
que les soldats du Nord. (Bien sûr, les habitants du Sud sont plus habitués à la chaleur.)
4. Les simples soldats de race blanche sont davantage portés à devenir sous-officiers que les soldats de
race noire. (Le manque d'ambition des Noirs est presque proverbial.)
5. Les Noirs du Sud préfèrent les officiers blancs du Sud à ceux du Nord. (N'est-il pas bien connu que
les Blancs du Sud ont une attitude plus paternelle envers leurs darkies ?)
6. Les soldats américans étaient plus impatients d'être rapatriés pendant que l'on combattait qu'après la
reddition allemande. (On ne peut pas blâmer les gens de ne pas avoir envie de se faire tuer.)

Voilà quelques échantillons des corrélations du type le plus simple qui constituent les « briques » avec les-
quelles se construit la sociologie empirique. Mais pourquoi, si elle sont si évidentes, dépenser tant d'argent
et d'énergie à établir de telles découvertes ? Ne serait-il pas plus sage de les considérer comme données et de
passer tout de suite à un type d'analyse plus élaboré ? Cela pourrait se faire, n'était un détail intéressant à
propos de cette liste. Chacune de ces propositions énonce exactement le contraire des résultats réels. L'en-
quête établissait en réalité que les soldats médiocrement instruits étaient plus sujets aux névroses que ceux
qui avaient un niveau d'instruction élevé, que les habitants du Sud ne s'adaptaient pas plus facilement au
climat tropical que les habitants du Nord, que les Noirs étaient plus avides de promotion que les Blancs, etc.
Si nous avions mentionné au début les résultats réels de l'enquête, le lecteur les aurait également qualifiés
d'«évidents». Ce qui est évident c'est que quelque chose ne va pas dans ce raisonnement sur l'«évidence». En
réalité, il faudrait le retourner : puisque toute espèce de réaction humaine est concevable, il est d'une grande
importance de savoir quelles réactions se produisent, en fait, le plus fréquemment et dans quelles conditions.
Alors seulement la science pourra aller plus loin.

Paul F. Lazarsfeld, « Tbe American soldier : an expository review », in P. Bourdieu, J.-C. Chamboredon et
J.-C. Passeron, Le Métier de sociologue, Paris. Mouton-Bordas, 1968, p. 141-142.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre II
Historique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 33 de 33

Frank Herzberg : Expériences d'enrichissement des tâches

La première concerne des secrétaires de la Bell Telephone Co, exécutant un travail d'un niveau as-
sez élevé, pour répondre aux questions des actionnaires de la société. Après une formation très coû-
teuse, de six mois, elles étaient sélectionnées. Leurs lettres étaient programmées selon des formules
préétablies, et vérifiées deux fois par des surveillants. Le moral de ces secrétaires était bas, l'absen-
téisme élevé ; la moitié des lettres contenaient des erreurs. Les diverses mesures "d'ambiance" :
augmentation du salaire, surveillance supplémentaire, aménagement du lieu de travail, n'y chan-
geaient rien.

On décida donc de changer les fonctions de ces secrétaires : selon sa capacité, chacune d'entre elles
devint experte dans une matière particulière, pour laquelle elle conseillait les autres. Les lettres fu-
rent envoyées directement au courrier, sans relecture. Chaque secrétaire rédigeait ses lettres person-
nellement, les signait. Le travail de la journée était organisé par les secrétaires elles-mêmes. Les
résultats furent, dans les premières semaines oui suivirent, une baisse sensible de la productivité.
Puis la productivité remonta très au-dessus de son niveau initial et permit à la compagnie d'écono-
miser, en vérifications et en réécriture des lettres, 558 000 $. Les lettres ne comportaient pratique-
ment plus d'erreurs. »

Autre expérience : l'enrichissement des fonctions des installateurs de téléphone, également à la Bell
Telephone Co. La fonction d'installation du téléphone était initialement répartie entre le service des
commandes, celui de la fonction des fils et celui de la vérification. L'ensemble fonctionnait mal,
avec de multiples réclamations. On fusionna l'ensemble des tâches, une seule personne étant res-
ponsable, pour un même client, de l'inscription des commandes, du raccordement, de la vérification
et des contacts ultérieurs avec ce client. Résultat : le nombre des heures supplémentaires baissa de 1
000 à 500, les erreurs de 13 à 3 %. La productivité doubla. Au lieu de dire à leur femme en rentrant
chez eux : " Sais-tu ce qu'on m'a fait faire ? constate Herzberg, ces hommes pouvaient enfin dire :
"Sais-tu ce que j'ai fait ? "
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 1 de 23

VISION SYSTEMIQUE DE LA QUALITE

I. PREMIERE APPROCHE GENERALE


Pour un esprit scientifique, toute connaissance est une ré-
ponse à une question. S'il n'y a pas eu de question, il ne
peut y avoir de connaissance scientifique. Rien ne va soi.
Rien n'est donné. Tout est construit.
Gaston Bachelard [1]
1.1 Introduction

Nous appréhendons le monde qui nous entoure au travers d'une foule de modèles qui
nous aident à y vivre. C'est une démarche fondamentale et essentielle de toute la pensée hu-
maine. Ne soyons cependant pas dupes de nos modèles, ils ne sont pas la réalité, ils nous ai-
dent simplement à la comprendre. Depuis plus d'un siècle, de nombreux modèles ont été pro-
posés pour analyser le fonctionnement des entreprises et en déduire des modes efficaces de
gestion. Nous verrons que l'analyse systémique1 permet une analyse conceptuelle de ces mo-
dèles. Elle conduit, en outre, à une vision beaucoup plus large et plus pertinente des entrepri-
ses.
Nous avons montré, dans la première partie de ces notes, que toute entreprise pouvait
être considérée comme un ensemble de processus. Il semble donc imaginable, par exemple à
partir des processus décrits dans la spirale de Juran, de représenter une entreprise par une suc-
cession plus ou moins linéaire de processus qui s'enchaînent depuis la demande du Client,
jusqu'à la réponse fournie par l'entreprise sous la forme de ses produits (voir figure 1.1).

Processus Processus Processus

"Demande" ENTREPRISE "Réponse"

BESOIN PRODUIT
CLIENT
CLIENT

Figure 1.1 : L'entreprise selon l'axe du Client

1 Voir annexe sur la systémique


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 2 de 23

Mais cette approche est visiblement tronquée puisqu'il est, dans les entreprises, des
processus qui sont extérieurs à la chaîne "directe" qui relie le besoin détecté au produit, ré-
ponse fournie au client. Ainsi, le "Service du Personnel" (ou de "Gestion des Ressources Hu-
maines"), le "Service Comptable", le "Service de Sécurité et d'Hygiène", la "Direction Géné-
rale", ... pour ne citer que des exemples classiques, ne rentrent guère dans notre modèle li-
néaire. Il faut donc lui ajouter une ou plusieurs dimensions.

Nous proposons donc un modèle multidimensionnel de l'entreprise, possédant un axe


particulier, "l'axe du client", où s'aggrègent les processus directement impliqués dans la liai-
son demande ⇔ réponse, et divers autres axes, "les axes de l'entreprise", où se retrouvent se-
lon diverses associations les autres processus de l'entreprise (voir figure 1.2).

Axes de l'entreprise

Processus

Processus Processus Processus

"Demande" Processus
Axe du Client
"Réponse"

BESOIN PRODUIT
CLIENT
CLIENT

Figure 1.2 : Les différents axes des processus dans l'entreprise.

Cette vision est sans doute encore insuffisante mais elle nous servira de base pour
examiner très schématiquement comment a évolué, depuis plus d'un siècle, la modélisation
des entreprises au sens de l'optique Qualité.

1.2 L'entreprise taylorienne

Dans l'entreprise taylorienne2, l'organisation scientifique du travail et une hiérarchie


strictement pyramidale de l'autorité règnent en maîtres. Basée sur une approche trop étroite-
ment cartésienne, elle décompose l'entreprise, ses divisions et ses services en sous-structures
fortement cloisonnées. Chacun de ces "processus" est traité indépendamment des autres et
optimisé pour lui-même. La division systématique de l'effort, sans vraie recomposition finale,

2 Taylor n'est évidemment pas responsable de tous nos maux! L'adjectif taylorien doit être compris comme un
raccourci aisé pour désigner un style de management, héritier du 19ème siècle, peut-être un peu caricatural, mais
finalement encore fort répandu en cette fin de 20ème siècle.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 3 de 23

conduit au cloisonnement, à la spécialisation puis à l'hyperspécialisation. C'est une forme de


suboptimisation par excellence.

Bien qu'efficace dans des structures encore simples, elle finit, dans des structures plus
complexes, par créer plus de problèmes qu'elle n'en résout. Elle conduit ainsi à:

♦ des objectifs limités et un manque total de perspective dans le travail. C'est la consé-
quence inévitable de la suboptimisation. Chaque travailleur vit dans un véritable ghet-
to;
♦ un langage spécialisé qui génère le manque de transparence, la rétention d'information
et l'isolement de plus en plus marqué de chaque fonction;
♦ un individualisme parfois forcené qui s'oppose souvent à la réalisation de buts com-
muns pourtant indispensables;
♦ l'absence de vraie relation Client-Fournisseur interne et donc à de terribles problèmes
interfonctionnels;

Cette approche est schématisée à la figure 1.3.

Axes de l'entreprise
Processus

Processus Processus Processus

Axe du Client
Processus

Processus

Fig. 1.3 L'approche taylorienne de l'entreprise

Dans ce contexte, c'est souvent la vérification systématique du produit avant livraison


qui garantit la qualité. On appelle généralement cette démarche "contrôle de la qualité", en
sous-entendant "a posteriori" puisqu'il survient après la phase de production proprement dite.

Certes, le contrôle du produit fini est et demeurera toujours nécessaire (à des degrés
divers), mais on connaît aujourd'hui, les limitations et les écueils de cette démarche.

Il est tout d'abord évident que le contrôle a posteriori, sur le produit fini, s'il peut (par-
fois) garantir une qualité constante au client, constitue, en cas de rebut, un constat d'échec
grave pour l'entreprise. En outre, il est de multiples activités qui ne permettent pas un contrôle
final complet du produit. Dans ces cas, c'est à l'usage que le défaut se révèle, avec parfois des
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 4 de 23

conséquences catastrophiques! Enfin, il est facile de voir que le contrôle final devient rapide-
ment inefficace pour des productions un tant soit peu complexes (ce qui est le cas pour la plu-
part des produits modernes).

Il est également évident que cette approche génère deux nouveaux types d'acteurs dans
l'entreprise : le contrôleur et le spécialiste "méthodes". L'antagonisme naît entre ceux qui pro-
duisent, d'une part, ceux qui contrôlent et ceux qui "pensent", d'autre part. L'expérience mon-
tre que les fonctions "contrôle" et "méthodes" s'érigent vite en juges, non plus seulement de la
qualité du produit et des méthodes de production, mais aussi de la valeur intrinsèque du tra-
vail de la production et donc des travailleurs. Des tensions sociales considérables en résultent
généralement au sein des entreprises.
On peut, bien entendu, pour limiter les rebuts en fin de chaîne, instaurer des contrôles
et imposer des procédures étouffantes (et souvent artificielles) tout au long de la production
elle-même. Solution apparemment logique mais dont la mise en oeuvre est généralement dé-
sastreuse. On en vient ainsi inévitablement à multiplier les contrôles, les contrôleurs et les
"diktats". L'antagonisme déjà signalé entre contrôleurs, "penseurs" et producteurs ne fait
qu'empirer et, surtout, le coût de la démarche devient rapidement énorme, inacceptable.

Cette méthode erronée dans l'absolu, mais "rationnellement" justifiée dans ce mode
d'organisation aboutit au slogan si souvent entendu: "la qualité se paie!". Il apparaît en effet
que le coût de la pièce "bonne" est largement fonction du coût du tri et du rejet. Améliorer la
qualité dans ce contexte, en resserrant par exemple les spécifications du contrôle, signifie
augmenter le prix de revient du produit sortant.

En résumé, cette démarche, fille d'un simpliste rationalisme positiviste et scientiste du


19ème siècle, inspiratrice du "one best way", traite l'individu comme le rouage passif du mé-
canisme "entreprise". Elle ne lui accorde, sauf s'il fait partie de l'échelon de la direction ou du
tout puissant "bureau des méthodes", que le rôle d'un outil, sans vie sociale, sans coeur et sans
intelligence. Sous prétexte de rationalisme, c'est une suboptimisation, pire une gabegie du
potentiel humain. Elle ne peut concevoir l'entreprise que comme une collection de sous-
ensembles fermés et isolés, sans la moindre perspective systémique.

1.3 L'entreprise "Assurance Externe de la Qualité"

On a ainsi progressivement découvert que la qualité d'un produit n'est jamais le fruit
du hasard, ni même d'une méthodologie tatillonne et bornée, mais qu'au contraire, la qualité
d'un produit est d'abord et surtout le résultat de la qualité de tous les processus qui le génè-
rent. En outre, Qualité produit et satisfaction des clients sont considérées comme des notions
intimement liées.

L'effet conjugué de la complexité croissante des produits, de l'expansion des marchés


(volume et concurrence), alliée à l'évolution du niveau d'éducation des travailleurs (sans par-
ler des conséquences indirectes de la seconde guerre mondiale et des divers mouvements so-
ciaux) a ainsi fait naître un concept nouveau, destiné à remplacer le contrôle de la qualité et,
au moins partiellement, la démarche taylorienne de la division du travail.

Ce concept est celui de "l'assurance de la qualité".


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 5 de 23

Le but demeure, bien entendu, le même: la qualité du produit final, mais on tente de
l'obtenir en s'assurant de la qualité des processus de production en tant qu'entités intercon-
nectées!

On part du principe que si toutes les étapes d'une production, les activités (et non pas
seulement les produits) sont bien pensées au départ, rigoureusement contrôlées, correctement
exécutées et, surtout, profondément interconnectées, on obtiendra, en final, un produit con-
forme.

Le concept d'assurance de la qualité peut se définir comme suit :

"Ensemble des actions préétablies et systématiques nécessaires pour


donner la confiance appropriée en ce qu'un produit ou un service sa-
tisfera aux exigences données relatives à la qualité" (ISO 8402)

Certes, il n'est plus question de multiplier les contrôleurs, il faut donc que le contrôle
s'intègre à la chaîne de production (il sera réalisé automatiquement ou par les opérateurs eux-
mêmes). Le produit et le processus doivent donc être conçus, dès le départ, pour satisfaire à ce
contrôle intégré. Ce principe constitue une évolution considérable dont les outils principaux
sont la mesure, le contrôle statistique et les procédures.

Il est difficile de brosser en peu de mots le tableau complet du changement dans l'en-
treprise, pourtant c'est un véritable bouleversement qu'apporte le concept d'assurance de la
qualité. Non seulement il focalise l'attention sur les processus de fabrication et non plus uni-
quement sur le produit mais il implique surtout un décloisonnement de l'entreprise qu'il con-
duit progressivement vers un modèle post-taylorien.
Il faut bien comprendre que c'est la façon même de travailler dans l'entreprise qui est
visée puisqu'on désire aboutir à un contexte où il y aura confiance dans la qualité des produits
au travers d'une maîtrise complète du processus de production, cette maîtrise étant largement
attribuée aux acteurs, même les plus humbles, de la chaîne de production.

Les principes de l'Assurance Externe de la Qualité induisent une véritable forme de


perpective dans le fonctionnement des entreprises. Non seulement ils introduisent un enrichis-
sement des tâches (responsabilité, auto-contrôle), une transparence efficace (procédures) et un
renouveau de la polyvalence, mais, en outre, l'importance de l'enchaînement des processus et
des relations Client-Fournisseur internes y est clairement présente.

Cependant, le concept de maîtrise globale des processus est encore limité à l'axe du
client externe, c'est-à-dire aux éléments de l'entreprise qui sont dans la ligne directe qui va des
fournisseurs externes aux clients externes. En négligeant l'importance des autres fonctions de
l'entreprise, l'Assurance Externe de la Qualité, conduit, elle aussi, à une suboptimisation du
fonctionnement de l'entreprise. De plus, en négligeant les autres éléments de l'environnement
de l'entreprise et son contexte humain, elle contnue à voir celle-ci comme un système fermé
(semi-fermé), ce qui est dommageable à terme.

Cette approche est schématisée à la figure 1.4


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 6 de 23

Axes de l'entreprise
Processus

Processus Processus Processus

Axe du Client
Processus

Processus Processus Processus

Axe du Client
Fig. 1.4 L'approche "Assurance Externe de la Qualité" de l'entreprise

Ainsi, malgré son importance et son succès, le concept d'assurance de la qualité


s'avère insuffisant. Il est et demeure avant tout un concept d'ingénieur, s'appuyant, pour l'es-
sentiel, sur les acquis du courant technologique de la qualité (Maîtrise statistique des proces-
sus) et partiellement sur ceux du courant méthodologique3. Il est essentiellement orienté vers
le client externe, certes un élément essentiel de l'environnement de l'entreprise mais loin d'être
le seul comme nous l'avons déjà vu. Il ne concerne donc souvent qu'une fraction de l'entre-
prise (celle qui est en contact direct avec le produit), en mésestime la composante humaine et
est loin d'être instauré en mode de gestion.
C'est précisément ce pas décisif que nous propose de franchir la Gestion Totale de la
Qualité, ainsi que nous allons le voir.

1.4 La vision globale de l'entreprise

La Gestion de la Qualité, au sens où nous la comprenons, propose une réelle approche


systémique des entreprises. Elle considère, en effet, l'entreprise comme un système complexe
de structures intégrées homme-machine-matière-information qui est ouvert sur un environne-
ment avec lequel elle est en interaction permanente et où l'individu, acteur essentiel du sys-
tème, y joue un rôle prépondérant. Ce faisant, elle intègre les apports des démarches sociolo-
gique et méthodologique de la qualité, mais va, ensuite, bien au-delà.

La Gestion de la Qualité reconnaît la profonde interconnexion de tous les processus de


l'entreprise, non seulement ceux qui sont dans l'axe du client externe, mais aussi ceux qui sont
en dehors de cet axe (les axes de l'entreprise). Tous ces processus doivent fonctionner avec
des buts, des objectifs clairs qui sont la satisfaction de tous les clients (interne et externe). Il

3 Voir la partie consacrée à l'historique de la qualité.


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 7 de 23

n'y a plus de suboptimisation. En outre, tous les éléments de l'environnement de l'entreprise


sont intégrés dans cette vision et notamment les travailleurs et la Société.
La Gestion de la Qualité est une réponse à la complexité profonde du phénomène "en-
treprise" et une tentative de maîtrise efficace et économique de cette complexité. Ce concept
est schématisé à la figure 1.5.

Axes de l'entreprise Processus

Processus Processus Processus

Axe du Client
Processus

Fig. 1.5 L'approche Systémique de l'entreprise

La Gestion de la Qualité, c'est une voie de recherche de l'Excellence par un refus sys-
tématique de toute forme de non-qualité. Non-qualité dans le sens de non-conformité du pro-
duit par rapport aux désirs du client externe, c'est certain, mais encore non-qualité due aux
dysfonctionnements internes de l'entreprise et aussi, plus largement encore, non-qualité com-
prise comme tout tort causé à la Société.
Ainsi la responsabilité du fait du produit, la recherche de la sécurité des travailleurs
sur leur lieu de travail, la défense et la protection de l'environnement, le respect du Citoyen
par l'Etat, sont autant d'exemples de refus de la non-qualité qui, au même titre que l'assurance
externe de la qualité, s'intègrent parfaitement dans la vision de Gestion Totale de la Qualité.
La Gestion de la Qualité vise précisément à organiser la qualité en stratégie globale,
de façon à canaliser toutes les énergies dans le but d'obtenir la meilleure satisfaction des
clients, tant internes qu'externes, au meilleur coût et dans le respect complet de la Société qui
environne l'entreprise.

Elle considère l'entreprise comme un construit social à complexité humaine, avec


tout ce que cela implique d'un point de vue systémique.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 8 de 23

II. VISION SYSTEMIQUE DE L'ENTREPRISE

Dans notre chapitre introductif, nous avions postulé que l'entreprise doit être vue à la
fois sous son aspect externe (environnement) et sous son aspect interne, ces deux aspects
étant en fait indissociables. Il apparaît maintenant indispensable de reprendre ces concepts et
de les éclairer de l'approche systémique que nous venons de présenter.

2.1 Le système entreprise-environnement

L'entreprise est imbriquée dans un environnement mouvant avec lequel elle est en in-
teraction permanente. Elle constitue un système ouvert et finalisé par rapport à cet environ-
nement, c'est-à-dire qu'elle a des buts, des objectifs en rapport avec cet environnement (et
avec elle-même) (Figure 2.1).
Certes, dans une première analyse, ces buts peuvent être compris comme les objectifs
fixés par la direction de l'entreprise. Cependant cette approche est visiblement un peu sim-
pliste.
Les buts des acteurs de l'entreprise influencent aussi le fonctionnement global de l'entreprise.
Ce n'est pas non plus l'environnement qui fixe entièrement les réponses et les structures de
l'entreprise, pas plus que ce ne sont les plans fixés par la direction qui vont totalement impo-
ser son évolution à l'entreprise.
Il n'y a pas de contraintes sociales, techniques ou économiques qui dictent une déci-
sion unique de la part de l'entreprise. Nous retrouvons ici le principe d'équifinalité (pas de one
best way). Néanmoins, ce n'est qu'au travers de ses échanges avec l'environnement que l'en-
treprise se structure et, in fine, existe!

Figure 3.1 L'entreprise dans son environnement


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 9 de 23

2.2 L'analyse du système entreprise

Suite à notre introduction des éléments de la théorie des systèmes4, il doit paraître
assez évident au lecteur que l'entreprise est un système au sens plein du terme.

Sous un aspect purement structurel, l'entreprise présente une frontière, ou tout au


moins peut-on fixer une limite entre ce qu'on admettra être l'intérieur de l'entreprise et ce
qu'on admettra être l'extérieur de l'entreprise. Il est certain que cette délimitation est et de-
meurera nécessairement floue, ce qui est le propre des systèmes complexes. Non seulement
parce que les éléments de l'entreprise sont en interaction permanente avec son environnement,
mais plus encore parce que certains de ses éléments (les plus importants sans doute) font à la
fois partie de l'entreprise et de son environnement. Ce peut être le cas des administrateurs
d'une société qui auront souvent d'autres rôles dans l'environnement (par exemples adminis-
trateurs d'autres entreprises), mais plus fondamentalement encore c'est le cas des travailleurs
de l'entreprise qui appartiennent à d'autres systèmes: les syndicats, un club de sport, leur fa-
mille, etc. La délimitation du système entreprise peut également dépendre des objectifs de
l'analyse poursuivie, des critères de la modélisation par rapport aux finalités étudiées (voir
aussi figure 3.1). Ceci rejoint parfaitement ce que nous affirmions dans notre chapitre intro-
ductif, lorsque nous disions que tous les éléments de l'environnement d'une entreprise en sont
à la fois clients et fournisseurs, ceci signifie notamment qu'ils s'interpénètrent beaucoup plus
profondément qu'il n'y apparaît de prime abord.

L'entreprise possède évidemment des éléments, ce peut être des ateliers, des services,
des départements et, en dernière analyse, l'élément le moins décomposable : l'homme (ce qui
en fait, de facto, un système hiérarchisé). Elle possède aussi des réseaux de transport et de
communication (formels ou informels) et enfin des réservoirs sous diverses formes.

Mais, comme nous l'avons déjà dit, la structure n'est finalement qu'une description
statique. Il est plus intéressant encore d'analyser l'entreprise sous ses aspects fonctionnels car
ils sont directement liés à la dynamique et donc à l'organisation du système.

INPUT OUTPUT

Besoins Besoins

Figure 2.2 Le processus dans l'entreprise systémique

4 Voir l'annexe sur la systémique.


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 10 de 23

Notre approche de l'entreprise sous forme de processus fortement interconnectés est


parfaitement en accord avec la vision systémique puisque les processus sont précisément, à la
fois siège des flux qui traversent le système-entreprise et centres de décisions. Ils font égale-
ment partie des boucles de régulation qui conservent sa stabilité à l'entreprise (Figure 2.2). En
outre, et c'est essentiel, ce sont aussi des systèmes fortement finalisés.

2.3 La reconnaissance de l'individualité au sein de l'entreprise

L'entreprise est un système à composantes humaines, ce qui implique un certain nom-


bre de particularités, voire de singularités qu'il faut prendre en compte.
Nous avons déjà vu que l'analyse de l'entreprise comme un système "mécaniste" (c'est-
à-dire la vision taylorienne) a clairement montré ses limites. Les analyses découlant de l'école
des relations humaines et plus spécialement le courant structuro-fonctionnaliste, proposent
une vision plus "organiste" de l'entreprise mais dont on perçoit également les limites.

Il semble bien qu'une bonne part de la compréhension des entreprises (dans notre
monde actuel, c'est-à-dire dans le système-environnement où nous vivons) doive passer par la
reconnaissance de l'individualité [2]. Mais cette reconnaissance n'est pas évidente et se heurte
à bien des questions:
Peut-on passer d'une vision de l'entreprise comme un grand système à contrôle vertica-
lisé, à celle d'une organisation qui soit un lieu d'interactions de nombreux organes spécifiques
et individualisés? L'individualisation des parties n'est-elle pas contradictoire avec un compor-
tement collectif cohérent et finalisé? La reconnaissance de l'individualité permet-elle de dé-
couvrir des modes de fonctionnement plus satisfaisants à divers points de vue? Par quels pro-
cessus l'individualisation peut-elle se développer et quelles en sont les conditions?

Nous croyons qu'il n'y a pas de réponse complètement satisfaisante à ces questions,
même si elles constituent le coeur de tous les débats de la sociologie moderne des entreprises.

Crozier et Friedberg [3] montrent cependant que l'entreprise (comme toute organisa-
tion à composantes humaines) est à la fois un construit social (il ne s'agit pas d'une émergence
naturelle) et le siège de jeux de rôles auxquels s'adonnent les acteurs du système. Il faut com-
prendre cette analyse comme le fait que les participants (les acteurs) d'un système organisa-
tionnel quelconque ont une tête et donc développent une stratégie propre qu'ils espèrent ga-
gnante de leur point de vue. Cette stratégie se développe dans un contexte de rationalité
limitée, au sens où aucune prise de position sur un problème un tant soit peu complexe ne
résulte de l'analyse exhaustive de toutes les solutions possibles et du choix de la "meilleure".
Ce n'est pas seulement le mythe du manager rationnel (par ailleurs également démoli par
Mintzberg) qui s'effondre, mais celui de toute la rationalité cartésienne.

Il semble bien que les entreprises souffrent d'un manque de complexité, dans le sens
d'un manque de richesse de l'information et des interconnexions, variétés des états et des évo-
lutions possibles, ce qui est profondément différent de la complication au sens de l'imbrica-
tion de relations causales linéaires stables et souvent rigides.

Répartir la complexité ne se conçoit qu'en répartissant et en déléguant l'expertise à


tous les niveaux de l'organisation. Ceci implique d'éviter un environnement proche au travail
qui soit pauvre et un environnement lointain qui soit indéchiffrable.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 11 de 23

En ce sens l'approche proposée par la gestion de la qualité, basée sur des processus
structurés par des relations clients-fournisseurs semble une des plus pertinentes.

III. ELEMENTS DE VISION STRATEGIQUE DE LA QUALITE

3.1 Les trois piliers de la Qualité.

En analyse systémique, tout est dans tout (et inversement bien sûr!) mais en fonction
d'un objectif d'étude, d'une finalité (ici la gestion de la qualité), on peut distinguer un certain
nombre d'invariants fondamentaux que nous appellerons les trois piliers de la qualité. Ils s'ap-
pliquent tant à l'entreprise, en tant qu'entité, qu'à ses processus constitutifs. Ces piliers sont: la
conformité, l'excellence et la responsabilité.

Fig. 3.1 Les trois piliers de la Gestion de la Qualité

Nous entrons ainsi au coeur même de l'ESPRIT de la QUALITE.


FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 12 de 23

3.2 La Conformité

3.2.1 Introduction

La notion de conformité est centrale dans toute la philosophie de la Gestion de la Qua-


lité puisqu'elle concerne directement l'adéquation du produit aux besoins des utilisateurs (et
plus généralement de tout l'environnement de l'entreprise). Il s'agit, en fait, d'une approche
des finalités de l'entreprise et plus généralement encore de tous les processus qui la consti-
tuent. Il s'agit d'une réelle approche stratégique.
La conformité se situe très précisément au confluent des besoins (exprimés ou implici-
tes), des spécifications (qui sont censées traduire ces besoins) et de la réalisation proprement
dite (qui est censée suivre les spécifications).
C'est le client et l'utilisateur qui sont les seuls vrais juges de la Qualité, les comptables
ultimes du succès ou de l'échec de toute la démarche financière, commerciale, technique qui a
sous-tendu la réalisation d'un produit.
Mais la qualité est composite (complexe) par nature. C'est tout un ensemble de carac-
téristiques que désire, à divers degrés, le client et qu'il faut détecter. C'est en principe le rôle
premier du marketing stratégique dans une entreprise à but commercial. Cette détection est
malheureusement trop souvent ignorée dans les autres types d'entreprises, voire au niveau des
processus internes (d'où l'intérêt de l'analyse fonctionnelle des processus et du Quality Func-
tion Deployement).
Pour bien préciser cette nature composite de la qualité, on peut, notamment, utiliser la
notion de "dimensions de la qualité" (house of quality, quality deployement). Il s'agit d'une
description, aussi complète et pertinente que possible, des caractéristiques potentielles du
produit. L'établissement de cette description est loin d'être trivial. Il peut se faire au sein
même de l'entreprise ou des processus, mais idéalement des clients potentiels devraient y par-
ticiper d'une façon ou d'une autre. Il est, en effet, évident que "qualité" ne signifie certaine-
ment pas être le "meilleur" dans tous les domaines, mais simplement être aussi fidèle que pos-
sible à ce qu'attend raisonnablement le client.
Il ne saurait y avoir de description universelle des "dimensions de la qualité", mais on
peut facilement en imaginer certains éléments principaux, mais la liste est loin d'être exhaus-
tive:

⇒ la performance (caractéristiques principales);


⇒ les "plus" (caractéristiques secondaires);
⇒ la fiabilité;
⇒ la durée de vie;
⇒ le respect des normes, des individus, de la société;
⇒ l'esthétique;
⇒ l'accueil (contact avec la clientèle);
⇒ le service (résolution des problèmes, gestion des plaintes, ...);
⇒ la réputation;
⇒ .......................................
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 13 de 23

La conformité ne saurait exister sans une détection soigneuse des besoins du client, et
même dans un contexte contractuel, la compréhension de ces besoins n'est jamais simple.

Il ne faut pas perdre de vue qu'en outre, les besoins d'un client sont, par nature, évolu-
tifs dans le temps. Ce qu'il voulait, hier encore, lui paraîtra peut-être insuffisant aujourd'hui et
sans doute inadéquat demain (Spirale de Juran).

3.2.2 Détection, spécification et réalisation.

Détecter et analyser les besoins des clients (existants et potentiels) est insuffisant, ce
n'est qu'une première étape. Il faut encore traduire ces besoins en spécifications. C'est-à-dire
transformer le langage du client en celui du spécialiste. Il s'agira donc de préciser sous forme
quantifiable les caractéristiques requises par le client (importance de la mesure, voir plus
loin). Cette quantification sera multiple, elle concernera des longueurs, des poids, des délais,
des couleurs, des normes, ...

"Stricto sensu", les spécifications constituent divers documents qui définissent les exi-
gences auxquelles le produit devra satisfaire. Il y aura généralement divers niveaux de spéci-
fications ( pour la R&D, pour la présérie, pour la fabrication, pour la vente, ...).

Ces spécifications doivent non seulement inclure les besoins exprimés et détectés,
mais aussi toutes les contraintes supplémentaires permettant d'obtenir le résultat escompté
(contraintes généralement ignorées par le client et qui résultent du know-how du producteur),
les procédés et techniques à mettre en oeuvre, mais également (surtout) les diverses méthodes
et critères qui permettront de vérifier que les caractéristiques attendues sont effectivement
obtenues (référence à des tests, des standards, des normes, ...). On ne peut qu'insister à ce su-
jet sur l'auto-contrôle.

Les exigences, transcrites en spécifications, représentent ce que l'entreprise a compris


de la demande du client.

La réalisation est la phase matérielle de traduction des spécifications. Le produit ainsi


obtenu résultera non seulement des spécifications mais aussi de tous les processus internes de
l'entreprise (achat des matières premières, équipements disponibles ou utilisés, personnel,
vente, après-vente, ...). La réalisation concerne donc bien plus que la fonction "Production"
proprement dite. A nouveau, il faut considérer le produit dans son acception la plus large et
durant tout son cycle de vie.

La conformité, au sens le plus absolu, est l'adéquation parfaite des besoins, des spéci-
fications et de la réalisation. Ce premier pôle de la Qualité est un absolu qu'il faut viser, même
s'il ne sera jamais que partiellement atteint (voir le § sur l'excellence).

La figure suivante 3.2 (inspirée de Périgord [4]) illustre parfaitement cette rencontre
entre besoins, spécifications et réalisation.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 14 de 23

Fig. 3.2 Illustration de la notion de Conformité

Seule la zone centrale de superposition des trois cercles y représente la "Qualité maî-
trisée". Tout ce qui est hors de cette zone constitue le vaste espace de la non-qualité. Exami-
nons les diverses zones ainsi délimitées:

La zone A apparaît comme une zone d'insatisfaction du client s'il s'agit de besoins expri-
més (erreur dans la spécification), voire une zone d'innovations potentielles s'il s'agit de
besoins encore non-détectés.
La zone B apparaît comme une zone de défauts typiques. Des besoins exprimés et spé-
cifiés n'ont pas été réalisés (erreur dans la réalisation).
La zone C apparaît comme ce qu'on pourrait appeler une zone de "qualité-cadeau" s'il
s'agit d'un "plus" offert au client (ex.: promotions). Dans ce cas l'entreprise est con-
sciente de l'existence de ces besoins, même s'ils ne sont pas habituellement inclus dans
les spécifications. Dans le cas contraire, il pourrait s'agir d'innovations pertinentes,
voire d'erreurs "heureuses".
La zone D correspond à la zone des "illusions". Il s'agit généralement de spécifications
irréalisables et, heureusement irréalistes. Néanmoins, des produits parfaitement confor-
mes à ce qu'attend le client pourraient ainsi être rebutés. Des spécifications trop fantai-
sistes peuvent en outre faire perdre confiance en toute forme de spécifications. Il n'est
pas rare de découvrir des processus qui ont leurs propres spécifications qui ne servent à
rien et ne sont (heureusement) pas mises en oeuvre.
La zone E est une zone de gaspillage (oubli de facturation, pièces hors spécifications,
pertes diverses, ...).
La zone F, enfin, est une zone de surqualité. Les spécifications et la réalisation vont au-
delà de ce que demande le client (erreur dans la spécification ou bureaucratie).
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 15 de 23

Notons encore la différence entre la notion de conformité et celle de satisfaction des bénéfi-
ciares, comme illustré à la figure 3.2bis

CONFORMITE SYSTEME
VOULU REALISE
(spécifications
(prestations et
des prestations
résultats réels)
et résultats)

PROCESSUS = Ensemble de moyens et


d'activités liés qui transforment des éléments
ENTRANT
entrant en éléments sortant (ISO 8402). SORTANT

DEMANDE REPONSE
SATISFACTION
ATTENDU PERCU
(Besoins exprimés (Perception des
ou implicites) prestations et résultats)
BENEFICIAIRE
Fig. 3.2bis Conformité et satisfaction

Loin des idées habituellement reçues, nombre de non-qualités ne proviennent pas de la


fonction "Production" proprement dite. En fait, si on en croit des auteurs comme Juran, De-
ming, Feigenbaum, plus de 80% des "non-qualités" ne sont pas issues de cette fonction mais
d'autres fonctions plus en amont ou de l'inadéquation des processus.

Un des principaux outils d'aide à l'adéquation entre spécifications et réalisation est la


PREVENTION. La prévention est un concept simple, bien connu en Assurance de la qualité.
Si ce concept est souvent bien compris, il est rarement appliqué dans toute sa rigueur.

La prévention, c'est avant tout une méthode de travail destinée à éviter les défaillan-
ces, l'apparition d'erreurs ou la création de défauts, c'est l'expression d'une rétroaction effi-
cace.

Comme bien des notions issues de l'Assurance de la qualité, elle s'applique donc plus
aux processus qu'aux produits. Elle rejoint aussi l'EXCELLENCE dont nous parlerons plus
loin puisqu'elle vise à "faire bien du premier coup" (prévention prospective) mais elle peut
aussi admettre qu'il faut surtout "bien faire le second coup et tous les suivants" (prévention
active).
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 16 de 23

3.2.3 La prévention prospective et active.

Le but de la prévention prospective est de prévoir et de mettre en place, dès la phase


de conception (ou de R&D) toutes les actions nécessaires pour éviter les non-conformités.

Il s'agit donc de prévoir toutes les défaillances qui pourraient survenir et concevoir le
produit et son processus d'élaboration pour qu'il y soit insensible, soit en s'arrangeant pour
que la défaillance ne puisse survenir, soit qu'elle soit sans conséquence si elle survient (re-
dondance).
Pour que la prévention prospective puisse être réellement efficace, il sera utile d'associer au-
tant de services et de départements que nécessaire dès la phase de conception et puis tout au
long du développement (produit ou processus). La prévention prospective concerne bien en-
tendu les services de production et les services connexes, mais elle concerne plus largement
toute la chaîne de la qualité.

Des outils spécifiques comme l'analyse "what if" ou l'AMDEC sont très utiles à ce
stade (ainsi que, comme nous le verrons, l'analyse fonctionnelle des processus).

La prévention prospective s'est révélée indispensable dans tous les projets où une dé-
faillance majeure du produit est impensable, tels l'industrie nucléaire, l'industrie de l'arme-
ment ou encore les programmes spatiaux habités, en fait tous les domaines où la sécurité est
un must absolu.

Mais pourquoi ne pas appliquer ces principes aux autres domaines?

La prévention active, c'est la mise en place des procédures, des méthodes et des outils
requis pour que des défaillances observées ne se reproduisent plus par la suite. Elle doit tenter
d'éliminer les causes de défaillances le plus en amont possible dans le processus.

3.2.4 La mesure.

Aucune définition et aucune appréciation de la conformité ne sont possibles sans me-


sure! La gestion de la qualité, c'est d'abord la gestion de la rigueur et la rigueur passe par la
mesure.

Attention, mesure N'EST PAS contrôle! La mesure est juste la comparaison d'une
caractéristique d'un produit ou d'un processus avec une référence qui a été choisie. C'est un
résultat qui doit être envisagé avec un esprit positif, il indique où on est et dans quelle direc-
tion on doit aller. Dans cet esprit, le seul qui soit acceptable dans le cadre de la gestion de la
qualité, la mesure permet de donner une image objective et correcte de la réalité.

Il faut comprendre que sans mesure, nous sommes ignorants et donc incapables d'ac-
tion et de réaction.

Que faut-il mesurer? TOUT, absolument tout ce qui revêt la moindre importance pour
le produit et le processus. C'est juste une question de volonté, de compétences, de conventions
et de convictions partagées!
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 17 de 23

Il est trop facile d'objecter que ceci ou cela est subjectif, impalpable, indéfinissable,
bref immesurable! Ce n'est souvent qu'une façon de se mettre la tête dans un sac, une fuite en
avant qui sera source inévitable d'erreurs, d'incompréhensions et de conflits tant internes
qu'externes.

Si une caractéristique quelconque d'un produit ou d'un processus est importante, si elle
correspond à un besoin exprimé ou détecté, si elle peut servir à la maîtrise d'un processus ou
la prévention, elle est quantifiable et doit être quantifiée.

Des spécifications et des procédures ne peuvent être définies que sur base de caracté-
ristiques mesurables.

Se doter d'outils de mesure et les utiliser est un pré-requis de toute gestion de la quali-
té.

Rechercher ce qui doit être mesuré et imaginer la façon de le faire est une source im-
portante de progrès. On peut à cet effet réaliser des réunions, des "brainstormings" de services
ou d'entités fonctionnelles d'une entreprise sur ce thème. On y listera les éléments importants
qui doivent être mesurés, on choisira les références et les modes de présentation des résultats.
C'est un élément important de la relation client-fournisseur interne.

Toutes les caractéristiques ne sont, bien entendu, pas mesurables sur une échelle stric-
tement numérique, mais une couleur, un goût, une odeur, par exemple, peuvent très bien être
comparés à des étalons.

Il ne faut pourtant pas non plus pêcher par excès. Trop d'informations peut être nuisi-
ble. Seule l'information qui peut être exploitée et qui est réellement exploitée, est utile!

Ce n'est donc pas un hasard si, comme nous l'avons déjà dit, de nombreux outils de la
gestion de la qualité sont des outils de mesure: l'analyse de pareto, les feuilles d'acquisition de
données, les cartes de contrôle, l'analyse de la valeur, l'analyse des modes de défaillances et
de leur criticité, l'analyse des coûts de la qualité, les audits qualité, etc. en sont autant d'exem-
ples.

Il est certain que de nombreuses mesures peuvent être entachées de variations aléatoi-
res et leur interprétation correcte ne peut se faire que par l'approche statistique. C'est d'ailleurs
une des premières disciplines qui a été développée dans le cadre de l'amélioration de la qua-
lité. Les outils ainsi mis au point concernent non seulement les produits (contrôles statistiques
de réception) mais aussi les processus (cartes de contrôle, capabilité des procédés, ...).
Nous affirmons donc que la MESURE est une condition nécessaire à la gestion de la
qualité (elle n'est malheureusement pas suffisante).
FACULTE POLYTECHNIQUE LA QUALITE Chapitre III
Vision Systémique de la Qualité
DE MONS PRINCIPES GENERAUX. Page 18 de 23

3.3 L'excellence

L'excellence devrait être la devise de toute entreprise qui se targue de faire de la ges-
tion totale de la qualité.
On devrait d'ailleurs plutôt parler de la "recherche de l'excellence" tant il vrai qu'il y a
une part d'utopie dans ce concept, mais une utopie mobilisatrice qui désigne à tous l'objectif
commun qu'il faut viser.
L'excellence n'est pas le perfectionnisme, mais simplement la volonté de "BIEN
FAIRE DU PREMIER COUP CE QUI DOIT ETRE FAIT". C'est aussi le désir de "FAIRE
ENCORE MIEUX PAR LA SUITE" pour satisfaire au mieux tous les clients.

Pour préciser la notion d'excellence, les qualiticiens ont inventé le célèbre symbole des
"cinq zéros olympiques". C'est vrai que l'excellence vise à l'élimination radicale de tous les
défauts, de toutes les lourdeurs, du superflu, de l'inutile, voire du dangereux. Mais il est évi-
dent qu'on peut ainsi inventer autant de "zéros" que l'on veut (zéro accident, zéro mépris, zéro
ignorance, ...) mais tous se résument finalement en un seul : "ZERO NON-QUALITE" !
On ne saurait trop conseiller au lecteur de lire des ouvrages comme ceux de Peters et
Waterman [5]. Ils y trouveront, à longueur de pages, des exemples et des contre-exemples
d'excellence. Ces auteurs résument d'ailleurs leur pensée en huit principes élémentaires qui
constituent, pour eux, les caractéristiques des entreprises qui ont mis en pratique la recherche
de l'excellence. Ces principes frappent par leur simplicité mais leur mise en oeuvre est sou-
vent des plus difficiles :

1) Prendre le parti de l'action 5) Se mobiliser autour de valeurs-clé


Agir avant tout, ne pas se laisser paralyser par Avoir des valeurs simples, bien comprises et
une analyse stérile, tester, expérimenter et partagées de tous les travailleurs et qui consti-
mettre en oeuvre ce qu'on a déjà trouvé. tuent le moteur de toute l'activité (la qualité
2) Rester à l'écoute du client des produits est une de ces valeurs).
Le "client est roi". C'est l'objectif de toute 6) Coller à son métier
l'activité de l'entreprise, tous les travailleurs Eviter l'aventure dans des domaines qu'on
doivent l'avoir compris et agir en consé- connaît mal. Partir de ce qu'on sait bien faire
quence. pour innover.
3) Favoriser l'autonomie et l'esprit d'in- 7) Préserver une structure simple et légère
novation La lourdeur administrative est le pire ennemi
Ne pas brider les individus en étouffant toute de l'excellence. La structure décisionnelle doit
créativité. Etre ouvert aux innovations et favo- demeurer simple et comporter peu de niveaux.
riser leur éclosion. Non seulement les décisions s'y prennent plus
4) Tenir son personnel pour l'essentiel de vite mais les relations interfonctionnelles y
l'entreprise sont plus faciles.
Ce sont les travailleurs qui sont la source maî- 8) Allier souplesse et rigueur
tresse de la qualité. Chaque travailleur pos- L'autonomie, l'auto-contrôle, la responsabilité
sède un cerveau! Il n'y a plus ceux "qui pen- partagée imposent la souplesse. Mais ces mê-
sent" et ceux "qui exécutent". Toute l'in- mes raisons imposent la rigueur. La souplesse
telligence de l'entreprise est mobilisée pour la dans les relations interfonctionnelles, la ri-
satisfaction des clients. Respecter tous les gueur dans le travail de chacun.
individus.

L'excellence est donc avant tout un état d'esprit, l'ESPRIT de la QUALITE.


FACULTE POLYTECHNIQUE LES DEFIS DE LA QUALITE Troisième Partie
Vision Systémique de la Qualité
DE MONS (cours 110 - version 9701) Page 19 de 23

3.4 La responsabilité

La conformité, la mesure, l'excellence n'ont aucune chance de succès dans un univers irres-
ponsable. Ce ne sont plus quelques individus "supérieurs" ("ceux qui pensent" du taylorisme) qui
font le succès d'une entreprise, mais l'ensemble des acteurs, tous ensemble.

La responsabilité n'est pas (plus) l'écrasant poids du risque de l'erreur qui vous fera montrer
du doigt et donc que l'on essaye de cacher si elle survient. Non, c'est simplement la définition
claire et sans ambiguïté des tâches de chacun, de ce qu'il doit faire mais aussi de ce qu'il peut at-
tendre des autres. La responsabilité, c'est traiter tous les travailleurs en adultes responsables, capa-
bles d'initiatives et d'intelligence (cf reconnaissance de l'individualité). La responsabilité, c'est l'ex-
pression la plus évidente de la relation client-fournisseur interne.

La responsabilité implique aussi la capacité à remplir les engagements qu'on attend d'un
travailleur quelconque. L'adéquation à la tâche est aussi un élément essentiel en Gestion de la Qua-
lité. Elle implique que chacun doit être formé et doit parfaire sa formation. Nous y reviendrons
dans notre dernière partie.

La responsabilité n'est finalement rien d'autre que l'application de la reconnaissance de


l'individualité dont nous avons parlé plus haut. La responsabilité est une façon opérationnelle de
répartir la complexité dans l'entreprise, c'est-à-dire à la fois de générer de la variété et d'introduire
de la coordination.

En fait, ainsi que nous l'avons déjà dit, ce sont les travailleurs qui sont l'entreprise
et, dès lors:

Le succès sera obtenu en commun ou il n'y aura pas de succès!


FACULTE POLYTECHNIQUE LES DEFIS DE LA QUALITE 3ème Partie
DE MONS (cours 110 - version 9701) Page 20 de 23

IV. CONCLUSIONS

Celui qui possède un pourquoi qui le fait vivre, peut


supporter tous les comment. Nietzsche
Et pourquoi ne prendrait-on pas ses rêves pour des
réalités?... juste le temps de construire un monde.
Joël de Rosnay [3]

Nous l'avons vu, tout part bien entendu de la qualité du produit, ... mais quel que soit ce pro-
duit et dans tous ses aspects. Le but ultime de l'entreprise est de satisfaire au mieux tous ses clients,
ce qui implique certes des choix économiques, stratégiques, politiques mais aussi sociaux, culturels
et, in fine, éthiques.
Pourtant, de grâce, évitons de nous tromper de cible, de nous soumettre à un effet de mode
ou, pire encore, d'être les complices d'une quelconque opération de "récupération".
Ainsi, nous savons que la "Productivité" est depuis longtemps (bien avant Taylor déjà) un
leitmotiv dans les entreprises. L'élimination des coûts de la non-qualité, l'auto-contrôle, la chasse à
"l'usine fantôme", le "zéro défaut" constituent, dans ce domaine, un apport certain de l'approche
qualité. Mais les considérations trop étroitement économiques, souvent à très courte vue, ne peuvent
plus tout justifier. Les pollutions insidieuses, cachées ou sauvages, la déshumanisation exagérée des
services, les délocalisations abusives seront de plus en plus difficilement justifiables et admises. Il
est, en outre, des types d'entreprises, sans réelle vocation économique (services publics, hôpitaux,
écoles,...), où le concept même de productivité s'applique mal (mais où le concept qualité peut pren-
dre toute sa dimension). Les défis de la qualité ne sont certainement pas là.

Ainsi, également, la "Certification Produit" est un outil utile, voire indispensable. Cepen-
dant rejetons le syndrome de la labelisation forcenée. Rappelez-vous cette publicité qui, il y a quel-
ques années, nous vantait les mérites du "vrai jus de fruits". Pourquoi pas un "vrai jus de vrais
fruits", par opposition aux "faux jus de vrais fruits" et bien sûr aux "faux jus de faux fruits"!
Contentons-nous simplement d'une définition (normative) du jus de fruit et tentons d'établir un lien
de confiance avec les clients par une information juste et transparente, sans nous croire obligés de
faire compliqué là où on peut faire simple. Les défis de la qualité ne sont que partiellement là.

Il en va également ainsi pour ce qui concerne la "Certification Système". Il ne faudrait bien


sûr pas balayer les aspects normatifs de l'assurance qualité sous prétexte qu'ils vont de soi. La Certi-
fication "ISO 9000" est un outil merveilleux et qu'il faut promouvoir, mais ce n'est malgré tout
qu'un outil. Certes, bien des organisations découvrent aujourd'hui la Gestion de la Qualité par le
seul biais de l'Assurance Externe de la Qualité. Sous la pression de leurs clients, le plus souvent,
elles entreprennent les démarches pour conquérir une certification ISO 9000. C'est une démarche
certes importante, mais il ne faut pas que l'arbre cache la forêt! La certification ISO 9000 ne con-
cerne qu'une partie réduite de l'approche Qualité Totale. Ce n'en est que l'aspect orienté vers le
client externe de l'entreprise. Il est nécessaire, mais il est loin d'être suffisant. Les défis de la qualité
ne s'y retrouvent qu'incomplètement.

En fait, les vrais défis de la qualité sont bien plus larges. L'entreprise, et la Société dans son
ensemble, sont des construits sociaux. Il ne s'agit pas d'un inéluctable phénomène naturel, ni, da-
vantage, d'une structure logique résultant d'un modèle rationnel. Ce n'est rien d'autre que la solution
FACULTE POLYTECHNIQUE LES DEFIS DE LA QUALITE 3ème Partie
DE MONS (cours 110 - version 9701) Page 21 de 23

spécifique que des acteurs relativement autonomes ont créée pour résoudre les problèmes de l'action
collective. 5

C'est là qu'il faut situer le concept de la qualité, en tant qu'outil systémique et consensuel de
l'action collective. La Gestion de la Qualité s'articule, en effet, autour de trois composantes indisso-
ciables et qui en font toute la richesse.

- une composante technico-économique


Méthode moderne de gestion des processus, la Gestion de la Qualité induit la compétitivité
et une meilleure rentabilité en exploitant les gisements internes de productivité (élimination des
coûts de non-qualité), en libérant des forces productives autrement utilisées (e.g. à la rectification
de défauts dus à un manque de qualité) et en permettant une meilleure prise en compte de l'environ-
nement économique (besoins réels du client, relation Client-Fournisseur externe). C'est le domaine
privilégié de l'Assurance de la qualité.
- une composante sociale
Méthode moderne de gestion des ressources humaines, la Gestion de la Qualité instaure des
modes de participation et d'expression nouveaux, comme, notamment, le management participatif et
la généralisation de la relation Client-Fournisseur interne. Considérer l'étape, le processus suivant,
comme un client avec qui il faut dialoguer pour le satisfaire (pour satisfaire, finalement, le client
externe), modifie radicalement le fonctionnement interne de l'entreprise et y introduit un dy-
namisme nouveau. En outre elle institutionnalise la formation permanente du personnel.
- une composante culturelle
Modèle de progrès pour tous, la Gestion de la Qualité propose une approche claire de l'en-
treprise, système ouvert sur un environnement avec lequel elle interagit en permanence, qui dépend
d'elle et dont elle dépend. Elle offre aussi une vision originale et intégrative de l'entreprise comme
celle d'un construit social à réelle complexité humaine.

Fig. 4.1 Les trois composantes de la gestion de la qualité

5 Voir "l'Acteur et le Système" de M. Crozier et E. Friedberg [6].


FACULTE POLYTECHNIQUE LES DEFIS DE LA QUALITE 3ème Partie
DE MONS (cours 110 - version 9701) Page 22 de 23

Il ne s'agit pas de construire un nouveau "one best way" mais, au contraire, de s'éloigner dé-
finitivement des concepts tayloriens de l'entreprise.

Certes la Gestion de la Qualité foisonne d'outils pragmatiques ainsi que de préceptes métho-
dologiques inspirés par ses divers "gourous", mais ce serait une erreur de confondre l'esprit avec la
lettre.

Car c'est bien de cela qu'il s'agit, la Qualité, c'est avant tout un mode de pensée, un état d'es-
prit : l'ESPRIT QUALITE.

Il se fonde sur deux concepts fondamentaux:

* L'homme, acteur du système, quel que soit son rang ou sa fonction, est la vérita-
ble pierre angulaire de l'entreprise. Celle-ci doit être comprise comme un cons-
truit social à complexité humaine.
* L'entreprise est un réseau fortement maillé de relations clients-fournisseurs inté-
gré dans un réseau plus vaste encore, la Société dans son ensemble. L'entreprise
est donc un système ouvert constitué de sous-systèmes hiérarchisés mais par-
tiellement autonomes.

OOOOOOOOOOOOOOOOOO
FACULTE POLYTECHNIQUE LES DEFIS DE LA QUALITE 3ème Partie
DE MONS (cours 110 - version 9701) Page 23 de 23

V. BIBLIOGRAPHIE.

[1] BACHELARD Gaston, "LA FORMATION DE L'ESPRIT SCIENTIFIQUE", Vrin, Paris; 1970.

[2] MELESE Jacques, "APPROCHES SYSTEMIQUES DES ORGANISATIONS", Editions Hommes


et Techniques, Paris, 1979.

[3] de ROSNAY Joël, "LE MACROSCOPE", Editions du Seuil, Point, Paris, 1975.

[4] PERIGORD Michel, "REUSSIR LA QUALITE TOTALE", Les Editions d'Organisation Paris,
1987.

[5] PETERS T. et WATERMAN R., "LE PRIX DE L'EXCELLENCE", InterEditions, Paris, 1983.

[6] CROZIER M. et FRIEDBERG E., "L'ACTEUR ET LE SYSTEME", Editions du Seuil, Paris,


1977 (réédité dans la Collection Points Essais en 1992).
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 1 de 12

PRINCIPES DE SYSTEMIQUE

Le qualificatif "systémique" semble le seul, à l'heure actuelle,


qui désigne des approches ouvertes, souvent interrogatives et
non des attitudes normatives et prescriptives, ce qui
n'empêchera pas de déduire de ces approches des modes
d'analyse et des démarches d'intervention.
Jacques Mélèse

I. INTRODUCTION. [1,2]

1.1 L'ordre, le désordre, l'organisation et la complexité

L'ordre, maître-mot de la science classique a voulu régler la course de l'atome, celle de la


Voie Lactée et celle des espèces vivantes. De Galilée à Kepler, de Newton à Laplace, en passant par
Darwin, le monde était tombé sous la coupe de lois rationnelles, simples et précises, les lois de
l'ordre. La rationalisation scientiste et simpliste du 19ème siècle promettait le bonheur aux hommes
au travers de ces lois ultimes. Transposée dans le monde social et celui des entreprises, elle a
engendré le taylorisme. Tout semble presque en place, l'ordre va enfin pouvoir régner partout.1 Cet
idéal de l'ordre s'affirme dans la vision du monde de Laplace. Alors que Descartes et Newton
avaient encore besoin de Dieu pour expliquer un monde conçu comme une parfaite machine
déterministe, Laplace finit par éliminer Dieu lui-même. Lorsque Napoléon lui demande: "mais où
est Dieu dans votre système Monsieur de Laplace?", ce dernier répond : "Sire, je n'ai pas besoin de
cette hypothèse!". En fait, il avait juste besoin d'un démon.2

Soudain, vers 1850, une petite poche de désordre se fait jour au sein même de l'ordre
physique. Par Carnot et Clausius, le second principe de la thermodynamique introduit la notion de
dégradation de l'énergie (pas une déperdition de l'énergie qui contredirait le premier principe). Pire,
Boltzmann, Gibbs et Planck vont montrer que ce principe de dégradation de l'énergie correspond en
fait à une dégradation de l'ordre. La maximalisation de l'entropie est une maximalisation du
désordre. Désordre s'identifie avec la plus grande probabilité d'état pour un système
thermodynamique clos. Naît ainsi le premier anthropophage naturel de l'ordre, l'entropie. Certes, le
démon de Maxwell 3 semble offrir une certaine maîtrise du désordre, en outre la dégradation de
l'énergie semble principalement concerner les systèmes clos, même si les systèmes ouverts
pourraient néanmoins être concernés. La percée du désordre semble limitée. Elle n'est qu'un sous-
produit sans grande importance qui peut être remisé dans les placards de la physique. L'ordre
continuera à régner sur le monde.
Mais voici qu'en 1900 une nouvelle brèche s'ouvre, cette fois dans les bases mêmes de la
physique atomique. Le petit monde bien sage de Rutherford, ce microscopique système solaire avec
ses électrons gravitant autour d'un noyau, aussi ordonné que le système astral, se voit à son tour

1 Lord Kelvin déplorait d'ailleurs, à la fin du siècle dernier, que les jeunes scientifiques n'aient plus rien d'intéressant à
trouver.
2 Le "démon" de Laplace, être imaginaire, situé en un endroit tel qu'il puisse observer tout l'univers et, connaissant ses
lois, d'en déduire tous les événements passés et futurs. Le déterminisme parfait.
3 Un autre "démon" de la physique qui serait capable de trier les molécules "chaudes" et "froides" et pourrait ainsi créer
un événement hautement improbable: faire, à partir d'eau tiède, de l'eau chaude d'une part et de l'eau froide d'autre part.
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 2 de 12

perturbé. La symétrie parfaite entre le microscopique et le macroscopique disparaît. Planck introduit


la notion discontinue du quantum énergétique. La recherche de la brique élémentaire constitutive de
tout l'univers, après la molécule, l'atome puis les particules plus élémentaires, cette brique elle-
même finit par disparaître. Heisenberg rendra cette particule "floue" par son principe d'incertitude et
même l'équation de Schrödinger n'enlèvera rien à cette indétermination radicalement non-
déterministe. Ce désordre est différent de celui du second principe, car il ne résulte pas cette fois
d'une dégradation, mais il est constitutif de la matière.

Heureusement, on peut encore le limiter aux couches profondes de la micro-physique.


L'ordre va encore pouvoir régner sur le monde. N'est-il pas illustré par la machine cosmique,
absolue et éternelle?

Pourtant, à partir de 1920, cet univers bien réglé va soudain s'agrandir au-delà de toute
limite car on découvre des galaxies par milliers. En 1930, Hubble note le déplacement vers le rouge
de la lumière émise par les galaxies les plus lointaines et fournit la première base empirique de
l'expansion de l'univers. En 1965, est capté un rayonnement isotrope qui baigne tout l'univers. Ce
bruit de fond thermique (à 3 K) semble correspondre au résidu fossile d'une incroyable explosion
qui se serait produite il y a plusieurs milliards d'années, c'est l'écho du Big-Bang (hypothèse
introduite dès 1927 par le belge G. Lemaître). L'univers bien ordonné de Copernic est le fruit d'une
catastrophe et le grand ballet stellaire n'est qu'un sauve-qui-peut général.

"... Nous n'avons plus un univers raisonnable, ordonné, adulte, mais quelque chose qui semble
encore dans les spasmes de la Genèse et déjà dans les convulsions de l'agonie.
Le pilier physique de l'ordre était rongé, miné par le deuxième principe. Le pilier micro-physique de
l'ordre s'était effondré. L'ultime et suprême pilier, celui de l'ordre cosmologique, s'effondre à son tour
...
Mais dès lors se pose un problème insoupçonné, fabuleux. Si l'univers est diaspora explosive,
si son tissu microphysique est désordre indescriptible, si le second principe ne reconnaît qu'une seule
probabilité, le désordre, alors comment se fait-il que la Voie Lactée comporte des milliards de soleils,
comment se fait-il que nous ayons pu repérer 500 millions de galaxies, comment se fait-il que nous
puissions chiffrer éventuellement à 1073 le nombre d'atomes de l'univers visible? Comment se fait-il
que nous ayons pu découvrir les lois qui régissent les astres, les atomes et toutes choses existantes?
Comment se fait-il qu'il y ait eu développement de l'organisation dans le cosmos, des atomes aux
molécules, macro-molécules, cellules vivantes, êtres multicellulaires, jusqu'à l'esprit humain qui se
pose ces problèmes?"
E. Morin - La méthode tome I.

Mais il y a d'autres drames qui attendent la logique mécaniste et positiviste. Depuis


Descartes (et même peut-être Aristote), la science se fondait sur l'élimination de l'observateur par
rapport à l'observé. Partant du principe, ma foi assez logique, que l'observé existait indé-
pendamment de l'observateur, la Science postulait, qu'en s'y prenant bien, on pouvait décrire un
univers composé de faits objectifs, purgé de tout jugement de valeurs, de toutes déformations
subjectives. Hélas, trois fois hélas, la physique, la chimie, la biologie, la sociologie ont dû admettre
qu'il n'y a pas de mesure sans déformation de l'objet mesuré. Ces limitations ne sont pas seulement
dues au fait qu'il est impossible d'observer un phénomène sans le perturber (par exemple, si vous
voulez observer un système thermodynamiquement clos, le simple fait de l'observation en fait un
système ouvert), mais en outre au fait même que l'instrument de mesure ne donne qu'une vision
imparfaite et limitée du phénomène. Il y a donc toujours dualité entre l'observé et l'observateur. Le
principe de disjonction ne fonctionne plus.
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 3 de 12

"Ainsi le monde est à l'intérieur de notre esprit, lequel est à l'intérieur du monde."
comme le dit E. Morin [2].

C'est ainsi que le passé, la formation, la culture même de l'observateur interviennent dans
l'observation. Cette dernière remarque est essentielle dans le domaine de la sociologie et de l'étude
des entreprises.

Comme nous le disions, dans notre chapitre consacré à l'historique de la qualité, le


rationalisme du 19ème siècle paraissait trop bien ordonné, un peu trop "petit bourgeois" face à la
réalité. Ce n'est pas seulement dans les aspects sociaux, mais dans l'ensemble de l'univers que le
chaos fait son apparition.
Si nous nous arrêtons à ces constats d'échecs, alors l'univers ne serait qu'une bouillie
inintelligible, il n'y aurait plus rien à dire ... nous ne serions d'ailleurs pas là pour le dire !

Pourtant comme on peut l'observer dans tous les domaines, des lois, des règles, un certain
ordre semble présent. Les étoiles et l'atome existent, les molécules ont formé les macro-molécules,
la vie est née d'abord monocellulaire puis pluricellulaire, l'homme, enfin, pour le meilleur ou pour le
pire est apparu et a pu construire une Société. Tout cela au départ d'un cataclysme sans nom, d'un
chaos indescriptible et d'une tendance au désordre apparemment sans espoir.
C'est que l'ordre peut naître du désordre, ou plus exactement, le désordre peut être organi-
sateur. C'est notamment la théorie moderne de la thermodynamique des phénomènes irréversibles,
notamment due à Prigogine, mais aussi la théorie de l'information (Shannon) et plus récemment
encore les théories du chaos qui nous ouvrent la voie de la compréhension. Le désordre, au travers
des interactions qu'il suscite, peut conduire à l'organisation et donc à l'ordre [1,4].

Figure 1.1 L'ordre peut naître du désordre


FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 4 de 12

L'aptitude à l'organisation, fruit d'interactions, est congénitalement imbriquée à la notion de


complexité et de système.
C'est la complexité qui est génératrice d'ordre à partir du désordre et c'est précisément la
systémique qui permet d'aborder ce problème. Attention, l'organisation se constate parfois plus
qu'elle ne s'explique.

Figure 1.2 Désordre, interactions, organisation, ordre et complexité

On peut dire, en suivant E. Morin, que "l'organisation est l'agencement de relations entre
composants ou individus qui produit une unité complexe ou systémique, dotée de qualités inconnues
au niveau des composants ou individus. L'organisation lie de façon interrelationnelle des éléments
ou événements ou individus divers qui, dès lors, deviennent les composants d'un tout. Elle assure
solidarité et solidité relative, donc assure au système une certaine possibilité de durée en dépit de
perturbations aléatoires". (E. Morin [1])

L'organisation n'existe que parce qu'elle est dynamique et que le système est ouvert.

Le passage étonnant du désordre à l'ordre au travers des phénomènes d'interaction et


d'organisation ainsi que l'ensemble des phénomènes qu'il recouvre sont souvent agrégés dans le
concept de complexité. Au premier abord, la complexité est un tissu de constituants hétérogènes
inséparablement associés: elle pose le paradoxe de l'un et du multiple. Au second abord, la
complexité est effectivement le tissu d'événements, actions, interactions, rétroactions, détermi-
nations et aléas qui constituent le monde phénoménal et qui ne peut se comprendre que par une
vision systémique. Contrairement à Lord Kelvin, nous sommes aussi obligés d'admettre que tout
n'est pas encore compris ni expliqué.
Organisation et complexité semblent donc être les clés de la réalité, mais pourquoi ne s'en
est-on pas rendu compte plus tôt? Il semble bien que ce soit dû en grande partie à l'influence de la
pensée cartésienne sur l'occident.
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 5 de 12

1.2 Le discours de la méthode. [5]

A nouveau, c'est dans la perspective historique qu'il nous faut chercher la nature des
concepts qui nous guident encore aujourd'hui.

C'est en 1637 que Descartes publie le "Discours de la méthode pour bien conduire sa
raison", pierre angulaire de la pensée occidentale pendant trois siècles et qui nous assurait, par la
magie de l'écriture, d'une de nos trop rares certitudes. Le sage Descartes a pris soin de ramasser en
une page les quatre préceptes qui fondent sa méthode (le "Discours" en fait plus de cent).

Les quatre préceptes du "Discours de la Méthode"(1637)

"Le premier était de ne recevoir jamais aucune chose pour vraie que je la connusse
évidemment être telle, c'est-à-dire d'éviter soigneusement la précipitation et la
prévention, et de ne comprendre rien de plus en mes jugements que ce qui se
présenterait si clairement et si distinctement à mon esprit que je n'eusse aucune
occasion de le mettre en doute."
"Le second, de diviser chacune des difficultés que j'examinerais en autant de parcelles
qu'il se pourrait et qu'il serait requis pour mieux les résoudre."
"Le troisième, de conduire par ordre mes pensées en commençant par les objets les plus
simples et les plus aisés à connaître, pour monter peu à peu comme par degrés jusques
à la connaissance des plus composés, et en supposant même de l'ordre entre ceux qui ne
se précèdent point naturellement les uns les autres."
"Et le dernier, de faire partout des dénombrements si entiers et des revues si générales
que je fusse assuré de ne rien omettre."

Voyons comment on peut, plus de trois siècles et demi après, analyser ces quatre préceptes.

Sur le premier précepte, dit précepte d'évidence, tant de choses ont déjà été dites et écrites.
Les évolutions de la science, de la pensée, des moeurs et de la société toute entière montrent à quel
point la seule évidence qui soit est celle de notre incertitude. Il semble plus judicieux de s'en tenir à
un principe beaucoup plus relatif, celui de la pertinence de nos hypothèses par rapport aux objectifs
poursuivis, c'est-à-dire par rapport aux finalités du modèle qu'on construit.

Le second précepte, dit précepte réductionniste, semble plus solidement verrouillé: l'analyse,
cette décomposition en autant de parcelles qu'il se pourrait, est devenue synonyme de la méthode.
En fait, Leibniz avait déjà fait remarquer que cette règle est de peu d'utilité si l'art de diviser reste
inexpliqué (une mauvaise division pourrait rendre les choses encore plus compliquées!). Mais c'est
peut-être plus encore la faillite de la science "rationaliste" du 19ème siècle qui montre l'insuffisance
du précepte réductionniste. Pris dans son sens le plus étroit, il oublie que la partie est élément d'un
ensemble et ne peut sans doute se comprendre qu'en relation avec cet ensemble. C'est une des bases
de l'approche systémique.

Inclus dans le troisième précepte, se trouve le précepte dit causaliste. Il y voit un


déterminisme nécessaire entre une cause et un effet. Il va même jusqu'à vouloir introduire de l'ordre
là où il n'y en a peut-être pas ("en supposant même de l'ordre entre ceux qui ne se précèdent point
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 6 de 12

naturellement les uns les autres."). Cette approche ne peut être que simpliste dans la mesure où elle
ignore les phénomènes complexes de rétroaction et de régulation.

Le dernier précepte, celui d'exhaustivité, est tellement irréaliste, pris en son sens premier,
qu'il est inutile d'en faire le procès. Comment pourrait-on être assuré de ne rien omettre, alors que
l'expérience de tous les jours nous montre que ce sont les omissions passées qui font les progrès
d'aujourd'hui. Il faut, au contraire admettre qu'on est obligé d'omettre et le souligner, de façon à ce
que, si notre modèle semble insatisfaisant, nous puissions en chercher les raisons dans les omissions
intentionnelles que nous avons faites, avant de chercher les inévitables omissions non-
intentionnelles.

"Nous vivons sous l'empire des principes de disjonction, de réduction et


d'abstraction dont l'ensemble constitue ce que j'appelle le paradigme de simplification.
Descartes a formulé ce paradigme maître d'Occident, en disjoignant le sujet pensant
(ego cogitans) et la chose étendue (res extensa), c'est-à-dire philosophie et science, et
en posant comme principe de vérités les idées 'claires et distinctes', c'est-à-dire la
pensée disjonctive elle-même."
E. Morin - Introduction à la pensée complexe. [2]

Faut-il alors rejeter le discours de la méthode aux poubelles de l'histoire? Nous ne le croyons
pas. Il offre, en partie, une approche de modélisation (c'est-à-dire de représentation du monde) qui a
ses mérites, à condition d'en admettre les limites, de les placer dans un contexte plus vaste. Il
constitue une étape importante de la pensée humaine mais en faire un absolu invariant serait une
erreur.

Le cheminement et les raisonnements qui nous sont apparus dans le domaine des sciences
"classiques" ont également fait leur nid dans le domaine des entreprises. Nous comprenons mieux
l'avènement du taylorisme et nous pouvons maintenant analyser les racines de l'organisation
scientifique du travail qui applique strictement les préceptes cartésiens.
Mais nous l'avons également vu, des bulles de désordre sont également apparues dans ce
domaine, notamment suite aux travaux de l'Ecole de Relations Humaines et ses observations
"contre-intuitives" (preuve, notamment, de l'influence de l'observateur sur l'observé).
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 7 de 12

II. ELEMENTS DE SYSTEMIQUE.


Un système est un ensemble d'éléments en interaction
dynamique organisés en fonction d'un but.
Joël de Rosnay [6]
2.1 Introduction [6,7]

La systémique est un mode de pensée et d'analyse scientifique qui se veut rationnelle mais
non-cartésienne ou plutôt post-cartésienne. Elle rassemble syncrétiquement les éléments les plus
divers, parfois excellent bouillon de culture mais parfois aussi source de confusions.
Néanmoins, cet amalgame a suscité des contributions très fécondes de par leur diversité même.

Un des premiers champs d'action de la théorie des systèmes fut la cybernétique. Norbert
Wiener, professeur de mathématiques au MIT depuis 1919, travaille, en 1940, avec un jeune
ingénieur, Julian Bigelow, au développement d'appareils de pointage automatique pour canon
antiaérien. Face au comportement de cet équipement (son "intelligence" et ses "maladies"), Wiener
en déduit que, pour contrôler une action finalisée, l'information doit circuler en boucle fermée.
Wiener et Bigelow découvrent ainsi la boucle de rétroaction (négative) ou feedback. L'analyse
parallèle des organismes vivants avec le regard du constructeur de servo-mécanismes et,
réciproquement, des servo-mécanismes avec l'expérience du physiologiste crée la cybernétique. A
partir de 1948 (date de parution de l'ouvrage Cybernetics [8] de Wiener), cette approche connaît un
succès considérable. La cybernétique est à la fois science de la machine (elle introduit les notions
de boîte noire et de feedback) et aussi science de l'organisation. Elle insiste sur la notion de finalité,
mettant l'accent plus sur le but poursuivi que sur les causes (post-taylorien).

On doit à un biologiste, von Bertalanffy, (General System Theory 1954 [9]) d'avoir donné
pertinence et universalité à la notion de système, d'avoir considéré le système comme un tout non
réductible aux parties, d'avoir abordé certains problèmes organisationnels à travers les notions de
hiérarchie, d'avoir exploité la notion de système ouvert. C'est le père spirituel de la systémique. Son
analyse se limite cependant pour l'essentiel aux systèmes rencontrés dans la nature.

Une troisième contribution fondamentale à la théorie des systèmes porte sur le concept
d'information. Ce sont à nouveau des chercheurs de la Bell Telephone qui en ont dégagé les
principes : Shannon et Weaver (The Mathematical Theory of Communication, 1948 [10]). Cette
théorie est applicable à la transmission de tout signal et concerne aussi bien la téléphonie que la
linguistique ou le système nerveux. Il faut noter le parallélisme qui existe entre la définition de
l'entropie d'un système d'une part et la définition du contenu informationnel selon Shannon. Ce
parallélisme a conduit à considérer l'information comme une "négentropie". A nouveau
l'organisation naît du désordre par le jeu des interactions.

Jay W. Forester a travaillé sur les premiers ordinateurs au MIT. C'est lui qui a développé les
premières mémoires magnétiques. Par la suite, chargé par l'Air Force des USA de développer un
système d'alarme et de défense (guerre froide 1952 - protection du territoire américain contre des
attaques balistiques) mettant en oeuvre radars, hommes et ordinateurs, il réalise l'importance de
l'approche systémique dans la conception et le contrôle d'organisation complexe faisant intervenir
des hommes et des machines "en temps réel". Il créera en 1961 la "dynamique industrielle" qui est
la première application de la systémique aux entreprises (Industrial Dynamics [11]). Il étendra par
la suite cette approche aux systèmes urbains (Urban Dynamics - 1964 [12]). Il étendra encore ses
concepts en 1971 dans son ouvrage World Dynamics [13] qui sera à la base des travaux du célèbre
Club de Rome.
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 8 de 12

2.2 Généralités sur les systèmes

Il faut prendre garde lorsqu'on aborde la systémique à ne pas basculer dans des visions soit
trop organistes (calquées sur les organismes vivants), soit trop inspirées du modèle naturel
(écosystème) soit, enfin, trop mécanistes (inspirées de la cybernétique)

Définir, nous le savons, c'est souvent appauvrir. C'est littéralement le cas lorsqu'on aborde
une notion "complexe" comme celle de système. Nous essayerons cependant de présenter une
définition, mais en mettant bien en garde le lecteur sur le fait qu'il ne peut s'agir que d'une ébauche,
d'une esquisse de la réalité.

Un système est un ensemble complexe d'éléments en interaction dynamique, organisés


pour réaliser une ou des transformations. Il est inclus dans un environnement avec lequel il
entretient des échanges (Intrants et Extrants).

Les interactions entre les éléments du système et entre le système et l'environnement sont
multiples et plus complexes que la causalité linéaire, il existe notamment des phénomènes de
rétroaction. En général un système ne peut s'expliquer par des simples liens de causalité évidente.

Les systèmes sont en général dotés de finalité. Ainsi des machines ou des objets peuvent
avoir des finalités fixées par leur environnement. D'autres systèmes ont des finalités propres mais
leurs éléments n'en ont pas. Enfin, dans certains systèmes, l'ensemble et les parties ont leurs propres
objectifs face à l'environnement et au sein du système lui-même. Les systèmes doivent
généralement être considérés comme des ensembles hiérarchisés.

Souvent, on regardera un système ou les éléments qui le composent, comme des boîtes
noires ou grises, c'est-à-dire des ensembles dont il est difficile ou inutile d'analyser la structure
interne, mais qu'on aborde par leurs intrants, extrants et finalités suivant un modèle qui les
représente de façon suffisamment pertinente par rapport à l'objectif poursuivi.

La systémique s'oppose partiellement à la démarche cartésienne. Cette dernière admet qu'il


est possible d'étudier un ensemble en le décomposant en éléments suffisamment petits pour être
décrits complètement et, qu'en outre, la connaissance de tous ces sous-systèmes suffit pour
comprendre, ensuite, le système dans son entièreté.
Au contraire, la systémique prétend qu'il est, en général, impossible (ou inutile) de
décomposer un système en éléments suffisamment simples pour pouvoir être analysés exhausti-
vement. En outre, elle réfute que la connaissance des éléments d'un système suffise pour construire
une image pertinente du tout et de son fonctionnement. Elle privilégie la dynamique d'un système et
les relations entre ses éléments.

Le tout est plus que la somme des parties et la partie est plus qu'une fraction du tout.
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 9 de 12

2.3 Organisation et complexité

L'organisation peut être considérée comme le concept central de la systémique. Qu'est-ce


que l'organisation? C'est d'abord un agencement de relations entre composants ou individus qui
produit une nouvelle unité possédant des qualités que n'ont pas ses composantes. L'organisation est
donc un des aspects essentiels du système.

L'organisation revêt deux aspects, qu'il faut généralement examiner séparément: un aspect
structurel et un aspect fonctionnel.

La logique cartésienne voulait simplifier tous les phénomènes en éliminant l'inconnu,


l'aléatoire ou l'incertain. Mais en fait, la complexité est partout, dans tous les systèmes (voir théorie
du chaos), et il est nécessaire de conserver cette complexité, quitte à admettre qu'on ne puisse en
saisir et en comprendre toute la richesse. Le degré de complexité d'un système dépend du nombre et
du type de ses éléments ainsi que des types de relations qui les relient. Il caractérise l'originalité
d'un système et la richesse de l'information qu'il contient. La complexité, qu'il ne faut pas confondre
avec la complication, apparaît ainsi comme une dimension essentielle et universelle des systèmes.

Notons que la théorie des systèmes est aussi une théorie de l'organisation [5].

2.4 La structure des systèmes [14]

Sous un aspect structurel, un système comprend quatre composants principaux (Fig. 2.1):

* une frontière qui le sépare de son environnement et qui est plus ou moins perméable (définition
d'un système pertinent).
* des éléments qui peuvent être identifiés, classés et éventuellement hiérarchisés.
* des réseaux de transport et de communication qui véhiculent matière, énergie ou information.
* des réservoirs qui servent au stockage de matières, d'énergie ou d'information

Environnement
Frontière
Réseaux

Eléments et
réservoirs
INTRANTS EXTRANTS
Figure 2.1 Système: aspects structurels
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 10 de 12

Sous un aspect fonctionnel, on reconnaîtra dans un système (Fig. 2.2):

* des flux de diverses natures qui circulent dans les réseaux et transitent dans les réservoirs du
système.
* des centres de décision qui reçoivent des informations et les transforment en actions qui
peuvent agir sur les flux mais aussi sur la structure du système.
* des boucles qui induisent des phénomènes de rétroaction (feedback) et participent au contrôle
du système (on parle souvent de système de régulation)
* des délais

Il faut y ajouter les intrants et les extrants du système qui matérialisent ses relations avec son
environnement.

FINALITE

Centre de
décision
Système Flux, Actions ,
d'information Rétroactions
et Boucles.
Centre
opérant
INTRANTS EXTRANTS

Figure 2.2 Système : aspects fonctionnels

2.5 Caractéristiques des systèmes [14]

2.5.1 la finalité

La finalité est une spécificité vers laquelle tend un système ouvert malgré les pressions de
son environnement. C'est une forme de raison d'être qui conduit le système à s'auto-organiser et à
adapter les moyens nécessaires à ses buts. C'est le "quoi" vers lequel tend un système (à un instant
donné). La finalité n'a pas toujours une explication simple mais l'observation permet d'en com-
prendre la signification et la direction.

L'introduction de la finalité peut surprendre. Il n'y a pas nécessairement un projet derrière


cette finalité! La finalité se constate, en général, a posteriori. Elle intègre toujours des objectifs de
cohésion et de maintien du système.
La tendance des systèmes à s'auto-organiser est universelle, elle se traduit par des lois
(physiques, biologiques, psychologiques, sociologiques, ...). La finalité ne doit pas être considérée
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 11 de 12

de façon anthropocentrique. Mais il est essentiel pour aborder un système, de comprendre ses
finalités (ou de les admettre). Il importe de voir si des sous-systèmes n'ont pas des finalités
différentes de celles du système.

2.5.2 La totalité et la non-sommativité

Tout système ouvert, du fait des liens qui existent entre ses éléments est un tout. Dès lors,
toute modification d'un élément du système peut entraîner une modification des autres et donc du
système entier. C'est le principe de totalité.

Néanmoins, le tout n'est pas la somme des parties (importance des flux d'interaction). Les
caractéristiques d'un système ne se résument donc pas à la somme des caractéristiques de ses
parties. C'est la connaissance des interactions entre les éléments du système et non celle de ces
éléments eux-mêmes qui permet de découvrir le fonctionnement du système. C'est le principe de
non-sommativité (apparaissent ce qu'on appelle des propriétés émergentes).
En outre, très souvent, les éléments du système sont plus que de simples rouages mécanistes.
Notamment à cause de leurs interactions avec l'environnement, les éléments sont plus que des
fractions du système.
Comme nous l'avons déjà dit : Le tout est plus que la somme des parties et la partie est plus
qu'une fraction du tout.

2.5.3 L'équifinalité

L'équifinalité est une notion difficile. Equifinalité signifie qu'un même état final peut être
atteint à partir de différents états initiaux ou, à partir d'un état initial donné, par divers chemins. Il
n'y a généralement pas de "one best way" (un état antérieur du système n'explique pas tout!!!). Ce
principe signifie aussi qu'il est souvent vain de rechercher les "vraies" causes d'un phénomène tant
il y a souvent de circularité entre les causes et les conséquences.

2.5.4 L'homéostasie et le changement

Tout système ouvert a tendance a se maintenir en son état par un mécanisme de régulation
permanent, c'est l'homéostasie. Ce sont les mécanismes de rétroaction (de régulation) qui
conduisent à l'homéostatie. Dans les systèmes à composantes humaines, elle constitue parfois ce
qu'on appelle la résistance au changement.

2.5.5 Complexité, adaptabilité et variété.

La complexité résulte du nombre, de la nature des éléments d'un système, de l'importance et


de la fréquence de leurs interactions, elle se caractérise par les propriétés émergentes du système.
Cette complexité doit être gérée par une organisation qui la régit. Mais cette organisation doit
s'intéresser aux fonctions et à leurs finalités plus qu'aux structures.

La variété d'un système peut se comprendre comme le nombre d'états différents que peut
prendre ce système, ou en termes plus communs, la richesse du système. La variété d'un système
peut être reliée à son contenu informationnel au sens de Shannon (notons aussi la "loi de la variété
requise" d'Ashby [3]).

Face aux variations de son environnement, un système ouvert doit pouvoir s'adapter.
L'adaptabilité apparaît donc comme la capacité de réponse d'un système à des perturbations soit
FACULTE POLYTECHNIQUE LA QUALITE Annexe
Principes de Systémique
DE MONS PRINCIPES GENERAUX. Page 12 de 12

internes, soit externes. Cette adaptabilité sera d'autant plus grande que le système sait varier ses
réponses aux sollicitations qu'il subit. Ceci implique souvent de puiser dans "le réservoir de variété"
du système pour découvrir des réponses originales (émergentes).

Le problème de l'organisation est donc à la fois de gérer la complexité par des mécanismes
de coordination, mais aussi de préserver la variété du système pour permettre son adaptation.

V. BIBLIOGRAPHIE.

[1] MORIN Edgard, "LA METHODE 1. La Nature de la Nature", Editions du Seuil, Point - Essais,
Paris, 1977.

[2] MORIN Edgard, "INTRODUCTION A LA PENSEE COMPLEXE", ESF éditeur, Paris, 1990.

[3] MELESE Jacques, "APPROCHES SYSTEMIQUES DES ORGANISATIONS", Editions Hommes


et Techniques, Paris, 1979.

[4] RUELLE David, "HASARD ET CHAOS", Editions Odile Jacob - Sciences, Paris, 1991.

[5] LE MOIGNE Jean-Louis, "LA THEORIE DU SYSTEME GENERAL", Presses Universitaires de


France, 2ème édition, Paris, 1984.

[6] de ROSNAY Joël, "LE MACROSCOPE", Editions du Seuil, Point, Paris, 1975.

[7] DURAND Daniel, "LA SYSTEMIQUE", Presses Universitaires de France, Collection "Que sais-
je?", Paris, 1979.

[8] WIENER N., "CYBERNETICS", Hermann, Paris, 1948.

[9] von BERTALANFFY L., "GENERAL SYSTEM THEORY", Braziller, New-York, 1968.

[10] SHANNON C.E. et WEAVER W., "THE MATHEMATICAL THEORY OF COMMUNI-


CATION", University of Illinois Press, Urbana, Illinois, 1949.

[11] FORRESTER J.W., "INDUSTRIAL DYNAMICS", MIT Press, Cambridge, Massachusetts,


1961.

[12] FORRESTER J.W., "URBAN DYNAMICS", MIT Press, Cambridge, Massachusetts, 1969.

[13] FORRESTER J.W., "WORLD DYNAMICS", MIT Press, Cambridge, Massachusetts, 1970.

[14] BERIOT Dominique, "DU MICROSCOPE AU MACROSCOPE", ESF éditeur, Paris, 1992.
FACULTE POLYTECHNIQUE LA QUALITE Chapitre IV
Principales normes
DE MONS PRINCIPES GENERAUX Page 1 de 1

INTRODUCTION AUX PRINCIPALES NORMES EN ASSURANCE


QUALITE ET LEUR APPLICATION DANS LES ENTREPRISES.

I. INTRODUCTION

1.1 Généralités

Il est difficile de parler de la Gestion de la Qualité sans se voir immédiatement interrogé sur
la certification des Systèmes Qualité, les normes ISO 9000, le manuel qualité, etc. Il est vrai que le
concept de la Qualité entraîne dans son sillage, tout un ensemble de notions, de références norma-
tives et d'outils opérationnels qui en constituent souvent la seule face visible au grand public.

Nous avons montré, dans nos chapitres précédents, qu'il est cependant nécessaire d'avoir une
vision plus profonde du phénomène pour en comprendre toute l'ampleur et la richesse puisqu'il
s'agit d'abord d'une évolution majeure du mode de gestion des entreprises.

Néanmoins, il serait stupide de balayer, d'un revers de la main, les aspects pratiques de l'as-
surance qualité sous prétexte qu'ils vont de soi. En fait, ils constituent l'ossature de toute politique
qualité et sont un des éléments les plus tangibles d'une gestion saine, dynamique et moderne d'une
entreprise. Ils sont également le meilleur moyen de créer la confiance des acheteurs et des utilisa-
teurs.
Ce besoin de confiance dans la capacité des entreprises à fournir des produits de qualité (qui
satisferont leurs clients) a conduit, au fil des ans, à une multiplication de dispositions d'assurance de
la qualité imposées à leurs fournisseurs par les donneurs d'ordres.
F.P.Ms

MAJOR RISK
RESEARCH CENTRE

LES NORMES

Faculté Polytechnique de Mons

Les Normes et Référentiels


Les normes et référentiels apparaissent
comme un des outils privilégiés pour la
mise en œuvre pratique d'un Système
Qualité.
Leur rôle est double :
• Servir de modèle de gestion et de progrès
• Assurer la confiance et la satisfaction de
tous les Bénéficiaires

Faculté Polytechnique de Mons

1
Les Normes - Aperçu général
Les normes, au sens large, se déclinent en
deux catégories, quatre niveaux et (au
moins) quatre domaines :
• les catégories génériques et techniques
• les niveaux internationaux, européens,
nationaux et privés
• les domaines : Qualité, Environnement,
Sécurité, Social, ...
Faculté Polytechnique de Mons

Les Normes - Quelques mots d'histoire


Des normes ont presque toujours existé.
Pratiquement tous les pays possèdent un
organisme national de normalisation (NBN,
DIN, AFNOR, BS, …).
L'Europe possède aussi son organe de
normalisation (CEN/CENELEC).
Depuis 1947, l'ISO (Organisation Inter-
nationale de Normalisation) propose des
normes techniques volontaires.
Faculté Polytechnique de Mons

2
ISO - MEMBRES
L’ISO est une organisation non gouvernementale sans but lucratif
composée de membres qui sont les organismes nationaux de
normalisation de 162 pays.

Faculté Polytechnique de Mons

Les Normes génériques ISO


En 1987, l'ISO innove en présentant ses
premières normes génériques : la série ISO
9000 (Qualité) qui s'inspirent des normes
AQAP (OTAN).
Elle récidive en 1996 en proposant la série
ISO 14000 (Environnement) .
Ce sont des normes génériques relatives à
des systèmes de management.
Faculté Polytechnique de Mons

3
Les Normes génériques ISO
Le terme générique signifie que ces normes
peuvent être appliquées à tout organisme,
grand ou petit, quel que soit son produit ou
service, indépendamment de son secteur
d'activité. Elles définissent des objectifs à
atteindre mais laissent le libre choix des
moyens à l'organisme.
Les normes techniques sont, en général,
plus spécifiques, même si elles peuvent
compléter des normes génériques.
Faculté Polytechnique de Mons

LES NORMES QUALITE

Faculté Polytechnique de Mons

4
L'UNION EUROPEENNE

ROME - 1957
Constitution de l'UE par le Traité de Rome en 1957
 Libre circulation des produits
 Rapprochement des réglementations nationales
 Exigences de protection de la qualité de la vie

Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

5
 Traité de Rome (1957)
 Acte Unique (1987)
 Traités de Maastricht (1992)
 Traité d'Amsterdam (1997)

Harmonisation des référentiels normatifs ???


=> Directives "Nouvelle Approche" (1985)
1. Exigences essentielles
 Spécifications techniques ==> normes
 Statut volontaire des normes
 Présomption de conformité
(Marquage CE)
Faculté Polytechnique de Mons

LE CONTEXTE EUROPEEN

Faculté Polytechnique de Mons

6
HISTORIQUE DES NORMES ISO 9000

Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

7
Avant 2000

Faculté Polytechnique de Mons

NORMES QUALITE-SECURITE-ENVIRONNEMENT
AUJOURD'HUI
ISO 9000:2000 - 2005 - 2015 Qualité - Principes et Vocabulaire
ISO 9001:2000 - 2008 - 2015 Qualité - Exigences Système
ISO 9004:2000 Qualité - Management
ISO 9004-x (1994) Qualité - Management (Secteurs)
ISO 10013 (1995) Qualité - Manuels Qualité
ISO 17025 (2000) Qualité - Laboratoires
ISO 14001:1996 – 2004 - 2015 Environnement - Exigences Système
ISO 19011 (2002) Qualité et Environnement - Audit
Série EN 45000 Qualité - Accréditation
OHSAS 18001 (1999 - 2007) Sécurité - Exigences Système
SA 8000 (1997) Social Accountability
Faculté Polytechnique de Mons

8
Les Normes génériques ISO
Les normes de la série ISO 9000 de 1987 ont subi
des révisions, en 1994, en 2000, 2008 et en 2015.
La série comprend aujourd'hui :
• ISO 9000:2015 - Systèmes de management de la
qualité - Principes essentiels et vocabulaire.
• ISO 9001:2015 - Systèmes de management de la
qualité - Exigences.
• ISO 9004:2009 - Systèmes de management de la
qualité - Lignes directrices pour l'amélioration des
performances.
Faculté Polytechnique de Mons

Les Normes génériques ISO

La série ISO 14000 (de 1996), relative à


l'environnement comprend notamment :
• ISO 14001:2015 - Systèmes de management
environnemental - spécification et lignes directrices pour
son utilisation.
• ISO 14004:2004 - Systèmes de management
environnemental - lignes directrices générales
concernant les principes, les systèmes et les techniques
de mise en œuvre.

Faculté Polytechnique de Mons

9
Les Normes génériques ISO
Il faut noter la complémentarité clairement
voulue des deux séries (ISO 19011) ! Mais,
complémentarité ne veut pas dire fusion.
?
ISO 14000 (2004)
ISO 9000 (2000)
ISO 14000 (1996)
ISO 8402 et 9000
(1994)
ISO 9000 (1987)
ISO 8402 (1986)
Faculté Polytechnique de Mons

Les autres Normes génériques


D'autres normes génériques (qui s'inspirent
des ISO 9000) ont également vu le jour. Elles
concernent des systèmes de management :
• BS 8800:1996 - Guide des systèmes de
management de santé et de sécurité au travail (UK) .

• OHSAS 18001:2007 - Occupational Health and


Safety management Systems - specification (privé) .

• SA 8000:1997 -
Social Accountability -
Responsabilité Sociale (ONU) .
Faculté Polytechnique de Mons

10
Faculté Polytechnique de Mons

ISO 45001

Faculté Polytechnique de Mons

11
ISO 8402 (1994)

Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

12
Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

13
Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

14
C'est quoi la QUALITE ???
La Qualité est l'ensemble des propriétés et
caractéristiques d'un produit ou service qui lui
confère l'aptitude à satisfaire des besoins exprimés
ou implicites. (ISO 8402 - 1986).
Qualité : ensemble des caractéristiques d'une
entité qui lui confèrent l'aptitude à satisfaire des
besoins exprimés ou implicites (ISO 8402 - 1994).
Qualité : Aptitude d'un ensemble de caractéris-
tiques intrinsèques à satisfaire des exigences
(besoins ou attentes formulés, habituellement
implicites, ou imposés (ISO 9000:2000)).
Faculté Polytechnique de Mons

ISO 9000 : 2000

Faculté Polytechnique de Mons

15
ISO 9000 : 2015

Faculté Polytechnique de Mons

ISO 9000 : 2015

Faculté Polytechnique de Mons

16
ISO 9000 : 2015
2 Principes et concepts fondamentaux du
management de la qualité
2.1 Généralités
2.2 Concepts fondamentaux
2.2.1 Qualité
2.2.2 Système de management de la qualité
2.2.3 Parties intéressées
2.2.4 Contexte d’un organisme
2.2.5 Engagement de la direction

Faculté Polytechnique de Mons

2.3 Les Principes de Management Qualité


Principe n°1 : Organisation orientée Client
« LE PRINCIPAL OBJECTIF DU MANAGEMENT DE LA
QUALITÉ EST DE SATISFAIRE AUX EXIGENCES DES
CLIENTS ET DE S’EFFORCER D’ALLER AU DEVANT DE
LEURS ATTENTES ».

Principe n°2 : Responsabilité de la direction


« A TOUS LES NIVEAUX, LES DIRIGEANTS ÉTABLISSENT
LA FINALITÉ ET LES ORIENTATIONS ET CRÉENT DES
CONDITIONS DANS LESQUELLES LE PERSONNEL EST
IMPLIQUÉ POUR ATTEINDRE LES OBJECTIFS QUALITÉ
DE L’ORGANISME » .

Faculté Polytechnique de Mons

17
2.3 Les Principes de Management Qualité
Principe n°3 : Implication du personnel
« UN PERSONNEL COMPÉTENT, HABILITÉ ET IMPLIQUÉ
À TOUS LES NIVEAUX DE L’ORGANISME EST ESSENTIEL
POUR AMÉLIORER LA CAPACITÉ DE L’ORGANISME À
CRÉER ET FOURNIR DE LA VALEUR ».

Principe n°4 : Approche processus


« DES RÉSULTATS COHÉRENTS ET PRÉVISIBLES SONT
OBTENUS DE MANIÈRE PLUS EFFICACE ET EFFICIENTE
LORSQUE LES ACTIVITÉS SONT COMPRISES ET GÉRÉES
COMME DES PROCESSUS CORRÉLÉS FONCTIONNANT
COMME UN SYSTÈME COHÉRENT ».

Faculté Polytechnique de Mons

2.3 Les Principes de Management Qualité


Principe n°5 : Amélioration
« LE SUCCÈS D’UN ORGANISME REPOSE SUR UNE
VOLONTÉ CONSTANTE D’AMÉLIORATION ».

Principe n°6 : Prise de décision fondées sur


des preuves
« LES DÉCISIONS FONDÉES SUR L’ANALYSE ET
L’ÉVALUATION DE DONNÉES ET D’INFORMATIONS
SONT PLUS SUSCEPTIBLES DE PRODUIRE LES
RÉSULTATS ESCOMPTÉS ».

Faculté Polytechnique de Mons

18
2.3 Les Principes de Management Qualité
Principe n°7 : Management des relations
avec les parties intéressées
« POUR OBTENIR DES PERFORMANCES DURABLES, LES
ORGANISMES GÈRENT LEURS RELATIONS AVEC LES
PARTIES INTÉRESSÉES, TELLES LES FOURNISSEURS ».

Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

19
Faculté Polytechnique de Mons

Client
Fournisseur 2ème
partie
1ère
partie 2ème
partie

2ème
partie
Certification
2ème
partie

3ème
partie Organisme national
Accréditation

Faculté Polytechnique de Mons

20
Certification et Accréditation
Toutes les normes relatives à des systèmes
de management ont (essentiellement) un
statut volontaire.
Mais certaines normes (dites normes
d'exigence) peuvent conduire à une
certification.
Il ne faut pas confondre "certification" et
"accréditation".

Faculté Polytechnique de Mons

Certification et Accréditation
La "certification" se rapporte à l'octroi
d'une assurance écrite (le certificat) par un
organisme indépendant et extérieur (appelé
tierce partie) qui a audité le(s) système(s) de
management d'un organisme et a vérifié
qu'il est conforme aux exigences spécifiées
dans la norme (par exemple ISO 9001, ISO
14001, OHSAS 18001, …) . Le certificat a
une validité limitée dans le temps (3 ans).
Faculté Polytechnique de Mons

21
Certification et Accréditation
L'accréditation se rapporte à la recon-
naissance formelle par un organisme
spécialisé - un organisme d'accréditation -
de la compétence d'un organisme de
certification à effectuer la certification
selon certaines normes dans des secteurs
économiques spécifiés.
En termes simples, l'accréditation est, en
quelque sorte, la "certification" de
l'organisme de certification.
Faculté Polytechnique de Mons

Certification et Accréditation
L'organisme belge d'accréditation s'appelle
BELAC, depuis 2006, (BELCERT, BELTEST,
OBE). L'accréditation se base également sur des
normes, par exemple :
ISO/IEC 17021:2006 - Évaluation de la conformité --
Exigences pour les organismes procédant à l'audit et à la
certification de systèmes de management
ISO/IEC 17024:2003 - Evaluation de la conformité -
Exigences générales pour les organismes de certification
procédant à la certification de personnes
ISO/IEC 17025:1999 - Prescriptions générales concernant la
compétence des laboratoires d'étalonnages et d'essais
Faculté Polytechnique de Mons

22
Faculté Polytechnique de Mons

Faculté Polytechnique de Mons

23
Les Normes techniques ISO
A côté des normes génériques, existent aussi
un ensemble complexe de normes techniques,
citons notamment :
ISO 10005:1995 - Management de la qualité - Lignes directrices
pour les plans qualité
ISO 10006:2003 - Systèmes de management de la qualité - Lignes
directrices pour le management de la qualité dans les projets
ISO 10007:2003 - Systèmes de management de la qualité - Lignes
directrices pour la gestion de la configuration
ISO 10012:2003 - Systèmes de management de la mesure -
Exigences pour les processus et les équipements de mesure
ISO/TR 10013:2001 - Lignes directrices pour le développement de
la documentation sur les systèmes de management de la qualité

Faculté Polytechnique de Mons

Les Normes techniques ISO


Citons encore :
ISO/TR 10014:1998 - Lignes directrices pour le management des
effets économiques de la qualité
ISO 10015:1999 - Management de la qualité - Lignes directrices
pour la formation
ISO/TR 10017:2003 - Lignes directrices pour les techniques
statistiques relatives à l'ISO 9001:2000
ISO 19011:2002 - Lignes directrices pour l'audit des systèmes de
management de la qualité et/ou de management environnemental

Cette dernière norme (ISO 19011:2002)


illustre la convergence des séries ISO 9000 et
ISO 14000 .
Faculté Polytechnique de Mons

24
Les autres Normes techniques
Bien entendu, il n'y a pas que l'ISO qui
publie des normes techniques.
Ainsi, on peut considérer que les Directives
Européennes constituent également un
ensemble normatif. Le CEN publie également
ses propres normes, par exemple :
EN 13816:2002 - Transport - Logistique et services - Transport
public de voyageurs - Définition de la qualité de service, objectifs
et mesures
Enfin, il existe de très nombreuses normes
nationales, voire privées.
Faculté Polytechnique de Mons

ISO 9001, 2, 3 (1994)

Faculté Polytechnique de Mons

25
Avant 2000
Faculté Polytechnique de Mons

ISO 9001 : 2015

Faculté Polytechnique de Mons

26
Structure de la norme ISO 9001 : 2015

Faculté Polytechnique de Mons

Structure de la norme ISO 9001 : 2015

Faculté Polytechnique de Mons

27
Structure de la norme ISO 9001 : 2015

Faculté Polytechnique de Mons

Les Référentiels d'Excellence


A côté des normes, existent aussi des
référentiels (modèles) dits d'Excellence.
Ceux-ci concernent (en principe) une
approche plus large de la Gestion Totale de
la Qualité. Citons :
• Le Prix Deming (Japon 1951)
• Le Prix Malcom Baldrige (USA 1987)
• Le Prix EFQM (Europe 1988)
• Divers Prix nationaux
Faculté Polytechnique de Mons

28
Le Référentiel EFQM
Le modèle EFQM (European Fondation for
Quality Management) occupe une place toute
particulière en Europe. Conçu, au départ,
comme le référentiel pour le Prix EFQM de la
Qualité (1992), il est rapidement apparu qu'il
pouvait être utilisé comme outil de diagnostic
interne.
Aujourd'hui, le modèle EFQM (1999) est
utilisé par des milliers d'entreprises en
Europe en tant qu'outil d'auto-évaluation.
Faculté Polytechnique de Mons

Le Référentiel EFQM

Source EFQM

Faculté Polytechnique de Mons

29
D'autres Référentiels d'Excellence
Le modèle EFQM est également à la base
d'autres référentiels largement utilisés :
• Le modèle CAF (Common Assesment Framework)
adopté par l'Union Européenne comme outil d'auto-
évaluation et d'amélioration pour les administrations;

• Le modèle PROSE (Project for Self-Evaluation)


utilisé dans l'enseignement.

Enfin, citons le label CoQual (basé sur l'ISO 9001:2000)


destiné aux entreprises du secteur de la construction,
des bureaux d’architecture et des bureaux d’étude.
Faculté Polytechnique de Mons

Le CAF, un outil de Sensibilisation,


d'Evaluation et d'Amélioration

Source CAF
Faculté Polytechnique de Mons

30
Faculté Polytechnique de Mons





Faculté Polytechnique de Mons

31
Q S
QUALITE,
SECURITE,
ENVIRONNEMENT.
Le triptyque de l'avenir ?
E
Faculté Polytechnique de Mons

UALITE
 QUALITE = Supériorité relative
 QUALITE = Satisfaction de besoins
(Produits)
 ASSURANCE de la QUALITE
(Maîtrise de Processus)
 GESTION DE LA QUALITE
(Stratégie d'entreprendre)

Faculté Polytechnique de Mons

32
UALITE
 Certification "Produits"
 Normes "système"
ISO 9000

ISO 9001 ISO 9004


Gestion Qualité Management Qualité

Faculté Polytechnique de Mons

SECURITE

 Premières législations
(sécurité et santé des travailleurs 1899)
 Règlement Général pour la Protection du Travail
(RGPT - 1946)
 Institution du Service SHE (1952)
 Fonction "Chef du Service Sécurité" (1975)
 Directive "SEVESO" (1982-1987-1996-2003-2015)
 Loi relative au "bien-être" des travailleurs (1996)
 Gestion Dynamique des Risques (AR 1998)
Faculté Polytechnique de Mons

33
SECURITE

Risques Professionnels Risques Majeurs

Système Dynamique Système de


de Gestion des Management de la
Risques Sécurité
(ISO 45001)
Faculté Polytechnique de Mons

ENVIRONNEMENT

 Club de Rome (1968)


 Conférence de Stockolm (1972)
 Conférence de Rio (1992)
=> Protection de la couche d'ozone (CFC)
=> Limitation des gaz à effet de serre
=> Sauvegarde de la biodiversité

Faculté Polytechnique de Mons

34
ENVIRONNEMENT

Système de Management Système de Management


Environnemental et d'Audit Environnemental
(SMEA) (ISO 14001)

Faculté Polytechnique de Mons

Trois Evolutions Parallèles

Qualité "Produit" Système Qualité

Sécurité "Produit"
Système Sécurité
Sécurité "Personne"

"CFC", "CO2", Système


effet de serre, .... Environnement

Faculté Polytechnique de Mons

35
Convergence des Référentiels
?
ISO 14000 (2004)
ISO 9000 (2000)
ISO 14000 (1996)
ISO 8402 et 9000
(1994)
ISO 9000 (1987)
ISO 8402 (1986)

Faculté Polytechnique de Mons

Convergence des Référentiels

Référentiel SECURITE
? (ISO 45001
2017)?
(1996 et 2000)

OH&S
BS 8800
ISO 14001
(1996)
OHSAS 18001
Faculté Polytechnique de Mons

36
ISO 14001 : 2015

Faculté Polytechnique de Mons

ISO 14001 : 2015

Faculté Polytechnique de Mons

37
ISO 45001 : 2017

Faculté Polytechnique de Mons

38