Vous êtes sur la page 1sur 499

Machine Translated by Google

Machine Translated by Google

Le manuel pour
Gestion de la qualité
Machine Translated by Google

À propos des
auteurs Thomas Pyzdek est un consultant Six Sigma
avec plus de 40 ans d'expérience dans le domaine.
Ses clients incluent Ford, McDonald's, Intuit, Boeing,
Seagate, Avon Products et de nombreuses autres
sociétés. M. Pyzdek est récipiendaire de la médaille
Edwards de l'American Society for Quality pour ses
contributions exceptionnelles à la pratique de la
gestion de la qualité et de la médaille EL Grant pour
son leadership exceptionnel dans le développement
et la présentation de programmes éducatifs méritoires
en matière de qualité. Il a également reçu un prix Lean
Six Sigma Leadership de l'American Quality Institute.

Paul Keller est président et chef de l'exploitation chez


Quality America, Inc. Il a développé et mis en œuvre
avec succès des programmes Six Sigma et
d'amélioration de la qualité dans les environnements
de service et de fabrication. Il est l'auteur de plusieurs
livres, dont The Six Sigma Handbook, Third Edition
(coauteur) et Six Sigma Demystified.
Machine Translated by Google

Le manuel pour
Gestion de la qualité
Un guide complet de l'excellence opérationnelle

Thomas Pizdek
Paul Keller

Deuxième édition

New York Chicago San Francisco


Lisbonne Londres Madrid Mexico
MilanNew DelhiSan Juan
Séoul Singapour Sydney Toronto
Machine Translated by Google

Les données de catalogage avant publication sont archivées à la Bibliothèque du Congrès.

Les livres McGraw­Hill sont disponibles à des remises spéciales sur la quantité à utiliser comme primes et promotions des
ventes, ou à utiliser dans les programmes de formation en entreprise. Pour contacter un représentant, veuillez nous
envoyer un e­mail à b ulksales@mcgraw­hill.com.

Le manuel de gestion de la qualité

Copyright © 2013 par The McGraw­Hill Companies, Inc. Tous droits réservés. Imprimé aux États­Unis d'Amérique.
Sauf dans la mesure permise par la loi américaine sur le droit d'auteur de 1976, aucune partie de cette publication
ne peut être reproduite ou distribuée sous quelque forme ou par quelque moyen que ce soit, ou stockée dans une
base de données ou un système de récupération, sans l'autorisation écrite préalable de l'éditeur.

1 2 3 4 5 6 7 8 9 0 COD/COD 1 9 8 7 6 5 4 3 2

ISBN 978­0­07­179924­9
MHID 0­07­179924­9

Les pages de ce livre ont été imprimées sur du papier sans acide.

Éditeur de parrainage Correcteur

Judy Basse Surendra Nath Shivam, éditeur Cenveo


Prestations de service

Coordonnatrice des acquisitions


Indexeur
Bridget Thorson
ARC Films inc.
Superviseur éditorial David
E. Fogarty Superviseur de production
Pamela A. Pelton
Chef de projet
Vastavikta Sharma, Éditeur Cenveo Composition
Prestations de service Services aux éditeurs Cenveo

Éditeur de copie Directeur artistique, couverture


Kate Bresnahan Jeff Semaines

Les informations contenues dans ce document ont été obtenues par The McGraw­Hill Companies, Inc. (« McGraw­Hill ») auprès
de sources considérées comme fiables. Cependant, ni McGraw­Hill ni ses auteurs ne garantissent l'exactitude ou l'exhaustivité
des informations publiées ici, et ni McGraw­Hill ni ses auteurs ne seront responsables des erreurs, omissions ou dommages
résultant de l'utilisation de ces informations. Ce travail est publié avec la compréhension que McGraw­Hill et ses auteurs
fournissent des informations mais ne tentent pas de fournir des services d'ingénierie ou d'autres services professionnels. Si de
tels services sont nécessaires, l'assistance d'un professionnel approprié doit être recherchée.
Machine Translated by Google

Contenu

Préface. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xii

Partie I Systèmes de qualité intégrés à l'entreprise

1 Structures organisationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Théorie


générale de la structure organisationnelle . . . . . . . . . . . . . . . . . 5 La structure
fonctionnelle/hiérarchique. . . . . . . . . . . . . . . . . . . . . 6 organisations
matricielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Structure
organisationnelle interfonctionnelle . . . . . . . . . . . . . . . . . . 9 Structures
organisationnelles basées sur les processus ou les produits
(horizontales) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 12
Formes d'organisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 La fonction qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Juran


Trilogie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Fonctions
commerciales connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Sécurité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Problèmes de réglementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24 Responsabilité du fait des produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24 Enjeux environnementaux liés à la fonction qualité. . . . . . . 28 3 Approches
de la Qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Approche de
Deming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Contrôle de la qualité
totale au Japon. . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Série ISO
9000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prix national de la qualité Malcolm Baldrige . . . . . . . . . . . . . . . . 41 . 45
Prix Deming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Prix
européen de la qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Gestion de
la qualité totale (TQM). . . . . . . . . . . . . . . . . . . . . . . . 51Six
Sigma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4
Organisations axées sur le client . . . . . . . . . . . . . . . . . . . . . . . . 57

Partie II Planification intégrée

5 Planification stratégique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Vision organisationnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Développement de la stratégie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
v
Machine Translated by Google

vi C ontenu s

Styles stratégiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Décisions stratégiques basées sur les possibilités. . . . . . . . . . . . . . . . . . . . . 71
Développement stratégique utilisant la théorie des contraintes. . . . . . . . . . . . 72
74 L'approche systémique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Principes
de base de la gestion des contraintes
et Concepts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Outils de
gestion des contraintes. . . . . . . . . . . . . . . . . . . . 87 Mesures de gestion
des contraintes. . . . . . . . . . . . . . 98

6 Comprendre les attentes et les besoins des clients. . . . . . . . . 105 Classifications


des clients. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Identification et
segmentation des clients. . . . . . . . . . . . . . . . . 110 Collecte de données sur les
attentes et les besoins des clients. . . . . . . 113 Service client et
assistance. . . . . . . . . . . . . . . . . . . . . . 114
enquêtes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 groupes
de discussion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

7 Analyse comparative. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129


Premiers pas avec l'analyse comparative . . . . . . . . . . . . . . . . . . . . . . . 132
Pourquoi les efforts d'analyse comparative échouent. . . . . . . . . . . . . . . . . . . . . . . . . . . 134

8 Évaluation organisationnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Évaluation


de la culture de la qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 Métriques
organisationnelles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Coût de la
qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

Contrôle de processus de la partie III

9 Quantification des variations de processus. . . . . . . . . . . . . . . . . . . . . . . . . . . 153


Statistiques descriptives. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Études
énumératives et analytiques. . . . . . . . . . . . . . . . . . . . . . . . 155 Échantillonnage
d'acceptation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Cartes de contrôle
statistique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 cartes de contrôle
variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Cartes de contrôle pour
les données d'attributs. . . . . . . . . . . . . . . . . . . 176 Sélection de la carte de
contrôle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Interprétation de la carte
de contrôle. . . . . . . . . . . . . . . . . . . . . . . . 190 Utilisation des spécifications
pour le contrôle de processus. . . . . . . . . . . . . . . . . . . 196 Études de capacité de
processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Comment effectuer une
étude de capabilité de processus . . . . . . . . . . 200 Analyse statistique des
données de capacité de processus . . . . . . . . 202 Interprétation des indices
de capacité. . . . . . . . . . . . . . . . . . . . . 205
Machine Translated by Google

C ontenu s vii

10 Audits Qualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 Types d'audits


de qualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Audits de
produits. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Audits de
processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 Audits de
systèmes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 Audits
internes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Audits
bipartites. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Audits
tiers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Audits de
bureau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 Planification
et réalisation de l'audit. . . . . . . . . . . . . . . . . . . . . . . 216 Qualifications des
auditeurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 Enquêtes internes sur
la qualité en préparation. . . . . . . . . . . . . . 218 Étapes de la réalisation
d'un audit . . . . . . . . . . . . . . . . . . . . . . 218 Processus de rapport
d'audit. . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Activités post­audit (action
corrective, vérification). . . . 220 Contrôle des produits, processus et
matériaux . . . . . . . . . . . . . . . . . . . 221 Instructions de
travail. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 . 223 224 224
Classification des caractéristiques . . ........................
Identification des matériaux et état . . . . . . . . . . . . . . . .
Matériaux achetés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Matériaux fournis par le client . . . . . . . . . . . . . . . . . . . . . . . 224 Travail en
cours (WIP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Produits
finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Traçabilité des
lots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Pratiques de
séparation des matériaux . . . . . . . . . . . . . . . . . . . . . 225 Contrôle des
configurations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Déviations et
renonciations. . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

11 Gestion de la chaîne d'approvisionnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227


Portée du contrôle qualité du fournisseur. . . . . . . . . . . . . . . . . . . . . . . . . . 230
Évaluation de la capacité qualité du fournisseur . . . . . . . . . . . . . . . . . . . . . 230
Planification de la qualité des fournisseurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
233 Surveillance post­attribution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
systèmes d'évaluation des fournisseurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
235 procédés spéciaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Partenariats et alliances. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

Partie IV Amélioration continue


12 Gestion efficace du changement. . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Rôles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
Buts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Machine Translated by Google

viii C ontenu s

Mécanismes utilisés par les agents de changement. . . . . . . . . . . . . . . . . . . . . .


248 Achat d'immeuble. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Déploiement du projet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Sélection de projets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Méthodologie DMAIC/DMADV . . . . . . . . . . . . . . . . . . . . 262

13 Définir l'étape. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Définition


du projet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Structure de
répartition du travail. . . . . . . . . . . . . . . . . . . . . . . . . 268 diagrammes de
Pareto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Chartes de
projet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Ressources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Définition de processus de niveau supérieur. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
285 Formation d'équipe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Gestion de la dynamique d'équipe, y compris les conflits
Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 Étapes
du développement du groupe. . . . . . . . . . . . . . . . . . . . . . . 288
Problèmes d'équipe courants . . . . . . . . . . . . . . . . . . . . . . . . . . 289
Rôles de groupe productifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 Rôles
de groupe contre­productifs . . . . . . . . . . . . . . . . . . . . 290 Rôle de la
direction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292

14 Étape de mesure. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293


Définition du processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
Définition métrique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 Établir
des référentiels de processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Analyse
des systèmes de mesure. . . . . . . . . . . . . . . . . . . . . . . . . . . 298 Niveaux de
mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301

15 Étape d'analyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 Analyse


de la chaîne de valeur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 Analyser
les sources de variation de processus. . . . . . . . . . . . . . . . . . . . . . 314
Déploiement de la Fonction Qualité. . . . . . . . . . . . . . . . . . . . . . . 315
Diagrammes cause­effet . . . . . . . . . . . . . . . . . . . . . . . . 318 Diagrammes
de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 Déterminer
les pilotes de processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 Analyse
de corrélation et de régression . . . . . . . . . . . . . . . . . 324 Ajustement
des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
Interprétation de la sortie de l'ordinateur pour la régression
Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
Machine Translated by Google

C ontenu s ix

Analyse des résidus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330


expériences conçues. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331

16 Étape Amélioration/Conception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335


Définir de nouvelles conditions d'exploitation/de conception. . . . . . . . . . . . . . . . .
337 Définir et atténuer les modes de défaillance. . . . . . . . . . . . . . . . . . . . . . . .
340 Diagramme du programme de décision de
processus . . . . . . . . . . . . . . . . . . . . 340 Prévention des
pannes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 Mode de défaillance et analyse des ef

17 Étape de contrôle/vérification. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349


Évaluation des performances. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
Reconnaissance et récompense. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
Principes des systèmes de récompense efficaces . . . . . . . . . . . . . . 355
Formation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
Formation professionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
357 Élaboration d'un programme OJT structuré. . . . . . . . . . . . . . . 358
Jeux pédagogiques, simulations et jeux de rôle. . . . . . 359

Partie V Gestion des ressources humaines


18 Théories et principes de la motivation. . . . . . . . . . . . . . . . . . . . . . 367 Hiérarchie
des besoins de Maslow. . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 Théorie de
l'hygiène de Herzberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 Théories X, Y
et Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370

19 styles de gestion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 Style de


gestion critique . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 Style de gestion basé sur
les données . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 Combinaison basée sur les
données/gestion des jugements
Style . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 Style
de gestion participative . . . . . . . . . . . . . . . . . . . . . . . . . . 376 Style de gestion
autocratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Gestion par
errance . . . . . . . . . . . . . . . . . . . . . . 377 Gestion de quatrième
génération . . . . . . . . . . . . . . . . . . . . . . . . . . 378 La Cinquième
Discipline. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379

20 Besoins en ressources pour gérer la fonction qualité . . . 381 Évaluation des


performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 Évaluations
traditionnelles de la performance . . . . . . . . . . . . . . . . . 385 Critiques des
évaluations traditionnelles des employés . . . . . . . . 386 Alternatives aux
évaluations traditionnelles . . . . . . . . . . . . . . . 388
Machine Translated by Google

X Contenu

Développement professionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393


Informations d'identification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
393 Certification professionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 393
Cours de perfectionnement professionnel . . . . . . . . . . . . . . . . . . 394
Atteindre les objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Entraînement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
situations qui nécessitent un coaching pour s'améliorer
Performance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
Formes de coaching . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
A Constantes de la carte de contrôle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399

B Équations de la carte de contrôle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403


C Zone sous la courbe normale standard. . . . . . . . . . . . . . . . . . . 407

D Questions d'examen de certification simulées. . . . . . . . . . . . . . . . . . 413


Les références. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455

Indice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
Machine Translated by Google

Préface

Merci de l'intérêt que vous portez au Manuel de gestion de la qualité de McGraw Hill.

La version originale du texte, publiée pour la première fois en 1996 par Quality
Publishing, a été écrite exclusivement par Tom Pyzdek. J'ai eu le plaisir d'éditer une
révision publiée en 2000, qui comprenait des chapitres sur les méthodes Six Sigma
et Lean (écrits par moi­même), ainsi que le matériel de gestion des contraintes de
Bill Dettmer, qui est répété dans cette édition. Les premières éditions se sont
vendues à plusieurs milliers d'exemplaires à la fin de 2000, établissant le manuel
comme une référence de bureau essentielle pour le professionnel de la qualité.
Les versions antérieures s'appuyaient fortement sur l'ensemble de connaissances
de l'American Society for Quality (ASQ) pour les gestionnaires de la qualité, même
dans la mesure où les titres de chapitre et les sous­titres correspondaient à ceux de
l'ensemble de connaissances. Bien que cela ait pu aider ceux qui cherchaient à
cocher les éléments qu'ils avaient appris, cela avait tendance à perturber le flux des
sujets. L'un des principaux objectifs de cette édition était la réorganisation du matériel
dans des discussions plus fluides sur les concepts et les méthodes essentielles à la
gestion de la qualité et à l'excellence opérationnelle. Pour ceux qui veulent l'utiliser
comme référence pour l'examen ASQ CMQ/OE, les informations sont toujours dans
le livre, avec des exemples de questions au dos, et des réponses disponibles sur le
site Web affilié : www.mhprofessional.com/HQM2 L'ensemble
des connaissances nécessaires pour atteindre l'excellence opérationnelle est
fortement influencé par les travaux de Deming et Juran, dont la plupart datent de la
période de 1950 au milieu des années 1980. Ces auteurs ont passé leur carrière à
préconiser une approche scientifique de la qualité, remplaçant l'idée largement
répandue selon laquelle les inspections d'assurance qualité qui prévalaient dans
l'après­guerre étaient des approches suffisantes, voire crédibles, pour atteindre la
qualité.
Au cours des 40 dernières années, la discipline de la gestion de la qualité a
connu une évolution constante, passant d'une commande et d'un contrôle internes à
des fonctions plus proactives et axées sur le client. Le marché a certainement
encouragé cela, alors que les économies passaient de la domination des fabricants de produits

xii
Machine Translated by Google

xii P réface

dépendre davantage des fournisseurs de solutions basées sur les services. Il semble
raisonnable que les économies de services tendent naturellement à se concentrer sur le
client, car une grande partie du service implique un contact direct avec le client.
Les commentaires peuvent être amèrement honnêtes, mais aussi rapidement traités (par
rapport à une mauvaise qualité de fabrication). Les aspects de la gestion de la qualité
deviennent partie intégrante des opérations commerciales ; les cotes de qualité et les
récompenses sont une compétition, et le succès est présenté comme un signe d'engagement
envers le client ; l'innovation est un refrain constant dans les revues d'affaires et même dans
les publicités ; les sondages auprès des clients sont endémiques ; les données sont
omniprésentes, donc faire la différence entre le changement réel et la variation aléatoire
devient une compétence de base ; et ainsi de suite. Le coût de la mauvaise qualité se
matérialise en temps réel sous forme de perte de parts de marché ou de rentabilité.
Cette dernière édition développe les notions historiques de la trilogie de la qualité de
Juran pour décrire la transformation de l'entreprise grâce à une stratégie innovante axée sur
le client, un contrôle significatif des processus à l'aide de statistiques et des améliorations
ciblées parrainées par la direction des principaux produits et services. Les enseignements de
Deming sur les responsabilités et les systèmes de gestion sont intégrés partout.

Le gestionnaire dans le monde d'aujourd'hui doit mettre en œuvre des initiatives de


qualité de réduction des coûts qui augmentent la part de marché malgré les forces de la
concurrence. Ce texte vise à démystifier la science de la gestion de la qualité pour une
utilisation et des avantages efficaces dans toute l'organisation.
Nous espérons que vous l'apprécierez.

Paul Keller
Machine Translated by Google

PARTIE I

Intégré à l'entreprise
Chapitre 1

Systèmes Qualité
Structures organisationnelles
Chapitre 2
La fonction qualité
Chapitre 3
Approches de la qualité
Chapitre 4
révolution d'essai, qui a donné l'impulsion Axée sur le client
pour passer
Les organisations d'une
modernes tradition
trouvent leursd'artisans à l'Indus
racines dans celle de
Organisations
industries mécanisées. Les progrès rapides des sources d'énergie
mobiles, telles que la machine à vapeur, l'amélioration des transports,
l'éclairage au gaz, les progrès de la métallurgie et de la chimie, etc., ont conduit à la fois à
l'approvisionnement en matériaux, méthodes et infrastructures et à une demande d'innovation
commerciale pour répondre aux besoins d'un marché en croissance. Au fur et à mesure de la
croissance des entreprises, les petites entreprises (souvent familiales) ont été remplacées par de
plus grandes sociétés, capables de réunir les capitaux nécessaires pour se développer rapidement.
Dans les pays industrialisés, les organisations ont complètement changé, donnant
naissance à la forme d'organisation bureaucratique. Cette forme d'organisation se
caractérise par la division des activités et des responsabilités en départements gérés
par des professionnels de la gestion à plein temps qui n'avaient pas d'autre source
de subsistance que l'organisation.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 1
Structures organisationnelles
Machine Translated by Google
Machine Translated by Google

La théorie des coûts d'action d'une entreprise (Coase, 1937) postule qu'il y a
Les organisations
des coûts existent
associésparce qu'elles servent
aux transactions sur le un but utile.
marché et queLes
lestrans
organisations ne
profitent que lorsqu'elles offrent un avantage de coût. Des exemples de ces coûts incluent
le coût de la découverte des prix du marché, les coûts de négociation et de passation de
marchés, les taxes sur les ventes et autres taxes sur les échanges entre entreprises, le
coût de la réglementation des transactions entre entreprises, etc.
La théorie des coûts de transaction offre un cadre pour comprendre les limites de
la taille d'une entreprise. À mesure que les entreprises se développent, il devient plus
coûteux d'organiser des transactions supplémentaires au sein de l'entreprise, appelées
« rendements décroissants de la gestion ». Lorsque le coût d'organisation d'une
transaction supplémentaire est égal au coût de réalisation de la transaction sur le
marché libre, la croissance de l'entreprise s'arrête. Bien entendu, ces coûts sont
également affectés par la technologie : les télécopieurs (à leur époque), les satellites,
les ordinateurs et, plus récemment, Internet ont chacun modifié le coût d'organisation,
impactant d'autant la taille optimale de l'entreprise. De telles inventions ont simultanément
un impact sur le coût d'utilisation des marchés externes, de sorte que l'impact relatif de
la technologie sur les coûts du marché et les coûts d'organisation détermine l'impact global sur l'organisati
De toute évidence, la capacité d'effectuer efficacement des transactions sur le marché, avec un
minimum de frais généraux bureaucratiques, a un impact sur l'utilité d'une organisation pour le
marché, ainsi que sur sa prospérité et sa durée de vie éventuelle.

Théorie générale de la structure organisationnelle


Les organisations consistent en des systèmes de relations qui dirigent et allouent
des ressources ; par conséquent, le but de la structure organisationnelle est de
développer des relations qui remplissent bien ces fonctions. Il existe plusieurs
manières possibles de visualiser ces relations. La vue la plus courante est la vue
de la relation hiérarchique. Ici, l'organisation est considérée comme une entité
composée de personnes qui ont le pouvoir de diriger d'autres personnes, leurs
«rapports». Dans cette optique, l'organisation apparaît comme un triangle stratifié,
les positions supérieures dans une strate donnée du triangle ayant le pouvoir de
diriger les positions inférieures. Dans les organisations modernes, le pouvoir
d'établir les politiques et de planifier l'orientation stratégique appartient au plus haut niveau de la hié

5
Machine Translated by Google

6 Business ­ Systèmes de qualité intégrés

Figure 1.1 Les six éléments de base de l'organisation (Mintzberg et Quinn, 1991).

structure : le sommet stratégique. La ligne médiane est constituée du personnel


d'encadrement qui déploie la politique et le plan jusqu'au noyau opérationnel (au bas
de la structure). L'expertise et le soutien technologique sont assurés par des groupes
de professionnels qui ne sont pas directement impliqués dans les opérations.
L'ensemble de l'organisation est liée par un ensemble commun de croyances et de
valeurs partagées connues sous le nom d'idéologie de l'organisation. La figure 1.1 illustre ces idées.

La structure fonctionnelle/hiérarchique L'organisation


traditionnelle qui résulte de la conception ci­dessus de l'organisation est la structure
fonctionnelle/hiérarchique. Il s'agit d'une structure de commandement et de contrôle
aux origines militaires anciennes. Dans ce type d'organisation, le travail est divisé
selon la fonction, par exemple, le marketing, l'ingénierie, les finances, la fabrication,
etc. Une strate au sein de l'organisation est responsable d'une fonction particulière. Le
travail est délégué de haut en bas à l'intérieur de la strate à du personnel spécialisé
dans la fonction.
Un exemple d'organigramme hiérarchique fonctionnel traditionnel est illustré à la Fig.
1.2.
Un élément clé de la structure hiérarchique est ses éléments de commandement
et de contrôle, facilités par les théories de la gestion scientifique développées par
Frederick Taylor. Taylor croyait que la direction ne pourrait jamais contrôler efficacement
le lieu de travail à moins qu'elle ne contrôle le travail lui­même, c'est­à­dire les
Machine Translated by Google

Structures organisationnelles 7

Meilleur patron

Assistante du personnel

Grand patron de la comptabilité Top patron de l'ingénierie Top patron de la qualité

Chef de la division A ingénierie Chef de la division B ingénierie

Ingénieur Division A #1 Ingénieur Division A #2

Figure 1.2 Organigramme fonctionnel/hiérarchique.

tâches effectuées par les travailleurs pour faire le travail. La direction pourrait améliorer l'efficacité du
travail, au profit à la fois de la direction et des travailleurs, en appliquant les méthodes de la science
pour (1) sélectionner les individus les mieux adaptés à un travail particulier et (2) identifier la manière
optimale dont les emplois pourraient être effectué. Henry Ford a encore fait progresser cette
déqualification de la main­d'œuvre grâce à la mécanisation de la production.

Malgré la résistance des artisans et des machinistes, qui ont compris la valeur de leurs
connaissances et de leurs compétences en termes de récompenses monétaires et de sécurité de
l'emploi, la réduction du travail à une série de tâches simples effectuées avec un investissement
relativement faible en formation est l'un des résultats majeurs de gestion scientifique. Les
ramifications de ces efforts comprennent une meilleure surveillance de la gestion, un investissement
réduit dans la formation des travailleurs et un remplacement plus facile de ceux qui ont fait un travail
insatisfaisant (avec des incitations pour améliorer les performances). Malheureusement, le travail
déqualifié est généralement beaucoup plus ennuyeux, ce qui entraîne une variété de problèmes tels
que des niveaux élevés de stress et le roulement du personnel.

L'héritage de la déqualification est que la main­d'œuvre est moins en mesure de changer à


mesure que de nouvelles conditions surviennent. Alors qu'un machiniste pouvait travailler pour
n'importe quel nombre d'entreprises dans de nombreuses industries, les chargeurs de machines
avaient une mobilité limitée en dehors de leur employeur actuel, augmentant ainsi les exigences
des travailleurs en matière de sécurité d'emploi. À l'ère moderne, le manque de compétences
généralisées des employés peut être un obstacle majeur à une réaction rapide à l'évolution rapide des conditions du marc
Lorsque des changements rapides créent de nouvelles tâches, l'expérience antérieure des travailleurs
ne les aide pas à s'adapter à la nouvelle situation ; ils doivent être constamment « recyclés ».

Sur le plan organisationnel, l'introduction de la gestion scientifique a perpétué la croissance de


la forme bureaucratique et a conduit de plus en plus à des structures de soutien organisationnel de
plus en plus grandes. Sur le plan technique, des unités organisationnelles ont été formées pour
codifier la connaissance détaillée des pratiques de travail nécessaires, y compris l'ingénierie de
fabrication, l'industrie
Machine Translated by Google

8 Business ­ Systèmes de qualité intégrés

l'ingénierie, le contrôle qualité, les ressources humaines et la comptabilité analytique.


Cette déqualification de la main­d'œuvre crée un nombre de plus en plus important de
transactions à gérer, ce qui conduit à son tour à des bureaucraties plus importantes et à des
rendements décroissants de la gestion, un problème décrit précédemment par Coase.
La structure organisationnelle traditionnelle a été mise sous pression ces dernières
années. Un problème avec la structure est qu'elle tend à produire une « mentalité de silo »
parmi ceux qui travaillent dans une strate particulière : ils ont tendance à voir l'entreprise du
point de vue d'un « comptable » ou d'un « ingénieur » plutôt que d'un point de vue à l'échelle
de l'entreprise. . Cela produit une tendance à optimiser leur fonction sans tenir compte de
l'effet sur le reste de l'organisation ­ une tendance qui produit des résultats nettement sous­
optimaux lorsqu'elle est vue d'un point de vue holistique. La coopération est découragée
dans une telle organisation. Dans ces structures, les employés ont tendance à considérer
leurs supérieurs comme leurs « clients ». L'objectif devient de plaire à son patron plutôt que
de plaire au client externe. Enfin, l'arrangement descendant se traduit souvent par une
allocation des ressources qui ne répond pas de manière optimale aux besoins des clients
externes, qui sont généralement servis par des processus qui recoupent plusieurs fonctions
différentes.

Compte tenu de ces problèmes, on peut se demander pourquoi de telles organisations


dominent encore la scène des affaires. Il y a plusieurs raisons, dont la principale est le
niveau d'aisance des employés avec ce modèle : c'est le modèle dominant depuis des
décennies, il y a donc une résistance organisationnelle au changement. De plus, ces
organisations maximisent le développement et l'utilisation des compétences spécialisées.
Ils produisent une division du travail rentable au sein du sous­processus (mais pas
nécessairement à travers le système). Dans de nombreuses organisations, en particulier les
plus grandes, la structure fonctionnelle/hiérarchique permet des économies d'échelle pour
les activités spécialisées. Enfin, ces organisations offrent des cheminements de carrière
clairs aux spécialistes. Un exemple typique est la fonction qualité, où l'on peut entrer dans
la spécialité après le lycée et potentiellement accéder à des postes progressivement plus
élevés tout au long de sa carrière.

Organisations matricielles
Dans une organisation matricielle, la hiérarchie fonctionnelle reste intacte, mais une
structure d'équipe interfonctionnelle horizontale se superpose à la hiérarchie fonctionnelle.
La forme matricielle est illustrée à la Fig. 1.3.
La forme matricielle a été largement utilisée dans les années 1970 comme méthode
générale d'organisation du travail. La plupart des entreprises ont conclu qu'il n'était pas
pratique d'organiser le travail de routine de cette manière. Pourtant, grâce à cette expérience,
la structure matricielle est bien comprise. De plus, la matrice s'est avérée utile comme
méthode de conduite de grands projets transversaux. Dans une certaine mesure, la forme
matricielle surmonte la mentalité « cloisonnée » de la hiérarchie fonctionnelle en créant des
équipes interfonctionnelles.
Lorsqu'elle est utilisée pour des projets, l'approche matricielle crée des structures qui
sont focalisées (sur le projet) et peuvent exister temporairement. En fait, la plupart des grands,
Machine Translated by Google

Structures organisationnelles 9

UN B C D

Projet

UN

Figure 1.3 Structure organisationnelle matricielle.

les projets multifonctionnels d'amélioration de la qualité sont organisés à l'aide du


formulaire matriciel. Cette approche de l'organisation de la gestion de projet est
discutée plus en détail au Chap. 15.

Structure organisationnelle interfonctionnelle Comme


nous l'avons vu précédemment, un problème majeur de la structure fonctionnelle/
hiérarchique est la prolifération de perspectives ministérielles ciblées. Cela se traduit
invariablement par la négligence des problèmes à l'échelle de l'entreprise. Les
structures interfonctionnelles permettent de casser cet état d'esprit. La figure 1.4
montre la disposition de base d'une structure d'organisation interfonctionnelle. A noter que l'apparence

Responsable de fonction

Fonction Fonction Fonction Fonction

Domaine de
UN B C D

préoccupation

Qualité

Coût

Temps
d'un cycle

Figure 1.4 Structure organisationnelle interfonctionnelle.


Machine Translated by Google

dix Business ­ Systèmes de qualité intégrés

est similaire à celle de la structure matricielle. Cependant, il existe un certain nombre de différences
importantes entre les structures matricielles et transversales :

• Portée. Les organisations interfonctionnelles traitent des problèmes à l'échelle de l'entreprise,


tandis que les organisations matricielles se concentrent sur des tâches, des objectifs ou des

projets spécifiques. • Durée. Les organisations matricielles sont temporaires, tandis que transversales
les organisations sont souvent permanentes.

• Mise au point. Les organisations interfonctionnelles traitent souvent avec des groupes externes
tels que les clients, la société au sens large ou les régulateurs. Les organisations matricielles
se concentrent généralement sur les préoccupations internes.

• Adhésion. L'adhésion à des organisations interfonctionnelles se compose généralement de


cadres fonctionnels de haut niveau. Les membres des organisations matricielles se composent
généralement de personnel possédant les compétences techniques nécessaires pour accomplir
une tâche spécifique.

Par rapport aux organisations traditionnelles, les organisations interfonctionnelles offrent une
meilleure coordination et intégration du travail, des temps de réponse plus rapides, des contrôles de coûts
simplifiés, une plus grande utilisation de la créativité et une plus grande satisfaction au travail. Il convient
de noter que les organisations interfonctionnelles s'ajoutent plutôt qu'elles ne remplacent les organisations
traditionnelles.

Structures organisationnelles basées sur les processus ou les produits (horizontales)


Les « organisations horizontales » basées sur les processus et les produits présentent une orientation
entièrement différente de celle des organisations traditionnelles. La base de cette structure organisationnelle
est l'objectif du travail organisé, c'est­à­dire le produit ou le service créé. Cela diffère nettement de la
structure traditionnelle, qui est basée sur des rapports hiérarchiques. Un exemple de structure
organisationnelle axée sur le processus client est illustré à la Fig. 1.5, qui est un processus de travail et
d'accouchement « axé sur le patient » dans un hôpital.

Fournisseurs Clients et fournisseurs Externe


externes internes Clients

Services pastoraux Services


Référence
environnementaux
Infirmière
Infirmière Facturation Famille
Médecin
Patient
Mère et bébé

Fournisseur
Services de laboratoire OB/GYN
pharmaceutique Doula Groupe de soutien
Transport
Le clergé
tiers payeur

Figure 1.5 Structure d'organisation des soins axés sur le patient.


Machine Translated by Google

Structures organisationnelles 11

Le responsable qualité compétent reconnaîtra immédiatement la similitude de la


Fig. 1.5 avec le diagramme de cause à effet. C'est une anal gie utile. Les « effets »
recherchés doivent être clairement définis avant de pouvoir procéder à la conception
de ce type d'organisation. Les « causes » sont intégrées à l'organisation de telle sorte
que les effets souhaités peuvent être produits de manière cohérente et économique.
Notez que la conception peut s'adapter à plusieurs clients, fournisseurs et sous­
processus internes ; dans cet exemple, la mère et le bébé sont les principaux clients.
Le périmètre n'est ni interne ni externe : il embrasse l'ensemble du processus.

Il convient également de noter l'absence totale de liens hiérarchiques.


Le fondement de ce type d'organisation est le flux de travail, pas l'autorité. En effet,
tout le monde « rend compte » au client. Ce brouillage des lignes d'autorité est une
caractéristique de ce type d'organisation, qui peut être une source d'inconfort pour
ceux qui sont habitués à la chaîne de commandement claire inhérente aux organisations
traditionnelles. Il s'agit évidemment d'un changement culturel important. Un autre
changement culturel est l'effacement du groupe professionnel de référence. Dans les
organisations fonctionnelles, les professionnels (par exemple, les comptables, les
infirmières, les médecins, les ingénieurs) relèvent et travaillent avec d'autres dans la
même profession et sont souvent plus fidèles à leur profession qu'à leur employeur.
Cela change radicalement dans les organisations horizontales. Le passage d'une
approche de gestion traditionnelle à une structure horizontale doit traiter explicitement
des aspects culturels du changement.
Les organisations horizontales maximisent les compétences de base, plutôt que
de sous­optimiser les fonctions quasi indépendantes. Par exemple, dans l'exemple
des soins centrés sur le patient, plusieurs activités de soutien sont impliquées dans la
prestation des soins (services de laboratoire, transport, etc.). Dans une organisation
traditionnelle, le responsable du laboratoire aurait tendance à optimiser le laboratoire,
le responsable du transport à optimiser le transport, etc. Cependant, dans l'organisation
horizontale, l'optimisation est centrée sur la prestation des soins. Cela pourrait bien se
traduire par une performance perçue comme « sous­optimale » des activités de
soutien, si chacune est (de manière inappropriée) considérée isolément.
L'expérience a montré que les organisations horizontales ont obtenu des gains
d'efficacité considérablement améliorés par rapport aux organisations hiérarchiques
traditionnelles. L'une des raisons réside dans la réintégration intelligente du travail
pour corriger les pratiques de travail désintégrées prônées par les théories scientifiques
de gestion de Taylor. Cette ségrégation du travail a été réalisée en partie en réponse
à des conditions qui n'existent plus : une main­d'œuvre mieux formée associée à la
technologie moderne permet de concevoir des processus intégrés qui combinent des
tâches connexes et mettent les ressources nécessaires sous contrôle local.
Outre l'amélioration de l'efficacité, la nouvelle approche du travail crée d'autres
résultats bienvenus, notamment : un meilleur moral des employés, une satisfaction
accrue des clients et une plus grande loyauté et coopération des fournisseurs.
Le tableau 1.1 résume l'évolution du modèle du marché. À certains égards,
l'évolution de l'environnement des affaires implique un retour au
Machine Translated by Google

12 Business ­ Systèmes de qualité intégrés

Était Est

Marchés nationaux Marchés internationaux

Compétition nationale Compétition internationale

Maîtriser l'environnement des affaires S'adapter à l'environnement


rapidement

Produit homogène Produit personnalisé

Emplois déqualifiés Travaux complexes

Capital spécifique au produit Systèmes flexibles

Maintenir le statu quo Amélioration continue

Gestion par le contrôle Gestion par la planification

Tableau 1.1 L'évolution de l'environnement des affaires

l'ère artisanale du passé : des métiers plus complexes d'où le besoin de main­d'œuvre
disposant d'un répertoire de compétences plus large. D'autres tendances s'inscrivent dans
la continuité des tendances passées : les marchés internationaux sont la prochaine étape
logique après le passage des marchés locaux aux marchés nationaux. À d'autres égards,
le nouveau monde des affaires est tout simplement différent : les systèmes flexibles
modernes divergent fondamentalement des systèmes précédents.
Il s'ensuit que les organisations d'hier, qui ont évolué en réponse aux réalités du passé,
pourraient ne pas être adaptées à la réalité changeante. En fait, il existe des preuves solides
suggérant que les organisations qui ne s'adaptent pas disparaîtront tout simplement. Plus
de 40 % de la liste de 1979 du Fortune 500 avait disparu en 1990 (Peters, 1990). Les
organisations qui ont réussi à progresser ne sont pas restées immobiles.

Formes d'organisation
En plus de décrire les organisations en termes de structures, Mintzberg (1994) les décrit
également en termes de formes. Mintzberg propose un cadre de cinq formes fondamentales
d'organisation :

1. L'organisation de la machine. Bureaucratie classique, hautement formalisée,


spécialisée et centralisée, et dépendant largement de la standardisation des
processus de travail pour la coordination. Courant dans les industries stables et
matures avec un travail d'exploitation principalement rationalisé et répétitif
(comme dans les compagnies aériennes, les constructeurs automobiles, les banques de détail).
2. L'organisation entrepreneuriale. Structure flexible, non élaborée, étroitement et
personnellement contrôlée par le directeur général, qui coordonne par supervision
directe. Courant dans les situations de démarrage et de redressement ainsi que
dans les petites entreprises.

3. L'organisation professionnelle. Organisé pour effectuer le travail d'expert dans des


cadres relativement stables, mettant ainsi l'accent sur la normalisation
Machine Translated by Google

Structures organisationnelles 13

de compétences et de catalogage des prestations à réaliser par des


spécialistes plutôt autonomes et influents, les administrateurs servant plus
d'appui que de contrôle ; courant dans les hôpitaux, les universités et d'autres
services spécialisés et artisanaux.

4. L'organisation Adhocratie. Organisé pour effectuer des travaux d'expertise


dans des cadres très dynamiques, où les experts doivent travailler en
coopération dans des équipes de projet, coordonnant les activités par
ajustement mutuel, dans des formes de structure flexibles, généralement
matricielles; que l'on trouve dans les industries de « haute technologie » telles
que l'aérospatiale et dans les projets tels que le cinéma, ainsi que dans les
organisations qui doivent tronquer leurs opérations matures plus semblables
à des machines afin de se concentrer sur le développement de produits.
5. L'organisation diversifiée. Toute organisation scindée en divisions semi­
autonomes pour servir une diversité de marchés, le « siège social » s'appuyant
sur des systèmes de contrôle financier pour normaliser les sorties des
divisions, qui tendent à prendre la forme d'une machine.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 2
La fonction qualité
Machine Translated by Google
Machine Translated by Google

discuté au chap. 1, les organisations sont traditionnellement structurées


selon des spécialisations fonctionnelles, par exemple, le marketing,
Commel'ingénierie, les achats, la fabrication. Conceptuellement, chaque fonction
exécute une activité essentielle pour apporter de la valeur au client. Dans le passé,
ces activités étaient exécutées de manière séquentielle. Comme le montre la
figure 2.1, Shewhart, Deming et Juran décrivent tous ces activités comme formant
un cercle ou une spirale, où chaque cycle incorpore des informations et des
connaissances acquises au cours du cycle précédent.

Juran Trilogy
Juran et Gryna (1988, p. 2.6) définissent la fonction qualité comme « l'ensemble
des activités grâce auxquelles nous atteignons l'aptitude à l'emploi, quel que
soit l'endroit où ces activités sont exécutées ». La qualité est donc influencée
par, sinon la responsabilité de nombreux départements différents. Dans la
plupart des cas, le service qualité joue un rôle secondaire de soutien. Si le
service qualité est une fonction spécialisée, les activités qualité sont dispersées
dans l'ensemble de l'organisation. Le terme « fonction qualité » s'applique aux
activités, départementales et à l'échelle de l'entreprise, qui aboutissent
collectivement à la qualité du produit ou du service. Une analogie peut être faite
avec le département des finances. Même si de nombreuses fonctions financières
et comptables spécialisées sont gérées par le service des finances, chaque
employé de l'organisation doit pratiquer une gestion responsable de ses budgets et de ses dépe
Juran et Gryna (1988) ont regroupé les activités de qualité en trois catégories,
parfois appelées la trilogie de Juran : planification, contrôle et amélioration. La
planification de la qualité est l'activité de développement des produits et des
processus nécessaires pour répondre aux besoins des clients. Elle implique un
certain nombre d'étapes universelles (Juran et DeFeo, 2010) :
•Définir les clients.
•Déterminer les besoins du client.
•Développer des fonctionnalités de produits et de services pour répondre aux

besoins des clients. •Développer des processus pour fournir les fonctionnalités du

produit et du service. •Transférer les plans résultants au personnel opérationnel.

17
Machine Translated by Google

18 Business ­ Systèmes de qualité intégrés

Figure 2.1 (a) Représentation des activités de qualité dans l'organisation (Shewhart, 1939). (b) La
roue de contrôle de la qualité de Deming (1986). (c) la spirale de progrès de la qualité de Juran (Juran
et Gryna, 1988).
Machine Translated by Google

L a fonction qualité 19

marché
Étude
de

Retour

Utiliser

Service
Clients
Commerce de détail
Produit
marché
Étude
de Produitdéveloppement
Commercialisation conception
Commerce de gros

spécifications
Recherche
de
Inspection; test
s
Pu
Production;
Fabrication
planification
Fournisseur
processus
contrôle
de

(c)

Illustration 2.1 (suite)


Machine Translated by Google

20 Business ­ Systèmes de qualité intégrés

Le contrôle de la qualité est le processus utilisé par le personnel opérationnel pour


s'assurer que leurs processus répondent aux exigences du produit et du service (définies
lors de la phase de planification). Il est basé sur la boucle de rétroaction et se compose des
étapes suivantes :

•Évaluer les performances opérationnelles réelles.


•Comparer les performances réelles avec les objectifs.
•Agir sur la différence.

L'amélioration de la qualité vise à atteindre des niveaux de performance sans précédent,


des niveaux nettement supérieurs à tous les niveaux antérieurs.
Les méthodologies recommandées pour les efforts d'amélioration de la qualité utilisent les
équipes de projet Six Sigma, comme décrit dans la partie IV. Notamment, alors que la
version précédente du manuel de qualité de Juran ne préconisait pas spécifiquement des
équipes interfonctionnelles basées sur des projets pour les efforts d'amélioration de la
qualité, la sixième édition la plus récente (2010) prescrit clairement leur utilisation.
La mission de la fonction qualité est la gestion de la qualité à l'échelle de l'entreprise.
La gestion de la qualité est le processus d'identification et d'administration des activités
nécessaires pour atteindre les objectifs de qualité de l'organisme.
Ces activités entreront dans l'une des trois catégories de la trilogie de Juran.
Étant donné que la fonction qualité transcende tout service qualité spécialisé, s'étendant
à toutes les activités de l'entreprise qui affectent la qualité, le rôle principal dans la gestion
de la fonction qualité est exercé par la haute direction. Seule la haute direction peut gérer
efficacement les activités interfonctionnelles nécessaires.

Comme l'importance de la qualité a augmenté, la fonction qualité a gagné en importance


au sein de la hiérarchie organisationnelle. La figure 2.2 présente

Président

vice­ vice­ Vice­ Vice­

président marketing président finances Qualité V.P. président ingénierie président production

Contrôle
Ingénierie Qualité Contrôle et
qualité
de la fiabilité Ingénierie CQ assurance essai
fournisseur

Figure 2.2 Qualité au sein d'un organigramme traditionnel.


Machine Translated by Google

L a fonction qualité 21

un organigramme moderne prototypique pour une hypothétique grande organisation


manufacturière.
Dans cette structure traditionnelle, les spécialistes de la qualité n'ont qu'une responsabilité
secondaire pour la plupart des tâches importantes qui ont un impact sur la qualité. Le tableau 2.1
énumère les principaux éléments de travail normalement exécutés par ces services spécialisés.

Parce que la hiérarchie traditionnelle et fonctionnellement spécialisée crée une « mentalité


de silo », chaque domaine fonctionnel a tendance à se concentrer sur sa propre fonction, souvent
au détriment de préoccupations transversales comme la qualité. Ce n'est pas un défaut de la main­
d'œuvre, mais un résultat prévisible du système dans lequel ces personnes travaillent. La situation
ne sera pas corrigée par des exhortations à penser ou à agir différemment. Il ne peut être changé
qu'en modifiant le système lui­même.

Plusieurs approches organisationnelles alternatives pour traiter les problèmes créés par la
structure traditionnelle ont déjà été discutées. L'organisation transversale est, à ce jour, la structure
alternative la plus répandue. Les « conseils » ou « comités de pilotage » de la qualité sont des
équipes interfonctionnelles qui établissent la politique de qualité et, dans une large mesure,
déterminent le rôle des spécialistes de la qualité dans la réalisation des objectifs de la politique.
Le comité de pilotage prend des décisions concernant la totalité des ressources de l'entreprise
(y compris celles affectées à d'autres domaines fonctionnels) à consacrer à la planification, à
l'amélioration et au contrôle de la qualité.

Les préoccupations de qualité doivent être équilibrées avec d'autres préoccupations


organisationnelles, telles que la part de marché, la rentabilité et le développement de nouveaux produits et

Fiabilité Établir des objectifs de fiabilité ; Répartition de la fiabilité ; Analyse des


Ingénierie contraintes ; Identification des pièces critiques ; Analyse des modes de défaillance
et des effets (FMEA); prédiction de fiabilité ; Examen de la conception; Choix du
fournisseur; Contrôle de la fiabilité lors de la fabrication ; Tests de fiabilité ; Système
de signalement des défaillances et d'action corrective Analyse de la

Qualité capacité des processus ; Planification de qualité ; Établir des normes de


Ingénierie qualité; Conception d'équipements d'essai et de jauges ; Dépannage de
qualité ; Analyse du matériel rejeté ou retourné ; Etudes particulières (erreur
de mesure, etc.)

Qualité Rédiger des procédures qualité; Maintenir le manuel de qualité ; Réaliser des
Assurance audits qualité; Systèmes d'information sur la qualité ; Certification de qualité;
Entraînement; Systèmes de coût qualité

Inspection et test Inspection et test en cours de fabrication ; Inspection et test du produit final ;
Être inspecté; Maintenance des dossiers d'inspection ; Étalonnage de la jauge

Qualité du fournisseur Enquêtes préalables auprès des fournisseurs ; Systèmes d'information sur la qualité des fournisseurs ;

Surveillance des fournisseurs ; Contrôle à la source

Tableau 2.1 Éléments de travail de qualité


Machine Translated by Google

22 Business ­ Systèmes de qualité intégrés

prestations de service. Les préoccupations des clients doivent être mises en balance avec
les préoccupations des investisseurs et des employés. La haute direction, composée de la
haute direction et du conseil d'administration, doit peser toutes ces préoccupations et arriver
à un plan d'allocation des ressources qui répond aux besoins de toutes les parties prenantes
de l'organisation. Le principe unificateur pour toutes les parties prenantes est le but de
l'organisation.
Il existe deux manières fondamentales de devenir (ou de rester) compétitif : atteindre une
qualité perçue supérieure en développant un ensemble de spécifications de produits et de
normes de service qui répondent plus étroitement aux besoins des clients que les
concurrents ; et atteindre une qualité de conformité supérieure en étant plus efficace que vos
concurrents pour se conformer aux spécifications de produit et aux normes de service
appropriées. Ceux­ci ne sont pas mutuellement exclusifs; d'excellentes entreprises font les
deux simultanément.
Les résultats de la recherche indiquent que l'obtention d' une qualité perçue supérieure
(c'est­à­dire telle que perçue par les clients) offre trois options à une entreprise, toutes
favorables à sa compétitivité (Buzzell et Gale, 1987) :

•Vous pouvez facturer un prix plus élevé pour votre qualité supérieure et ainsi augmenter
la rentabilité. •Vous pouvez
facturer un prix plus élevé et investir la prime dans la R&D, garantissant ainsi une
meilleure qualité perçue et une plus grande part de marché à l'avenir.

• Vous pouvez facturer le même prix que votre concurrent pour votre produit supérieur, ce qui
vous permet de gagner des parts de marché. Une part de marché accrue, à son tour, signifie
une croissance du volume et une augmentation de l'utilisation de la capacité (ou de l'expansion
de la capacité), ce qui vous permet de réduire les coûts (ou d'augmenter les bénéfices).

La recherche suggère également des avantages supplémentaires pour les entreprises


qui offrent une qualité perçue supérieure, notamment une plus grande fidélité des clients ;
plus d'achats répétés ; et des coûts de commercialisation réduits. L'obtention d'une qualité de
conformité supérieure offre deux avantages clés :

• Coût de la qualité inférieur à celui des concurrents, ce qui se traduit par une baisse
coût total.

•Étant donné que la qualité de conformité est un facteur dans l'obtention de la qualité
perçue, elle conduit aux avantages de la qualité perçue énumérés ci­dessus.

La « satisfaction » du client ne se produit pas simplement ; c'est un effet. La qualité est


une cause importante de l'effet de satisfaction client, avec le prix, la commodité, le service et
une foule d'autres variables. Qualité et satisfaction client ne sont pas synonymes ; le premier
provoque le second. En général, les entreprises ne recherchent pas la satisfaction du client
comme une fin en soi. L'hypothèse est qu'une satisfaction accrue des clients entraînera une
augmentation des revenus et des bénéfices, du moins à long terme. Cette présomption a été
validée par de nombreuses études, dont le Profit Impact of
Machine Translated by Google

L a fonction qualité 23

100

80

60
recommandera
Qui
%

40

20

0
Excellent Bien Équitable Pauvre

Figure 2.3 Satisfaction client et ventes.

Études de stratégie de marché (PIMS) (Buzzell et Gale, 1987). Depuis 1972, le


programme PIMS, travaillant avec une base de données de 450 entreprises et 3000
unités commerciales, a développé un ensemble de principes de stratégie commerciale
basés sur les expériences réelles des entreprises. Les principes tirés de cette base
de données fournissent une base pour l'analyse spécifique à la situation que les
gestionnaires effectuent pour arriver à de bonnes décisions. La recherche PIMS
indique que la qualité est le principal moteur de la satisfaction client, qui à son tour a
un impact sur une grande variété d'autres mesures de la réussite organisationnelle. La
figure 2.3, basée sur des données clients réelles, illustre une relation importante : le
pourcentage de clients qui recommandent l'achat des produits ou services de
l'entreprise à d'autres.
Sur la base de données telles que celles­ci et des relations entre ces données et
d'autres mesures de la réussite commerciale, les auteurs du PIMS ont conclu : "Le
client est ROI !" Pour mieux servir les clients, le programme de qualité réussi appliquera
des principes, des techniques et des outils spécifiques pour mieux comprendre et
servir la redevance de leur entreprise ­ le client.

Fonctions commerciales connexes


Il existe de nombreuses fonctions commerciales connexes au sein de l'organisation qui
impliquent la mission qualité de manière significative, mais qui ne sont pas correctement
considérées comme des « fonctions qualité ».

Sécurité

Un problème de sécurité survient lorsqu'un produit, du fait de son utilisation ou d'une mauvaise utilisation
prévisible, présente un danger pour l'utilisateur ou d'autres personnes. De toute évidence, l'approche
optimale pour résoudre les problèmes de sécurité passe par la prévention. Les activités d'examen de la
conception des produits et des processus doivent inclure la sécurité comme objectif principal. La sécurité est tout à fait
Machine Translated by Google

24 Business ­ Systèmes de qualité intégrés

simplement une exigence de conformité. Le rôle principal du professionnel de la qualité est la


création de systèmes de prévention et de détection des problèmes de sécurité causés par la
non­conformité aux exigences établies et le développement de systèmes de contrôle de la
traçabilité des produits pouvant présenter des problèmes de sécurité latents qui pourraient être
découverts ultérieurement, ou qui peuvent développer ces problèmes à la suite d'une utilisation
imprévue du produit.

Il existe une myriade d'agences gouvernementales qui sont principalement concernées


par la sécurité, y compris la Consumer Product Safety Commission (CPSC), qui s'occupe de la
sécurité des produits de consommation ; le Bureau de l'environnement, de la sécurité et de la
santé du Conseil de la sécurité des installations nucléaires de la Défense ; le Centre pour la
sécurité alimentaire et la nutrition appliquée ; l'Administration de la sécurité et de la santé dans
les mines ; l'administration de la sécurité et de la santé au travail (OSHA); le Bureau de la
sécurité du système ; et le Conseil de sûreté des installations nucléaires de la Défense, entre
autres.

Questions de
réglementation Pendant de nombreuses années, « l'industrie » à la croissance la plus rapide
aux États­Unis a été la réglementation fédérale des affaires. La Small Business Administration
des États­Unis a estimé que la seule conformité aux réglementations fédérales a consommé
1,75 billion de dollars en 2008 (Crain et Crain, 2010), soit environ 13 % du PIB de 2008. Chaque
année, plus de 150 000 pages de nouvelles réglementations sont publiées par des agences
gouvernementales. Le responsable qualité sera presque certainement confronté à des
problèmes de conformité réglementaire dans son travail. Dans certaines industries, la conformité
peut être la principale composante du travail du responsable qualité.

Responsabilité du fait
des produits Le sujet de la qualité et de la loi est également connu sous le nom de responsabilité
du fait des produits. Bien qu'on ne s'attende pas à ce que le responsable qualité soit un expert
en la matière, les activités liées à la qualité ont une incidence directe sur l'exposition à la
responsabilité des produits d'une organisation et méritent l'attention du responsable qualité.
Pour comprendre la responsabilité du fait des produits, il faut d'abord saisir le vocabulaire du
sujet. Le tableau 2.2 présente la terminologie de base (Thorpe et Middendorf, p. 20­21).
Il existe trois théories juridiques impliquées dans la responsabilité du fait des produits : la violation de la
garantie, la responsabilité stricte en matière délictuelle et la négligence. Deux branches du droit traitent de ces
domaines, le droit des contrats et le droit de la responsabilité délictuelle.

Un contrat est un accord contraignant pour la violation duquel la loi prévoit un recours. Les
concepts clés du droit des contrats relatifs à la responsabilité du fait des produits sont ceux de
rupture de garantie et de confidentialité du contrat.
La violation de la garantie peut provenir d'une garantie expresse ou d'une garantie implicite.
Une garantie expresse fait partie de la base d'une vente : l'acheteur a accepté l'achat en
supposant raisonnablement que le produit fonctionnerait de la manière décrite par le vendeur.
Celui du vendeur
Machine Translated by Google

L a fonction qualité 25

Prise de risque La théorie juridique selon laquelle une personne consciente d'un danger et de son ampleur et
qui s'y expose sciemment assume tous les risques et ne peut obtenir réparation, même si elle est
lésée sans qu'il y ait eu faute de sa part.
Négligence La négligence du demandeur qui contribue à son préjudice et qui, en common law, l'empêche
contributive généralement d'obtenir réparation auprès du défendeur, bien que le défendeur ait pu être plus négligent
que le demandeur.
Déposition Le témoignage d'un témoin pris hors cour devant une personne autorisée à faire prêter serment.

Découverte Procédures d'établissement des faits avant le procès afin d'éliminer l'élément de surprise
dans les litiges.
Devoir d'attention L'obligation légale de toute personne de faire preuve de diligence pour la sécurité d'autrui et d'éviter
de blesser les autres dans la mesure du possible.
Garantie Une déclaration d'un fabricant ou d'un vendeur, écrite ou orale, selon laquelle son produit est
expresse adapté à un usage spécifique et fonctionnera d'une manière spécifique.
Prévisibilité Théorie juridique selon laquelle une personne ne peut être tenue responsable d'actes entraînant des
blessures ou des dommages que lorsqu'elle était en mesure de prévoir les dangers et les risques
raisonnablement prévisibles.
Grand soin Le degré élevé de soin qu'une personne très prudente et prudente entreprendrait pour la
sécurité des autres. Les compagnies aériennes, les chemins de fer et les bus doivent
généralement faire preuve d'une grande prudence.
Garantie Une garantie automatique, implicite par la loi, que le produit d'un fabricant ou d'un revendeur
implicite est adapté à des fins ordinaires ou spécifiques et est raisonnablement sûr à utiliser.

Responsabilité Une obligation de réparer ou de dédommager toute blessure ou tout dommage dont la personne
responsable a été tenue responsable ou pour le non­respect d'une garantie par un produit.

Négligence Défaut d'exercer une diligence raisonnable ou de s'acquitter d'une obligation légale qui entraîne des
blessures ou des dommages matériels à autrui.
Péril évident La théorie juridique selon laquelle un fabricant n'est pas tenu d'avertir les utilisateurs potentiels
de produits dont l'utilisation comporte un péril évident, en particulier ceux qui sont bien connus du
grand public et qui ne peuvent généralement pas être conçus à partir du produit.

À première vue Une telle preuve en elle­même établirait la réclamation ou la défense de la partie si la preuve était
crue.

Confidentialité Une relation contractuelle directe entre un vendeur et un acheteur. Si A fabrique un


produit qui est vendu au revendeur B, qui le vend au consommateur C, il existe un lien entre A et B
et entre B et C, mais pas entre A et C.

Proche L'acte qui est la cause naturelle et raisonnablement prévisible du préjudice ou de l'événement qui se
cause produit et blesse le demandeur.
Raisonnable Le degré de soin exercé par une personne prudente dans le respect de ses devoirs légaux envers les
se soucier autres.

Res ipsa L'inférence permise selon laquelle le défendeur a fait preuve de négligence en ce que « la
loquitur chose parle d'elle­même » lorsque les circonstances sont telles que, normalement, le demandeur
n'aurait pas pu être lésé si le défendeur n'avait pas été fautif.

Tableau 2.2 Terminologie juridique fondamentale


Machine Translated by Google

26 Business ­ Systèmes de qualité intégrés

Norme de La théorie juridique selon laquelle une personne qui a une obligation légale doit
raisonnable exercer le même soin qu'une personne raisonnablement prudente observerait dans des
prudence circonstances similaires.
Responsabilité stricte en La théorie juridique selon laquelle le fabricant d'un produit est responsable des blessures
matière délictuelle dues aux défauts du produit, sans qu'il soit nécessaire de démontrer la négligence
du fabricant.
Subrogation Le droit du débiteur secondairement responsable de se substituer au créancier après
qu'il a effectué le paiement au créancier et de faire valoir le droit du créancier contre le
débiteur principal afin d'obtenir de lui une indemnité.
Délit Un acte fautif ou un défaut de diligence, pouvant entraîner une action en justice civile.

Tableau 2.2 Terminologie juridique fondamentale (suite)

la déclaration n'a pas besoin d'être écrite pour que la garantie soit une garantie
expresse ; sa simple déclaration de fait est suffisante. Une garantie implicite est
une garantie non énoncée par le vendeur, mais implicite par la loi. Certaines
garanties résultent du simple fait qu'une vente a été réalisée. L'un des attributs
les plus importants garantis par une garantie implicite est celui de l'aptitude à un
usage normal. La garantie est que le produit est raisonnablement sûr.

Le lien contractuel signifie qu'il existe une relation directe entre deux parties,
généralement l'acheteur et le vendeur. À une certaine époque, les fabricants
n'étaient pas tenus responsables des produits achetés à des vendeurs ou
vendus à un consommateur par l'intermédiaire d'une chaîne de grossistes, de
revendeurs, etc. Les fabricants étaient traités comme des tiers cessionnaires et
n'étaient pas en relation privée avec l'utilisateur final. Ce concept a commencé à
se détériorer en 1905 lorsque les tribunaux ont commencé à autoriser les
poursuites contre les vendeurs d'aliments malsains, qu'ils soient ou non
négligents, et contre les fabricants d'origine, qu'ils soient ou non en relation avec
les consommateurs. La première reconnaissance de responsabilité stricte pour
une garantie expresse sans égard à la confidentialité a été énoncée par un
tribunal de Washington en 1932 dans une affaire impliquant une garantie
expresse de Ford Motor Company que leurs pare­brise étaient « incassables ».
Lorsque le pare­brise s'est brisé et a blessé un consommateur, le tribunal a
autorisé la poursuite contre Ford, statuant que même sans lien de confidentialité,
le fabricant était responsable de la fausse déclaration, même si la fausse déclaration avait été faite
En vertu de la règle de la responsabilité stricte , un consommateur innocent
qui ignore tout des clauses de non­responsabilité et de l'obligation d'informer un
fabricant avec lequel il n'a pas fait affaire ne peut être empêché d'intenter une
action. La règle évite les limites techniques de la confidentialité, qui peuvent
créer une chaîne de poursuites judiciaires jusqu'à la partie qui a initialement mis
le produit défectueux dans le flux commercial. Le vendeur (qu'il soit vendeur ou
fabricant) est responsable même s'il a manipulé le produit avec soin et même si
le consommateur n'a pas traité directement avec lui.
Machine Translated by Google

L a fonction qualité 27

Le premier cas à appliquer cette règle moderne était Greenman contre Yuba Power
Products, Inc., en Californie en 1963. Une partie, M. Greenman, a été blessé lorsqu'une
pièce a volé d'un outil électrique combiné acheté pour lui par sa femme deux années avant
la blessure. Il a poursuivi le fabricant et produit des témoins pour prouver que la machine a
été conçue avec des vis de réglage inadéquates.

Le fabricant, qui avait annoncé que l'outil électrique avait une « construction robuste »
et des « verrouillages positifs qui tiennent grâce à un travail grossier ou de précision », a
affirmé qu'il ne devrait pas avoir à payer de dommages­intérêts parce que le demandeur ne
lui avait pas donné d'avis de violation de garantie dans un délai raisonnable selon les
besoins. En outre, une longue série d'affaires californiennes avaient statué qu'un demandeur
ne pouvait pas poursuivre quelqu'un qui n'était pas en contact avec lui à moins que le produit
défectueux ne soit de la nourriture.
Le tribunal a répondu qu'il ne s'agissait pas d'un cas de garantie mais d'un cas de
responsabilité stricte. La décision précise que tout « fabricant est strictement responsable
[…] lorsqu'un article qu'il a mis sur le marché, sachant qu'il doit être utilisé sans contrôle des
défauts, s'avère présenter un défaut causant un préjudice à un être humain ».

Le concept de responsabilité stricte a marqué un tournant à la fois pour le mouvement


des consommateurs et pour le contrôle de la qualité. L'utilisation de méthodes de contrôle
de la qualité efficaces et modernes est devenue une question d'importance primordiale. Le
concept est également appelé responsabilité stricte en matière délictuelle, qui est
pratiquement synonyme de l'usage courant du terme «responsabilité du fait des produits».
Un délit est un acte fautif ou un manquement à l'obligation de diligence résultant d'un
préjudice, pouvant donner lieu à des poursuites civiles. Le droit de la responsabilité
délictuelle vise à indemniser les personnes qui subissent des pertes en raison des actions
dangereuses ou déraisonnables d'autrui.
Un concept connexe est celui de négligence. Il y a négligence lorsqu'une personne ne
remplit pas une obligation envers une autre ou n'agit pas avec la diligence requise. Deux
éléments sont nécessaires pour établir la négligence : une norme de diligence reconnue
par la loi et un manquement à l'obligation ou à la diligence requise. De plus, le manquement
au devoir doit être la cause immédiate du préjudice ou de la blessure. La norme de diligence
acceptée est celle de la « personne raisonnable ». Le tribunal doit mesurer l'action des
parties impliquées par rapport aux actions attendues d'une personne raisonnable imaginaire.
Pour brouiller davantage les cartes, le tribunal doit peser le risque ou le danger de la
situation par rapport au concept de « risque raisonnable ». De toute évidence, ces concepts
sont loin d'être coupés et séchés.
L'affaire citée ci­dessus, et de nombreux autres développements depuis, ont abouti à
une caractéristique propre au droit de la responsabilité du fait des produits : à savoir, la
conduite du fabricant n'est pas pertinente.
Le demandeur dans une action en responsabilité du fait des produits n'a pas besoin
de prouver que le fabricant n'a pas exercé la diligence requise; il lui suffit de démontrer que
le produit était la cause immédiate du dommage et qu'il était soit défectueux, soit
déraisonnablement dangereux. C'est ce que l'on entend par "responsabilité stricte". Dans un sens, c'est
Machine Translated by Google

28 Business ­ Systèmes de qualité intégrés

le produit qui est à l'essai et non le fabricant. Il existe plusieurs domaines dans lesquels
l'ingénierie et la gestion sont vulnérables, notamment la conception; fabrication et matériaux;
emballage, installation et application ; et les avertissements et les étiquettes.

Les conceptions qui créent des dangers cachés pour l'utilisateur, les conceptions qui ne
sont pas conformes aux normes acceptées, les conceptions qui excluent les dispositifs ou
dispositifs de sécurité nécessaires, ou les conceptions qui ne permettent pas correctement
une éventuelle mauvaise utilisation ou un abus dangereux raisonnablement prévisible pour le
concepteur sont toutes suspect. Le contrôle de la qualité comprend l'examen de la conception
comme l'un de ses principaux éléments, et toutes les conceptions doivent être soigneusement
évaluées pour ces lacunes. Comme toujours, le concept de raisonnabilité s'applique dans
toute son ambiguïté.
L'application des principes de contrôle de la qualité à la fabrication, aux matériaux, à
l'emballage et à l'expédition est probablement la meilleure protection possible contre de futurs
litiges. La prévention des défauts est l'objectif principal du contrôle qualité et le défaut qui
n'est pas fait n'entraînera jamais de perte ou de blessure. Gardez toutefois à l'esprit qu'un
défaut de contrôle qualité est généralement défini comme une non­conformité aux exigences.
Il n'y a pas une telle définition dans la loi. Les définitions légales d'un défaut sont basées sur
le concept de caractère raisonnable et la nécessité de considérer l'utilisation du produit.

Enjeux environnementaux liés à la fonction qualité


Le premier lien entre les enjeux environnementaux et la fonction qualité est la norme ISO
14000 qui couvre six domaines :

1. Systèmes de gestion environnementale 2. Audit


environnemental 3. Évaluation de
la performance environnementale 4. Étiquetage
environnemental 5. Analyse du
cycle de vie 6. Aspects
environnementaux dans les normes de produits

La norme de la série 14000 reflète la norme de qualité ISO 9001 en exigeant une déclaration
de politique, un engagement de la direction descendante, un contrôle des documents, une
formation, des mesures correctives, une revue de direction et une amélioration continue. Les
plans prévoient d'intégrer ISO 9000 et ISO 14000 dans une seule norme de gestion qui inclura
également la santé et la sécurité. Il est possible qu'à terme un seul audit couvre à la fois ISO
9000 et ISO 14000.
ISO 14001, la spécification du système de management environnemental (SME), est destinée
à être la seule norme établissant des exigences par rapport auxquelles les entreprises seront
auditées pour la certification. La norme ne fixe pas d'exigences de résultats, uniquement pour
l'amélioration continue d' un
Machine Translated by Google

L a fonction qualité 29

SME de l'entreprise. ISO 14001 n'est pas une exigence ; c'est volontaire. ISO
14001 est une norme systémique qui donne aux entreprises un plan pour gérer
leur impact sur l'environnement.
Les exigences se répartissent en cinq domaines principaux :

•La haute direction doit articuler la politique environnementale de


l'entreprise. La politique comprendra des engagements envers la
prévention de la pollution et l'amélioration continue du SGE. La politique
sera accessible au public.
•Conformément à la politique environnementale, vous devez établir et
maintenir des procédures pour identifier les aspects environnementaux
significatifs et leurs impacts associés. Les procédures doivent inclure
les exigences légales et autres. Les objectifs et les cibles seront
également documentés, y compris l'amélioration continue et la
prévention de la pollution. •Le rôle et le poste de chaque employé doivent
être clairement définis et tous les employés doivent être conscients de
l'impact de leur travail sur l'environnement. Les employés
doivent être adéquatement formés. •Le SME doit être mis en place pour
faciliter la communication interne. À cette fin, toute la documentation
pertinente devrait être facilement disponible et
utilisable, sous forme imprimée ou électronique. •Les organisations doivent
continuellement surveiller et documenter leurs effets sur l'environnement
et les revoir périodiquement pour assurer l'amélioration continue et l'efficacité du SME.
La direction est responsable d'un examen interne du SGE sur une base
régulière.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 3

Approches de la qualité
Machine Translated by Google
Machine Translated by Google

se concentraient sur les aspects de commandement et de contrôle inhérents à la


Des programmes traditionnels de qualité
structure organisationnelle pour la majeure
de la hiérarchie partie du
fonctionnelle. XXe
Les siècle
efforts de Taylor pour
normaliser et simplifier le travail ont au moins rendu cela possible, sinon renforcé sa légitimité.
Au lendemain de la Seconde Guerre mondiale, les entreprises américaines avaient étendu le
contrôle en amont des sources d'approvisionnement et en aval de la distribution et du
marchandisage. Dans la mesure où les organisations réussissaient dans cette entreprise, elles
réduisaient l'incertitude de leur environnement et gagnaient le contrôle d'éléments critiques de
leur activité.
Les pratiques internes de qualité étaient largement associées à une inspection hors ligne
par des inspecteurs qualité formés, affectés à un service de contrôle qualité. Le personnel
opérationnel était responsable des fonctions qui lui étaient assignées, telles que la production;
les inspecteurs étaient chargés d'assurer la conformité du produit aux exigences du client,
généralement juste avant que le produit ne soit expédié au client. Bien que Shewhart ait
développé la carte de contrôle statistique dans les années 1920, son utilisation dans l'industrie
était éclipsée par les plans d'échantillonnage d'inspection qui correspondaient mieux à ce
modèle organisationnel. Ces plans d'échantillonnage étaient devenus la norme MIL­STD 105,
une exigence des fournisseurs militaires, qui en avait fait la norme de facto tout au long des
années de guerre pour tous les fournisseurs.

Contrairement à celle de la plupart des pays industrialisés, l'infrastructure américaine n'a


pas été endommagée par la guerre. Alors que le reste du monde se reconstruisait, les pénuries
étaient endémiques et les fournisseurs américains augmentaient leur production pour combler
le vide, entraînant une période de prospérité et de rentabilité qui renforçait encore la perception
de systèmes bien conçus, ou du moins adéquats. En réalité, les niveaux de qualité étaient
médiocres, comme c'est souvent le cas en période de pénurie (Juran, 1995).

À la fin des années 1970, cependant, les influences du marché ont émergé pour remettre
en question le statu quo, notamment (Juran, 1995) :

∙La croissance du consumérisme

∙La croissance des litiges sur la qualité

∙La croissance de la réglementation gouvernementale de la qualité

∙La révolution de la qualité japonaise

33
Machine Translated by Google

34 Business ­ Systèmes de qualité intégrés

L'approche de Deming Deming


est probablement mieux connu pour sa théorie de la gestion telle qu'incarnée dans ses 14
points. Selon Deming, « les 14 points ont tous un seul objectif : permettre aux gens de travailler
avec joie ». Les 14 points sont :

1. Créer une constance dans l'objectif d'amélioration du produit et du service, dans le but
de devenir compétitif, de rester en activité et de fournir des emplois.

2. Adopter la nouvelle philosophie de coopération (gagnant­gagnant) dans laquelle tout le


monde est gagnant. Mettez­le en pratique et enseignez­le aux employés, clients et
fournisseurs.

3. Cesser de dépendre de l'inspection de masse pour atteindre la qualité. Améliorez le


processus et intégrez la qualité dans le produit en premier lieu.

4. Mettre fin à la pratique consistant à attribuer les affaires sur la seule base du prix. Au
lieu de cela, minimisez le coût total à long terme. Aller vers un fournisseur unique pour
un même article, dans une relation de fidélité et de confiance à long terme.

5. Améliorer constamment et pour toujours le système de production, de service, de


planification ou de toute activité. Cela améliorera la qualité et la productivité et réduira
ainsi constamment les coûts.

6. Institut de formation pour les compétences.

7. Adopter et instituer un leadership pour la gestion des personnes, en reconnaissant


leurs différentes aptitudes, capacités et aspirations. Le but du leadership devrait être
d'aider les gens, les machines et les gadgets à faire un meilleur travail. Le leadership
de la direction a besoin d'être révisé, ainsi que le leadership des travailleurs de la
production.

8. Éliminer la peur et instaurer la confiance afin que chacun puisse travailler efficacement
activement.

9. Faites tomber les barrières entre les départements. Abolir la concurrence et construire
un système de coopération gagnant­gagnant au sein de l'organisation. Les personnes
chargées de la recherche, de la conception, des ventes et de la production doivent
travailler en équipe pour prévoir les problèmes de production et d'utilisation qui
pourraient être rencontrés avec le produit ou le service.

10. Éliminez les slogans, les exhortations et les objectifs demandant le zéro défaut ou de
nouveaux niveaux de productivité. De telles exhortations ne font que créer des
relations contradictoires, car la majeure partie des causes de la mauvaise qualité et
de la faible productivité appartiennent au système et se situent donc au­delà du
pouvoir de la main­d'œuvre.

11. Éliminer les objectifs numériques, les quotas numériques et la gestion


par objectifs. Direction suppléante.
Machine Translated by Google

Approches de la qualité 35

12. Supprimez les barrières qui privent les gens de joie dans leur travail. Cela signifiera
l'abolition de la notation annuelle ou du système de mérite qui classe les gens et
crée de la concurrence et des conflits.
13. Instaurer un programme vigoureux d'éducation et d'auto­amélioration.
14. Mettre tout le monde dans l'entreprise au travail pour accomplir la transformation.
La transformation est l'affaire de tous.

Ces principes définissent clairement les responsabilités de gestion, dont beaucoup


étaient contredites par la structure hiérarchique fonctionnelle traditionnelle, ainsi que par
ses tendances de commandement et de contrôle.
Deming a également décrit un système de "connaissance profonde". Le système de
connaissances approfondies de Deming se compose de quatre parties : l'appréciation d'un
système, la connaissance de la variation, la théorie de la connaissance et la psychologie.
Un système est un réseau de composants interdépendants qui travaillent ensemble pour
atteindre l'objectif du système. Le système de la connaissance profonde est lui­même un
système. Les parties sont interdépendantes et ne peuvent pas être complètement comprises
lorsqu'elles sont séparées les unes des autres. Les systèmes doivent être gérés. Plus
l'interdépendance des divers composants du système est grande, plus le besoin de gestion
est grand. De plus, les systèmes doivent être globalement optimisés ; l'optimisation globale
ne peut pas être obtenue en optimisant chaque composant indépendamment du reste du
système.
Les systèmes peuvent être considérés comme des réseaux de relations intentionnelles
de cause à effet. Cependant, la plupart des systèmes produisent également des effets non
intentionnels . L'identification des causes des effets produits par les systèmes nécessite la
compréhension de la variation ­ partie 2 du système de connaissances approfondies de Deming.
Sans connaissance de la variation, les gens sont incapables d'apprendre de l'expérience.
Deux erreurs fondamentales sont commises lorsqu'il s'agit de variation : (1) réagir à un
résultat comme s'il était produit par une cause spéciale, alors qu'il provenait en fait d'une
cause commune, et (2) réagir à un résultat comme s'il était produit. par une cause commune,
alors qu'elle provenait en fait d'une cause spéciale. Les termes cause spéciale et cause
commune sont définis opérationnellement par la carte de contrôle statistique, détaillée au
Chap. 9.
La théorie de la connaissance profonde de Deming est basée sur la prémisse que la
gestion est une prédiction. Deming, suivant les enseignements du philosophe CI Lewis
(1929), croyait que la prédiction n'est pas possible sans théorie. Deming souligne que la
connaissance s'acquiert lorsqu'on fait une prédiction rationnelle basée sur la théorie, puis
qu'on révise la théorie en se basant sur la comparaison de la prédiction avec l'observation.
La connaissance se reflète dans la nouvelle théorie. Sans théorie, il n'y a rien à réviser, c'est­
à­dire qu'il ne peut y avoir de nouvelles connaissances, pas d'apprentissage. Le processus
d'apprentissage est opérationnalisé par le cycle Plan­Do­Study­Act de Deming (une
modification du cycle Plan Do­Check­Act de Shewhart). Il est important de noter que
l'information n'est pas la connaissance. De simples "faits" en eux­mêmes ne sont pas des
connaissances. Connaissance
Machine Translated by Google

36 Business ­ Systèmes de qualité intégrés

ce qu'est le Dow Jones Industrial Average en ce moment, ou ce qu'il a été au cours des 100
dernières années, ne suffit pas à nous dire ce qu'il sera demain.
La psychologie est la science qui traite des processus mentaux et du comportement. Dans
le système de connaissances profondes de Deming, la psychologie est importante car elle fournit
un cadre théorique pour comprendre les différences entre les personnes et fournit des conseils
sur les moyens appropriés de les motiver.

Contrôle de qualité total au Japon


Le Japon est bien connu pour avoir remplacé son ancienne réputation de qualité épouvantable par
une nouvelle réputation d'excellence. Le système qu'ils ont utilisé pour accomplir cet exploit
impressionnant est une version uniquement japonaise d'un système originaire d'Amérique connu
sous le nom de contrôle de la qualité totale (TQC). Le TQC est un système d'activités spécialisées
de contrôle de la qualité initialement développé par Feigenbaum (1951, 1983). Les Japonais ont
pris la version américaine du contrôle de la qualité de Feigenbaum (qui était en grande partie une
continuation de l'approche de gestion scientifique) et l'ont fait leur. L'interprétation japonaise du
TQC est décrite par Ishikawa (1985) comme une « révolution de la pensée dans la gestion »,
s'appuyant largement sur les contributions d'experts américains de la qualité, en particulier Walter
A. Shewhart, W. Edwards Deming et Joseph M. Juran. Cependant, certains éléments du système
japonais sont de caractère purement japonais. La révolution de la pensée implique une
transformation en six catégories (Ishikawa, 1985) :

1. La qualité d'abord, pas le profit à court terme d'abord.


Une gestion qui met l'accent sur la « qualité d'abord » peut gagner progressivement
la confiance des clients, ce qui entraîne une augmentation progressive des ventes de
l'entreprise avec une amélioration à plus long terme de la rentabilité et de la stabilité de
la gestion. Une entreprise qui suit le principe du « bénéfice d'abord » peut obtenir un
bénéfice plus rapide mais sera incapable de maintenir sa compétitivité pendant de plus
longues périodes.

2. Orientation vers le consommateur et non vers le producteur. Ishikawa a mis l'accent sur
la pensée en termes de position d'une autre partie : écoutez leurs opinions et agissez
d'une manière respectueuse de leurs points de vue.

3. Le processus suivant est votre client ­ briser la barrière de


sectionnalisme.
En particulier dans les organisations hautement structurées (basées sur les
fonctions), cette approche est nécessaire pour favoriser la qualité à l'échelle de
l'entreprise et surmonter la mentalité de cloisonnement (c'est­à­dire que chaque
département veille à ses propres intérêts). L'entreprise dans son ensemble doit examiner
ses processus de création de valeur client, plutôt qu'un département ou une section
séparément.

4. Utiliser des faits et des données pour faire des présentations—utilisation des statistiques
méthodes cal.
Machine Translated by Google

Approches de la qualité 37

L'importance des faits doit être clairement reconnue. Les faits, contrairement
aux opinions, peuvent être traduits en données. Si les données sont exactes,
elles peuvent être analysées à l'aide de méthodes statistiques et de modèles
d'ingénierie ou de gestion. Ceci, à son tour, constitue la base des décisions.
De telles décisions s'avéreront, à long terme, meilleures que les décisions
prises sans ce processus, c'est­à­dire que les décisions produiront des résultats
qui correspondent plus étroitement aux objectifs de la direction.
5. Le respect de l'humanité comme philosophie de gestion – gestion pleinement
participative. Lorsque la direction décide de faire de la qualité à l'échelle de
l'entreprise son objectif, elle doit normaliser tous les processus et procédures,
puis déléguer audacieusement l'autorité à ses subordonnés. Le principe
fondamental d'une gestion réussie est de permettre aux subordonnés d'utiliser
pleinement leurs capacités. Le terme d'humanité implique autonomie et
spontanéité. Les gens sont différents des animaux ou des machines. Ils ont
leur propre esprit et ils pensent toujours. Le management basé sur l'humanité
est un système de management qui laisse s'épanouir le potentiel illimité de
l'être humain.
6. Management transversal.
Du point de vue des objectifs à l'échelle de l'entreprise, les principales
fonctions sont l'assurance qualité, le contrôle des coûts, le contrôle des
quantités et le contrôle du personnel. L'entreprise doit mettre en place des
comités interfonctionnels pour résoudre ces problèmes transversaux. Le
président du comité devrait être un directeur général principal. Les membres
du comité sont choisis parmi ceux qui ont le rang d'administrateur ou au­dessus.

À l'époque, la gestion interfonctionnelle était une caractéristique typiquement


japonaise de la gestion de la qualité, nécessitant une modification fondamentale du
modèle bureaucratique (hiérarchie fonctionnelle) des organisations traditionnelles.
On sait depuis longtemps que cette forme d'organisation, parfois appelée « modèle
cheminée », conduit à isoler les différentes fonctions les unes des autres. Cela entraîne
à son tour un esprit de clocher et d'autres comportements qui, bien qu'optimaux pour
une fonction donnée, sont préjudiciables au système dans son ensemble. La plupart
des textes commerciaux traitent au mieux de ce problème superficiellement. Les
Japonais ont développé une approche formelle pour y faire face, souvent qualifiée de
gestion interfonctionnelle (GOAL/QPC, 1990).
Une autre caractéristique de l'approche japonaise de la gestion était la concentration
sur le « cœur de métier ». Le cœur de métier est l'essence même de ce que fait
l'entreprise ; par exemple, Toyota pourrait identifier son cœur comme étant la production
de véhicules de transport personnels. L'entreprise s'efforce de fournir un sentiment de
famille et d'appartenance aux employés permanents à temps plein.
Le service à l'employeur tout au long de la vie est attendu, et l'employeur fait preuve
d'une loyauté similaire envers l'employé, par exemple en offrant une sécurité d'emploi à
vie.
Machine Translated by Google

38 Business ­ Systèmes de qualité intégrés

Comment est­ce possible? Après tout, le cycle économique normal monte et descend
périodiquement et une entreprise qui est suffisamment dotée en personnel pour les pics de
production est en sureffectif lorsque des ralentissements de production se produisent. Les
Japonais parviennent à assurer la sécurité dans les bons et les mauvais moments de plusieurs façons.
L'une consiste à sous­traiter massivement des activités commerciales non essentielles à des
fournisseurs. Il n'est pas rare de trouver jusqu'à 80 % de la valeur du produit fini dans les
matériaux achetés. Une autre consiste à utiliser un important tampon d'employés à temps
partiel. Dans certaines entreprises japonaises, jusqu'à 50 % de leurs employés pendant les
périodes de pointe de la production sont des travailleurs à temps partiel.

La sagesse dominante en Amérique suggère que cette stratégie entraînerait une forte
augmentation de l'incertitude et une baisse globale de la qualité. au Japon, cependant, les
fournisseurs sont très étroitement contrôlés à l'aide d'un système connu sous le nom de
Keiretsu. Les fournisseurs au sein du Keiretsu ont souvent des membres du conseil
d'administration de la société mère et d'autres membres du Keiretsu. Contrairement aux
entreprises américaines, qui ont tendance à traiter sans lien de dépendance avec leurs
fournisseurs, les sociétés mères jouent un rôle très actif dans les affaires de leurs fournisseurs.
Alors qu'aux États­Unis, une entreprise peut évaluer régulièrement la qualité du produit livré
par un fournisseur, au Japon, la société mère évalue également avec soin la manière dont le
produit a été fabriqué. Le cas échéant, le parent suggérerait des moyens plus efficaces et plus
économiques de fabriquer le produit. Les sociétés mères offrent des contrats plus importants
et à plus long terme que leurs homologues américains, et elles exigent souvent des baisses
de prix régulières. On pourrait s'attendre à ce que le fournisseur devienne "dédié" à sa société
mère, fournissant le produit uniquement à la société mère et non aux concurrents. Une
amélioration continue de la qualité, des coûts et de la livraison est attendue de tous les
fournisseurs japonais, tout comme elle est attendue des employés.

KAIZEN™ (une marque déposée de KAIZEN Institute, Ltd.) est une philosophie
d'amélioration continue, une conviction que tous les aspects de la vie doivent être constamment
améliorés. Au Japon, où le concept est né, KAIZEN s'applique à tous les aspects de la vie,
pas seulement au lieu de travail. En Amérique, le terme est généralement appliqué aux
processus de travail.
L'approche KAIZEN se concentre sur l'amélioration progressive continue qui implique
toutes les parties prenantes. Au fil du temps, ces petites améliorations produisent des
changements tout aussi spectaculaires que l'approche du « grand projet ». KAIZEN ne se
préoccupe pas de changer les systèmes fondamentaux, mais cherche à optimiser les systèmes
existants.
Tous les employés d'une organisation sont responsables de deux aspects de la qualité :
l'amélioration des processus et le contrôle des processus. Le contrôle consiste à agir sur les
écarts pour maintenir un état de processus donné. En l'absence de signaux indiquant que le
processus s'est égaré, le contrôle est réalisé en adhérant aux procédures d'exploitation
standard (SOP) établies. En revanche, l'amélioration nécessite de modifier expérimentalement
Machine Translated by Google

Approches de la qualité 39

Innovation
La haute direction

Cadres intermédiaires Kaizen

Superviseurs

Ouvriers Entretien

Figure 3.1 Responsabilité du KAIZEN et rôle du KAIZEN dans l'amélioration des processus
(Imai, 1986).

processus pour produire de meilleurs résultats grâce à l'innovation et au KAIZEN. Lorsqu'une


amélioration a été identifiée, les SOP sont modifiées pour refléter la nouvelle façon de faire les
choses. Imai (1986) illustre les responsabilités professionnelles comme le montre la figure 3.1.

La figure illustre à la fois la responsabilité partagée et le rôle limité du KAIZEN dans


l'exclusion des innovations radicales (parfois appelées réingénierie). Des responsabilités plus
détaillées pour KAIZEN sont fournies dans le tableau 3.1.

Une autre contribution assez considérable du Japon d'après­guerre est l'ensemble des
pratiques Lean documentées par Taiichi Ohno de Toyota. Les méthodes Lean sont parfois
appelées Toyota Production System (en raison de leurs origines) et incluent des principes et des
méthodologies pour améliorer les temps de cycle et la qualité grâce à l'élimination des déchets
(également connu sous son nom japonais de muda) . Lean fait la distinction entre les activités qui
créent de la valeur et celles qui n'en créent pas, dans le but d'améliorer les temps de cycle et
l'efficacité, de réduire le gaspillage de ressources et

augmenter la valeur pour le client.


Taiichi Ohno de Toyota a défini les cinq types de déchets suivants
(Womack et Jones (1996) ont ajouté le sixième) :

1. Erreurs nécessitant une reprise. (Le retravail fait référence à toute activité requise pour
corriger ou réparer le résultat d'une autre étape du processus. Dans les processus de
service, l'intervention de la direction pour résoudre une plainte d'un client peut être
considérée comme un retravail.)
2. Travailler sans client immédiat, interne ou externe, ce qui entraîne des travaux en cours
ou des stocks de produits finis.

3. Étapes de processus inutiles.

4. Déplacement inutile de personnel ou de matériel.

5. Attente des employés alors que le travail inachevé dans un processus en amont est
terminé.

6. Conception de produits ou de processus qui ne répondent pas aux exigences du client


besoins.
Machine Translated by Google

40 Business ­ Systèmes de qualité intégrés

La haute direction • Être déterminé à introduire KAIZEN comme stratégie d'entreprise • Fournir un soutien

et une direction pour KAIZEN en allouant


ressources

• Établir une politique pour KAIZEN et des objectifs interfonctionnels • Réaliser

les objectifs KAIZEN par le déploiement de politiques et des audits • Construire des
systèmes, des procédures et des structures propices à KAIZEN

Cadres intermédiaires et personnel • Déployer et mettre en œuvre les objectifs KAIZEN selon les instructions du top
gestion par le déploiement de politiques et la gestion interfonctionnelle

• Utiliser KAIZEN dans les capacités fonctionnelles •

Établir, maintenir et mettre à jour les normes • Sensibiliser les

employés au KAIZEN grâce à une formation intensive


programmes

• Aider les employés à développer des compétences et des outils pour la résolution de problèmes

Superviseurs • Utiliser KAIZEN dans des rôles fonctionnels

• Formuler des plans pour KAIZEN et fournir des conseils aux travailleurs • Améliorer la

communication avec les travailleurs et maintenir un moral élevé • Soutenir les activités en

petits groupes (comme les cercles de qualité) et le système de suggestion individuelle •


Introduire la discipline dans l'atelier •
Fournir des suggestions KAIZEN

Ouvriers • Engagez­vous dans le KAIZEN grâce au système de suggestion et aux petites


activités de groupe •
Pratiquer la discipline dans l'atelier • S'engager

dans un développement personnel continu pour devenir de meilleurs résolveurs


de problèmes •

Améliorer les compétences et l'expertise en matière de performance professionnelle avec


éducation

De Imai (1986).

Tableau 3.1 Hiérarchie de l'implication Kaizen

La valeur est l'opposé du gaspillage et peut être identifiée en considérant :

1. Est­ce quelque chose que le client est prêt à payer ?


2. L'étape modifie­t­elle la forme, l'ajustement ou la fonction du produit ? En
d'autres termes, convertit­il l'entrée en sortie ?

Si la réponse aux deux questions est « Non », il est probable que l'activité ne
crée pas de valeur aux yeux du client, même s'il est nécessaire d'assurer la qualité
dans le processus actuel. Les activités d'inspection et d'examen, telles que la
surveillance des appels commerciaux ou l'approbation par la direction des
exceptions, sont des exemples de gaspillage sans valeur ajoutée. Ils ne font rien
pour changer le produit (ou le service) et ne sont nécessaires que pour remédier à la mauvaise qualit
Machine Translated by Google

Approches de la qualité 41

associé au processus sous­jacent. Malheureusement, si leur élimination dégrade la


qualité du produit ou du service, il s'agit alors de déchets de type I, parfois appelés
Business Value Added, nécessaires compte tenu de l'état actuel des processus métier.
Dans de nombreux cas, il est avantageux de modifier le processus pour éliminer les
déchets.
Il a été démontré que la pensée Lean apporte des avantages considérables aux
organisations. Les organisations sont capables de maintenir les niveaux de production
avec la moitié de la main­d'œuvre, améliorant la qualité et réduisant les temps de cycle
de 50 à 90 % (Womack et Jones, 1996).
Plusieurs des méthodes Lean sont assez bien connues en elles­mêmes.
Le juste à temps (JIT), par exemple, est un mot à la mode dans le secteur manufacturier
américain depuis les années 1980. D'autres méthodes bien connues incluent Kanban
(japonais pour les cartes) et 5S. Malheureusement, les praticiens constatent souvent
qu'ils sont incapables de réaliser des avancées significatives dans aucun de ces
domaines individuellement s'ils n'adoptent pas les principes complets du Lean. De plus,
bon nombre des méthodes doivent être entreprises en conjonction avec, ou après avoir
apprécié les résultats d'une amélioration rigoureuse de la qualité. Il serait périlleux de
mettre en œuvre le JIT si les processus sous­jacents n'étaient pas sous contrôle
statistique : sans contrôle statistique, le processus n'est ni stable ni prévisible, il ne
peut donc pas être équilibré pour atteindre les performances du JIT.
Bien que bon nombre de ces techniques aient été initialement appliquées à des
applications de fabrication, elles sont particulièrement bien adaptées (et largement
utilisées) pour résoudre les problèmes des processus transactionnels au sein des
industries de services. En outre, ils ont des origines et une solide expérience dans de
petits environnements de type atelier chez Toyota et ses fournisseurs, où la production
était souvent à très faible volume et loin des niveaux de production de masse.

Série ISO 9000


Le système de normes de qualité le plus connu est la série ISO 9000, publiée par l'ISO
(Organisation internationale de normalisation). Les normes ont été publiées à l'origine
en 1987, puis mises à jour en 1994, 2000 et 2008. La norme était initialement basée
sur les normes américaines.
Département de la Défense Mil­Q­9858, publié en 1959.
L'utilisation d'ISO 9000 est extrêmement répandue, avec plus de 1,1 million
d'organisations certifiées selon la norme (en 2010) ; 86 % des enregistrements se font
en Europe et en Extrême­Orient. Il est probable que la prolifération des enregistrements
en Extrême­Orient résulte de la reconnaissance dans la chaîne d'approvisionnement
que l'utilisation d'une norme commune élimine le besoin d'audits multiples des systèmes
qualité par leurs différents clients. L'enregistrement ISO 9000 est réalisé par des audits
de registraire tiers; c'est­à­dire que les audits ne sont pas effectués par les clients mais
par des auditeurs tiers indépendants spécialement formés.
Dans le passé, de nombreuses entreprises devaient traiter avec des auditeurs de
nombreux clients différents. De plus, les clients avaient généralement leurs propres
Machine Translated by Google

42 Business ­ Systèmes de qualité intégrés

exigences. Cela a entraîné le développement de systèmes parallèles pour répondre


aux exigences variées de leurs principaux clients, ce qui était coûteux, déroutant et
inefficace. Alors que certains groupes industriels, notamment dans les industries
aérospatiale et automobile, ont fait des progrès dans la coordination de leurs exigences,
ISO 9000 a considérablement amélioré et élargi la portée des normes de systèmes
qualité acceptables. Il sert maintenant de base à d'autres normes spécifiques à
l'industrie, y compris TL­9000 (pour l'industrie des télécommunications) ; AS9000
(pour l'aérospatiale); et ISO/TS 16949:2009 (pour l'automobile, remplaçant QS 9000
aux États­Unis).
Bien qu'ISO 9000 s'applique à toute organisation et à toutes les catégories de
produits, elle ne précise pas comment les exigences doivent être mises en œuvre. En
outre, les séries spécifient des exigences à un niveau très élevé ; ISO 9000 ne
remplace pas les exigences ou les normes relatives aux produits, à la sécurité ou à la
réglementation. Le concept qui sous­tend les normes ISO 9000 est qu'une qualité
élevée constante est mieux obtenue par une combinaison de spécifications techniques
de produits et de normes de système de gestion. Les normes ISO 9000 ne fournissent
que les normes des systèmes de management.
Il convient de noter que la norme ISO 9000 est conçue comme une norme de qualité minimale .
Selon A. Blanton Godfrey, qui a siégé pendant 10 ans au comité technique TC176,
qui a développé ISO 9000, les exigences d'ISO 9000 représentent une conception de
la qualité des années 1970 (Paton, 1995). États de Godfrey

… d'une certaine manière, nous avons créé une très bonne norme minimale pour les entreprises
qui ne faisaient rien. ISO 9000 leur a donné une définition mondialement acceptée d'un système
de qualité. D'un autre côté, nous avons fait beaucoup de tort parce que certaines personnes
pensaient que c'était un système de classe mondiale. Et les entreprises qui ont arrêté après avoir
obtenu leur certificat ont eu un réveil brutal lorsqu'elles ont découvert que cela ne signifiait pas
qu'elles étaient compétitives.

Ces sentiments sont partagés par presque tous les experts en qualité. Stapp (2001) a
résumé les problèmes suivants avec les normes antérieures à 2000 :

1. Pas assez d'accent sur l'action préventive. Ce domaine a été victime d'une «
dérive des exigences » depuis la création d'ISO 9001.
L'édition de 1987 contenait peu d'exigences solides pour un système d'action
préventive. Ce problème a été résolu en ajoutant l'exigence à l'édition de
1994, mais les organisations ne pouvaient se conformer qu'à un faible
système d'action préventive.
2. Aucune emphase sur l'amélioration continue. W. Edwards Deming et d'autres
gourous de la profession de la qualité ont constaté qu'il s'agissait d'une
faiblesse fondamentale dans un système de gestion de la qualité conforme
à la norme ISO. Le manque d'attention à l'amélioration continue a permis aux
organisations de se conformer à la lettre des exigences sans vraiment
comprendre le but de la mise en œuvre d'un système de gestion de la qualité
en premier lieu.
Machine Translated by Google

Approches de la qualité 43

3. Approche fragmentée du système de gestion de la qualité. Les fameux « 20


éléments de qualité » définis dans les deux premières éditions de la norme ISO
9001 offraient une approche plus simple (presque une liste de contrôle) pour
développer un système de gestion de la qualité. Malheureusement, peu d'éléments
peuvent exister par eux­mêmes, mais font plutôt partie d'un système unifié.
Les éléments fragmentés ne décrivent pas le fonctionnement réel d'une organisation.

4. Pas assez d'attention portée aux ressources humaines. Hormis les exigences en
matière de formation, les deux premières versions d'ISO 9001 traitaient très peu
des ressources humaines et des besoins des employés d'une organisation.
Une organisation pourrait en fait avoir des conditions de travail dangereuses ou
traiter ses employés injustement et être enregistrée en règle selon la norme ISO
9001.
5. Pas assez d'accent sur la communication client. En dehors du domaine de la
résolution des différends lors de la phase de revue des contrats, les deux
premières éditions de la norme ISO 9001 traitaient très peu de l'importance de la
communication client. Les organisations qui avaient développé les systèmes de
gestion de la qualité les plus efficaces ont compris l'importance de maintenir la
communication et la satisfaction client au premier plan de tout ce qu'elles faisaient.
Ces organisations ont particulièrement estimé que les deux premières éditions
manquaient de l'orientation nécessaire.
6. Un système de gestion de la qualité ISO 9000 n'améliore pas la qualité des produits
ou des services. S'attendre à ce qu'ISO 9000 crée directement une amélioration
de la qualité, c'est un peu comme s'attendre à ce que le système comptable crée
directement de la rentabilité. Dans tous les cas, la déception a été largement
exprimée à propos des organisations dotées de systèmes de gestion de la qualité
conformes à la norme ISO produisant des biens ou des services de qualité inférieure.
7. Pas assez d'accent sur la gestion utilisant des données concrètes dans la prise de
décision. Dans les deux premières éditions d'ISO 9001, l'implication de la haute
direction pouvait se limiter à des revues de direction périodiques. Dans certaines
organisations, la haute direction a tenté de renoncer au contrôle du système de
gestion de la qualité en déléguant cette fonction clé de gestion au responsable
qualité. Cette approche non interventionniste de la gestion du système qualité
s'est souvent manifestée par l'absence de collecte et d'analyse cohérentes des
données.
8. Pas bien intégré à ISO 14001. Les organisations impliquées dans des audits de
leur système de management environnemental ont rencontré des difficultés pour
intégrer la conception et l'audit du système entre ISO 14001 et ISO 9001.

9. Trop normatif. La grande variété de biens et de services fournis par les diverses
organisations du monde a entraîné des besoins et des attentes très disparates en
matière de systèmes de gestion de la qualité. Alors que les organisations tentaient
de s'adapter à la famille de normes ISO 9000
Machine Translated by Google

44 Business ­ Systèmes de qualité intégrés

à leurs organisations uniques, ils ont rencontré des difficultés pour parvenir à un «
ajustement ». Les organisations qui ont développé des systèmes de management
de la qualité conformément à la norme ISO 9001 ont eu tendance à présenter des
similitudes entre elles, même si les organisations étaient nettement différentes.
10. Ne convient pas facilement aux entreprises de services. Le libellé des deux premières
éditions de la famille de normes ISO 9000 convenait bien aux organisations de
fabrication, mais nécessitait une certaine imagination pour s'appliquer aux services,
à l'éducation, à la médecine et à d'autres types d'organisations.

Les révisions d'ISO 9000:2000 ont cherché à répondre à ces préoccupations. Plus
particulièrement, une approche systémique est devenue évidente; l'accent a été mis sur la
maîtrise des processus et l'amélioration continue ; et le mandat de responsabilité de la
direction pour la conformité du système qualité a été renforcé. La révision ISO 9000: 2000
(qui n'a pas été substantiellement révisée dans la version 2008), énumère huit principes de
gestion de la qualité formant la base des révisions (Stapp, 2001):

1. Orientation client. L'attention portée aux besoins de vos divers clients, y compris
une tentative continue de répondre à leurs exigences et de dépasser leurs attentes,
doit être considérée comme essentielle aux objectifs de votre organisation.

2. Direction. Sans leadership, votre organisation n'aura pas un environnement qui


favorise un objectif constant. Un leadership fort crée un environnement dans lequel
les membres de l'organisation peuvent participer activement à la réalisation des
objectifs de l'organisation.
3. Implication des personnes. Le leadership implique plus que de donner des ordres,
mais inclut l'implication des personnes de toute l'organisation dans la réalisation
des objectifs de l'organisation, en utilisant leurs talents pour faire avancer l'objectif
de l'organisation.
4. Approche processus. Alors que les révisions précédentes d'ISO 9001 utilisaient le
concept de 20 éléments de qualité, la révision de 2000 s'appuie sur le concept selon
lequel tout ce qu'un organisme fait, y compris le système de management de la
qualité, doit être considéré comme un processus logique. Ce processus comprend
des intrants et des ressources, ainsi qu'un résultat souhaité qui se produit grâce à
une gestion appropriée des processus impliqués.
5. Approche systémique de la gestion. Ce n'est que lorsque l'organisation peut identifier
et gérer les systèmes de processus interdépendants que les objectifs peuvent être
atteints. En atteignant ces objectifs, l'organisation devient plus efficiente et efficace.

6. Amélioration continue. Alors que les révisions précédentes d'ISO 9001 traitaient de
la résolution de problèmes par des actions correctives et préventives, la révision de
2000 développe ce concept. Au cœur des objectifs de toute organisation devrait se
trouver un engagement à
Machine Translated by Google

Approches de la qualité 45

s'améliorer dans toutes ses activités : plus grande efficacité, baisse des taux de rejet,
augmentation de la satisfaction client, etc.

7. Approche factuelle de la prise de décision. Aucun de ces principes ne peut être atteint
si l'organisme n'inclut pas de méthodes de collecte d'informations sur ses systèmes
de processus interdépendants. Ces informations deviennent la source pour assurer la
satisfaction continue des clients et mettre en œuvre des efforts d'amélioration continue,
qui résultent tous deux d'une organisation bien gérée.

8. Relations avec les fournisseurs mutuellement bénéfiques. L'organisation ne peut réussir


si elle permet des relations hostiles ou peu coopératives avec ses fournisseurs. Étant
donné que les fournisseurs font partie intégrante des systèmes qu'une organisation
doit gérer, la création d'une relation de coopération avec les fournisseurs ne doit pas
être minimisée.

Alors que les normes précédentes fournissaient une quasi­liste de contrôle de 20 éléments
de qualité, ces éléments sont désormais dispersés dans cinq clauses principales, représentant
une approche plus axée sur les systèmes (Stapp, 2001) :

Article 4 : Système de gestion de la qualité. Comprend les exigences générales, les


exigences en matière de documentation.

Clause 5 : Responsabilité de la direction. Comprend l'engagement de la direction, l'orientation


client, la politique qualité, la planification, l'administration du système de gestion de la qualité
et la revue de direction.

Article 6 : Gestion des ressources. Comprend la fourniture de ressources, de ressources


humaines, d'installations et d'environnement de travail.

Article 7 : Réalisation du produit. Comprend la planification des processus de réalisation,


les processus liés au client, la conception et le développement, les opérations d'achat, de
production et de service, et le contrôle des appareils de surveillance et de mesure.

Article 8 : Mesure, analyse et amélioration. Comprend la mesure de la satisfaction client, la


mesure du processus et du produit, le contrôle des non­conformités, l'analyse des données,
l'amélioration continue et les actions correctives/préventives.

À certains égards, la nouvelle norme permet aux organisations d'atteindre plus facilement
des niveaux de performance plus élevés en adoptant d'autres modèles, tels que les critères
Baldrige, qui peuvent désormais coexister plus facilement dans l'organisation.

Prix national de la qualité Malcolm Baldrige


La loi publique 100­107, la Malcolm Baldrige National Quality Improvement Act de 1987, signée
par le président Reagan le 20 août 1987, a établi un US National Quality Award annuel. Les
objectifs du prix sont de promouvoir la sensibilisation à l'excellence de la qualité, de reconnaître
les réalisations de qualité
Machine Translated by Google

46 Business ­ Systèmes de qualité intégrés

des entreprises américaines et de faire connaître les stratégies de qualité réussies. Le secrétaire
au Commerce et l'Institut national des normes et de la technologie (NIST, anciennement le
Bureau national des normes) ont été chargés de développer et d'administrer le prix avec la
coopération et le soutien financier du secteur privé.

Des prix peuvent être décernés chaque année dans chacune des trois catégories suivantes :
entreprises ou filiales de fabrication ; sociétés de services ou filiales ; et les petites entreprises.
Moins de deux prix peuvent être décernés dans une catégorie si les normes élevées du programme
de prix ne sont pas respectées.
Sept domaines sont examinés sur une échelle pondérée, comme indiqué dans le tableau 3.2.
Les pondérations attribuées à chaque catégorie fournissent une indication de la

Direction 120

La haute direction 70

Gouvernance et Responsabilités Sociétales 50

Planification stratégique 85

Stratégie de développement 40

Mise en œuvre de la stratégie 45


Orientation client 85
Voix du client 45

L'engagement des clients 40

Mesure, analyse et gestion des connaissances 90

Mesure, analyse et amélioration de l'organisation 45


Performance

Gestion de l'information, des connaissances et des technologies de l'information 45


Accent mis sur la main­d'œuvre 85
Environnement de la main­d'œuvre 40

Mobilisation de la main­d'œuvre 45

Focus sur les opérations 85

Systèmes de travail 45
Processus de travail 40
Résultats 450
Résultats du produit et du processus 120
Résultats axés sur le client 90
Résultats axés sur la main­d'œuvre 80

Résultats en matière de leadership et de gouvernance 80


Résultats financiers et de marché 80
POINTS TOTAUX 1 000

Tableau 3.2 Poids de notation Baldrige


Machine Translated by Google

Approches de la qualité 47

Critères de Baldrige pour le cadre d'excellence de la performance dans


une perspective systémique

Profil organisationnel :
environnement, relations et situation stratégique

2 5
Planification Accent mis sur la

stratégique main­d'œuvre

1 7
Direction Résultats

3 6
Orientation Opérations
client Se concentrer

4
Mesure, analyse et gestion des connaissances

Figure 3.2 Le modèle de gestion Baldrige.

l'importance de chaque élément dans le modèle Baldrige. Les candidats doivent répondre à
un ensemble d'éléments d'examen dans chacune de ces catégories. L'accent est mis sur
l'excellence en affaires et la qualité, comme en témoignent les données quantitatives fournies
par les candidats. Ces critères sont intégrés dans un modèle de gestion, comme le montre la
figure 3.2.
Chaque candidature écrite est évaluée par les membres du jury. Les candidats les mieux
notés sont sélectionnés pour des visites de sites par un panel de juges qui recommandent les
lauréats au secrétaire au commerce parmi les sites candidats visités. Les candidats reçoivent
un résumé écrit des commentaires sur les points forts et les domaines à améliorer dans leur
gestion de la qualité. L'American Society for Quality (ASQ) aide à l'administration du processus
d'examen.

Le comité d'examinateurs est composé d'experts de qualité choisis parmi l'industrie, les
organisations professionnelles et commerciales, les universités, les agences gouvernementales,
les organisations d'éducation et de soins de santé, et parmi les rangs des retraités. Les
personnes sélectionnées répondent aux normes les plus élevées de qualification et de
reconnaissance par les pairs. Les examinateurs doivent participer à un programme de
préparation basé sur les critères, le système de notation et le processus d'examen.
Chaque automne, des candidatures sont sollicitées auprès d'experts de qualité pour servir
d'examinateurs pour l'année suivante.
Machine Translated by Google

48 Business ­ Systèmes de qualité intégrés

L'objectif du prix Baldrige est d'améliorer la compétitivité. Les critères d'attribution


reflètent deux axes de compétitivité clés : (1) la fourniture d'une valeur en constante
amélioration aux clients ; et (2) l'amélioration de la performance opérationnelle globale.
L'objectif central du prix est éducatif – encourager le partage de l'apprentissage de la
compétitivité et « piloter » cet apprentissage, en créant un corpus de connaissances évolutif
à l'échelle nationale (Reimann et Hertz, 1993).

Prix Deming L'impact


potentiel des méthodes du Dr W. Edwards Deming sur le succès économique du Japon a
été reconnu très tôt par l'Union des scientifiques et ingénieurs japonais (JUSE). En 1951,
JUSE a adopté une résolution pour instituer le prix Deming en reconnaissance des
contributions du Dr Deming à la cause du contrôle de la qualité industrielle. Le comité du
prix Deming décerne des prix pour trois catégories (Sheridan, 1993):

•Le prix Deming pour une personne individuelle est décerné à une personne qui fait
preuve d'une réussite significative dans la théorie ou l'application du contrôle de la
qualité.
•Le prix Deming Application est décerné à une entreprise qui réalise l'amélioration la
plus remarquable de ses performances grâce à l'application d'un contrôle statistique
de la qualité. Ce prix est en outre divisé en prix de candidature Deming pour les
petites entreprises et en prix de candidature Deming pour la division.

•Le prix Deming Application Prize for Overseas Companies est décerné à une
entreprise étrangère qui affiche la mise en œuvre méritoire de TQM.

Les candidats doivent soumettre une description détaillée de leur processus TQM.
Le rapport est examiné par le sous­comité du prix de candidature composé de professeurs
et d'experts en qualité employés par des organisations à but non lucratif et des entités
gouvernementales (et non des sociétés). Si le sous­comité estime que la demande mérite
un examen plus approfondi, une série de vérifications sur place est prévue. Les audits sont
effectués par les membres du sous­comité.
Les domaines examinés sont :

• Politique
• Conception organisationnelle
• Éducation/formation •
Information

•Analyse
•Normalisation
Machine Translated by Google

Approches de la qualité 49

•Contrôle

• Assurance qualité •
Efficacité

•Plans futurs

Une fois l'audit terminé, le sous­comité examine ses conclusions avec le


comité du prix Deming. L'objectif du comité est de déterminer si le candidat a
appliqué les principes avancés par le Dr Deming au maximum d'avantages dans
son organisation. Les feuilles de pointage ne sont utilisées qu'au stade préliminaire.
À l'étape d'évaluation du comité, une discussion a lieu sur la façon dont les
principes de Deming ont été utilisés pour soutenir l'organisation.

L'utilisation de méthodes statistiques de contrôle de la qualité est évaluée en détail. Le


comité se concentre sur l'utilisation appropriée des principes statistiques en tant qu'aide à la
prise de décision en matière de gestion. L'utilisation de données et d'analyses statistiques
appropriées dans la prise de décision est évaluée à tous les niveaux de l'organisation.
Chaque année, le comité du prix Deming et les sous­comités du prix de
candidature sélectionnent les organisations et les individus qui affichent une
application méritoire des principes de Deming. En novembre de chaque année,
les gagnants sont annoncés lors d'une cérémonie élaborée. Il n'y a pas de limite
au nombre de prix Deming pouvant être décernés au cours d'une année donnée.
Ainsi, il n'y a pas de « concurrence » au sens Baldrige. Au lieu de cela, les
organisations sont évaluées par rapport à la norme établie par les principes de Deming.

Prix européen de la qualité La


Fondation européenne pour la gestion de la qualité (EFQM) a été fondée en 1988
« pour améliorer la position des organisations européennes ainsi que l'efficacité
et l'efficience des organisations en général en renforçant l'importance de la qualité
dans tous les aspects des activités de l'organisation et en stimulant et en aidant le
développement de l’amélioration de la qualité. Les Prix européens de la qualité et
le Prix européen de la qualité ont été créés par l'EFQM en 1991 pour reconnaître
et récompenser les organisations qui ont fait preuve d'un engagement supérieur
envers la qualité. Chaque année, plusieurs prix européens de la qualité sont
décernés à des organisations qui montrent que leur mise en œuvre de TQM a
contribué de manière significative à leur succès sur une période de plusieurs
années. Le meilleur de tous les lauréats reçoit le très convoité prix européen de la
qualité, le reconnaissant comme « l'exposant le plus réussi de la gestion de la
qualité totale en Europe ». La figure 3.3 illustre le modèle EFQM.
Les candidatures sont évaluées et notées sur une échelle de 0 à 1000 points.
Selon le modèle EFQM, les catalyseurs de gauche produisent les résultats
indiqués à droite. Le leadership oriente la politique et la stratégie, la gestion des
personnes et la gestion des ressources, qui alimentent les processus.
Satisfaction client, satisfaction des personnes (employés) et impact sur
Machine Translated by Google

50 Business ­ Systèmes de qualité intégrés

II. Gestion VII. Satisfaction


des personnes des personnes
90 pts (9%) 90 pts (9%)

III. Politique et V. Traite 140 VI. Satisfaction IX. Résultats


I. Leadership
stratégie client 200
100 points (10 %) points (14 %)
80 pts (8 %) points (20%) commerciaux 150 pts (15%)

IV. Ressources VIII. Impact sur la


société
90 points (9%)
60 pts (6%)

Facilitateurs 500 points (50 %) Résultats 500 points (50%)

Figure 3.3 Évaluation et notation des candidatures EFQM.

La société est réalisée par le leadership. Les excellents résultats commerciaux sont le
résultat d'excellentes performances dans les domaines précédents.
Un résumé des critères est fourni ci­dessous (Wendel, 1996).
Critères facilitateurs (comment les résultats sont obtenus)

• Direction. Comment l'équipe de direction et tous les autres managers inspirent,


pilotent et reflètent la qualité totale (TQ) en tant que processus fondamental de
l'organisation pour l'amélioration continue.
• Politique et stratégie. Comment la politique et la stratégie de l'organisation reflètent
le concept de TQ et comment les principes de TQ sont utilisés dans la formulation,
le déploiement, la révision et l'amélioration de la politique et de la stratégie.

• Gestion des personnes. Comment l'organisation libère le plein potentiel de son


personnel pour améliorer continuellement son activité. •
Ressources. Comment les ressources de l'organisation sont efficacement déployées
à l'appui de la politique et de la stratégie.
• Processus. Comment les processus sont identifiés, examinés et, si nécessaire,
révisés pour assurer une amélioration continue.

Critères de résultats (ce que l'organisation a réalisé et est en train de réaliser)

• Satisfaction client. Ce que l'organisation réalise par rapport à la satisfaction de ses


clients externes.

• Satisfaction des personnes. Ce que l'organisation réalise par rapport à la satisfaction


de son personnel. • Impact sur la
société Ce que l'organisation réalise pour satisfaire les attentes de la communauté
dans son ensemble. Cela inclut les perceptions de l'approche de l'organisation en
matière de qualité de vie et d'environnement.
Machine Translated by Google

Approches de la qualité 51

• Résultats commerciaux Ce que l'organisation réalise par rapport à ses objectifs


commerciaux planifiés et pour satisfaire les besoins et les attentes de tous ceux
qui ont un intérêt financier ou une participation dans l'organisation.

Gestion de la qualité totale (TQM)


Le fil conducteur de l'évolution de la gestion de la qualité est que l'attention portée à la
qualité s'est progressivement déplacée vers le haut dans la hiérarchie organisationnelle.
La qualité a d'abord été considérée comme la responsabilité du travailleur à la chaîne,
puis de l'inspecteur, puis du superviseur, de l'ingénieur, du cadre intermédiaire et, dans
TQM, de la haute direction.
À bien des égards, la TQM est difficile à résumer, principalement parce qu'elle n'a
jamais été clairement définie à l'échelle de l'industrie. Pour certains, il a fourni un cadre
pour l'amélioration continue et une abondance d'outils ; pour d'autres, une philosophie de
valeur pour la société ; pour d'autres, plus des mêmes expériences du mouvement
américain de la qualité d'après­guerre, reconditionnées sous un nom différent.
De nombreuses organisations qui ont mis en œuvre TQM ont été déçues des résultats
(The Economist, 1992). Une enquête auprès de 500 entreprises américaines de
fabrication et de services a révélé que seulement un tiers estimaient que leurs
programmes de qualité totale avaient un « impact significatif » sur leur compétitivité. Une
étude similaire en Grande­Bretagne a révélé que seulement un cinquième des 100
entreprises interrogées estimaient que leurs programmes de qualité avaient produit des avantages tangibles
En revanche, une enquête du General Accounting Office (GAO) auprès de 20 des
candidats les mieux notés pour les 1988 et 1989 Malcolm Baldrige National
Prix de la qualité trouvé (Mendelowitz, 1991):

Les entreprises qui ont adopté des pratiques de gestion de la qualité ont connu une amélioration globale
de la performance de l'entreprise. Dans presque tous les cas, les entreprises qui ont utilisé des pratiques
de gestion de la qualité totale ont obtenu de meilleures relations avec les employés, une productivité plus
élevée, une plus grande satisfaction de la clientèle, une part de marché accrue et une rentabilité améliorée.

Qu'est­ce qui explique les différences dans les résultats ? Il existe un certain nombre de
facteurs qui semblent être liés au succès et à l'échec : L'échec
est probable si les techniques de TQM sont mises en œuvre sans engagement
envers la philosophie sous­jacente. La TQM est une activité axée sur le client et axée sur
les processus, mais de nombreuses entreprises qui ont connu des échecs n'étaient pas
axées sur les clients et consacraient trop de ressources à l'étude des processus internes
ou à l'enseignement d'outils de qualité aux employés qui avaient rarement l'occasion de
les utiliser. .
TQM est une activité à l'échelle de l'entreprise. Les entreprises qui ont approché
TQM en renforçant leurs services qualité ont envoyé le mauvais message. Une TQM
réussie disperse la responsabilité de la qualité à ceux qui ne font pas partie du service
qualité. Il s'agit probablement d'une structure d'organisation hiérarchique fonctionnelle
bien définie qui a gravement entravé les tentatives de dispersion de la qualité dans
l'ensemble de l'organisation.
Machine Translated by Google

52 Business ­ Systèmes de qualité intégrés

TQM prend du temps. Le GAO signale que « de nombreux types d'entreprises ont
bénéficié de la mise en place de pratiques spécifiques de gestion de la qualité totale.
Cependant, aucune de ces entreprises n'a récolté ces avantages immédiatement. Laisser
suffisamment de temps pour que les résultats soient atteints était aussi important que de
lancer un programme de gestion de la qualité.
Certains partisans de TQM ont suggéré la nécessité d'un «leader de la qualité totale»
(TQL) (Kendrick, 1992), qui encourage le PDG à être un instrument de changement et à
fonctionner comme une extension du PDG en tant qu'agent de changement (voir Chap. 12).
De ce point de vue, le PDG et le TQL doivent être étroitement liés pour renforcer la crédibilité
du TQL au sein de l'organisation.

Six Sigma
Motorola, sous la direction de Bob Galvin, a développé les principes maintenant connus sous le
nom de Six Sigma dans les années 1980. En 1981, Motorola a entrepris de décupler la qualité
de ses produits et services. Cet effort a conduit à leur acceptation du Malcolm Baldrige
National Quality Award 1988 et à la création du mouvement Six Sigma Quality. Au cours des
premières années du programme, entre 1983 et 1987, Motorola a estimé avoir dépensé 70
millions de dollars pour la formation des employés en matière de qualité. (www .quality.nist.gov/
winners/motorola.htm) Bien que cela représente certainement un engagement important,
leurs avantages ont largement dépassé ces coûts (http:/mu.Motorola.com/Six Sigma/
SixSigma.html) :

• La productivité a augmenté en moyenne de 12,3 % par an • Le coût de la


qualité a été réduit de plus de 84 % • 99,7 % des défauts de
fabrication éliminés • 11 milliards de dollars en coûts de
fabrication économisés • Taux de croissance annuel
composé moyen de 17 % des bénéfices,
les revenus et les cours des actions réalisés

Larry Bossidy, PDG d'Allied Signal, a lancé son programme Six Sigma en 1994. En 1998,
ils ont réalisé des économies de coûts de 500 millions de dollars directement attribuables à
leur programme Six Sigma ; en 1999, les économies de coûts sont passées à 600 millions de
dollars. Les avantages totaux dépassent largement ces économies, comme l'explique leur
rapport annuel de 1999 :

… les économies de coûts ne sont qu'une partie de l'histoire. Enchanter les clients et accélérer la
croissance complètent le tableau. Lorsque nous sommes plus efficaces et améliorons le flux de
travail dans toutes les fonctions de l'entreprise, nous apportons une valeur ajoutée considérable à
nos clients, grâce à des solutions de meilleure qualité à des prix plus compétitifs, livrées à temps
et facturées correctement. Cela fait de nous un partenaire commercial plus désirable.

Allied Signal, qui a fusionné avec Honeywell en 1999, a mis l'accent sur la réduction du temps
de cycle. Dans un exemple, deux de leurs usines fonctionnant à plein
Machine Translated by Google

Approches de la qualité 53

la capacité ne pouvait pas satisfaire la demande des clients. La méthodologie Six Sigma a
été utilisée pour augmenter le taux de production de 30 %, avec peu ou pas de coûts
supplémentaires. Mike Bonsignore, PDG d'Honeywell, a souligné la fusion et l'intégration
réussies d'Allied Signal et d'Honeywell (considérées comme une référence des meilleures
pratiques par les experts en fusion) comme un autre exemple d'un processus amélioré par
l'application des outils Six Sigma.
General Electric, sous la direction de Jack Welch, a commencé son parcours Six Sigma
à l'automne 1995 après avoir appris les succès d'Allied Signal par Larry Bossidy, ancien vice­
président de GE et ami de Welch. Leurs succès sont peut­être les mieux documentés :

•GE a signalé des améliorations de capacité de 12 à 18 %, une augmentation de la


marge d'exploitation à 16,7 % et des économies de 750 millions de dollars.
(Rapport annuel 1998 de General Electric aux actionnaires)
•L'équipe de GE Plastics Singapour, à partir de juillet 1996, a réduit la variation de
couleur dans les produits en plastique. L'équipe a fait passer la qualité de 2 sigma à
4,9 sigma en 4 mois, économisant 400 000 $ par an pour une usine.
(Slater, 1999)

•En 1996, première année de déploiement de Six Sigma, GE Plastics a réalisé des
bénéfices de 20 millions de dollars. C'est assez impressionnant étant donné que les
coûts de formation de la première année dépassent largement ceux de l'année suivante.
frais.

• Une équipe Six Sigma de GE Capital Mortgage Insurance a utilisé la méthodologie


Six Sigma pour réduire les défauts de 96 %. Les paiements des réclamations ont
été réduits de 8 millions de dollars, tandis que les emprunteurs se sont vu offrir des
alternatives à la saisie. (General Electric 1997 Annual Report to Shareholders)
Dans l'ensemble, GE Capital a signalé une augmentation de 160 % de
nouvelles opérations.

• GE Aircraft Engines au Canada a réduit les frais de douane et réduit les délais à la
frontière de 50 %, en utilisant les outils Six Sigma pour réduire les défauts dans les
documents nécessaires lors de l'importation de pièces au Canada. (Rapport annuel
1997 de General Electric aux actionnaires) • GE Medical Systems a développé
une nouvelle technologie d'échographie qui permet au personnel médical de
diagnostiquer plus clairement les facteurs de risque contribuant aux accidents
vasculaires cérébraux. Cette technologie est devenue disponible deux ans plus tôt
que possible, en raison du déploiement de GE Design for Six Sigma.

Cette liste d'entreprises bénéficiant du déploiement Six Sigma est loin d'être complète.
De nombreuses autres entreprises ont mis en œuvre les techniques Six Sigma, notamment
les leaders de l'industrie IBM, Bombadier, Asea Brown Boveri, DuPont, Compaq et Texas
Instruments. Comme GE, Motorola et Allied Signal, ces entreprises ont bénéficié du
déploiement de Six Sigma dans l'ensemble de leurs opérations, à la fois dans les applications
de service et de fabrication.
Machine Translated by Google

54 Business ­ Systèmes de qualité intégrés

D'autres exemples de déploiements basés sur les services incluent GMAC Mortgage,
Citibank, JP Morgan et Cendant Mortgage.
Il devrait être clair que Six Sigma ne coûte rien, il rapporte. Un déploiement typique
mettra l'accent sur les projets de formation Six Sigma qui permettent à l'entreprise
d'économiser au moins autant d'argent que le coût de la formation. Les grandes organisations
passeront plusieurs années à élaborer le programme et à former des membres
supplémentaires de l'équipe. Avec un déploiement approprié, ils peuvent s'attendre à récolter
des fruits au fur et à mesure, de sorte que, à mesure que la maturité du programme approche,
les impacts sur le résultat net augmentent.
Un programme Six Sigma correctement déployé résout les problèmes majeurs
rencontrées en TQM (Keller, 2011a) :

• Mise au point. TQM recherchait souvent l'adoption généralisée de techniques de


qualité dans l'ensemble de l'organisation. Le déploiement Six Sigma s'articule autour
de projets se concentrant sur un ou plusieurs domaines clés : coût, calendrier et
qualité. Les projets sont directement liés aux objectifs stratégiques de l'organisation
et approuvés pour déploiement par des sponsors de haut niveau, comme
documenté dans une charte de projet (un contrat entre le sponsor et l'équipe de
projet). La portée d'un projet est généralement définie pour être achevée dans un
délai de trois à quatre mois, offrant un rendement annualisé minimal de 100 000 $.
L'amélioration est réalisée un projet à la fois. • Soutien organisationnel et
infrastructure. TQM a cherché à diversifier
la qualité dans l'organisation en formant les masses, dans l'espoir qu'elles utiliseraient
des méthodes de qualité pour apporter des améliorations aux processus locaux.
Les cadres intermédiaires pouvaient facilement contrecarrer ces efforts, généralement
en partant du principe qu'ils interrompaient les opérations. Le déploiement Six Sigma
fournit une infrastructure pour réussir. Comme indiqué ci­dessus, le déploiement
est dirigé par l'équipe de direction, qui utilise les projets Six Sigma pour faire avancer
leurs buts et objectifs stratégiques. Les projets sont activement défendus par les
dirigeants de niveau intermédiaire et supérieur dans leurs domaines fonctionnels
pour relever les défis définis par leurs chefs de division (en termes d'objectifs
stratégiques).

Les équipes sont dirigées par des ceintures noires formées en tant que chefs de projet à
temps plein dans le domaine de l'analyse statistique et de la résolution de problèmes, tandis
que le personnel de processus est engagé en tant qu'expert en processus (et formé en tant
que ceinture verte dans les méthodes de base).

• Méthodologie. Une méthodologie standard a été développée pour les projets Six
Sigma : DMAIC, acronyme pour Définir, Mesurer, Analyser, Améliorer et Contrôler.
Lorsque de nouveaux produits ou services sont conçus, nous pouvons également
utiliser l'approche DMADV (remplaçant Améliorer par Conception et Contrôler par
Vérifier), bien que les techniques soient essentiellement les mêmes. L'importance
de la méthodologie réside dans son approche structurée, fondamentalement basée
sur
Machine Translated by Google

Approches de la qualité 55

Planifier­Faire­Étudier­Agir (PDSA) de Shewhart. Cette discipline garantit que


les projets Six Sigma sont clairement définis et mis en œuvre ; que l'adhésion
organisationnelle se construit parmi les principaux groupes de parties
prenantes ; que la prise de décision basée sur les données est utilisée pour
analyser et améliorer le processus ; et que les résultats sont standardisés
dans les opérations quotidiennes, n'empêchant qu'un succès partiel ou de
courte durée du projet. Les objectifs de chaque étape du DMAIC sont
résumés dans le tableau 3.3. • Formation. Une dernière différence clé est le
niveau et l'étendue de la formation dans l'ensemble de l'organisation. Un déploiement correcteme

Stade DMAIC Définition

Définir objective du projet : définir la portée, les buts et les objectifs du projet ; les membres de son
équipe et ses sponsors ; son calendrier et ses livrables.

Définition de processus de niveau supérieur : Définissez les parties prenantes, les entrées et
les sorties et les fonctions générales.

Formation de l'équipe : Assembler une équipe hautement compétente à partir des


principaux groupes de parties prenantes ; Créer une compréhension commune des
problèmes et des avantages pour le projet.

Mesure Définition du processus : définissez le processus à un niveau détaillé, y compris les


points de décision et les fonctions.

Définition de la métrique : définissez une métrique pour établir de manière fiable des
estimations de processus.

Base de référence du processus : utilisez les métriques définies pour établir

l'état actuel du processus, qui devrait vérifier les hypothèses de l'étape Définir. Déterminer si
le processus est sous contrôle statistique.

Analyse des systèmes de mesure : quantifier les erreurs associées à la métrique.

Analyser Analyse de la chaîne de valeur : déterminez les activités productrices de valeur.

Analyser les sources de variation de processus.

Déterminer les pilotes de processus.

Améliorer/Concevoir Proposer une ou plusieurs solutions à parrainer ; Quantifier les avantages de chacun ;
Parvenir à un consensus sur la solution.

Étudier et résoudre les modes de défaillance pour les nouveaux processus/conception ;


Définir de nouvelles conditions d'exploitation/de conception.

Mettre en œuvre et vérifier le nouveau processus/conception.

Contrôler/Vérifier Normaliser les nouvelles procédures/éléments de conception de produits.

Vérifier en permanence les livrables du projet.

Documenter les leçons apprises.

D'après Keller (2011a).

Tableau 3.3 Objectifs de l'étape DMAIC/DMADV


Machine Translated by Google

56 Business ­ Systèmes de qualité intégrés

commence au sommet, avec la formation des cadres clés en tant que champions
Six Sigma. Au niveau de la direction, ils pilotent le programme pour atteindre les
objectifs stratégiques. Au niveau opérationnel, ils allouent des ressources aux
équipes de projet, fournissant l'autorité, les ressources et l'appréciation approfondie
des besoins de l'entreprise nécessaires à la réussite du projet. Une fois que les
champions ont été formés et que les critères de sélection des projets ont été
établis, les ceintures noires sont formées juste à temps à l'application du DMAIC,
y compris les compétences en gestion du changement, la résolution de problèmes,
les principes et les méthodes statistiques et lean. Les ceintures vertes sont
sélectionnées dans des domaines de processus critiques et formées pour servir
d'experts en processus sur des projets d'amélioration de processus spécifiques.

L'objectif ultime est une prise de décision basée sur les données à tous les niveaux de
l'organisation, axée sur les avantages pour leurs trois groupes de parties prenantes : les
clients, les actionnaires et les employés.
Machine Translated by Google

CHAPITRE 4
Axée sur le client
Organisations
Machine Translated by Google
Machine Translated by Google

évolue avec celle du client. La figure 4.1 illustre l'évolution du


L'importance
rôle dedelalafonction
fonction qualité
qualité au sein delel'organisation
depuis a
milieu des années 1970.
Edosomwan (1993) définit une entreprise axée sur le client et le marché
comme une entreprise qui s'engage à fournir des produits et services
d'excellente qualité et compétitifs pour satisfaire les besoins et les désirs d'un
segment de marché bien défini. Cette approche contraste avec celle de
l'organisation traditionnelle, comme le montre le tableau 4.1.
Les organisations axées sur le client partagent certaines caractéristiques.

Hiérarchies aplaties. Lorsque les clients sont au centre des préoccupations, un plus
grand pourcentage des ressources est directement ou indirectement impliqué avec
les clients (voir Figure 4.2), ce qui réduit le nombre de couches bureaucratiques dans
la structure organisationnelle. Les employés seront habilités à prendre des décisions
qui résolvent immédiatement les problèmes des clients, réduisant ainsi le besoin
d'une surveillance structurée. La hiérarchie fonctionnelle traditionnelle, avec des
départements axés sur des fonctions singulières, est mieux remplacée par des
processus horizontaux ou des structures basées sur les produits qui peuvent répondre
rapidement aux besoins des clients.

Des processus adaptables. Les demandes des clients sont parfois imprévisibles,
nécessitant de l'adaptabilité et des risques potentiels. Les organisations axées
sur le client créent des systèmes adaptables qui suppriment les obstacles
bureaucratiques tels que les mécanismes d'approbation formels ou la dépendance
excessive aux procédures écrites. Les employés sont encouragés à agir selon
leur propre jugement. Si les employés de l'organisation sont syndiqués, l'évolution
des rôles nécessitera un partenariat syndical dans le processus de transformation.
Les représentants syndicaux devraient être impliqués dans toutes les phases de
la transformation, y compris la planification et l'élaboration de la stratégie.
Communication efficace. Au cours de la transformation, la tâche principale de
l'équipe de direction est la commercialisation claire, cohérente et sans
ambiguïté de sa vision auprès de l'organisation.

59
Machine Translated by Google

60 Business ­ Systèmes de qualité intégrés

Figure 4.1 Vues évolutives du rôle de la qualité dans l'entreprise (Kotler, 1991 avec permission).

Clients

Les personnes de première ligne

Cadres intermédiaires

La
Clients haute direction
Clients

Figure 4.2 L'organigramme centré sur le client (Kotler, 1991 avec permission).
Machine Translated by Google

O rganisation s centrée sur le client 61

Organisations traditionnelles Organisations axées sur le client


Produit et service –Mise au point à court terme –Mise au point à long terme

planification –Management réactionnaire –Gestion basée sur la prévention


–Processus de planification de la – Stratégie axée sur le client
gestion par objectifs
Mesures de –Résultats financiers nets ­Satisfaction du client
performance –Retour sur investissement rapide ­Part de marché

–Rentabilité à long terme


–Orientation qualité
–Productivité totale
Attitudes envers –Les clients sont irrationnels et –La voix du client est
clients une douleur important
–Les clients sont un goulot d'étranglement –Traitement professionnel et
à la rentabilité attention aux clients sont
– Hostile et insouciant requis
– Attitude « à prendre ou à laisser » – Courtois et réactif
– Empathie et attitude respectueuse

Qualité des produits et services –Fourni selon les exigences –Fourni selon le client
organisationnelles exigences et besoins

Orientation marketing –Marché des vendeurs –Augmentation de la part de marché et


–Insouciance des clients croissance financière atteinte
perdus grâce à la satisfaction client

Approche de gestion des –Concentrez­vous sur les erreurs et les défauts –Concentrez­vous sur les erreurs et les défauts

processus détection la prévention


Produit et service ­C'est OK pour les clients d'attendre –Il est préférable de fournir des produits et
attitude de livraison pour les produits et services services rapides sur le marché

Orientation vers les personnes –Les gens sont la source de –Les gens sont la plus grande
problèmes et sont des fardeaux ressource d'une organisation
pour l'organisation
Base de décision – Axé sur le produit ­Axée sur la clientèle
fabrication –Gestion par avis –Gestion par les données

Stratégie d'amélioration ­Gestion de crise –Amélioration continue des


–Management par la peur et processus
l'intimidation –Gestion totale des processus

Mode de fonctionnement – Axé sur la carrière et –Amélioration soutenue par la


travail indépendant direction
– Clients, fournisseurs et –Le travail d'équipe entre les fournisseurs,
les propriétaires de processus n'ont les propriétaires de processus et les clients
rien en commun est pratiqué

De Edosomwan (1993) avec permission.

Tableau 4.1 Organisations traditionnelles par rapport aux organisations axées sur le client
Machine Translated by Google

62 Business ­ Systèmes de qualité intégrés

Le comportement des hauts dirigeants est porteur d'une immense symbolique qui
peut rapidement saper le message ciblé et détruire toute crédibilité. À l'inverse, un
comportement qui démontre clairement l'engagement envers la vision peut aider à
faire passer le message : « Ils sont sérieux cette fois ». Les dirigeants doivent s'attendre
à consacrer au moins 50 % de leur temps à la communication pendant la transition.

Mesurer les résultats. Il est important de vérifier que vous tenez vos promesses envers
les clients, les actionnaires et les employés. Ces mesures forment la base des efforts
d'amélioration et doivent inclure les processus internes ainsi que les résultats externes.
Les données doivent être disponibles rapidement pour les personnes qui les utilisent
et être faciles à comprendre.
Récompenser les employés. Les employés doivent être traités comme des partenaires
dans l'effort d'amélioration et recevoir une rémunération adéquate et juste pour faire
leur travail. Récompenser les individus avec des incitations financières peut être
manipulateur, ce qui implique que l'employé ne ferait pas le travail sans la récompense,
ce qui tend à détruire le comportement même que vous cherchez à encourager (Kohn,
1993). La reconnaissance d'une performance ou d'un effort exceptionnel doit être faite
d'une manière qui encourage la coopération et l'esprit d'équipe, comme les fêtes et les
expressions publiques d'appréciation.
Les dirigeants doivent assurer l'équité : par exemple, les primes de gestion et les
réductions de salaire des travailleurs ne font pas bon ménage. Les incitations financières
doivent être réparties équitablement dans l'ensemble de l'organisation, car la plupart
des améliorations sont réalisées grâce aux actions collectives de l'organisation, plutôt
qu'à quelques personnes seulement.

Pour trop d'organisations, le passage d'une organisation traditionnelle à une


organisation axée sur le client commence par la reconnaissance qu'une crise est soit sur
l'organisation, soit imminente. Cela arrache les dirigeants de l'organisation au déni et les
force à abandonner le statu quo. Leurs actions à ce stade définissent leur succès.
L'organisation retenue établira une vision axée sur le client et élaborera des plans pour
atteindre la vision, comme indiqué dans la partie II.

Le fil conducteur de l'évolution de la gestion de la qualité est que l'attention portée à la


qualité s'est progressivement déplacée vers le haut dans la hiérarchie organisationnelle.
La qualité a d'abord été considérée comme l'affaire du monteur, puis de l'inspecteur, puis
du superviseur, de l'ingénieur, du cadre intermédiaire et, aujourd'hui, de la haute direction.
La qualité va continuer à prendre de l'importance, parallèlement à la relation client. En fin
de compte, c'est le souci du client vis­à­vis de la qualité qui a été le moteur du rôle croissant
de la qualité dans l'organisation. Comme l'affirme Juran (1994), le siècle prochain sera
celui de la qualité.
Machine Translated by Google

PARTIE II

Planification intégrée
Chapitre 5
Planification stratégique
chapitre 6
Comprendre le client
produits et procédés nécessaires pour répondre aux besoins Attentes et besoins
des clients. Cela implique un certain nombre d'étapes universelles chapitre 7
La planification de la qualité est l'activité de développement de la
(Juran et De Feo, 2010): Analyse comparative
chapitre 8
1. Définir les clients.
Organisationnel
2. Déterminez les besoins du client. Évaluation

3. Développer des fonctionnalités de produits et de services pour répondre


les besoins du consommateur.

4. Développer des processus pour fournir les fonctionnalités du produit et du service.

5. Transférer les plans résultants au personnel opérationnel.

Comme Juran l'a voulu et l'expérience l'a montré, le terme universel implique que les
activités sont appliquées dans toute organisation à différents niveaux. Les discussions dans
les chapitres suivants portent principalement sur la planification au niveau de l'entreprise
pour atteindre la rentabilité et le succès organisationnel grâce à l'orientation client. Les
concepts seront appliqués de la même manière aux niveaux des processus et des produits
dans la partie IV pour développer et améliorer les produits et services axés sur le client.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 5

Planification stratégique
Machine Translated by Google
Machine Translated by Google

l'inévitabilité de l'avenir, il ne peut pas être prédit. Néanmoins, la


planification à long terme présente des avantages précieux, offrant aux
Malgré gestionnaires la possibilité de se demander de manière critique (1) si les effets
des tendances actuelles peuvent être étendus à l'avenir, (2) les hypothèses selon
lesquelles les produits, services, marchés et technologies d'aujourd'hui seront les
produits, services, marchés et technologies de demain, et (3) peut­être le plus important,
l'utilité de consacrer leurs énergies et leurs ressources à la défense d'hier (Drucker,
1974).
La planification stratégique traditionnelle commence par répondre à deux questions simples
questions : « Quel est notre métier ? » et "Que devrait­ il être?"
La planification stratégique n'est pas une prévision, ce que Drucker (1974) a noté avec
insistance : "n'est pas une activité humaine respectable et n'en vaut pas la peine au­delà des
périodes les plus courtes". La planification stratégique est nécessaire précisément parce que
nous ne pouvons pas prévoir l'avenir. Elle cherche délibérément à bouleverser les probabilités
par des innovations et des changements organisationnels.
La planification stratégique est le processus continu consistant à prendre
systématiquement les décisions entrepreneuriales actuelles et avec la plus grande
connaissance de leur avenir, à organiser systématiquement les efforts nécessaires pour
mener à bien ces décisions et à mesurer les résultats de ces décisions par rapport aux
attentes grâce à un retour d'information organisé et systématique (Drucker , 1974).

Vision organisationnelle
La réponse à ces questions amène une organisation à développer des énoncés de
valeur et de mission pour expliquer les objectifs généraux (ou parfois assez spécifiques)
de l'organisation. L'organisation réussie survivra aux personnes qui sont actuellement
ses membres. Ainsi, la mission de l'organisation qui réussit doit fournir une vision à long
terme, décrivant pourquoi l'organisation existe. Aucune organisation n'existe simplement
pour "faire du profit". Les bénéfices reviennent aux organisations qui produisent une
valeur supérieure à leurs coûts ; c'est­à­dire que les profits sont un effet de l'existence
productive, pas une cause. Considérez ces exemples :

1. La société industrielle électrique Matsushita est l'une des plus grandes


entreprises du monde. Sa mission déclarée est d'éliminer la pauvreté dans le monde en

67
Machine Translated by Google

68 Planification intégrée

mettre leurs produits à la disposition des peuples du monde au coût le plus bas
possible (Mintzberg et Quinn, 1991).

2. La mission d'Henry Ford était de fournir un transport à faible coût à l'homme du


commun.

On pourrait aller plus loin et se demander pourquoi l'organisation a été créée pour remplir
sa mission. La réponse, du moins au début, pourrait résider dans les valeurs du fondateur de
l'organisation. Henry Ford, pour une raison quelconque, estimait qu'il était important (c'est­à­
dire valorisé) de fournir à l'agriculteur un moyen de transport motorisé abordable et fiable. De
plus, pour susciter la coopération des membres de l'organisation, les valeurs de l'organisation
doivent être compatibles avec les valeurs de ses membres.

Les dirigeants de l'organisation sont chargés de définir la vision de l'organisation. Définir


la vision nécessite de développer une image mentale de l'organisation à un moment futur. La
future organisation se rapprochera plus étroitement de l'organisation idéale, où « idéal » est
défini comme l'organisation qui réalise complètement les valeurs de l'organisation. À quoi «
ressemblera » une telle organisation ? Que feront ses employés ? Qui seront ses clients ?
Comment se comportera­t­il envers ses clients, ses employés et ses fournisseurs ?

Développer une image lucide de cette organisation aidera le leader à voir comment il doit
procéder avec son devoir premier de transformer l'organisation actuelle. Sans une telle image
dans son esprit, l'exécutive conduira l'organisation à travers un labyrinthe aux mille impasses.
Inversement, avec sa vision pour la guider, le processus de transformation suivra son cours.

Cela ne veut pas dire que la transformation est toujours « facile ». Mais lorsqu'il y a un leader
avec une vision, c'est comme si l'organisation suivait un éclaireur expert à travers un territoire
hostile. Le chemin est clair, mais le voyage est encore difficile.
Lorsqu'un individu a lui­même une vision d'où il veut aller, il peut poursuivre directement
cette vision. Cependant, lorsqu'il s'agit d'une organisation, il ne suffit pas d'avoir une vision
claire. Le leader doit communiquer la vision aux autres membres de l'organisation.
Communiquer une vision est une tâche très différente de la communication d'instructions ou
d'idées concrètes.
Les visions organisationnelles qui incarnent des valeurs abstraites sont nécessairement
de nature abstraite. Pour transmettre efficacement la vision aux autres, le leader doit convertir
les abstractions en concrets. Une façon d'y parvenir est de vivre la vision. La dirigeante
démontre ses valeurs dans chaque action qu'elle entreprend, chaque décision qu'elle prend,
les réunions auxquelles elle assiste ou qu'elle ignore, lorsqu'elle accorde une attention
particulière et lorsqu'elle griffonne distraitement sur son bloc­notes. Les employés qui essaient
de comprendre la vision du leader porteront une attention particulière au comportement du
leader.
Une autre façon de communiquer des idées abstraites est de raconter des histoires. Dans
les organisations, il y a un flux constant d'événements. Les clients rencontrent l'organisation
à travers les employés et les systèmes, les fournisseurs rencontrent les ingénieurs, littéralement
des milliers d'événements ont lieu chaque jour. De temps en temps un événement se produit
Machine Translated by Google

Planification stratégique 69

qui capture l'essence de la vision du leader. Un commis fournit un service client exceptionnel,
un ingénieur prend un risque et commet une erreur, un fournisseur maintient la ligne en
marche grâce à un effort considérable. Ce sont des exemples concrets de ce que le dirigeant
veut que la future organisation devienne. Elle devrait répéter ces histoires aux autres et
reconnaître publiquement les personnes qui ont fait les histoires.
Elle devrait également créer ses propres histoires, même si cela nécessite de mettre en scène un événement.
Il n'y a rien de malhonnête à créer une situation avec une signification symbolique puissante
et à l'utiliser pour communiquer une vision. Par exemple, Nordstrom raconte l'histoire d'un
vendeur qui a accepté le retour d'un pneu défectueux par un client.
Cette histoire a une énorme signification symbolique car Nordstrom ne vend pas de pneus !
L'histoire illustre la politique de Nordstrom consistant à permettre aux employés d'utiliser leur
propre jugement dans toutes les situations, même s'ils commettent des « erreurs », et à faire
un effort supplémentaire pour satisfaire les clients. Cependant, il est douteux que l'événement
se soit jamais produit. Ceci n'est pas pertinent. Lorsque les employés entendent cette histoire
pendant leur formation d'orientation, le message est clair. L'histoire remplit son objectif de
communiquer clairement une abstraction autrement déroutante.

Stratégie de développement
Après avoir précisé les objectifs de l'entreprise via les énoncés de vision et de mission,
l'activité suivante de la planification stratégique consiste à développer les stratégies (c'est­à­
dire le plan) pour atteindre ces objectifs. Pourtant, la planification doit aller au­delà de la
simple proposition de nouvelles choses que l'entreprise peut faire à l'avenir. Nous devons
également demander à chaque activité, produit, processus ou marché actuel : « Si nous ne
le faisions pas déjà, commencerions­nous ? » Si la réponse est « Non », l'organisation doit
élaborer des plans pour cesser de le faire dès que possible.
La planification vise à faire évoluer l'organisation : évolution des modes de travail,
évolution des systèmes pour répondre aux futurs besoins des clients.
Le plan montre comment allouer les ressources rares et intègre la responsabilité dans le
plan. Des délais sont nécessaires, de même que des retours sur les progrès et la mesure du
résultat final.
Une base traditionnelle de la formation de la stratégie est la comparaison des forces et
faiblesses internes aux opportunités et menaces externes (SWOT).
Comme le montre la figure 5.1, la stratégie se construit à l'intersection d'une appréciation
externe des menaces et opportunités auxquelles une organisation est confrontée dans son
environnement, considérées en termes de facteurs clés de succès, et d'une appréciation
interne des forces et faiblesses de l'organisation. l'organisation elle­même, distillée en un
ensemble de compétences distinctes. Les opportunités extérieures sont exploitées par les
forces internes, tandis que les menaces sont évitées (ou traitées) et les faiblesses contournées
(ou traitées). Les opportunités et les menaces sont identifiées par la compréhension des
clients et de leurs marchés. Les forces et les faiblesses internes sont évaluées au moyen
d'évaluations organisationnelles rigoureuses. (Chacun de ces éléments est discuté en détail
dans les chapitres qui suivent.)
Prise en considération, tant dans la création des stratégies que dans leur
Machine Translated by Google

70 Planification intégrée

Évaluation Évaluation
externe interne

Menaces et Forces et
opportunités dans faiblesses de
l'environnement l'organisation

Facteurs clés Compétences


de succès distinctives

Création

Valeurs
Responsabilité sociale de stratégie managériales

Évaluation
et choix de

stratégie

Mise en œuvre de
la stratégie

Figure 5.1 Modèle SWOT de formulation de stratégie (Mintzberg, 1994).

évaluation ultérieure, sont les valeurs du leadership ainsi que sa responsabilité sociale.

Une fois qu'une stratégie a été choisie, elle est mise en œuvre dans le cadre d'un projet
d'amélioration transversal en utilisant les méthodes d'amélioration décrites dans la partie IV.
Le modèle d'amélioration DMAIC structuré, une amélioration du plan­faire­étudier­agir de
Shewhart, renforce efficacement l'adhésion des groupes de parties prenantes ainsi que des
principaux cadres intermédiaires.
Les projets sont définis pour atteindre la vision établie par l'équipe dirigeante, avec la
compréhension des besoins et des attentes des clients (voir Chap. 6). Les évaluations
organisationnelles, ainsi que les données des clients, constituent la base de l'étape de
mesure du DMAIC. Les principaux moteurs des résultats sont établis à l'étape d'analyse.
Une stratégie d'amélioration est mise en œuvre dans la phase Améliorer et continuellement
vérifiée dans la phase Contrôle.
Les stratégies plus importantes sont exécutées principalement au niveau de la direction.
La mise en œuvre d'initiatives à l'échelle de l'organisation à l'étape Améliorer peut
Machine Translated by Google

Planification stratégique 71

être mieux divisés en projets plus petits alignés sur une stratégie spécifique et exécutés à des
niveaux inférieurs de l'organisation.

Styles stratégiques Les


plans stratégiques sont nécessairement spécifiques à une organisation particulière, à un moment
particulier de son cycle de vie. Ce qui fonctionne pour une entreprise Fortune 100 dans un marché
développé ne s'appliquera probablement pas directement à une start­up dans un marché de niche.
Reeves et al. (2012) définissent quatre grandes catégories de style stratégique :

1. Classique. Cette approche traditionnelle de la définition de plans à plus long terme devrait
être limitée aux organisations dans des environnements assez prévisibles et matures.
Les exemples incluent l'exploration et la production pétrolières, le fret aérien/la logistique,
les boissons, les services publics, les produits en papier et le tabac.

2. Adaptatif. Cette approche flexible favorise l'expérimentation pour développer une stratégie
dans des environnements imprévisibles dans lesquels vous avez peu de capacité à
changer. De nombreux marchés d'aujourd'hui changent continuellement en raison de la
concurrence, de l'innovation et/ou de l'incertitude économique, rendant certains aspects
d'un plan stratégique obsolètes ou non pertinents après peut­être quelques mois
seulement. Dans ces environnements, les entreprises doivent devenir des organisations
apprenantes, intégrant essentiellement leur planification stratégique aux opérations pour
développer rapidement puis suivre les résultats de chaque itération stratégique. Les
exemples incluent la biotechnologie, le matériel de communication, la vente au détail
spécialisée et le matériel informatique.

3. Mise en forme. Lorsque l'environnement est imprévisible, mais que vous avez une
certaine capacité à modifier l'environnement, une stratégie de mise en forme est
recommandée. Dans ce cas, l'organisation développe une stratégie qui cherche à
influencer le marché, par exemple par l'innovation.
Cela peut perturber un marché stagnant ou un marché fragmenté, mais dans les deux
cas l'objectif est de redéfinir le marché à l'avantage de l'entreprise. Les auteurs citent
Facebook comme exemple de déploiement réussi de la stratégie de mise en forme. Leur
capacité à dépasser un concurrent initialement dominant dans MySpace a été complétée
par la redéfinition de l'espace des médias sociaux avec des applications, telles que des
jeux. D'autres exemples incluent le développement de logiciels, les compagnies
aériennes, la vente au détail par catalogue, les services aux consommateurs et les
services sans fil.

4. Visionnaire. Lorsqu'une organisation peut à la fois façonner l'environnement et prédire


l'avenir de manière fiable, elle peut développer des plans audacieux et décisifs pour
créer de nouveaux marchés ou redéfinir une organisation. Étant donné que le marché
est prévisible, l'organisation peut prendre le temps et engager des ressources pour
développer et exécuter un plan complet. Les auteurs citent des exemples tels que la
radio par satellite XM, UPS comme "les catalyseurs du commerce électronique mondial",
l'aérospatiale et la défense, et les produits alimentaires.
Machine Translated by Google

72 Planification intégrée

Malheureusement, les auteurs ont noté que la plupart des organisations interrogées
utilisaient les styles stratégiques visionnaires (40 %) ou classiques (35 %), qui s'appuient
sur des marchés prévisibles, alors que les hypothèses de prévisibilité étaient clairement
injustifiées (Reeves et al., 2012).

Décisions stratégiques fondées sur les possibilités De


toute évidence, la définition et la mise en œuvre d'une vision organisationnelle impliquent
des éléments de créativité. Pourtant, une approche scientifique rigoureuse est nécessaire
pour s'assurer qu'un éventail complet d'options est exploré et évalué. Lafley et al. (2012)
définissent les sept étapes suivantes de l'élaboration d'une stratégie, qui diffèrent des
méthodes traditionnelles en articulant clairement les possibilités :

1. Encadrez un choix. Définissez le problème à l'aide de deux ou plusieurs options


mutuellement exclusives. Cela fait passer la discussion de l'examen des
problèmes à l'évaluation des solutions et à la prise de décisions. Il enracine
davantage l'équipe avec la notion qu'ils ont des choix. Il est souvent utile
d'inclure le statu quo comme option, d'explorer les hypothèses nécessaires au
maintien des pratiques actuelles, ce qui met souvent en évidence la nécessité
d'agir.

2. Générer des possibilités. Faites un remue­méninges créatif pour développer des


options supplémentaires. À ce stade, les options ne sont pas évaluées au­delà
de la plausibilité générale, mais suffisamment de détails sont nécessaires pour
que l'équipe puisse comprendre la nature de l'option. Pratiquement, les auteurs
recommandent trois à cinq options.
3. Spécifiez les conditions. Définissez les limites de chaque option pour décrire les
conditions dans lesquelles l'option serait stratégiquement souhaitable. Notez
que ce n'est pas le moment de discuter des mérites d'une option, ou si ces
conditions nécessaires existent maintenant ou pourraient exister à l'avenir. C'est
plutôt l'occasion de définir les enjeux qu'il faudrait évaluer afin de rendre l'option
attrayante pour l'équipe. Lorsque les conditions ont été complètement définies
pour une option, l'équipe devrait convenir que, si toutes les conditions étaient
remplies, l'option serait acceptable. Si une condition donnée est souhaitable,
mais pas nécessaire, elle doit être supprimée.

Le but ultime à cette étape est de comprendre les limites de chaque option
avant le début de l'analyse.
4. Identifiez les obstacles. Déterminez quelles conditions sont les moins probables.
L'objectif de cette étape est d'identifier les conditions les plus gênantes pour les
membres de l'équipe : quelles conditions seriez­vous le plus susceptible de
vous préoccuper d'atteindre ?
5. Essais de conception. Pour chaque condition barrière clé, construisez des tests
qui, une fois mis en œuvre, convaincraient l'équipe que les conditions peuvent
être remplies. Quelle est la norme de preuve requise pour que l'équipe
Machine Translated by Google

Planification stratégique 73

affirmer, avec un degré de confiance acceptable, que la condition peut être remplie ? Cela peut
impliquer des enquêtes auprès des clients ou des fournisseurs, ou des discussions honnêtes
avec des clients ou des fournisseurs clés, selon la confiance de l'équipe dans la condition. Les
auteurs suggèrent que les membres de l'équipe les plus sceptiques pour une option donnée
soient chargés de développer les tests pour cette option.

6. Effectuez les tests. Mettre en œuvre les tests définis à l'étape précédente. Les auteurs
recommandent de commencer par la condition barrière dans laquelle l'équipe a le moins
confiance, en partant du principe que la condition peut être rapidement rejetée sans tests
supplémentaires.
Ils appellent cela « l'approche de l'homme paresseux » et la citent comme un moteur clé pour
réduire les coûts et l'effort de l'analyse.

7. Faites votre choix. L'option avec le moins d'obstacles clés apparaîtra naturellement comme
l'option préférée par l'équipe.

Lafley, ancien président et chef de la direction de Proctor & Gamble, cite l'utilisation de l'approche
basée sur les possibilités pour la prise de décision stratégique dans la transformation par P&G de la
gamme de produits Olay en une marque de « prestige » haut de gamme, représentant finalement
2,5 milliards de dollars de ventes annuelles. . Lors de l'examen de l'option de commercialiser un produit
de prestige auprès d'une clientèle plus jeune via des canaux de grande diffusion, les conditions nécessaires
suivantes ont été définies (Lafley et al., 2012) :

• Segmentation de l'industrie. Un nombre suffisamment important de femmes veulent


pour "combattre les sept signes du vieillissement".

•Structure de l'industrie. Le segment émergent du masstige (c'est­à­dire un produit de prestige sur


le marché de masse) sera au moins aussi attractif structurellement que le segment actuel du
marché de masse.

•Canaliser. Les détaillants de masse adopteront l'idée de créer un masstige


expérience pour attirer une clientèle de prestige.

•Consommateurs. Il existe un sweet spot en matière de prix qui incitera les consommateurs de
masse à payer une prime et les acheteurs de prestige à acheter dans le canal de masse.

• Capacités de modèle d'affaires. P&G peut créer un positionnement de marque, un emballage et


des promotions en magasin de prestige dans le canal de masse ; et P&G peut établir des
partenariats solides avec des détaillants de masse pour créer et exploiter un segment masstige.
•Frais. P&G peut créer un produit de prestige avec une

structure de coûts qui lui permet d'atteindre le juste prix. •Concurrents. En raison d'un conflit de
canaux, les concurrents de prestige n'essaieront pas de suivre

Olay dans le segment masstige ; et les concurrents de masse auront du mal à suivre car le prix le
plus bas est couvert par la gamme de base Olay Complete.
Machine Translated by Google

74 Planification intégrée

Dans cet exemple, Lafley cite le sweet spot de tarification comme le problème le plus
difficile. L'analyse s'est concentrée sur l'évaluation des niveaux de prix auxquels les
consommateurs percevaient le prestige mais étaient disposés à acheter sur le marché de
masse. Ce défi particulier, et l'analyse résultant des conditions basées sur les possibilités,
se sont avérés les plus influents pour assurer le succès de la stratégie.

Les auteurs notent les principales différences dans l'approche basée sur les possibilités
par rapport à une planification stratégique plus traditionnelle :

1. Plutôt que de demander « Que devons­nous faire ? demander "Que pourrions­nous


faire ?" Alors que le premier conduit à des décisions hâtives, le second favorise
une réflexion introspective, qui peut ensuite être scrutée.
2. La spécification des conditions amène l'équipe à considérer les hypothèses
nécessaires pour que l'option soit souhaitable. Cela oblige l'équipe à imaginer des
possibilités, plutôt que de traiter directement les limites perçues.

3. L'équipe est essentiellement chargée de se concentrer sur la définition des bonnes


questions qui les conduisent à la meilleure décision, plutôt que d'essayer de
passer rapidement à la meilleure solution. L'accent mis sur l'enquête est un aspect
fondamental de l'approche scientifique de la résolution de problèmes.

Développement stratégique à l'aide de la théorie des contraintes* Plus que


jamais auparavant, les dirigeants opérationnels ont besoin d'outils au niveau du système
pour maintenir le succès commercial pour lequel ils se sont battus si dur. L'un de ces outils
au niveau du système est la gestion des contraintes.
La gestion des contraintes reconnaît que la qualité n'est qu'un élément important dans
l'équation commerciale. La gestion des contraintes vise à aider les responsables à tous les
niveaux d'une organisation à rester concentrés sur les facteurs les plus critiques pour le
succès global : les contraintes du système. Dans certains systèmes, ceux­ci peuvent être
liés à la qualité. Dans d'autres systèmes, elles peuvent s'étendre bien au­delà du territoire
traditionnel de la qualité.
Il existe plusieurs types de contraintes. Certains ne sont pas physiques (par exemple,
manque d'espace, pas assez de ressources, etc.). Dans de nombreux cas, ils découlent de
politiques : les lois, règlements, règles ou procédures qui déterminent ce que nous pouvons
ou ne pouvons pas faire. Qui n'a pas entendu dire : « C'est comme ça qu'on fait les choses
ici » ? Ou, alternativement, "Ce n'est pas comme ça que nous faisons les choses ici."
Ce que vous entendez est la verbalisation d'une politique, peut­être non écrite, mais
néanmoins acceptée comme pratique traditionnelle. Lorsqu'une politique, quelle qu'elle soit,
entrave ce que nous devons (ou voulons) accomplir, elle constitue également une
contrainte.

Merci à H. William Dettmer de Goal Systems International pour la rédaction de cette section.
Machine Translated by Google

Planification stratégique 75

La pratique de la gestion des contraintes reconnaît tacitement que les contraintes


limitent ce que nous pouvons faire en toute circonstance, et elle fournit le véhicule pour
comprendre pourquoi cela se produit et ce qui peut être fait au sujet des contraintes
auxquelles nous sommes confrontés.
La gestion des contraintes est une conséquence de la théorie des contraintes (TOC),
un ensemble de principes et de concepts introduits par Eliyahu M. Goldratt, un physicien
israélien, dans les années 1980 dans un livre intitulé The Goal (Goldratt, 1986 ) .
Ces principes et concepts sont un mélange d'idées existantes et nouvelles.
Les nouvelles idées s'appuient sur les anciennes pour produire une approche robuste et
holistique de la compréhension et de la gestion des systèmes complexes. Pour étendre
les principes théoriques et les concepts en application, Goldratt a développé trois classes
d'outils, qui seront décrites plus en détail plus tard. Pour l'instant, le point important à
retenir est que la TOC, et la gestion des contraintes dans son ensemble, constitue une
méthodologie de gestion des systèmes .

L'approche systémique
Qu'entendons­nous par gestion des systèmes ? Tout au long du XXe siècle, la pensée
managériale était largement orientée vers l'activité. Au début des années 1900, la gestion
scientifique de Frederick Taylor (Taylor, 1947) se concentrait sur la division et la
subdivision du travail en tâches ou activités discrètes qui pouvaient être étroitement
surveillées, mesurées et «ajustées» pour produire la performance la plus efficace de
chaque activité. Dans la seconde moitié du siècle, l'accent s'était quelque peu élargi pour
englober les processus de gestion composés de plusieurs activités. À un certain niveau,
ces processus peuvent devenir assez vastes et complexes, comme un processus de
production, un processus d'achat ou un processus de marketing et de vente. Une façon
de gérer la complexité est de la compartimenter, de la découper en « morceaux gérables
». Les organisations le font généralement en créant des départements fonctionnels.
Chaque département est responsable d'une fonction qui fait partie de l'ensemble du
système.
On pourrait même dire que ces « parties » sont en fait des processus individuels.
C'est une manière ordonnée d'aborder la question de la complexité.
Tout au long des années 1980 et au début des années 1990, l'ascension fulgurante du
mouvement de la qualité a renforcé l'idée que le succès résidait dans le raffinement continu
des processus. L'objectif ultime est devenu "Six Sigma", un niveau de performance sans
défaut jamais vu 20 ans auparavant. Incontestablement, les organisations commerciales
et non commerciales avaient besoin de cette orientation. La mauvaise qualité des produits
(qui est généralement le résultat d'une qualité de processus défectueuse) peut faire tomber
une organisation plus rapidement que n'importe quoi d'autre. Mais de nombreuses
entreprises, malgré des efforts herculéens et des dépenses importantes, ont été déçues
de constater que leur retour sur investissement n'était pas ce qu'elles espéraient. L'idée
que « si vous construisez une meilleure souricière, le monde viendra jusqu'à votre porte »
a fonctionné exceptionnellement bien pour les entreprises dont la contrainte primordiale
était la qualité des produits. Pourtant, pour d'autres entreprises, la stratégie semblait
quelque peu décevante.
Machine Translated by Google

76 Planification intégrée

Malgré l'avertissement de « considérer votre client interne », de nombreux


départements se comportent encore comme s'ils étaient dans un « silo » par eux­mêmes.
Ils ne soutiennent pas l'idée, mais pour diverses raisons, ils ne la pratiquent pas très bien.
Ils se concentrent sur l'intérieur, sur des mesures individuelles de performance et
d'efficacité. La plupart des efforts sont consacrés à l'amélioration des maillons de la
chaîne d'approvisionnement, avec peu d'efforts consacrés aux liens, ou aux interfaces
entre les maillons, et au fonctionnement de la chaîne dans son ensemble.

Pensée systémique
Ce que ces entreprises n'ont pas compris, c'est qu'un niveau supérieur de réflexion était
nécessaire : la pensée systémique. Une fois que la qualité des processus individuels est
raisonnablement bien alignée, d'autres facteurs apparaissent et méritent l'attention.
Considérez l'analogie d'une équipe de football.
Les grands sports professionnels consacrent beaucoup de temps et d'argent à
l'amélioration des processus, même s'ils ne le voient probablement pas de cette façon.
Un propriétaire d'équipe peut dépenser des millions pour un contrat avec un quart­arrière
vedette. En appliquant un talent naturel, ils s'attendent à « améliorer le processus de
réussite ». Mais dans de nombreux cas, les touchés n'apparaissent pas, malgré les
sommes énormes dépensées pour les quarts vedettes. À un moment donné dans «
l'analyse des effets du mode d'échec du processus », les entraîneurs découvrent qu'il
est impossible pour ce quart­arrière très apprécié d'effectuer des passes à plat sur le
dos. Ils constatent que la ligne offensive doit être renforcée. Ou un bon blocage est
nécessaire, ou un meilleur plan de match, ou n'importe quel nombre d'autres facteurs.
Le fait est que toute organisation, comme une équipe de football, réussit ou échoue
en tant que système complet, et non en tant qu'ensemble de parties ou de processus
isolés et indépendants. De la même manière qu'un clip cinématographique nous en dit
beaucoup plus sur une situation qu'un instantané instantané, la pensée systémique nous
donne une image plus claire de l'ensemble de la dynamique organisationnelle.
Dans The Fifth Discipline (Senge, 1990), Peter Senge propose que le seul avantage
concurrentiel durable vient de la transformation d'une entreprise en une « organisation
apprenante ». Les clés pour y parvenir, soutient Senge, sont cinq disciplines de base que
toute organisation qui s'efforce de réussir doit maîtriser : la pensée systémique, la maîtrise
personnelle, les modèles mentaux, la construction d'une vision partagée et l'apprentissage
en équipe. Devinez lequel il considère comme le plus important. Bien qu'il le numérote au
cinquième rang, il l'énumère en premier, et il a intitulé son livre après lui.

Optimisation du système versus amélioration des processus


Si l'on « pense système », la question se pose inévitablement : que fait­on de l'amélioration
des processus ? L'ignorons­nous maintenant que nous pensons à un niveau supérieur ?
Non, l'amélioration des processus est toujours importante. Il constitue les blocs de
construction sur lesquels reposent les performances du système. Mais comme l'équipe
de football évoquée ci­dessus, une fois que vous avez une « vedette par ancien » à
chaque poste, vous avez un défi d'un genre différent : coordonner et synchroniser les
efforts de chaque composante de l'équipe.
Machine Translated by Google

Planification stratégique 77

système pour produire le meilleur résultat système . Autrement dit, une fois les canards
alignés, il s'agit de les faire marcher au pas ensemble. Nous appelons cela l'optimisation
du système.
Dans quelle mesure est­il important d'optimiser le système plutôt que ses composants ?
Deming lui­même a répondu à cette question dans The New Economics for Industry,
Government, Education (Deming, 1993, pp. 53, 100). Il a observé :

L'optimisation est le processus d'orchestration des efforts de tous les composants vers la
réalisation de l'objectif déclaré. L'optimisation est le travail de la direction. Tout le monde gagne
avec l'optimisation. Rien de moins que l'optimisation du système entraînera même une perte
pour chaque composant du système. Tout groupe devrait avoir pour objectif l'optimisation du
système plus large dans lequel le groupe opère. L'obligation de toute composante est de
contribuer de son mieux au système, et non de maximiser sa propre production, ses bénéfices
ou ses ventes, ni aucun autre élément concurrentiel. mesure. Certains composants peuvent eux­
mêmes fonctionner à perte afin d'optimiser l'ensemble du système, y compris les composants
qui subissent une perte.

Il s'agit d'une mise en accusation puissante de la façon dont la plupart des entreprises
font des affaires depuis l'époque de Frederick Taylor, sans exclure l'ère des « lumières de
la qualité » des années 1980 et 1990. Essentiellement, Deming a déclaré que maximiser
l'efficacité locale partout dans un système n'est pas nécessairement une bonne chose à
faire.

Systèmes en tant que


chaînes Pour exprimer plus simplement le concept de contraintes de système, Goldratt a
assimilé les systèmes à des chaînes (Goldratt, 1990, p. 53) :

Il s'agit ici de « chaînes » d'actions. Qu'est­ce qui détermine la performance d'une chaîne ? La
force de la chaîne est déterminée par la force de son maillon le plus faible. Combien y a­t­il de
maillons faibles dans une chaîne ? Tant que les fluctuations statistiques empêchent les maillons
d'être totalement identiques, il n'y a qu'un seul maillon faible dans une chaîne.

Goldratt poursuit en suggérant qu'il existe autant de contraintes dans un système qu'il
existe de véritables chaînes indépendantes. En réalité, dans la plupart des systèmes, il
n'y a pas beaucoup de chaînes véritablement indépendantes. Le dictionnaire (Barnes et
Noble, 1989) définit le système comme :

un assemblage ou une combinaison de choses ou de parties formant un tout complexe ou


unitaire ; la structure ou l’organisation, la société, l’entreprise…

Thomas H. Athey définit un système comme tout ensemble de composants qui


pourraient être considérés comme travaillant ensemble pour l'objectif global de l'ensemble
(Athey, 1982, p. 12). Le thème sous­jacent de ces définitions est une interrelation ou une
interdépendance. Par définition, un « système » ne peut donc pas avoir trop de chaînes
réellement indépendantes. Alors s'il n'y en a pas trop
Machine Translated by Google

78 Planification intégrée

chaînes indépendantes dans un système particulier ­ qu'il s'agisse d'un système de


fabrication, de services ou de gouvernement ­ à un moment donné, seules quelques
variables déterminent réellement la performance du système.
Cette idée a de profondes implications pour les managers. Si seules quelques
variables déterminent les performances du système, la complexité des tâches des
managers peut être considérablement réduite. Regardez­le en termes de règle de
Pareto, qui suggère que seulement 20 % d'un système représentent 80 % des
problèmes qu'il contient. S'il s'agit d'une conclusion valable, les managers devraient
pouvoir concentrer la majeure partie de leur attention sur ces 20 % critiques.
Le concept de chaînes et de « maillons les plus faibles » de Goldratt pousse le
concept de Pareto un peu plus loin : le maillon le plus faible représente 99 % du
succès ou de l'échec d'un système à progresser vers son objectif (Goldratt, 1990, p. 53).

Principes et concepts de base de la gestion des contraintes La


gestion des contraintes présente le fondement théorique que Deming considérait
comme si important pour une action de gestion efficace (Deming, 1986).
Les théories peuvent être descriptives ou prescriptives. Une théorie descriptive ne dit
généralement que pourquoi les choses sont comme elles sont. Il ne fournit aucune
indication sur ce qu'il faut faire des informations qu'il fournit. Un exemple de théorie
descriptive pourrait être les lois de la gravitation de Newton ou les théories de la
relativité d'Einstein. La théorie prescriptive décrit également, mais elle guide
également à travers les actions prescrites. La plupart des théories de gestion sont prescriptives.
La philosophie de Deming prescrit à travers ses 14 points (Deming, 1986).
One­Minute Manager de Ken Blanchard (Blanchard, 1982) et The Fifth Discipline de
Peter Senge (Senge, 1990) expliquent en détail les théories prescriptives.
La gestion des contraintes est également prescriptive. Il fournit une définition
commune d'une contrainte, quatre hypothèses sous­jacentes de base et cinq étapes
de focalisation pour guider l'action de gestion.

Définition d'une contrainte


En termes simples, une contrainte est tout ce qui limite un système (entreprise ou
agence) dans l'atteinte de son objectif (Goldratt, 1990, pp. 56­57). Il s'agit d'une
définition très large, car elle englobe une grande variété d'éléments contraignants
possibles. Les contraintes peuvent être physiques (équipement, installations, matériel,
personnes) ou elles peuvent être politiques (lois, réglementations ou la façon dont
nous choisissons de faire des affaires ou de ne pas faire d'affaires ) . Souvent, les
politiques font apparaître des contraintes physiques.

Types de contraintes
Identifier et briser les contraintes devient un peu plus facile s'il existe une manière
ordonnée de les classer. De la discussion précédente, nous savons que les
contraintes du système peuvent être considérées comme physiques ou politiques. Au
sein de ces deux grandes catégories, il existe sept types de base (Schragenheim et
Dettmer, 2000, Chap. 4) :
Machine Translated by Google

Planification stratégique 79

•Marché. Pas assez de demande pour un produit ou un service. •Ressource.

Pas assez de personnes, d'équipements ou d'installations pour satisfaire la demande de


produits ou de services. •Matériel. Incapacité

à obtenir les matériaux requis dans la quantité ou la qualité nécessaire pour satisfaire la
demande de produits ou de services. • Fournisseur/vendeur. Manque de fiabilité

(incohérence) d'un fournisseur ou d'un vendeur, ou délai excessif pour répondre aux
commandes. •Financier. Flux de trésorerie insuffisant pour soutenir une

opération. Par exemple, une entreprise qui ne peut pas produire plus tant que le paiement n'a
pas été reçu pour le travail précédemment effectué, car elle pourrait avoir besoin de ce
revenu pour acheter des matériaux pour une commande ferme en attente.

•Connaissance/compétence. Connaissances : les informations ou les connaissances permettant


d'améliorer les performances de l'entreprise ne résident pas dans le système ou
l'organisation. Compétence : Les gens n'ont pas les compétences (ou les niveaux de
compétence) nécessaires pour performer à des niveaux plus élevés requis pour rester
compétitifs.

•Politique. Toute loi, réglementation, règle ou pratique commerciale qui empêche


progrès vers l'objectif du système.

Remarque : Dans la plupart des cas, une stratégie est très probablement à l'origine d'une
contrainte de l'une des six premières catégories. Pour cette raison, la théorie des contraintes accorde
une très grande importance à l'analyse des politiques, qui sera discutée plus en détail dans « Le
processus de pensée logique », ci­dessous.
Tous ces types ne s'appliquent pas à tous les systèmes. Les contraintes de matériel et de
fournisseur/vendeur peuvent ne pas s'appliquer aux organisations de services. Les contraintes du
marché ne sont généralement pas pertinentes dans les systèmes à but non lucratif, tels que les
agences gouvernementales. Mais les contraintes liées aux ressources, aux finances, aux
connaissances/compétences et aux politiques peuvent potentiellement affecter tous les types d'organisations.

Quatre hypothèses sous­jacentes La


gestion des contraintes repose sur quatre hypothèses concernant le fonctionnement des systèmes
(Schragenheim et Dettmer, 2000, Chap. 2). Ces hypothèses sont :

1. Chaque système a un objectif et un ensemble fini de conditions nécessaires qui doivent être
satisfaites pour atteindre cet objectif. Un effort efficace pour améliorer les performances du
système n'est pas possible sans une compréhension claire et un consensus sur ce que
sont l'objectif et les conditions nécessaires.

2. La somme des optima locaux d'un système n'est pas égale à l'optimum global du système.
En d'autres termes, le système le plus efficace ne vient pas de la maximisation de l'efficacité
de chaque composant du système individuellement, sans tenir compte de son interaction
avec les autres composants.
Machine Translated by Google

80 Planification intégrée

3. Très peu de variables, peut­être une seule, limitent les performances d'un système à un
moment donné. Cela équivaut au concept de "maillon le plus faible" évoqué
précédemment.

4. Tous les systèmes sont soumis à une relation de cause à effet logique. Il y a des
conséquences naturelles et logiques à toute action, décision ou événement. Pour les
événements qui se sont déjà produits, ces conséquences peuvent être cartographiées
visuellement pour faciliter l'analyse de la situation ou du problème. Pour les décisions
qui n'ont pas encore été prises ou qui sont envisagées, les résultats de ces actions,
décisions ou événements peuvent être projetés logiquement dans le futur et également
cartographiés visuellement.

Toute la description et la prescription contenues dans l'homme de contrainte


ment reposent sur ces hypothèses.

Objectif et conditions nécessaires La


première hypothèse ci­dessus soutient que chaque système a un objectif et un ensemble de
conditions nécessaires qui doivent être satisfaites pour atteindre cet objectif (Schragenheim et
Dettmer, 2000, Chap. 2). Le philosophe Friedrich Nietzsche a un jour observé qu'en perdant son
but, on s'égare.
Ou une autre façon de le dire : si vous ne savez pas quelle est la destination, alors n'importe quel
chemin fera l'affaire.
Bien que cette hypothèse soit sans aucun doute valable dans la plupart des cas, il existe
évidemment certaines organisations qui n'ont pas consacré le temps ou les efforts nécessaires
pour définir clairement et sans équivoque quel est leur objectif. Et même s'ils ont défini un objectif,
la plupart n'ont pas fait le pas supplémentaire pour définir les conditions minimales nécessaires,
ou les facteurs critiques de succès, pour atteindre cet objectif.
Par exemple, la plupart des entreprises à but lucratif ont un objectif financier. Goldratt soutient
que l'objectif des entreprises à but lucratif est de « gagner plus d'argent, maintenant et à l'avenir
» (Goldratt, 1990, p. 12). Une autre façon de dire cela est la rentabilité. Ceci, bien sûr, ne serait
pas un objectif approprié pour un organisme gouvernemental, tel que le ministère de la Défense
ou le ministère de l'Éducation. Des objectifs non financiers devraient être définis pour ces agences.
Mais cela fonctionne assez bien pour la plupart des entreprises engagées dans des activités
commerciales.

Cependant, avoir la rentabilité comme objectif ne suffit pas. Pour qu'une organisation soit
rentable et que ces bénéfices augmentent de manière constante, il existe un ensemble discret de
conditions nécessaires qu'elle doit satisfaire. Certains d'entre eux seront uniques au secteur dans
lequel l'entreprise évolue, d'autres seront génériques pour toutes les entreprises à but lucratif.
Mais une chose que toutes les organisations auront en commun : il y aura très peu de ces
conditions nécessaires, peut­être moins de cinq.

Les conditions nécessaires sont des facteurs critiques de succès. Ils sont en fait nécessaires
pour atteindre l'objectif. Par exemple, la satisfaction de la clientèle est sans aucun doute
essentielle à la progression continue vers un objectif financier. Employé
Machine Translated by Google

Planification stratégique 81

satisfaction peut être considérée comme nécessaire pour atteindre l'objectif. Inclure
des conditions nécessaires comme celles­ci dans la hiérarchie des objectifs lui donne
de la crédibilité, l'identifiant comme quelque chose qui n'est pas seulement temporaire
mais qui doit être satisfait tout au long de la vie de l'organisation. La figure 5.2 illustre
une hiérarchie type objectif/condition nécessaire.
Les conditions nécessaires diffèrent de l'objectif. Alors que l'objectif lui­même n'a
généralement pas de limite (il est normalement formulé de telle manière qu'il est peu
probable qu'il soit jamais pleinement réalisé), les conditions nécessaires sont plus
finies. Ils peuvent être caractérisés comme une situation « zéro ou un » : c'est là ou ce
n'est pas (un état « oui ou non »). Par exemple, une organisation à but lucratif pourrait

But Rentabilité maximale


("Gagner plus d'argent,
maintenant et à l'avenir")

Conditions
nécessaires Part de
marché dominante

Satisfaction
Technologie « de
du client
pointe »

Communication Classe mondiale Innovation


de classe mondiale service
systèmes, produits client

Rapidité
de
développement, réponse

Matériel,
logiciel de
haute qualité
Main­d'œuvre de haute
qualité, sûre et satisfaite

Des associés Satisfaction


hautement compétents des besoins individuels

Figure 5.2 Hiérarchie des objectifs et des conditions nécessaires.


Machine Translated by Google

82 Planification intégrée

veulent gagner autant d'argent que possible, sans limites. Mais la sécurité et la satisfaction
des employés, en tant que conditions nécessaires, doivent être établies à un niveau minimum
bien défini. L'objectif d'une entreprise à but lucratif ne peut s'attendre à satisfaire ses employés
sans limite, mais l'organisation doit reconnaître la nécessité d'atteindre un certain niveau de
sécurité et de satisfaction des employés comme une exigence minimale pour atteindre
l'objectif. Cela ne veut pas dire que toutes les conditions nécessaires sont de nature zéro ou
un. Certains, comme la satisfaction du client, peuvent être augmentés, et cela devrait améliorer
la progression vers l'objectif. Mais même des conditions nécessaires aussi variables ont des
limites pratiques.

L'importance d'identifier l'objectif d'un système (d'une organisation) et les conditions


nécessaires est qu'ils deviennent la norme par laquelle tous les résultats sont jugés et toutes
les décisions envisagées sont évaluées. Les actions d'hier ou du mois dernier satisfaisaient­
elles mieux une condition nécessaire ou contribuaient­elles à la réalisation du but ? Si c'est le
cas, l'organisation sait qu'elle progresse dans la bonne direction. Peut­on s'attendre à ce que
les décisions envisagées aujourd'hui, ou la semaine prochaine, fassent avancer l'entreprise
vers son but, ou satisfassent à une condition nécessaire ? Si tel est le cas, la décision est
bonne du point de vue du système.

Les cinq étapes de focalisation


Une fois les conditions nécessaires établies, la théorie des contraintes prescrit l'application
de cinq « étapes de focalisation » afin de continuer à satisfaire ces conditions nécessaires
(Goldratt, 1986, p. 307).
Goldratt a créé les cinq étapes de focalisation pour s'assurer que la direction « garde l'œil
sur la balle » – ce qui est vraiment important pour réussir : la contrainte du système. À un
égard, ces étapes sont similaires au cycle de Shewhart : planifier­faire­vérifier/étudier­agir
(Deming, 1986). Ils constituent un cycle continu. Vous ne vous arrêtez pas après une seule
« rotation ». Les cinq étapes de focalisation (Schragenheim et Dettmer, 2000, Chap. 2) sont :

1. Identifier. La première étape consiste à identifier la contrainte du système. Qu'est­ce


qui limite les performances du système maintenant ? Est­ce à l'intérieur du système
(une ressource ou une politique) ou est­ce à l'extérieur (le marché, l'approvisionnement
en matériel, un fournisseur… ou une autre politique) ? Une fois la contrainte du
système identifiée, si elle peut être brisée sans trop d'investissement, faites­le
immédiatement et revenez à la première étape. S'il ne peut pas être facilement
cassé, passez à la deuxième étape.

2. Exploitez. Décidez comment exploiter la contrainte du système. « Exploiter » signifie


« tirer le meilleur parti » de l'élément contraignant sans investissement supplémentaire.
En d'autres termes, changez votre façon de fonctionner afin que le bénéfice financier
maximal soit tiré de l'élément contraignant. Par exemple, si la contrainte du système
est la demande du marché (pas assez de ventes), cela signifie répondre au marché
afin de gagner plus de ventes. En revanche, si la contrainte est une
Machine Translated by Google

Planification stratégique 83

ressource interne, cela signifie utiliser cette ressource de la meilleure façon


pour maximiser sa contribution marginale au profit. Cela peut signifier une
amélioration de la qualité des processus, une réorganisation du flux de
travail tout au long du processus ou une modification de la gamme de
produits. L'exploitation de la contrainte devrait être au cœur de la planification
tactique, garantissant les meilleures performances que le système peut tirer
maintenant. Pour cette raison, la responsabilité de l'exploitation incombe
aux supérieurs hiérarchiques qui doivent fournir ce plan et le communiquer,
afin que tous les autres comprennent le schéma d'exploitation pour l'avenir immédiat.
3. Subordonné. Une fois que la décision sur la manière d'exploiter la contrainte
a été prise, subordonnez tout le reste à cette décision. C'est, à la fois, la
plus importante et la plus difficile des cinq étapes de focalisation à accomplir.
Pourquoi est­ce si difficile? Cela exige que chaque personne et chaque
partie du système qui n'est pas directement impliquée dans la contrainte de
subordonner ou de « mettre au second plan » ses propres mesures de
succès, efficacités et ego chéris. Cela exige que tout le monde, de la
direction à la direction, accepte l'idée que la capacité excédentaire du
système dans la plupart des sites n'est pas seulement acceptable, c'est en
fait une bonne chose et nécessaire !
La subordination relègue formellement toutes les parties du système qui ne
sont pas des contraintes (appelées « non­contraintes ») au rôle de partisans
de la contrainte. Cela peut créer des problèmes de comportement à presque
tous les niveaux de l'entreprise. Il est très difficile pour la plupart des gens
d'accepter qu'eux­mêmes et/ou leur partie de l'organisation ne sont pas
aussi essentiels au succès du système que n'importe quel autre.
Par conséquent, la plupart des personnes sans contraintes résisteront à
faire les choses nécessaires pour subordonner le reste du système à la
contrainte. C'est ce qui rend la troisième étape si difficile à accomplir.

Ce qui rend la contrainte plus critique pour l'organisation, c'est sa faiblesse


relative. Ce qui distingue une non­contrainte est sa force relative, qui lui
permet d'être plus flexible. Ainsi, la performance actuelle de l'organisation
repose vraiment sur le point faible. Alors que les autres parties du système
pourraient faire plus, à cause de ce point faible, il est inutile d'en faire plus.
Au lieu de cela, la clé d'une meilleure performance consiste à subordonner
judicieusement les points forts afin que le point faible puisse être pleinement
exploité.
La subordination redéfinit en fait les objectifs de chaque processus du
système. Chaque processus est censé accomplir une mission nécessaire à
la réalisation ultime de l'objectif. Mais parmi les processus, il peut y avoir
des priorités conflictuelles, telles que la concurrence pour les mêmes
ressources. La subordination des non­contraintes concentre en fait les
efforts de chaque processus sur le soutien véritable de l'objectif de
l'organisation. Il permet d'exploiter au mieux la contrainte.
Machine Translated by Google

84 Planification intégrée

Considérez un entrepôt de matières premières. Quel est son objectif ? Le stockage et la


libération des matériaux sont nécessaires en tant que « pont » entre le moment où les
matériaux arrivent des fournisseurs et le moment où les mêmes matériaux sont nécessaires
sur le site de production. Lorsqu'un centre de travail spécifique est la contrainte, tous les
matériaux nécessaires à ce centre de travail particulier doivent être libérés précisément
au moment requis. Si la demande du marché est la seule contrainte, toute commande
entrante devrait déclencher la libération de matériel.

Cependant, même si aucune nouvelle commande n'entre dans le système, les chefs
d'atelier aiment souvent continuer à travailler, afin de maintenir leur efficacité à un niveau élevé.
Mais si les non­contraintes d'un système de production sont correctement subordonnées,
la matière ne doit pas être libérée. Le processus de libération des matériaux doit être
subordonné aux besoins de la contrainte du système, et non à des mesures d'efficacité
arbitraires. Le maintien de la commande dans l'entrepôt fait partie du processus de
subordination. La libération des matériaux qui ne sont pas immédiatement nécessaires
pour une commande ferme doit être traitée comme une priorité inférieure à la libération
rapide des matériaux dont la contrainte aura bientôt besoin pour répondre à une exigence
précise du client.

La subordination sert à concentrer les efforts du système sur les choses qui l'aident à
maximiser sa performance actuelle. Les actions qui contredisent la logique de subordination
doivent être supprimées.

Il est possible qu'après avoir terminé la troisième étape, la contrainte du système soit
brisée. Si c'est le cas, cela devrait être assez évident. La sortie au niveau du système fera
généralement un bond positif, et une autre partie du système pourrait commencer à
ressembler à un « goulot d'étranglement ». Si tel est le cas, revenez à la première étape
et recommencez les cinq étapes de mise au point. Identifiez quel nouveau facteur est
devenu la contrainte du système, déterminez comment exploiter au mieux ce composant
et subordonnez tout le reste.

4. Élevez. Cependant, si, après avoir terminé l'étape 3, la contrainte d'origine est toujours la
contrainte du système, à ce stade, le mieux dont vous pouvez être assuré est que vous
en tirez le maximum de productivité possible ­ il n'est pas possible pour le système de
faire mieux qu'il ne l'est sans action de gestion supplémentaire. En prenant cette mesure,
il est nécessaire de passer à la quatrième étape pour obtenir de meilleures performances
du système. Cette étape consiste à évaluer d'autres moyens d'élever la contrainte (ou les
contraintes, dans le cas peu probable où il y en aurait plus d'une). Élever signifie «
augmenter la capacité ».

Si la contrainte est une ressource interne, cela signifie obtenir plus de temps pour que
cette ressource fasse un travail productif. Certaines alternatives typiques pour ce faire
pourraient être d'acquérir plus de machines ou de personnes, ou d'ajouter des heures
supplémentaires ou des équipes jusqu'à ce que les 24 heures de la journée soient
utilisées. Si la contrainte est la demande du marché (manque de ventes), l'élévation peut
signifier investir dans une campagne publicitaire ou l'introduction d'un nouveau produit
pour augmenter les ventes. Dans tous les cas, s'élever signifie invariablement "dépenser
plus d'argent pour gagner plus d'argent".
Machine Translated by Google

Planification stratégique 85

Notez l'utilisation du mot évaluer dans cette étape. Ce mot est souligné pour
une bonne raison. D'après les exemples précédents ­ acheter plus
d'équipement ou ajouter des quarts de travail ou des heures supplémentaires
­ il devrait être clair qu'il existe plus d'une façon d'écorcher un chat. Certaines
alternatives sont moins chères que d'autres. Certaines alternatives sont plus
attrayantes pour des raisons qui ne peuvent pas être mesurées directement
en termes financiers (par exemple, étant plus faciles à gérer). Dans tous les
cas, un choix sur les moyens d'élévation sera généralement nécessaire, donc
sauter sur la première option à laquelle vous pensez n'est pas nécessairement une bonne idée.
L'une des raisons de privilégier une alternative d'élévation plutôt qu'une autre
est l'identité de la prochaine contrainte potentielle. Les contraintes ne «
disparaissent » pas en soi. Lorsqu'une contrainte est rompue, un autre facteur,
interne ou externe au système, devient la nouvelle contrainte du système,
bien qu'à un niveau supérieur de performance globale du système, mais
néanmoins une contrainte. Il est possible que la prochaine contrainte potentielle
soit plus difficile à gérer que celle que nous avons actuellement ; cela pourrait
réduire la marge de contrôle que nous avons sur notre système.

Il est également possible que ces alternatives conduisent la contrainte du


système à différents emplacements, dont l'un pourrait être préférable à l'autre.
Ou il se peut que la gestion de la nouvelle contrainte potentielle nécessite un
délai beaucoup plus long que la suppression de la contrainte actuelle. Dans
ce cas, si nous décidons de briser la contrainte actuelle, nous voudrions avoir
une « longueur d'avance » sur les tâches nécessaires pour exercer un certain
contrôle sur la nouvelle contrainte.

Élévation inefficace : un exemple


Par exemple, une entreprise impliquée dans la fabrication de circuits imprimés
à semi­conducteurs a trouvé que sa contrainte était la première étape de son
processus : une machine à montage en surface (diffusion gazeuse)
(Schragenheim et Dettmer, 2000, Chap. 2). Sans considérer quelle autre
ressource pourrait devenir la nouvelle contrainte, ils ont opté pour l'achat d'une
autre machine à montage en surface. Cela a certainement soulagé la
contrainte initiale. Mais l'équipement de test automatisé (ATE) ­ environ huit
étapes en aval de la chaîne de production ­ est devenu la nouvelle contrainte,
et la gestion de la contrainte à cet endroit n'était pas une tâche facile. C'était
plus complexe à planifier à ce moment­là, et ça souffrait de plus de problèmes.
De plus, déplacer la contrainte hors de la section ATE était encore plus difficile.
L'achat de plus d'ATE revenait plus cher que l'achat d'équipements
supplémentaires montés en surface. Trouver des opérateurs ATE qualifiés
était également plus difficile.
En bref, il a fallu plus de temps, d'efforts et d'argent pour gérer ou briser
la contrainte ATE que pour briser la contrainte de montage en surface. Si
l'entreprise avait pu prévoir qu'ATE
Machine Translated by Google

86 Planification intégrée

deviendrait la contrainte du système, ils auraient pu choisir soit (1) de laisser la


contrainte là où elle se trouvait ­ sur la machine de montage en surface, soit (2) de
commencer l'acquisition à long terme des opérateurs ATE et ATE pour augmenter la
capacité de la section ATE avant d'augmenter la capacité de montage en surface.
Cela aurait augmenté les performances du système, tout en préservant la contrainte
du système à un emplacement beaucoup plus facile à gérer.

Un autre facteur important à considérer est le retour sur investissement.


Une fois que l'entreprise décrite ci­dessus a dépassé la contrainte de montage en
surface, il y avait un potentiel pour générer plus de débit, mais combien ? Si la
capacité de l'ATE n'était que légèrement supérieure à celle de la machine à montage
en surface d'origine, l'entreprise n'aurait peut­être obtenu qu'une légère augmentation
du débit en guise de remboursement du coût de la nouvelle unité à montage en
surface. Cela pourrait devenir une déception certaine.

Tant que la prochaine contrainte pose une limite sensiblement plus élevée que
celle existante, il est probablement prudent de dire que l'entreprise a fait ce qu'il
fallait. Même si l'exploitation de l'ATE est plus difficile, l'augmentation du débit
pourrait en valoir la peine. L'ATE pourrait toujours être chargé un peu moins, et
l'entreprise réaliserait quand même plus d'argent. Quelle est la leçon ici? Évaluer le
retour sur investissement réel d'une action d'élévation nécessite une compréhension
de la théorie des contraintes, où se situera la prochaine contrainte et de combien le
débit augmentera avant d'atteindre la prochaine contrainte. Ainsi, la partie « évaluer »
de l'étape d'élévation peut être extrêmement importante. Il est important de savoir
où la nouvelle contrainte se produira, car elle pourrait affecter notre décision sur la
façon d'élever.

Comment déterminer où sera la prochaine contrainte La


façon la plus simple de le faire est d'appliquer les trois premières des cinq étapes
de concentration « dans notre tête », avant de réellement nous élever pour la première fois.
En d'autres termes, identifiez le facteur suivant le plus limitant, à l'intérieur ou à
l'extérieur du système, qui empêchera l'ensemble du système d'atteindre de
meilleures performances après la rupture de la contrainte actuelle. Déterminez
ensuite quelles actions seront nécessaires pour exploiter cette nouvelle contrainte
dans le futur, et comment le reste du système devra agir pour se subordonner à
l'exploitation de la nouvelle contrainte.
Une fois cela fait, les ramifications de chaque alternative à l'élévation devraient
être évidentes, et une décision plus éclairée est possible quant à l'alternative à
choisir ­ et ce n'est peut­être pas le choix évident, ou le moins cher !

5. Revenez à l'étape 1, mais méfiez­vous de "l'inertie". Même si l' exploit et les étapes
subordonnées ne brisent pas la contrainte du système, l' étape d'élévation le fera
très probablement, à moins qu'une décision consciente ne soit prise pour réduire
Machine Translated by Google

Planification stratégique 87

actions d'élévation en deçà de ce point. Dans les deux cas, après les étapes
subordonnées ou élevées , il est important de revenir à la première étape (identifier)
pour vérifier où se trouve la nouvelle contrainte système ou pour déterminer qu'elle
n'a pas migré de l'emplacement d'origine.
Parfois, une contrainte se déplace, non pas à la suite d'actions intentionnelles, mais
à la suite d'un changement dans l'environnement. Par exemple, un changement
dans les préférences du marché peut conduire une entreprise à modifier son mix
produit à un point tel que la contrainte se déplace ailleurs. Bien que de tels
changements externes ne se produisent pas très fréquemment, cela vaut la peine
de revenir à la première étape de temps en temps, juste pour vérifier que ce que
nous croyons être la contrainte est toujours, en fait, le facteur limitant du système.

L'avertissement concernant l'inertie dit : "Ne devenez pas complaisant."


Il y a deux raisons à cela. Premièrement, lorsque la contrainte se déplace, les actions
ou les politiques que nous mettons en place pour exploiter et subordonner le reste
du système à la « vieille » contrainte peuvent ne plus être les meilleures choses à
faire pour le bénéfice de l'ensemble du système. Si nous ne réévaluons pas où se
trouve la nouvelle contrainte du système, cette lacune ne sera jamais remarquée.
Deuxièmement, on a souvent tendance à dire : « Eh bien, nous avons résolu ce
problème. Il n'est pas nécessaire de le revoir à nouveau. Mais la solution d'aujourd'hui
devient finalement la curiosité historique de demain. Une organisation qui est trop
paresseuse (ou distraite par d'autres demandes d'attention) pour revoir d'anciennes
solutions peut être sûre qu'éventuellement, probablement plus tôt que tard, elle
n'obtiendra pas les meilleures performances possibles de son système.

Outils de gestion des contraintes Le succès


ou l'échec de toute entreprise repose souvent sur la sélection et l'utilisation appropriée des
bons outils. La gestion des contraintes ne fait pas exception.
Alors que les cinq étapes de concentration sont des lignes directrices efficaces pour la gestion
tactique et stratégique de tout type de système, dans des situations spécifiques, la nature des
contraintes et les problèmes qui y sont associés nécessitent des outils et des procédures
différents. L'exploitation d'une contrainte se ferait différemment dans un environnement de
service que dans un processus de production.
La subordination serait différente dans une entreprise de fabrication lourde qui fabrique des
produits standardisés que dans un petit atelier. Ne serait­il pas utile d'avoir une aide qui
pourrait nous orienter vers les bonnes actions de gestion des contraintes pour chaque
situation ?

Le processus de réflexion logique


Avec autant de types différents de contraintes, et avec des contraintes politiques sous­jacentes
à la plupart d'entre elles, comment pouvons­nous identifier les changements spécifiques sur
lesquels nous devrions travailler ? Bon nombre de ces contraintes ne sont pas faciles à identifier.
Souvent, ils ne sont pas physiques, ou ils ne sont pas faciles à mesurer. Parfois ils
Machine Translated by Google

88 Planification intégrée

s'étendent au­delà des seules limites des processus de production, même s'ils affectent
toujours la fabrication, et parfois, surtout s'il s'agit de politiques, ils envahissent toute
l'organisation.
Pour faciliter l'analyse des systèmes complexes, Goldratt a créé un processus de
pensée logique. Le processus de réflexion est composé de six diagrammes logiques, ou
« arbres ». (Dettmer, 1997, 1998). Il a été spécifiquement conçu pour analyser les
politiques d'une organisation et déterminer celles qui pourraient constituer une contrainte
à une meilleure performance.
Ce processus de réflexion est unique d'un point de vue : il s'agit de l'une des rares
(peut­être la seule) méthodologie de résolution de problèmes qui va au­delà de
l'identification des problèmes et de la génération de solutions, et de la vérification des
solutions et de la planification de la mise en œuvre. Les composantes du processus de
réflexion comprennent :

1. L'arbre de réalité actuel (CRT). Conçu pour aider à identifier la contrainte du


système, en particulier lorsque cette contrainte est une politique quelconque.
La figure 5.3 montre un exemple d'un CRT typique.
2. Le "nuage en évaporation" (EC). Une sorte de schéma de résolution des conflits.
Aide à créer des solutions révolutionnaires pour résoudre les conflits cachés et
sous­jacents qui ont tendance à perpétuer la contrainte.
La figure 5.4 illustre un EC typique.
3. L'arbre de la réalité future (FRT). Teste et valide les solutions potentielles. Fournit
une vérification logique qu'une solution proposée fournira réellement les résultats
souhaités. La figure 5.5 illustre un FRT.
4. La branche négative (NB). En fait, un sous­ensemble du FRT. Aide à identifier et
à éviter tout nouvel effet dévastateur pouvant résulter de la solution. La figure
5.6 représente un exemple théorique d'un NB, et comment il aurait pu être utilisé
pour anticiper les conséquences désastreuses d'une décision très médiatisée.
Notez que cet exemple souligne le fait que l'application des outils du processus
de réflexion ne se limite pas aux seules situations d'affaires commerciales.

5. L'arborescence des prérequis (PRT). Aide à mettre en évidence et à éliminer les


obstacles à la mise en œuvre d'une solution choisie. Séquencez également dans
le temps les actions nécessaires pour atteindre l'objectif. La figure 5.7 montre un
PRT typique.
6. L'arbre de transition (TT). Peut faciliter l'élaboration de plans de mise en œuvre
étape par étape. Aide également à expliquer la justification des actions proposées
aux responsables de leur mise en œuvre. Cela peut être particulièrement
important lorsque les personnes chargées d'exécuter un plan ne sont pas les
mêmes que celles qui l'ont élaboré.
La figure 5.8 contient un TT typique. Le TT ou le PRT peuvent constituer la base
d'un réseau d'activités de projet pour la mise en œuvre du changement.
Machine Translated by Google

Planification stratégique 89

122 Nous manquons les dates limites


de livraison. [effet indésirable]

GAM (effet additif)

119 Nous ne 121


pouvons pas Arrêts de 120 Nous manquons de
produire les commandes matériel.
requises dans le temps production. [effet [effet indésirable]
dont nous disposons. indésirable]

114 Réel 116 Le

le délai de production est fournisseur


plus long que habituel a un long
nécessaire pour livrer à délai de livraison.
117 Nous réagissons 118 Nous courons souvent
temps.
en passant des dangereusement
commandes pauvre en matériaux.
supplémentaires.

108 Notre 109 Les grands lots de 110 Nous construisons


processus de traitement et de transfert créent 112 Nous 113 Le
souvent ce qui n'est pas
production temps d'attente important dans le prévoyons que
nécessaire immédiatement fournisseur
est fortement processus de fabrication. le
dans l'intérêt d'une meilleure habituel manque
chargé avec les fournisseur livrera
efficacité. souvent
quatre contrats à temps.
dates limites de
que nous avons.
livraison
104 Nous traitons et (parfois beaucoup !).
transférons les travaux de
(" ...que...") production en grandes quantités.

107 Le

100 Les gros 101 Nous nous efforçons fournisseur régulier


n'est pas fiable.
(" Si...") lots (traitement et (" ...et...") d'utiliser efficacement
transfert) sont plus chaque ressource.
efficaces (moins (Cause première)
de configurations).
(Cause première)

Figure 5.3 Arbre de la réalité actuelle—exemple de fabrication (adapté de


Schragenheim et Dettmer, 2000).

Quatre de ces arbres ­ l'arbre de réalité actuelle, l'arbre de réalité future, la branche
négative et l'arbre de transition sont des arbres de cause à effet. Ils sont lus en utilisant
"Si ... alors ...." Le nuage en évaporation et l'arbre des conditions préalables sont
appelés arbres des « conditions nécessaires ». Ils sont lus un peu différemment, en
utilisant "Afin d'avoir … nous devons …."
Ces outils sont spécifiquement conçus pour aider à répondre aux trois principaux
questions inhérentes aux trois premières des cinq étapes de focalisation :

• Que changer ? • En
quoi changer ? •Comment
provoquer le changement ?
Machine Translated by Google

90 Planification intégrée

Hypothèses : 1. Le
fournisseur rapide est plus cher que les autres fournisseurs 2. Acheter auprès du
fournisseur rapide est toujours plus coûteux 3. Les coûts d'achat sont importants
4. Toutes les économies de coûts sont importantes

R1
P1
Gardez les coûts
de matériel aussi bas N'achetez pas chez
le fournisseur rapide
que possible

Injection #1 : Établir un niveau de


stock « d'urgence » ; commander Injection #2 : Le
à nouveau auprès d'un
stock d'urgence est fixé
O fournisseur rapide lorsqu'il est pénétré. à un niveau auquel il est
Performances peu probable qu'il
(Conflit)
d'échéance élevées soit épuisé
à faible coût dans le QLT du
Injection #3 : Accepter les
augmentations du coût des matières fournisseur

premières tant que ∆T rapide.


reste positif.

R2 P2
Assurer la disponibilité Achetez auprès du
du matériel fournisseur rapide

Hypothèses : 5. Le
fournisseur habituel n'est pas fiable 6. Le fournisseur
habituel met trop de temps à livrer 7. Nous ne connaissons jamais les
pics de demande à temps pour commander auprès du fournisseur habituel

8. Le coût d'achat est moins important que le coût d'une livraison


manquée

Figure 5.4 « Nuage en évaporation » — fournisseur non fiable (adapté


de Schragenheim et Dettmer, 2000).

Ordonnancement de production "Drum­Buffer­


Rope" Le plus connu des outils de gestion des contraintes développés par Goldratt
est probablement appelé "Drum­Buffer­Rope" (DBR). L'origine de ce nom remonte
à l'analogie utilisée par Goldratt et Cox dans The Goal (Goldratt, 1986) pour décrire
un système avec des dépendances et des fluctuations statistiques.
L'analogie était une description d'une randonnée de Boy Scout. Le tambour était le
rythme du Boy Scout le plus lent, qui dictait le rythme des autres. Le tampon et la
corde étaient des moyens supplémentaires pour s'assurer que tous les scouts
marchaient à peu près au rythme du garçon le plus lent.
Goldratt et Fox, dans The Race (Goldratt et Fox, 1986), décrivent en détail la
procédure de fabrication qui découle des concepts de tambour, tampon et corde
introduits à l'origine lors de la randonnée des scouts.
La méthode DBR permet de synchroniser l'ensemble d'un processus de fabrication
avec le « maillon le plus faible » de la chaîne de production. La figure 5.9 illustre le
concept DBR.
Machine Translated by Google

Planification stratégique 91

110 Les bénéfices


ne souffrent
111 Nous avons 112 Les bénéfices restent 113 Nous avons retrouvé
pas de manière
significative. [effet recherché] retrouvé notre capacité solides ou augmentent (plus notre capacité
de protection à court de « T » pour la de protection à long terme.
terme. capacité investie). [effet [effet recherché]
[effet recherché] recherché]

109 Les coûts


augmentent
peu.

106 Nous avons 107 Nous avons


105 Injection : ajouter
temporairement un besoin d'interventions besoin d'une solution à long 108 Injection :
rapides à terme pour préserver la augmenter les prix
deuxième quart de travail/heures
court terme. capacité de protection. pour contrôler la demande.
supplémentaires (uniquement si nécessaire).

103 Nous connaissons un ou


104 Plusieurs
plus de ressources sont
« drapeaux rouges » se
près de perdre leur capacité produisent plus d'une fois.
de protection.

GAM

102 Injection : Utilisez le


101 Injection : utilisez la
contrôle de la ligne rouge (plus
charge planifiée pour identifier
d'un drapeau rouge) pour
une surcharge possible sur les
ressources clés. identifier le stress dans le
système.

Figure 5.5 Arbre de la réalité future — « contrôle de la ligne rouge » (contrôle de la


fabrication) (adapté de Schragenheim et Dettmer, 2000).

•La batterie." Dans une entreprise manufacturière ou de service, le « tambour »


est le planning de la ressource ou du poste de travail dont la capacité est la
plus limitée : la Ressource Contraindue (CCR). La raison pour laquelle le CCR
est si important est qu'il détermine la production maximale possible de
l'ensemble du système de production. Il représente également la sortie de
l'ensemble du système, puisque le système ne peut pas produire plus que sa
ressource la moins performante.
•Le « tampon » et la « corde » garantissent que cette ressource n'est ni affamée
de travail ni surchargée (causant des retards). Dans la gestion des contraintes,
les tampons sont composés de temps, pas de choses. •Le
"Tampon". La famine peut résulter de la variabilité des processus en amont, ce
qui peut retarder le transfert des travaux en cours au­delà de la durée prévue.
Pour s'assurer qu'un CCR ne manque pas de travail, un temps tampon est
établi pour se protéger contre la variabilité. Il s'agit d'une période de temps
avant l'heure de « démarrage du traitement » planifiée qu'un
Machine Translated by Google

92 Planification intégrée

112 Il y a de fortes chances que le jury


110 Nous serons considère que le gant n'appartient pas à
Simpson et que Simpson n'est pas le meurtrier.
désagréablement surpris. [effet
[effet indésirable]
indésirable]

111 Le jury s'attend à ce que


le gant du meurtrier s'adapte à
la main de l'accusé.
109 Nous nous attendons à un « ajustement ».

107 Il y a de fortes chances que le gant ne 301 Simpson ne tient pas à


rentre pas maintenant, même s'il était à démontrer au jury que le gant
108 L'étiquette du gant l'origine dimensionné pour lui va.
indique qu'il est de la même
s'adapter à la main de Simpson.
taille que la main de Simpson. 302 Quelqu'un qui est
réticent peut rendre l'essai du gant
impossible (ou plus difficile
qu'il ne l'est réellement).

106 La plupart des gants en 201 Le gant de cuir


105 Le gant est
cuir de haute qualité plus petit et plus rigide que était à l'origine très près
sont achetés lorsqu'il était neuf. du corps.
pour être extrêmement près du corps.

202 Simpson portera un


gant en latex lorsqu'il
104 Le cuir mouillé 103 Le gant saturé a essaiera le gant en cuir.
rétrécit en séchant. depuis longtemps séché
et ratatiné.
203 Le latex produit une
friction extraordinaire au contact
du cuir non fini.

101 Le gant que portait le 102 Cela fait un


Injection : On fait essayer
meurtrier était saturé du sang des an depuis le le gant à OJ simpson devant
victimes. meurtre.
le jury.

Figure 5.6 Branche négative du procureur du district de Los Angeles — « Si cela ne vous convient pas,
vous devez acquitter… » (adapté de Dettmer, 1998).

travail particulier arrive au CCR. Par exemple, si le calendrier CCR


demande à cette précieuse ressource de commencer le traitement d'un
ordre de travail particulier à 15h00 le mardi, le matériel pour ce travail
peut être libéré suffisamment tôt pour permettre à toutes les étapes de
traitement précédentes d'être terminées à 15h00. pm le lundi (une
journée de travail complète avant l'heure requise). Le temps tampon sert
à « protéger » la ressource la plus précieuse contre le fait qu'elle n'a pas
de travail à faire ­ un grave défaut, puisque la sortie de cette ressource
est équivalente
à la sortie de l'ensemble du système. •Il est à noter que seuls les points
critiques d'un service ou d'un processus de production sont protégés par
des buffers. (Reportez­vous à la Fig. 5.9.) Ces points critiques sont la
ressource à capacité limitée, toute étape de processus ultérieure où
l'assemblage avec d'autres pièces a lieu et le calendrier d'expédition.
Étant donné que la protection contre la variabilité est concentrée
uniquement aux endroits les plus critiques (et éliminée partout ailleurs
dans le processus), le délai réel peut être considérablement raccourci, parfois de 50 % ou
Machine Translated by Google

Planification stratégique 93

(Obstacle à
surmonter) Objectif

Aller à Lisez de haut en bas : « Pour


<OBJ>, je dois <Int. Obj.>, parce
l'université
que <Obstacle>.”

je ne suis
pas inscrit

Être accepté pour


(Objectif
intermédiaire (Obstacle)
pour franchir l'inscription
un obstacle)
Je ne peux
pas être accepté sans
candidature

(Obstacle) Faire une


demande d'acceptation (Objectif
intermédiaire)
Je ne sais pas
à quelle école postuler
(Obstacle)

Sélectionnez
Je ne sais pas
(Objectif une école
quelles écoles
intermédiaire)
proposent
le programme que je
vouloir
Découvrez quelles
écoles offrent le

(Obstacle) domaine d'études


(Objectif
principal que je veux intermédiaire)

Je ne sais pas
ce que je veux
étudier
Décidez quoi
étudier
(Objectif
intermédiaire)

Figure 5.7 Arbre des prérequis—exemple (adapté de Dettmer, 1997).

compromettant la fiabilité des dates d'échéance. Des délais de livraison plus courts et
une plus grande fiabilité de livraison sont des caractéristiques de service importantes
que les clients recherchent souvent.

• La "corde". La corde est le garde­fou de la gestion des contraintes contre la surcharge


du CCR. Essentiellement, il s'agit d'un calendrier de publication de matériel qui
empêche le travail d'être introduit dans le système à un rythme plus rapide que le CCR
ne peut le traiter. Le concept de corde est conçu pour éviter l'arriéré de travail à la
plupart des points du système (autres que les tampons prévus aux points critiques
protégés). Ceci est important car les files d'attente de travaux en cours sont l'une des
principales causes des longs délais de livraison.
Machine Translated by Google

94 Planification intégrée

(L'arbre des prérequis


Assister à identifie les principaux
collège obstacles)

Je ne sais pas
ce que je veux
étudier

Décidez
quoi étudier = J'ai décidé quoi
(L'arbre de transition établit un plan
étudier. d'action étape par étape et la
justification de chaque action)

Geste #3

Je peux prendre Je sélectionne


une décision un domaine
éclairée. d'études majeur.

Geste #2

J'ai besoin de savoir ce que Je recherche l'éducation


Les qualifications exigences pour quelques
je dois faire pour me qualifier
incluent le domaine
pour une carrière sur ma carrières sélectionnées à ma
que je dois étudier « liste restreinte ». bibliothèque locale.
au collège.

j'ai un "court­circuit Je ne sais pas grand­chose sur


liste » d'appel les qualifications pour ces
carrières. carrières.

Geste #1

J'ai besoin de Je fais une liste


Je ne sais pas
avoir une idée des carrières
quelle carrière choisir
de ce que je veux qui m'attirent.
poursuivre.
faire.

Figure 5.8 Arbre de transition—exemple (adapté de Dettmer, 1997).

Lorsque l'ensemble du concept tambour­tampon­corde est appliqué, une fiabilité


de livraison de 100 % n'est pas un objectif déraisonnable, et des réductions
réelles des délais de 70 % sont courantes. L'usine de Sparrows Point de
Bethlehem Steel a augmenté la fiabilité des livraisons de 49 % à près de 100 %
tout en réduisant les délais réels de 16 semaines à environ quatre semaines
(Dettmer, 1998, chap. 1).
Chaîne critique
Un autre atout précieux de la boîte à outils de gestion des contraintes s'appelle
la chaîne critique. Aussi le titre d'un livre de Goldratt (Goldratt, 1997), le
Machine Translated by Google

Planification stratégique 95

Figure 5.9 Concept DBR de base (adapté de Schragenheim et Dettmer, 2000).

Le concept de chaîne critique fournit un moyen efficace de planifier les activités du projet en
tenant compte efficacement de l'incertitude et en résolvant les besoins simultanés (conflits) pour
la même ressource. La Chaîne Critique constitue l'application aux projets ponctuels des mêmes
principes que DBR applique à la production répétitive. Le résultat de l'application de la planification
de la chaîne critique et de l'allocation des ressources est une plus grande probabilité de terminer
les projets à temps et, dans certains cas, de raccourcir la durée totale du projet. Appliquée à
l'origine à la gestion d'un projet unique, la méthode de la Chaîne Critique a été étendue aux
environnements multiprojets, sur la base du concept de « tambour », décrit dans Drum­Buffer­
Rope, ci­dessus.

Étant donné que les projets ne sont pas tout à fait les mêmes que la production répétitive,
certaines différences dans l'utilisation de la planification de projet de la chaîne critique sont inévitables.
Mais les concepts sont sensiblement les mêmes que ceux de DBR. Qu'est­ce qui distingue la
chaîne critique du PERT/CPM et des autres approches traditionnelles de gestion de projet ?

Premièrement, la chaîne critique reconnaît et rend compte de certains phénomènes


comportementaux humains que les méthodes traditionnelles de gestion de projet ne reconnaissent
pas (Leach, 2000 ; Newbold, 1998). Ces phénomènes incluent :

1. La tendance des professionnels techniques à "gonfler" leurs estimations de temps pour


les tâches individuelles, dans un effort pour se protéger d'un achèvement tardif.

2. Le soi­disant «syndrome de l'étudiant» ­ attendre la dernière minute pour commencer à


travailler sur une tâche avec une date limite.

3. La loi de Parkinson (garantissant qu'une activité consomme chaque bit du temps estimé,
quelle que soit la rapidité avec laquelle les tâches associées peuvent réellement être
accomplies).
Machine Translated by Google

96 Planification intégrée

4. Multitâche—la tendance de la direction à assigner simultanément à des


personnes plus d'une activité de délai. Le multitâche peut créer un effet
dévastateur. Le personnel du projet passe d'une tâche à l'autre, ce qui
provoque une « traînée » dans chacune d'elles. Le résultat est que les autres
ressources qui dépendent de l'achèvement de ces tâches pour leurs entrées
sont retardées. Les retards « cascadent » lorsque plusieurs projets simultanés
sont impliqués.

Les retards qui résultent de ce type de comportement sont causés par une
hypothèse de gestion erronée : la seule façon de garantir l'achèvement à temps d'un
projet est de s'assurer que CHAQUE activité se terminera à temps. Cette conviction
courante de la direction incite la direction à attribuer une importance injustifiée au
respect du délai d'exécution prévu pour chaque activité distincte d'un projet. Les gens
complètent ensuite leurs estimations des temps de travail pour s'assurer qu'ils peuvent
tout faire à temps. Mais en même temps, ils essaient de ne pas terminer beaucoup plus
tôt que leur propre estimation gonflée, afin de ne pas être tenus à des temps de travail
plus courts sur les projets suivants. Toutes ces « machinations humaines » provoquent
un cercle vicieux, faisant traîner les projets de plus en plus longtemps, mais la fiabilité
du respect des calendriers initiaux n'est pas améliorée.

Deuxièmement, pour résoudre ce problème, la chaîne critique prend la majeure


partie du temps de protection de chaque activité individuelle et en positionne une partie
à des points clés du réseau d'activités du projet : aux points de convergence et juste
avant la livraison du projet. Etant donné que l'accumulation de protection sur une
chaîne entière est beaucoup plus efficace que la protection de chaque activité, seule la
moitié du « coussin de protection » agrégé extrait des activités individuelles est
réinjectée aux endroits clés. Le reste peut contribuer à l'achèvement plus précoce du
projet. Dans l'exécution de projet traditionnelle, si le temps de protection dans une
activité spécifique n'est pas utilisé, il est perdu à jamais, inutilisable par des activités
ultérieures qui pourraient nécessiter plus de protection que celle initialement attribuée.
Cet ancien « temps perdu » est, dans bien des cas, utilisable en Chaîne Critique.
Troisièmement, Critical Chain accorde plus d'attention à la disponibilité des
ressources critiques lorsqu'elles sont nécessaires pour des activités spécifiques. Le
nivellement des ressources sur un projet unique est obligatoire. La Chaîne Critique est
vraiment la séquence la plus longue du projet qui considère à la fois les liens
séquentiels dépendants des activités et les liens des ressources. Le chemin critique
reflète uniquement la liaison séquentielle des tâches dépendantes.
Les éléments clés de la gestion de projet de la chaîne critique comprennent :

•La Chaîne Critique. L'ensemble des tâches qui détermine la durée du projet, en
tenant compte à la fois de la priorité des tâches et des dépendances des
ressources (Newbold, 1998). La plus longue séquence d'activités dépendantes
est le "chemin critique" dans une approche PERT/CPM. Mais lorsque la durée
de cette séquence est ajustée pour une disponibilité optimale des ressources
(nivellement des ressources), toute la définition du chemin critique devient
Machine Translated by Google

Planification stratégique 97

Chemin critique
­ Non corrigé pour la disponibilité des ressources
­ Notez le conflit d'utilisation de la ressource 3
­ Le calendrier du projet indique la fin dans 67 jours
­ La date de fin réelle sera beaucoup plus tard (plus de 85 jours)

Ressource­4 Ressource­3 Ressource­5


P1A

Chemin critique

B
Ressource­1 Ressource­2

Ressource­1 Ressource­3
C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95

Chaîne critique
­ Conflit de ressources éliminé
­ "Pad" de protection retiré de chaque activité
­ Tampon de projet ajouté
­ Achèvement prévu : 68 jours

Ressource­4 Ressource­3 Ressource­5

P1A Tampon de projet

Chaîne critique

B
Ressource­1 Ressource­2

Ressource­1 Ressource­3

C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95

Effet de la gestion de projet de la chaîne critique (état actuel)


­ La durée des tâches varie (certaines prennent plus de temps, d'autres moins de temps)
­ Les flèches à double ligne indiquent le début et la fin de l'activité réelle
­ Le projet se termine réellement en 55 jours (contre 68 jours prévus)

Réel
Prévu
P1A

C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95

Figure 5.10 Chaîne critique par rapport au chemin critique.

non pertinent. Il en résulte une durée différente, basée sur l'utilisation des
ressources. C'est la chaîne critique. (Reportez­vous à la Fig. 5.10.) Étant donné
que la chaîne critique constitue désormais la contrainte qui détermine la date
la plus proche à laquelle un projet peut se terminer, il est crucial de surveiller
les progrès le long de la chaîne critique, car elle reflète l'avancement de
l'ensemble du projet.
Machine Translated by Google

98 Planification intégrée

•La mémoire tampon du projet. Un tampon projet est établi à la fin de l'activité
finale sur la Chaîne Critique, et avant la date de livraison requise. Il est
conçu pour protéger contre la variabilité et l'incertitude extrêmes qui peuvent
avoir un impact sur la chaîne critique. •Tampons
d'alimentation. Chaque activité (ou séquence d'activités) qui alimente la chaîne
critique est tamponnée avec une durée raisonnable pour se protéger contre
la variabilité de cette tâche particulière ou séquence de tâches. Les tampons
d'alimentation protègent la chaîne critique des retards survenant dans les
activités qui ne sont pas sur la chaîne critique. La variabilité est tout ce
contre quoi ces tampons protègent. Ils ne protègent pas contre le multitâche :
la tendance des organisations à affecter simultanément des tâches de
personnel technique à différents projets ou obligations.
En fait, l'un des déterminants du succès ou de l'échec de l'application de la
chaîne critique est la volonté de la direction de s'éloigner du multitâche.
•Gestion des
tampons. Un moyen de contrôle qui, à tout moment de la vie d'un projet, offre
aux maîtres d'ouvrage la possibilité de connaître l'utilisation des différents
tampons et d'intervenir dès que le projet semble risquer de dépasser son
échéancier. Les retards d'achèvement des tâches entraîneront une
"pénétration" dans les tampons, mais l'avertissement de ce qui se passe
arrive tellement plus tôt qu'il est souvent possible d'empêcher les
dépassements de calendrier plus tôt, avec des actions correctives
considérablement moins (ou moins extrêmes). La surveillance des tampons,
en particulier le tampon du projet, se traduit par une probabilité plus élevée
que le projet se termine à temps.
•La batterie. Ce concept, similaire à celui de DBR, ne s'applique qu'aux
situations multiprojets. Le concept de tambour nécessite de choisir l'une des
ressources les plus chargées en tant que "tambour" et d'échelonner
plusieurs projets en fonction de la disponibilité de celui­ci.
Ressource.

Les effets ultimes de la gestion de projet de la chaîne critique sont une plus
grande fiabilité des dates d'échéance de livraison, des livraisons plus précoces plus
fréquentes, moins de « pannes » et la conservation des coûts du projet. La gestion
des tampons, en particulier, fournit des informations bien mieux ciblées sur l'état
actuel du projet.

Mesures de la gestion des contraintes L'une des


contributions uniques de la théorie des contraintes à l'ensemble des connaissances
en gestion réside dans les mesures utilisées pour évaluer les progrès vers l'objectif
du système. Goldratt a reconnu certaines lacunes inhérentes aux systèmes de
mesure traditionnels et a conçu une manière différente, plus fiable, de mesurer les
résultats et d'évaluer les décisions.
Machine Translated by Google

Planification stratégique 99

Dilemme : système ou processus ?


La question de la mesure renvoie à la discussion précédente sur les systèmes par rapport aux
processus et à l'erreur de supposer que la somme des efficacités locales est l'optimum du
système. La logique traditionnelle soutient que l'obtention de la productivité la plus élevée
possible dans chaque fonction distincte du système équivaut à une bonne gestion. La productivité
est généralement représentée par le rapport des extrants aux intrants. Ces intrants et extrants
sont parfois exprimés en termes financiers. Les managers passent souvent un temps démesuré
à rechercher une productivité accrue pour leurs propres services, sans trop se soucier de savoir
si l'ensemble du système en profite ou non. Cela sous­estime le cœur du problème : comment
pouvons­nous être sûrs que les décisions que nous prenons au jour le jour profitent vraiment
au système dans son ensemble. En d'autres termes, comment les décisions locales peuvent­
elles être liées à la performance globale de l'entreprise ?

Ce n'est pas nécessairement une question facile à répondre. Considérez­vous un moment


comme directeur de production. Un responsable des ventes vient vous voir et vous demande
d'interrompre votre cycle de production en cours (c'est­à­dire de casser une configuration) pour
traiter une petite mais urgente commande pour un client. Comment le fait de faire ce que veut
le directeur des ventes affectera­t­il le résultat net de l'entreprise ? Qu'est­ce que cela coûtera
de casser l'installation (à la fois financièrement et pour les chiffres de productivité du directeur
de production) ? Combien cela profitera­t­il à l'entreprise? Ou le département de production? Il
n'est pas facile de répondre à ces questions, mais dans de nombreuses entreprises, les gens
sont appelés à prendre de telles décisions quotidiennement.

Nouvelles mesures financières


Partant du principe que l'objectif d'une entreprise est de gagner plus d'argent, Goldratt a conçu
trois mesures financières simples pour s'assurer que les décisions locales s'alignent
effectivement sur cet objectif. Ces mesures sont faciles à appliquer par n'importe qui à
pratiquement n'importe quel niveau d'une entreprise : débit, inventaire ou investissement et
dépenses d'exploitation (Goldratt, 1990, pp. 19­51).
Le débit (T) est défini comme le taux auquel un système génère de l'argent grâce aux
ventes (Goldratt, 1990, p. 19). Une autre façon d'y penser est la contribution marginale des
ventes au profit. Le débit peut être évalué pour l'ensemble de l'entreprise sur une certaine
période de temps, ou il peut être ventilé par gamme de produits, ou même par unité individuelle
de produit vendu. Mathématiquement, le débit équivaut au chiffre d'affaires moins les coûts
variables.

T = SR ­ VC

L'inventaire (I) est défini comme tout l'argent que le système investit dans l'achat de
choses qu'il a l'intention de vendre (vraisemblablement après leur avoir ajouté de la valeur)
(Goldratt, 1990, p. 23). Étant donné que le concept d'inventaire de Goldratt inclut des
immobilisations, telles que des équipements, des installations et des biens immobiliers, le terme
« je » en est venu à représenter également « investissement », plutôt que simplement « inventaire » seul.
Machine Translated by Google

100 Planification intégrée

L'inventaire/l'investissement comprend certainement les matériaux que l'entreprise


transformera en produits ou services finis. Mais cela inclut également les actifs d'une
entreprise, qui sont finalement vendus à leur valeur dépréciée ou à la ferraille et
remplacés par de nouveaux actifs. Cela est même vrai des bâtiments d'usine eux­
mêmes. Cependant, pour les décisions au jour le jour, la plupart des gestionnaires
considèrent que "I" représente l'inventaire consommable des matériaux qui seront
utilisés pour produire des produits finis ou des services.
Les dépenses d'exploitation (OE) sont définies comme tout l'argent que le système
dépense pour transformer l'inventaire en débit. (Goldratt, 1990, p. 29). Notez que les
frais généraux ne sont pas inclus dans la formule de débit (ou la définition).
Les frais généraux et la plupart des autres types de coûts fixes sont inclus dans les
charges d'exploitation. Les mesures de gestion des contraintes séparent délibérément
les coûts fixes du calcul du débit pour une raison valable : l'attribution des coûts fixes
aux unités de produit vendues produit un concept déformé des coûts réels des produits
dans la plupart des situations quotidiennes.
Par exemple, disons que vous êtes un petit fabricant de pièces usinées avec
précision. Vous travaillez sur une commande de 100 unités d'une pièce particulière
pour un fabricant d'équipement d'origine. Au milieu de cette course, le client appelle et
vous demande d'ajouter 10 unités supplémentaires à la commande. Cela augmentera
votre temps de production de 53 minutes. Combien de plus ces 10 unités
supplémentaires vous ont­elles coûté ? Tant que vous n'êtes pas en retard de travail,
le coût des unités supplémentaires est la valeur des matières premières seules ! Vous
n'avez plus payé de salaire à l'opérateur de la machine (il travaille à l'heure et non à la
pièce). Dans la plupart des cas, vous ne paieriez plus de frais d'électricité. De toute
façon, vous devez allumer les lumières pour les affaires toute la journée. Et le coût de
la voiture de société du directeur général n'a pas changé simplement parce que vous
avez produit 10 unités supplémentaires du produit. Le coût réel de l'augmentation du
volume de production se limite essentiellement au seul coût des matériaux.

Les coûts de main­d'œuvre sont également considérés comme des dépenses


d'exploitation, car dans presque tous les cas, ils sont payés par une unité de temps
fixe, et non par l'unité individuelle de produit fabriqué. Nous payons les gens à l'heure,
à la semaine, au mois ou à l'année, qu'ils fabriquent activement un produit à vendre ou
non. De plus, la capacité à produire un produit ou un service (les ressources :
personnes, installations, équipements, etc.) s'obtient par « morceaux ». C'est vraiment
difficile d'embaucher les six dixièmes d'une personne ou d'acheter les trois quarts d'une machine.
Ainsi, la dépense de coût pour la capacité se présente généralement par
incréments importants ­ une fonction en escalier. Les produits, en revanche, sont
normalement tarifés et vendus à l'unité ­ des étapes plus petites, peut­être, mais plus
proches d'une fonction continue. Tout cela rend difficile l'attribution précise des coûts
fixes à une unité de produit. Ce qui signifie que ceux qui le font obtiennent une
impression déformée des coûts des produits, ce qui n'est pas une bonne base à partir
de laquelle prendre des décisions d'exploitation.
Machine Translated by Google

Planification stratégique 101

Pour les décisions de gestion quotidiennes, que nous aimerions pouvoir relier à l'objectif du
système, T, I et OE sont beaucoup plus utiles que les mesures traditionnelles de réussite
organisationnelle du bénéfice net (NP), du retour sur investissement (ROI), et les flux de trésorerie
(CF). Pourtant, il doit y avoir un lien entre les deux types de mesures financières. Et le voici :

NP = T ­ OE
ROI = (T ­ OE)/I
CF = T ­ OE ± DI

Le bénéfice net est la différence entre le débit et les dépenses d'exploitation. Le retour sur
investissement est le bénéfice net (débit moins dépenses d'exploitation) divisé par l'inventaire/
l'investissement. Et le flux de trésorerie est le bénéfice net (débit moins les dépenses d'exploitation)
plus ou moins la variation des stocks.

Si le débit est augmenté, le bénéfice net augmente, même si les dépenses d'exploitation restent
les mêmes. Si les dépenses d'exploitation sont réduites, le bénéfice net augmente également (tant
que le débit reste au moins constant). Si l'inventaire est réduit, le retour sur investissement
augmente, même s'il n'y a aucun changement dans le débit ou les dépenses d'exploitation. Ces
mesures concernent les décisions de gestion opérationnelle bien mieux que le bénéfice net et le
retour sur investissement, maintenant les décisions quotidiennes plus en ligne avec l'objectif du
système que les mesures abstraites d'efficacité telles que l'utilisation de la machine, les unités
produites par jour/semaine, etc.

Par exemple, voici comment un responsable peut utiliser T, I et OE pour évaluer


une décision qu'il envisage (Dettmer, 1998, p. 33):

•La décision entraînera­t­elle une meilleure utilisation de la ressource la plus contrainte (c'est­

à­dire, plus d'unités de produit disponibles à vendre dans le même temps ou moins) ?

•Utilisera­t­il pleinement la ressource la plus contrainte ?

• Le chiffre d'affaires total augmentera­t­il en raison de la décision ?

•Va­t­il accélérer la livraison aux clients ? •Fournira­t­il

une caractéristique de produit ou de service que nos concurrents n'ont pas (par exemple, la
rapidité de livraison) ?

•Va­t­il gagner des clients réguliers ou nouveaux pour nous ?

• Cela réduira­t­il les rebuts ou les retouches ?

• Cela réduira­t­il les coûts de garantie ou de remplacement ? •

Serons­nous en mesure de détourner certaines personnes pour effectuer d'autres travaux (un
travail que nous ne pouvions pas faire auparavant) que nous pouvons facturer aux clients ?
Si tel est le cas, la décision améliorera le débit.
Machine Translated by Google

102 Planification intégrée

•Aurons­nous besoin de moins de matières premières ou de pièces

achetées ? •Pourrons­nous garder moins de matériel sous la main ?

• Cela réduira­t­il les travaux en cours ? •

Aurons­nous besoin de moins d'immobilisations ou d'équipement pour effectuer le même


travail ? Si la réponse est "oui", la décision réduira l'inventaire ou l'investissement.

• Les frais généraux vont­ils baisser ?

• Les paiements aux fournisseurs vont­ils diminuer ?

Si c'est le cas, la décision diminuera les charges d'exploitation.


Reprenons l'exemple évoqué plus haut du responsable de production confronté à la décision de
casser un montage suite à la demande d'un commercial. En utilisant un raisonnement conventionnel,
un responsable de production soucieux de l'efficacité verrait ses chiffres de productivité pâtir du
temps perdu à faire la nouvelle configuration. L'insertion de cette commande urgente perturberait
également un calendrier formel, en glissant les heures de début et de fin prévues de chaque
commande suivante.

Mais un manager orienté contraintes y verrait un peu différemment. Sa première question serait :
« Suis­je limité en interne par un manque de ressources ? La réponse devrait être assez évidente, car
le gestionnaire serait déjà au courant de la taille de l'arriéré, le cas échéant. Si la réponse est « non »,
le processus de production a une capacité excédentaire pour pouvoir répondre à la commande
urgente sans retarder le travail prévu. Le coût de la commande supplémentaire n'est que les matières
premières utilisées et éventuellement la perte de matériaux d'une unité de travail actuellement sur la
machine lorsque la configuration est cassée. Le temps des opérateurs de machines ne coûte plus. Ils
sont payés à l'heure, qu'ils fassent des configurations ou fabriquent des produits. L'augmentation
directe du bénéfice net pour l'entreprise en acceptant la demande du directeur des ventes serait le
débit (le chiffre d'affaires moins les coûts variables) pour la nouvelle commande.

Et il est possible que la fourniture de ce service accéléré à un client lui permette de fidéliser davantage
de clients à l'avenir. Ainsi, tant que le processus de fabrication n'est pas soumis à des contraintes
internes, le responsable de la production connaissant la théorie des contraintes accepterait
probablement ce nouveau travail, tandis qu'un responsable traditionnel pourrait dire au vendeur : «
Faites la queue ! Nous fonctionnons selon le principe du premier entré, premier sorti. » Et les
« chiffres » de ce directeur seraient bons à la fin du mois, mais qu'est­ce que cette décision aurait
apporté à l'entreprise ?
L'utilisation de T, I et OE pour prendre des décisions de gestion ne remplace pas les procédures
comptables généralement acceptées (GAAP). Ceux­ci sont nécessaires, et le seront probablement
toujours, à des fins de reporting externe ­ rapports annuels aux actionnaires, déclarations de titres et
d'échange, déclarations fiscales, etc. Mais le débit, les stocks et les dépenses d'exploitation sont
considérablement plus faciles à comprendre et à utiliser pour la plupart des gestionnaires pour évaluer
les effets financiers de leurs décisions quotidiennes.
Machine Translated by Google

Planification stratégique 103

Les implications stratégiques de T, I et OE Ce qui


rend le débit, les stocks/investissements et les dépenses d'exploitation encore plus
avantageux, ce sont les implications stratégiques de leur application par les cadres supérieurs
et les cadres. Bien entendu, chaque dirigeant d'entreprise souhaite améliorer son bénéfice
net, son retour sur investissement et sa trésorerie. Cependant, dans la comptabilité standard,
T, I et OE sont « enchâssés » dans ces termes et souvent difficiles à isoler, même s'ils sont
mieux gérés séparément.
Considérez le graphique à barres de la Fig. 5.11. Il montre trois barres représentant T, I
et OE. La plupart des entreprises consacrent des efforts extraordinaires à la réduction des
coûts (tant fixes que variables). Le concept du coût de la qualité met l'accent sur cela comme
une justification de la recherche de la qualité en premier lieu. La fabrication au plus juste
aussi. Il en va de même pour la réduction des stocks. En fait, dans de nombreuses stratégies
d'entreprise, la réduction des coûts figure en bonne place sur la liste des priorités.
Le graphique nous raconte une histoire différente, cependant. Bien qu'il puisse y avoir
des économies à réaliser dans ces domaines (réductions OE et I), ces économies ont un
point de rendements décroissants. Il existe un niveau pratique en dessous duquel ni les
stocks ni les dépenses d'exploitation ne peuvent être réduits sans nuire à la capacité d'une
entreprise à générer du débit. Au­delà de ce point, vous ne coupez plus de "gras", vous
coupez du "muscle". Et la vérité est que la plupart des managers ne peuvent pas vraiment
dire où se situe ce point. De plus, de nombreuses entreprises se sont engagées dans des
efforts de réduction des coûts depuis si longtemps que tous les OE (et même les coûts
variables du débit) ont été largement essorés du système. Pour améliorer les performances
financières, il n'y a nulle part où aller. . .

Figure 5.11 Limites à T, I et OE. Pourquoi la poursuite de la réduction des coûts est
improductive (Source : Schragenheim et Dettmer, 2000).
Machine Translated by Google

104 Planification intégrée

sauf pour le débit. Et regardez la barre de débit dans la Fig. 5.10. Le potentiel
d'amélioration n'est peut­être pas infini, mais d'un point de vue pratique, il y a beaucoup
plus de potentiel d'amélioration de la rentabilité en augmentant T qu'il n'y en aura jamais
en réduisant I et OE. Alors, qu'est­il logique de prioriser : réorganiser les chaises
longues sur le Titanic ou s'éloigner de l'iceberg ? En résumé, peu d'entreprises peuvent
« sauver leur chemin » vers la prospérité.

L'utilisation de T, I et OE est diversement appelée comptabilité du débit, comptabilité


des contraintes ou aide à la décision basée sur le débit. Ils ne sont pas assez rigoureux
pour remplacer les PCGR pour les besoins comptables standards. Mais ils sont plus
simples et généralement plus efficaces pour la prise de décision que la comptabilité de
gestion traditionnelle. Plus de détails sur la façon d'utiliser T, I et OE peuvent être
trouvés dans Goldratt (1990), Noreen et al. (1995), Corbett (1998) et Smith (1999).

Sommaire et conclusion
Pour résumer, la gestion des contraintes :

• Est une méthodologie de gestion de systèmes. •


Sépare les « quelques critiques » des « nombreux triviaux ».
•Souligne l'attention sur les quelques facteurs critiques qui déterminent le succès
du système.

Il repose sur quatre hypothèses sous­jacentes :

1. Chaque système a un objectif et un ensemble fini de conditions nécessaires qui


doit être satisfait pour atteindre cet objectif.
2. La somme des optima locaux d'un système n'est pas égale à l'optimum global
du système.
3. Très peu de variables, peut­être une seule, limitent les performances d'un
système à tout moment.
4. Tous les systèmes sont soumis à une relation de cause à effet logique.

La théorie des contraintes, telle que conçue par Goldratt, s'incarne dans les cinq
étapes de concentration (identifier, exploiter, subordonner, élever, répéter/inertie), un
ensemble de mesures de progrès financier (débit, inventaire et dépenses d'exploitation)
et trois étapes génériques. outils (processus de pensée logique, tambour­tampon­corde
et chaîne critique) qui peuvent être appliqués dans une variété de situations
organisationnelles.
Machine Translated by Google

CHAPITRE 6

Compréhension
Attentes et besoins des
clients
Machine Translated by Google
Machine Translated by Google

tion et qualité illustrées à la Fig. 6.1. Le modèle de Kano montre qu'il existe
Noritaki Kano a modélisé
un niveau la relation
de qualité de baseentre
que la
lessatisfaction du client
clients supposent que le produit aura.
Par exemple, toutes les automobiles ont des fenêtres et des pneus. Si on leur
demande, les clients ne mentionnent même pas les articles de qualité de base ; ils
les prennent pour acquis. Cependant, si ce niveau de qualité n'est pas atteint, le
client sera mécontent ; notez que toute la courbe de « qualité de base » se situe
dans la moitié inférieure du graphique, ce qui représente l'insatisfaction. Ainsi, fournir
une qualité de base est insuffisant pour créer un client satisfait.
La ligne de qualité attendue représente les attentes que les clients
prennent explicitement en compte, par exemple, le temps passé à faire la queue à
un comptoir de caisse. Le modèle montre que les clients seront insatisfaits si
leurs attentes en matière de qualité ne sont pas satisfaites ; la satisfaction augmente à mesure que
les attentes sont satisfaites.
La courbe de qualité excitante se situe entièrement dans la région de la satisfaction.
C'est l'effet de l'innovation. Une qualité passionnante représente des articles de qualité
inattendue . Le client reçoit plus que ce à quoi il s'attendait. Par exemple, Cadillac a
lancé un système où les phares restent allumés assez longtemps pour que le propriétaire
puisse marcher en toute sécurité jusqu'à la porte.
La pression concurrentielle augmentera constamment les attentes des clients.
La qualité passionnante d'aujourd'hui est la qualité de base de demain. Les entreprises qui cherchent
à dominer le marché doivent constamment innover. À l'inverse, les entreprises qui cherchent à offrir
une qualité standard doivent constamment rechercher les attentes des clients pour déterminer les
niveaux de qualité actuellement acceptés. Il ne suffit pas de suivre les concurrents puisque les
attentes sont également influencées par des facteurs extérieurs. À une certaine époque, des
caractéristiques désormais relativement omniprésentes comme les radios stéréo ou, plus récemment,
les airbags dans les automobiles étaient considérées comme des articles de luxe.
De toute évidence, comprendre les attentes et les enthousiasmes actuels des
clients est une activité continue. Malheureusement, les grands marchés ont
généralement de nombreux types de clients, avec des besoins et des attentes différents.

107
Machine Translated by Google

108 Planification intégrée

Satisfaction
Pression
Qualité
concurrentielle
passionnante

Région de
satisfaction Qualité
attendue
Qualité

Région
d'insatisfaction Qualité
de base

Figure 6.1 Modèle de Kano montrant la relation entre la satisfaction client et les
niveaux de qualité.

Classifications des clients


Les clients peuvent être classés de plusieurs manières pour faciliter la
catégorisation de leurs besoins. Une distinction couramment faite est entre les
clients externes et internes. Le principal déterminant du type de client dont il est
question est de savoir si la relation implique le transfert de ressources au­delà de
la frontière organisationnelle.
• Client externe. Une transaction avec un client externe est une transaction
qui implique l'échange du produit ou du service de l'organisation contre de
l'argent ou une autre contrepartie de valeur que l'organisation ne possède
pas déjà. La transaction peut entraîner le transfert de propriété d'une
ressource ou l'octroi de droits spécifiques d'utilisation d'une ressource,
comme dans le cas d'un bail.
•Client interne. Dans une transaction interne client­fournisseur, la propriété
ou le droit d'utilisation de la ressource échangée n'est pas transféré à
l'extérieur de l'organisation à la suite de l'échange.
Cependant, le contrôle d'une ressource peut être transféré entre des
individus ou des groupes au sein de l'organisation. Avec les transactions
internes des clients, il n'y a pas de transfert d'actifs externes (par exemple,
de l'argent) dans l'organisation depuis l'extérieur
de l'organisation. •Utilisateur final. Un utilisateur final est le client interne ou
externe qui utilise réellement le produit ou le service. Même si les
utilisateurs finaux sont au centre de l'effort de conception du produit ou du
service, ils peuvent néanmoins ne pas être très pris en compte dans la
livraison réelle du
produit ou du service. •Agents de transfert. Un agent de transfert agit comme
intermédiaire entre le producteur et l'utilisateur final. Les agents de transfert incluent l'achat
Machine Translated by Google

Comprendre les attentes et les besoins des clients 109

décideur, source de paiement, personnes qui évaluent les capacités du


produit, personnes impliquées dans le transport du produit depuis le fabricant,
personnes qui installent l'équipement et toute autre personne impliquée dans
le processus d'acquisition du produit et de sa préparation en vue de son
utilisation finale utilisateur. En règle générale, les agents de transfert exercent
des fonctions transparentes pour l'utilisateur final ; par exemple, l'utilisateur
d'une automobile ne sait pas vraiment ou ne se soucie pas vraiment de la
façon dont le véhicule a été transporté du fabricant au concessionnaire. Cela
présente des opportunités de réduire les coûts sans affecter la qualité perçue.
Pourtant, les agents de transfert jouent souvent un rôle majeur dans la
satisfaction des utilisateurs finaux. Un vendeur grossier, odieux ou mal
informé peut créer une insatisfaction client qu'aucune qualité de produit ne
pourra jamais surmonter. En raison de leurs contacts plus étroits avec les
producteurs et de leur plus grand pouvoir d'achat, les agents de transfert ont
souvent une plus grande voix que les utilisateurs finaux et peuvent servir de
filtre d'information entre les producteurs et les utilisateurs finaux. Les intérêts
des agents de transfert peuvent être différents des intérêts de l'utilisateur
final. La combinaison de ces facteurs peut créer une déconnexion entre
l'utilisateur final et le producteur qui conduit à une incapacité à répondre aux
besoins de l'utilisateur final. Si l'écart devient suffisamment large, il peut
créer une ouverture qu'un concurrent vigilant peut utiliser pour gagner des
parts de marché aux dépens du producteur souvent perplexe.
•Clients d'entretien. Il s'agit des personnes qui réparent ou remplacent les
produits qui présentent des défauts ou d'autres problèmes qui les rendent
inaptes au service, ainsi que ceux qui effectuent la maintenance préventive
de routine sur les produits. Cette catégorie de clients joue souvent un rôle
majeur dans la satisfaction des utilisateurs finaux, pour le meilleur ou pour le
pire. Les clients de maintenance sont une mine d'or potentielle d'idées
d'amélioration de produits. Ils connaissent souvent mieux les performances
réelles du produit que les concepteurs d'origine et peuvent également avoir
une connaissance approfondie des produits concurrents. Surtout dans les
grandes entreprises, les designers peuvent être relativement isolés des
autres designers, avec peu de compréhension de la façon dont leur pièce de
conception s'intégrerait au reste de la conception. Les clients de maintenance
travaillent avec des produits complets dans des conditions réelles de terrain.
Ceci, combiné à un contact intime avec l'utilisateur final, rend leur contribution
inestimable pour l'amélioration de la conception. L'ajout de clients de
maintenance à l'équipe de conception de produits peut être très rentable.

Dans la pratique, ces catégories peuvent devenir quelque peu ambiguës, car les
personnes remplissent des rôles différents à des moments différents. La clé pour
garder le bon recul est de comprendre que le critère fédérateur est la satisfaction de
l'utilisateur final. Toutes les activités du processus sont exécutées pour atteindre ce
résultat final.
Machine Translated by Google

110 Planification intégrée

Identification et segmentation des clients


L'identification et la segmentation des clients font partie de l'activité de marketing stratégique.
La base de l'identification et de la segmentation des clients est que l'entreprise ne peut pas
être tout pour tout le monde. Il peut en être ainsi pour de nombreuses raisons : les besoins
d'achat des clients varient, les clients sont géographiquement dispersés, la concurrence peut
mieux répondre à certains besoins du marché que vous, etc. Si des groupes de clients
relativement homogènes peuvent être identifiés, il sera plus facile de cibler les produits et
services qui répondent à ces besoins.
Une stratégie en trois étapes est recommandée :

1. Identifier des segments de marché homogènes. Identifier les variables de


segmentation et segmenter le marché. Développer des profils des segments
résultants.
2. Décidez dans quels segments de marché vous souhaitez entrer. Évaluer l'attractivité
de chaque segment. Sélectionnez le(s) segment(s) cible(s).
3. Développer un produit ou un service positionné pour répondre aux exigences
particulières des segments de marché sélectionnés. Identifier les concepts de
positionnement possibles pour chaque segment cible. Sélectionner, développer et
communiquer le concept de positionnement choisi.

La segmentation du marché est généralement effectuée en évaluant les motivations, les


attitudes et le comportement des clients existants et potentiels par le biais d'entretiens, de
groupes de discussion et d'enquêtes. Les attributs de produit/service sont évalués, y compris
leurs cotes d'importance. La notoriété de la marque et les évaluations de la marque sont
étudiées, tout comme les modèles d'utilisation des produits. En raison de l'importance
stratégique de ces études, il convient de veiller à ce que les échantillons soient représentatifs
de l'ensemble du marché et des segments étudiés. Ces études appartiennent à la classe
énumérative des études statistiques (voir chap. 9). L'assistance professionnelle est un bon
investissement, car des techniques statistiques avancées sont souvent employées, telles
que l'analyse de grappes, l'analyse factorielle ou l'analyse de régression. Une fois identifiés,
les clusters sont profilés en fonction des attitudes, des données démographiques, etc. Les
étiquettes de cluster sont déterminées en étudiant la caractéristique dominante des clients au
sein du cluster.

À partir de cette analyse, le ou les segments cibles sont déterminés. La stratégie utilisée
pour sélectionner le(s) segment(s) cible(s) peut constituer une base pour l'élaboration du
plan qualité stratégique.
Les principaux concepts de segmentation sont illustrés à la Fig. 6.2.

•Pas de segmentation de marché (A). Ici, nous avons un ensemble de clients


complètement indifférencié. Lorsque cette situation existe, chaque client est considéré
comme n'étant pas différent des autres clients. Le marketing de masse est utilisé. La
qualité uniforme est l'objectif.
Machine Translated by Google

Comprendre les attentes et les besoins des clients 111

A. Pas de segmentation du marché B. Segmentation complète du marché

C. Segmenté par classes de D. Segmenté par classes E. Segmenté par


revenu 1, 2 et 3 d'âge A et B classe d'âge de revenu

B 1A 2B
1
1A
1 3 B
3 B 1B
1 3B
AA 3A
2
UN

Figure 6.2 Concepts de segmentation.

•Segmentation complète du marché (B). Chaque client est considéré comme


possédant un ensemble unique d'exigences. Un marketing personnalisé est
utilisé. Les exigences de qualité sont définies par les demandes individuelles de
chaque client.

•Segmentation par un seul critère (C, D). Un seul facteur de différenciation (par
exemple, le revenu ou l'âge) est utilisé. Une approche marketing différente est
utilisée pour chaque niveau du facteur de différenciation. Les exigences de qualité
varient pour chaque niveau du facteur de différenciation.
•Segmentation par critères multiples (E). Deux ou plusieurs facteurs de différenciation
sont utilisés. Par exemple, les clients peuvent être classés à la fois par revenu et
par âge. Encore une fois, la stratégie marketing et les exigences de qualité
peuvent varier pour chaque segment.

Si un segment est petit par rapport à l'ensemble du marché, et si la concurrence dans


le segment implique peu ou pas de concurrents, on dit qu'il s'agit d'une « niche » de
marché. Les niches de marché sont souvent délibérément sélectionnées pour des produits
ou services spéciaux pour lesquels l'entreprise possède un avantage concurrentiel.
S'il peut être simple de conceptualiser des exigences de qualité qui varient selon le
segment de clientèle, la mise en œuvre de ces différentes exigences dans une même
entreprise est problématique. Généralement, les entreprises n'ont qu'une seule politique
de qualité et les exigences ont tendance à découler de la politique. Aussi, les clients
Machine Translated by Google

112 Planification intégrée

ont tendance à attacher des images à des noms de marque spécifiques, et la réputation de
qualité joue un rôle dans l'image du client. Ainsi, lorsque les entreprises souhaitent
s'adresser à des types de clients très différents, elles sont parfois amenées à créer des
entités totalement distinctes. Par exemple, Toyota a créé Lexus en tant qu'entité distincte
pour fabriquer et commercialiser sa gamme de voitures de luxe.

Alors que les segments sont souvent sélectionnés en fonction de critères


démographiques (par exemple, l'âge, le revenu), ce n'est pas la seule façon de segmenter
les clients. La segmentation par attributs de produit présente un intérêt particulier pour les
responsables qualité. La qualité peut être considérée comme un attribut du produit et
commercialisée directement auprès de segments de clientèle sélectionnés. Le plus souvent,
la qualité est commercialisée indirectement, comme c'est le cas avec les automobiles de
luxe par rapport aux automobiles économiques. Le responsable qualité doit s'assurer que
les exigences de qualité du segment de clientèle sont satisfaites par le produit ou le service offert.
La base de la segmentation consiste à identifier des groupes de clients ayant des
goûts et des aversions similaires. En d'autres termes, la démographie et d'autres différences
sont des substituts aux préférences des clients. Trois grands schémas de préférences
sont illustrés à la Fig. 6.3.

•Les préférences homogènes indiquent un marché où tous les consommateurs ont à


peu près les mêmes préférences. Il n'y a pas de segments naturels en ce qui
concerne les deux attributs. Nous prédirions que les marques concurrentes
seraient similaires et situées près du centre. •Les préférences diffuses indiquent
un marché où les préférences des consommateurs varient beaucoup. Encore une
fois, il n'y a pas de segments naturels. Le centre de l'espace minimise la somme
des insatisfactions des consommateurs.
Cependant, s'il existe plusieurs concurrents, nous prévoyons qu'ils offrent des
produits différents pour correspondre aux préférences des consommateurs.

Préférences
homogènes Préférences diffuses Préférences groupées

Qualité Qualité Qualité

Prix Prix Prix

Figure 6.3 Modèles de segment de préférence.


Machine Translated by Google

Comprendre les attentes et les besoins des clients 113

• Les préférences groupées représentent des segments de marché naturels. Lorsque des
grappes de préférences distinctes existent, nous prévoyons que les produits concurrents
seraient différents entre les grappes et similaires à l'intérieur des grappes. Un exemple
serait les automobiles de luxe, économiques et sportives.

Collecte de données sur les attentes et les besoins des clients Puisqu'une organisation
existe pour servir ses clients, il est essentiel que l'organisation évalue en permanence sa capacité à
servir les clients. Comme nous l'avons vu, différents clients sont susceptibles d'avoir des attentes
différentes, en partie en raison des différences de marché, ainsi que de leurs perceptions de la
qualité attendue.
Étant donné que ces facteurs sont susceptibles de changer avec le temps, comme le montre le
modèle de Kano, il est essentiel que l'organisation développe et maintienne des systèmes pour
acquérir ces données et les utiliser pour la planification stratégique.
L'objectif principal de cette collecte de données est l'évaluation de la perception par les clients
de la qualité des produits et services de l'entreprise et de son impact sur la satisfaction des clients.
Pour être efficace, la communication fournira suffisamment de détails pour aider l'entreprise à
déterminer comment elle pourrait améliorer la qualité et la satisfaction, dans le cadre de ses efforts
d'amélioration continue.

Il existe plusieurs stratégies principales couramment utilisées pour obtenir des informations de
la part des clients ou à leur sujet : le service client et l'assistance, les enquêtes, les études de cas et
les expériences sur le terrain.
Les données sont collectées pour des enquêtes par sondage à partir d'un échantillon d'un
univers afin d'estimer les caractéristiques de l'univers, telles que leur portée ou leur dispersion, la
fréquence d'occurrence des événements ou les valeurs attendues des paramètres importants de
l'univers. Une enquête donnée est appliquée à une ou plusieurs populations statistiques, et les
résultats sont analysés à l'aide des outils statistiques énumératifs décrits au Chap. 9. Lorsque les
résultats de l'enquête sont collectés à intervalles réguliers, les résultats peuvent être analysés à
l'aide des outils analytiques de contrôle statistique des processus, comme décrit au Chap. 9 pour
obtenir des informations sur le processus sous­jacent. L'approche analytique présente des avantages
inhérents, car de petites enquêtes régulières et périodiques peuvent fournir des données plus
pertinentes et opportunes que des études énumératives peu fréquentes. Sans les informations
disponibles à partir de séries de données ordonnées dans le temps, il ne sera pas possible d'en
savoir plus sur les processus qui produisent des changements dans la satisfaction des clients ou les
perceptions de la qualité.

Une étude de cas est une description analytique des propriétés, des processus, des conditions
ou des relations variables d'unités simples ou multiples à l'étude. Les enquêtes par sondage et les
études de cas sont généralement utilisées pour répondre à des questions descriptives (« À quoi
ressemblent les choses ? ») et à des questions normatives (« Dans quelle mesure les choses se
comparent­elles à nos exigences ? »). Une expérience sur le terrain cherche la réponse à une
question de cause à effet (« Le changement a­t­il produit le résultat souhaité ? »). Systèmes de
réclamation et de suggestion
Machine Translated by Google

114 Planification intégrée

fournissent généralement à tous les clients une méthode facile à utiliser pour fournir
des commentaires favorables ou défavorables à la direction. En raison d'un biais de
sélection, ces méthodes ne fournissent pas d'informations statistiquement valables.
Cependant, parce qu'il s'agit d'un recensement plutôt que d'un échantillon, ils
permettent aux clients individuels d'avoir leur mot à dire. Ce sont des moments de
vérité qui peuvent être mis à profit pour fidéliser la clientèle. Ils fournissent également
des anecdotes qui ont une validité apparente élevée et sont souvent une source
d'idées d'amélioration.

Service client et assistance Une


source clé d'informations sur les clients est votre personnel de vente, de service et
d'assistance qui communique quotidiennement avec les clients, parfois appelé
agents de contact client (CCW). La nature du contact peut être des rencontres en
face à face, des communications téléphoniques ou des correspondances écrites
telles que des e­mails ou des chats en ligne. Pour les clients, ces travailleurs sont
« l'organisation », leur importance pour la satisfaction de la clientèle est donc
évidente. Pourtant, dans les organisations traditionnelles, les CCW sont souvent
parmi les employés les moins expérimentés et les moins bien payés de l'entreprise,
ce qui entraîne une insatisfaction des clients bien documentée dans la littérature.
Les CCW sont placés dans des « positions limites » (où l'organisation rencontre
le monde extérieur), créant un certain nombre de contraintes que les autres
membres de l'organisation ne connaissent pas. En tant qu'étrangers, les clients font
des demandes à la CCW. Le CCW peut ne pas être en mesure de répondre aux
demandes des clients en raison de politiques et de restrictions organisationnelles.
De plus, le CCW doit présenter l'organisation au client d'une manière positive qui ne
met pas indûment en colère ou ennuyeux le client, tout en conservant une
perspective client au sein de l'organisation. Compte tenu du faible statut de
nombreux postes de CCW, avec peu de capacité à exercer un contrôle sur la
politique interne, ces loyautés divisées posent un défi important, entraînant stress
et confusion, souvent à la fois pour le CCW et le client.
Cette situation est mieux traitée en donnant au travailleur le pouvoir d'agir dans
un large éventail de situations de clients. Cette responsabilisation se traduit par la
plus grande satisfaction des clients. Essentiellement, l'autonomisation bouleverse
la hiérarchie organisationnelle. Carlzon (1987) considère chaque contact client
comme un « moment de vérité » où l'engagement à servir le client est mis à
l'épreuve. Carlzon soutient que le but de la gestion est de concevoir des systèmes
organisationnels pour s'assurer que les moments de vérité sont correctement gérés
du point de vue du client. (Deming serait d'accord.) Carlzon utilise l'analogie d'un
entraîneur de football, qui ne peut ni dribbler sur le terrain ni donner des instructions
constantes et immédiates aux joueurs sur le tir, la passe ou la défense. La
responsabilité de l'entraîneur est plutôt de développer les habiletés des joueurs et
de leur donner les moyens d'exercer leur jugement dans l'utilisation de ces habiletés.
Sans habilitation, la CCW a peu de pouvoir pour influencer le résultat du moment
de vérité.
Machine Translated by Google

Comprendre les attentes et les besoins des clients 115

L'autonomisation exige la discrétion et la conscience des conséquences, qui peuvent


toutes deux être grandement améliorées grâce à une formation appropriée. Les entreprises
jouissant d'une excellente réputation en matière de service à la clientèle offrent généralement
à leurs CCW une formation initiale approfondie avant de les placer en « première ligne ».
La formation continue en salle de classe et sur le tas des CCW représente 1 à 5 %
supplémentaires des heures de travail des CCW. Les meilleures entreprises offrent une
formation formelle, rigoureuse et continue. Il peut impliquer des scénarios et des jeux de
rôle, mais doit inclure une couverture pertinente (parfois approfondie) des processus
interfonctionnels impactés par les décisions potentielles associées au rôle du CCW.

Malgré les avantages de la formation, certaines caractéristiques des CCW efficaces ne


peuvent être fournies par la formation. Le développement de systèmes efficaces de service
à la clientèle nécessite un processus de sélection conçu pour identifier les candidats
présentant les traits psychologiques appropriés pour le poste, tels que la patience, la
capacité à gérer le stress de manière positive et agréable, les compétences de
communication appropriées, etc. Souvent, les recommandations et les références des CCW
actuels ou des employeurs précédents seront bénéfiques. Divers tests psychologiques
peuvent également être utilisés, tels que des profils de personnalité ou des tests de la
capacité d'une personne à détecter des indices non verbaux. De nombreuses entreprises
utilisent des entretiens structurés pour déterminer comment les candidats réagissent à
diverses situations, en particulier aux plaintes.
Le recouvrement efficace des réclamations est un élément important de la satisfaction
et de la fidélisation des clients. Bien que les plaintes proviennent de diverses sources, les
plus courantes sont les défauts de produit, les erreurs de service, le service intempestif, la
mauvaise communication et les systèmes et processus inadéquats de l'entreprise, même
pendant le processus de plainte lui­même. Tous les problèmes ne donnent pas lieu à des
plaintes. Il a été démontré que le pourcentage de défauts ou de défaillances de service qui
entraînent effectivement une plainte est lié à la gravité du problème et au prix payé pour le
produit ou le service. Les problèmes mineurs sont signalés moins que les problèmes
majeurs ; les problèmes sont signalés plus souvent lorsque des prix plus élevés sont payés.
Étant donné que seule une partie des clients qui ont rencontré un problème donné
prendront le temps de le signaler, les systèmes doivent être conçus pour documenter la
plainte dans le but d'examiner et de déterminer l'étendue réelle du problème. Ces
commentaires peuvent être utiles pour identifier les opportunités et les menaces pour
répondre aux attentes des clients et du marché.

Compte tenu d'une politique et d'une procédure d'entreprise appropriées pour les
plaintes, le traitement des plaintes devient en grande partie une question de communication
entre le CCW et le client. L'activité la plus importante dans le processus est d'écouter le
client. Les techniques d'écoute doivent être systématiquement enseignées à tous les CCW ;
ces compétences sont absolument essentielles pour les responsables du traitement des
plaintes. Le CCW doit tenter de comprendre la nature, l'ampleur et l'impact potentiel de la
plainte sur le client. Ils doivent s'entendre avec le client sur le bien­fondé de la plainte et
présenter les excuses de l'entreprise pour
Machine Translated by Google

116 Planification intégrée

le désagrément. Les CCW doivent scrupuleusement éviter de se disputer ou de se


mettre sur la défensive. Tous les efforts doivent être faits pour obtenir les faits. Si
possible, une solution immédiate doit être proposée. Si la résolution du problème ne
peut être accomplie sur place, le client doit être informé précisément des mesures
qui seront prises pour résoudre le problème. Pendant le processus de résolution, le
client doit être tenu informé de l'état de la réclamation.
De nombreuses plaintes ne sont pas couvertes par des accords juridiquement
contraignants, tels que des garanties. Au lieu de cela, l'accent est mis sur le
maintien de bonnes relations avec le client en honorant les « garanties » implicites.
Dans ces situations, l'esprit d'entente entre l'entreprise et son client est plus
important que la lettre d'un accord légal. Le message transmis au client doit être
"Vous êtes une personne très importante pour nous". Après tout, c'est la vérité.

Bien que cela puisse ne pas sembler intuitif, la recherche a montré que les
réclamations sont une excellente occasion de fidéliser la clientèle. Les clients qui
sont satisfaits de la manière dont leurs plaintes sont traitées sont plus susceptibles
de fréquenter une entreprise à l'avenir que les clients qui n'ont eu aucune plainte !
Le traitement approprié des plaintes, du point de vue du client, implique généralement
de recevoir une réponse courtoise, rapide et juste au problème immédiat en cause,
par exemple, le remplacement d'un article défectueux. S'assurer que cela se produit
régulièrement ne doit pas être laissé au hasard. Le traitement des plaintes, comme
tout le reste, est un processus. En tant que tel, il doit être conçu pour atteindre son
objectif (un client satisfait), testé pour s'assurer qu'il est correctement conçu et
continuellement amélioré.
Bien que le traitement des réclamations soit important, il ne faut pas oublier que
les réclamations sont des événements indésirables qu'il convient de prévenir. La
prévention des plaintes devrait être une activité continue, ce qui nécessite la collecte
de données pour comprendre la nature de son occurrence. Comme pour toutes les
données de processus, la carte de contrôle statistique (décrite au chapitre 9) est
l'outil d'analyse approprié, permettant de différencier les sources sporadiques de
variation du processus et les causes systématiques de variation. Cette distinction
est essentielle pour identifier la nature de l'opportunité ou de la menace, ainsi que la
réponse appropriée.
Bien que les principes généraux de vente et de service à la clientèle soient
souvent axés sur les transactions, les ventes et le service à la clientèle doivent
toujours être conçus et menés en gardant à l'esprit le concept plus large de gestion
des relations. La gestion des relations est la plus appropriée pour les clients qui
peuvent le plus affecter l'avenir de l'entreprise. Pour de nombreuses entreprises, les
20 % de clients les plus riches représentent une part disproportionnée des ventes
de l'entreprise. Le contact avec ces clients ne doit pas se limiter aux appels
commerciaux. Ces grands comptes doivent être surveillés pour s'assurer que leurs
besoins particuliers sont pris en compte. La relation doit être considérée comme un
partenariat, le fournisseur proposant de manière proactive des suggestions sur la
manière dont le client pourrait améliorer ses ventes, sa qualité, etc. Pour les grands
comptes, un programme formel de gestion des relations doit être envisagé.
Machine Translated by Google

Comprendre les attentes et les besoins des clients 117

Kotler (1991, pp. 679­680) présente les étapes suivantes pour établir un programme de gestion
des relations au sein d'une entreprise :

Identifiez les principaux clients méritant une gestion des relations. L'entreprise peut choisir les 5
ou 10 plus gros clients et les désigner pour la gestion des relations. Des clients supplémentaires
peuvent être ajoutés qui affichent une croissance exceptionnelle ou qui sont les pionniers de
nouveaux développements dans l'industrie, et ainsi de suite.

Attribuez un responsable des relations qualifié à chaque client ou groupe de clients clé.
Le vendeur qui sert actuellement le client doit recevoir une formation en gestion des relations ou
être remplacé par quelqu'un qui est plus compétent en gestion des relations. Le chargé de
clientèle doit avoir des caractéristiques qui correspondent ou font appel au client.

Élaborez une description de poste claire pour les chargés de relations. Il doit décrire leurs liens
hiérarchiques, leurs objectifs, leurs responsabilités et leurs critères d'évaluation. Le chargé de
relations est responsable du client, est le point focal pour toutes les informations sur le client et
est responsable de la mobilisation des services de l'entreprise envers le client. Chaque chargé
de relations n'aura qu'une ou quelques relations à gérer.

Nommer un responsable général pour superviser les chargés de relations. Cette personne
élaborera des descriptions de poste, des critères d'évaluation et des ressources de soutien pour
accroître l'efficacité des gestionnaires de relations.

Chaque chargé de clientèle doit développer des plans de relation client à long terme et annuels.
Le plan de relation annuel énoncera les objectifs, les stratégies, les actions spécifiques et les
ressources nécessaires.

La figure 6.4 énumère un certain nombre de facteurs de relation.

L'élaboration
d' enquêtes comprend les principales tâches suivantes (GAO, 1986, p. 15) :

• Planification initiale du questionnaire • Élaboration

des mesures • Conception de

l'échantillon • Élaboration et test

du questionnaire • Production du questionnaire • Préparation

et distribution du matériel d'envoi •

Collecte des données • Réduction des données en formulaires

analysables • Analyse

des données

La figure 6.5 montre un calendrier type pour l'exécution de ces tâches.


Machine Translated by Google

118 Planification intégrée

Figure 6.4 Actions affectant les relations acheteur­vendeur. (Levitt, 1983.)

Figure 6.5 Temps d'achèvement typiques pour les principales tâches du questionnaire (GAO, 1986).
Machine Translated by Google

Comprendre les attentes et les besoins des clients 119

Lignes directrices pour l'élaboration des questions


L'axiome qui sous­tend les lignes directrices présentées ci­dessous est que le(s) rédacteur(s) de la
question doit(vent) bien connaître le groupe de répondants et comprendre le sujet du point de vue
du groupe de répondants. Ceci est souvent problématique pour le professionnel de la qualité lorsque
le groupe répondant est le client ; les méthodes pour faire face à cette situation sont discutées ci­
dessous. Il existe huit règles de base pour rédiger de bonnes questions :

1. Poser des questions dans un format qui convient aux questions'


objectif et les informations requises.

2. Assurez­vous que les questions sont pertinentes, appropriées et qualifiées comme


nécessaire.

3. Rédigez des questions claires et concises au niveau de langue du répondant.

4. Donnez au répondant une chance de répondre en fournissant une liste complète de


réponses pertinentes et mutuellement exclusives parmi lesquelles choisir.

5. Posez des questions impartiales en utilisant des formats et des constructions d'items
appropriés et en présentant tous les facteurs importants dans le bon ordre.

6. Obtenez des réponses impartiales en anticipant et en tenant compte de divers


tendances des répondants.

7. Quantifier les mesures de réponse si possible.

8. Fournissez une piste d'enquête logique et impartiale pour retenir l'attention du lecteur et
faciliter la tâche de réponse.

Les directives ci­dessus s'appliquent à la forme de la question. L'utilisation de la technique de


l'incident critique pour développer un bon contenu de question est décrite
dessous.

Types de réponses
Il existe plusieurs types de réponses aux sondages couramment utilisés.

•Questions ouvertes. Ce sont des questions qui permettent aux répondants de formuler leur
propre réponse sans aucune restriction imposée à la réponse. Le principal avantage est
que ces questions sont faciles à formuler et à poser en utilisant le langage naturel, même
si l'auteur de la question a peu de connaissances sur le sujet. Malheureusement, l'analyse
des réponses reçues à ce type de question pose de nombreux problèmes. Ce type de
question est plus utile pour déterminer la portée et le contenu de l'enquête, et non pour
produire des résultats à des fins d'analyse ou d'amélioration des processus.
Machine Translated by Google

120 Planification intégrée

• Questions à compléter. Ici, le répondant reçoit des instructions qui précisent les unités
dans lesquelles le répondant doit répondre. Les instructions doivent être explicites et
préciser les unités de réponse. Ce type de question est à réserver à des demandes
très précises, par exemple « Quel âge as­tu à ton dernier anniversaire ? (Age en
années)."

•Des questions oui ou non. Malheureusement, les questions oui/non sont très populaires.
Bien qu'ils présentent certains avantages, ils présentent de nombreux problèmes et
peu d'utilisations. Les questions oui/non sont idéales pour les variables dichotomiques,
telles que défectueux ou non défectueux. Cependant, trop souvent, ce format est
utilisé lorsque la mesure couvre une gamme de valeurs et de conditions, par exemple,
« Étiez­vous satisfait de la qualité de votre nouvelle voiture (oui/non) ? » Une réponse
oui/non à de telles questions contient peu d'informations utiles.

• Classement des questions. Le format de classement est utilisé pour classer les options
selon certains critères, par exemple, l'importance. Les formats de classement sont
difficiles à écrire et difficiles à répondre. Ils donnent très peu d'informations réelles et
sont très sujets aux erreurs qui peuvent invalider toutes les réponses. Ils doivent être
évités dans la mesure du possible au profit de formats plus puissants et de formats
moins sujets aux erreurs, comme la notation. Lorsqu'il est utilisé, le nombre de
catégories de classement ne doit pas dépasser cinq.

• Questions d'évaluation. Avec ce type de réponse, une note est attribuée sur la
base de la position absolue du score dans une plage de valeurs possibles. Les
échelles d'évaluation sont faciles à écrire, faciles à répondre et fournissent un
niveau de quantification adéquat pour la plupart des objectifs. Ils tendent à
produire des mesures raisonnablement valables. Voici un exemple de format
d'évaluation : Pour
l'énoncé suivant, cochez la case appropriée : Les
normes de fabrication fournies par l'acheteur sont n Claires
n
Légèrement adéquates
n Peu claires

• Format Guttman. Dans le format Guttman, les alternatives gagnent en exhaustivité ;


c'est­à­dire que les alternatives de valeur supérieure incluent les alternatives de
valeur inférieure. Par exemple, Concernant le
bénéfice reçu de la formation en amélioration de la qualité : n Aucun
bénéfice identifié n
Bénéfice identifié
n Bénéfice mesuré
n Valeur du bénéfice évaluée en termes
de dollars n Analyse coût/bénéfice réalisée
Machine Translated by Google

Comprendre les attentes et les besoins des clients 121

• Likert et autres formats d'échelle d'intensité. Ces formats sont généralement utilisés
pour mesurer la force d'une attitude ou d'une opinion. Par exemple, veuillez cocher
la case appropriée en réponse à l'énoncé suivant : « L'auditeur qualité était
bien informé. n Fortement en désaccord n
En désaccord n
Neutre

n
D'accord n Tout

à fait d'accord Les échelles d'intensité sont très faciles à construire. Il est
préférable de les utiliser lorsque les répondants peuvent être d'accord ou non avec
une affirmation. Un problème est que les déclarations doivent être formulées pour
présenter un seul côté d'un argument. Nous savons que l'intimé est d'accord, mais
nous devons déduire ce qu'il croit. Pour compenser la tendance naturelle des gens
à être d'accord, les déclarations sont généralement présentées en utilisant également
l'inverse, par exemple, "L'auditeur qualité n'était pas bien informé".
Lorsque vous utilisez des échelles d'intensité, utilisez une échelle impaire,
de préférence avec cinq catégories. S'il y a une possibilité de biais, ordonnez
l'échelle d'une manière qui favorise l'hypothèse que vous voulez réfuter et
handicape l'hypothèse que vous voulez confirmer. Cela confirmera l'hypothèse
avec le biais contre vous ­ un résultat plus fort. S'il n'y a pas de parti pris, placez
les choix les plus indésirables en premier.

•Format différentiel sémantique. Dans ce format, les valeurs qui couvrent l'éventail
des choix possibles ne sont pas complètement identifiées ; seuls les points
d'extrémité sont étiquetés. Par exemple,

Indiquez le nombre de fois où vous avez initié une communication avec votre
client au cours du mois passé.

peu beaucoup

(2 ou moins) n n n n n n n (20 ou plus)

Le répondant doit déduire que la plage est divisée en intervalles égaux. La


gamme semble mieux fonctionner avec sept catégories plutôt que les cinq
habituelles.
Les différentiels sémantiques sont très utiles lorsque nous n'avons pas
assez d'informations pour ancrer les intervalles entre les pôles.
Cependant, ils sont très difficiles à bien écrire, et s'ils ne sont pas bien écrits,
les résultats sont ambigus.

Étude de cas sur l'élaboration d'une


enquête Cette étude de cas réelle implique l'élaboration d'une enquête par courrier dans
un hôpital communautaire. Le même processus a été utilisé par l'auteur pour développer
des sondages auprès de la clientèle dans une variété d'industries.
Machine Translated by Google

122 Planification intégrée

L'étude de la qualité des services et de la satisfaction des patients a été réalisée dans un
hôpital communautaire de 213 lits dans le sud­ouest des États­Unis. L'hôpital est une institution
à but non lucratif financée par l'État qui fournit des services à la communauté adulte. les services
pédiatriques ne sont pas fournis. Le but de l'étude était de :

• Identifier les déterminants des jugements de qualité des patients. •

Identifier les processus de prestation de services internes qui ont eu un impact sur les
jugements de qualité des patients.

• Déterminer le lien entre les jugements de qualité des patients et l'intention de fréquenter
l'hôpital à l'avenir ou de recommander l'hôpital à d'autres.

Pour mener l'étude, l'auteur a travaillé en étroite collaboration avec une équipe centrale
d'employés de l'hôpital et avec plusieurs équipes ad hoc d'employés de l'hôpital.
L'équipe de base comprenait l'administrateur des soins infirmiers, le chef du département de
gestion de la qualité et le chef des services de nutrition.
L'équipe a décidé de développer ses critères de manière indépendante. Il a été convenu
que la meilleure méthode pour obtenir des informations était directement auprès du groupe
cible, les patients hospitalisés. En raison de la nature des services de soins hospitaliers, les
groupes de discussion n'ont pas été jugés faisables pour cette étude. Souvent, les patients
doivent passer une période de temps considérable en convalescence après leur sortie de
l'hôpital, ce qui les empêche de participer à un groupe de discussion peu après leur sortie.
Pendant que les patients sont à l'hôpital, ils sont généralement trop malades pour participer.
Certains patients ont des maladies transmissibles, ce qui rend leur participation à des groupes
de discussion déconseillée.
Étant donné que les souvenirs des événements ont tendance à s'estomper rapidement
(Flanagan, 1954, p. 331), l'équipe a décidé que les patients devaient être interrogés dans les 72
heures suivant leur sortie. La population de patients cible était donc tous les adultes traités en
tant que patients hospitalisés et renvoyés à leur domicile. Les groupes suivants ne faisaient pas
partie de l'étude : les familles des patients décédés à l'hôpital, les patients renvoyés dans des
maisons de retraite et les patients admis pour des soins psychiatriques.
L'équipe a utilisé la technique de l'incident critique (CIT) pour obtenir les commentaires des
patients. Le CIT a d'abord été utilisé pour étudier les procédures de sélection et de classement
des candidats pilotes pendant la Seconde Guerre mondiale (Flanagan, 1954). Une bibliographie
réunie en 1980 recense plus de sept cents études sur ou utilisant le CIT (Fivars, 1980). Compte
tenu de sa popularité, il n'est pas surprenant que le CIT ait également été utilisé pour évaluer la
qualité de service.
Le CIT consiste en un ensemble de procédures spécifiquement définies pour collecter des
observations du comportement humain de manière à les rendre utiles pour résoudre des
problèmes pratiques. Sa force réside dans des procédures soigneusement structurées de
collecte et de classification des données qui produisent des informations détaillées non
disponibles par d'autres méthodes de recherche. La technique, utilisant soit l'observation directe,
soit des informations rappelées recueillies via
Machine Translated by Google

Comprendre les attentes et les besoins des clients 123

points de vue, permet aux chercheurs de recueillir des informations de première


main sur la perspective des patients. Ce type d'auto­rapport préserve la richesse des
détails et l'authenticité de l'expérience personnelle des personnes les plus proches
de l'activité étudiée. Les chercheurs ont conclu que le CIT produit des informations à
la fois fiables et valides.
Cette étude a tenté de suivre de près les cinq étapes décrites par Flanagan
comme cruciales pour le CIT : (1) établissement de l'objectif général de l'activité
étudiée, (2) élaboration d'un plan pour les observateurs ou enquêteurs, (3) collecte
de données, (4) analyse (classification) des données et (5) interprétation des
données.

Établissement de l'objectif général de l'activité étudiée L'objectif général est


le but de l'activité. Dans ce cas, l'activité concerne l'ensemble des services
fournis aux patients hospitalisés. Cela inclut toutes les activités de service
entre l'admission et la sortie. Du point de vue du prestataire de services,
l'objectif général est de créer et de gérer des processus de prestation de
services de manière à susciter chez le patient la volonté d'utiliser les services
du prestataire à l'avenir. Pour ce faire, le prestataire de services doit savoir
quels aspects particuliers du service sont retenus par le patient.

Notre objectif général était de fournir au prestataire de services des informations


sur ce que les patients se souvenaient de leur séjour à l'hôpital, à la fois agréable et
désagréable. Ces informations devaient être utilisées pour construire un nouvel
instrument d'enquête auprès des patients qui serait envoyé périodiquement aux
patients récemment sortis de l'hôpital. Les informations obtenues seraient utilisées
par les gestionnaires des différents processus de service comme rétroaction sur leur
performance, du point de vue du patient.

Plan d'entretien Les enquêteurs ont reçu une liste des patients sortis au
cours des 3 derniers jours. La liste de sortie comprenait tous les patients.
Les patients non psychiatriques renvoyés « à domicile » étaient candidats à
l'entretien. Le domicile était défini comme tout lieu autre que la morgue ou
une maison de retraite. Les enquêteurs devaient lire un ensemble d'énoncés
prédéterminés. Les patients à appeler ont été sélectionnés au hasard à partir
de la liste de sortie. Si un patient n'était pas joignable, l'enquêteur réessayait
plus tard dans la journée. Un formulaire d'entretien a été préparé par patient.
Pour éviter les biais, 50 % des formulaires d'entretien demandaient au patient
de se rappeler d'abord les incidents désagréables et 50 % demandaient
d'abord les incidents agréables. Les enquêteurs ont été chargés d'enregistrer
les réponses des patients en utilisant les propres mots du patient.

Collecte des données Quatre enquêteurs ont participé à l'activité de collecte


des données ; tous étaient des employés au niveau de la direction de l'hôpital.
Trois des enquêteurs étaient des femmes et un était un homme. Les
entretiens ont été menés lorsque le temps le permettait au cours de la
Machine Translated by Google

124 Planification intégrée

journée de travail normale et chargée. Les entretiens ont eu lieu en


septembre 1993. Les enquêteurs ont reçu les instructions recommandées
par Hayes (1992, pp. 14­15) pour générer des incidents critiques.
Au total, 36 tentatives téléphoniques ont été faites et 23 patients ont été joints. Parmi
les personnes atteintes, trois ne parlaient que l'espagnol. Dans le cas d'un des patients
hispanophones, un membre de la famille a été interrogé.
Ainsi, 21 entrevues ont été réalisées, ce qui est légèrement supérieur aux 10 à 20
entrevues recommandées par Hayes (1992, p. 14). Les 21 entretiens ont produit 93
incidents critiques.

Classification des données Le système de classification des incidents requis


par le CIT est une procédure rigoureuse et soigneusement conçue dont le
but final est de rendre les données utiles au problème en question tout en
sacrifiant le moins de détails possible (Flanagan, 1954, p. 344). Trois enjeux
sont à relever : (1) l'identification d'un cadre général de référence qui rendra
compte de tous les incidents, (2) le développement inductif des grands
domaines et sous­domaines qui seront utiles au tri des incidents, et (3) la
sélection du niveau de spécificité le plus approprié pour rapporter les données.
Les incidents critiques ont été classés comme suit :

• Chaque incident critique a été écrit sur une carte 3 × 5, en utilisant le


propres mots.

• Les cartes ont été soigneusement mélangées.


• Dix pour cent des cartes (10 cartes) ont été tirées au sort,
retiré du pont et mis de côté.
• Deux des quatre membres de l'équipe ont quitté la salle tandis que les deux autres
ont regroupé les 83 cartes restantes et nommé les catégories. • Les 10
cartes initialement mises de côté ont été placées dans les catégories trouvées à
l'étape 3. • Enfin,
les deux membres non impliqués dans le classement initial ont été informés du nom
des catégories. Ils ont ensuite pris les 93 cartes rebattues et les ont placées dans
les catégories préalablement déterminées.

Le processus ci­dessus a produit les dimensions suivantes des incidents critiques :

• Hébergement (5 incidents critiques) • Qualité du

médecin (14 incidents critiques) • Soins prodigués par


le personnel (20 incidents critiques) • Nourriture (26
incidents critiques) • Processus de

congé (1 incident critique) • Attitude du personnel


(16 incidents critiques) • Général (11 incidents
critiques)
Machine Translated by Google

Comprendre les attentes et les besoins des clients 125

Interprétation des données L'accord inter­juges, le pourcentage d'incidents critiques


classés dans la même catégorie par les deux groupes de juges, était de 93,5 %.
C'est bien au­dessus de la valeur seuil de 80 % recommandée par les experts. La
mise de côté d'un échantillon aléatoire et la tentative de les placer dans des
catégories établies visent à tester l'exhaustivité des catégories. Si l'un des
éléments retenus n'était pas classifiable, cela indiquerait que les catégories ne
couvrent pas adéquatement l'espace de satisfaction des patients. Cependant,
l'équipe n'a rencontré aucun problème pour classer les incidents critiques retenus
dans les catégories.
Idéalement, un incident critique a deux caractéristiques : (1) il est spécifique et
(2) il décrit le prestataire de services en termes comportementaux ou le produit de
service avec des adjectifs spécifiques (Hayes, 1992, p. 13). Lors de l'examen des
incidents critiques dans la catégorie générale, l'équipe a déterminé que ces éléments
n'avaient pas l'une ou l'autre de ces caractéristiques. Ainsi, les 11 incidents critiques
de la catégorie générale ont été abandonnés. L'équipe a également décidé de
fusionner les deux catégories "Soins fournis par le personnel" et "Attitude du
personnel" en une seule catégorie "Qualité des soins du personnel". Ainsi, le résultat
final était un modèle à cinq dimensions des jugements de satisfaction des patients :
alimentation, qualité du médecin, qualité des soins du personnel, hébergement et processus de sortie.
Une omission plutôt évidente dans la liste ci­dessus est la facturation. Cela s'est
produit parce que les patients n'avaient pas encore reçu leur facture dans le délai de
72 heures. Cependant, la facture du patient a été expliquée au patient avant sa
sortie. Cet élément est inclus dans la dimension Processus de sortie. L'équipe a
discuté de la question de la facturation et il a été déterminé que des plaintes de
facturation surviennent après l'envoi des factures, ce qui suggère que la facturation
est probablement une dimension de satisfaction. Cependant, l'équipe a décidé de
ne pas inclure la facturation comme dimension de l'enquête car (1) le délai était si
long qu'attendre jusqu'à ce que les factures aient été reçues réduisait considérablement
la capacité du patient à se souvenir des détails de son séjour, (2 ) l'équipe craignait
que les jugements des patients ne soient dépassés par la réception récente de la
facture, et (3) un système existait déjà pour identifier les problèmes de facturation
des patients et ajuster le processus de facturation en conséquence.

Élaboration des éléments de l'enquête Comme indiqué précédemment, l'objectif


général était de fournir au prestataire de services des informations sur ce que les
patients se souvenaient de leur séjour à l'hôpital, à la fois agréable et désagréable.
Ces informations devaient ensuite être utilisées pour construire un nouvel
instrument d'enquête auprès des patients qui serait envoyé aux patients
récemment sortis sur une base périodique. Les informations obtenues seraient
utilisées par les gestionnaires des différents processus de service comme
rétroaction sur leur performance, du point de vue du patient.
L'équipe de base estimait que pour atteindre ces objectifs, il fallait que les
gestionnaires des processus de service clés participent activement à la création de
l'instrument d'enquête. Ainsi, des équipes ad hoc ont été formées pour développer
Machine Translated by Google

126 Planification intégrée

éléments d'enquête pour chacune des dimensions déterminées par l'étude de l'incident
critique. Les équipes ont reçu de l'auteur de brèves instructions sur les caractéristiques
des bons éléments d'enquête. Les équipes devaient développer des items qui, de l'avis
de l'équipe principale, répondaient à cinq critères : (1) pertinence par rapport à la
dimension mesurée, (2) concis, (3) sans ambiguïté, (4) une pensée par item, et ( 5) pas
de doubles négatifs. Les équipes ont également été informées des commentaires
spécifiques des patients qui ont servi de base aux catégories et ont été informées que
ces commentaires pourraient être utilisés comme base pour l'élaboration des éléments
de l'enquête.
Écrire des éléments pour le questionnaire peut être difficile. Le processus
d'élaboration des éléments de l'enquête a impliqué une moyenne de trois réunions par
dimension, chaque réunion durant environ 2 heures. Les équipes ad hoc étaient
composées de 4 à 11 membres. Le processus était souvent assez fastidieux, avec un
débat considérable sur le libellé précis de chaque élément.
L'équipe de base a discuté de l'échelle à utiliser avec chaque équipe ad hoc. Le
format de réponse recommandé par l'équipe principale était une échelle de type Likert à
cinq points. Le consensus était d'utiliser un continuum d'accord­pas d'accord en cinq
points comme format de réponse. La formulation des items a été faite de manière à ce
que l'accord représente une meilleure performance du point de vue de l'hôpital.
En plus des éléments de réponse, il a été estimé que les patients devraient avoir la
possibilité de répondre à des questions ouvertes. Ainsi, l'enquête comprenait également
des questions générales qui invitaient les patients à commenter dans leurs propres mots.
Les avantages d'avoir de telles questions sont bien connus. De plus, on a estimé que
ces questions pourraient générer d'autres incidents critiques qui seraient utiles pour
élargir la portée de l'enquête.
L'instrument d'enquête qui en a résulté contenait 50 éléments et trois questions
ouvertes.

Administration de l'enquête et étude pilote L'enquête devait être testée sur un


petit échantillon. Il a été décidé d'utiliser la méthode de conception totale
(TDM) pour administrer l'enquête (Dillman, 1983). Bien que la méthode de
conception totale soit exigeante et fastidieuse, Dillman a indiqué que son
utilisation assurerait un taux de réponse élevé. L'administration de l'enquête
serait gérée par le Département des soins infirmiers.
La TDM implique un traitement administratif assez lourd. Chaque formulaire
d'enquête est accompagné d'une lettre d'accompagnement, qui doit être signée à la main
à l'encre bleue. Les envois de suivi sont effectués une, trois et sept semaines après
l'envoi initial. Les suivis de trois et sept semaines sont accompagnés d'un autre sondage
et d'une autre lettre d'accompagnement. Aucun « traitement en masse » n'est autorisé,
comme l'utilisation de lettres ou d'étiquettes d'adresse générées par ordinateur.
Les recherches de Dillman soulignent l'importance de considérer le TDM comme une
approche complètement intégrée (Dillman, 1983, p. 361).
Étant donné que l'hôpital de l'étude est petit, l'auteur souhaitait obtenir des taux de
réponse maximaux. En plus de suivre les lignes directrices de la GDT, il a recommandé
qu'un incitatif de 1 $ soit inclus avec chaque
Machine Translated by Google

Comprendre les attentes et les besoins des clients 127

Livré Revenu %
Enquêtes 92 45 49%
Sondages avec incitatif de 1 $ 47 26 55%
Enquêtes sans incitatif de 1 $ 45 19 42%

Tableau 6.1 Renseignements sur le retour de l'enquête pilote auprès des patients

enquête. Cependant, l'administrateur de l'hôpital n'était pas convaincu que le 1 $


supplémentaire par sondage en valait la peine. Il a finalement été convenu que pour tester
l'effet de l'incitatif sur le taux de retour, 1 $ serait inclus dans 50 % des envois, choisis au
hasard.
L'hôpital a décidé de réaliser une étude pilote sur 100 patients. Les patients
sélectionnés étaient les 100 premiers patients renvoyés à domicile. Les informations de
retour sont présentées dans le tableau 6.1.
Bien que le taux de retour global de 49 % soit excellent pour les procédures normales
d'enquête par courrier, il est nettement inférieur à la moyenne de 77 % et au « minimum »
de 60 % signalés par Dillman. Comme explications possibles, l'auteur conjecture qu'il
pourrait y avoir une importante circonscription hispanophone pour cet hôpital. Comme
mentionné ci­dessus, l'hôpital prévoit une version espagnole de l'enquête à l'avenir.

Les données démographiques des répondants à l'enquête ont été analysées et


comparées à celles des non­répondants pour s'assurer que l'échantillon était représentatif.
Une analyse statistique sophistiquée a été réalisée sur les réponses pour évaluer la
fiabilité et la validité de chaque item. Les items avec de faibles coefficients de fiabilité ou
une validité douteuse ont été reformulés ou supprimés.

Groupes de
discussion Le groupe de discussion est un type particulier de groupe en termes d'objectif,
de taille, de composition et de procédures. Un groupe de discussion est généralement
composé de sept à dix participants qui ne se connaissent pas. Ces participants sont
sélectionnés parce qu'ils ont certaines caractéristiques en commun qui se rapportent au
sujet du groupe de discussion.
Le chercheur crée un environnement permissif dans le groupe de discussion qui nourrit
différentes perceptions et points de vue, sans faire pression sur les participants pour qu'ils
votent, planifient ou parviennent à un consensus. La discussion de groupe est menée
plusieurs fois avec des types de participants similaires pour identifier les tendances et les
modèles dans les perceptions. Une analyse minutieuse et systématique des discussions
peut fournir des indices et des idées sur la façon dont un produit, un service ou une
opportunité est perçu.
Un groupe de discussion peut donc être défini comme une discussion soigneusement
planifiée conçue pour obtenir des perceptions sur un domaine d'intérêt défini dans un
environnement permis sif et non menaçant. La discussion est détendue, confortable,
Machine Translated by Google

128 Planification intégrée

et souvent agréable pour les participants lorsqu'ils partagent leurs idées et leurs perceptions. Les
membres du groupe s'influencent mutuellement en répondant aux idées et
commentaires dans la discussion.

En gestion de la qualité, les groupes de discussion sont utiles pour :

• Recueillir des informations utiles dans le processus de planification stratégique.

• Générer des idées pour les questionnaires d'enquête. •

Élaborer une évaluation des besoins, par exemple, les besoins en

formation. • Testez de nouvelles idées


de programme. • Déterminer les critères de décision du client.

• Recruter de nouveaux clients.

Le groupe de discussion est une procédure de recherche à orientation sociale. L'avantage de


cette approche est que les membres se stimulent mutuellement, ce qui peut produire un plus grand
nombre de commentaires que ne le feraient des entretiens individuels. Si nécessaire, le chercheur
peut demander des informations supplémentaires ou des éclaircissements. Les groupes de discussion
produisent des résultats qui ont une validité apparente élevée, c'est­à­dire que les résultats sont
exprimés dans les propres mots du participant plutôt que dans un jargon statistique. Les informations
sont obtenues à un coût relativement faible, et elles peuvent être obtenues très rapidement.

Il y a moins de contrôle dans un cadre de groupe qu'avec des entretiens individuels.


Lorsque les membres du groupe interagissent, il est souvent difficile d'analyser le dialogue qui en
résulte. La qualité de la recherche des groupes de discussion dépend fortement des qualifications de
l'intervieweur. Les enquêteurs formés et compétents sont difficiles à trouver. La variation d'un groupe à
l'autre peut être considérable, ce qui complique davantage l'analyse. Enfin, les groupes de discussion
sont souvent difficiles à programmer.
Machine Translated by Google

CHAPITRE 7
Analyse comparative
Machine Translated by Google
Machine Translated by Google

et fixer des objectifs. En termes plus conventionnels, l'analyse comparative peut être définie
L'analyse comparative
comme est de
la mesure unevotre
méthode populaire
performance pour
par développer
rapport des meilleures
à celle des exigences entreprises de

leur catégorie, la détermination de la manière dont les meilleures de leur catégorie atteignent ces
niveaux de performance et l'utilisation de ces informations comme base pour les objectifs, les
stratégies de votre propre entreprise. , et la mise en œuvre. L'analyse comparative implique la
recherche des meilleures pratiques au niveau de l'industrie, de l'entreprise ou du processus.
L'analyse comparative va au­delà d'une détermination de la « norme de l'industrie » ; il décompose
les activités de l'entreprise en opérations de processus et recherche le meilleur de sa catégorie pour
une opération particulière. Par exemple, la société Xerox a étudié le détaillant LL Bean pour l'aider
à améliorer son processus de distribution de pièces.

Les avantages de l'analyse comparative concurrentielle comprennent :

• Créer une culture qui valorise l'amélioration continue pour atteindre


excellence
• Améliorer la créativité en dévaluant le syndrome du non­inventé ici • Accroître la sensibilité

aux changements de l'environnement externe • Faire passer l'état d'esprit de l'entreprise

d'une relative complaisance à un fort sentiment d'urgence pour une amélioration continue •
Concentrer les ressources sur des objectifs de performance fixés

avec l'employé
saisir

• Prioriser les domaines qui doivent être améliorés • Partager les

meilleures pratiques entre les partenaires de benchmarking

L'analyse comparative est basée sur l'apprentissage des autres, plutôt que sur
le développement d'approches nouvelles et améliorées. Étant donné que le processus
étudié est visible de tous, une entreprise constatera que l'analyse comparative ne
peut lui donner un avantage concurrentiel durable. Bien qu'utile, l'analyse comparative
ne devrait jamais être la principale stratégie d'amélioration.
L'analyse concurrentielle est une approche de l'établissement d'objectifs utilisée par de
nombreuses entreprises. Cette approche est essentiellement une analyse comparative limitée à sa
propre industrie. Bien que courante, l'analyse concurrentielle garantit pratiquement

131
Machine Translated by Google

132 Planification intégrée

une qualité de second ordre car l'entreprise suivra toujours leur concurrence. Si l'ensemble de
l'industrie utilise cette approche, cela entraînera une stagnation à l'échelle de l'industrie, créant
des opportunités pour les innovateurs extérieurs.
Camp (1989) énumère les étapes suivantes pour le processus d'analyse comparative :

1. Planification

1.1. Identifier ce qui doit être étalonné 1.2. Identifier


les sociétés comparatives 1.3. Déterminer la
méthode de collecte de données et collecter les données

2. Analyse 2.1.

Déterminer « l'écart » de performance actuel


2.2. Projeter les niveaux de performance futurs 3.

Intégration 3.1.

Communiquer les résultats du benchmark et obtenir l'acceptation 3.2. Établir


des objectifs fonctionnels
4. Action

4.1. Élaborer des plans d'action


4.2. Mettre en œuvre des actions spécifiques et suivre les progrès 4.3.
Recalibrer les benchmarks

5. Maturité 5.1.

Position de leadership atteinte 5.2. Pratiques


entièrement intégrées au processus

La première étape de l'analyse comparative consiste à déterminer ce qu'il convient d'évaluer.


Pour concentrer l'initiative d'analyse comparative sur les problèmes critiques, commencez par
identifier les résultats du processus les plus importants pour les clients de ce processus (c'est­à­
dire les principales caractéristiques de qualité). Cette étape s'applique à chaque fonction
organisationnelle, puisque chacune a des extrants et des clients. L'évaluation des besoins des
clients QFD (Quality Function Deployment), abordée au Chap. 15, est un précurseur naturel des
activités de benchmarking.

Premiers pas avec l'analyse comparative L'essence de


l'analyse comparative est l'acquisition d'informations. Le processus commence par l'identification
du processus à étalonner.
Le processus choisi doit être celui qui aura un impact majeur sur le succès de l'entreprise. Les
règles utilisées pour identifier les candidats à la réingénierie des processus d'affaires peuvent
également être utilisées ici (voir chap. 2).
Une fois le processus identifié, contactez une bibliothèque d'entreprise et demandez une
recherche des informations relatives à votre domaine d'intérêt. La bibliothèque identifiera des
documents provenant de diverses sources externes, telles que des magazines, des revues, des
rapports spéciaux, etc. Vous devez également effectuer des recherches en utilisant Internet et
d'autres ressources de réseautage électronique. Cependant,
Machine Translated by Google

Marquage B 133

soyez prêt à réduire ce qui sera probablement une liste extrêmement longue de candidats
(par exemple, une recherche sur Internet sur le mot benchmarking a produit près de 20
millions de requêtes). N'oubliez pas les ressources internes de votre organisation.
Si votre entreprise dispose d'un « intranet », utilisez­le pour effectuer une recherche interne.
Organisez une réunion avec des personnes de départements clés, tels que la R&D. Exploitez
l'expertise des personnes de votre entreprise qui travaillent régulièrement avec des clients,
des concurrents, des fournisseurs et d'autres organisations "extérieures". Souvent, le conseil
d'administration de votre entreprise dispose d'un vaste réseau de contacts.
La recherche n'est bien sûr pas aléatoire. Vous recherchez le meilleur des meilleurs,
pas l'entreprise moyenne. Il existe de nombreuses sources possibles pour identifier les élites.
Une approche consiste à créer un recueil de récompenses commerciales et de citations de
mérite que les organisations ont reçues dans le cadre de l'amélioration des processus
opérationnels. Les sources à considérer sont le prix de la meilleure usine de la semaine de
l'industrie , le prix Malcolm Baldrige du National Institute of Standards and Technology, USA
Today et le prix Quality Cup du Rochester Institute of Technology, le prix de la Fondation
européenne pour la gestion de la qualité, l'Occupational Safety and Health Administration
(OSHA), Federal Quality Institute, Deming Prize, Competitiveness Forum, Fortune magazine
et United States Navy's Best Manufacturing Practices, pour n'en nommer que quelques­uns.

Vous souhaiterez peut­être vous abonner à un « service d'échange » qui collecte des
informations d'analyse comparative et les met à disposition moyennant des frais. Une fois
inscrit, vous aurez accès aux noms des autres abonnés, une excellente source de contacts.

Ne négligez pas vos propres fournisseurs comme source d'information. Si votre


entreprise a un programme de reconnaissance des meilleurs fournisseurs, contactez ces
fournisseurs et voyez s'ils sont prêts à partager leurs «secrets» avec vous. Les fournisseurs
sont prédisposés à coopérer avec leurs clients ; c'est un ouvre­porte automatique. Contactez
également vos clients. Les clients ont tout intérêt à vous aider à faire un meilleur travail. Si
votre qualité, vos coûts et vos performances de livraison s'améliorent, vos clients en
bénéficieront. Les clients peuvent être disposés à partager certaines de leurs idées sur la
façon dont leurs autres fournisseurs se comparent à vous. Encore une fois, il n'est pas
nécessaire d'obtenir des informations sur les concurrents directs. Lequel des fournisseurs
de votre client est le meilleur en matière de facturation ? L'exécution des commandes?
Service Clients? Concentrez­vous sur le niveau du processus et il y aura rarement des
problèmes de confidentialité.
L'un des avantages de l'identification de partenaires de benchmarking potentiels par
l'intermédiaire de vos clients est que vous disposerez d'une référence qui vous facilitera le
démarrage du partenariat.
Une autre source d'informations détaillées sur les entreprises est la recherche
universitaire. Les entreprises autorisent souvent les universités à accéder à des informations
détaillées à des fins de recherche. Bien que les recherches publiées omettent généralement
de faire référence aux entreprises spécifiques impliquées, elles fournissent souvent des
comparaisons et une analyse détaillée de ce qui sépare le meilleur des autres.
Ces informations, fournies par des experts dont le travail est soumis à un examen rigoureux
par les pairs, vous feront souvent économiser des milliers d'heures de travail.
Machine Translated by Google

134 Planification intégrée

Une fois qu'une liste de candidats potentiels est compilée, l'étape suivante consiste à choisir
les trois à cinq meilleures cibles. Un candidat qui semblait prometteur au début du processus
pourrait être éliminé plus tard pour un certain nombre de raisons, y compris de mauvaises
performances, un manque d'engagement à partager des informations ou des pratiques, une faible
disponibilité ou une valeur douteuse des informations (Vaziri, 1992).
Au fur et à mesure de l'évolution du processus d'analyse comparative, les caractéristiques des
candidats les plus recherchés seront continuellement affinées. Cela se produit grâce à une
compréhension plus claire des principales caractéristiques de qualité et des facteurs critiques de
succès de votre organisation et à une meilleure connaissance du marché et des autres acteurs.
Cette connaissance et les actions qui en découlent renforcent énormément une organisation.

Pourquoi les efforts d'analyse comparative échouent

Les causes des projets d'analyse comparative qui ont échoué sont les mêmes que celles des autres
projets qui ont échoué (DeToro, 1995) :

• Manque de parrainage. Une équipe doit soumettre à la direction une proposition de projet
d'analyse comparative d'une à quatre pages qui décrit le projet, ses objectifs et ses coûts
potentiels. Si l'équipe ne peut pas obtenir l'approbation du projet ou obtenir un sponsor, il
n'est pas logique de poursuivre un projet qui n'est pas compris ou apprécié ou qui est peu
susceptible de conduire à une action corrective une fois terminé. • Mauvaises personnes
dans l'équipe. Les personnes impliquées dans l'analyse comparative

doivent posséder ou travailler dans le processus en cours d'examen. Il est inutile pour une
équipe de résoudre des problèmes dans des domaines d'activité qui ne lui sont pas
familiers ou sur lesquels l'équipe n'a aucun contrôle ou influence.

• Les équipes ne comprennent pas complètement leur travail. Si l'équipe d'analyse


comparative n'a pas cartographié, organisé ou documenté son processus de travail, et si
elle n'a pas effectué d'analyse comparative avec des organisations qui ont également
documenté leurs processus, il ne peut y avoir de transfert efficace de techniques.
L'intention de chaque projet d'analyse comparative est qu'une équipe comprenne le
fonctionnement de son processus et le compare avec le processus d'une autre entreprise
à un niveau détaillé. L'échange d'étapes de processus est essentiel pour améliorer les
performances.

• Les équipes prennent trop de choses. Les grands problèmes deviennent rapidement
ingérables et doivent être divisés en projets plus petits et plus gérables qui peuvent être
abordés de manière logique. Une approche suggérée consiste à créer un organigramme
fonctionnel d'un domaine entier, tel que la production ou le marketing, et à identifier ses
processus. Les critères peuvent ensuite être utilisés pour sélectionner un sous­processus
à étalonner qui contribuerait le mieux aux objectifs de l'organisation. • Manque
d'engagement de la direction à long terme.

Étant donné que les gestionnaires ne sont pas aussi familiers avec les problèmes de travail
spécifiques que leurs employés, ils ont tendance à
Machine Translated by Google

Marquage B 135

sous­estimer le temps, le coût et les efforts requis pour mener à bien un projet
d'analyse comparative. Les gestionnaires doivent être informés que, bien qu'il soit
impossible de connaître le temps exact qu'il faudra pour un projet d'analyse
comparative typique, une règle empirique est qu'une équipe de quatre ou cinq
personnes a besoin d'un tiers de son temps pendant 5 mois pour terminer un projet.
• Se concentrer sur les
métriques plutôt que sur les processus. Certaines entreprises concentrent leurs efforts
d'analyse comparative sur les objectifs de performance (mesures) plutôt que sur les
processus. Savoir qu'un concurrent a un rendement plus élevé sur ses actifs ne
signifie pas que sa seule performance devrait devenir la nouvelle cible (à moins qu'il
existe une compréhension de la façon dont le concurrent diffère dans l'utilisation de
ses actifs et qu'une évaluation de son processus révèle qu'il peut être émulé ou
dépassé).
• Ne pas positionner l'analyse comparative dans une stratégie plus large. L'analyse
comparative est l'un des nombreux outils de gestion de la qualité totale, tels que la
résolution de problèmes, l'amélioration des processus et la réingénierie des
processus, utilisés pour raccourcir le temps de cycle, réduire les coûts et minimiser les variations.
L'analyse comparative est compatible et complémentaire avec ces outils, et ils
doivent être utilisés ensemble pour une valeur maximale. • Mal comprendre
la mission, les buts et les objectifs de l'organisation. Toute activité d'analyse comparative
doit être lancée par la direction dans le cadre d'une stratégie globale visant à réaliser
la mission et la vision de l'organisation en atteignant d'abord les objectifs à court
terme, puis les objectifs à long terme. • En supposant que chaque projet nécessite
une visite sur site.
Des informations suffisantes sont souvent disponibles dans le domaine public, ce qui
rend inutile une visite du site. Cela accélère le processus d'analyse comparative et
réduit considérablement les coûts. • Défaut de surveiller les progrès. Une fois que
l'analyse comparative est
terminée pour un domaine spécifique ou que des repères de processus ont été établis
et que les changements de processus ont été mis en œuvre, les gestionnaires
doivent examiner les progrès de la mise en œuvre et les résultats.

La meilleure façon de résoudre ces problèmes est de prévenir leur apparition en planifiant
et en gérant soigneusement le projet dès le départ.
Cette liste peut être utilisée comme liste de contrôle pour évaluer les plans de projet ; si les
plans n'excluent pas clairement ces problèmes, alors les plans ne sont pas complets.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 8

Évaluation organisationnelle
Machine Translated by Google
Machine Translated by Google

état de rente de l'organisation par rapport à des buts ou objectifs spécifiques


Les évaluations
liés aux organisationnelles permettent
trois principaux groupes de comprendre
de parties prenantes le cur
: clients, actionnaires
et employés.

Évaluation de la culture de la qualité


Juran et Gryna (1993) définissent la culture qualité d'une organisation comme les
opinions, croyances, traditions et pratiques concernant la qualité. Bien que parfois
difficile à quantifier, la culture d'une organisation a un effet profond sur la qualité
produite par cette organisation. Sans une compréhension des aspects culturels de la
qualité, des améliorations significatives et durables des niveaux de qualité sont peu
probables.
Deux des moyens les plus courants d'évaluer la culture organisationnelle sont le
groupe de discussion et le questionnaire écrit. Les domaines abordés couvrent
généralement les attitudes, les perceptions et les activités au sein de l'organisation
qui ont un impact sur la qualité. En raison de la nature sensible de l'évaluation
culturelle, l'anonymat est généralement nécessaire. L'organisation doit développer
son propre ensemble de questions, car la génération de questions est une éducation en soi.
La technique de l'incident critique est une méthode courante pour élaborer des
questions qui produisent des résultats favorables. La technique de l'incident critique
consiste à sélectionner un petit échantillon représentatif (n ≈ 20) du groupe que vous
souhaitez sonder et à poser des questions ouvertes, telles que :

« Lesquelles des croyances, traditions et pratiques de notre organisation ont un


impact bénéfique sur la qualité ? »
« Lesquelles des croyances, traditions et pratiques de notre organisation ont un
impact négatif sur la qualité ? »

Les questions sont posées par des enquêteurs impartiaux et l'anonymat est
garanti aux répondants. Bien que les entretiens soient généralement menés en
personne ou par téléphone, des réponses écrites sont parfois obtenues.
L'ordre dans lequel les questions sont posées (bénéfique/préjudiciable) est randomisé
pour éviter les biais dans les réponses. Les enquêteurs ont pour instruction de ne pas

139
Machine Translated by Google

140 Planification intégrée

inciter le répondant de quelque manière que ce soit. Il est important que les réponses soient
enregistrées textuellement, en utilisant les propres mots du répondant. Les participants sont
priés de fournir autant de réponses que possible ; un groupe de 20 participants produira
généralement entre 80 et 100 réponses.
Les réponses fournissent généralement beaucoup d'informations. Lorsqu'elles sont
regroupées en catégories, les catégories peuvent être examinées pour glaner un aperçu
supplémentaire des thèmes communs. Les réponses et les catégories peuvent être utilisées
pour élaborer des éléments d'enquête valides (voir chap. 6) ou pour préparer les questions
des groupes de discussion. L'activité de suivi est la raison pour laquelle si peu de personnes
sont nécessaires à ce stade ­ la validité statistique est obtenue au cours de l'étape de l'enquête.
Les résultats de l'enquête sur la culture de la qualité seront utilisés pour comprendre
les forces et les faiblesses perçues de l'initiative de qualité actuelle. Il peut identifier les
sources de résistance au changement, ainsi que les frustrations liées au statu quo. Des
projets d'amélioration au niveau de l'entreprise peuvent être développés pour se concentrer
sur le changement spécifique de certains aspects de la culture de la qualité, ou plus
généralement sur la transformation de l'effort de qualité en une approche plus axée sur le
client.

Métriques organisationnelles
Les métriques organisationnelles, parfois appelées indicateurs de performance clés (KPI),
sont développées pour comprendre la santé globale d'une organisation.
Ils fournissent l'élément fondamental des tableaux de bord et des tableaux de bord
prospectifs, qui sont utilisés pour montrer rapidement les performances de l'organisation
par rapport au passé, à un objectif ou aux deux.
Le choix de la métrique n'est important que dans la mesure où la métrique est utilisée
pour guider le comportement ou établir une stratégie. Des paramètres mal choisis peuvent
conduire à un comportement sous­optimal s'ils éloignent les gens des objectifs de
l'organisation au lieu de les rapprocher. Joiner (1994) propose trois mesures de performance
à l'échelle du système : la satisfaction globale du client, le temps de cycle total et la qualité
du premier passage. Une mesure efficace pour quantifier la qualité de premier passage est
le coût total de la mauvaise qualité (voir la section Coût de la qualité). Une fois choisies, les
métriques doivent être communiquées aux membres de l'organisation.
Pour être utile, l'employé doit être en mesure d'influencer la métrique par le biais de sa
performance, et il doit être clair et précis comment la performance de l'employé influence la
métrique.
Rose (1995) énumère les attributs suivants d'une bonne métrique :

• Ils sont centrés sur le client et axés sur des indicateurs qui apportent de la valeur
aux clients, tels que la qualité du produit, la fiabilité du service et la rapidité de
livraison, ou sont associés à des processus de travail internes qui traitent de la
réduction des coûts du système, de la réduction des déchets, de la coordination et
du travail d'équipe, de l'innovation, et la satisfaction des clients. •Ils mesurent les

performances dans le temps, ce qui montre des tendances plutôt que des instantanés.
Machine Translated by Google

É valuation organisationnelle 141

•Ils fournissent des informations directes au niveau auquel ils sont appliqués. Aucun
autre traitement ou analyse n'est nécessaire pour déterminer la signification.

•Ils sont liés à la mission, aux stratégies et aux actions de l'organisation. Ils contribuent
à la direction et au contrôle de l'organisation. •Ils sont développés en collaboration
par des équipes de personnes qui fournissent, collectent, traitent et utilisent les données.

Les KPI traditionnels sont établis dans quatre grandes catégories (Kaplan et Norton,
1992) : axé sur le client, processus interne, apprentissage et croissance, et financier. Celles­
ci peuvent être évaluées comme suit (Pyzdek et Keller, 2010) :

Client. Les clients considèrent généralement quatre grandes catégories lors de l'évaluation
d'un fournisseur : la qualité, la rapidité, la performance et le service, et la valeur. Les
méthodes de communication client décrites dans la section précédente fourniront les
moyens de comprendre l'importance relative que la clientèle accorde à ces catégories,
ainsi que leurs attentes générales. Sur la base de ces commentaires, des objectifs internes
peuvent être définis et des mesures opérationnelles établies à partir des objectifs. Un
exemple est fourni dans le tableau 8.1.

Processus interne. Ce sont les mesures peut­être les plus familières au personnel
opérationnel ; cependant, dans ce cas, les mesures opérationnelles qui s'alignent fortement
sur les objectifs stratégiques sont les mieux adaptées. La recommandation de Joiner
concernant le temps de cycle total (c'est­à­dire le temps de traitement de la commande) et
la qualité du premier passage sont des indicateurs pertinents de la performance des processus internes.
L'efficacité du cycle de processus, calculée comme le temps à valeur ajoutée divisé par le
délai total, ou l'efficacité globale de l'équipement, sont des mesures pertinentes axées sur
le Lean pour évaluer les performances internes et l'utilisation des ressources.

But Métriques des candidats

Nous réduirons le temps nécessaire Temps moyen pour introduire un nouveau produit pour le mois ou le
pour introduire un nouveau produit de trimestre le plus récent
9 à 3 mois Nombre de nouveaux produits lancés au cours du dernier trimestre

Nous serons les meilleurs de l'industrie pour Pourcentage de livraisons à temps


une livraison à temps Meilleur pourcentage de livraison à temps de l'industrie divisé par
notre pourcentage de livraison à temps
Pourcentage de retards de livraison

Nous impliquerons intimement nos Nombre de clients dans l'équipe de conception (s)
clients dans la conception de notre prochain Nombre de suggestions de clients intégrées dans le nouveau
produit majeur design

Tableau 8.1 Définition des mesures opérationnelles à partir des objectifs


Machine Translated by Google

142 Planification intégrée

Apprentissage et croissance. Les mesures de cette catégorie peuvent se concentrer


sur le total des livrables (en dollars économisés) des projets d'amélioration continue,
les délais de développement de nouveaux produits ou services, les améliorations du
point de vue des employés ou de la culture de la qualité, les revenus ou la part de
marché associés au nouveau produit, etc.
Financier. De nombreuses mesures financières appropriées sont disponibles et
largement suivies, notamment les revenus, la rentabilité, la part de marché, etc. Le coût
de la qualité, discuté dans la section suivante, est également recommandé.

Coût de la qualité
L'historique de l'évaluation du coût de la qualité (parfois appelé coût de la mauvaise
qualité) remonte à la première édition du QC Handbook de Juran en 1951.
Aujourd'hui, les systèmes de comptabilité analytique de la qualité font partie de la
stratégie d'amélioration de la qualité de toute organisation moderne. En effet, la qualité de
la comptabilité analytique et du reporting fait partie de nombreuses normes de qualité. Les
systèmes de coût de la qualité aident la direction à planifier l'amélioration de la qualité en
identifiant les opportunités pour un meilleur retour sur investissement. Cependant, le
responsable qualité doit garder à l'esprit que les coûts de la qualité ne traitent que la moitié
de l'équation de la qualité. L'équation de la qualité stipule que la qualité consiste à faire
les bonnes choses et à ne pas faire les mauvaises choses. « Faire les bonnes choses »
implique de développer des caractéristiques de produits et de services qui satisfont ou
ravissent le client. « Ne pas faire les mauvaises choses » signifie éviter les défauts et
autres comportements qui causent l'insatisfaction des clients. Les coûts de la qualité ne
concernent que le dernier aspect de la qualité. Il est concevable qu'une entreprise puisse
réduire les coûts de qualité à zéro et continuer à faire faillite.
Le principe fondamental du coût de la qualité est que tout coût qui n'aurait pas été
dépensé si la qualité était parfaite est un coût de la qualité.
Cela inclut des coûts aussi évidents que la mise au rebut et la reprise, mais également de
nombreux coûts beaucoup moins évidents, tels que le coût de la commande pour
remplacer le matériel défectueux. Les entreprises de services supportent également des
coûts de qualité ; par exemple, un hôtel encourt un coût de qualité lorsque le service de
chambre livre un article manquant à un client. Plus précisément, les coûts de qualité sont
une mesure des coûts spécifiquement associés à la réalisation ou à la non­réalisation de
la qualité du produit ou du service, y compris toutes les exigences de produit ou de service
établies par l'entreprise et ses contrats avec les clients et la société.
Les exigences comprennent les spécifications marketing, les spécifications du produit
final et du processus, les bons de commande, les dessins techniques, les procédures de
l'entreprise, les instructions d'utilisation, les normes professionnelles ou industrielles, les
réglementations gouvernementales et tout autre document ou besoin du client pouvant
affecter la définition du produit ou du service. Plus précisément, les coûts de qualité sont
le total des coûts encourus par (a) l'investissement dans la prévention des non­conformités
aux exigences, (b) l'évaluation d'un produit ou d'un service pour la conformité aux
exigences, et (c) le non­ respect des exigences (voir Fig. 8.1).
Machine Translated by Google

É valuation organisationnelle 143

Coûts de prévention Les


coûts de toutes les activités spécifiquement conçues pour prévenir la mauvaise qualité des produits ou des services.
Les exemples sont les coûts de l'examen des nouveaux produits, de la planification de la qualité, des enquêtes sur
les capacités des fournisseurs, des évaluations des capacités des processus, des réunions de l'équipe d'amélioration
de la qualité, des projets d'amélioration de la qualité et de l'éducation et de la formation à la qualité.

Coûts d'évaluation Les


coûts associés à la mesure, l'évaluation ou l'audit des produits ou services pour assurer la conformité aux normes de
qualité et aux exigences de performance. Ceux­ci comprennent les coûts d'inspection/test à l'arrivée et à la source du
matériel acheté ; en cours et inspection/test final ; audits de produits, de processus ou de services ; étalonnage
d'équipements de mesure et d'essai; et les coûts des fournitures et matériaux associés.

Coûts de défaillance
Coûts résultant de produits ou de services non conformes aux exigences ou aux besoins du client/utilisateur. Les coûts
de défaillance sont divisés en catégories de coûts de défaillance internes et externes.

Coûts de défaillance interne


Coûts de défaillance survenant avant la livraison ou l'expédition du produit, ou la fourniture d'un service, au client. Les
exemples sont les coûts de mise au rebut, de reprise, de réinspection, de retest, d'examen du matériel et de déclassement.

Coûts de défaillance externe


Coûts de défaillance survenant après la livraison ou l'expédition du produit, et pendant ou après la fourniture d'un
service, au client. Les exemples sont les coûts de traitement des réclamations des clients, des retours des clients, des
demandes de garantie et des rappels de produits.

Coûts totaux de la qualité La


somme des coûts ci­dessus. Il représente la différence entre le coût réel d'un produit ou d'un service et ce que serait le
coût réduit s'il n'y avait aucune possibilité de service de qualité inférieure, de défaillance des produits ou de défauts de
fabrication.

Figure 8.1 Coûts de la qualité—description générale (Campanella, 1990, avec permission).

Pour la plupart des organisations, les coûts de qualité sont des coûts cachés. À moins
que des efforts spécifiques d'identification des coûts de qualité n'aient été entrepris, peu de
systèmes comptables incluent des dispositions pour identifier les coûts de qualité. De ce fait,
les coûts de qualité non mesurés ont tendance à augmenter. Une mauvaise qualité affecte
les entreprises de deux manières : des coûts plus élevés et une satisfaction client moindre.
La baisse de satisfaction crée une pression sur les prix et des ventes perdues, ce qui entraîne
une baisse des revenus. La combinaison de coûts plus élevés et de revenus plus faibles
entraîne finalement une crise qui peut menacer l'existence même de l'entreprise. Une
mesure rigoureuse du coût de la qualité est une technique permettant d'éviter qu'une telle
crise ne se produise. La figure 8.2 illustre le concept de coût caché.
L'objectif de tout système de coût de la qualité est de réduire les coûts de la qualité au
niveau pratique le plus bas. Juran et Gryna (1988) présentent ces coûts graphiquement
comme le montre la figure 8.3. Dans la figure, on peut voir que le coût de l'échec diminue à
mesure que les niveaux de qualité de conformité s'améliorent vers la perfection, tandis que
le coût de l'évaluation et de la prévention augmente. Il existe un certain niveau de qualité
cible "optimal" où la somme de la prévention, de l'évaluation et de l'échec
Machine Translated by Google

144 Planification intégrée

Garantie Coûts de
de reprise défaillance

de ferraille
couramment mesurés

Coûts
d'échec
Gestion du temps
réels
d'ingénierie Temps d'arrêt
en atelier et sur le terrain Coûts
Augmentation des stocks d'échec
Diminution de la capacité cachés
Problèmes de livraison
Commandes perdues

Figure 8.2 Coût caché de la qualité et effet multiplicateur (Campanella, 1990, avec
permission).

Coût total

Niveau de qualité optimal

Coût

Coût de la prévention
Coût d'échec

Qualité parfaite
Niveau de qualité

Figure 8.3 Modèle classique des coûts de qualité optimale (Juran, 1988,
avec permission).

les coûts sont au minimum. Les efforts visant à améliorer la qualité au­delà du niveau
optimal entraîneront une augmentation des coûts totaux de la qualité.
Juran a reconnu que, dans de nombreux cas, le modèle classique des coûts de
qualité optimale est défectueux. Il est courant de constater que les niveaux de qualité
peuvent être améliorés économiquement jusqu'à la perfection littérale. Par exemple,
des millions d'emboutis peuvent être produits pratiquement sans erreur à partir d'une
matrice d'emboutissage bien conçue et bien construite. Le modèle classique a créé un
état d'esprit selon lequel la perfection n'était pas rentable. Le nouveau modèle de coût
de qualité optimale intègre la possibilité de zéro défaut et est illustré à la Fig. 8.4.
Machine Translated by Google

É valuation organisationnelle 145

Coûts

totaux de la qualité
produit
bonne
unité
Coût
par
de

Coûts
d'échec

Coûts d'expertise et
de prévention

0 100

Qualité de conformité, %

Figure 8.4 Nouveau modèle de coûts de qualité optimale (Juran, 1988, avec permission).

Les coûts de qualité sont réduits en identifiant les causes profondes des problèmes de
qualité et en prenant des mesures pour éliminer ces causes. Les outils et techniques
décrits au Chap. 5 sont utiles dans cette entreprise. Le KAIZEN, la réingénierie et d'autres
approches d'amélioration continue sont couramment utilisés.

En règle générale, les coûts de qualité augmentent à mesure que le point de détection
remonte dans la chaîne de production et de distribution. Le coût le plus bas est
généralement obtenu lorsque les non­conformités sont évitées en premier lieu. Si des non­
conformités surviennent, il est généralement moins coûteux de les détecter dès que
possible après leur apparition. Au­delà de ce point, il y a une perte encourue à cause du
travail supplémentaire qui peut être perdu. Les coûts de qualité les plus élevés proviennent
des non­conformités détectées par les clients. En plus de la perte de remplacement ou de
réparation, une entreprise perd la clientèle et la réputation. Dans les cas extrêmes, des
litiges peuvent en résulter, ajoutant encore plus de coûts et de perte de clientèle.

Un autre avantage de la détection précoce est qu'elle fournit une rétroaction plus
significative pour aider à identifier les causes profondes. Le décalage temporel entre la
production et la panne sur le terrain rend très difficile la traçabilité de l'événement jusqu'à
l'état du processus qui l'a produit. Bien que le suivi des défaillances sur le terrain soit utile
pour évaluer de manière prospective un « correctif », il est généralement peu utile pour
évaluer rétrospectivement un problème.
Le service comptable est le principal responsable des questions comptables, y
compris le coût des systèmes qualité. Le service qualité
Machine Translated by Google

146 Planification intégrée

rôle dans le développement et la maintenance du système de coût de la qualité est de


fournir des conseils et un soutien au service comptable.
Le système de coût de la qualité est un sous­système intégré du système de
comptabilité analytique plus large. La terminologie, le format, etc. doivent être cohérents
entre le coût du système qualité et le système plus large pour accélérer le processus
d'apprentissage et réduire la confusion. Le coût idéal d'un système de comptabilité de la
qualité se contentera d'agréger les coûts de la qualité pour améliorer leur visibilité auprès
de la direction et faciliter les efforts visant à les réduire. Pour la plupart des entreprises,
cette tâche relève de la compétence du bureau du contrôleur.
La mesure des coûts de qualité n'a pas besoin d'être précise au centime près pour
être efficace. Le but de la mesure de ces coûts est de fournir des lignes directrices
générales pour la prise de décision et l'action de la direction. La nature même du coût de
la qualité rend une telle précision impossible. Dans certains cas, il ne sera possible
d'obtenir que des estimations approximatives périodiques de coûts tels que la perte de
clientèle, le coût des dommages à la réputation de l'entreprise, etc.
Ces estimations peuvent être obtenues à l'aide d'audits spéciaux, d'échantillonnages
statistiques et d'autres études de marché. Ces activités peuvent être menées conjointement
par des équipes de marketing, de comptabilité et de qualité. Étant donné que ces coûts
sont souvent énormes, ces estimations doivent être obtenues. Cependant, il n'est pas
nécessaire de les obtenir tous les mois. Des études annuelles suffisent généralement à
indiquer les tendances de ces mesures.
La gestion des coûts de la qualité aide les entreprises à établir des priorités pour les
mesures correctives. Sans de telles directives, il est probable que les entreprises alloueront
mal leurs ressources, obtenant ainsi un retour sur investissement moins qu'optimal. Si de
telles expériences se répètent fréquemment, l'organisation peut même remettre en
question ou abandonner ses efforts de réduction des coûts de qualité. L'outil le plus
souvent utilisé pour établir des priorités est l'analyse de Pareto. Généralement utilisée au
début de l'effort de réduction des coûts de qualité, l'analyse de Pareto est utilisée pour
évaluer les coûts d'échec afin d'identifier les «quelques domaines vitaux» qui nécessitent
le plus d'attention. Les coûts de défaillance documentés, en particulier les coûts de
défaillance externes, sous­estiment presque certainement le coût réel et sont très visibles
pour le client. L'analyse de Pareto est associée à d'autres outils de qualité, tels que les
cartes de contrôle et les diagrammes de cause à effet, pour identifier les causes profondes des problèmes de
Bien sûr, l'analyste doit constamment garder à l'esprit le fait que la plupart des coûts sont
cachés. L'analyse de Pareto ne peut pas être effectuée efficacement tant que les coûts
cachés n'ont pas été identifiés. Analyser uniquement les données les plus faciles à obtenir
est un exemple de l'approche d'analyse GIGO (garbage­in, garbage­out).

Après identification et maîtrise des coûts de défaillance les plus significatifs, les coûts
d'expertise sont analysés. Dépensons­nous trop en évaluation compte tenu des niveaux
inférieurs des coûts d'échec ? Ici, l'analyse des coûts de la qualité doit être complétée par
une analyse des risques pour s'assurer que les niveaux de coût d'échec et d'évaluation
sont équilibrés. L'analyse des coûts d'expertise est également utilisée pour justifier les
dépenses de prévention.
Machine Translated by Google

É valuation organisationnelle 147

Les coûts de prévention de la qualité sont des investissements dans la découverte, l'incorporation et
le maintien de disciplines de prévention des défauts pour toutes les opérations affectant la qualité du
produit ou du service (Campanella, 1990). En tant que telle, la prévention doit être appliquée correctement
et non de manière uniforme.
Une grande amélioration a été démontrée grâce à la réaffectation des efforts de prévention des zones
ayant peu d'effet vers des zones où cela rapporte vraiment; encore une fois, le principe de Pareto en
action. Des exemples de coûts de qualité catégorisés sont fournis dans le tableau 8.2.

L'analyse des coûts de la qualité nécessite une base appropriée, de sorte que le coût de la qualité
soit analysé en pourcentage d'une base appropriée : généralement, une base appropriée est liée aux coûts
de la qualité d'une manière significative, bien connue des responsables qui examineront les rapports sur
les coûts de la qualité , et une mesure du volume d'affaires dans la zone où les mesures du coût de la
qualité doivent être appliquées.
Plusieurs bases sont souvent nécessaires pour obtenir une image complète de l'ampleur relative des
coûts de qualité. Certaines bases couramment utilisées sont (Campanella, 1990, p. 26):

• Une base de main­d'œuvre (telle que la main­d'œuvre totale, la main­d'œuvre directe ou la main­

d'œuvre appliquée) • Une base de coûts (telle que le coût d'atelier, le coût d'exploitation ou le total des matériaux et
travail)

• Une base de ventes (telle que les ventes nettes facturées ou la valeur des ventes de produits finis)
marchandises)

• Une base unitaire (telle que le nombre d'unités produites ou le volume


de sortie)

Alors que les dollars réels dépensés sont généralement le meilleur indicateur pour déterminer où les
projets d'amélioration de la qualité auront le plus grand impact sur les bénéfices et où des mesures
correctives doivent être prises, à moins que le taux de production ne soit relativement constant, cela ne
fournira pas une indication claire des tendances d'amélioration des coûts de la qualité. . Étant donné que
l'objectif du programme de coût de la qualité est l'amélioration au fil du temps, il est nécessaire d'ajuster
les données pour d'autres changements liés au temps tels que le taux de production, l'inflation, etc. Le
coût total de la qualité par rapport à une base applicable donne un indice qui peut être tracés et analysés
à l'aide de cartes de contrôle statistique.

Pour les analyses et la planification à long terme, les ventes nettes sont la base la plus souvent
utilisée pour les présentations à la haute direction (Campanella, 1990, p. 24). Si les ventes sont relativement
constantes dans le temps, l'analyse du coût de la qualité peut être effectuée sur des périodes de temps
relativement courtes. Dans d'autres industries, ce chiffre doit être calculé sur un intervalle de temps plus
long pour lisser les fluctuations importantes de la base des ventes. Par exemple, dans des industries telles
que la construction navale ou la fabrication de satellites, certaines périodes peuvent ne pas avoir de
livraisons, tandis que d'autres ont des montants importants. Il est important que les coûts de qualité
encourus soient liés aux ventes de la même période. Considérez les ventes comme une « opportunité »
pour que les coûts de qualité se produisent.
Machine Translated by Google

148 Planification intégrée

Coûts de prévention

Marketing/client/utilisateur Recherche en marketing; enquêtes/cliniques sur la perception des clients/utilisateurs ;


examen des contrats/documents

Développement de produits/ Concevoir des revues d'avancement de la qualité ; activités d'aide à la conception; test de
services/design qualification de la conception du produit ; qualification en conception de services ; essais sur le terrain

Achat Revues des fournisseurs ; évaluation des fournisseurs ; les données techniques du bon de commande ;

planification de la qualité des fournisseurs

Opérations (fabrication ou service) Validation des processus opérationnels ; planification de la qualité des
opérations (y compris la conception et le développement d'équipements de
mesure et de contrôle de la qualité); les opérations soutiennent la planification
de la qualité ; éducation de qualité des opérateurs ; opérateur spc/contrôle de processus

Gestion de la qualité Salaires administratifs ; dépenses administratives; planification de programmes de


qualité; des rapports de performance de qualité ; éducation de qualité; Amelioration
de la qualite; audits de qualité; autres frais de prévention

Les coûts d'évaluation

Achat Inspections et essais à la réception ou à l'entrée ; équipement de mesure;


qualification du produit du fournisseur ; programmes d'inspection et de contrôle à
la source

Opérations (fabrication ou service) Inspections, tests, audits des opérations planifiées (y compris vérification de la
main­d'œuvre ; audits de la qualité des produits ou des services ; matériel
d'inspection et d'essai) ; inspections et tests d'installation ; épreuves spéciales;
mesures de contrôle de processus ; soutien de laboratoire ; équipement
de mesure (y compris les dotations aux amortissements, les frais d'équipement
de mesure, la main­d'œuvre d'entretien et d'étalonnage); mentions et
certifications extérieures

Frais d'expertise externe Évaluation des performances sur le terrain ; évaluations de produits spéciaux ;
évaluation du stock terrain et des pièces de rechange

Examen des tests et des données d'inspection Y compris diverses évaluations de la qualité
Coûts de défaillance interne

Conception produit/service (interne) Concevoir des actions correctives ; reprise en raison de modifications de conception ; rebut en
raison de modifications de conception

Achat Coûts d'élimination des rejets de matériel acheté ; les coûts de remplacement du
matériel acheté ; action corrective du fournisseur ; reprise des rebuts fournisseurs ;
pertes matérielles incontrôlées

Opérations (produit ou service) Coûts de l'examen du matériel et des mesures correctives (y compris les coûts
d'élimination ; les coûts de dépannage ou d'analyse des défaillances
(opérations ); les coûts de soutien aux enquêtes ; les mesures correctives
des opérations ); coûts de reprise et de réparation des opérations ; frais de
réinspection/retest ; opérations supplémentaires ; coûts de ferraille
(opérations); produit ou service final déclassé ; échec interne pertes de main­d'œuvre
Autres coûts de défaillance interne Y compris diverses évaluations de la qualité
Coûts des défaillances externes Enquête sur les réclamations/service client ou utilisateur ; marchandises retournées; les frais
de rénovation ; frais de rappel; demandes de garantie ; les frais de responsabilité; pénalités ;
bonne volonté client/utilisateur ; ventes perdues ; autres coûts de défaillance externes

Tableau 8.2 Exemples de coût de la qualité (Hagan, 1990)


Machine Translated by Google

É valuation organisationnelle 149

Quelques exemples de coût des bases de qualité sont (Campanella, 1990):

• Coûts des défaillances internes en pourcentage des coûts de production


totaux • Coûts des défaillances externes en pourcentage moyen des
ventes nettes • Coûts d'évaluation des achats en pourcentage du total acheté
coût matériel

• Coûts d'évaluation des opérations en pourcentage des coûts de production totaux •


Coûts totaux de la qualité en pourcentage des coûts de production
Machine Translated by Google
Machine Translated by Google

PARTIE III

Contrôle de processus
Chapitre 9
Processus de quantification
Variation

Chapitre 10
Audits Qualité
Chapitre 11
Chaîne d'approvisionnement

Gestion
Machine Translated by Google
Machine Translated by Google

CHAPITRE 9

Processus de quantification

Variation
Machine Translated by Google
Machine Translated by Google

Un système de qualité réussi abordera plusieurs aspects du contrôle


des processus et des produits. Des contrôles efficaces ne peuvent être
Le établis qu'après avoir compris la nature fondamentale de la variation à
contrôlée.

Statistiques descriptives
En règle générale, les statistiques descriptives sont calculées pour décrire les
propriétés des distributions empiriques, c'est­à­dire les distributions de données à
partir d'échantillons. Il y a trois domaines d'intérêt : l'emplacement ou la tendance
centrale de la distribution, sa dispersion et sa forme. L'analyste peut également
souhaiter avoir une idée de l'ampleur de l'erreur possible dans les estimations
statistiques. Le tableau 9.1 décrit certaines des mesures statistiques descriptives les plus courantes.
Les figures 9.1 à 9.4 illustrent des distributions avec différentes statistiques
descriptives.
De nombreux lecteurs connaissent peut­être ces statistiques tirées de leur
programme d'études collégiales. Ils sont utilisés pour définir des intervalles de confiance
et pour accepter ou rejeter des tests statistiques via des tests d'hypothèses. Ces tests
dépendent quelque peu de la distribution spécifique de la population à partir de laquelle
les échantillons sont prélevés.

Études énumératives et analytiques


Deming (1975) définit les études énumératives et analytiques comme suit :

Étude énumérative. Une étude dans laquelle une action sera entreprise sur
l'univers.
Etude analytique. Une étude dans laquelle on agira sur un processus pour
améliorer la performance dans le futur.

Le terme univers est en quelque sorte synonyme de population : l'ensemble


du groupe d'intérêt. Par exemple, les électeurs attendus lors d'une élection
spécifique pourraient constituer une population d'intérêt.

155
Machine Translated by Google

156 Contrôle de processus

Goûter
Statistique Description Équation/Symbole
Mesures de localisation

Population Le centre de gravité ou N

moyenne centroïde de la distribution µ= ∑1 xii


N = je 1

où N est la taille de la population et x est une observation

Goûter Le centre de gravité ou n


1
moyenne centroïde d'un échantillon d'une X =
n
∑ xii
je = 1
distribution

où n est la taille de l'échantillon et x est une


observation
Médian Le point de partage 50/50. x
Précisément la moitié de l'ensemble de
données sera au­dessus de la médiane et
l'autre moitié en dessous.

Mode La valeur qui apparaît le plus Aucun


souvent. Si les données sont groupées,
le mode est le groupe avec la fréquence
la plus élevée.

Mesures de dispersion
Gamme La distance entre le R = Le plus grand ­ Le plus petit
exemples de valeurs extrêmes
Norme Une mesure de la variation N 2
démographique autour de la moyenne, dans les mêmes = − ∑ j= 1 ( xxj _ )
σx
déviation unités que les données d'origine N

Échantillon Une mesure de la variation n 2


xxj − )
standard autour de la moyenne, dans les mêmes = ∑ = j1 (
sX
déviation unités que les données d'origine n − 1

Mesures de forme
Asymétrie Une mesure d'asymétrie. Zéro indique N
− − xxj−
[( NN
1 )( )3
une symétrie parfaite ; la distribution k = ( 2 )] ∑ 3
N j= 1_
normale a une asymétrie de zéro. X

Une asymétrie positive indique que


la «queue» de la distribution est
plus étirée du côté au­dessus de la
moyenne. Une asymétrie négative
indique que la queue de la distribution
est plus étirée du côté inférieur à la
moyenne.

Aplatissement L'aplatissement est une mesure N 4



NN
( 1)+ ()xxj
de la planéité de la distribution. Aplatissement = ∑ 4
Distributions à queue plus lourde NN−
( 1 )(

2 )( N

3)j =
1_ X

2
ont des mesures d'aplatissement plus importantes. 3 (N 1 ) +

La distribution normale a un kurtosis
− −
(N 2 )( N 3)
de 3.

Tableau 9.1 Statistiques descriptives communes


Machine Translated by Google

Q uantification des variations de processus 157

Mode
Moyenne

Moyenne = Médiane = Mode


Asymétrie = 0 Asymétrie = +1

Figure 9.1 Illustration de la moyenne, de la médiane et du mode.

µ = 0, σ = 1

µ = 0, σ = 2

Figure 9.2 Illustration de sigma.

K = +1 K=0 K = –1

Figure 9.3 Illustration de l'asymétrie.

β2 = 4,5
β2 = 3,0

β2 = 1,0

Figure 9.4 Illustration de l'aplatissement.


Machine Translated by Google

158 Contrôle de processus

Considération Étude énumérative Étude analytique


But Estimation des paramètres Prédiction

Se concentrer Univers Processus

Mode d'accès Comptes, statistiques Modèles du processus (p.


ex. organigrammes, causes et effets,
modèles mathématiques)

Principale source Variation d'échantillonnage Extrapolation dans le futur


d'incertitude

Incertitude quantifiable ? Oui Non

Environnement de l'étude Statique Dynamique

Tableau 9.2 Aspects importants des études analytiques

Dans une étude analytique, l'accent est mis sur un processus et sur la manière de l'améliorer.
L'accent est mis sur l' avenir. Ainsi, contrairement aux études énumératives, qui font des inférences
sur l'univers effectivement étudié, les études analytiques s'intéressent à un univers qui reste à
produire. Le tableau 9.2 compare les études analytiques aux études énumératives (Provost,
1988).
En ce qui concerne l'analyse des processus, Deming (1986) commente :

L'analyse de la variance, les tests t, les intervalles de confiance et les autres techniques
statistiques enseignées dans les livres, aussi intéressantes soient­elles, sont inappropriées
parce qu'elles ne fournissent aucune base de prédiction et parce qu'elles enterrent
l'information contenue dans l'ordre de production.

Dans les organisations, les processus sont exécutés comme des activités répétables,
répétées maintes et maintes fois. L'élément de temps est perdu dans les outils d'énumération
des intervalles de confiance et des tests d'hypothèses. Bien qu'ils soient utiles pour analyser les
données à court terme d'une expérience planifiée, par exemple, ces outils d'énumération
regroupent la variation qui se produit au fil du temps en une seule estimation de la variation de
l'échantillon.
C'est un problème persistant et malheureux avec l'utilisation des histogrammes.
Apparemment, la plupart des praticiens apprennent que les histogrammes sont utiles pour montrer
graphiquement la forme des données, ce qui est fondamentalement vrai.
Malheureusement, la forme des données et la forme attendue du processus sont complètement
différentes si le processus n'est pas stable. Un exemple en sera montré prochainement.

Échantillonnage d'acceptation
L'échantillonnage pour acceptation est une technique traditionnelle de contrôle de la qualité qui
est appliquée à des lots discrets ou à des lots d'un produit. (Un lot est une collection d'unités
physiques ; le terme lot est généralement appliqué aux matériaux chimiques).
Le lot ou le lot est généralement présenté au service d'inspection par un fournisseur ou un service
de production. Le service contrôle
Machine Translated by Google

Q uantification des variations de processus 159

inspecte ensuite un échantillon du lot ou du lot et, sur la base des résultats de l'inspection, détermine
l'acceptabilité du lot ou du lot. Les schémas d'échantillonnage pour acceptation se composent
généralement de trois éléments :

• Le plan d'échantillonnage. Combien d'unités doivent être inspectées ? Qu'est­ce que


les critères d'acceptation?
• L'action à entreprendre sur le lot ou le lot en cours. Les actions incluent accepter, trier, mettre

au rebut, retravailler, rétrograder, retourner au fournisseur, etc. • Action à

entreprendre à l'avenir. Les actions futures incluent des options telles que le passage à un
échantillonnage réduit ou renforcé, le passage à une inspection à 100 %, l'arrêt du
processus, etc.

Les méthodes d'échantillonnage d'acceptation sont généralement basées sur ANSI/ASQ Z1.4
(anciennement MIL­STD 105E), ou des variantes du plan connues sous le nom de tables
d'échantillonnage Dodge­Romig.
Ces plans d'échantillonnage pour acceptation n'ont absolument pas leur place dans une
organisation qualité moderne. Ils doivent être rejetés en bonne et due forme par le professionnel de
la qualité. Les plans d'échantillonnage sont fondamentalement erronés en supposant que les
échantillons proviennent d'une population homogène (c'est­à­dire caractérisée par une distribution
statistique unique), alors qu'il n'y a aucune preuve que les échantillons ont été tirés d'un processus
stable (la seule situation dans laquelle les échantillons proviendront d'une distribution unique).
Lorsqu'il est appliqué à un processus instable, la fiabilité du plan d'échantillonnage pour acceptation
est erronée et en fait imprévisible (puisque, par définition, la sortie d'un processus instable est
imprévisible).
Si un processus est en production continue, Deming (1986) a montré qu'il est préférable d'utiliser
une carte p (une carte de contrôle discutée dans la section suivante) pour le contrôle du processus
que d'appliquer un plan d'échantillonnage pour acceptation. Sur la base de la carte p stable, vous
pouvez déterminer la fraction moyenne de processus défectueux, à partir de laquelle vous pouvez
déterminer s'il faut trier la sortie ou l'expédier en appliquant la règle du tout ou rien de Deming :

Si p < K1 /K2 alors expédier, sinon trier

où K1 est le coût d'inspection d'une pièce et K2 est le coût d'expédition d'une pièce défectueuse, y
compris la clientèle perdue. Par exemple, si K1 = 1 $ et K2 = 100 $, la sortie d'un processus avec
une fraction moyenne de défauts inférieure à 1 % serait expédiée sans inspection supplémentaire ; si
la moyenne du processus était de 1 % ou plus, la sortie serait triée.

Notez que cette discussion ne s'applique pas aux défauts critiques ou aux défectueux critiques.
L'échantillonnage des défauts critiques ou défectueux est effectué uniquement pour confirmer qu'une
inspection ou un test précédent à 100 % a été efficace.
Comme le montre la règle de Deming, les alternatives sont l'absence d'inspection, l'inspection
à 100 % ou l'échantillonnage et l'analyse à l'aide d'une carte de contrôle statistique des processus.
Les programmes des fournisseurs doivent mettre l'accent sur la nécessité du contrôle des processus
comme condition de vente, comme nous le verrons plus loin dans le chapitre.
Machine Translated by Google

160 Contrôle de processus

Cartes de contrôle statistique


Dans son livre phare de 1931, Economic Control of Quality of Manufacturing,
Shewhart a décrit l'expérience suivante :

Écrivez la lettre « a » sur une feuille de papier. Faites maintenant un autre a comme le premier,
puis un autre et un autre jusqu'à ce que vous ayez une série de a (a, a, a, ...).
Vous essayez de faire en sorte que tous les a soient identiques, mais vous ne le faites pas ; vous
ne pouvez pas. Vous êtes prêt à accepter cela comme un fait empiriquement établi. Mais qu'en
est­il? Voyons ce que cela signifie par rapport au contrôle. Pourquoi ne pouvons­nous pas faire
une chose simple comme faire en sorte que tous les a soient identiques ? Votre réponse conduit
à une généralisation que nous sommes peut­être tous prêts à accepter. C'est qu'il existe de
nombreuses causes de variabilité parmi les a : le papier n'était pas lisse, la mine du crayon n'était
pas uniforme, et la variabilité inévitable de votre environnement extérieur a réagi sur vous pour
introduire une variation dans les a. Mais sont­ce là les seules causes de variabilité des a ?
Probablement pas.
Nous acceptons nos limites humaines et disons qu'il y a probablement de nombreux autres
facteurs. Si nous pouvions seulement nommer toutes les raisons pour lesquelles nous ne
pouvons pas rendre les a identiques, nous aurions assurément une meilleure compréhension
d'une certaine partie de la nature que nous n'en avons actuellement. Bien sûr, cette conception
de ce que signifie être capable de faire ce que nous voulons faire n'est pas nouvelle ; elle
n'appartient exclusivement à aucun domaine de la pensée humaine ; c'est communément admis.
Le point à souligner dans cette illustration simple est que nous sommes limités à faire ce que
nous voulons faire ; que faire ce qu'on se propose de faire, même dans une chose aussi simple
que de faire des a pareils, exige des connaissances presque infinies comparées à celles que
nous possédons maintenant. Il s'ensuit donc que puisque nous sommes ainsi disposés à accepter
comme axiomatique que nous ne pouvons pas faire ce que nous voulons faire et que nous ne
pouvons pas espérer comprendre pourquoi nous ne le pouvons pas, que nous devons également
accepter comme axiomatique qu'une qualité contrôlée ne sera pas une qualité constante. Au lieu
de cela, une qualité contrôlée doit être une qualité variable. C'est la première caractéristique.
Mais revenons aux résultats de l'expérience sur les a et nous en apprendrons davantage sur
le contrôle. Vos a sont différents de mes a; il y a quelque chose dans vos a qui les rend vôtres et
quelque chose dans mes a qui les rend miens. Certes, tous vos a ne se ressemblent pas. Tous
mes a ne se ressemblent pas non plus. Chaque groupe de a varie dans une certaine plage et
pourtant chaque groupe se distingue des autres. Cette variabilité distincte et, pour ainsi dire,
constante dans certaines limites est la deuxième caractéristique du contrôle.

Shewhart poursuit en définissant le contrôle :

Un phénomène sera dit maîtrisé lorsque, grâce à l'utilisation de l'expérience passée, nous
pouvons prédire, au moins dans certaines limites, comment le phénomène devrait évoluer dans
le futur. Ici, il est entendu que la prédiction dans les limites signifie que nous pouvons énoncer,
au moins approximativement, la probabilité que le phénomène observé tombe dans les limites
données.
Machine Translated by Google

Q uantification des variations de processus 161

Le point critique de cette définition est que le contrôle n'est pas défini comme l'absence totale
de variation. Le contrôle est simplement un état où toute variation est une variation prévisible.
Dans toutes les formes de prédiction, il y a un élément de hasard. Toute cause de variation
inconnue est appelée cause fortuite. Si l'influence d'une cause fortuite particulière est très faible
et si le nombre de causes fortuites de variation est très grand et relativement constant, nous
avons une situation où la variation est prévisible dans certaines limites. Vous pouvez voir à partir
de notre définition ci­dessus qu'un tel système est considéré comme un système contrôlé. Deming
utilise le terme « cause commune » plutôt que « cause fortuite », et nous utiliserons le terme
« cause commune » de Deming car il est le plus utilisé.

Un exemple d'un tel système contrôlé pourrait être la production et la distribution de pêches.
Si vous alliez dans un verger vers un pêcher particulier au bon moment de l'année, vous trouveriez
un arbre chargé de pêchers (avec un peu de chance). Le poids des pêches variera. Cependant,
si vous pesiez chaque pêche sur l'arbre, vous remarqueriez probablement qu'il y avait un modèle
distinct pour les poids. En fait, si vous dessiniez un petit échantillon aléatoire de, disons, 25
pêches, vous pourriez probablement prédire le poids de ces pêches restant sur l'arbre. Cette
prévisibilité est l'essence même d'un phénomène maîtrisé. Le nombre de causes communes qui
expliquent la variation du poids des pêches est astronomique, mais relativement constant.

Un système constant de causes communes aboutit à un phénomène contrôlé.


Deming a démontré les principes de SPC avec son expérience Red Bead, qu'il menait
régulièrement lors de ses séminaires. Dans cette expérience, il a utilisé un seau de perles ou de
billes. La plupart des perles étaient blanches; cependant, un petit pourcentage (environ 10 %) de
perles rouges ont été soigneusement mélangées avec les perles blanches dans le seau. Les
étudiants se sont portés volontaires pour être des ouvriers du processus, qui plongeaient une
palette d'échantillons dans le seau et produisaient la «production» d'une journée de 50 perles
pour la White Bead Company. Un autre étudiant se porterait volontaire pour être inspecteur.
L'inspecteur a compté le nombre de perles blanches dans la production quotidienne de chaque
opérateur. Les perles blanches représentaient une production utilisable qui pouvait être vendue
aux clients de White Bead Company, tandis que les perles rouges étaient de la ferraille.

Ces résultats étaient ensuite signalés à un responsable, qui châtiait invariablement les opérateurs
pour un nombre élevé de perles rouges. Si la production de l'opératrice s'améliorait sur
l'échantillon suivant, elle était récompensée ; si la production de perles blanches diminuait, plus
châtiant.
Bien sûr, la plupart des observateurs dans le public riaient de bon cœur des actions de la
direction, étant donné que chaque lot de production n'était qu'un plongeon dans un seau contenant
un pourcentage fixe de perles rouges. C'était la beauté de la démonstration, et Deming établirait
l'analogie avec les processus commerciaux généraux, où la direction châtierait les employés pour
des variations de processus qui étaient largement hors de leur contrôle. C'est­à­dire que la
plupart des employés opérationnels n'ont aucune implication dans la conception de leur procédé,
les qualifications de leurs fournisseurs, les spécifications, etc.
Machine Translated by Google

162 Contrôle de processus

Expérience de perles rouges


Échantillon six = 50
0,24
UCL = 0,217
0,20

0,16

0,12
Proportion

PCL = 0,094
0,08

0,04

0,00 LCL = 0,000

Jan Mar PeutJuilSep Nov Jan Mar PeutJuilSep Nov Jan Mar PeutJuilSep Nov Jan Mar

Figure 9.5 Exemple de carte de contrôle de l'expérience de la perle rouge de Deming.

Un graphique de contrôle du « taux d'erreur » typique de la perle rouge est illustré à la Fig. 9.5.
La carte de contrôle montre la variation entre les observations de processus : chaque trempage
dans le seau a produit un pourcentage différent de billes rouges. Du point de vue de l'analyse des
processus, le processus a­t­il changé ?
La carte de contrôle comprend des lignes intitulées UCL (un acronyme pour limite de contrôle
supérieure) et LCL (pour limite de contrôle inférieure). Ces limites de contrôle sont calculées sur la
base des statistiques des données et fournissent les limites attendues du processus. Les limites de
contrôle dans cet exemple indiquent qu'entre 0 et 11 billes rouges (0 et 22 pour cent) doivent être
attendues dans chaque échantillon de 50 billes.

Ainsi, les limites de contrôle pour ce processus stable fournissent un moyen de prédire les
performances futures du processus. Considérez s'il s'agissait du taux d'erreur d'un processus clé.
La prévision de ses performances futures faciliterait le processus de budgétisation ou l'allocation
générale des ressources nécessaires pour répondre aux exigences opérationnelles compte tenu du
gaspillage, ou peut­être fournirait­elle simplement une justification économique pour l'amélioration
des processus.
La figure 9.5 démontre également une prémisse fondamentale de l'analyse des processus : la
variation existe dans les processus, tout comme Shewhart l'a décrit dans son exemple d'écriture.
Les valeurs tracées dans la figure varient d'environ 3 à 20 %. Si ces données représentaient le taux
d'erreur d'un processus clé de votre organisation, est­ce que quelqu'un se demanderait pourquoi le
processus a "sauté" à 20 % ? Insisteraient­ils pour que quelqu'un enquête et détermine ce qui s'est
passé pour que le taux d'erreur de processus augmente si considérablement, alors que les deux
mois précédents étaient de 4 % et 5 % ? Lorsqu'il est tombé le mois suivant à 0,04, féliciteraient­ils
les gens pour leurs efforts ou se féliciteraient­ils avec suffisance d'avoir éteint le feu ?

Chacune de ces réactions devrait être accueillie avec le même amusement que dans
l'expérience Red Bead de Deming. La carte de contrôle indique clairement que
Machine Translated by Google

Q uantification des variations de processus 163

le processus n'a pas changé : il est stable ; il est sous contrôle statistique. Personne n'a changé
le seau : c'est le même seau, avec le même pourcentage de perles rouges.

Inutile de dire que tous les phénomènes ne découlent pas de systèmes constants de causes
communes. Parfois, la variation est causée par une source de variation qui ne fait pas partie du
système constant. Ces sources de variation ont été qualifiées de causes attribuables par
Shewhart ; Deming les appelle des causes spéciales de variation. L'expérience montre que des
causes particulières de variation peuvent généralement être trouvées et éliminées.

La règle de base du contrôle statistique des processus est la suivante :

La variation par rapport à une cause commune est révélatrice du système. Changer la
quantité de variation de cause commune nécessite des changements fondamentaux au
système lui­même. Les causes particulières de variation peuvent être identifiées par la carte
de contrôle et souvent rapidement éliminées.

La carte de contrôle de la Fig. 9.5 illustre le besoin de méthodes statistiques pour déterminer
le type de variation. Les cartes de contrôle répondent à la question : Ces variations sont­elles
intégrées au système ou indiquent­elles un changement dans le système ?

La variation entre les limites de contrôle désignées par les lignes UCL et LCL est considérée
comme une variation par rapport au système de cause commune. Toute variation au­delà de ces
limites est associée à des causes particulières de variation.
Tout système ne présentant qu'une variation de cause commune est considéré comme contrôlé
statistiquement. Il faut noter que les limites de contrôle ne sont pas définies par la direction ou les
clients : elles sont calculées à partir des données en utilisant la théorie statistique. Une carte de
contrôle est un outil pratique qui fournit une définition opérationnelle d'une cause spéciale.
Autrement dit, nous ne pouvons pas déterminer quelles causes de variation dans le processus
sont des causes spéciales tant que la carte de contrôle ne les identifie pas comme telles.

Il existe deux grandes catégories de cartes de contrôle : celles à utiliser avec des données
variables ou continues (par exemple, des mesures) et celles à utiliser avec des données d'attributs
(par exemple, des comptages).
La base de toutes les cartes de contrôle est le sous­groupe rationnel. Chaque point tracé sur
le graphique contient les données d'un seul sous­groupe. Les sous­groupes sont considérés
comme des sous­groupes rationnels si « tous les items sont produits dans des conditions où
seuls des effets aléatoires sont responsables de la variation observée » (Nelson, 1988). Nous
formons souvent des sous­groupes rationnels en utilisant des éléments consécutifs du processus
ou des éléments représentatifs du processus pendant une courte période. Cela réduit la
probabilité que des causes particulières de variation se produisent au sein du sous­groupe. La
variation intra­sous­groupe est utilisée pour définir les limites de contrôle, qui fournissent notre
estimation de la variation de cause commune dans le processus (c'est­à­dire la variation à long
terme entre les sous­groupes), il est donc important d'exclure les causes particulières de variation
dans cette estimation.
Machine Translated by Google

164 Contrôle de processus

La définition des limites de contrôle (c'est­à­dire la variation future attendue dans la statistique
tracée) à l'aide de la variation intra­sous­groupe implique que la variation à court terme est utilisée
pour prédire la variation à long terme attendue. Il s'agit d'une définition parfaite de la stabilité du
processus : si la variation à court terme peut être utilisée pour prédire la variation à plus long terme,
alors le processus est stable (c'est­à­dire sous contrôle statistique). Notez le net contraste entre cette
approche et l' approche d'échantillonnage aléatoire utilisée pour les méthodes statistiques
énumératives, où la variation à court terme est regroupée avec la variation à plus long terme pour
calculer un écart type d'échantillon.

Les sous­groupes rationnels ont les propriétés suivantes (Keller, 2011b) :

1. Les observations au sein du sous­groupe sont indépendantes, ce qui implique qu'aucune


des observations n'influence ou ne résulte d'une autre. Lorsque les observations dépendent
les unes des autres, le processus a une corrélation automatique ou une corrélation en
série (ces termes signifient la même chose), ce qui peut entraîner une faible variation au
sein des sous­groupes par rapport à la variation entre les sous­groupes. Voici des exemples
de processus influencés par l'autocorrélation : • Processus chimiques. La température dans
un lot de bière dépendra probablement de la

température 5 minutes plus tôt. La corrélation automatique diminue avec le temps, de sorte
que la température une heure plus tard peut être moins dépendante. • Processus de
service. Le temps d'attente (c'est­à­dire le temps dans la file d'attente) d'un client donné
à la caisse de l'épicerie est susceptible

de dépendre quelque peu du temps d'attente du client immédiatement devant, et peut­être


du client deux ou trois places devant. Le dernier client en ligne ne peut pas être servi
tant que les autres ne sont pas terminés, de sorte que leurs temps d'attente dépendent.

• Fabrication de pièces discrètes. Lorsque des contrôles de rétroaction sont utilisés pour
contrôler un processus automatisé, cela entraîne une dépendance puisque le processus
s'ajuste en fonction de ces mesures antérieures.

2. Les observations au sein d'un sous­groupe proviennent d'un seul processus stable. Il a été
mentionné que les sous­groupes sont souvent formés sur un petit intervalle de temps pour
limiter la possibilité que des causes spéciales se glissent dans le sous­groupe. Si le sous­
groupe contient la sortie de processus à flux multiples, la variation au sein du sous­groupe
est susceptible d'être plus importante que la variation à plus long terme entre les sous­
groupes. Des exemples de cela incluent le moulage à plusieurs cavités, plusieurs stations
de remplissage de têtes ou des échantillons provenant du guichet et de l'agent de crédit à
la banque.

3. Les sous­groupes sont formés à partir d'une collecte de données chronologique. L' axe des
abscisses de la carte de contrôle est ordonné dans le temps, de sorte que les sous­groupes
à droite de la carte représentent une période de temps postérieure aux sous­groupes à leur
gauche. Les sous­groupes rationnels ne peuvent pas être formés à partir d'un ensemble de
Machine Translated by Google

Q uantification des variations de processus 165

des données aléatoires du processus, ou une boîte de pièces expédiées par votre fournisseur,
car la séquence temporelle des données a été perdue.

Cartes de contrôle des variables

Dans SPC, la moyenne, la plage et l'écart type sont les statistiques les plus souvent utilisées pour analyser
les données de mesure. Des cartes de contrôle sont utilisées pour surveiller ces statistiques. Un point hors
de contrôle pour l'une de ces statistiques est une indication qu'une cause spéciale de variation est
présente et qu'une enquête immédiate doit être faite pour identifier la cause spéciale.

Graphiques de contrôle de moyenne et de plage


Les graphiques de moyenne (généralement appelés graphiques X en référence au symbole utilisé pour
désigner les moyennes dans le tableau 9.1) sont des outils statistiques utilisés pour évaluer la tendance
centrale d'un processus au fil du temps. Les diagrammes de plage sont des outils statistiques utilisés pour
évaluer la dispersion ou l'étalement d'un processus dans le temps.
Les graphiques moyens répondent à la question « Est­ce qu'une cause particulière de variation a
provoqué le changement de la tendance centrale de ce processus au cours de la période observée ? » Les
diagrammes de plage répondent à la question « Une cause particulière de variation a­t­elle rendu la
distribution du processus plus ou moins erratique ?
Les graphiques de moyenne et de plage peuvent être appliqués à n'importe quelle variable continue
comme le poids, la taille, le temps de cycle, le taux d'erreur, etc., sous réserve des conditions nécessaires
pour les sous­groupes rationnels.
Une taille de sous­groupe prédéfinie est définie pour le processus donné. Typique
la taille des sous­groupes est de trois ou cinq observations dans le sous­groupe.
La moyenne et la plage sont calculées pour chaque sous­groupe séparément, puis tracées sur la
carte de contrôle. Les statistiques de chaque sous­groupe sont comparées à la limite de contrôle et les
schémas de variation entre les sous­groupes sont analysés.

Équations de sous­groupes pour les graphiques de moyenne et de plage

somme des mesures des sous­groupes


X=
taille du sous­groupe

R = le plus grand du sous­groupe s − le plus petit du sous­groupe

Le tableau 9.3 contient 25 sous­groupes de cinq observations chacun. La moyenne et la fourchette pour
chaque sous­groupe sont indiquées dans le tableau.

Équations de limite de contrôle pour les graphiques de moyenne et de plage Les limites de contrôle pour les graphiques de

moyenne et de plage sont calculées de telle sorte qu'il est hautement improbable qu'une moyenne ou une plage de sous­groupe

d'un processus stable se situe en dehors des limites. Toutes les limites de contrôle sont fixées à plus et moins trois écarts­types

par rapport à la ligne centrale du graphique. Ainsi, les limites de contrôle pour les moyennes des sous­groupes sont plus et
moins trois écarts­types de la moyenne par rapport à la moyenne générale ; les limites de contrôle pour
Machine Translated by Google

166 Contrôle de processus

Échantillon 1 Échantillon 2 Échantillon 3 Échantillon 4 Échantillon 5 Moyenne Gamme Sigma


110 93 99 98 109 101.8 17 7.396
103 95 109 95 98 100,0 14 6.000
97 110 90 97 100 98,8 20 7.259
96 102 105 90 96 97,8 15 5.848
105 110 109 93 98 103,0 17 7.314
110 91 104 91 101 99,4 19 8.325
100 96 104 93 96 97,8 11 4.266
93 90 110 109 105 101,4 20 9.290
90 105 109 90 108 100,4 19 9.607
103 93 93 99 96 96,8 10 4.266
97 97 104 103 92 98,6 12 4.930
103 100 91 103 105 100,4 14 5.550
90 101 96 104 108 99,8 18 7.014
97 106 97 105 96 100,2 10 4.868
99 94 96 98 90 95,4 9 3.578
106 93 104 93 99 99,0 13 6.042
90 95 98 109 110 100,4 20 8.792
96 96 108 97 103 100,0 12 5.339
109 96 91 98 109 100,6 18 8.081
90 95 94 107 99 97,0 17 6.442
91 101 96 96 109 98,6 18 6.804
108 97 101 103 94 100,6 14 5.413
96 97 106 96 98 98,6 10 4.219
101 107 104 109 104 105,0 8 3.082
96 91 96 91 105 95,8 14 5.718

Tableau 9.3 Données pour les cartes de contrôle moyennes

les plages des sous­groupes sont plus et moins trois écarts­types de la plage
par rapport à la plage moyenne. Ces limites de contrôle sont assez robustes
vis­à­vis de la non­normalité dans la distribution du processus.
Pour faciliter les calculs, des constantes sont utilisées dans les équations des limites de
contrôle. Le tableau de l'annexe 1 fournit les constantes de la carte de contrôle pour les sous­
groupes de 25 personnes ou moins.

Équations de limite de contrôle pour les graphiques de plage

R = somme des plages de sous­


groupes nombre de sous­groupes

LCL = RD
3

UCL = RD
4
Machine Translated by Google

Q uantification des variations de processus 167

Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :

somme des plages de sous­groupes 369


R= == 14. 76
nombre de sous­groupes 25

LCL R3 _
DR 0 14 76 0 =. = ×=

UCL R
== 2 DR
4
115. × = 14. 7622
31 .

Puisqu'il n'est pas possible d'avoir une plage de sous­groupes inférieure à zéro, le LCL
n'est pas indiqué sur la carte de contrôle des plages.

Équations de limite de contrôle pour les graphiques de moyennes utilisant R

somme des moyennes des sous­groupes


X=
nombre de sous­groupes

LCL =­ XAR 2

UCL 2 XAR = +

Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :

somme des moyennes des sous­groupes 2487 .5


X= = = 99 .5
nombre de sous­groupes 25

LCL =­=­ XA R 2 99 .5 0 577


. 14 × = 97.
.76 90
X

UCL × XAR 2 99 .5 0 577


. 14 76 108 = = + =. +
. 00
X

Les cartes de contrôle de moyenne et de plage remplies sont illustrées à la Fig. 9.6.
Les graphiques de la Fig. 9.6 montrent un processus sous contrôle statistique, de sorte
que les limites de variabilité de ce processus sont prévisibles (à l'aide des limites de contrôle).
Étant donné que le processus est sous contrôle statistique, nous pouvons également faire des
prédictions sur notre capacité à répondre aux exigences des clients, comme indiqué dans la
prochaine section sur la capacité du processus.

Cartes de contrôle de la moyenne et de l'écart type Les


cartes de contrôle de la moyenne et de l'écart type sont conceptuellement identiques
aux cartes de contrôle de la moyenne et de l'étendue. La différence est que l'écart­type
du sous­groupe est utilisé pour mesurer la dispersion plutôt que l'étendue du sous­groupe.
L'écart type des sous­groupes est statistiquement plus efficace que la plage des
sous­groupes pour les tailles de sous­groupes supérieures à deux. Cet avantage
d'efficacité augmente à mesure que la taille du sous­groupe augmente, surtout
lorsque la taille du sous­groupe est de 10 ou plus. Dans ces cas, l'écart type (ou graphique sigma)
Machine Translated by Google

168 Contrôle de processus

110
UCL = 108.001
106

102
Moyennes

PCL = 99,488
98

94

LCL = 90,975
90
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
35
UCL = 31.210
30

25

Gammes
20

15 RBAR = 14.760

dix

5
LCL = 0,000
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Figure 9.6 Cartes de contrôle moyennes et sigma remplies.

doit être utilisé à la place du tableau des plages. Bien que la plage soit plus facile à calculer et
plus facile à comprendre pour la plupart des gens, si les analyses doivent être interprétées par
du personnel connaissant les statistiques et que les calculs ne posent pas de problème, le
graphique d'écart type est préféré pour toutes les tailles de sous­groupes. Dans la grande
majorité des applications, un logiciel sera utilisé pour analyser le processus.
Le logiciel calculera automatiquement toutes les limites de contrôle et appliquera des règles de
test d'exécution supplémentaires qui seront discutées sous peu. Le logiciel MS Excel utilisé
pour ces exemples ne coûte que quelques centaines de dollars.

Équations de sous­groupes pour les graphiques de moyenne et de sigma

X=
somme des mesures des sous­groupes
taille du sous­groupe
n 2
∑ ( xii − X )
=1
s=
je

n− 1

L'écart­type, s, est calculé séparément pour chaque sous­groupe, en utilisant la moyenne du


sous­groupe plutôt que la moyenne générale (c'est­à­dire la moyenne de
Machine Translated by Google

Q uantification des variations de processus 169

les moyennes des sous­groupes, la ligne médiane du graphique des moyennes). C'est un
point important : l'utilisation de la moyenne globale introduirait une variation de cause
spéciale si le processus était hors de contrôle, sous­estimant ainsi la capacité du
processus, peut­être de manière significative.
L'écart­type calculé pour chaque sous­groupe est présenté dans le tableau 9.3.

Équations de limite de contrôle pour les graphiques de moyenne et de sigma Les limites de contrôle pour les graphiques

de moyenne et de sigma sont calculées de sorte qu'il est hautement improbable qu'une moyenne de sous­groupe ou un
sigma d'un processus stable tombe en dehors des limites. Toutes les limites de contrôle sont fixées à plus et moins trois
écarts­types par rapport à la ligne centrale du graphique. Ainsi, les limites de contrôle pour les moyennes des sous­
groupes sont de plus et moins trois écarts­types de la moyenne par rapport à la moyenne générale. Les limites de contrôle

pour les sigma des sous­groupes sont plus et moins trois écarts­types de sigma par rapport au sigma moyen.

Ces limites de contrôle sont assez robustes vis­à­vis de la non­normalité dans


la diffusion du processus.
Pour faciliter les calculs, des constantes sont utilisées dans les équations des limites de
contrôle. Le tableau de l'annexe 1 fournit les constantes de la carte de contrôle pour les sous­
groupes de 25 personnes ou moins.

Équations de limite de contrôle pour les graphiques Sigma basés sur S­Bar

s = somme des sigmas des sous­


groupes nombre de sous­groupes

LCL = B 3s

UCL = B
4

Pour illustrer les calculs et comparer la méthode de l'intervalle avec les résultats de l'écart
type, les données utilisées dans l'exemple précédent seront réanalysées en utilisant
l'écart type du sous­groupe plutôt que l'intervalle du sous­groupe.

Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :

155 .45
s = somme des sigmas des sous­ = = 6 .218
groupes nombre de sous­groupes 25

LCL B s 0 6 218 0. = = =
×
s 3

UCL = B s = × 2.6.218
089= 12.989
s 4

Puisqu'il n'est pas possible d'avoir un sous­groupe sigma inférieur à zéro, le LCL n'est
pas indiqué sur la carte de contrôle pour sigma.
Machine Translated by Google

170 Contrôle de processus

Équations de limite de contrôle pour les graphiques de moyennes basés sur S­Bar

somme des moyennes des sous­groupes


X=
nombre de sous­groupes

LCL =­ XA 3

UCL 3 XAs = +

En utilisant les données du tableau 9.3 :

somme des moyennes des sous­groupes 2487 .5


X= = = 99 .5
nombre de sous­groupes 25

LCL XA s 3
=­=­ . 6 2 18 .90 63=×
99 .5 1 427 .
X

UCL = +XA
3s=+ 99 .5 1 427
. 6 218 108
. =×
37 .
X

Les cartes de contrôle moyenne et sigma remplies sont présentées à la Fig. 9.7.
Notez que les limites de contrôle du graphique des moyennes ne diffèrent que
légèrement des limites calculées à l'aide des plages.

110
UCL = 108.363

106

102

PCL = 99,488
Moyennes

98

94

LCL = 90,613
90
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
14
UCL = 12.990
12

dix

Sigmas
8

6 SBAR = 6,218

2
LCL = 0,000
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Figure 9.7 Cartes de contrôle moyennes et sigma remplies. Notez que les conclusions atteintes sont les
mêmes que lorsque les plages ont été utilisées.
Machine Translated by Google

Q uantification des variations de processus 171

Cartes de contrôle pour les mesures individuelles (cartes X)


Les cartes de contrôle individuelles (parfois appelées cartes X) sont des outils statistiques
utilisés pour évaluer la tendance centrale d'un processus dans le temps. Des cartes de
contrôle individuelles sont utilisées lorsqu'il n'est pas possible d'utiliser des moyennes pour
le contrôle du processus. Il existe de nombreuses raisons possibles pour lesquelles les
cartes de contrôle moyennes peuvent ne pas être souhaitables : les observations peuvent
être coûteuses à obtenir (par exemple, des tests destructifs), la sortie peut être trop
homogène sur de courts intervalles de temps (par exemple, le pH d'une solution), le taux
de production peut être lent et l'intervalle entre les observations successives long, et ainsi
de suite. Les cartes de contrôle pour les individus sont souvent utilisées pour surveiller les
processus par lots, tels que les processus chimiques, où la variation intra­lot est si faible par rapport à entre
variation de lot que les limites de contrôle sur une carte X standard seraient trop
rapprochées. Les graphiques de plage (plus strictement des graphiques de plage mobile) sont
utilisés conjointement avec des graphiques individuels pour aider à surveiller la dispersion.

Calculs pour les graphiques de plages mobiles Comme pour les graphiques de moyenne et de
plage, la plage est calculée comme indiqué ci­dessus,

R = le plus grand du sous­groupe – le plus petit du sous­groupe

Ici, la plage est calculée comme la valeur absolue de la différence entre une
paire consécutive de mesures de processus, ce qui répond à l'exigence d'un sous­
groupe rationnel dans l'estimation de la variation à court terme. La limite de contrôle
de plage est calculée comme cela a été décrit pour les graphiques de moyennes et
de plages, en utilisant la constante D4 pour les sous­groupes de deux, soit 3,267. C'est,
LCL = 0 (pour n = 2)
UCL = 3,267 × R

Des recherches récentes ont soutenu l'idée que la carte de plage mobile
identifiera nécessairement la même instabilité de processus que la carte des
individus : une grande valeur dans l'observation sur la carte des individus est
susceptible de créer également une (souvent deux) valeurs de plage mobile qui
sont hors de contrôle. Il est certainement plus facile de présenter le graphique des
individus sans le graphique de l'étendue mobile ; cependant, l'analyste doit être
conscient qu'il existe des cas où le graphique de plage mobile a été utile pour le dépannage.
Le tableau 9.4 contient 25 mesures. Pour faciliter la comparaison, les
mesures sont les premières observations de chaque sous­groupe utilisé dans les
exemples précédents de cartes de contrôle moyenne/étendue et moyenne/écart­type.
Les limites de contrôle pour le graphique de plage mobile sont calculées à partir de ce
données comme suit :

somme des 196


R= == 8 1. 7
plages nombre de plages24
==×=
L CL DR 0 8 17. 0
R 3

UCL RD
==4 3 .267 8×17
= . 26 69 .
R
Machine Translated by Google

172 Contrôle de processus

Échantillon 1 Gamme
110 Aucun
103 7
97 6
96 1
105 9
110 5
100 dix
93 7
90 3
103 13
97 6
103 6
90 13
97 7
99 2
106 7
90 16
96 6
109 13
90 19
91 1
108 17
96 12
101 5
96 5

Tableau 9.4 Données pour les individus et


cartes de contrôle des étendues mobiles

Puisqu'il n'est pas possible d'avoir une plage de sous­groupes inférieure à zéro, le
LCL n'est pas indiqué sur la carte de contrôle des plages.
Graphiques d'équations de limite de contrôle pour les individus

somme des mesures


X=
nombre de mesures
LCL
R = −XER
=−×X 22 66 .

UCL R = +X=2+ ×
XER 2 .66

où E2 = 2,66 est la constante utilisée lorsque les mesures individuelles sont


tracées, et R est basé sur des sous­groupes de n = 2.
Machine Translated by Google

Q uantification des variations de processus 173

En utilisant les données du tableau 9.4 :

somme des mesures 2475


X= = = 99 .0
nombre de mesures 25
LCL XE
X
= ­R

2
99 .0 2 66. 8 17 77. 2 7=× .

UC LX =+ RE = +2 99 0 17
2 66 8 73.
.120 × . = .
X

La carte de contrôle individuelle complétée est illustrée à la Fig. 9.8.


Dans ce cas, les conclusions sont les mêmes que pour les tableaux de moyennes.
Cependant, les cartes de moyennes offrent toujours un contrôle plus strict que les cartes
X, en raison de la largeur relative des distributions illustrées à la Fig. 9.9. Pour un
ensemble de données donné, la distribution des observations brutes est beaucoup plus
large (d'un facteur de la racine carrée de n) que la distribution des moyennes des sous­
groupes de taille n formée à partir des données. Lorsque la ligne médiane du processus
(c'est­à­dire le centre de chaque distribution sur la Fig. 9.9) s'éloigne de la cible
précédente, les queues de la distribution des moyennes sont plus éloignées de la cible
que les queues de la distribution d'observation. Le graphique moyen détecterait le
changement de processus plus rapidement que le graphique individuel.

125

UCL = 120.752

115

105

Observations

PCL = 99.040

95

85

LCL = 77,328
75
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Figure 9.8 Carte de contrôle individuelle complétée.


Machine Translated by Google

174 Contrôle de processus

Distribution de
moyennes

Répartition des
observations
individuelles

Cible Nouvelle moyenne

Figure 9.9 Comparaison de la distribution des observations individuelles avec la distribution des
moyennes des sous­groupes calculées à partir des observations.

La taille du sous­groupe est déterminée en tenant compte des principes du sous­groupe


rationnel, du coût d'obtention de la mesure et du coût de la non­détection des changements de
processus. Le tableau 9.5 fournit le nombre attendu de sous­groupes (parfois appelé la durée
moyenne de la course) qui seront tracés avant que le décalage ne soit détecté comme une
cause spéciale. Par exemple, un sous­groupe

n/k 0,5 1 1,5 2 2,5 3


1 155 43 14 63 1
2 90 17 5 2 1 1
3 60 9 2 11 1
4 43 6 1 11 1
5 33 4 1 11 1
6 26 3 1 1 1 1
7 21 2 1 1 1 1
8 17 2 1 1 1 1
9 14 1 1 1 1 1
dix 12 1 1 1 1 1

D'après Keller (2011b).

Tableau 9.5 Nombre moyen de sous­groupes requis pour détecter


le décalage de k Sigma avec une taille de sous­groupe de n
Machine Translated by Google

Q uantification des variations de processus 175

de taille 3 (colonne la plus à gauche) détecterait un décalage de processus de 1 sigma (à partir


de la rangée du haut) dans 9 sous­groupes, en moyenne. C'est­à­dire que parfois il le détecterait
plus rapidement, et parfois il faudrait plus de sous­groupes ; mais si vous avez rencontré cette
condition plusieurs fois, le nombre moyen de sous­groupes nécessaires pour détecter le
changement est de 9. Un sous­groupe de taille 5 détecterait le changement de 1 sigma dans 4
sous­groupes (en moyenne). Un sous­groupe de taille 1 aurait besoin de 43 sous­groupes (en
moyenne). Des sous­groupes plus grands fourniront une meilleure sensibilité aux changements
plus petits, mais il y a parfois un coût injustifié pour obtenir les données supplémentaires. Les
implications financières de ne pas détecter ce changement de processus dès que possible doivent
être mises en balance avec le coût des données supplémentaires. En règle générale, les sous­
groupes de taille 3 à 5 sont recommandés, car ils détectent assez rapidement des décalages
raisonnables de 1,5 sigma ou plus. Lorsqu'un processus est sous contrôle depuis un certain
temps et qu'il est souhaitable de détecter un changement plus subtil dans le processus (par
exemple, des changements de 0,5 sigma), il est recommandé d'utiliser des cartes EWMA, telles
que décrites dans Keller (2011b), étant donné que des sous­groupes plus importants sont à la
fois coûteux et courent le risque que des causes spéciales se produisent dans les sous­groupes
collectés sur une plus longue période de temps.

En règle générale, il est préférable de collecter plus fréquemment de petits sous­groupes


(que moins souvent des sous­groupes plus importants). Les sous­groupes les plus fréquents
offrent plus de possibilités de détecter plus rapidement les changements de processus. Ceci est
particulièrement utile lorsque l'on commence à analyser un processus et qu'il existe peu
d'informations concernant les types ou la fréquence des causes spéciales.
Il est recommandé de rassembler un nombre suffisant de sous­groupes pour expérimenter le
processus sur une période de temps (Keller, 2011b). Si la carte de contrôle est limitée à seulement
quelques jours de données, elle n'a guère connu la variation de cause commune qui se produira
de manière prévisible sur de plus longues périodes. Dans certains cas, il peut être souhaitable de
définir les limites de contrôle sur une courte période de temps, comme pour une étude de
capabilité de processus ou une étude préliminaire pour votre client. Dans ces situations, sachez
que les limites de contrôle peuvent être plus strictes que ce que le processus connaîtra sur de
plus longues périodes, et vous pouvez vous retrouver à poursuivre des causes particulières
pendant plusieurs semaines.
Une considération supplémentaire est que les constantes du tableau de l'annexe 1 ne sont
en réalité que des constantes pour un « grand » nombre de sous­groupes.
Bien que de nombreuses personnes citent 25 ou 35 sous­groupes comme nombre minimum, il
s'agit d'un nombre approprié pour un sous­groupe de taille cinq. Les sous­groupes plus petits
nécessitent plus de sous­groupes avant que les constantes ne s'approchent d'une valeur
constante jusqu'à trois décimales environ. Pour un sous­groupe de taille trois, 50 sous­groupes
sont recommandés (Keller, 2011b). Les sous­groupes de taille un nécessitent 150 sous­groupes
ou plus, ce qui est également recommandé pour que la distribution puisse être vérifiée.

Les calculs de limite de contrôle pour les moyennes et les graphiques individuels présentés
ci­dessus sont basés sur les propriétés de la distribution normale. L'utilisation de trois limites
sigma permet une détection adéquate des causes spéciales, sans
Machine Translated by Google

176 Contrôle de processus

Figure 9.10 Exemple de limites de contrôle trompeuses utilisant des hypothèses de distribution
normale (Keller 2011b).

un nombre démesuré de fausses alarmes. Les graphiques de moyennes, en traçant les


moyennes, sont relativement insensibles aux écarts par rapport à la normalité des
données sur la base du théorème central limite. Le théorème central limite , qui a été
largement validé, soutient que la distribution des moyennes se rapprochera d'une
distribution normale lorsque la distribution des observations brutes n'est pas normale,
même pour des sous­groupes aussi petits que trois à cinq observations.

Si l'on soupçonne que les données des individus ne sont pas normales, ou si elles
ne sont pas connues, il y a un risque à utiliser les calculs de limite de contrôle des
individus standard indiqués ci­dessus. Considérez les données de temps de cycle
illustrées à la Fig. 9.10, tracées sur le graphique d'un individu. La limite de contrôle
inférieure calculée est de –7,35 minutes, ce qui est évidemment impossible. L'histogramme
à gauche de la carte de contrôle montre les données à biaiser et délimitées près de zéro.
La limite de contrôle négative offre ainsi une large zone d'insensibilité : si le temps de
cycle du processus diminue en raison d'une cause particulière (par exemple, une
amélioration du processus), il ne serait pas détecté en raison de la limite de contrôle
inférieure imprécise. Considérez les mêmes données tracées dans la Fig. 9.11, où les
limites de contrôle sont basées sur des calculs non normaux, et il est clair que ce
graphique est plus capable de détecter les décalages de processus.

Cartes de contrôle pour les données d'attributs

Cartes de contrôle pour la proportion de défectueux (cartes


p) Les cartes p sont des outils statistiques utilisés pour évaluer la proportion de
défectueux, ou la proportion de non conformes, produite par un procédé.
Machine Translated by Google

Q uantification des variations de processus 177

Figure 9.11 Limites de contrôle non normales appliquées aux données de la Fig. 9.10 (Keller 2011b).

Les graphiques p peuvent être appliqués à n'importe quelle variable où la mesure


de performance appropriée est un nombre d'unités. Les cartes p répondent à la
question : « Une cause particulière de variation a­t­elle provoqué la tendance centrale
de ce processus à produire un nombre anormalement grand ou petit d'unités
défectueuses au cours de la période observée ?

Équations de limite de contrôle des cartes p Comme toutes les cartes de contrôle, les
cartes p se composent de trois lignes directrices : la ligne médiane, une limite de contrôle
inférieure et une limite de contrôle supérieure. La ligne médiane est la proportion moyenne
de défectueux et les deux limites de contrôle sont fixées à plus et moins trois écarts­types.
Si le processus est sous contrôle statistique, alors pratiquement toutes les proportions
doivent se situer entre les limites de contrôle et elles doivent fluctuer de manière aléatoire
autour de la ligne médiane.

= nombre de défectuosités du sous­groupe


p
taille du sous­groupe

= somme des décomptes défectueux des sous­groupes


p
somme des effectifs des sous­groupes


( 1 ) pp
LCL p
=­ 3
n


( 1 ) pp
UCL p= + 3
n
Machine Translated by Google

178 Contrôle de processus

Dans les équations ci­dessus, n est la taille du sous­groupe. Si la taille des sous­groupes
varie, les limites de contrôle varieront également, se rapprochant à mesure que n
augmente.
Comme pour toutes les cartes de contrôle, une cause spéciale est probablement présente
s'il y a des points au­delà de la limite de contrôle supérieure ou inférieure. L'analyse des
modèles de carte p entre les limites de contrôle est extrêmement compliquée si la taille de
l'échantillon varie car la distribution de p varie avec la taille de l'échantillon.
Les données du tableau 9.6 ont été obtenues en ouvrant des caisses sélectionnées au
hasard dans chaque expédition et en comptant le nombre de pêches meurtries.
Il y a 250 pêches par caisse. Normalement, les échantillons se composent d'une caisse

Expédition
Nombre Caisses Les pêches Meurtri p
1 1 250 47 0,188
2 1 250 42 0,168
3 1 250 55 0,220
4 1 250 51 0,204
5 1 250 46 0,184
6 1 250 61 0,244
7 1 250 39 0,156
8 1 250 44 0,176
9 1 250 41 0,164
dix 1 250 51 0,204
11 2 500 88 0,176
12 2 500 101 0,202
13 2 500 101 0,202
14 1 250 40 0,160
15 1 250 48 0,192
16 1 250 47 0,188
17 1 250 50 0,200
18 1 250 48 0,192
19 1 250 57 0,228
20 1 250 45 0,180
21 1 250 43 0,172
22 2 500 105 0,210
23 2 500 98 0,196
24 2 500 100 0,200
25 2 500 96 0,192
TOTAUX 8000 1544

Tableau 9.6 Données brutes pour le graphique p


Machine Translated by Google

179
Q uantification des variations de processus

Par expédition. Cependant, lorsqu'une aide à temps partiel est disponible, des échantillons de deux
caisses sont prélevés.
En utilisant les données ci­dessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :

nombre de sous­groupes défectueux


p=
taille du sous­groupe

ces valeurs sont indiquées dans la dernière colonne du tableau 9.6.

somme des décomptes défectueux du sous­groupe 1544


= = 0,193
p=
somme de la taille du sous­groupe 8000

qui est constant pour tous les sous­groupes.


n = 250 (1 caisse) :

( 1 ) pp = . 0 .193 1 0 193 ). × −
=­ 3 0 193 3− = 0,118
LCL p n ( 250


( 1 ) pp = . ) 0. 193 1 0 193. × −
UCL p3 = + 0 193 3 + = 0,268
n ( 25 0

n = 500 (2 caisses) :

. 193 1 0 193. × −
)0
LCL = 0 .193 3− = 0 .140
( 500

. 193 1 0 193. × −
)0
UCL = 0 19 . 3 3 + = 0 .246
( 500

Les limites de contrôle et les proportions des sous­groupes sont présentées à la Fig. 9.12.

Conseils pour l'utilisation des graphiques p Dans certains cas, les « limites de contrôle
mobiles » peuvent ne pas être nécessaires et la taille moyenne de l'échantillon (nombre
total inspecté divisé par le nombre de sous­groupes) peut être utilisée pour calculer les
limites de contrôle. Par exemple, avec notre exemple, la taille de l'échantillon a doublé,
passant de 250 pêches à 500, mais les limites de contrôle n'ont pratiquement pas changé.
Le tableau 9.7 illustre les différentes limites de contrôle basées sur 250 pêches, 500
pêches et la taille moyenne de l'échantillon, qui est de 8 000 ÷ 25 = 320 pêches.

Notez que les conclusions concernant la performance du processus sont les mêmes lors
de l'utilisation de la taille moyenne de l'échantillon car elles utilisent les tailles exactes de
l'échantillon. C'est généralement le cas si la variation de la taille de l'échantillon n'est pas
trop grande. Il existe de nombreuses règles empiriques, mais la plupart d'entre elles sont
extrêmement conservatrices. La meilleure façon d'évaluer les limites en fonction de la taille
moyenne de l'échantillon est de vérifier comme indiqué ci­dessus. La CPS vise à améliorer
la prise de décision. En général, utilisez la méthode la plus simple qui mène à des décisions correctes.
Machine Translated by Google

180 Contrôle de processus

0,27

UCL = 0,246

0,23

PCL = 0,193
Proportion
0,19

0,15

LCL = 0,140

0,11
1 3 5 7 9 11 13 15 17 19 21 23 25

Figure 9.12 Exemple de carte p construite à l'aide du logiciel Green Belt XL


(avec l'aimable autorisation de www.qualityamerica.com).

Contrôle supérieur
Limite inférieure de contrôle de la taille de l'échantillon Limite
250 0,1181 0,2679
500 0,1400 0,2460
320 0,1268 0,2592

Tableau 9.7 Effet de l'utilisation de la taille moyenne de l'échantillon

Cartes de contrôle pour le nombre de défectueux (cartes np) Les


cartes np sont des outils statistiques utilisés pour évaluer le nombre de défectueux, ou le
nombre d'articles non conformes, produits par un processus. Les graphiques np peuvent être
appliqués à n'importe quelle variable où la mesure de performance appropriée est un nombre
d'unités et la taille du sous­groupe est maintenue constante. Notez que partout où une carte np
peut être utilisée, une carte p peut également être utilisée.

Équations de limite de contrôle pour les cartes np Comme toutes les cartes de contrôle,
les cartes np se composent de trois lignes directrices : la ligne centrale, une limite de
contrôle inférieure et une limite de contrôle supérieure. La ligne médiane est le nombre
moyen de défectueux par sous­groupe et les deux limites de contrôle sont fixées à plus
et moins trois écarts­types. Si le processus est sous contrôle statistique, alors pratiquement tous
Machine Translated by Google

Q uantification des variations de processus 181

le nombre de sous­groupes se situera entre les limites de contrôle et fluctuera


de manière aléatoire autour de la ligne médiane.

np = nombre de sous­groupes défectueux

somme des décomptes de sous­groupes


np =
défectueux nombre de sous­groupes

− 3 np (p1−)
LCL = np

3=+ −
UCL np np (p1 )

Noter que

np
p=
n

Les données du tableau 9.8 ont été obtenues en ouvrant des caisses sélectionnées
au hasard dans chaque expédition et en comptant le nombre de pêches meurtries. Il
y a 250 pêches par caisse (la constante n est requise pour les cartes np ).
En utilisant les données ci­dessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :

somme des décomptes de sous­groupes 838


np = == 27 .93
défectueux nombre de sous­groupes 30

27 .93

LCL np 3 1 np( ­p) = 27,93 3− 27 93 1. × − 12 .99
250 =

27 .93
3=+
UCL np 1 ( ­ ) =p np 27 .93 3 27 93 .1 + × − 250
42 .88
=

Les limites de contrôle et les décomptes de sous­groupes défectueux sont illustrés à


la Fig. 9.13.

Cartes de contrôle du nombre moyen d'occurrences par unité (cartes


u) Les cartes u sont des outils statistiques utilisés pour évaluer le nombre moyen
d'occurrences par unité produites par un processus. u Les graphiques peuvent être
appliqués à n'importe quelle variable où la mesure de performance appropriée est un
décompte de la fréquence à laquelle un événement particulier se produit. u graphiques
répondent à la question « Une cause particulière de variation a­t­elle causé la tendance
centrale de ce processus à produire un nombre anormalement grand ou petit
d'occurrences au cours de la période observée ? Notez que, contrairement aux cartes
p ou np , les cartes u n'impliquent pas nécessairement le comptage d'éléments physiques. Il s'agit plutôt de
Machine Translated by Google

182 Contrôle de processus

Numéro d'expédition Pêches meurtries


1 20
2 28
3 24
4 21
5 32
6 33
7 31
8 29
9 30
dix 34
11 32
12 24
13 29
14 27
15 37
16 23
17 27
18 28
19 31
20 27
21 30
22 23
23 23
24 27
25 35
26 29
27 23
28 23
29 30
30 28
TOTAL 838

Tableau 9.8 Données brutes pour le graphique np

d' événements. Par exemple, lors de l'utilisation d'un tableau p , on compterait les pêches
meurtries. Lors de l'utilisation d'un graphique en U , on comptait les ecchymoses.

Équations de limite de contrôle pour les cartes u Comme toutes les cartes de contrôle, les cartes
u se composent de trois lignes directrices : la ligne médiane, une limite de contrôle inférieure et
une limite de contrôle supérieure. La ligne médiane est le nombre moyen d'occurrences par unité et
Machine Translated by Google

Q uantification des variations de processus 183

47,5

42,5 UCL = 42.877

37,5

32,5

Défectueux

PCL = 27,933
27,5

22,5

17.5

LCL = 12,990
12.5
1 4 7 dix 13 16 19 22 25 28

Figure 9.13 Exemple de graphique np construit à l'aide du logiciel Green Belt XL


(avec l'aimable autorisation de www.qualityamerica.com).

les deux limites de contrôle sont fixées à plus et moins trois écarts types. Si le
processus est sous contrôle statistique, alors pratiquement toutes les occurrences
de sous­groupes par unité doivent se situer entre les limites de contrôle et elles
doivent fluctuer de manière aléatoire autour de la ligne médiane.

sous­groupe nombre d'occurrences


tu =
taille du sous­groupe en unités

somme des occurrences de sous­groupes


tu =
somme des tailles de sous­groupes en unités

tu
LCL vous
=­ 3
n

tu
UCL u 3 = +
n

Dans les équations ci­dessus, n est la taille du sous­groupe en unités. Si la taille du sous­
groupe varie, les limites de contrôle varieront également.
Les données du tableau 9.9 ont été obtenues en ouvrant des caisses sélectionnées au hasard
dans chaque expédition et en comptant le nombre de meurtrissures sur les pêches.
Il y a 250 pêches par caisse. La taille de notre unité sera considérée comme une caisse complète ;
Machine Translated by Google

184 Contrôle de processus

Expédition Unités Défauts­par


Nombre (Caisses) Défauts Unité

1 1 47 47

2 1 42 42

3 1 55 55

4 1 51 51

5 1 46 46

6 1 61 61

7 1 39 39

8 1 44 44

9 1 41 41

dix 1 51 51

11 2 88 44

12 2 101 50,5

13 2 101 50,5

14 1 40 40

15 1 48 48

16 1 47 47

17 1 50 50

18 1 48 48

19 1 57 57

20 1 45 45

21 1 43 43

22 2 105 52,5

23 2 98 49

24 2 100 50

25 2 96 48

TOTAUX 32 1544

Tableau 9.9 Données brutes pour le graphique u

c'est­à­dire que nous compterons les caisses plutôt que les pêches elles­mêmes.
Normalement, les échantillons consistent en une caisse par envoi. Cependant, lorsqu'une aide à
temps partiel est disponible, des échantillons de deux caisses sont prélevés.
En utilisant les données ci­dessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :

sous­groupe nombre d'occurrences


tu =
taille du sous­groupe en unités
Machine Translated by Google

Q uantification des variations de processus 185

Ces valeurs sont indiquées dans la dernière colonne du tableau 9.9.

somme des nombres d'occurrences des sous­groupes 1544


tu = = = 48,25
somme des tailles des unités des sous­groupes 32

qui est constant pour tous les sous­groupes.


n = 1 unité :

tu 48 .25
LCL vous
=­ 3 = 48 .25 3− = 27 .411
n 1

tu 48 .25
UCL u 3 = + = 48,25 3 + .
= 69 089
n 1

n = 2 unités :

48 .25
LCL = 48 .25 3− = 33 .514
2

48 .25
UCL = 48 .25 3 + = 6 2.986
2

Les limites de contrôle et les occurrences de sous­groupes par unité sont illustrées à
la Fig. 9.14.

70

UCL = 62.985

55

Défauts
unité
par
PCL = 48.250

40

LCL = 33,515

25
1 3 5 7 9 11 13 15 17 19 21 23 25

Figure 9.14 Exemple de graphique en u construit à l'aide du logiciel Green Belt XL (avec
l'aimable autorisation de www.qualityamerica.com avec autorisation).
Machine Translated by Google

186 Contrôle de processus

Le lecteur peut noter que les données utilisées pour construire la carte u étaient les
mêmes que celles utilisées pour la carte p , sauf que nous avons considéré les comptages
comme étant des comptages d'occurrences (ecchymoses) au lieu de comptages
d'éléments physiques (pêches meurtries). Les implications pratiques de l'utilisation d'une
carte u alors qu'une carte p aurait dû être utilisée, ou vice versa, ne sont généralement
pas sérieuses. Les décisions basées sur les cartes de contrôle seront assez similaires
dans la plupart des cas, qu'une carte u ou une carte p soit utilisée.
Une façon d'aider à déterminer si un ensemble particulier de données convient ou
non à une carte u ou à une carte p consiste à examiner l'équation utilisée pour calculer la
ligne centrale de la carte de contrôle. Si l'unité de mesure est la même au numérateur et
au dénominateur, une carte p est indiquée ; sinon, une carte u est indiquée. Par exemple,
si

Ligne médiane
bleus par caisse
= nombre de caisses

alors le numérateur est en termes d'ecchymoses tandis que le dénominateur est en


termes de caisses, indiquant une carte u .
La taille de l'unité est arbitraire, mais une fois déterminée, elle ne peut pas être
modifiée sans recalculer toutes les occurrences de sous­groupes par unité et les limites
de contrôle. Par exemple, si les événements étaient des accidents et qu'une unité était
de 100 000 heures travaillées, alors un mois avec 250 000 heures travaillées serait de
2,5 unités et un mois avec 50 000 heures travaillées serait de 0,5 unité.
Si la taille de l'unité était de 200 000 heures, les deux mois auraient respectivement 1,25
et 0,25 unités. Les équations pour la ligne médiane et les limites de contrôle prendraient
« automatiquement » en compte la taille de l'unité, de sorte que les cartes de contrôle
donneraient des résultats identiques quelle que soit la taille de l'unité utilisée.

Comme pour toutes les cartes de contrôle, une cause spéciale est probablement
présente s'il y a des points au­delà de la limite de contrôle supérieure ou inférieure.
L'analyse des modèles de carte u entre les limites de contrôle est extrêmement compliquée
lorsque la taille de l'échantillon varie et n'est généralement pas effectuée.

Cartes de contrôle du nombre d'occurrences par unité (cartes c) Les cartes


c sont des outils statistiques utilisés pour évaluer le nombre d'occurrences par unité
produites par un processus. Les graphiques c peuvent être appliqués à n'importe quelle
variable où la mesure de performance appropriée est un décompte de la fréquence à
laquelle un événement particulier se produit et des échantillons de taille constante sont
utilisés. Les cartes c répondent à la question : "Une cause particulière de variation a­t­elle
provoqué la tendance centrale de ce processus à produire un nombre anormalement
grand ou petit d'occurrences au cours de la période observée ?" Notez que, contrairement
aux cartes p ou np , les cartes c n'impliquent pas de compter les éléments physiques. Il
s'agit plutôt de compter les événements. Par exemple, lors de l'utilisation d'un tableau np ,
on compterait les pêches meurtries. Lors de l'utilisation d'un tableau c , on comptait les
ecchymoses.
Machine Translated by Google

Q uantification des variations de processus 187

Équations de limite de contrôle pour les cartes c Comme toutes les cartes de contrôle,
les cartes c se composent de trois lignes directrices : la ligne médiane, une limite de
contrôle inférieure et une limite de contrôle supérieure. La ligne médiane est le nombre
moyen d'occurrences par unité et les deux limites de contrôle sont fixées à plus et
moins trois écarts­types. Si le processus est sous contrôle statistique, alors
pratiquement toutes les occurrences de sous­groupes par unité doivent se situer entre
les limites de contrôle et elles doivent fluctuer de manière aléatoire autour de la ligne médiane.

c = somme des occurrences de sous­


groupes nombre de sous­groupes

LCLc = ­ 3 c

UCL c 3 = + c

Les données du tableau 9.10 ont été obtenues en ouvrant des caisses sélectionnées au
hasard dans chaque expédition et en comptant le nombre d'ecchymoses. Il y a 250
pêches par caisse. La taille de notre unité sera considérée comme une caisse complète ;
c'est­à­dire que nous compterons les caisses plutôt que les pêches elles­mêmes.
Chaque sous­groupe se compose d'une caisse. Si la taille du sous­groupe variait, une
carte u serait utilisée.
En utilisant les données ci­dessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :

1006
c = somme des occurrences de sous­ = = 33 .53
groupes nombre de sous­groupes 30

LCLc = ­ = 33 .53 3− 33 53 16
. = .158
3 c

UCL c = − 3 8c = + 33 53. 3 33 53 5 =. 0 902 .

Les limites de contrôle et le nombre d'occurrences sont illustrés à la Fig. 9.15.


Une façon d'aider à déterminer si un ensemble particulier de données convient ou
non à une carte c ou à une carte np consiste à examiner l'équation utilisée pour calculer
la ligne centrale de la carte de contrôle. Si l'unité de mesure est la même au numérateur
et au dénominateur, alors une carte p est indiquée ; sinon, une carte c est indiquée. Par
exemple, si

Ligne médiane =
contusions nombre de caisses

alors le numérateur est en termes d'ecchymoses tandis que le dénominateur est en


termes de caisses, indiquant une carte c .
La taille de l'unité est arbitraire mais, une fois déterminée, elle ne peut pas être modifiée
sans recalculer toutes les occurrences de sous­groupes par unité et les limites de contrôle.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 2
La fonction qualité
Machine Translated by Google

188 Contrôle de processus

Numéro d'expédition Défauts

1 27
2 32
3 24
4 31
5 42
6 38
7 33
8 35
9 35
dix 39
11 41
12 29
13 34
14 34
15 43
16 29
17 33
18 33
19 38
20 32
21 37
22 30
23 31
24 32
25 42
26 40
27 21
28 23
29 39
30 29
TOTAL 1006

Tableau 9.10 Données brutes pour le graphique c

Comme pour toutes les cartes de contrôle, une cause spéciale est probablement présente
s'il y a des points au­delà de la limite de contrôle supérieure ou inférieure. L'analyse des
modèles de carte c entre les limites de contrôle est présentée plus loin dans ce chapitre.
Machine Translated by Google

Q uantification des variations de processus 189

52,5
UCL = 50.906

45,0

37,5

PCL = 33.533
Défauts

30,0

22,5

LCL = 16,161
15,0
1 4 7 dix 13 16 19 22 25 28

Figure 9.15 c exemple de graphique construit à l'aide du logiciel Green Belt XL (avec la
permission de www.qualityamerica.com avec permission).

Sélection de la carte de contrôle

La sélection de la carte de contrôle appropriée pour un ensemble de données particulier est une
question simple si elle est abordée correctement, comme illustré à la Fig. 9.16.
Pour utiliser l'arbre de décision, commencez par le nœud le plus à gauche et déterminez si les
données sont des mesures ou des comptages. S'il s'agit de mesures, sélectionnez la carte de contrôle
en fonction de la taille du sous­groupe. Si les données sont des comptes,

n
n

n np

n p

n c

n tu

Figure 9.16 Arbre décisionnel pour la sélection de la carte de contrôle.


Machine Translated by Google

190 Contrôle de processus

puis déterminez si les comptages sont des occurrences ou des pièces. Une aide à cette détermination
consiste à examiner l'équation de la moyenne du processus. Si le numérateur et le dénominateur
impliquent les mêmes unités, une carte p ou np est indiquée. Si différentes unités de mesure sont
impliquées, une carte u ou c est indiquée. Par exemple, si la moyenne est en accidents par mois,
alors un graphique c ou u est indiqué parce que le numérateur est en termes d'accidents mais le
dénominateur est en termes de temps.

Interprétation des cartes de contrôle Les


cartes de contrôle fournissent la définition opérationnelle du terme cause spéciale.
Une cause spéciale est simplement tout ce qui conduit à une observation au­delà d'une limite de
contrôle. Cependant, cette utilisation simpliste des cartes de contrôle ne rend pas justice à leur
puissance. Les cartes de contrôle sont des enregistrements continus de la performance du processus
et, à ce titre, elles contiennent une vaste réserve d'informations sur les améliorations potentielles.
Bien que certaines directives soient présentées ici, l'interprétation des cartes de contrôle est un art
qui ne peut être développé qu'en examinant de nombreuses cartes de contrôle et en sondant les
modèles pour identifier le système sous­jacent de causes à l'œuvre.

Les modèles anormaux sont la situation classique de cause spéciale (Fig. 9.17). Les monstres
résultent de causes qui ont un effet important mais qui se produisent rarement.
Lorsque vous enquêtez sur des valeurs anormales, consultez le diagramme de cause à effet pour les
éléments qui répondent à ces critères. La clé de l'identification des causes anormales est la rapidité
de la collecte et de l'enregistrement des données. Si vous avez des difficultés, essayez d'échantillonner
plus fréquemment.
La dérive est généralement observée dans les processus où la valeur de processus actuelle est
en partie déterminée par l'état de processus précédent. Par exemple, si le processus est un bain de
placage, le contenu du réservoir ne peut pas changer instantanément ;

Outil S'est détaché


cassé dans le montage
X X

Figure 9.17 Modèles de carte de contrôle : monstres.


Machine Translated by Google

Q uantification des variations de processus 191

Ajouter le produit

chimique à la solution Répartition réelle

X XX

X
Processus

0 aptitude

Figure 9.18 Modèles de carte de contrôle : dérive.

au lieu de cela, il changera progressivement (Fig. 9.18). Un autre exemple courant est l'usure de
l'outil : la taille de l'outil est liée à sa taille précédente. Une fois la cause de la dérive déterminée,
les mesures appropriées peuvent être prises. Chaque fois que cela est économiquement faisable,
la dérive doit être éliminée ; par exemple, installez un distributeur automatique de produits
chimiques pour le bain de placage ou effectuez des ajustements de compensation automatiques
pour corriger l'usure de l'outil. Notez que la variabilité totale du processus augmente lorsque la
dérive est autorisée, ce qui augmente les coûts. Lorsque l'élimination de la dérive n'est pas
possible, la carte de contrôle peut être modifiée de deux manières :

1. Faites en sorte que la pente de la ligne médiane et les limites de contrôle correspondent
à la dérive naturelle du processus. La carte de contrôle détectera alors les écarts à la
dérive naturelle.

2. Tracer les écarts par rapport à la dérive naturelle ou attendue.

Des cycles se produisent souvent en raison de la nature du processus. Les cycles courants
comprennent l'heure du jour, le jour de la semaine, le mois de l'année, le trimestre de l'année, la
semaine du cycle comptable, etc. (Fig. 9.19). Les cycles sont provoqués par la modification des
entrées de processus ou des méthodes selon un calendrier régulier. L'existence de ce calendrier
et son effet sur le processus peuvent ou non être connus à l'avance. Une fois le cycle découvert,
des mesures peuvent être prises. L'action peut consister à ajuster la carte de contrôle en traçant
la mesure de contrôle par rapport à une base variable. Par exemple, si un cycle de jour de la
semaine existe pour les erreurs d'expédition en raison de la charge de travail, vous pouvez tracer
les erreurs d'expédition pour 100 commandes expédiées au lieu des erreurs d'expédition par
jour. Alternativement, il peut être intéressant de changer de système pour lisser le cycle. La
plupart des processus fonctionnent plus efficacement lorsque les entrées sont relativement
stables et lorsque les méthodes sont modifiées le moins possible.
Machine Translated by Google

192 Contrôle de processus

X X

0 M
WFSMWFSMWFSMWFS
STT STT STT STT

Figure 9.19 Modèles de carte de contrôle : cycles.

Poste 6 Poste 6 Poste 6 Poste 6 Poste 6

Figure 9.20 Modèles de carte de contrôle : modèles répétitifs.

Un processus contrôlé ne présentera qu'une variation « aléatoire ».


Un modèle où chaque nième élément est différent est, évidemment, non aléatoire
(Fig. 9.20). Ces schémas sont parfois assez subtils et difficiles à identifier. Il est
parfois utile de voir si la fraction moyenne de défectueux est proche d'un certain
multiple d'un nombre connu de flux de processus. Par exemple, si la machine est
une remplisseuse à 40 stations, recherchez les problèmes qui surviennent 1/40,
2/40, 3/40, etc., du temps.
Lors du tracé des données de mesure, l'hypothèse est que les nombres
existent sur un continuum ; c'est­à­dire qu'il y aura de nombreuses valeurs
différentes dans l'ensemble de données. Dans le monde réel, les données ne sont
jamais complètement continues (Fig. 9.21). Cela n'a généralement pas beaucoup
d'importance s'il y a, disons, 10 nombres différents ou plus. Cependant, lorsqu'il n'y
a que quelques chiffres qui apparaissent à plusieurs reprises, cela peut entraîner
des problèmes d'analyse. Un problème courant est que la carte R sous­estime la
plage moyenne, ce qui fait que les limites de contrôle sur les cartes moyenne et
plage sont trop proches l'une de l'autre. Le résultat sera trop de "fausses alertes" et
une perte générale de confiance dans la CPS.
Machine Translated by Google

Q uantification des variations de processus 193

Figure 9.21 Modèles de carte de contrôle : données discrètes.

La cause habituelle de cette situation est une résolution de jauge inadéquate. La solution
idéale est d'obtenir une jauge avec une plus grande résolution. Parfois, le problème survient parce
que les opérateurs, les inspecteurs ou les ordinateurs arrondissent les chiffres. La solution ici est
d'enregistrer des chiffres supplémentaires.
La raison pour laquelle le SPC est fait est d'accélérer le processus d'apprentissage et de
produire éventuellement une amélioration. Les cartes de contrôle servent d'enregistrements
historiques du processus d'apprentissage et peuvent être utilisées par d'autres pour améliorer
d'autres processus. Lorsqu'une amélioration est réalisée, le changement doit être écrit sur
l'ancienne carte de contrôle ; son effet apparaîtra comme un processus moins variable. Ces
tableaux sont également utiles pour communiquer les résultats aux dirigeants, fournisseurs,
clients et autres personnes intéressées par l'amélioration de la qualité (Fig. 9.22).

Des modèles apparemment aléatoires sur une carte de contrôle sont la preuve de causes de
variation inconnues, ce qui n'est pas la même chose qu'une variation sans cause . Il devrait y
avoir un effort continu pour réduire la variation de ces soi­disant causes communes. Pour ce faire,
il faut que les causes inconnues de variation

Avant le changement Après changement

Figure 9.22 Modèles de carte de contrôle : changements prévus.


Machine Translated by Google

194 Contrôle de processus

J J J TT

MM M M MM M

T = Té

M = Marie
0

Figure 9.23 Modèles de carte de contrôle : différences suspectées.

être indentifié. Une façon d'y parvenir est une évaluation rétrospective des cartes de contrôle.
Cela implique de faire un remue­méninges et de préparer des diagrammes de cause à effet,
puis de relier les modèles de carte de contrôle aux causes répertoriées sur le diagramme. Par
exemple, si « opérateur » est une cause suspectée de variation, placez une étiquette sur les
points de la carte de contrôle produite par chaque opérateur (Fig. 9.23). Si les étiquettes
présentent un motif, il existe des preuves suggérant un problème. Mener une enquête sur les
raisons et mettre en place des expériences contrôlées (études prospectives) pour tester les
théories proposées. Si les expériences indiquent une véritable relation de cause à effet,
apportez les améliorations de processus appropriées. Gardez à l'esprit qu'une association
statistique n'est pas la même chose qu'une corrélation causale. L'association observée doit
être étayée par une solide expertise en la matière et des données expérimentales.

Un mélange existe lorsque les données de deux systèmes de cause différents sont tracées
sur une seule carte de contrôle (Fig. 9.24). Cela indique un échec dans la création

Figure 9.24 Modèles de carte de contrôle : mélange.


Machine Translated by Google

Q uantification des variations de processus 195

sous­groupes rationnels. Les différences sous­jacentes doivent être identifiées et des mesures
correctives doivent être prises. La nature de l'action corrective déterminera comment la carte de
contrôle doit être modifiée.
Par exemple, si le mélange représente deux opérateurs différents qui peuvent être rendus
plus cohérents, une seule carte de contrôle peut être utilisée pour surveiller le nouveau processus
cohérent. Alternativement, si le mélange représente la différence entre le nombre de cas reçus
aux urgences le samedi soir et le nombre reçu pendant la semaine, des graphiques de contrôle
distincts doivent être utilisés pour surveiller la charge de patients pendant les deux périodes
différentes.

Exécuter
les tests Si le processus est stable, la distribution des moyennes des sous­groupes sera à peu
près normale. Dans cet esprit, nous pouvons également analyser les modèles sur les cartes de
contrôle pour voir s'ils pourraient être attribués à une cause particulière de variation. Pour ce
faire, nous divisons une distribution normale en zones, chaque zone étant large d'un écart type.
La figure 9.25 montre le pourcentage approximatif que nous nous attendons à trouver dans
chaque zone à partir d'un processus stable.

La zone C est la zone de la moyenne à la moyenne plus ou moins un sigma, la zone B est
de plus ou moins un sigma à plus ou moins deux sigma, et la zone A est de plus ou moins deux
sigma à plus ou moins trois sigma.

A C C A
2,14% B 13,59 % 34,13 % 34,13 % B 13,59 % 2,14%

–3σ –2σ –1σ µ +1σ +2σ +3σ

Figure 9.25 Centiles de la distribution normale.


Machine Translated by Google

196 Contrôle de processus

UCL +3σ
UN
+2σ
B
+1σ
= C
X µ
C
–1σ
B
–2σ
UN

LCL –3σ

Figure 9.26 Lignes de zone de distribution normale sur une carte de contrôle.

Bien sûr, tout point au­delà de trois sigma (c'est­à­dire en dehors de la limite de contrôle) est une
indication d'un processus hors de contrôle.
Étant donné que les limites de contrôle sont à plus et moins trois écarts­types, trouver les
lignes un et deux sigma sur une carte de contrôle est aussi simple que de diviser la distance entre
la moyenne générale et l'une ou l'autre des limites de contrôle en tiers, ce qui peut être fait à l'aide
d'une règle. . Cela divise chaque moitié de la carte de contrôle en trois zones. Les trois zones
sont étiquetées A, B et C comme indiqué sur la Fig. 9.26.

Sur la base des pourcentages attendus dans chaque zone, des tests de fonctionnement
sensibles peuvent être développés pour analyser les schémas de variation dans les différentes zones.
Rappelez­vous que l'existence d'un modèle non aléatoire signifie qu'une cause particulière de
variation était (ou est) probablement présente. Les tests d'exécution des cartes de contrôle des
moyennes, np et c sont illustrés à la Fig. 9.27.

Utilisation des spécifications pour le contrôle de processus


Les cartes de contrôle pour différencier les causes communes et spéciales de variation ont été
inventées il y a près de 100 ans, mais de nombreuses organisations pensent que leurs processus
sont assez bien contrôlés sans elles. Malheureusement, dans la plupart des cas, ils se trompent.

L'alternative offerte par la plupart des praticiens est une carte de tendance standard, qui
ressemble beaucoup à la carte de contrôle individuelle, mais utilise des limites de spécification à
la place des limites de contrôle calculées. (Les limites de spécification font référence aux
exigences du client ou de la direction, définies comme une limite supérieure, une limite inférieure
ou les deux. Les observations en dehors des spécifications sont appelées défauts.)

Prenons l'exemple d'un opérateur utilisant ce type de graphique pour surveiller une ligne de
production. Un échantillon est prélevé du processus et comparé à la spécification. Si l'échantillon
est proche de la spécification, l'opérateur peut décider d'ajuster le processus, généralement en le
déplaçant à la même distance le dernier
Machine Translated by Google

Q uantification des variations de processus 197

Figure 9.27 Tests pour les modèles hors contrôle sur les cartes de contrôle (Nelson, 1984).

l'observation provenait de la cible de processus prévue. Par exemple, si la limite de spécification


supérieure (usl) est de 13 et la limite de spécification inférieure (lsl) est de 7, la cible du processus
est de 10 (calculée comme le point médian entre usl et lsl). Si une observation de processus de
13 était observée, l'opérateur ferait généralement
Machine Translated by Google

198 Contrôle de processus

Les effets de la falsification

Échantillon initial Après ajustement #1 Après ajustement #2

Variation
résultant
origina
Varian USL

LSL

Figure 9.28 Effet de la falsification du processus.

ajustements avec l'intention de déplacer la ligne médiane du processus moins 3 unités vers la
cible prévue de 10.
Cette situation est illustrée dans les deux premiers graphiques (à partir de la gauche) de la
Fig. 9.28. En ajustant le processus, l'opérateur a déplacé toute la distribution du processus
moins 3 unités. La distribution la plus à gauche (c'est­à­dire avant l'ajustement) était en fait
(dans ce cas) idéalement située entre les spécifications supérieure et inférieure. Deux
problèmes masquaient le fait que : (1) l'opérateur n'avait aucune idée de l'emplacement du
processus, car aucune carte de contrôle n'a été utilisée pour définir la distribution du processus,
et (2) la distribution du processus est trop large pour les spécifications, donc même si elle peut
ont été localisés de manière optimale avant l'ajustement, il y avait encore une forte probabilité
que le processus produise une sortie au­delà de chacune des spécifications.

L'opérateur ne pourrait apprécier ces problèmes que si une carte de contrôle était utilisée
pour déterminer sa variation de cause commune. Lorsque des ajustements sont effectués en
l'absence d'une cause particulière, l'ajustement entraîne une variation supplémentaire, comme
indiqué sur la figure. La quantité minimale de variation se produit lorsque le processus n'est pas
ajusté. Étant donné que ce processus n'était pas capable de produire de manière fiable une
sortie conforme aux spécifications, une inspection à 100 % de sa sortie est requise. En fait,
chaque fois qu'un processus est hors de contrôle ou que son état de contrôle est inconnu, seul
un échantillonnage à 100 % peut être utilisé.

Lorsque la variation de cause commune est traitée comme une variation de cause spéciale
et que des ajustements sont apportés au processus, une altération du processus s'est produite
et la variation du processus a augmenté. Cela peut se produire dans n'importe quel type de
processus, y compris les processus de service/transactionnels.
Le meilleur moyen de diagnostiquer la falsification est de mener une étude de capacité du
procédé et d'utiliser une carte de contrôle pour fournir des lignes directrices pour ajuster le
procédé.
Machine Translated by Google

Q uantification des variations de processus 199

La meilleure analyse des effets de la falsification est peut­être celle de Deming (1986).
Deming décrit quatre types courants de falsification en faisant l'analogie de viser un entonnoir
pour atteindre une cible souhaitée. Ces « règles de l'entonnoir » sont décrites par Deming (1986,
p. 328) :

1. "Laissez l'entonnoir fixe, dirigé vers la cible, pas de réglage."

2. "A la chute k (k = 1, 2, 3, ...) la bille s'immobilisera au point zk , mesuré à partir de la


cible. (En d'autres termes, zk est l'erreur à la chute k.)
Déplacez l'entonnoir de la distance –zk à partir de la dernière position. Mémoire 1."

3. "Placez l'entonnoir à chaque goutte juste au­dessus du point zk , la mesuré à partir de


cible. Pas de mémoire.

4. "Placez l'entonnoir à chaque goutte juste au­dessus de l'endroit (zk ) où il s'est arrêté
pour la dernière fois. Pas de mémoire.

La règle n°1 est la meilleure règle pour les processus stables. En suivant cette règle, la
moyenne du processus restera stable et la variance sera minimisée. La règle #2 produit une sortie
stable mais avec deux fois la variance de la règle #1. La règle n°3 aboutit à un système qui «
explose » ; c'est­à­dire qu'un motif symétrique apparaîtra avec une variance qui augmente sans
limite. La règle n°4 crée un motif qui s'éloigne régulièrement de la cible, sans limite (voir Fig.
9.29).
A première vue, on peut s'interroger sur la pertinence de règles aussi abstraites en
apparence. Cependant, après un examen plus attentif, on trouve de nombreuses situations
pratiques où ces règles s'appliquent.
La règle n° 1 est la situation idéale et elle peut être approchée en utilisant des cartes de
contrôle pour guider la prise de décision. Si des ajustements de processus sont effectués
uniquement lorsque des causes spéciales sont indiquées et identifiées, un schéma similaire à
celui produit par la règle n° 1 en résultera.
La règle n ° 2 a un attrait intuitif pour de nombreuses personnes. Il est couramment rencontré
dans des activités telles que l'étalonnage de jauge (vérifier la norme une fois et ajuster la jauge
en conséquence) ou dans certains équipements automatisés (à l'aide d'une jauge automatique,
vérifier la taille de la dernière caractéristique produite et faire un

25

20

15

dix

0
0 50 100 150 200
–5

Figure 9.29 Résultats de simulation de règle d'entonnoir.


Machine Translated by Google

200 Contrôle de processus

ajustement compensatoire). Puisque le système produit un résultat stable, cette situation


peut passer inaperçue indéfiniment. Cependant, comme l'a montré Taguchi (1986), une
variance accrue se traduit par une moins bonne qualité et un coût plus élevé.
Le raisonnement qui mène à la règle n° 3 ressemble à ceci : « Une mesure a été prise
et il s'est avéré qu'elle était de 10 unités au­dessus de la cible souhaitée.
Cela s'est produit parce que le processus était trop élevé de 10 unités. Je veux que la
moyenne soit égale à la cible. Pour ce faire, je dois essayer de faire en sorte que l'unité
suivante soit trop basse de 10 unités. Cela pourrait être utilisé, par exemple, dans la
préparation d'une solution chimique. Bien que raisonnable à première vue, le résultat de
cette approche est un système extrêmement oscillant.
Un exemple courant de la règle n° 4 est la méthode « former le formateur ». Un maître
passe peu de temps à former un groupe « d'experts », qui forment ensuite d'autres, qui
forment d'autres, etc. Un exemple est la formation sur le tas. Une autre consiste à créer une
configuration en utilisant une pièce du dernier travail. Un autre encore est un système
d'étalonnage de jauge où les normes sont utilisées pour créer d'autres normes, qui sont
utilisées pour en créer d'autres encore, et ainsi de suite. La distance entre le résultat final et
l'idéal dépend du nombre de niveaux de progression du schéma.

Études de capacité de processus


L'analyse de la capacité du processus fournit une indication de la capacité d'un processus
contrôlé à répondre de manière fiable aux exigences du client. Une analyse de capabilité
est une prédiction, elle ne peut donc être obtenue qu'après avoir vérifié que le processus est
sous contrôle statistique. L'analyse de capabilité de processus est un processus en deux
étapes qui implique :

1. Amener un processus dans un état de contrôle statistique pendant une période de


temps raisonnable
2. Comparer la performance à long terme du processus aux exigences de gestion ou
d'ingénierie

L'analyse de la capabilité du processus peut être effectuée avec des données d'attribut
ou des données continues si, et seulement si, le processus est sous contrôle statistique, et
ce depuis une période de temps raisonnable. L'application de méthodes de capacité de
processus à des processus qui ne sont pas sous contrôle statistique entraîne des estimations
peu fiables de la capacité de processus et ne devrait jamais être effectuée.

Comment effectuer une étude de capacité de processus


Cette section présente une approche étape par étape de l'analyse de capacité de processus
(Pyzdek, 1985). L'approche fait fréquemment référence à des matériaux présentés ailleurs
dans ce livre.

1. Sélectionnez un candidat pour l'étude. Cette étape doit être institutionnalisée.


Un objectif de toute organisation devrait être l'amélioration continue des processus.
Machine Translated by Google

Q uantification des variations de processus 201

Cependant, parce qu'une entreprise ne dispose que d'une base de ressources limitée et
ne peut pas résoudre tous les problèmes simultanément, elle doit établir des priorités
pour ses efforts. Les outils pour cela incluent l'analyse de Pareto et les diagrammes en
arête de poisson.

2. Définissez le processus. Il est trop facile de tomber dans le piège de résoudre le mauvais
problème. Une fois la zone candidate sélectionnée à l'étape 1, définir le périmètre de
l'étude. Un processus est une combinaison unique de machines, d'outils, de méthodes
et de personnel engagés dans la création de valeur en fournissant un produit ou un
service. Chaque élément du processus doit être identifié à ce stade. Ce n'est pas un
exercice trivial. L'apport de nombreuses personnes peut être nécessaire. Il est probable
qu'il y ait un certain nombre d'opinions contradictoires sur ce que le processus implique
réellement.

3. Obtenir des ressources pour l'étude. Les études de capabilité des processus perturbent
les opérations normales et nécessitent des dépenses importantes en ressources
matérielles et humaines. S'agissant d'un projet d'importance majeure, il doit être géré
comme tel. Toutes les techniques usuelles de gestion de projet doivent être mises en
œuvre. Cela inclut la planification, l'ordonnancement et la création de rapports sur l'état
de la gestion.

4. Évaluez le système de mesure. En utilisant les techniques décrites au Chap. 14 évaluer


la capacité du système de mesure à faire le travail. Encore une fois, soyez prêt à passer
le temps nécessaire pour obtenir un moyen valable de mesurer le processus avant de
continuer.

5. Préparez un plan de contrôle. Le but du plan de contrôle est double : (1) isoler et contrôler
autant de variables importantes que possible, et (2) fournir un mécanisme de suivi des
variables qui ne peuvent pas être complètement contrôlées. L'objet de l'analyse de
capabilité est de déterminer ce que le processus peut faire s'il est exploité de la manière
pour laquelle il est conçu. Cela signifie que des sources de variation potentielle aussi
évidentes que les opérateurs et les vendeurs seront contrôlées pendant la réalisation de
l'étude. En d'autres termes, un seul opérateur bien formé sera utilisé et le matériel
proviendra d'un seul fournisseur.

Certaines variables sont généralement importantes, mais elles ne sont pas


contrôlables. Un exemple est l'environnement ambiant, tel que la température, la pression
barométrique ou l'humidité. Certaines variables de processus peuvent se dégrader dans
le cadre du fonctionnement normal ; par exemple, l'usure des outils et l'utilisation de
produits chimiques. Ces variables doivent toujours être suivies à l'aide de feuilles de
journal et d'outils similaires. Voir Chap. 7 pour des informations sur la conception de
systèmes de collecte de données.

6. Sélectionnez une méthode pour l'analyse. La méthode SPC dépendra des décisions
prises jusqu'à présent. Si la mesure de performance est un attribut, l'un des tableaux
d'attributs sera utilisé. variables
Machine Translated by Google

202 Contrôle de processus

des graphiques seront utilisés pour les mesures de performance des processus
évaluées sur une échelle continue. Le niveau de compétence du personnel impliqué,
le besoin de sensibilité et les autres ressources nécessaires pour collecter, enregistrer
et analyser les données seront également pris en compte.

7. Rassemblez et analysez les données. Utilisez l'une des cartes de contrôle décrites
dans ce chapitre, plus le bon sens. Il est généralement conseillé d'avoir au moins deux
personnes qui passent en revue l'analyse des données pour détecter les erreurs
involontaires lors de la transcription des données ou de l'exécution de l'analyse.

8. Recherchez et supprimez les causes spéciales. Une cause spéciale de variation peut
être évidente, ou cela peut prendre des mois d'enquête pour la trouver. L'effet de la
cause spéciale peut être bon ou mauvais. La suppression d'une cause spéciale qui a
un effet néfaste implique généralement l'élimination de la cause elle­même. Par
exemple, si des opérateurs mal formés sont à l'origine de la variabilité, la cause
particulière est le système de formation (et non l'opérateur), et elle est éliminée en
développant un système de formation amélioré ou un processus nécessitant moins de
formation. Cependant, la suppression d'une cause spéciale bénéfique peut en réalité
impliquer l'incorporation de la cause spéciale dans la procédure d'exploitation normale.
Par exemple, s'il est découvert que des matériaux avec une chimie particulière
produisent un meilleur produit, la cause spéciale est le matériau nouvellement
découvert et il peut être fait une cause commune simplement en changeant la
spécification pour s'assurer que la nouvelle chimie est toujours utilisée.

9. Estimer la capabilité du procédé. Un point ne saurait être surestimé : la capabilité du


procédé ne peut être estimée tant qu'un état de contrôle statistique n'a pas été atteint !
Une fois cette étape atteinte, les méthodes décrites plus loin dans cette section
peuvent être utilisées. Une fois que l'estimation numérique de la capacité du procédé
a été obtenue, elle doit être comparée aux objectifs de la direction pour le procédé, ou
elle peut être utilisée comme entrée dans des modèles économiques. Les règles du
tout ou rien de Deming (voir Échantillonnage d'acceptation) fournissent un modèle
simple qui peut être utilisé pour déterminer si la sortie d'un processus doit être triée à
100 % ou expédiée telle quelle.

10. Établir un plan d'amélioration continue des processus. Une fois qu'un état de processus
stable a été atteint, des mesures doivent être prises pour le maintenir et l'améliorer. La
CPS n'est qu'un moyen parmi d'autres d'y parvenir. Bien plus important que l'approche
particulière adoptée est un environnement d'entreprise qui fait de l'amélioration
continue une partie normale de la routine quotidienne de chacun.

Analyse statistique des données de capacité de processus Cette


section présente plusieurs méthodes d'analyse des données obtenues à partir d'une étude de
capacité de processus.
Machine Translated by Google

Q uantification des variations de processus 203

Méthode de la carte de contrôle : données d'attributs

1. Recueillir des échantillons de 25 sous­groupes ou plus d'unités produites consécutivement.


Suivez les directives présentées aux étapes 1 à 10 ci­dessus.
Reportez les résultats sur la carte de contrôle appropriée (par exemple, carte c ).
Si tous les groupes sont sous contrôle statistique, passez à l'étape 3. Sinon, identifiez
la cause particulière de la variation et prenez des mesures pour l'éliminer. Notez qu'une
cause spéciale pourrait être bénéfique. Les activités bénéfiques peuvent être « éliminées
» en tant que causes spéciales en les faisant tout le temps. Une cause spéciale est «
spéciale » uniquement parce qu'elle va et vient, et non parce que son impact est bon
ou mauvais.
En utilisant les limites de contrôle de l'étape précédente (appelées limites de
contrôle de fonctionnement), utilisez la carte de contrôle pendant un certain temps. Une
fois que vous êtes convaincu qu'un temps suffisant s'est écoulé pour que la plupart des
causes spéciales aient été identifiées et éliminées, comme le vérifient les cartes de
contrôle, passez à l'étape 4.

2. La capabilité du processus est estimée par la ligne centrale de la carte de contrôle.


La ligne centrale sur les tableaux d'attributs est le niveau de qualité attendu à long
terme du processus, par exemple, la proportion moyenne de défectueux.
C'est le niveau créé par les causes communes de variation.

Si la capacité du processus ne répond pas aux exigences de gestion, prenez des mesures
immédiates pour modifier le processus pour le mieux. La « résolution de problèmes » (par
exemple, l'étude de chaque élément défectueux) n'aidera pas et peut entraîner une falsification.
Qu'il réponde ou non aux exigences, soyez toujours à l'affût des améliorations possibles des
processus. Les cartes de contrôle permettront de vérifier l'amélioration.

Méthode de la carte de contrôle : données variables

1. Recueillir des échantillons de 25 sous­groupes ou plus d'unités produites consécutivement,


en suivant le plan en 10 étapes décrit ci­dessus.
Reportez les résultats sur la carte de contrôle appropriée (par exemple, carte X et
R). Si tous les groupes sont en contrôle statistique, passez à l'étape #3.
Sinon, identifiez la cause particulière de la variation et prenez des mesures pour
l'éliminer.

2. À l'aide des limites de contrôle de l'étape précédente (appelées limites de contrôle


d'opération), utilisez la carte de contrôle pendant un certain temps. Une fois que vous
êtes convaincu qu'un temps suffisant s'est écoulé pour que la plupart des causes
spéciales aient été identifiées et éliminées, comme le vérifient les cartes de contrôle,
estimez la capacité du processus comme décrit ci­dessous.

La capabilité du procédé est estimée à partir de la moyenne du procédé et de l'écart type,


où l'écart type est calculé sur la base de la plage moyenne ou de l'écart type moyen. Lorsque le
contrôle statistique a
Machine Translated by Google

204 Contrôle de processus

été atteint, la capabilité est le niveau créé par les causes courantes de variation du processus.
Les formules d'estimation de l'écart­type de procédé
sont :

R
Méthode du graphique de plage : σX =
d2

S
=
Méthode graphique Sigma : σX
c
4

Les valeurs d2 et c4 sont des constantes du tableau en annexe 1.

Indices de capacité de processus


Ce n'est que maintenant que le processus peut être comparé aux exigences d'ingénierie.
Une façon d'y parvenir consiste à calculer des indices de capabilité. Le tableau 9.11 montre les
calculs pour plusieurs indices de capabilité, lorsque la distribution des observations brutes est
approchée par une distribution normale. Le logiciel SPC est généralement utilisé pour calculer
ces valeurs, en particulier lorsque la non­normalité est suspectée.

tolérance d'ingénierie
CP =
6σˆ

où tolérance technique = limite de spécification supérieure – limite de spécification inférieure

6σˆ
CR = × 100
tolérance d'ingénierie

où tolérance technique = limite de spécification supérieure – limite de spécification inférieure

tolérance d'ingénierie
CM =
8σˆ

où tolérance technique = limite de spécification supérieure – limite de spécification inférieure

Z MIN = Le minimum { ZZ
LU, }

Z MIN
C =
3
PAQUET

C
= p
C
pm 2

(µ T)
1+ ˆ
2σ _

Tableau 9.11 Indices de capacité de processus


Machine Translated by Google

Q uantification des variations de processus 205

Interprétation des indices de capabilité Le


principal inconvénient de l'utilisation des indices de capabilité des processus est peut­être qu'ils
éloignent l'analyse des données. Le danger est que l'analyste perde de vue l'objectif de l'analyse
de capabilité, qui est d'améliorer la qualité. Dans la mesure où les indices de capacité aident à
atteindre cet objectif, ils en valent la peine. Dans la mesure où ils détournent l'attention du but, ils
sont nocifs.

L'ingénieur qualité doit continuellement se référer à ce principe lorsqu'il


interpréter les indices de capacité.

CP Historiquement, c'est l'un des premiers indices de capabilité utilisés. La "tolérance


naturelle" du processus est calculée comme 6s. L'indice fait simplement une comparaison
directe de la tolérance naturelle du processus avec les exigences techniques. En supposant
que la distribution du processus est normale et que la moyenne du processus est exactement
centrée entre les exigences techniques, un indice CP de 1 donnerait un « processus
capable ». Cependant, pour laisser un peu de place à la dérive du processus, la valeur
minimale généralement acceptée pour CP est de 1,33. En général, plus le CP est grand,
mieux c'est. L' indice CP présente deux lacunes majeures. Premièrement, il ne peut pas être
utilisé à moins qu'il n'y ait à la fois des spécifications supérieures et inférieures. Deuxièmement,
il ne tient pas compte du centrage du processus. Si la moyenne du processus n'est pas
exactement centrée par rapport aux exigences techniques, l' indice CP donnera des résultats
trompeurs. Ces dernières années, l' indice CP a été largement remplacé par CPK (voir page
suivante).

CR L' indice CR est algébriquement équivalent à l' indice CP . L'indice fait simplement une
comparaison directe du processus avec les exigences d'ingénierie. En supposant que la
distribution du processus est normale et que la moyenne du processus est exactement
centrée entre les exigences techniques, un indice CR de 100 % donnerait un "processus
capable". Cependant, pour laisser un peu de place à la dérive du processus, la valeur
maximale généralement acceptée pour le CR est de 75 %. En général, plus le CR est petit,
mieux c'est. L' indice CR souffre des mêmes défauts que l' indice CP .

CM L' indice CM est généralement utilisé pour évaluer les études de capabilité des machines,
plutôt que les études de capabilité des processus à part entière. Étant donné que la variation
augmentera lorsque des sources normales de variation de processus sont ajoutées (par
exemple, outillage, montages, matériaux, etc.), CM utilise une répartition quatre sigma plutôt
qu'une répartition trois sigma.

ZU L' indice ZU mesure l'emplacement du processus (tendance centrale) par rapport à son
écart type et à l'exigence supérieure. Si la distribution est normale, la valeur de ZU peut être
utilisée pour déterminer le pourcentage au­dessus de l'exigence supérieure en utilisant le
tableau de l'annexe 2. En général, plus ZU est grand, mieux c'est. Une valeur d'au moins +3
est nécessaire pour
Machine Translated by Google

206 Contrôle de processus

s'assurer que 0,1 % ou moins de produits défectueux seront produits. Une valeur de +4 est
généralement souhaitée pour laisser une certaine marge à la dérive du processus.

ZL L' indice ZL mesure l'emplacement du processus par rapport à son écart type et à
l'exigence inférieure. Si la distribution est normale, la valeur de ZL peut être utilisée
pour déterminer le pourcentage au­dessus de l'exigence supérieure en utilisant le
tableau de l'annexe 2. En général, plus ZL est grand, mieux c'est. Une valeur d'au
moins +3 est requise pour s'assurer que 0,1 % ou moins de produits défectueux
seront produits. Une valeur de +4 est généralement souhaitée pour laisser une
certaine marge à la dérive du processus.
ZMIN La valeur de ZMIN est simplement la plus petite des valeurs ZL ou ZU .
Il est utilisé dans le calcul du CPK.
CPK La valeur de CPK est simplement ZMIN divisé par 3. Étant donné que la plus
petite valeur représente la spécification la plus proche, la valeur de CPK vous indique
si le processus est vraiment capable de répondre aux exigences. Un CPK d'au moins
+1 est requis et +1,33 est préférable. Notez que CPK est étroitement lié à CP et que
la différence entre CPK et CP représente le gain potentiel à tirer du centrage du
processus.
CPM Un CPM d'au moins 1 est requis et 1,33 est préférable. Le CPM est étroitement
lié au CP. La différence représente le gain potentiel à obtenir en rapprochant la
moyenne du procédé de la cible. Contrairement à CPK, la cible n'a pas besoin d'être
au centre de la plage de spécifications.

Par exemple, supposons qu'un processus est sous contrôle statistique sur la base d'un
graphique X et R avec des sous­groupes de 5. La moyenne générale (ou la ligne centrale
du graphique X ) est calculée comme 0,99832, et la plage moyenne (ou la ligne centrale
du graphique R graphique) est calculé comme 0,02205. D'après le tableau des valeurs de
d2 (annexe 1), nous trouvons que d2 est de 2,326 pour des sous­groupes de 5. Ainsi, en
utilisant l'équation ci­dessus pour calculer l'écart­type du processus à l'aide de la méthode
du diagramme de plage :

ˆ 0.
02205σ = = 0 .00948
2 .326

Si les exigences du processus sont une spécification inférieure de 0,980 et une


spécification supérieure de 1,020 (c'est­à­dire 1:000 ± 0:020), les valeurs Z sont calculées comme suit :


spécification supérieure X = 1 .020 0− 99832
.
Z tu = ˆ = 2 .3
σ 0 .00948

− − 0 .980
X spécification inférieure = 0 .99832
ZL = ˆ = 1 .9
σ 0 .00948

1 .020 0− 9800
.
= tolérance d'ingénierie
ˆ = = 0 .703
CP
6σ .
6 0 00948 ×
Machine Translated by Google

Q uantification des variations de processus 207

6 0,009
100 × 48 ×
= = 142 2 . %
CR = ×σˆ 6 100
tolérance d'ingénierie 0 .04

tolérance d'ingénierie 0 .04


C M= ˆ = = 0 .527
8σ × 00948
80 .
Z MIN 1 .9
Z MIN
= 1 9 2Minimum
31 { ., =
. }9 . C = == 0 .63
3 3
PAQUET

En supposant que la cible est précisément de 1 000, nous calculons :

C 0 .703
p
C PM = = = 0 .692
2 2

( XT
­) 1+
( 0 .99832 1 000
.
)
1+ ˆ2 2
σ 0,00948

Puisque la valeur minimale acceptable pour CP est de 1, le résultat de 0,703


indique que ce processus ne peut pas répondre aux exigences. De plus, étant
donné que l' indice CP ne tient pas compte du processus de centrage, nous savons
que le processus ne peut être rendu acceptable en ajustant simplement le processus
plus près du centre des exigences. Ainsi, nous nous attendrions à ce que les valeurs
ZL , ZU et ZMIN soient également inacceptables.
La valeur CR fournit toujours les mêmes conclusions que l' indice CP . Le nombre
implique que la « tolérance naturelle » du processus utilise 142,2 % de l'exigence
technique, ce qui est, bien sûr, inacceptable.
L' indice CM doit être de 1,33 ou plus. De toute évidence, ce n'est pas le cas. S'il
s'agissait d'une étude de capacité de la machine, la valeur de l' indice CM indiquerait que
la machine était incapable de répondre à l'exigence.
La valeur de CPK n'est que légèrement inférieure à celle de CP. Cela indique que
nous ne gagnerons pas grand­chose en centrant le processus. Le montant réel que nous
gagnerions peut être calculé en supposant que le processus est exactement centré sur
1 000 et en recalculant ZMIN. Cela donne un taux de rejet total prévu de 3,6 % au lieu de
4,0 %.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 10

Audits Qualité
Machine Translated by Google
Machine Translated by Google

l'audit est une comparaison des activités et/ou des résultats


observés avec les exigences documentées. Les preuves fournies
Un par les audits constituent la base de l'amélioration de l'élément
audité ou des exigences. Un audit qualité efficace peut prévenir les
problèmes en révélant des situations qui, bien qu'encore acceptables,
tendent vers un éventuel problème. L'attention de la direction attirée par
un rapport d'audit défavorable peut souvent prévenir de futures non­conformités.
ISO 19011, Lignes directrices pour l'audit des systèmes qualité, définit un audit qualité
comme un

processus systématique, indépendant et documenté pour obtenir des éléments probants


(enregistrements, déclarations de faits ou autres informations, qui sont pertinents pour les
critères d'audit et vérifiables) et les évaluer objectivement pour déterminer dans quelle
mesure les critères d'audit (ensemble de politiques, procédures ou exigences) sont remplies.

Les activités d'examen doivent répondre à plusieurs critères pour être considérées comme des audits.

Les visites informelles, bien qu'utiles, ne sont pas considérées comme une évaluation
systématique et ne répondent donc pas aux critères d'un audit. Les examens effectués
par les employés qui relèvent du chef de la fonction examinée sont également
importants, mais ne sont pas des audits. La référence aux « politiques, procédures ou
exigences » implique l'existence d'une documentation écrite.
Les systèmes de qualité non documentés ne constituent pas un sujet
approprié pour les audits de qualité. La mise en œuvre est auditée en comparant
les politiques, procédures ou exigences prévues avec les pratiques observées,
en veillant à savoir si (1) celles­ci sont correctement mises en œuvre et (2) si
oui, atteignent­elles les objectifs énoncés ?
Il n'est pas surprenant de constater qu'une activité aussi importante et aussi
courante que les audits qualité est couverte par un grand nombre de normes
différentes. Il est dans le meilleur intérêt de toutes les parties que l'activité de
vérification soit normalisée dans la mesure du possible. L'un des principes
fondamentaux d'un audit efficace est « pas de surprises », quelque chose de plus
facile à réaliser si toutes les parties concernées utilisent le même règlement. Les
normes d'audit sont, en général, des lignes directrices adoptées volontairement par
l'auditeur et l'audité. Souvent, les parties rendent la conformité obligatoire en spécifiant la norme d'audit

211
Machine Translated by Google

212 Contrôle de processus

Lorsque cela se produit, il est de pratique courante de spécifier la révision de la norme


applicable pour éviter que les modifications futures ne deviennent automatiquement
partie intégrante du contrat.
Willborn (1993) passe en revue huit des normes d'audit de qualité les plus populaires
et fournit une analyse comparative de ces normes dans ce qui suit
domaines :

• Caractéristiques générales des normes d'audit

• Auditeur (responsabilités, qualifications, indépendance, performance) •


Organismes d'audit (équipes d'audit, départements d'audit/
groupes)
• Client et audité

• Audit (initiation, planification, mise en œuvre) • Rapports


d'audit (rédaction, forme, contenu, révision, distribution) • Réalisation
d'audit (suivi, conservation des dossiers) • Assurance qualité

Des normes d'audit existent pour couvrir pratiquement tous les aspects de l'audit.
Le lecteur est invité à consulter ces normes, ou les résumés de Willborn, pour éviter de
réinventer la roue.

Types d'audits qualité Il existe


trois types fondamentaux d'audits qualité : les systèmes, les produits et les processus.
Les audits de systèmes sont les plus larges en termes de portée. Le système le plus
couramment audité est le système qualité : l'ensemble des activités conçues pour
garantir que le produit ou le service livré à l'utilisateur final est conforme à toutes les
exigences de qualité. Des audits de produits sont effectués pour confirmer que le
système a produit le résultat souhaité. Les audits de processus sont menés pour vérifier
que les entrées, les actions et les sorties d'un processus donné correspondent aux
exigences. Tous ces termes sont formellement définis dans plusieurs normes d'audit.

Audits de produits
Les audits de produits sont généralement menés du point de vue du client.
ISO 9000:2000 divise les produits en quatre catégories génériques : matériel, logiciel,
matériaux transformés et services.
Les exigences du système qualité sont essentiellement les mêmes pour toutes les
catégories de produits. ISO 9000 définit quatre facettes de la qualité des produits : la
qualité due à la définition du produit pour répondre aux exigences du marché, la qualité
due à la conception, la qualité due à la conformité à la conception et la qualité due au
support produit. Traditionnellement, les audits de la qualité des produits étaient menés
principalement pour déterminer la conformité avec la conception. Cependant, la qualité moderne
Machine Translated by Google

Audits de qualité 213

les normes d'audit (par exemple, la famille ISO 9000) sont conçues pour déterminer les quatre
facettes de la qualité.
L'un des objectifs de l'audit de produit est d'estimer la qualité livrée aux clients ; ainsi, les
audits de produits ont généralement lieu une fois les inspections internes terminées.

Les audits de produits diffèrent de l'inspection des manières suivantes : (1) les audits ont
une portée plus large que les inspections, (2) les audits fournissent plus de profondeur que les
inspections, (3) les audits fournissent des informations utiles pour l'amélioration de la qualité
des produits, et (4) les audits offrent une autre niveau d'assurance au­delà de l'inspection de
routine. L'inspection se concentre normalement sur un petit nombre de caractéristiques
importantes du produit. Les échantillons d'inspection sont sélectionnés au hasard dans des
tailles suffisamment grandes pour produire des inférences statistiquement valides concernant la qualité du lot.
Les audits, quant à eux, portent sur la qualité produite par le système. Ainsi, l'unité de produit
est considérée comme représentant le résultat commun du système qui l'a produit. Les
échantillons d'audit semblent parfois assez petits, mais ils servent à montrer un instantané du
système.
Les échantillons d'audit sont examinés plus en profondeur que les échantillons de
produits ; c'est­à­dire que plus d'informations sont recueillies par unité de produit. Les résultats
de l'échantillon sont examinés du point de vue des systèmes. L'examen va au­delà de la simple
conformité aux exigences. Des écarts mineurs sont notés, même s'ils ne sont pas suffisamment
graves pour justifier un rejet. Une pratique courante consiste à utiliser un système de
pondération pour attribuer des « démérites » à chaque unité de produit.
L'esthétique peut également être évaluée par l'auditeur (par exemple, défauts de peinture,
rayures, etc.). Le tableau 10.1 présente un exemple de vérification par un éditeur d'un
échantillon de 1 000 livres d'un titre donné.
Ces scores d'audit sont présentés sur des histogrammes et des cartes de contrôle pour
déterminer leur distribution et identifier les tendances. Les résultats de l'audit des produits sont
comparés aux exigences marketing (c'est­à­dire aux exigences des clients) ainsi qu'aux
exigences techniques.
Les audits de produits sont souvent effectués sur le marché lui­même. En obtenant le
produit comme le ferait un client, l'auditeur peut examiner l'impact du transport, de l'emballage,
de la manutention, du stockage, etc. Ces audits permettent également de comparer l'état du
produit avec celui proposé par les concurrents.

Problème Gravité Lester Fréquence Démérites


Couverture pliée Majeur 5 2 dix

Page froissée Mineure 3 5 15

Impression légère Accessoire 1 15 15

Échec de liaison Majeur 5 1 5


TOTAL 23 45

Tableau 10.1 Résultats de l'audit comptable


Machine Translated by Google

214 Contrôle de processus

Audit de processus

Les audits de processus se concentrent sur des activités ou des unités organisationnelles
spécifiques. Les exemples incluent l'ingénierie, le marketing, l'étalonnage, l'inspection,
le contrôle des matériaux divergents, les actions correctives, etc.

Les audits de processus comparent les opérations réelles avec les exigences
documentées des opérations. Les audits de processus doivent commencer par une
compréhension de la façon dont le processus est censé fonctionner. Un organigramme
de processus est un outil utile pour aider à atteindre cette compréhension.
On dit qu'un bon reporter détermine la réponse à six questions : qui ? quoi ? quand?
où? pourquoi ? et comment? Cette approche fonctionne également pour l'auditeur de
processus. Pour chaque tâche de processus importante, demandez :

•Qui est censé faire le travail ? (Des informations d'identification sont­elles


requises ?) • Qu'est­ce qui est censé
être fait ? •Quand est­ce censé être fait ?
•Où est­ce censé être fait ? •Pourquoi cette
tâche est­elle effectuée ?
•Comment cette tâche est­elle censée être effectuée ?

La documentation doit contenir les réponses à chacune de ces questions. Si ce n'est


pas le cas, l'auditeur doit soupçonner que le processus n'est pas correctement
documenté. Bien sûr, le processus réel doit être exécuté conformément aux exigences
documentées.

Audits de systèmes
Les systèmes sont des arrangements de processus : un groupe d'éléments en
interaction, interreliés ou interdépendants formant un tout complexe. Les audits de
systèmes diffèrent des audits de processus principalement par leur portée. Alors que
les audits de processus se concentrent sur un aspect isolé du système, les audits de
systèmes se concentrent sur les relations entre les différents processus du système.
Dans le cas des audits qualité, le souci porte sur le système qualité. Le système qualité
est l'ensemble de toutes les activités conçues pour garantir que toutes les exigences
qualité importantes sont déterminées, documentées et respectées.

Le niveau d'exigences des systèmes qualité varie selon le type d'organisme audité
et, éventuellement, selon la taille de l'organisme. Les organisations qui produisent,
distribuent et supportent un produit ont des besoins plus importants que les organisations
qui vendent un service. Les modifications apportées à la série ISO 9000 en 2000 ont
défini les exigences en termes plus larges qui s'appliquaient plus clairement à la plupart
ou à toutes les organisations.
Machine Translated by Google

Audits de qualité 215

Audits internes
Compte tenu des avantages qui découlent de l'audit de qualité, il n'est pas surprenant
que la plupart des audits de qualité soient des activités internes menées par des
organisations soucieuses de s'améliorer. Bien entendu, les mêmes principes
s'appliquent aux audits internes qu'aux audits externes (par exemple, l'indépendance des auditeurs).
Ishikawa (1985) décrit quatre types d'audits internes :

•Audit par le président •Audit


par le chef de l'unité (par chef de division, directeur d'usine, directeur de
succursale, etc.) •Audit de
contrôle qualité (CQ) par le personnel du CQ
•Audit mutuel du CQ

Les audits du président ressemblent à ce que Tom Peters a appelé « la gestion


par l'errance » (MBWA). Le président visite personnellement différents secteurs de
l'organisation pour faire des observations de première main sur l'efficacité du système
qualité. L'audit par le chef de l'unité est équivalent à l'audit du président, sauf que
l'audit est limité aux domaines fonctionnels relevant de la compétence du chef. Des
audits de contrôle qualité sont menés par le service qualité dans différentes parties de
l'organisation.
Contrairement aux présidents et aux chefs d'unité qui auditent leurs propres domaines,
les auditeurs du service qualité doivent obtenir une autorisation avant d'effectuer des
audits. Dans les audits QC mutuels, des divisions distinctes de l'entreprise échangent
leurs équipes d'audit. Cela offre une autre perspective d'une équipe avec une plus
grande indépendance.

Audits bipartites
La plupart des audits sont menés entre clients et fournisseurs. Dans ce cas, les
fournisseurs fournissent généralement une personne de contact pour travailler avec
l'auditeur du client. En outre, les fournisseurs autorisent généralement tout le personnel
à fournir toutes les informations dont l'auditeur a besoin, dans des limites raisonnables,
bien sûr. Les audits bipartites sont généralement limités aux parties du système qualité
qui concernent directement les parties concernées. Le client n'évaluera que les
processus, produits et éléments du système qui ont un impact direct ou indirect sur
ses achats.

Audits par des tiers


L'un des problèmes des audits par deux parties est qu'un fournisseur sera soumis à
des audits par de nombreux clients différents, chacun ayant ses propres normes
(parfois contradictoires). De même, les clients doivent auditer de nombreux
fournisseurs différents, chacun avec sa propre approche unique de la conception des systèmes qualité.
Les audits par des tiers sont un moyen de surmonter ces difficultés.
Machine Translated by Google

216 Contrôle de processus

Dans un audit par un tiers, l'organisme d'audit n'est affilié ni à l'acheteur ni au


vendeur. L'audit est effectué selon une norme acceptée par l'acheteur et le vendeur,
telle que la série ISO 9000 discutée au Chap. 2. À mesure que l'utilisation d'ISO 9000
se répandra, l'incidence des audits par des tiers continuera d'augmenter. Cependant,
les audits ISO 9000 sont menés à un niveau système élevé. Des audits de produits et
de processus continueront d'être nécessaires pour résoudre des problèmes spécifiques
entre clients et fournisseurs.

Vérifications
sur place L'accent de la discussion ci­dessus a été mis sur la visite sur place.
Cependant, une partie importante de l'activité d'audit se déroule entre l'auditeur et
l'audité, chacun travaillant dans son organisation respective. Une grande partie de
l'activité d'audit implique l'examen de la documentation.
La documentation révèle si oui ou non un système de qualité a été développé. Il décrit
le système tel que le fournisseur le souhaite. À partir d'un examen de la documentation,
l'auditeur peut déterminer si le système qualité, tel qu'il a été conçu, répond aux
exigences de l'auditeur. Dans le cas contraire, un rapport préliminaire peut informer
l'audité de toute lacune. Des actions correctives peuvent être prises soit pour modifier
la documentation, soit pour développer de nouveaux éléments du système. Une fois
que la documentation est sous une forme acceptable pour l'auditeur, une visite sur site
peut être programmée pour déterminer si le système a été correctement mis en œuvre.
Correctement réalisés, les audits sur place peuvent faire économiser à la fois à
l'auditeur et à l'audité des dépenses et des tracas importants.

Planification et réalisation de l'audit La plupart des


audits qualité sont annoncés à l'avance, ce qui offre plusieurs avantages.
Un audit pré­annoncé perturbe beaucoup moins les opérations. L'audité peut s'arranger
pour que les bonnes personnes soient à la disposition de l'auditeur. L'auditeur peut
fournir à l'audité une liste de la documentation qu'il souhaite examiner afin que l'audité
puisse la rendre disponible. Une grande partie de la documentation peut être examinée
avant la visite sur place. La visite sur place est beaucoup plus facile à coordonner
lorsque l'audité est informé de l'audit.
Enfin, les audits annoncés à l'avance indiquent clairement que l'audit est une entreprise
coopérative et non punitive.
Bien sûr, lorsqu'une tromperie délibérée est suspectée, des audits surprises
peuvent être nécessaires. Les audits surprises sont généralement très ciblés et conçus
pour documenter un problème spécifique. Dans la plupart des cas, les professionnels
de la qualité ne sont ni formés ni qualifiés pour mener des audits contradictoires. Ces
audits sont à juste titre confiés à des professionnels comptables et juridiques formés à
la gestion de ces questions.
Des audits peuvent être programmés à différents moments du cycle d'achat. Le fol
Les délais d'audits courts sont tous assez courants :
Machine Translated by Google

Audits de qualité 217

• Audit pré­attribution. Effectué pour déterminer si le système qualité du fournisseur


potentiel répond aux exigences du client. • Audit de surveillance. Effectué pour

s'assurer que le système qualité d'un fournisseur approuvé continue de se conformer


aux exigences établies. • Renouvellement de contrat. Effectué pour déterminer si un

fournisseur précédemment approuvé continue de répondre aux exigences du système


qualité. • Résolution de problèmes. Un audit étroitement ciblé effectué pour identifier
la cause profonde

d'un problème et pour s'assurer que des mesures correctives efficaces sont prises pour
prévenir de futures occurrences du problème. • Observation en cours de processus.
Audits sur site effectués pour s'assurer que les processus sont exécutés

conformément aux exigences établies. Ces audits sont souvent effectués lorsqu'il est
difficile ou impossible de déterminer si les exigences ont été satisfaites ou non en
inspectant ou en testant le produit fini.

Parfois, des audits périodiques sont programmés automatiquement. Par exemple, pour
maintenir la certification aux normes de la série ISO 9000, une organisation est périodiquement
réévaluée.

Qualifications des auditeurs


Willborn (1993, pp. 11–23) fournit une analyse approfondie des qualifications des auditeurs. La
première exigence pour tout auditeur est l'honnêteté et l'intégrité absolues. Les auditeurs ont
souvent accès à des informations de nature exclusive ou sensible. Ils auditent parfois plusieurs
organisations concurrentes.
Les informations qu'un auditeur obtient ne doivent être utilisées qu'aux seules fins de
auquel il était destiné. Elle doit être tenue dans la plus stricte confidentialité. Pas de montant
d'éducation, de formation ou de compétence peut compenser le manque d'éthique.
L'auditeur doit être indépendant de l'audité. De plus, les auditeurs doivent se conformer
aux normes professionnelles, posséder les connaissances et compétences essentielles et
maintenir leurs compétences techniques. Les auditeurs doivent être justes dans l'expression
de leurs opinions et inspirer confiance à la fois à l'entité auditée et à l'organisation mère de
l'auditeur.
L'auditeur agit uniquement en tant qu'auditeur et à aucun autre titre, tel que consultant en
gestion ou gestionnaire. Les responsables d'organismes d'audit doivent avoir une connaissance
pratique du travail qu'ils supervisent.
Les qualifications d'un auditeur doivent être conformes à toutes les normes applicables et
doivent être acceptables pour toutes les parties. L'organisme d'audit devrait établir les
qualifications des auditeurs et assurer la formation des spécialistes techniques.

Certaines activités d'audit, comme celles des centrales nucléaires, nécessitent une
certification particulière. Les auditeurs principaux ont besoin d'une formation supplémentaire
en compétences de leadership et en gestion. Des tiers peuvent également fournir une
certification des auditeurs, par exemple par l'ASQ.
Machine Translated by Google

218 Contrôle de processus

Les auditeurs doivent être capables de s'exprimer clairement et couramment, tant à


l'oral qu'à l'écrit. Ils doivent bien connaître les normes selon lesquelles ils auditent.
Lorsqu'elles sont disponibles, ces connaissances doivent être vérifiées par un examen écrit
et/ou une certification.
Les auditeurs doivent maîtriser les techniques d'audit d'examen, de questionnement,
d'évaluation et de rapport, d'identification des méthodes, de suivi des mesures correctives
et de clôture des constatations d'audit. Les auditeurs de la qualité industrielle doivent avoir
des connaissances en matière de conception, d'approvisionnement, de fabrication, de
manutention, d'expédition, de stockage, de nettoyage, d'installation, d'inspection, d'essais,
de statistiques, d'examens non destructifs, d'entretien, de réparation, d'exploitation, de
modification des installations ou des composants associés, et des aspects de sécurité des
l'installation/le processus. Dans une mission d'audit spécifique, les connaissances des
auditeurs individuels peuvent être complétées par celles d'autres membres de l'équipe d'audit.

Enquêtes de qualité internes en préparation


Alors que les audits qualité sont des évaluations formelles et structurées impliquant des
auditeurs indépendants, les enquêtes qualité sont des examens internes moins formels des
systèmes, produits ou processus qualité souvent effectués à la demande de la direction
interne. Le but d'une enquête de qualité est informatif, de sorte que des rapports formels ne
sont généralement pas préparés. Les résultats de l'enquête sont plutôt présentés lors de
séances d'échange d'information avec le personnel concerné. Les enquêtes de qualité
menées avant les audits de qualité peuvent aider l'organisation à se préparer à l'audit.

Étapes de la réalisation d'un audit


La plupart des audits de systèmes qualité impliquent des activités similaires. La liste de
contrôle ci­dessous est une adaptation du plan d'audit de base décrit par Keeney (1995).

• Choisissez l'équipe d'audit. Vérifier qu'aucun membre de l'équipe n'est en conflit


d'intérêt.

• Rencontrer l'équipe d'audit et passer en revue les procédures d'audit interne. •


Discutez des formulaires à utiliser et des procédures à suivre pendant la
Audit.

•Effectuer un audit sur place du manuel qualité et d'autres documents pour vérifier
l'étendue de l'audit et fournir une estimation de la durée de l'audit.

• Affectez des sous­équipes d'audit à leurs chemins d'audit respectifs.


•Contacter l'audité et programmer l'audit.
•Effectuer l'audit.

• Rédiger les demandes d'actions correctives (DAC) et le résumé de l'audit


rapport, énumérant les DAC dans le résumé de l'audit.
• Mener une réunion de clôture (exit briefing).
Machine Translated by Google

Audits de qualité 219

• Émettre le rapport de synthèse d'audit. •


Présenter les conclusions complètes de l'audit, y compris toutes les notes, rapports,
check­lists, RAC, etc., au responsable qualité. •Préparer
un rapport d'audit final. •Suivi des
RAC.

Processus de rapport d'audit

Les résultats d'audit sont communiqués pendant que l'audit est en cours et à la fin de
l'audit. Le principe est simple : l'auditeur doit tenir l'audité informé à tout moment. C'est un
corollaire du principe « pas de surprises ». De plus, cela aide l'auditeur à éviter de faire
des erreurs en interprétant mal les observations ; en général, l'audité est mieux informé
des opérations internes que l'auditeur.

Les audités doivent être informés avant, pendant et après l'audit. Avant l'audit, l'audité
est informé de la portée, de l'objectif et du calendrier de l'audit et est autorisé à jouer un
rôle actif dans la planification de l'audit. À leur arrivée, l'auditeur et l'audité doivent se
rencontrer pour examiner les plans et les calendriers de l'audit. Des briefings verbaux
quotidiens doivent être faits, présentant les résultats provisoires et les conclusions
provisoires de l'auditeur. Lors de ces réunions, l'entité auditée est encouragée à présenter
des informations supplémentaires et des éclaircissements à l'auditeur.
Des procès­verbaux écrits de ces réunions doivent être conservés et publiés.
À la fin de l'audit, un briefing de sortie est recommandé.
Par courtoisie, un rapport intermédiaire devrait être publié dès que possible après
l'achèvement de l'audit. Le rapport intermédiaire doit indiquer les principales constatations
de l'auditeur et les recommandations préliminaires de l'auditeur.
Les rapports d'audit formels sont le produit ultime de l'effort d'audit. Officiel
les rapports d'audit comprennent généralement les éléments suivants :

• Objectif et portée de l'audit •


Observations de l'audit
•Conclusions et Recommendations

• Objectifs de l'audit •
Identification de l'auditeur, de l'audité et des tiers • Dates
d'audit
• Normes d'audit utilisées
• Membres de l'équipe d'audit

• Personnel audité impliqué •


Déclarations d'omission

•Avis avec réserve


•Problèmes pour les futurs audits
Machine Translated by Google

220 Contrôle de processus

• Commentaires de l'audité sur le rapport (le cas échéant) •


Annexes supplémentaires

Le rapport d'audit est le « document officiel » de l'audit. Les rapports d'audit doivent
être préparés en temps opportun. Idéalement, la date limite d'émission du rapport devrait
être déterminée dans le plan d'audit préparé au préalable.
Les rapports d'audit doivent décrire l'objectif et la portée de l'audit ; l'entité auditée ; la
composition de l'équipe d'audit, y compris l'affiliation et les conflits d'intérêts potentiels ; les
observations de l'audit ; et recommandations. Des preuves détaillées à l'appui des
recommandations doivent être incluses dans le rapport. Les rapports d'audit peuvent inclure
des recommandations d'amélioration. Ils peuvent également inclure la reconnaissance des
actions correctives déjà accomplies. Le procès­verbal peut s'appuyer sur les procès­
verbaux des réunions tenues avec l'audité. Il doit également noter les points de vue de
l'entité auditée sur les constatations et les conclusions rapportées précédemment.

Les opinions des auditeurs sont autorisées, mais elles doivent être clairement identifiées
comme des opinions et des preuves à l'appui doivent être fournies.
Quiconque a été auditeur depuis un certain temps sait qu'il est parfois nécessaire de
signaler des constatations désagréables. Ces résultats sont souvent les plus avantageux
pour l'audité, car ils fournissent des informations que le personnel interne peut ne pas
vouloir présenter. Lorsqu'elles sont présentées correctement par un auditeur externe, les
«mauvaises nouvelles» peuvent servir de catalyseur à une amélioration nécessaire depuis
longtemps. Cependant, il est conseillé à l'auditeur de s'attendre à des réactions telles que
le déni, la colère et la frustration lors de la réception initiale des conclusions. En général,
les résultats désagréables doivent être soutenus plus largement. Veillez à formuler les
conclusions de manière à ce que le moins de déclencheurs émotionnels possibles soient
impliqués. Plus tôt l'audité et l'auditeur peuvent commencer à corriger les problèmes,
mieux c'est pour les deux parties.
Si un rapport est préparé par plus d'une personne, une personne sera désignée comme
vérificateur principal. L'auditeur principal sera responsable de l'assemblage et de l'examen
du rapport complété. Si l'audit a été réalisé par une seconde partie, la distribution du
rapport sera limitée au personnel désigné au sein des organisations de l'auditeur et de
l'audité, généralement la direction générale. Si un audit par un tiers a été réalisé, le rapport
d'audit sera également envoyé au client, qui à son tour est responsable d'informer la
direction générale de l'audité. Dans certains cas (par exemple, audits gouvernementaux,
audits financiers), les résultats sont également mis à la disposition du public. Cependant,
sauf indication contraire, les rapports d'audit sont généralement considérés comme des
informations privées et exclusives qui ne peuvent être divulguées sans l'autorisation écrite
expresse de l'entité auditée.

Activités post­audit (action corrective, vérification)


Les rapports d'audit contiennent souvent des descriptions des problèmes et des écarts
rencontrés au cours de l'audit. Cependant, tous les problèmes ne sont pas égaux ; certains
sont plus graves que d'autres. Un rapport d'audit bien rédigé classera les
Machine Translated by Google

Audits de qualité 221

problèmes en fonction de leur gravité. Les schémas de classification produit­défaut­gravité


sont discutés ci­dessous. Certaines organisations appliquent également une classification de
gravité aux écarts constatés dans la planification, les procédures et d'autres domaines.

Ces classifications de gravité (par exemple, « critique », « majeur », « mineur ») doivent


être explicitement définies et comprises par toutes les parties. Généralement, une sorte de
système de pondération est utilisé en conjonction avec le système de classification et une
note d'audit est calculée. Bien que la note d'audit contienne des informations, elle ne doit pas
être le seul critère permettant de décider si l'audit a été réussi ou non. Au lieu de cela,
considérez les données numériques comme une entrée supplémentaire pour aider au
processus de prise de décision.
La plupart des audits ne sont pas des propositions de réussite/échec. Ils représentent
plutôt un effort de la part des acheteurs et des vendeurs pour travailler ensemble sur le long
terme. Vu sous cet angle, il est facile de voir que l'identification d'un problème n'est que la
première étape. Résoudre le problème nécessite de localiser la cause profonde du problème,
ce qui est un travail difficile. Souvent, le problème est traité comme s'il s'agissait d'une
cause; c'est­à­dire que des mesures sont prises pour « gérer le problème » plutôt que de
s'attaquer à sa cause. Des exemples de ceci sont l'inspection pour supprimer les défauts ou
les tests de logiciels pour détecter les bogues. Wilson et al. (1993) définissent la « cause
profonde » comme la raison la plus fondamentale d'une condition ou d'un problème
indésirable qui, s'il avait été éliminé ou corrigé, l'aurait empêché d'exister ou de se produire.
Les causes profondes sont généralement exprimées en termes de facteurs spécifiques ou
systématiques. Une cause profonde est généralement exprimée en termes de dénominateur
organisationnel, personnel ou d'activité le moins commun.

Dans la plupart des cas, l'auditeur n'est pas capable d'identifier la cause première d'un
problème. L'audité doit effectuer l'analyse nécessaire et spécifier les mesures prises pour
traiter la ou les causes du problème. À ce stade, l'auditeur peut parfois déterminer que la
cause profonde n'a pas été identifiée et peut aider l'audité à poursuivre le problème à un
niveau plus profond. À d'autres moments, il n'y a pas d'autre choix que de valider l'action
corrective par des audits, des tests ou des inspections supplémentaires. La preuve finale de
l'efficacité de toute action corrective doit être dans l'obtention du résultat souhaité.

Contrôle des produits, des processus et des matériaux

Instructions de travail
Les instructions de travail doivent établir des moyens quantitatifs ou qualitatifs permettant de
déterminer que chaque opération a été effectuée de manière satisfaisante. Ces critères
doivent également être adaptés à une utilisation avec des inspections ou des tests connexes,
car les instructions de travail sont destinées au personnel d'exploitation, aux superviseurs,
aux inspecteurs, aux gestionnaires et même aux clients. Le respect des instructions fait
l'objet d'un examen et d'un audit.
Machine Translated by Google

222 Contrôle de processus

Les instructions de travail comprennent les procédures documentées qui définissent comment
la production, l'installation ou l'entretien se dérouleront. Ces instructions décrivent les conditions
environnementales de fonctionnement ainsi que les activités nécessaires pour s'assurer que le
produit fini répond à toutes les exigences du client. Les instructions de travail comprennent également
des "antisèches", des "notes de berceau" et d'autres informations que les gens conservent pour leur
rappeler la façon dont "c'est vraiment fait". ISO 9000 fait de ces notes informelles une partie de la
documentation officielle du processus.

Jusqu'où aller dans la documentation d'un processus est discutable.


De toute évidence, si la documentation devient si volumineuse que personne n'a le temps de la lire
en entier, elle ne sert plus son objectif. Les instructions de travail qui incluent un nombre écrasant de
« conseils » associés à des problèmes rares sur une période de plusieurs années rendront plus
difficile la localisation des informations vraiment utiles.

Considérez, par exemple, votre trajet quotidien pour vous rendre au travail. Une documentation
simple peut répertorier les rues que vous empruntez dans des conditions normales. Cependant, un
jour, vous trouvez un embouteillage et prenez un itinéraire alternatif. Devriez­vous écrire cela ? Eh
bien, si l'embouteillage est causé par un projet de construction à long terme, peut­être. Mais si c'est
dû à une rare rupture de conduite d'eau, ce n'est probablement pas nécessaire.

Le général George Patton a déclaré : « Ne dites pas aux gens comment faire les choses. Dites­
leur quoi faire et laissez­les vous surprendre avec leurs résultats.
Autoriser la flexibilité dans les instructions de travail, lorsque les travailleurs sont correctement formés
à leur objectif interfonctionnel de satisfaire les clients, peut donner de l'autonomie et conduire à un
service client de qualité supérieure. Dans ce contexte, les instructions de travail peuvent fournir les
raisons de satisfaire des objectifs particuliers de la fonction (le pourquoi du quoi), plutôt que le
comment spécifique, ce qui peut trop contraindre la discrétion.

À mesure que la technologie s'améliore, des bases de données peuvent être développées pour
filtrer rapidement et efficacement les informations pertinentes à la tâche à accomplir. Cela
augmentera efficacement la quantité de données pouvant être mises à la disposition de l'opérateur
du procédé. Jusque­là, la documentation doit être contenue dans les limites cognitives humaines. Le
principe directeur devrait être la taille minimale sous réserve d'être raisonnablement complet et
accessible à ceux qui l'utiliseront.

Les instructions de travail doivent couvrir les éléments suivants :

• La manière dont le travail sera effectué

•L'équipement nécessaire pour effectuer le travail

•L'environnement de travail •Le respect

des autres procédures et documents •Les paramètres de processus à

surveiller et comment ils seront surveillés


tored (p. ex., listes de contrôle, cartes de contrôle)
Machine Translated by Google

Audits de qualité 223

• Caractéristiques du produit à surveiller et comment elles seront


surveillé

•Critères de fabrication
•Procédures de maintenance
•Méthodes de vérification (qualification des processus)

Les instructions de travail doivent être rédigées en termes clairs et simples, en utilisant
le langage le plus facile à comprendre pour la personne effectuant le travail. Les personnes
effectuant le travail doivent être intimement impliquées dans la préparation des instructions
de travail. Des images, des diagrammes, des graphiques et des illustrations doivent être
utilisés pour rendre la documentation facile à comprendre et à appliquer. Si les instructions
sont volumineuses, elles doivent inclure des aides telles que des index, des tables des
matières, des tables de figures, des onglets, etc. pour aider à localiser les informations
pertinentes. Bien sûr, pour s'assurer qu'elles sont à jour, la documentation doit être croisée
avec les dessins d'ingénierie, les bons de commande ou d'autres documents qu'ils mettent
en œuvre. Les instructions de travail doivent faire partie du système global de contrôle des
documents d'une entreprise.

Classification des caractéristiques


Tous les produits ou services, sauf les plus simples, incluent un grand nombre de
fonctionnalités ou de caractéristiques intéressantes pour le client. En théorie, chaque
caractéristique de chaque unité produite, ou chaque transaction effectuée, pourrait être
inspectée et jugée par rapport aux exigences. Cela ajouterait un coût considérable au
produit et, pour la plupart des fonctionnalités, n'ajouterait que peu ou pas de valeur au client.
Au lieu de cela, il est préférable d'établir une hiérarchie d'importance pour les différentes
caractéristiques du produit ou du service. Quelles caractéristiques sont si importantes
qu'elles méritent une grande attention ? Lesquelles ne nécessitent qu'une attention
modérée ? Qui n'a besoin que d'une inspection ou d'un examen superficiel ? L'activité
consistant à arriver à cette détermination est connue sous le nom de classification des
caractéristiques.
En pratique, les caractéristiques sont généralement classées dans les catégories
critiques, majeures et mineures. Les termes peuvent être définis en termes simples comme suit :

Caractéristique critique. Toute fonctionnalité dont on peut raisonnablement s'attendre à


ce qu'une défaillance présente un danger pour la sécurité soit pour l'utilisateur du
produit, soit pour toute personne dépendant du bon fonctionnement du produit. Pour le
service, toute caractéristique qui entraînerait des implications juridiques ou aurait un
impact important sur la réputation.
Caractéristique majeure. Toute fonctionnalité, autre que critique, dont la défaillance
entraînerait probablement une réduction de la convivialité du produit. Pour le service,
toute caractéristique qui entraînerait une perte de clientèle ou d'activité future.
Machine Translated by Google

224 Contrôle de processus

Caractéristique mineure. Toute fonctionnalité, autre que majeure ou critique, dont


l'échec serait probablement perceptible par l'utilisateur.
Caractéristique accessoire. Toute caractéristique autre que critique, majeure ou
mineure. Bien qu'il soit possible de développer des schémas de classification plus
détaillés, les définitions ci­dessus suffisent pour la grande majorité des applications.

Identification des matériaux et statut


Cela a­t­il été inspecté ? Si oui, a­t­il été accepté ? Rejeté? Nécessite­t­il une retouche ?
Ré­inspection ? Retester ? L'obtention de réponses claires à ces questions est une
tâche essentielle du contrôle de la qualité. Pratiquement toutes les normes et
spécifications des systèmes qualité exigent que des systèmes qui identifient l'état des
matériaux achetés, des matériaux fournis par le client, des matériaux de production,
des travaux en cours et des produits finis soient développés, bien documentés et
entièrement mis en œuvre.

Matériaux achetés
L'identification correcte des matériaux achetés commence, bien entendu, par le
fournisseur. Un élément clé du système de qualité du fournisseur doit inclure
l'identification des matériaux et leur statut discutés ci­dessous. Une fois reçus, l'état de
qualité des matériaux achetés doit être identifié conformément aux procédures
documentées. Les procédures doivent couvrir la façon dont le matériel acheté sera
identifié (par exemple, avec des étiquettes de statut), où les matériaux doivent être
stockés jusqu'à ce que la conformité aux exigences ait été établie, comment le matériel
non conforme sera identifié et stocké, et comment traiter les matériaux achetés non
conformes.

Matériaux fournis par le client Des


procédures doivent être élaborées et documentées pour le contrôle de la vérification,
du stockage et de la maintenance du produit fourni par le client fourni pour être
incorporé dans les fournitures ou pour des activités connexes. Les procédures doivent
garantir que les produits perdus, endommagés ou impropres à l'utilisation sont
enregistrés et signalés au client.

Travail en cours (WIP)


Des procédures pour l'identification de l'état des inspections et des tests de tous les
travaux en cours doivent être élaborées et documentées. L'identification du statut
d'inspection et d'essai devrait faire partie du plan qualité couvrant l'ensemble du cycle
de production. Le but des procédures est de s'assurer que seul le produit ayant passé
avec succès les opérations d'inspection et de test nécessaires est livré. Les procédures
WIP doivent également inclure toutes les observations, vérifications et tests en cours
de processus qui sont nécessaires. Par exemple, certains produits doivent subir
certaines transformations intermédiaires qui ne peuvent être vérifiées que par
observation directe pendant la transformation.
Machine Translated by Google

Audits de qualité 225

Produits finis
Le plan qualité devrait inclure des procédures qui documentent les tests ou inspections
requis avant la libération du produit pour livraison au client. Les procédures doivent
spécifier comment le statut d'inspection et d'essai des produits finis sera indiqué, où
les marchandises seront stockées en attendant l'expédition, et les méthodes
appropriées d'emballage, de manutention et de chargement des marchandises pour la
livraison finale.

Traçabilité des lots


Des procédures documentées doivent être préparées pour s'assurer que, si nécessaire,
la traçabilité des lots est maintenue. La traçabilité est en grande partie une question
de tenue de registres. Le système doit garantir que les unités du lot et le lot lui­même
sont identifiés et que l'intégrité du lot est maintenue (c'est­à­dire que chaque unité
faisant partie du lot reste dans le lot).
La traçabilité des lots est généralement requise lorsqu'il y a des raisons de croire
que l'unité en question devra peut­être être localisée à un moment donné dans le futur.
Cela peut être nécessaire pour de nombreuses raisons, mais la raison principale est
qu'un défaut de sécurité pourrait être découvert. Le fabricant doit être en mesure de
communiquer rapidement avec tous ceux qui sont exposés au défaut. Les éléments
dont la défaillance entraînerait l'existence d'une condition dangereuse sont appelés
composants critiques ou éléments critiques.

Pratiques de séparation des matériaux


Les sections précédentes décrivent diverses activités liées à l'identification de divers
types de matériaux, par exemple, par type de défectueux ou par état de traitement.
Une fois qu'une classification « spéciale » a été effectuée (par exemple, matériau à
mettre au rebut ou à retravailler), la procédure précise comment le matériau affecté
sera identifié. Ensuite, il faut souvent prévoir de retirer physiquement le matériau du
flux de traitement normal. Des procédures écrites formelles doivent être élaborées
pour décrire le contrôle, la manipulation et l'élimination des matériaux non conformes
afin de garantir que ces matériaux sont correctement identifiés et qu'ils ne peuvent
pas être mélangés avec des matériaux acceptables.

Le contrôle physique des matériaux non conformes varie considérablement d'une


entreprise à l'autre et selon le type de problème. Certaines organisations exigent que
les composants critiques discordants soient immédiatement retirés dans une zone de
stockage verrouillée et nécessitent l'autorisation des personnes désignées pour leur
libération.

Contrôle de la
configuration Le contrôle de la configuration est l'évaluation, la coordination,
l'approbation ou la désapprobation systématiques et la mise en œuvre de tous les
changements approuvés dans la configuration d'un élément après l'établissement
formel de son identification de configuration.
Machine Translated by Google

226 Contrôle de processus

L'objectif de la gestion de la configuration est de contrôler la forme, l'ajustement et la


fonction des éléments de configuration. Le contrôle de la configuration concerne principalement
la gestion des modifications techniques.

Déviations et renonciations
Alors qu'une modification technique implique une modification permanente de la conception
technique, une déviation est un écart temporaire par rapport à une exigence établie. Les
demandes de dérogation doivent être formellement évaluées et approuvées uniquement
lorsqu'elles entraînent des avantages significatifs. Les déviations répétées doivent faire l'objet
d'une enquête; si les exigences sous­jacentes sont trop strictes, elles doivent être modifiées.
Machine Translated by Google

CHAPITRE 11
Gestion de la chaîne logistique
Machine Translated by Google
Machine Translated by Google

matériaux chassés. Dans certains cas, le pourcentage est de 80 %


La majorité
ou plusdu coût derarement
; il est la plupart inférieur
des produits fabriqués
à 50 est en pur de la consis
%. L'importance
des niveaux de qualité relativement élevés dans les matériaux achetés sont clairs.
Il est important de se rappeler que les transactions entre entreprises sont en
réalité des transactions entre personnes. Les gens travaillent mieux ensemble si
certaines règles de base sont comprises et respectées. Avant tout, le comportement
de l'acheteur et du vendeur doit refléter l'honnêteté et l'intégrité. Ceci est
particulièrement important dans le contrôle de la qualité, où de nombreuses décisions
sont des « appels au jugement ». Certaines lignes directrices favorisent une relation
basée sur la confiance mutuelle :

• Ne soyez pas trop légaliste. S'il est vrai que presque tous les accords acheteur­
vendeur impliquent un contrat, il est également vrai que des conditions
imprévues exigent parfois que des mesures spéciales soient prises. Si
l'acheteur et le vendeur se respectent, ces situations ne poseront aucun
problème réel. •
Maintenir des canaux de communication ouverts. Cela implique à la fois des
canaux formels et informels. La communication formelle comprend des
éléments tels que l'examen conjoint des contrats et des exigences des bons
de commande par les équipes du vendeur et de l'acheteur, les visites et les
enquêtes sur site du vendeur et de l'acheteur, les procédures de demande
d'action corrective et de suivi, les exigences de tenue de registres, etc. Les
communications informelles impliquent un contact direct entre les individus de
chaque entreprise sur une base continue et routinière. Des communications
informelles pour clarifier des détails importants, poser des questions, recueillir
des informations pour aider à la prise
de décision, etc., éviteront de nombreux problèmes. • L'acheteur doit fournir au vendeur des descri
Cela comprend les dessins, les normes de fabrication, les instructions
de traitement spéciales ou toute autre information dont le vendeur a
besoin pour fournir un produit de qualité acceptable. L'acheteur doit
s'assurer que le vendeur comprend les exigences.

229
Machine Translated by Google

230 Contrôle de processus

• L'acheteur doit évaluer objectivement les performances de qualité du vendeur.


Cette évaluation doit être faite de manière ouverte, avec la pleine connaissance et le
consentement du vendeur. L'acheteur doit également tenir le vendeur informé de sa
position relative par rapport aux autres fournisseurs du même produit. Cependant,
cela doit être fait d'une manière qui ne compromet pas la position d'un autre vendeur
ou ne révèle pas d'informations confidentielles. • L'acheteur doit être prêt à offrir une
assistance technique au vendeur, ou

vice versa. Cette assistance peut consister en des visites sur site par les équipes de
l'acheteur ou du vendeur, une assistance téléphonique ou un transfert de documents.

Bien sûr, les deux parties sont tenues de protéger les secrets commerciaux et les
informations exclusives qu'elles obtiennent l'une de l'autre. • Le vendeur doit

informer l'acheteur de tout écart connu par rapport à l'historique


ou les niveaux de qualité requis.

• L'acheteur doit informer le vendeur de tout changement dans les exigences en temps
opportun. • Le

vendeur doit être récompensé pour ses performances exceptionnelles. Ces récompenses
peuvent aller de plaques à des niveaux d'activité accrus.

Les principes de base du comportement éthique ont été très bien résumés dans le Code
d'éthique pour les membres de l'American Society for Quality, qui est disponible sur leur site
Web.

Portée du contrôle qualité des fournisseurs La


plupart des entreprises achètent plusieurs types de matériaux. Certains des matériaux ne sont
que des fournitures, non destinés à être utilisés dans le produit à livrer au client.
Traditionnellement, le contrôle qualité du fournisseur ne s'applique pas à ces fournitures. Parmi
ces articles destinés au produit, certains sont des articles simples qui ont des tolérances lâches
et un historique abondant de qualité acceptable.
La qualité de ces articles sera généralement contrôlée de manière informelle, voire pas du tout.
La troisième catégorie de biens achetés concerne les articles essentiels à la qualité du produit
final, complexes et avec un historique limité ou inexistant. L'achat de ces articles peut même
impliquer l'achat du « savoir­faire » du vendeur, par exemple des dessins, des conseils
d'application, etc. C'est la qualité de cette catégorie d'articles qui fera l'objet de discussions
ultérieures.
La qualité du fournisseur est aidée par la coopération entre les fonctions de conception
du produit, d'achat et de qualité, comme le montre le tableau 11.1.

Évaluation de la capacité qualité des fournisseurs


Lorsqu'elles effectuent des achats importants, les entreprises recherchent souvent l'assurance
qu'elles prennent la bonne décision. L'enquête sur la qualité des fournisseurs a traditionnellement
servi de « boule de cristal » pour fournir cette assurance. Dans une certaine mesure, cela
Machine Translated by Google

Gestion de la chaîne d'approvisionnement 231

Départements participants

Produit Qualité
Activité Conception Achat Contrôle

Mettre en place une politique qualité fournisseur X X XX

Utiliser plusieurs fournisseurs pour les achats importants XX

Évaluer la capacité qualité des fournisseurs potentiels


X X XX

Spécifier les exigences pour les fournisseurs XX X

Mener une planification conjointe de la qualité X X

Effectuer la surveillance des fournisseurs X XX

Évaluer le produit livré X XX

Mener des programmes d'amélioration X X XX

Utiliser les évaluations de la qualité des fournisseurs lors de la sélection


XX X
des fournisseurs

(Juran et Gryna, 1980)


où X = responsabilité partagée XX = responsabilité principale

Tableau 11.1 Matrice de responsabilité pour les relations avec les fournisseurs

Cette approche a été remplacée par des audits tiers tels que ISO 9000. L'enquête sur la qualité du fournisseur
implique généralement une visite chez le fournisseur par une équipe de l'acheteur avant l'attribution d'un contrat,
c'est pourquoi on l'appelle parfois une «pré­ sondage sur les récompenses. L'équipe est généralement
composée de représentants des services d'ingénierie de conception, de contrôle qualité, de production et
d'achat de l'acheteur. Les éléments de contrôle de la qualité de l'enquête comprennent généralement, au
minimum :

• Gestion de la qualité • Contrôle de

la conception et de la configuration • Contrôle des

matériaux entrants • Contrôle de la

fabrication et des processus • Procédures d'inspection et

de test • Contrôle des matériaux non conformes •

Étalonnage et contrôle des jauges • Systèmes

d'information et enregistrements qualité •

Systèmes d'actions correctives

L'évaluation utilise généralement une liste de contrôle avec un système de cotation numérique. Un
exemple simplifié d'une liste de contrôle d'évaluation des fournisseurs est illustré à la Fig. 11.1. Lorsqu'elle est
effectuée dans les installations du fournisseur, on parle d'enquête physique.
Machine Translated by Google

232 Contrôle de processus

Critère Passer Échouer Voir la note


Le système qualité a été développé
Le système qualité a été mis en place
Le personnel est capable d'identifier les problèmes
Le personnel recommande et initie des solutions

Des plans qualité efficaces existent


Des postes de contrôle ont été identifiés
La direction examine régulièrement l'état du programme de qualité
Les contrats sont examinés pour des exigences de qualité spéciales

Les processus sont correctement documentés


La documentation est revue par qualité
Les dossiers de qualité sont complets, exacts et à
jour
Des systèmes d'actions correctives efficaces existent
Le matériel non conforme est correctement contrôlé
Les coûts de qualité sont correctement signalés

Les modifications apportées aux exigences sont correctement contrôlées

Un contrôle adéquat de l'étalonnage de la jauge existe

Figure 11.1 Liste de contrôle d'évaluation des fournisseurs.

La liste de contrôle ci­dessus est une version simplifiée de celles utilisées dans la pratique,
qui peut consommer 15 pages ou plus. Il faut faire preuve de prudence dans la construction de
listes de contrôle trop lourdes et difficiles à utiliser. Si vous n'êtes pas lié par certaines exigences
gouvernementales ou contractuelles, il est recommandé de préparer une brève liste de contrôle
similaire à celle ci­dessus et de compléter la liste de contrôle par un rapport qui documente vos
observations personnelles.
Correctement utilisée, la liste de contrôle peut vous aider à vous guider sans vous lier les mains.
Bien qu'une liste de contrôle soit une aide utile, elle ne peut jamais se substituer aux
connaissances d'un évaluateur compétent et expérimenté. Les scores numériques doivent être
complétés par les observations et les interprétations de l'évaluateur.
La contribution du personnel du fournisseur doit également être incluse. En cas de désaccord
entre l'évaluateur et le fournisseur, la position des deux parties doit être clairement décrite.

Malgré leur énorme popularité, les sondages physiques auprès des fournisseurs ne sont
qu'un moyen parmi d'autres d'évaluer la performance potentielle d'un fournisseur, et des études
suggèrent qu'ils sont limités dans leur utilité. Une de ces études par Brainard (1966) a montré
que 74 des 151 enquêtes auprès des fournisseurs aboutissaient à des prédictions incorrectes ;
c'est­à­dire qu'un bon fournisseur était prédit comme mauvais ou vice versa ; un coin flip aurait
été un aussi bon prédicteur, et beaucoup moins cher !
Les enquêtes documentaires (abordées plus loin dans ce chapitre) peuvent constituer une
alternative satisfaisante. La performance réelle du fournisseur est peut­être plus importante
que les sondages. Les fournisseurs doivent soumettre des « échantillons de corrélation » avec
Machine Translated by Google

Gestion de la chaîne d'approvisionnement 233

les premières expéditions, qui doivent être numérotées et accompagnées des résultats de
l'inspection de la qualité et des résultats des tests du vendeur. Vérifiez que le fournisseur a
correctement vérifié chaque caractéristique importante et que vos résultats concordent ou «
correspondent » aux siens. Enfin, conservez un historique des performances de qualité. Le
meilleur prédicteur de bonnes performances futures semble être un record de bonnes
performances dans le passé. Si vous êtes abonné au GIDEP, le Government Industry Data
Exchange Program, vous avez accès à une multitude de données sur de nombreux
fournisseurs. (Les abonnés GIDEP doivent également contribuer à la banque de données.)
La base de données Coordinated Aerospace Supplier Evaluation (CASE) pour l'industrie
aéronautique est une autre ressource utile. Si elles sont pertinentes pour votre application,
ces compilations de l'expérience et des audits d'un grand nombre d'entreprises peuvent être
un véritable gain de temps et d'argent.

Planification de la qualité du
fournisseur La planification de la qualité du fournisseur implique des efforts visant à prévenir
les problèmes de qualité, l'évaluation du produit à l'usine du fournisseur ainsi qu'à
l'établissement de l'acheteur, les mesures correctives, l'élimination des marchandises non
conformes et l'amélioration de la qualité. Le processus commence généralement sérieusement
après qu'une source particulière a été sélectionnée. La plupart des évaluations préalables à
l'attribution sont de nature générale; une fois le fournisseur sélectionné, il est temps de
passer au niveau détaillé.
Une première étape du processus est la transmission des exigences de l'acheteur au
vendeur. Même si l'évaluation préliminaire de la capacité du fournisseur indiquait que le
fournisseur pouvait répondre à vos exigences, il est important que les exigences soient à
nouveau étudiées en détail avant le début des travaux réels.
Un contact étroit est nécessaire entre l'acheteur et le vendeur pour s'assurer que les
exigences sont bien comprises. L'avis du fournisseur doit être sollicité; une modification des
exigences pourrait­elle les aider à produire des pièces de meilleure qualité ?

Ensuite, il est nécessaire de travailler avec le fournisseur pour établir des procédures
d'inspection, de test et d'acceptation du produit. Comment le produit sera­t­il inspecté ?
Quelles sont les normes de fabrication à appliquer ? Quels tests et inspections en cours de
fabrication sont requis ? Quel niveau d'échantillonnage sera utilisé? Il convient de répondre
à ces questions et à d'autres similaires à ce stade. Il est recommandé de faire inspecter
complètement les premières pièces par le vendeur et l'acheteur pour s'assurer que le vendeur
sait quelles caractéristiques doivent être vérifiées ainsi que comment les vérifier. L'acheteur
souhaitera peut­être se trouver dans les locaux du vendeur au début de la production.

Des systèmes d'actions correctives doivent également être développés. De nombreuses


entreprises ont leurs propres formulaires, procédures, etc., pour les mesures correctives. Si
vous souhaitez que votre système soit utilisé à la place du système d'action corrective du
fournisseur, le fournisseur doit en être informé. Gardez à l'esprit que le vendeur peut avoir besoin
Machine Translated by Google

234 Contrôle de processus

une formation supplémentaire pour utiliser votre système. De plus, le vendeur peut souhaiter une
forme de compensation pour avoir changé sa façon de faire établie.
Si possible, laissez le fournisseur utiliser ses propres systèmes.
Le contrôle statistique des processus doit être utilisé par le fournisseur pour assurer la
stabilité d'un lot à l'autre. Lorsque le contrôle statistique est établi, il n'y a guère besoin
d'inspection finale de fin de processus chez le vendeur ou d'inspection de réception chez
l'acheteur.
Si la tenue de registres spéciaux est nécessaire, cela doit être clairement défini. Par
exemple, la plupart des principaux éléments de défense ont des exigences de traçabilité et de
contrôle de configuration. Les agences gouvernementales, telles que la FDA, ont souvent des
exigences particulières. Les constructeurs automobiles ont des exigences en matière de tenue
de registres conçues pour faciliter d'éventuels rappels futurs. Le fournisseur peut ne pas être au
courant de certaines de ces exigences, et il est dans votre intérêt mutuel de discuter de vos
besoins spécifiques dès le début du processus.

Surveillance post­attribution
Jusqu'à présent, notre objectif a été de développer un processus qui minimisera la probabilité
que le fournisseur produise des articles qui ne répondent pas à vos exigences. Cet effort doit se
poursuivre une fois que le fournisseur a commencé la production. Cependant, après le début
de la production, l'accent peut passer d'une évaluation des systèmes à une évaluation des
performances réelles du programme, du processus et du produit.

L'évaluation de programme est l'étude des installations, du personnel et des systèmes


qualité d'un fournisseur. Bien qu'il s'agisse de l'orientation principale de la phase préalable à
l'attribution d'une évaluation, l'évaluation du programme ne se termine pas lorsque le contrat est
attribué. Le changement est inévitable et l'acheteur doit être tenu informé des changements
apportés au programme du vendeur. Ceci peut être accompli en fournissant à l'acheteur une
copie enregistrée du manuel qualité du vendeur, qui est régulièrement mis à jour. Des audits de
suivi périodiques peuvent également être nécessaires, en particulier si la qualité du produit
indique une défaillance de la qualité
programme.
Un deuxième type de surveillance implique la surveillance du processus du fournisseur. Les
évaluations de processus impliquent une étude des méthodes utilisées pour produire un résultat
final. Les performances des processus peuvent généralement être mieux évaluées par des
méthodes statistiques, et il devient courant d'exiger que le contrôle statistique des processus
(SPC) soit appliqué aux caractéristiques critiques des processus.
De nombreuses grandes entreprises exigent que leurs fournisseurs effectuent des études
statistiques de contrôle des processus, appelées études de capabilité des processus, dans le
cadre de l'évaluation préalable à l'attribution. (Voir le chapitre 9 pour plus de détails sur les
études de capabilité du procédé.)
L'évaluation finale, l'évaluation du produit, est également la plus importante.
L'évaluation du produit consiste à évaluer la conformité aux exigences.
Cela peut impliquer une inspection sur le site du fournisseur, la soumission d'objectifs
Machine Translated by Google

Gestion de la chaîne d'approvisionnement 235

preuve de conformité par le vendeur, inspection au quai de réception de l'acheteur ou utilisation


réelle du produit par l'acheteur ou l'utilisateur final. Cela doit être la preuve finale de performance.
Si le produit final ne répond pas aux exigences, il importe peu que le programme du fournisseur
paraisse bon ou que tous les tests en cours répondent aux exigences établies.

L'activité de surveillance est un outil de communication. Pour être efficace, elle doit être
menée de manière éthique, avec la pleine connaissance et la coopération du vendeur. Les
techniques habituelles de communication d'entreprise, telles que la notification préalable des
visites, les présentations à la direction, les briefings de sortie et les rapports de suivi, doivent
être utilisées pour assurer une compréhension complète.

Systèmes d'évaluation des fournisseurs


L'évaluation des fournisseurs implique la comparaison d'un grand nombre de facteurs, certains
quantitatifs et d'autres qualitatifs. Les systèmes d'évaluation des fournisseurs tentent de simplifier
cette tâche en condensant les facteurs les plus importants en un seul chiffre, l'évaluation du
fournisseur, qui peut être utilisé pour évaluer la performance d'un seul fournisseur au fil du
temps ou pour comparer plusieurs sources du même article.

La plupart des systèmes d'évaluation des fournisseurs impliquent l'attribution de pondérations


à différentes mesures importantes de performance, telles que la qualité, le coût et la livraison.
Les pondérations sont choisies pour refléter l'importance relative de chaque mesure. Une fois
les pondérations déterminées, la mesure du rendement est multipliée par la pondération et les
résultats sont additionnés pour obtenir la cote.
Par exemple, considérons le schéma de notation présenté dans le tableau 11.2 :
les performances de chacun des trois fournisseurs (A, B et C) pour une durée commune
sont présentées dans le tableau 11.3. Ces données de performance sont ensuite utilisées pour
obtenir les calculs des notations pour les trois fournisseurs hypothétiques, comme indiqué dans
le tableau 11.4.
Comme vous pouvez le voir dans l'exemple ci­dessus, même les schémas de notation
simples combinent les taux de rejet, les performances de livraison et les dollars en un seul
nombre composé. En utilisant cette valeur, nous conclurions que les vendeurs B et C sont
approximativement les mêmes. Ce qui manque au fournisseur B dans la catégorie de prix, il le
compense en termes de qualité et de livraison. Le fournisseur A a une note bien inférieure à B
ou C.

Performance Mesure Lester


Qualité % de lots acceptés 5
Coût coût/coût le plus bas 300

Livraison % expéditions à temps 2

Tableau 11.2 Système de notation des fournisseurs


Machine Translated by Google

236 Contrôle de processus

% À temps
Fournisseur % Lots acceptés Prix ($) Livraisons
UN 90 60 80
B 100 70 100
C 85 50 95

Tableau 11.3 Exemple de données sur les performances des fournisseurs

Qualité Livraison Global


Fournisseur Notation Évaluation des prix Notation Notation
UN 450 250 160 860
B 500 214 200 914
C 425 300 190 915

Tableau 11.4 Notes calculées des fournisseurs

En règle générale, les tentatives de condenser des évaluations à multiples facettes en un


seul indice sont sujettes à une erreur fondamentale. À ce titre, il est important de les considérer
dans leur contexte approprié et de laisser place à un certain niveau d'interprétation subjective.
Les caractéristiques des systèmes de notation utiles comprennent :

1. Le schéma est clairement défini et compris par l'acheteur


et le vendeur.

2. Seules les informations pertinentes sont incluses.

3. Le plan doit être facile à utiliser et à mettre à jour.

4. Les systèmes de notation ne devraient être appliqués que là où ils sont nécessaires.

5. Les notations doivent « avoir un sens » lorsqu'elles sont vues à la lumière d'autres
faits connus.

Procédés spéciaux Un
procédé spécial est un procédé qui a un effet qui ne peut pas être facilement déterminé par une
inspection ou des essais ultérieurs au traitement. La difficulté peut être due à une contrainte
physique, telle que la difficulté de vérifier la taille du grain dans un métal traité thermiquement,
ou le problème peut simplement être économique, tel que le coût de 100 % des rayons X de
chaque soudure dans un assemblage. Dans ces cas, des précautions particulières sont
nécessaires pour garantir que le traitement est effectué conformément aux exigences.

Les deux approches les plus courantes de contrôle des procédés spéciaux sont la
certification et l'audit de procédés. La certification peut être appliquée aux compétences du
personnel clé, comme la certification des soudeurs, ou aux processus eux­mêmes.
Machine Translated by Google

Gestion de la chaîne d'approvisionnement 237

Avec les processus, la certification est généralement basée sur une certaine capacité démontrée du processus
à effectuer une tâche spécifiée. Par exemple, un tour peut usiner une pièce d'essai spéciale conçue pour
simuler des caractéristiques de produit autrement difficiles ou impossibles à mesurer. Le fournisseur est
généralement responsable de la certification. L'audit de processus implique l'établissement d'une procédure
pour le processus spécial, puis l'examen de la performance réelle du processus pour la conformité à la
procédure. Un certain nombre de livres existent pour aider à l'évaluation des procédés spéciaux. De plus, il
existe des entreprises de services d'inspection qui vous permettent d'embaucher des experts pour vérifier que
les procédés spéciaux respectent les directives établies. Ces entreprises emploient des professionnels du
contrôle de la qualité à la retraite, ainsi que du personnel à temps plein. En plus de réduire vos coûts, ces
entreprises peuvent fournir un niveau d'expertise que vous n'auriez peut­être pas autrement.

Partenariat et alliances
Les recherches suggèrent que les articles achetés représentent 60 % des ventes, 50 % de tous les problèmes
de qualité et 75 % de toutes les demandes de garantie. Pourtant, même ces chiffres impressionnants sous­
estiment l'importance des fournisseurs pour le succès d'une entreprise. L'accent mis sur les systèmes de
gestion des stocks juste­à­temps (JIT) a créé une situation dans laquelle tout glissement des engagements de
qualité ou de livraison a un impact négatif immédiat sur les calendriers de production et la capacité de l'entreprise
à expédier le produit fini. L'interdépendance du fournisseur et de l'acheteur est maintenant douloureusement
évidente. Cela a conduit de nombreuses entreprises à réduire le nombre de fournisseurs dans le but de mieux
gérer les relations avec les fournisseurs. La nouvelle approche consiste à traiter les fournisseurs comme des
partenaires plutôt que comme des adversaires. Les fournisseurs reçoivent des contrats plus importants et plus
longs et, à leur tour, ils sont censés travailler en étroite collaboration avec l'acheteur pour s'assurer que les
clients de l'acheteur sont satisfaits.

La sagesse conventionnelle dans le contrôle de la qualité américain était, pendant des décennies, que
plusieurs fournisseurs garderaient tous les fournisseurs «sur leurs orteils» grâce à la concurrence. Plusieurs
fournisseurs ont fourni une couverture contre des problèmes imprévus comme les incendies, les inondations
ou les conflits de travail, et sont devenus la norme de facto pour la plupart des entreprises (et exigée par les
principales agences gouvernementales, y compris le ministère de la Défense).

Dans les années 1980, le consensus sur les multiples sources d'approvisionnement a commencé à
s'éroder, car l'énorme succès du Japon en matière de fabrication en général et de qualité en particulier a inspiré
les hommes d'affaires américains à étudier les méthodes japonaises. Les entreprises japonaises découragent
autant que possible les achats multi­sources, conformément à la philosophie de W. Edwards Deming (voir
points 2 et 4 dans Deming's 14 Points, Chap. 3). Les partisans de l'approvisionnement auprès d'une source
unique soutiennent qu'il encourage le fournisseur à prendre des mesures à long terme en votre nom et rend les
fournisseurs plus fidèles et engagés dans votre réussite. Statistiquement, variabilité minimale du produit
Machine Translated by Google

238 Contrôle de processus

peut être obtenu si les sources de variation sont minimisées et si plusieurs fournisseurs sont
une source évidente de variation.
Récemment, les inondations causées par les tsunamis au Japon ont eu un effet dévastateur
sur la chaîne d'approvisionnement, et le recours à des fournisseurs locaux uniques à long
terme a entravé le redressement de la nation dans son ensemble. Cela semble être un argument
de poids pour maintenir de multiples sources de composants clés, en particulier d'un point de
vue géographique.
La décision concernant une source unique ou une source multiple doit être prise au cas par
cas. Dans la plupart des cas, les nombreux avantages d'un fournisseur unique ne sont
contrebalancés que lorsque les risques sont assez importants.
Les interactions traditionnelles entre fournisseur et acheteur se concentraient sur diverses
formes d'inspection des produits, qui étaient souvent contradictoires. Des niveaux d'interaction
améliorés pourraient se concentrer sur la prévention des problèmes liés à la qualité, en partant
du principe que la qualité doit être construite par le fournisseur avec l'aide de l'acheteur. La
relation n'est pas conflictuelle, mais elle est toujours indépendante.

Lorsque des partenariats client­fournisseur sont développés, les acheteurs et les fournisseurs
travaillent en étroite collaboration sur des questions telles que la formation conjointe, la
planification et le partage d'informations confidentielles (par exemple, les prévisions de ventes).
Les canaux de communication sont largement ouverts et incluent de nouvelles formes telles que
concepteur à concepteur ou ingénieur qualité à ingénieur qualité. Cette approche entraîne une
communication parallèle, un changement radical de l'agent d'achat à l'approche de représentant
des ventes utilisée dans le passé (communication en série). Une étude de recherche a montré
que, pour les canaux de communication série, les niveaux de qualité sont restés stables ou ont
diminué tandis que, pour la communication parallèle, les niveaux de qualité se sont
considérablement améliorés.
Des équipes d'amélioration des processus peuvent également être formées et agréées
comme décrit dans la partie IV, où le processus à améliorer est le processus de communication
fournisseur­acheteur. Ces équipes se réunissent dans les locaux du fournisseur et de l'acheteur
pour fixer les objectifs de la relation et élaborer des plans pour atteindre leurs objectifs. Le
personnel de contact et les méthodes de contact sont établis, y compris un calendrier des
réunions. Ces réunions sont utilisées pour se mettre mutuellement au courant des progrès et
des nouveaux plans, pas seulement pour discuter des problèmes. Les acheteurs montrent aux
fournisseurs comment le produit est conçu, où les matériaux du fournisseur sont utilisés et les
processus de fabrication impliqués.
Dans certains cas, des plans technologiques conjoints (JTP) sont élaborés en coopération
par les fournisseurs et les acheteurs. Les plans comprennent des exigences de performance
spécifiques, y compris des exigences de qualité, de fiabilité et de maintenabilité, et le rôle du
fournisseur dans le respect de ces exigences est défini.
JTP englobe également les processus à utiliser par les fournisseurs et les acheteurs. Des
plans de contrôle de processus sont préparés, y compris l'identification des variables de
processus clés et la manière dont elles doivent être contrôlées et surveillées.
Les tâches spéciales à effectuer par le fournisseur (par exemple, les inspections en cours de
fabrication, SPC) sont décrites. Une classification des caractéristiques et des défauts est effectuée.
Machine Translated by Google

Gestion de la chaîne d'approvisionnement 239

Les acheteurs travaillent avec les fournisseurs pour élaborer des normes esthétiques et
sensorielles. Les méthodes de test et de mesure sont normalisées.
Enfin, des exigences en matière d'inspection et d'audit des produits finis sont établies. Les
exigences d'échantillonnage sont précisées ainsi que les niveaux de qualité acceptables. Des
systèmes d'identification et de traçabilité des lots sont développés. Des actions correctives et des
systèmes de suivi acceptables pour le fournisseur et l'acheteur sont institués.

L'administration des contrats est un effort coopératif. Le fournisseur et l'acheteur participent à


l'évaluation des premiers échantillons de produit. Des systèmes sont mis en œuvre pour garantir
que les informations de conception et les informations clés sur les modifications des exigences
sont communiquées rapidement et avec précision.
Des dispositions sont prises pour une surveillance de routine des processus des fournisseurs.
Toutes les parties sont impliquées dans l'évaluation du produit livré, et les données collectées sont
utilisées pour l'amélioration et l'apprentissage, pas pour le jugement.
L'action sur un produit non conforme est rationnelle et basée sur ce qui est le mieux pour
l'utilisateur final. Le personnel qualité des fournisseurs fait partie de l'équipe.
Au Japon, « Keiretsu » est le nom de la coordination étroite des entreprises, des fournisseurs,
des banques et de nombreuses autres entreprises qui travaillent ensemble pour le bien de
l'ensemble. Le contrôle est basé sur les participations de leurs fournisseurs. Le système japonais,
communément appelé cartel, est exclu par les lois antitrust américaines en vigueur. Cependant,
comme le décrivent Burt et Doyle (1993), les entreprises américaines ont créé des relations de
type Keiretsu avec les fournisseurs par le biais d'une gestion stratégique de l'offre. L'accent est
mis sur les relations d'externalisation à valeur ajoutée. Des gains d'efficacité considérables peuvent
être réalisés grâce à ces approches de la gestion stratégique de l'offre. La base des relations
américaines de type Keiretsu comprend des objectifs et des engagements partagés à long terme.
Les ingrédients clés qui doivent être présents sont l'adéquation stratégique et la confiance
mutuelle.

Les relations de type américain Keiretsu sont compatibles et interdépendantes avec d'autres
stratégies d'entreprise, telles que la gestion de la qualité totale, la gestion stratégique des coûts,
la fabrication juste à temps, l'ingénierie simultanée, la fabrication flexible, les compétences de
base et la gestion de la chaîne de valeur. L'approche peut être appliquée à l'achat de matériel ou
à des besoins hors production et de service, tels que des services juridiques, des services de
conseil et des fournitures d'entretien, de réparation et d'exploitation.

Dans ces relations, il est important que les entreprises garantissent la protection des
compétences de base d'une entreprise par le biais d'accords précoces et lors de discussions et
d'actions ultérieures. Des disciplines pour contrôler les contacts intérimaires à tous les niveaux
sont nécessaires pour s'assurer que les relations restent concentrées dans les limites préétablies
et ne débordent pas sur des produits ou des activités techniques qui sont au­delà de la portée de
la coopération convenue.
L'accent est mis sur la coopération, la confiance et la synergie; cependant, cela ne signifie pas
que les dirigeants peuvent faire preuve de négligence dans leurs pratiques commerciales. Ils ne
doivent pas contribuer au développement d'un nouveau concurrent plus fort.
Machine Translated by Google
Machine Translated by Google

PARTIE IV

Continu
chapitre 12

Amélioration
Changement efficace
Gestion chapitre 13

Définir l'étape
chapitre 14

Étape de mesure
amélioration de la qualité : améliorer les performances
Il existe deux méthodes acceptables chapitre 15
compte tenu du système actuel,pour la mise en
ou améliorer le œuvre
système
Chapitre 16 de
lui­même. Les améliorations de la performance au sein d'un
l'étape d'analyse
système actuel peuvent souvent être réalisées par des individus
travaillant seuls. Par exemple : un opérateur peut apporter certains Amélioration/étape de conception

ajustements à un ou plusieurs réglages de la machine, puis chapitre 17

informer la supervision locale des meilleurs résultats ; une Étape de contrôle/vérification


préposée au traitement des commandes peut remarquer que les
commandes peuvent être exécutées plus rapidement dans certaines conditions, et elle
travaille avec le superviseur pour normaliser cette méthode. Des études indiquent que
ce type d'action sera responsable d'environ 5 à 15 % des améliorations. Les 85 à 95 %
restants de toutes les améliorations nécessiteront de changer le système lui­même. Ceci
est rarement accompli par des individus travaillant seuls. Cela nécessite une action de
groupe. Ainsi, la grande majorité des activités d'amélioration de la qualité se dérouleront en groupe.
Bien que l'amélioration continue doive faire partie de la routine de chacun, les
conditions n'encouragent pas toujours ce comportement. Les précédents opérationnels
et les procédures formelles sont conçus pour maintenir le statu quo. Des systèmes
sont mis en place pour détecter les écarts négatifs par rapport au statu quo et y
réagir. L'amélioration continue implique que nous essayons constamment de changer
le statu quo pour le mieux. Faire cela avec sagesse nécessite une compréhension de
la nature des systèmes de causes. Les systèmes présenteront toujours des niveaux
de performance variables, mais la nature de la variation fournit la clé du type d'action
approprié. Si un système est « sous contrôle » au sens statistique, alors toute la
variabilité observée provient de causes communes de variation inhérentes au système lui­même.
L'amélioration des performances de ce processus stable nécessite des modifications
fondamentales du système. D'autres fois, les systèmes présenteront une variabilité non
aléatoire, détectée comme des « causes spéciales » de variation sur une carte de contrôle
statistique (voir le chapitre 9). Lorsque des causes spéciales de variation sont présentes, la
cause spéciale doit être identifiée et traitée. Il est imprudent d'agir sur le système lui­même
dans ce cas. De même, rechercher « le problème » lorsque la variabilité est due à des causes communes
Machine Translated by Google

242 Amélioration continue

est également contre­productif, car il augmente la variation du processus. Déterminer


si la variabilité provient de causes spéciales ou de causes communes nécessite une
compréhension des méthodes statistiques des cartes de contrôle. Ce simple fait est
une source de préoccupation en ce qui concerne l'amélioration continue par des
individus travaillant sans le bénéfice d'une réflexion significative au niveau des
systèmes. Dans ces environnements, il est essentiel que la gestion locale soit
expérimentée dans ces outils statistiques, pour s'assurer qu'elle surveille les effets
négatifs des efforts d'amélioration à petite échelle. Une équipe interfonctionnelle
avec le bon mélange d'expérience, formée aux méthodes appropriées, est souvent
une alternative plus sûre.
Les équipes d'amélioration des processus se concentrent sur l'amélioration d'une ou plusieurs
caractéristiques importantes d'un processus, par exemple la qualité, le coût, le temps de cycle, etc.
L'accent est mis sur un processus entier, plutôt que sur un aspect particulier du
processus. Les équipes d'amélioration des processus travaillent à la fois sur
l'amélioration incrémentale (KAIZEN) et sur le changement radical (réingénierie ou
projets de rupture). L'équipe est composée de membres qui travaillent régulièrement
avec le processus. Les membres de l'équipe relèvent généralement de différents
patrons pour fournir une perspective interfonctionnelle du processus, et leurs postes
peuvent se situer à différents niveaux de la hiérarchie de l'organisation.
Machine Translated by Google

CHAPITRE 12
Changement efficace

Gestion
Machine Translated by Google
Machine Translated by Google

processus ou produit. Les experts s'accordent à dire que le changement est difficile, perturbateur,
Une amélioration efficace
coûteux et une nécessite
cause majeure de changer
d'erreur. les fondamentaux
Pourtant, de la courantes
il existe des raisons
pour lesquelles les organisations choisissent de faire face aux difficultés liées au changement :

• Direction. Certaines organisations choisissent de maintenir le leadership en


matière de produits ou de services comme une question de
politique. Le changement est une routine. • Compétition. Lorsque des concurrents
améliorent leurs produits ou services de telle sorte que leur offre offre une
valeur supérieure à la vôtre, vous êtes obligé de changer. Le refus de le faire
entraînera la perte de clients et de revenus et peut même conduire
à un échec complet. • Avancées technologiques. L'intégration efficace et rapide
de nouvelles technologies dans une organisation peut améliorer la qualité et
l'efficacité et fournir un avantage concurrentiel. Bien sûr, cela implique de
changer les systèmes de gestion. •
Exigences de formation. De nombreuses entreprises adoptent des programmes
de formation sans se rendre compte que nombre de ces programmes
impliquent implicitement des changements. Par exemple, une entreprise qui
offre à ses employés une formation SPC doit être prête à mettre en œuvre un
système de contrôle des processus. Ne pas le faire conduit à des problèmes
de moral et gaspille des dollars de formation.
• Règles et règlements. Le changement peut être imposé à une organisation par les
régulateurs internes via des changements de politique et des changements dans les
procédures de fonctionnement. Le gouvernement et d'autres régulateurs et décideurs
externes (par exemple, ISO pour la fabrication, JCAHO pour les hôpitaux) peuvent
également imposer des changements.

• Demandes des clients. Les clients, grands et petits, ne sont pas liés par
vos politiques. Alors que certains peuvent demander, voire exiger que
vous changiez votre politique et vos procédures, d'autres ne diront rien
du tout et prendront simplement leurs affaires ailleurs.

245
Machine Translated by Google

246 Amélioration continue

Johnson (1993b, p. 233) donne le résumé suivant de la gestion du changement :

1. Le changement rencontrera de la résistance pour de nombreuses raisons différentes.

2. Le changement est un équilibre entre l'environnement stable et la nécessité de mettre en œuvre


TQM. Le changement peut être douloureux alors qu'il apporte de nombreuses améliorations.

3. Il y a quatre moments où le changement peut être le plus facilement effectué par le leader :
lorsque le leader est nouveau au travail, reçoit une nouvelle formation ou dispose d'une
nouvelle technologie, ou lorsque des pressions extérieures exigent un changement.

4. Les dirigeants doivent apprendre à mettre en œuvre les changements qu'ils jugent nécessaires,
les changements suggérés au­dessus de leur niveau et les changements exigés au­dessus
de leur niveau.

5. Il y a toutes sortes de réactions au changement. Certaines personnes résisteront, certaines


accepteront et d'autres auront des réactions mitigées.

6. Il existe un processus standard qui soutient la mise en œuvre du changement. Certaines des
principales exigences du changement sont le leadership, l'empathie et des communications
solides.

7. Il est important que chaque leader devienne un leader du changement. Cela nécessite une
analyse de soi et la volonté de changer les choses nécessitant un changement.

Les rôles

Le changement exige de nouveaux comportements de la part de toutes les personnes impliquées.


Cependant, quatre rôles spécifiques apparaissent couramment au cours des processus de changement
les plus réussis (Hutton 1994, pp. 2–4) :

• Agent de changement officiel. Une personne officiellement désignée qui a la responsabilité


principale d'aider la direction à planifier et à gérer le processus de changement. •
Commanditaires. Les

hauts dirigeants ayant l'autorité formelle de légitimer le changement. Le parrain fait du changement
un objectif pour l'organisation et s'assure que les ressources sont affectées pour l'accomplir.

Aucun changement majeur n'est possible sans engagement et place appropriée


sponsors.

• Défenseur. Quelqu'un qui voit un besoin de changement et entreprend d'initier le processus en


convainquant les sponsors appropriés. Il s'agit d'un rôle de vente. Les défenseurs fournissent
souvent au parrain des orientations et des conseils. Les défenseurs peuvent ou non occuper
des postes importants dans l'organisation.
Machine Translated by Google

Gestion efficace du changement 247

Parrainer

Équipe de direction
supérieure

Parrainer

Changer
Equipe
départementale les agents

Figure 12.1 Cascade de parrainage (Hutton, DW, 1994).

• Agent de changement informel. Les personnes autres que l'agent de changement officiel qui
aident volontairement à planifier et à gérer le processus de changement. Bien que la
contribution de ces personnes soit extrêmement importante, elle n'est généralement pas
suffisante pour provoquer des changements vraiment significatifs à l'échelle de l'organisation.

La position de ces rôles au sein d'une hiérarchie organisationnelle typique est


illustré graphiquement à la Fig. 12.1.

Buts
Il y a trois objectifs de changement :

1. Changer la façon dont les gens pensent ou agissent dans l'organisation. Tout changement
commence par l'individu, à un niveau personnel. À moins que l'individu ne veuille changer
son comportement, aucun changement réel n'est possible.
Changer de comportement nécessite un changement de mentalité.

2. Changez les normes. Les normes consistent en des normes, des modèles ou des schémas
qui guident le comportement dans un groupe. Toutes les organisations ont des normes ou
des attentes vis­à­vis de leurs membres. Le changement ne peut pas se produire tant que
les normes de l'organisation ne changent pas.

3. Changer les systèmes ou processus de l'organisation. C'est la « viande » du changement. En


fin de compte, tout travail est un processus et l'amélioration de la qualité nécessite des
changements au niveau du processus et du système.
Cependant, cela ne peut se produire de manière durable tant que les individus ne changent
pas de comportement et que les normes organisationnelles ne sont pas modifiées.
Machine Translated by Google

248 Amélioration continue

Mécanismes utilisés par les agents de changement Les


agents de changement aident à atteindre les objectifs ci­dessus de diverses manières.
L'éducation et la formation sont des moyens importants de modifier les perceptions et les
comportements individuels. Dans cette discussion, une distinction est faite entre la
formation et l'éducation. La formation fait référence à l'instruction et à la pratique conçues
pour enseigner à une personne comment accomplir une tâche. La formation se concentre
sur des tâches concrètes qui doivent être faites. La formation fera partie intégrante de
l'instauration de tout changement au niveau des processus.
L'éducation fait référence à l'instruction sur la façon de penser. L'éducation se
concentre sur l'intégration de concepts abstraits dans sa connaissance du monde. Les
personnes éduquées verront le monde différemment après avoir été éduquées qu'avant.
C'est une partie essentielle du processus de changement.
Dans le cadre de l'initiative de changement, un agent de changement efficace
organisera une évaluation de l'organisation pour identifier ses forces et ses faiblesses.
Le changement est généralement entrepris soit pour réduire les points faibles, soit pour
exploiter les points forts. L'évaluation guide la formation et l'éducation. Connaître ses
propres forces et faiblesses est utile pour cartographier le processus de changement.

Construire l'adhésion
La plupart des organisations ont encore une structure organisationnelle hiérarchique, de
commandement et de contrôle, parfois appelée « cheminées de fumée » ou « silos ». Les
spécialistes fonctionnels en charge de chaque cheminée ont tendance à se concentrer sur
l'optimisation de leur propre domaine fonctionnel, souvent au détriment de l'organisation
dans son ensemble. De plus, la hiérarchie confère à ces gestionnaires le monopole du
pouvoir d'agir sur les matières liées à leur spécialité fonctionnelle. L'effet combiné est à
la fois un désir de résister au changement et l'autorité de résister au changement, ce qui
crée souvent des obstacles insurmontables aux projets d'amélioration de la qualité.

Il est important de réaliser que les règles organisationnelles sont, de par leur nature,
un obstacle au changement. Les règles formelles prennent la forme de procédures
d'exploitation normalisées (SOP) écrites. Le but même des SOP est de normaliser le
comportement. La profession de la qualité a historiquement mis trop l'accent sur la
documentation formelle, et elle continue de le faire en préconisant des approches telles
que ISO 9000 et ISO 14000. Les règles formelles sont souvent des réponses à des
problèmes passés, et elles continuent souvent d'exister longtemps après la raison de leur
existence. a passé. Dans une organisation qui prend au sérieux ses règles écrites, même
les hauts dirigeants se retrouvent impuissants à agir sans se soumettre à un lourd
processus de modification des règles. Le vrai pouvoir dans une telle organisation est la
bureaucratie qui contrôle les procédures. Si l'organisation tombe dans le piège de créer
des règles écrites pour trop de choses, elle peut se retrouver moribonde dans un
environnement externe en évolution rapide. Ceci est une recette
pour catastrophe.
Machine Translated by Google

Gestion efficace du changement 249

Les règles restrictives n'ont pas besoin de prendre la forme de limites imposées par la
direction au personnel, ni de procédures définissant le travail horaire de façon fastidieuse (par
exemple, les règles de travail syndicales). Les projets exigent presque toujours que le travail
soit fait différemment et de telles procédures interdisent un tel changement. Les organisations
qui ont tendance à être excessives dans les SOP ont également tendance à être lourdes sur les
règles de travail. La combinaison est souvent mortelle pour les efforts d'amélioration de la qualité.
Les structures organisationnelles préservent le statu quo bien au­delà des restrictions
écrites formelles sous la forme de procédures et de règles. Une autre méthode efficace pour
limiter le changement consiste à exiger l'autorisation de divers départements, comités, conseils,
conseils, experts, etc. exemple, "Vous devriez exécuter cette comptabilité passée" ou "Mme.
Reimer et M. Evans devraient être informés de ce projet. Lorsque l'autorisation pour les véhicules
de changement (par exemple, les budgets de projet, les approbations de plan) est requise d'un
groupe qui se réunit rarement, cela crée des problèmes pour les planificateurs de projet. Les
plans peuvent être précipités afin qu'ils puissent être présentés à la prochaine réunion, de peur
que le projet ne soit retardé pendant des mois. Les plans nécessitant des modifications peuvent
être suspendus jusqu'à la prochaine réunion, dans des mois. Ou les projets peuvent manquer la
date limite et être reportés indéfiniment.

Obstacles externes Les


organisations modernes n'existent pas en tant qu'îlots. Des forces externes puissantes
s'intéressent activement à ce qui se passe au sein de l'organisation. Les organismes
gouvernementaux ont créé un labyrinthe de règles et de règlements que l'organisation doit
négocier pour utiliser ses ressources humaines sans encourir de pénalités ou de sanctions. Les
restrictions imposées aux entreprises modernes par les régulateurs extérieurs sont pour le moins
difficiles. Lorsque la recherche implique des personnes, des préoccupations éthiques et
juridiques exigent parfois l'obtention d'approbations externes. Les approbations dépendent de
questions telles que le consentement éclairé, la sécurité, le coût, etc.

De nombreuses industries ont des agences « dédiées » avec lesquelles traiter, comme la
Food and Drug Administration (FDA) pour l'industrie pharmaceutique.
Ces organismes doivent souvent être consultés avant d'entreprendre des projets. Par exemple,
un nouveau protocole de traitement pour le traitement des femmes enceintes peut impliquer
l'utilisation d'un médicament d'une nouvelle manière (par exemple, administré en ambulatoire
plutôt qu'en hospitalisation).
De nombreux professionnels font face à des risques de responsabilité qui font partie de chaque décision.
Souvent, ces peurs créent une mentalité de « jouez la sécurité » qui agit comme un obstacle au
changement. La peur est encore plus grande lorsque le projet implique des pratiques et
technologies nouvelles et non éprouvées.

Obstacles individuels au changement


Les individus ressentiront probablement une gamme d'émotions lorsqu'un changement se
produit dans une organisation.
Machine Translated by Google

250 Amélioration continue

• Les gens peuvent avoir des appréhensions ou même avoir peur du changement.
Le changement organisationnel exige que nous adoptions de nouvelles politiques
ou procédures, ce qui peut être troublant pour certains membres de l'organisation.
Il y a de la sécurité dans le statu quo, et la peur de l'inconnu est un obstacle
au changement. • Il est naturel, voire productif, d'être sceptique face au changement.
Le changement n'est pas toujours pour le mieux, du moins aux yeux de tous, et
même des améliorations marginales dans certains domaines peuvent nécessiter
des adaptations dans d'autres. Même lorsqu'il y a une reconnaissance générale
que le changement pourrait entraîner une amélioration, il peut y avoir un
scepticisme quant à la réalisation de l'amélioration.

Forsha (1992) décrit le processus de changement personnel illustré à la figure 12.2.

La trajectoire d'ajustement aboutit à la préservation du statu quo. Le chemin d'action


entraîne le changement. Le cycle PDCA bien connu peut être utilisé une fois que l'individu
s'est engagé à agir. L'objectif d'un tel changement est l'auto­amélioration continue.

Dans un contexte organisationnel, le groupe de référence de l'individu joue un rôle


dans la résistance personnelle au changement. Un groupe de référence est l'agrégation
de personnes auxquelles une personne pense lorsqu'elle utilise le mot "nous". Si « nous
» fait référence à l'entreprise, alors l'entreprise est le groupe de référence de l'individu et il
se sent lié au succès ou à l'échec de l'entreprise. Cependant, « nous » peut faire référence
à la profession ou au groupe de métiers de l'individu, par exemple, « Nous médecins »,
« Nous ingénieurs », « Nous membres du syndicat ». Dans ce cas, les dirigeants indiqués
sur l'organigramme formel auront peu d'influence sur l'attitude de l'individu envers le
succès ou l'échec du projet.
Lorsqu'un projet implique des groupes de référence externes avec des agendas
concurrents, la tâche d'obtenir l'adhésion et le consensus est en effet décourageante.

Le déni

Colère

Négociation

Dépression Décision

Acceptation Action

Chemin de réglage Chemin d'action

Figure 12.2 Le processus de changement personnel.


Machine Translated by Google

Gestion efficace du changement 251

Stratégies de soutien à la gestion inefficaces Stratégie


n° 1 : Ordonner aux gens d'agir comme vous le souhaitez. Avec cette approche, la haute
direction ordonne simplement aux gens d'agir comme le souhaitent les dirigeants.
L'implication est que ceux qui ne se conforment pas seront soumis à des mesures
disciplinaires. Les personnes aux niveaux inférieurs d'une organisation ont souvent une
vision exagérée de la valeur de la puissance brute. La vérité est que même les hauts
dirigeants ont un pouvoir limité pour gouverner par décret. Les êtres humains, de par leur
nature, ont tendance à agir selon leur propre jugement. Heureusement, ordonner qu'ils
fassent autrement a généralement peu d'effet. Le résultat de l'invocation de l'autorité est
que le décideur doit constamment essayer de deviner ce que le leader veut qu'il fasse dans
une situation particulière. Cela conduit à la stagnation et à la confusion alors que tout le
monde attend le leader. Un autre problème avec le commandement en tant que forme de
« leadership » est le simple problème de communication. Dans le meilleur des cas, les
gens interprètent souvent mal les ordres des dirigeants.

Stratégie #2 : Changer les règles par décret. Lorsque les règles sont modifiées par
décret, le résultat est à nouveau la confusion. Quelles sont les règles aujourd'hui ? Que
seront­ils demain ? Cela conduit à nouveau à la stagnation parce que les gens n'ont pas la
capacité de planifier l'avenir. Bien que les règles rendent les changements difficiles, elles
offrent également une stabilité et une structure qui peuvent servir à quelque chose d'utile.
Changer arbitrairement les règles en se basant sur la force (qui est ce à quoi se résume
«l'autorité») au lieu d'un ensemble de principes directeurs fait plus de mal que de bien.

Stratégie #3 : Autoriser le contournement des règles. Ici, les règles sont autorisées,
mais des exceptions sont faites pour les "projets favoris" du leader.
Le résultat est un manque de respect général et un mépris des règles, et le ressentiment
des personnes qui sont autorisées à violer les règles qui lient tout le monde. Une
amélioration consiste à développer une méthode formelle pour contourner les règles, par
exemple, les procédures de demande de dérogation. Bien que ce soit moins arbitraire, cela
ajoute une autre couche de complexité et ne change toujours pas les règles qui rendent le
changement difficile en premier lieu.
Stratégie #4 : Rediriger les ressources vers le projet. Les leaders peuvent également
utiliser leur autorité de commandement pour rediriger les ressources vers le projet. Plutôt
que d'utiliser des schémas de priorisation logiques pour hiérarchiser les projets, l'influence
politique est la base de l'allocation.

Stratégies efficaces de soutien à la gestion Stratégie


no 1 : Transformer l'organisation formelle et la culture de l'organisation. De loin, la
meilleure solution aux problèmes posés par les barrages routiers organisationnels est de
transformer l'organisation en une organisation où ces barrages routiers n'existent plus.
Comme indiqué précédemment, ce processus ne peut pas être mis en œuvre par décret.
Au fur et à mesure que le leader aide les équipes de projet à réussir, il ou elle apprendra le
besoin de transformation. En utilisant des pouvoirs de persuasion, le leader champion
peut relever le défi passionnant de créer une culture qui embrasse le changement au lieu
de le combattre.
Machine Translated by Google

252 Amélioration continue

Stratégie #2 : Mentorat. Dans la mythologie grecque, Mentor était un homme âgé, le conseiller
de confiance d'Ulysse, et le tuteur et enseignant de son fils Télémaque. Aujourd'hui, le terme
« mentor » est encore utilisé pour décrire un conseiller ou un enseignant sage et de confiance.
Lorsque cette personne occupe une position importante dans la hiérarchie de l'organisation, elle peut
être une force puissante pour éliminer les blocages. Les organisations modernes sont complexes et
déroutantes. Il est souvent difficile de déterminer où l'on doit aller pour résoudre un problème ou
obtenir une ressource nécessaire. Le mentor peut aider à guider le chef de projet à travers ce
labyrinthe en clarifiant les lignes d'autorité. En même temps, le poste de direction du mentor lui
permet de voir les implications de la complexité et de travailler à éliminer les règles et procédures
inutiles.

Stratégie #3 : Identifier les leaders informels et obtenir leur soutien.


De par leur expérience, les mentors savent souvent que la personne dont le projet a vraiment besoin
de soutien n'est pas celle qui occupe la case correspondante de l'organigramme. Le mentor peut
diriger le porteur de projet vers la personne dont l'opinion a vraiment de l'influence. Par exemple, un
projet peut nécessiter l'approbation, par exemple, du vice­président de l'ingénierie. Le vice­président
de l'ingénierie peut hésiter parce que son métallurgiste principal n'a pas approuvé le projet.

Stratégie #4 : Trouvez des moyens légitimes de contourner les personnes, les procédures, les
contraintes de ressources et les autres obstacles. Il peut être possible d'obtenir des approbations ou
des ressources par des moyens inconnus du chef de projet. Peut­être qu'un changement mineur
dans le plan de projet peut contourner entièrement une procédure lourde. Par exemple, l'ajout d'un
ingénieur à l'équipe peut automatiquement placer l'autorité d'approuver les expériences de processus
au sein de l'équipe plutôt qu'entre les mains du service d'ingénierie.

Ces préoccupations doivent être prises en compte. Le changement ne peut se produire sans
l'adhésion des principales parties prenantes responsables du changement.
Les étapes suivantes peuvent être utilisées pour obtenir l'adhésion au sein de l'organisation
(Keller, 2011a) :

1. Définir les principales parties prenantes. Ce sont les individus ou les groupes qui peuvent
faire ou défaire l'initiative de changement.

2. Mesurer le niveau de référence d'adhésion pour chaque partie prenante clé. Dans quelle
mesure sont­ils déterminés à changer ?

3. Analysez les facteurs de réduction et de stimulation de l'adhésion pour chaque partie


prenante clé ou groupe de parties prenantes. Comprendre les préoccupations des parties
prenantes, qui peuvent varier d'une partie prenante à l'autre.

4. Améliorer en résolvant les problèmes.

5. Contrôler avec un plan pour maintenir l'adhésion.

Remarquez l'approche DMAIC, qui sera discutée sous peu comme le modèle d'amélioration des
processus, appliquée ici au problème de l'adhésion.
Machine Translated by Google

Gestion efficace du changement 253

Ces étapes pour obtenir l'adhésion peuvent être utilisées plusieurs fois pour différents problèmes au
sein d'un projet donné, et peuvent même être utilisées de manière informelle lors d'une réunion d'équipe.

Cinq niveaux peuvent être utilisés pour évaluer l'adhésion (ou l'absence d'adhésion) des parties
prenantes ou des groupes de parties prenantes (Forum Corporation, 1996) :

•Hostilité
•Contestation

• Acceptation •

Soutien •

Adhésion

Le niveau le plus bas, l'hostilité, est facile à reconnaître. La dissidence peut passer inaperçue
jusqu'à ce que les parties prenantes soient interrogées sur l'initiative de changement, par exemple par
le biais d'une discussion ou d'un sondage. L'acceptation est le niveau d'adhésion le plus bas qui devrait
être pris en compte pour poursuivre l'initiative de changement, mais il est insuffisant. Le soutien doit être
obtenu de la majorité des groupes de parties prenantes critiques. La véritable adhésion est le niveau
souhaité, lorsque les parties prenantes sont enthousiastes dans leur engagement pour le changement.

Il existe un certain nombre de problèmes qui réduisent l'adhésion des parties prenantes (Forum
Corporation, 1996).

• Objectifs peu clairs. Les objectifs doivent être clairement communiqués tout au long
les groupes de parties prenantes.

• Aucun avantage personnel. Les objectifs doivent être énoncés en des termes qui fournissent un
lien clair avec les avantages personnels des parties prenantes, tels que la diminution des
tracas ou l'amélioration des conditions de travail.

• Solutions prédéterminées. Lorsque les équipes reçoivent la solution sans possibilité d'analyser
les alternatives, elles seront probablement sceptiques quant au résultat.

• Manque de communication. Les analyses et les résultats doivent être communiqués à tous les
groupes de parties prenantes. • Trop de priorités. Les

équipes doivent se concentrer sur des résultats réalisables. • Orientation à court terme. Les

objectifs doivent fournir des avantages clairs à court terme


et des termes plus longs.

• Aucune responsabilité. Des sponsors de projet, des parties prenantes et des membres d'équipe
clairement définis assurent la responsabilité. • Désaccord

sur qui est le client. Partie prenante clairement définie


groupes sont nécessaires pour la réussite du projet.

• Faible probabilité de mise en œuvre. Parrainage formel du projet et


les approbations fournissent un canal de mise en œuvre clair.
Machine Translated by Google

254 Amélioration continue

• Ressources insuffisantes. Les groupes de parties prenantes doivent comprendre que le


projet est suffisamment financé. •

Changement de direction ou de portée en cours de route. Les changements dans la


portée ou l'orientation du projet offrent un potentiel de perte d'adhésion. Les
changements doivent être correctement communiqués aux groupes de parties
prenantes pour éviter cette réduction de l'adhésion.

Les chapitres suivants montreront comment ces questions sont abordées grâce à l'utilisation
de chartes de projet, parrainées par la direction et exécutées par des équipes interfonctionnelles
de parties prenantes.

Déploiement du projet Les


projets de conception et d'amélioration porteront sur un ou plusieurs domaines clés : coût,
calendrier ou qualité. Les projets peuvent être développés par des cadres supérieurs pour un
déploiement au niveau de l'entreprise (une approche descendante) ou développés avec des
propriétaires de processus à un niveau opérationnel (approche ascendante). Dans les deux cas,
les projets doivent être directement liés aux objectifs stratégiques de l'organisation. Le PDG de
GE, Jack Welch, considérait que les meilleurs projets étaient ceux qui résolvaient les problèmes
des clients.
Les projets appartiennent effectivement à leur sponsor. Le parrain, en tant que leader de
l'organisation, travaille avec le chef d'équipe pour définir la portée, l'objectif et les livrables du
projet. Le parrain s'assure que les ressources sont disponibles pour les membres du projet et
renforce l'adhésion au projet aux niveaux supérieurs de la direction selon les besoins. Chacun
de ces problèmes est documenté dans la charte du projet, qui sert de contrat entre le sponsor
et l'équipe du projet. La structure du projet et sa charte maintiennent le projet concentré. Le
projet a une date de conclusion prévue avec des livrables connus, ainsi que l'adhésion de la
haute direction. Ensemble, ces exigences garantissent la réussite du projet.

Sélection des projets Les


projets conçus pour améliorer les processus doivent être limités aux processus qui sont
importants. Les processus importants ont un impact sur des éléments tels que le coût du produit,
les calendriers de livraison et les caractéristiques du produit, des éléments que les clients remarquent.
Les clients ne peuvent pas vous aider à identifier ces processus car ils ne connaissent pas vos
opérations internes. Cependant, les clients peuvent vous aider à identifier ce qui est important
pour eux ; vous devez ensuite relier cela à vos processus. De plus, les projets ne devraient
être entrepris que lorsque le succès est possible. La faisabilité est déterminée en tenant compte
de la portée et du coût d'un projet et du soutien qu'il est susceptible de recevoir du propriétaire
du processus.
Le principe de Pareto bien connu fait référence à l'observation qu'un petit pourcentage de
processus cause un grand pourcentage des problèmes. Le principe de Pareto est utile pour
restreindre une liste de choix aux quelques projets qui offrent le plus grand potentiel.
Machine Translated by Google

Gestion efficace du changement 255

Au départ, les problèmes créent des «signaux de douleur», tels que des
perturbations d'horaire et des plaintes de clients. Souvent, ces symptômes sont traités
plutôt que leurs causes sous­jacentes. Par exemple, si des problèmes de qualité
entraînent des retards dans les délais qui entraînent des plaintes des clients, la
« solution » peut être de conserver un inventaire important et de trier le bon du mauvais.
Le résultat est que le calendrier est respecté et que les clients cessent de se plaindre, mais à un coût éno
Ces opportunités sont souvent plus importantes que celles qui causent des problèmes
plus visibles, mais elles sont intégrées au processus et difficiles à voir. Une solution au
phénomène des problèmes cachés est la réingénierie, qui se concentre sur les
processus plutôt que sur les symptômes. Certaines lignes directrices pour identifier
les processus dysfonctionnels en vue d'une amélioration potentielle sont présentées
dans le tableau 12.1 (Hammer et Champy, 1993).
La colonne « symptôme » est utile pour identifier les problèmes et établir des
priorités. La colonne « maladie » attire l'attention sur les causes sous­jacentes du
problème, et la colonne « remède » est utile pour constituer des équipes de projet
d'amélioration de la qualité et préparer des énoncés de mission.

Indice de priorisation de Pareto


Après une recherche sérieuse d'opportunités d'amélioration, les dirigeants de
l'organisation se retrouveront probablement avec plus de projets à poursuivre qu'ils
n'ont de ressources. L'indice de priorité de Pareto (IPP) est un moyen simple de

Symptôme Maladie Guérir

Informations détaillées Découvrez pourquoi les


échange, redondance des données, Fragmentation arbitraire gens ont besoin de communiquer
rekeying d'un processus naturel les uns avec les autres si souvent

Inventaire, tampons et autres actifs Slack du système pour faire Supprimer l'incertitude
stockés face à l'incertitude

Ratio élevé de vérification et de Fragmentation Éliminer le


contrôle par rapport au travail à valeur ajoutée fragmentation, intégrer
(contrôles internes, audits, etc.) processus

Retravail et itération Rétroaction inadéquate Contrôle de processus

dans un long travail


processus

Complexité, exceptions et causes Accrétion sur un Découvrir le processus


spéciales fond simple « propre » d'origine et
créer de nouveaux
processus pour des
situations particulières ;
éliminer la standardisation excessive des
processus

Tableau 12.1 Symptômes et maladies du processus dysfonctionnel


Machine Translated by Google

256 Amélioration continue

prioriser ces opportunités. Le PPI est calculé comme suit (Juran et Gryna, 1993) :

×
IPP = économies probabilité de succès
comp
clétion
× ost temps de

Les entrées sont, bien sûr, des estimations et le résultat dépend totalement de la
précision des entrées. Le nombre résultant est une valeur d'index pour un projet donné.
Les valeurs PPI permettent de comparer différents projets ; ils n'ont aucune signification
intrinsèque en eux­mêmes. S'il y a des points forts, le PPI peut faciliter la sélection
d'un projet. Le tableau 12.2 montre les PPI pour plusieurs projets hypothétiques.

Dans cet exemple, le PPI indiquerait que les ressources doivent d'abord être
allouées à la réduction des défauts de soudure à la vague, puis à l'amélioration de la
capacité de la machine NC, et ainsi de suite. Le PPI ne donne pas toujours un ordre
aussi clair des priorités. Lorsque deux projets ou plus ont des PPI similaires, un
jugement doit être porté sur d'autres critères.

Approche matricielle de priorisation pour la sélection des


projets Les matrices de priorisation sont conçues pour concentrer rationnellement
l'attention de l'équipe sur les questions et options clés qui sont les plus importantes
pour l'organisation. Brassard (1989, pp. 102­103) présente trois méthodes pour
élaborer des matrices de priorisation : la méthode des critères analytiques complets,
la méthode de la combinaison digraphe d'interrelations (DI)/matrice et la méthode des
critères de consensus.
Un exemple est fourni sur les Fig. 12.3 à 12.5 (Keller, 2011a), basés sur les critères
de sélection des projets d'une entreprise aérospatiale, qui ont été établis à partir des
commentaires détaillés d'un client de premier plan. Un examen de la

Économies Coût, Temps,


Projet de 1 000 $ Probabilité 1 000 $ Années IPP

Réduire la soudure à la vague


70 $ 0,7 25 $ 0,75 2.61
défauts 50%

Amélioration des capacités


50 $ 0,9 20 $ 1,00 2.25
de la machine CN
Certification ISO 9001 150 $ 0,9 75 $ 2,00 0,90

Éliminer les plaintes de


250 $ 0,5 75 $ 1,50 1.11
livraison des clients

Réduire les défauts


90 $ 0,7 30 $ 1,50 1.40
d'assemblage de 50 %

Tableau 12.2 Illustration de l'indice de priorité de Pareto (PPI)


Machine Translated by Google

Gestion efficace du changement 257

Figure 12.3 Matrice de pondération des critères (à l'aide du logiciel Quality America Green Belt XL).

Figure 12.4 Matrice d'évaluation des options pour les critères de rapport avantages/coûts (à l'aide du logiciel
Quality America Green Belt XL).

Figure 12.5 Matrice récapitulative (à l'aide du logiciel Quality America Green Belt XL).

les commentaires ont donné lieu à un examen interne, qui a validé la prévalence et
l'importance des problèmes cités, qui ont été résumés comme suit :

·Qualifications de processus nouveaux ou révisés


·Revues de conception
·Incorporation/contrôle des changements d'ingénierie
·Planification basée sur la réalité
·Procédures de travail/formation

L'équipe a ajouté trois critères de sélection supplémentaires : le rapport avantages/coûts,


le délai de mise en œuvre et la probabilité de succès. En utilisant le processus de hiérarchie
analytique développé par Saaty (1988), l'équipe a comparé chaque critère avec chacun des
autres critères en utilisant des scores de 1/10, 1/5, 1, 5 et 10 pour indiquer significativement
moins souhaitable, moins souhaitable, également souhaitable, plus désirable ou
significativement plus désirable, respectivement. Les résultats sont présentés à la Fig. 12.3.

Un certain nombre de projets potentiels ont été définis et ces options de projet ont été
comparées à chaque critère, un à la fois, pour établir un consensus.
Machine Translated by Google

258 Amélioration continue

au sein de l'équipe sur la mesure dans laquelle chaque option de projet répondait aux critères. La
matrice de cotation des options pour les critères de rapport avantages/coûts est illustrée à la Fig. 12.4.
Notez qu'il y aura une matrice d'options pour chaque critère, donc huit matrices d'options dans ce
cas.
Une matrice récapitulative peut ensuite être construite en appliquant les poids des critères
(illustrés à la Fig. 12.3) à chacune des huit matrices d'options. La matrice récapitulative de
l'exemple, illustrée à la Fig. 12.5, indique que le meilleur avantage global par rapport aux critères
pondérés est fourni par le projet ECO Cycle Time Reduction.

Lorsque les critères ont le même poids, un diagramme matriciel plus simple peut être utilisé
pour comparer directement chaque option avec chaque critère. Le processus de hiérarchie
analytique, également connu sous le nom de méthode d'analyse complète, prend plus de temps,
mais permet à une équipe de parvenir à un consensus sur l'importance des critères et les avantages
relatifs de chaque projet au fur et à mesure de la génération de chaque score dans chaque cellule
de chaque projet. matrice.

Sélection de projets à l'aide de la théorie des contraintes


Une autre approche de sélection de projets utilise la théorie des contraintes (TOC), abordée au
Chap. 5. Pyzdek et Keller (2010) proposent l'approche suivante (utilisée avec autorisation), basée
sur les méthodes de Goldratt pour la gestion des contraintes (1990) :

1. Identifier la ou les contraintes du système. Considérons une entreprise fictive qui ne


fabrique que deux produits, P et Q (Fig. 12.6). La demande du marché pour P est de 100
unités par semaine et P se vend 90 $ l'unité.

P Q
90 $/unité 100 $/U
100 U/Semaine 50 U/Semaine

Pièce J J
d'achat 15 min/U 5 min/U
5 $/unité

C 10 min/U C 5 min/U B 15 min/U

A 15 min/U B 15 min/U A 10 min/U

RM1 RM2 RM3


20 $/U 20 $/U 20 $/U

Figure 12.6 Un processus simple avec une contrainte.


Machine Translated by Google

Gestion efficace du changement 259

La demande du marché pour Q est de 50 unités par semaine et Q se vend 100 $ l'unité.
Supposons que A, B, C et D sont des travailleurs qui ont des compétences différentes non
interchangeables et que chaque travailleur n'est disponible que 2 400 minutes par semaine
(8 heures par jour, 5 jours par semaine).
Pour plus de simplicité, supposons qu'il n'y a pas de variation, de gaspillage, etc. dans le
processus. Supposons que ce processus a une contrainte, Travailleur B. Ce fait a des
implications profondes pour la sélection des projets Six Sigma.

2. Décidez comment exploiter les contraintes du système. Recherchez des projets qui minimisent
le gaspillage de la contrainte. Par exemple, si la contrainte (alimente) la demande du
marché (c'est­à­dire une contrainte de capacité), alors nous recherchons des projets qui
assurent une livraison à 100 % dans les délais.
Ne gaspillons rien ! Si la contrainte est une machine ou une étape de processus, comme
dans cet exemple, concentrez­vous sur la réduction du temps de configuration, l'élimination
des erreurs ou des rebuts et le maintien de l'étape de processus en cours d'exécution autant
que possible.

3. Subordonner tout le reste à la décision ci­dessus. Choisissez des projets pour maximiser le
débit de la contrainte. Après avoir terminé l'étape 2, choisissez des projets pour éliminer les
déchets des processus en aval ; une fois que la contrainte a été utilisée pour créer quelque
chose, nous ne voulons pas la perdre à cause d'une erreur en aval. Choisissez ensuite des
projets pour vous assurer que la contrainte est toujours alimentée en ressources adéquates
non défectueuses par les processus en amont. Nous poursuivons les processus en amont
en dernier car, par définition, ils ont des ressources relâchées, de sorte que les petites
quantités de déchets en amont qui sont détectées avant d'atteindre la contrainte sont moins
dommageables pour le débit.

4. Élevez la ou les contraintes du système. Élever signifie « Lever la restriction ». C'est l'étape
#4, pas l'étape #2 ! Souvent, les projets poursuivis aux étapes 2 et 3 élimineront la
contrainte. Si la contrainte continue d'exister après avoir effectué les étapes 2 et 3,
recherchez des projets qui fournissent des ressources supplémentaires à la contrainte.
Celles­ci peuvent impliquer, par exemple, l'achat d'équipement supplémentaire ou
l'embauche de travailleurs supplémentaires ayant une compétence particulière.

5. Si, dans les étapes précédentes, une contrainte a été brisée, revenez à l'étape 1. La pensée
a tendance à se conditionner à l'existence de la contrainte. Une sorte d'inertie mentale
s'installe. Si la contrainte a été levée, alors il faut repenser tout le processus à zéro. Le

retour à l'étape 1 vous ramène au début du cycle.

Comparaison de la COT avec les approches traditionnelles


Il peut être démontré que l'approche basée sur le débit est supérieure aux approches traditionnelles
de sélection des projets. Par exemple, considérons les données du tableau 12.3. Si vous deviez
appliquer l'analyse de Pareto aux taux de rebut, vous
Machine Translated by Google

260 Amélioration continue

Processus UN B C D

Taux de rebut 8% 3% 5% 7%

(Pyzdek et Keller, 2010)

Tableau 12.3 Exemple de taux de rebut de processus

commencez par des projets qui ont réduit les rebuts produits par le travailleur A. En fait, en
supposant la combinaison de produits optimale, le travailleur A a environ 25 % de temps mort,
de sorte que la perte de rebut peut être compensée sans arrêter le travailleur B, qui est la
contrainte. La table des matières suggérerait que la perte de ferraille du travailleur B et les
processus en aval C et D soient traités en premier, exactement le contraire de ce que l'analyse
de Pareto recommande.
Bien sûr, avant de décider quels projets financer, des analyses coûts/bénéfices restent
nécessaires et la probabilité de réussite du projet doit être estimée. Mais en utilisant la table des
matières, vous saurez au moins où chercher d'abord les opportunités.

Utilisation des informations sur les contraintes pour cibler les projets
Six Sigma L'application de la stratégie TOC décrite précédemment nous indique où se concentrer
dans le processus. L'ajout d'informations CTX (voir Tableau 12.4) peut nous aider à déterminer

Projet
Taper Discussion

CTQ Toute unité produite par la contrainte est particulièrement précieuse car si elle
est perdue en tant que ferraille, du temps de contrainte supplémentaire doit être utilisé
pour la remplacer ou la retravailler. Étant donné que le temps de contrainte détermine
le débit (bénéfice net de l'ensemble du système), la perte dépasse de loin ce qui
apparaît sur les rapports de rebut et de reprise. Les projets du CTQ à la contrainte
sont prioritaires.
CTS Les projets CTS peuvent réduire le temps nécessaire à la contrainte pour
produire une unité, ce qui signifie que la contrainte peut produire plus d'unités.
Cela a un impact direct sur le débit. Les projets CTS à la contrainte sont la plus haute
priorité.
CTC Étant donné que la contrainte détermine le débit, l'indisponibilité de la contrainte
entraîne une perte de débit de l'ensemble du système. Cela rend le coût des temps
d'arrêt des contraintes extrêmement élevé. Le coût d'exploitation de la contrainte est
généralement minuscule en comparaison. De plus, les projets CTC peuvent avoir un
impact négatif sur la qualité ou le calendrier.
Ainsi, les projets CTC à la contrainte sont de faible priorité.

(Pyzdek et Keller, 2010)

Tableau 12.4 Priorité de débit des projets CTX qui affectent la contrainte
Machine Translated by Google

Gestion efficace du changement 261

type de projet sur lequel se concentrer; c'est­à­dire, devons­nous nous concentrer sur la
qualité, le coût ou le calendrier des projets ? Supposons que vous ayez trois projets
candidats Six Sigma, tous axés sur l'étape B du processus, la contrainte. Le domaine
abordé est correct, mais quel projet devriez­vous poursuivre en premier ? Supposons que
nous apprenions qu'un projet améliorera principalement la qualité, un autre le coût et un
autre le calendrier. Cette nouvelle information vous aide­t­elle ? Certainement! Consultez
le tableau 12.4 pour voir comment ces informations peuvent être utilisées. Les projets d'un
même groupe prioritaire sont classés en fonction de leur impact sur le débit.
Le même processus de réflexion peut être appliqué aux étapes de processus avant et
après la contrainte. Les résultats sont présentés dans le tableau 12.5.
Notez que le tableau 12.5 suppose que les projets avant la contrainte n'entraînent pas
de problèmes au niveau de la contrainte. N'oubliez pas que l'impact doit toujours être
mesuré en termes de débit. Si un processus en amont de la contrainte a un impact négatif
sur le débit, alors il peut être considéré comme une contrainte. Si le rendement moyen d'un
procédé en amont est suffisant pour alimenter la contrainte sur la moyenne, cela peut
encore poser problème. Par exemple, un processus en amont produisant 20 unités par jour
avec un rendement moyen de 90 % produira en moyenne 18 bonnes unités. Si la contrainte
nécessite 18 unités, les choses iront bien environ 50 % du temps, mais les autres 50 % du
temps, les choses ne iront pas bien. Une solution à ce problème consiste à placer un
inventaire des travaux en cours (WIP) entre le processus et la contrainte comme tampon
de sécurité. Ensuite, les jours où le rendement du processus est inférieur à 18 unités,
l'inventaire peut être utilisé pour maintenir la contrainte en cours d'exécution. Cependant, il
y a un coût associé à la tenue d'un inventaire WIP. Un projet Six Sigma qui peut améliorer
le rendement réduira ou éliminera le besoin d'inventaire et devrait être considéré même s'il
n'a pas d'impact direct sur la contrainte, en supposant que l'analyse avantages­coûts justifie
le projet. D'un autre côté, si un processus en amont peut facilement combler tout déficit
avant que la contrainte n'en ait besoin, alors un projet pour le processus aura une faible
priorité.

Objectif du projet Six Sigma


Avant le Au Après le
CTX : Contrainte Contrainte Contrainte
^ } }
La caractéristique Qualité (CTQ)
abordée est
~ ^ ~
Coût (CTC)
essentielle pour… } ~
Horaire (CTS) ^

^Priorité à faible débit.


~Priorité de débit modérée.
}Priorité haut débit.
(Pyzdek et Keller, 2010.)

Tableau 12.5 Priorité de débit du projet par rapport à l'orientation du projet


Machine Translated by Google

262 Amélioration continue

Connaître la priorité de débit du projet vous aidera à prendre de meilleures décisions


de sélection de projet. Bien sûr, la priorité de débit n'est qu'un élément du processus de
sélection des projets ; d'autres facteurs peuvent conduire à une décision différente, par
exemple un impact sur d'autres projets, une exigence réglementaire, une meilleure
rentabilité à long terme, etc.

Méthodologie DMAIC/DMADV Une


méthodologie standard en cinq étapes a été développée pour les projets d'amélioration :
Définir, Mesurer, Analyser, Améliorer, Contrôler (DMAIC). DMAIC est une extension des
cycles d'amélioration PDCA (Plan Do Check Act) de Shewhart et PDSA (Plan Do Study
Act) de Deming. Une fois que vous atteignez l'étape finale, vous pouvez répéter le
processus pour un cycle d'amélioration supplémentaire.

Motorola a utilisé l'acronyme MAIC (Measure, Analyze, Improve, Control). GE et


Allied Signal ont utilisé DMAIC, qui est devenu la norme. Certains consultants marquent la
méthodologie en ajoutant encore plus d'étapes. Harry et Schroeder (2000) ont ajouté la
reconnaissance au premier plan, et la standardisation et l'intégration jusqu'à la fin, se
référant au produit comme leur stratégie de percée. Juran a d'abord développé le concept
de percée des années plus tôt pour décrire des méthodes permettant d'obtenir des
améliorations de qualité de plusieurs ordres de grandeur. Un examen des définitions de
Harry et Schroeder de ces termes supplémentaires montre une similitude avec les
descriptions d'autres de DMAIC.
Un examen occasionnel des praticiens Six Sigma a révélé que le DMAIC était le plus
couramment utilisé pour les projets d'amélioration. Lorsqu'il est appliqué à la conception
de produits, de services ou de processus, l'acronyme DMADV est souvent utilisé, où
l'étape de conception est remplacée par l'amélioration et la vérification est remplacée par
le contrôle. Comme on le verra dans les chapitres suivants, il existe de nombreux points
communs entre DMAIC et DMADV, et ce texte fera souvent référence à DMAIC par souci
de brièveté, même lorsque les commentaires s'appliquent aux deux méthodes.
L'importance de DMAIC réside dans son approche structurée, qui garantit que les
projets sont clairement définis et mis en œuvre, et que les résultats sont standardisés dans
les opérations quotidiennes.
La méthodologie DMAIC doit être appliquée depuis les niveaux de direction de
l'organisation jusqu'au niveau des processus. La méthodologie est la même, avec des
variations sur la portée ou l'application. Les niveaux supérieurs de l'organisation appliquent
ces méthodes à des problèmes commerciaux plus importants, tels que la pénétration du
marché, tandis que les projets au niveau des processus améliorent un aspect donné d'un
processus particulier, comme la réduction du temps de cycle pour le traitement des commandes.
Les projets au niveau de l'entreprise sont défendus au plus haut niveau de
l'organisation. Ils se concentrent sur les aspects vitaux du succès de l'entreprise, tels que
la part de marché, la viabilité, la rentabilité, la rétention des employés, etc. Ils peuvent
impliquer l'achat ou la vente d'unités commerciales, ou les moyens d'attirer ou de
conserver la clientèle. En raison de la portée du projet, l'échelle de temps est mesurée en
années plutôt qu'en mois. Certains projets au niveau de l'entreprise peuvent
Machine Translated by Google

Gestion efficace du changement 263

prendre 3 à 5 ans pour passer par le DMAIC (Harry et Schroeder, 2000), tandis que d'autres sont
achevés en moins d'un an.
Les projets au niveau de l'entreprise peuvent être définis au sommet d'une unité commerciale
particulière au sein d'une grande entreprise, ainsi qu'au niveau de la direction de l'entreprise. GE, par
exemple, s'est fixé des objectifs ambitieux en tant qu'entreprise et les a étendus à chacune des unités
commerciales particulières.
Les projets au niveau des opérations se concentrent sur des mesures propres aux domaines
fonctionnels de l'organisation, bien que les projets soient généralement interfonctionnels et puissent
même impliquer des clients et/ou des fournisseurs.
Les projets au niveau des opérations peuvent chercher à améliorer le rendement, à réduire les coûts
des matériaux ou de la main­d'œuvre et à supprimer les usines cachées à l'échelle du système
responsables du retravail dans l'organisation. Des projets au niveau des opérations peuvent être définis
pour atteindre des objectifs au cours d'un exercice financier donné.
Les projets au niveau des processus ont une portée beaucoup plus petite et sont conçus pour une
durée beaucoup plus courte. Une ceinture noire donnée travaillera généralement trois à quatre projets
au niveau des processus par an, bien que des projets plus petits ne soient pas inconnus. En fait, il est
recommandé que les projets au niveau des processus soient définis pour permettre une conclusion
dans un délai de 3 ou 4 mois (parfois moins). Cela empêche les projets de « paix mondiale » que les
équipes de projet au niveau des processus auront du mal à mener à bien. Un objectif typique est que
chaque projet au niveau des processus économise 100 000 $ ou plus sur une base annualisée. Les
projets au niveau des processus traitent de questions telles que la réduction du temps de cycle, la
réduction des défauts, l'amélioration de la capacité des processus, etc.

Au mieux, les projets au niveau de l'entreprise, des opérations et des processus sont entrelacés.
Les résultats du niveau métier fournissent des projets définis au niveau des opérations, qui peuvent à
leur tour créer des projets au niveau des processus. Cette approche descendante est généralement
préférée à une approche ascendante, où les projets sont proposés par les membres de l'équipe ayant
un intérêt direct dans le résultat. L'approche descendante garantit que les projets au niveau des
processus sont alignés sur les objectifs commerciaux stratégiques et les besoins des clients.

Les projets développés de manière descendante offrent également une plus grande exposition de
l'équipe de projet à la haute direction, ce qui peut rendre ces projets attrayants pour les futurs chefs
d'équipe de projet. Cela dit, les projets développés au niveau du processus peuvent également offrir de
grandes récompenses : engagement des membres de l'équipe qui comprennent le processus ; la
reconnaissance locale des collègues concernés ; et des processus améliorés affectant (au moins) les
objectifs à court terme, les préoccupations budgétaires et les commandes des clients. Dans cet esprit,
il est utile de trouver un juste milieu entre la définition de projet descendante et ascendante.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 13

Définir l'étape
Machine Translated by Google
Machine Translated by Google

L'étape Définir comprend les objectifs suivants (Keller, 2011a) :

• Définition du projet. Définir la portée, les buts et les objectifs du projet ; les membres de son
équipe et ses sponsors ; et son calendrier et ses livrables. • Définition de processus de

niveau supérieur. Définir les parties prenantes, les intrants et les extrants, et les fonctions
générales.

• Formation d'équipe. Assembler une équipe hautement compétente parmi les principaux
groupes de parties prenantes ; créer une compréhension commune des problèmes et des
avantages pour le projet.

Définition du projet Lorsqu'elle


est appliquée au niveau de l'entreprise, la portée du projet se rapporte aux pratiques commerciales
clés et aux interactions avec les clients. Ainsi, la définition nécessite une compréhension de
l'entreprise, ainsi que de la contribution de l'entreprise à ses actionnaires et clients.

GE a utilisé son concept d'« objectifs extensibles » pour définir les projets, en particulier les
projets au niveau de l'entreprise. Les objectifs ambitieux étaient ceux qui allaient au­delà de ce qui
était prévisible avec la structure, les ressources et/ou la technologie actuelles de l'entreprise. L'idée
était d'aller au­delà des améliorations progressives, de repenser l'entreprise, le fonctionnement ou le
processus à un point où des améliorations d'ordre de grandeur pourraient être réalisées. Gardez à
l'esprit qu'une organisation passant de 4 sigma à 6 sigma doit réduire les défauts par million
d'opportunités (DPMO) de 6210 à 3,4 (une réduction de 99,95 %).

Une ligne directrice générale adoptée par GE consistait à fixer l'objectif du projet par rapport au
niveau de performance existant :

• Si le processus fonctionne actuellement à ou en dessous d'un niveau de performance de 3


sigma (un taux d'erreur d'environ 6,7 % ou plus), alors le projet doit rechercher une réduction
de 10 fois des erreurs. Par exemple, réduisez un taux d'erreur de 10 % à un taux d'erreur
de 1 %. • Si le processus fonctionne actuellement mieux que 3 sigma, réduisez le taux

d'erreur de 50 %. Par exemple, réduisez le taux d'erreur de 4 % à 2 %.

267
Machine Translated by Google

268 Amélioration continue

Cependant, en particulier au niveau du processus, vous devrez équilibrer les


objectifs ambitieux avec un délai d'achèvement de projet raisonnable. Dans certains
cas, les objectifs ambitieux peuvent être divisés en plusieurs projets assignés à
plusieurs équipes de projet. Une structure de répartition du travail est souvent efficace
pour identifier les énoncés de limitation de portée utiles.

Structure de répartition du travail


La structure de répartition du travail est un diagramme arborescent à usage particulier
utilisé pour décomposer des problèmes ou des projets en leurs composants. Un
exemple est illustré à la Fig. 13.1. Il réduit « grand et complexe » à « petit et gérable ».
En divisant le processus en ses composants, des sous­processus sont exposés qui
pourraient servir de points d'arrêt logiques pour des efforts d'amélioration distincts.
Limiter le projet à une ou à quelques catégories étroitement liées augmentera les
chances de réussite du projet. Les livrables potentiels (en termes financiers) pour
chacun de ces sous­processus constituent le moyen privilégié pour justifier une
proposition de projet donnée.

Figure 13.1 Exemple de structure de répartition du travail (Pyzdek et Keller, 2010).


Machine Translated by Google

D éfinir l'étape 269

Diagrammes de Pareto
Un diagramme de Pareto est un autre outil utile pour cibler la portée du projet, en particulier
lorsqu'il est appliqué aux catégories uniques obtenues à l'aide des structures de répartition
du travail.
L'analyse de Pareto est le processus de classement des opportunités pour déterminer
laquelle des nombreuses opportunités potentielles doit être poursuivie en premier.
Il est également connu comme "séparer les quelques vitaux des nombreux insignifiants".
L'analyse de Pareto doit être utilisée à différentes étapes de l'amélioration de la qualité pour
déterminer l'étape suivante. L'analyse de Pareto est utilisée pour répondre à des questions
telles que "Quel département devrait avoir la prochaine équipe d'amélioration du projet ?"
ou "Sur quel type de défaut devons­nous concentrer nos efforts ?"

Les étapes suivantes sont recommandées pour effectuer une analyse de Pareto :

1. Déterminer les classifications (catégories de Pareto) pour le graphique.


Si les informations souhaitées n'existent pas, obtenez­les en concevant des feuilles
de contrôle et des feuilles de journal.
2. Sélectionnez un intervalle de temps pour l'analyse. L'intervalle doit être suffisamment
long pour être représentatif des performances typiques.
3. Déterminez le nombre total d'occurrences (c'est­à­dire le coût, le nombre de défauts,
etc.) pour chaque catégorie. Déterminez également le grand total. S'il y a plusieurs
catégories qui ne représentent qu'une petite partie du total, regroupez­les dans une
catégorie appelée « autre ».
4. Calculez le pourcentage pour chaque catégorie en divisant le total de la catégorie
par le total général et en multipliant par 100.
5. Classez les catégories par ordre du plus grand total d'occurrences au
le plus petit.

6. Calculez le « pourcentage cumulé » en ajoutant le pourcentage de chaque catégorie


à celui des catégories précédentes.
7. Construisez un graphique avec l'axe vertical gauche mis à l'échelle de 0 à
moins le grand total. Mettez une étiquette appropriée sur l'axe. Mettre à l'échelle
l'axe vertical droit de 0 à 100 %, 100 % sur le côté droit étant la même hauteur que
le total général sur le
côté gauche.

8. Étiquetez l'axe horizontal avec les noms de catégorie. La catégorie la plus à gauche
doit être la plus grande, la catégorie suivante la deuxième, et ainsi de suite.

9. Dessinez des barres représentant le montant de chaque catégorie. La hauteur de la


barre est déterminée par l'axe vertical gauche.
10. Tracez une ligne qui affiche la colonne de pourcentage cumulé du tableau d'analyse
de Pareto. La ligne de pourcentage cumulé est déterminée par l'axe vertical de
droite.
Machine Translated by Google

270 Amélioration continue

Catégorie Pêches perdues

Meurtri 100

Trop petit 87

Pourri 235

Sous­maturité 9

Mauvaise variété 7

Véreux 3

Tableau 13.1 Données brutes pour l'analyse de Pareto

Par exemple, les données du tableau 13.1 ont été enregistrées pour les pêches
arrivant au Super Duper Market en août.
Le diagramme de Pareto complété est illustré à la Fig. 13.2.

Chartes de projet Les


buts, objectifs, livrables, etc. du projet sont documentés sur une charte de projet, qui sert
de contrat entre l'équipe de projet et ses sponsors. Les chartes de projet comportent
généralement plusieurs éléments clés, répondant au quoi, qui, pourquoi et quand des
activités planifiées de l'équipe.
(Il est important que la manière soit laissée à l'équipe, comme discuté au chapitre 10).
Un exemple de charte est illustré à la Fig. 13.3.
Un ou plusieurs parrains de projet occupant des postes de direction de niveau
intermédiaire à supérieur parraineront un projet donné. Les commanditaires financent le
projet, allouent des ressources et élaborent la charte initiale (qui est ensuite gérée par le
chef d'équipe de projet désigné, qui est généralement ceinture noire et/ou

450 100
96% 98% 99%
76% 80
300
53%
60
Compter
235 Pour
cent

40
150
100
87 20

9 7 3
0 0
Pourri
Véreux
Meurtri

maturité
Sous­
Trop
petit

Mauvaise
variété

Figure 13.2 Exemple d'analyse de Pareto réalisée à l'aide du logiciel Green Belt XL
(www.qualityamerica.com).
Machine Translated by Google

D éfinir l'étape 271

Figure 13.3 Exemple de charte de projet (Keller, 2011a).

ceinture verte). En tant que membre de la direction, le parrain renforce le soutien


au projet dans les rangs de la direction de l'organisation. La position de direction
du parrain dans le domaine fonctionnel qui fait l'objet du projet d'amélioration
contribue à faire connaître et à soutenir le projet dans les rangs opérationnels, ainsi
qu'à éliminer les obstacles qui pourraient entraver l'avancement du projet en temps
voulu. Lorsque les parties prenantes proviennent de différents domaines
fonctionnels, le parrain peut être le niveau au­dessus de la gestion du domaine
fonctionnel, de sorte que l'allocation des ressources et l'engagement du département
soient atteints. Pour éviter que les niveaux supérieurs de l'organisation ne parrainent
trop de projets, des co­sponsors des niveaux supérieurs des domaines fonctionnels
concernés peuvent également être utilisés.
Machine Translated by Google

272 Amélioration continue

Le chef d'équipe est responsable des mises à jour régulières au parrain et à


tous les autres groupes de parties prenantes. Cela permet d'éviter les mauvaises
surprises lors des dernières étapes du projet.

Planification du projet
Il existe une grande variété d'outils et de techniques disponibles pour aider le
gestionnaire de projet à élaborer un calendrier de projet réaliste pour allouer les
ressources et suivre les progrès au cours de la mise en œuvre du plan de projet.
Ces systèmes sont utilisés pour :

·Aide à la planification et au contrôle des projets.


·Déterminer la faisabilité de respecter les délais spécifiés.
·Identifier les goulots d'étranglement les plus probables dans un projet.

·Évaluer les effets des changements dans les exigences du projet ou


calendrier.

·Évaluer les effets d'un écart par rapport au calendrier.


·Évaluer l'effet de détourner des ressources du projet ou de rediriger des
ressources supplémentaires vers le projet.

Une version moderne d'un diagramme de Gantt pour un projet d'amélioration


DMAIC de 4 mois, développé à l'aide de MS Project, est illustrée à la Fig. 13.4. Des
diagrammes de Gantt traditionnels ont été développés pour montrer les relations
entre les tâches du projet, ainsi que les contraintes de temps. L'axe horizontal d'un Gantt

Figure 13.4 Exemple de diagramme de Gantt pour un projet d'amélioration


DMAIC (Keller, 2011a).
Machine Translated by Google

D éfinir l'étape 273

graphique montre les unités de temps (jours, semaines, mois, etc.). L'axe vertical indique les
activités à réaliser. Les barres indiquent l'heure de début et la durée estimées des différentes
activités.
Les diagrammes de Gantt modernes incluent généralement la désignation de jalons
(événements qui ne prennent aucun temps), ainsi que la personne responsable de chaque tâche.
Le tableau terminé montre clairement les dépendances des tâches (c'est­à­dire quelles
activités doivent être terminées avant qu'une activité donnée puisse être lancée) et est souvent
étiqueté avec le chemin critique. (Historiquement, le CPM [Méthode du chemin critique] était
considéré comme une alternative au Gantt. De même, le PERT [Technique d'évaluation et
d'examen des programmes] a été développé pour évaluer la planification en fonction des
temps d'activité probabilistes. Aujourd'hui, le PERT, le CPM et le Gantt comprennent en fait
une seule technique. .)
La planification de projet comprend quatre phases de base : planification, planification,
amélioration et contrôle. La phase de planification consiste à diviser le projet en activités
distinctes. Les estimations de temps pour ces activités sont ensuite déterminées et un
diagramme en réseau (ou en flèche) est construit, chaque activité étant représentée par une
flèche.
L'objectif ultime de la phase de planification est de construire un chronogramme indiquant
les heures de début et de fin de chaque activité ainsi que sa relation avec les autres activités
du projet. Le calendrier doit identifier les activités qui sont « critiques » en ce sens qu'elles
doivent être achevées à temps pour que le projet respecte l'échéancier.

Il est essentiel de ne pas simplement accepter le calendrier comme une donnée. Les
informations obtenues lors de la préparation du calendrier peuvent être utilisées pour améliorer
le calendrier du projet. Les activités que l'analyse indique comme critiques sont susceptibles
d'être améliorées. L'analyse de Pareto peut être utilisée pour identifier les éléments critiques
les plus susceptibles de conduire à une amélioration significative du temps d'achèvement
global du projet. Les données de coût peuvent être utilisées pour compléter les données de
temps, et les informations combinées temps/coût peuvent être analysées à l'aide de l'analyse de Pareto.
La phase finale de la gestion de projet est le contrôle du projet. Cela inclut l'utilisation du
diagramme de réseau et du diagramme temporel pour effectuer des programmes périodiques.
évaluations de la presse.

Construire des diagrammes de


réseau Un moyen courant d'évaluer un calendrier de projet consiste à représenter
graphiquement les interrelations entre les éléments d'un projet. Cette représentation en réseau
du plan de projet montre toutes les relations de priorité, c'est­à­dire l'ordre dans lequel les
tâches doivent être réalisées. Les flèches dans le diagramme de réseau représentent les
activités, tandis que les cases ou les cercles représentent les événements ; dans la préparation
et la compréhension de cette technique, il est très important de garder ces deux termes
distincts. Une flèche va d'un événement à un autre uniquement si le premier événement est le
prédécesseur immédiat du second. Si plus d'une activité doit être complétée avant qu'un
événement puisse se produire, alors il y aura plusieurs flèches entrant dans la case
correspondant à cet événement. Parfois, un événement doit attendre un autre événement,
mais aucune activité n'intervient
Machine Translated by Google

274 Amélioration continue

Événement #1

Activité réelle qui se produit


entre l'événement 1 et

l'événement 2

Événement #2

Événement #1

Activité fictive : l'événement 1 précède

l'événement 2, mais aucune activité ne se

produit entre eux

Événement #2

Figure 13.5 Termes du diagramme de réseau et conventions de dessin.

entre les deux événements. Dans ce cas, les deux événements sont reliés par une flèche en pointillé,
représentant une activité fictive. Les activités factices ne prennent pas de temps à se terminer ; ils
montrent simplement des relations de préséance.
Ces conventions de dessin sont illustrées à la Fig. 13.5.
Le nœud vers lequel mènent toutes les activités, l'achèvement final du projet, est appelé le
puits du réseau. Taha (1976) propose les règles suivantes pour construire le diagramme fléché :
Règle 1 : Chaque activité est représentée par une et
une seule flèche dans le réseau. Aucune activité ne peut être représentée deux fois dans le
réseau. Cela ne signifie pas qu'une activité ne peut pas être décomposée en segments.

Règle 2 : Deux activités ne peuvent pas être identifiées par les mêmes événements tête­bêche.
Cette situation peut se présenter lorsque deux activités peuvent être exercées simultanément. La
bonne façon de gérer cette situation est d'introduire des événements et des activités fictifs, comme
le montre la figure 13.6. Cette règle facilite l'analyse des schémas de réseau avec des programmes
informatiques pour l'analyse de projet.
Règle 3 : Afin d'assurer la relation de priorité correcte dans le diagramme en flèche, les
questions suivantes doivent être répondues au fur et à mesure que chaque activité est ajoutée au
réseau :

un. Quelles activités doivent être complétées immédiatement avant cette activité
peut commencer?

b. Quelles activités suivent immédiatement cette activité ? c. Quelles

activités doivent avoir lieu en parallèle avec cette activité ?


Machine Translated by Google

D éfinir l'étape 275

Incorrect : enfreint la règle n° 2

Activité 1

Événement principal Événement de queue

Activité #2

Solution : ajouter un événement et une activité factices

Événement fictif
Activité 1

Événement principal Activité factice

Activité #2 Événement de queue

Figure 13.6 Activités parallèles : représentation en réseau.

Les données présentées dans le tableau 13.2 comprennent les activités et leurs
délais d'exécution estimés pour la construction d'une maison.
Or, il est important que certaines de ces activités se fassent dans un ordre
particulier. Par exemple, on ne peut pas mettre le toit tant que les murs ne sont pas
construits. C'est ce qu'on appelle une relation de priorité ; c'est­à­dire que les murs doivent

Activité Délai de réalisation (jours)


Creuser 2
Fondation 4

Mur rugueux dix

Gros travaux d'électricité 7

Plomberie extérieure brute 4

Plomberie intérieure brute 5


Panneau mural 5

Sol 4

Peinture intérieure 5
Aménagements intérieurs 6
Toit 6

Revêtement extérieur 7

Peinture extérieure 9
Luminaires extérieurs 2

De Hillier et Lieberman (1980)

Tableau 13.2 Activités impliquées dans la construction d'une maison


Machine Translated by Google

276 Amélioration continue

1 Commencer

Fouiller (2 jours)

Fondation (4 jours)

Mur rugueux (10 jours)

4 Toit (6 jours)

Plomberie
extérieure grossière (4 jours) 6
Gros
travaux
5
Factice (0 jours)
Revêtement extérieur (7 jours)
électriques (7 jours)
Plomberie
intérieure grossière (5 jours)
8

Peinture extérieure (9 jours)

Panneau mural (8 jours)

dix
Revêtement Peinture intérieure
9
de sol (4 jours) (5 jours)

Aménagements extérieurs (2 jours)


11 12
Factice (0
jours) 13

Aménagements intérieurs (6 jours)

Figure 13.7 Schéma de réseau pour la construction d'une maison.

précèdent le toit. Le diagramme de réseau affiche graphiquement les relations de


précédence impliquées dans la construction d'une maison. Un réseau PERT pour la
construction d'une maison est illustré à la Fig. 13.7. (Incidemment, la figure est également
un diagramme fléché.)

Recherche du chemin
critique Il existe deux valeurs temporelles intéressantes pour chaque événement : sa
première heure d'achèvement et sa dernière heure d'achèvement. L'heure la plus précoce
pour un événement donné est l'heure estimée à laquelle l'événement se produira si les
activités précédentes sont lancées le plus tôt possible. La dernière heure pour un événement est le
Machine Translated by Google

D éfinir l'étape 277

Immédiatement Heure la plus ancienne + Maximum = Au plus tôt


Événement Événement précédent Temps d'activité Le temps d'achèvement
1 — — 0
2 1 0+2 2
3 2 2+4 6
4 3 6 + 10 16
5 4 16 + 4 20
6 4 16 + 6 22
7 4 16 + 7 *

5 20 + 5 25
8 5 20 + 0 *

6 22 + 7 29
9 7 25 + 8 33
dix 8 29 + 9 38
11 9 33 + 4 37
12 9 33 + 5 38
11 37 + 0 *

13 dix 38 + 2 *

12 38 + 6 44

Tableau 13.3 Calcul des délais d'achèvement au plus tôt pour la construction d'une maison Exemple

l'heure la plus tardive estimée à laquelle l'événement peut se produire sans retarder
l'achèvement du projet au­delà de sa première heure. Les premières heures des événements
sont trouvées en commençant par l'événement initial et en progressant, en calculant
successivement l'heure à laquelle chaque événement se produira si chaque événement
immédiatement précédent se produit à son heure la plus ancienne et chaque activité
intermédiaire utilise uniquement son heure estimée. Le tableau 13.3 montre le processus
de recherche de la date d'achèvement la plus proche pour l'exemple de construction de
maison. (Les numéros d'événement renvoient au schéma de réseau de la Fig. 13.7.) Il est
conseillé au lecteur de parcourir les résultats du Tableau 13.3, ligne par ligne, en utilisant la Fig. 13.7.
Ainsi, par exemple, le plus tôt possible l'événement #8 peut être complété est de 29
jours. (Notez que les astérisques dans le tableau 13.3 indiquent les calculs qui ont abouti à
la condition non maximale. Par exemple, l'événement n° 8 se produit lorsque les deux
événements n° 5 et n° 6 sont terminés, de sorte que le calcul du temps maximum est utilisé).

Les dernières heures sont trouvées en commençant par l'événement final et en


remontant, en calculant la dernière heure à laquelle un événement se produira si chaque
événement immédiatement suivant se produit à sa dernière heure. Le tableau 13.4 affiche
les derniers délais d'achèvement calculés pour l'exemple de construction de maison.
Machine Translated by Google

278 Amélioration continue

Immédiatement Dernière heure – Minimum =


Événement Événement suivant Temps d'activité Dernière heure
13 — — 44
12 13 44 ­ 6 38
11 12 38 ­ 0 38
dix 13 44 ­ 2 42
9 12 38 ­ 5 33
11 38 ­ 4 *

8 dix 42 ­ 9 33
7 9 33 ­ 8 25
6 8 33 ­ 7 26
5 8 33 ­ 0
7 25 ­ 5 20
4 7 25 ­ 7
6 26 ­ 6
5 20 ­ 4 16
3 4 16 ­ 10 6
2 3 6­4 2
1 2 2­2 0

Tableau 13.4 Calcul des derniers délais d'achèvement pour l'exemple de la construction d'une maison

Le temps mort pour un événement est la différence entre l'heure la plus récente et
l'heure la plus ancienne pour un événement donné. Ainsi, en supposant que tout le reste
reste dans les délais, la marge d'un événement indique combien de retard dans l'atteinte de
l'événement peut être toléré sans retarder l'achèvement du projet. Les temps morts pour les
événements du projet de construction de maisons sont présentés dans le tableau 13.5.

Événement Mou Événement Mou


1 0­0=0 7 25 ­ 25 = 0
2 2­2=0 8 33 ­ 29 = 4
3 6­6=0 9 33 ­ 33 = 0
4 16 ­ 16 = 0 dix 42 ­ 38 = 4
5 20 ­ 20 = 0 11 38 ­ 37 = 1
6 26 ­ 22 = 4 12 38 ­ 38 = 0
Suite … Suite … 13 44 ­ 44 = 0

Tableau 13.5 Calcul des temps morts pour les événements de construction de maisons
Machine Translated by Google

D éfinir l'étape 279

Le temps mort d'une activité x,y est la différence entre

1. La dernière heure de l'événement


y 2. La première heure de l'événement x plus la durée d'activité estimée

Le temps mort d'une activité est la différence entre l'heure la plus récente et l'heure la
plus ancienne pour une activité donnée. Ainsi, en supposant que tout le reste reste dans les
délais, la marge d'une activité indique combien de retard dans la réalisation de l'activité peut
être toléré sans retarder l'achèvement du projet.
Les temps morts pour les activités du projet de construction de maisons sont indiqués dans
le tableau 13.6.
On dit que les événements et les activités avec des temps morts de zéro se situent sur
le chemin critique du projet. Inversement, un chemin critique pour un projet est défini comme
un chemin à travers le réseau tel que les activités sur ce chemin n'aient aucune marge.
Toutes les activités et tous les événements sans marge de manœuvre doivent se trouver sur
un chemin critique, mais aucun autre ne le peut. La figure 13.8 montre les activités sur le
chemin critique du projet de construction de logements sous forme de lignes épaisses.

Contrôle et prévention des retards de planification


Les chefs de projet peuvent utiliser le réseau et les informations obtenues à partir de l'analyse
du réseau de différentes manières pour les aider à gérer leurs projets. Une façon est, bien
sûr, de prêter une attention particulière aux activités qui se trouvent sur le chemin critique.
Tout retard dans ces activités entraînera un retard de

Activité Mou

Creuser (1,2) 2 ­ (0 + 2) = 0

Fondation (2,3) 6 ­ (2 + 4) = 0

Mur rugueux (3,4) 16 ­ (6 + 10) = 0

Plomberie extérieure brute (4,5) 20 ­ (16 + 4) = 0

Toit (4,6) 26 ­ (16 + 6) = 4

Gros travaux électriques (4,7) 25 ­ (16 + 7) = 2

Plomberie intérieure brute (5,7) 25 ­ (20 + 5) = 0

Revêtement extérieur (6,8) 33 ­ (22 + 7) = 4

Panneau mural (7,9) 33 ­ (25 + 8) = 0

Peinture extérieure (8,10) 42 ­ (29 + 9) = 4

Sol (9,11) 38 ­ (33 + 4) = 1

Peinture intérieure (9,12) 38 ­ (33 + 5) = 0

Luminaires extérieurs (10,13) 44 ­ (38 + 2) = 4

Aménagements intérieurs (12,13) 44 ­ (38 + 6) = 0

Tableau 13.6 Calcul des temps morts pour les activités de construction de maisons
Machine Translated by Google

280 Amélioration continue

1 Commencer

Fouiller (2 jours)

Fondation (4 jours)

Mur rugueux (10 jours)

4 Toit (6 jours)

Plomberie
extérieure grossière (4 jours) 6
Gros
travaux
5
Factice (0 jours)
Revêtement extérieur (7 jours)
électriques (7 jours)
Plomberie
intérieure grossière (5 jours)
8

Peinture extérieure (9 jours)

Panneau mural (8 jours)

dix
Revêtement Peinture intérieure
9
de sol (4 jours) (5 jours)

Aménagements extérieurs (2 jours)


11 12
Factice (0
jours) 13

Aménagements intérieurs (6 jours)

Figure 13.8 Exemple de chemin critique pour la construction d'une maison.

le projet. Cependant, le responsable doit également envisager de constituer une


équipe pour examiner le réseau en vue de modifier le plan de projet afin de réduire
le temps total nécessaire pour terminer le projet. Le gestionnaire doit également
être conscient que les temps de réseau sont basés sur des estimations. En fait, il
est probable que les délais de réalisation varient. Lorsque cela se produit, il arrive
souvent qu'un nouveau chemin critique apparaisse. Ainsi, le réseau doit être
considéré comme une entité dynamique qui doit être révisée à mesure que les conditions changent.
Les principales causes de retard sont une mauvaise planification et une
mauvaise gestion du projet. Des forces extérieures échappant au contrôle du chef
de projet joueront souvent un rôle. Cependant, il ne suffit pas de pouvoir simplement
Machine Translated by Google

D éfinir l'étape 281

identifier les « forces extérieures » comme étant la cause et demander pardon. Les chefs
de projet astucieux anticipent autant de possibilités de ce type que possible et préparent
des plans d'urgence pour y faire face. La technique PDPC est utile dans cette entreprise
(voir Chap. 16). Les retards de calendrier doivent également être traités rigoureusement
via des examens effectués à des intervalles suffisamment fréquents pour s'assurer que
tout problème imprévu est identifié avant que le retard de calendrier ne devienne un
problème.

Ressources
Les ressources sont les actifs de l'entreprise, y compris le temps des employés, qui sont
utilisés pour atteindre les objectifs du projet. Le chef de projet doit définir, négocier et
sécuriser les engagements de ressources pour le personnel, l'équipement, les installations
et les services nécessaires au projet. Les engagements de ressources doivent être aussi
précis que possible.
Les éléments suivants doivent être définis et négociés :

•Qu'est­ce qui sera fourni ?

•Par qui?
•Quand?
•Comment sera­t­il livré ?
•Combien ça coûtera?

•Qui paiera ? •Quand


le paiement sera­t­il effectué ?

Bien entendu, il existe toujours d'autres possibilités d'utilisation des ressources.


Sur les grands projets, les conflits sur l'allocation des ressources sont inévitables. Il est
préférable que les conflits de ressources puissent être résolus entre les gestionnaires
directement impliqués. Cependant, dans certains cas, les conflits liés aux ressources doivent
être résolus par des niveaux supérieurs de gestion. Les cadres supérieurs doivent considérer
les conflits de ressources comme des indications potentielles que le système de gestion pour
l'allocation des ressources doit être modifié ou repensé. Souvent, de tels conflits créent de la
mauvaise volonté parmi les gestionnaires et conduisent à un manque de soutien, voire à une
résistance active au projet. Un trop grand nombre de ces conflits peut conduire à un
ressentiment envers les efforts d'amélioration de la qualité en général.

Considérations de coût dans la planification de


projet La plupart des calendriers de projet peuvent être compressés, si l'on est prêt à
payer les coûts supplémentaires. Pour l'analyse ici, les coûts sont définis pour n'inclure
que les éléments directs. Les coûts indirects (administration, frais généraux, etc.) seront
pris en compte dans l'analyse finale. Supposons qu'il existe une relation linéaire entre le
coût d'exécution d'une activité selon un calendrier normal et le coût d'exécution de l'activité
selon un calendrier d'urgence. Supposons également qu'il existe un temps de crash au­
delà duquel aucune autre économie de temps n'est possible, quel que soit le coût. La
figure 13.9 illustre ces concepts.
Machine Translated by Google

282 Amélioration continue

Coût Point de collision


d'accident

l'activité
Coût
de

Point normal

Coût
normal

Durée Durée
de l'accident normale

Durée de l'activité

Figure 13.9 Relation coût­temps pour une activité.

Pour une activité donnée, le coût par unité de temps économisé se calcule comme suit :

(coût du crash ­ coût normal)/(temps normal ­ temps du crash)

Lors du choix de l'activité du chemin critique à améliorer, il convient de commencer par l'activité
dont le coût par unité de temps économisé est le plus faible. Le chef de projet doit être conscient qu'une
fois qu'une durée d'activité a été réduite, il peut y avoir un nouveau chemin critique. Si tel est le cas,
l'analyse doit se poursuivre en utilisant les informations mises à jour ; c'est­à­dire que les activités sur le
nouveau chemin critique doivent être analysées.

Les données de l'exemple de construction de maison sont présentées ci­dessous, avec


des données supplémentaires pour les coûts et les heures de planification des accidents pour chaque activité.
Les activités indiquées en gras sont sur le chemin critique ; seules les activités du chemin critique
sont envisagées car elles seules peuvent produire une amélioration de la durée globale du projet. Ainsi,
la première activité à envisager d'améliorer serait les travaux de fondation, qui coûtent 800 $ par jour
économisé sur l'échéancier (identifiés par un astérisque [*] dans le tableau 13.7). Diriger des ressources
supplémentaires vers cette activité produirait le meilleur « rapport qualité­prix » en termes de réduction
de la durée totale du projet. Les prochaines activités à considérer, en supposant que le chemin critique
ne change pas, seraient l'excavation, puis la peinture extérieure, etc.

Au fur et à mesure que les activités sont abordées une par une, le temps nécessaire pour terminer
le projet diminuera, tandis que les coûts directs de réalisation du projet augmenteront. La figure 13.10
illustre graphiquement la relation coût­durée.
À l'inverse, les coûts indirects tels que les frais généraux, etc., devraient augmenter à mesure que
les projets prennent plus de temps à terminer. Lorsque les coûts indirects sont
Machine Translated by Google

D éfinir l'étape 283

Horaire normal Calendrier des accidents

Activité Temps (jours) Coût Temps (jours) Coût Pente


Creuser 2 1000 1 2000 1000
Fondation 4 1600 3 2400 800*
Mur rugueux dix 7500 6 14000 1625
Gros travaux d'électricité 7 7000 4 14000 2333
Plomberie extérieure brute 4 4400 3 6000 1600
Plomberie intérieure brute 5 3750 3 7500 1875
Panneau mural 5 3500 3 7000 1750
Sol 4 3200 2 5600 1200
Peinture intérieure 5 3000 3 5500 1250
Aménagements intérieurs 6 4800 2 11000 1550
Toit 6 4900 2 12000 1775
Revêtement extérieur 7 5600 3 12000 1600
Peinture extérieure 9 4500 5 9000 1125
Luminaires extérieurs 2 1800 1 3200 1400

Tableau 13.7 Calendrier des coûts des activités impliquées dans la construction d'une maison

Calendrier des accidents

projet
Cout
du

Horaire normal

Durée du projet

Figure 13.10 Coûts directs en fonction de la durée du projet.

ajoutés aux coûts directs, les coûts totaux suivront généralement un schéma similaire
à celui illustré à la Fig. 13.11.
Pour optimiser l'utilisation des ressources, le chef de projet cherchera à
développer un plan de projet qui produit le calendrier des coûts minimum. Bien sûr,
l'organisation aura probablement plusieurs projets menés simultanément, ce qui
impose des contraintes supplémentaires sur l'allocation des ressources.
Machine Translated by Google

284 Amélioration continue

Coût total

Direct
frais

projet
Cout
du

Barème
Coûts des coûts minimaux
indirects

Calendrier Horaire
des accidents normal

Durée du projet

Figure 13.11 Coûts totaux en fonction de la durée du projet.

Autre méthodologie de mesure du rendement Les


renseignements sur le projet devraient être recueillis de façon continue au fur et à
mesure que le projet progresse. Les informations obtenues doivent être communiquées
en temps opportun aux parties intéressées et aux décideurs. Les personnes qui
reçoivent les informations peuvent souvent aider le chef de projet à maintenir ou à
récupérer le calendrier. Il existe deux types de communication : le feed­back et le
feed­forward. Les commentaires sont de nature historique et incluent des éléments
tels que la performance par rapport au calendrier, les écarts de coût (par rapport au
budget du projet) et les écarts de qualité (par rapport au plan qualité). Le lecteur se
souviendra que la planification initiale du projet nécessitait des plans de contrôle
spéciaux dans chacun de ces trois domaines. Le feed­forward est orienté vers l'avenir
et vise principalement à atténuer les écarts futurs dans ces trois domaines. Les
formats de rapport d'informations appartiennent généralement à l'une des catégories suivantes :

• Rapports écrits formels •


Rapports informels et correspondance
• Présentations

• Réunions •
Visites guidées du projet, si possible • Conversations

Les principes d'une communication efficace discutés au Chap. 20 doit être gardé
constamment à l'esprit. Le choix du format de la communication doit tenir compte de
la nature du public et de ses besoins ainsi que du temps et des ressources disponibles.
Machine Translated by Google

D éfinir l'étape 285

Définition de processus de niveau supérieur

Une analyse SIPOC (Fournisseur­Inputs­Process­Outputs­Customer) est un outil privilégié


pour définir la vue de haut niveau du processus. Le SIPOC s'assurera que les principales
parties prenantes sont identifiées, ce qui est nécessaire à ce stade pour constituer une équipe
de projet pertinente. Un exemple de SIPOC est illustré à la Fig. 13.12.

Formation d'équipe La

formation d'équipe efficace est essentielle pour obtenir l'adhésion des parties prenantes. Des
membres crédibles de l'équipe sont sélectionnés parmi chacun des principaux groupes de
parties prenantes pour représenter leurs domaines fonctionnels dans le projet de conception/
d'amélioration. Il est utile que les candidats soient enthousiastes à propos du changement,
mais comme indiqué précédemment, un scepticisme sain est souvent également productif.
Ils devront consacrer du temps à des activités de groupe, loin de leur domaine fonctionnel,
un soutien de la direction locale est donc nécessaire, tout comme leur volonté de servir sur
l'équipe.
Les équipes efficaces sont généralement limitées à cinq à sept participants.
Les grandes équipes sont plus difficiles à gérer et les membres peuvent perdre le sens des
responsabilités envers l'équipe. Les membres supplémentaires de l'équipe peuvent être des
membres ad hoc de groupes de parties prenantes non clés, qui ne participent qu'en cas de
besoin, par exemple pour l'expertise des processus.
Le chef d'équipe doit clairement communiquer ses responsabilités personnelles aux
membres de l'équipe lors d'une première réunion et faire respecter équitablement ces
responsabilités lors des réunions suivantes. Les responsabilités typiques incluent :

•Assumer la responsabilité du succès


•Suivre les engagements
• Contribuer aux discussions

• Écouter activement
• Communiquer clairement •
Fournir des commentaires constructifs, en particulier au chef d'équipe •
Accepter les commentaires

Le chef d'équipe est généralement chargé de garder l'équipe concentrée.


La charte de projet sert souvent d'outil de focalisation efficace pour éviter la dérive de la
portée. La charte comprend un calendrier de projet (généralement via un diagramme de
Gantt), qui fournit une contrainte de temps. La méthodologie DMAIC/DMADV imposera
également une concentration considérable, lorsqu'elle est correctement suivie.
Des chefs d'équipe efficaces veilleront à ce que les conflits soient résolus de manière
positive. L'application de règles de base est nécessaire, et l'utilisation des divers outils au
sein de la structure DMAIC permettra à l'équipe de résoudre les problèmes de manière
constructive. Un aspect essentiel de DMAIC est axé sur les données
286
Figure
13.12
Exemple
d'analyse
SIPOC
pour
identifier
les
principaux
groupes
de
parties
prenantes
(Pyzdek
et
Keller,
2010).
•Compagnie
de
téléphone
•Produit
systèmes
•Ordinateur
interne
•Téléphone
interne
FOURNISSEURS
•Erreur
système
téléphonique option
de
transfert
•CSA
sélectionne
mal écouter
la
vente
incitative
•Le
client
ne
veut
pas Informations
CC
•Le
client
ne
donnera
pas question
ou
problème
incorrect
•Le
client
présente info
client
•CSA
ne
voit
pas mauvaises
sélections
de
VRU
•Le
client
fait incorrectement
•Composer
le
numéro
de
téléphone incorrect
•Le
numéro
dans
le
manuel
est •Le
client
ne
savoir

chercher
le
numéro
CONTRIBUTIONS
PAS
facile
de
contacter
BBTM
clients
Appels Le
client
essaie
de
trouver
le
numéro
Transferts
CSA
Le
CSA
répond
PROCESSUS
CSA
obtient
Vente
incitative.
informations
de
carte
crédit.
appel
au
technicien Entrez
VRU centre
d'appel
appel
•L'appel
est
mis
en
file
d'attente •L'appel
est
perdu personne
•L'appel
va
mal par
vente
incitative
•Client
ennuyé répond
à
l'appel
•Mauvaise
personne •VRU
perd
l'appel incorrectement
•VRU
achemine
l'appel • •Pas
d'identification
de
l'appelant message
'mauvais
numéro'
•Le
client
reçoit numéro
•Le
client
ne
trouve
pas
•Appel
en
file
d'attente
VRU
abandonne
l'appel
LES
SORTIES
•Technicien •Utilisateur
CLIENTS
Machine Translated by Google
Machine Translated by Google

D éfinir l'étape 287

la prise de décision. Bien que la perspicacité subjective soit valorisée dans le brainstorming à
chaque étape du DMAIC, le processus DMAIC global amènera l'équipe à collecter et à analyser
des données pour parvenir à des conclusions plus objectives. Le processus fournira au chef
d'équipe de nombreuses occasions de développer les compétences coopératives de résolution de
problèmes et de communication des membres de l'équipe, ce qui est un autre rôle important du
chef d'équipe.

Le consensus est l'approche privilégiée pour la prise de décision en équipe. Consen sus ne
veut pas dire que tout le monde est d'accord absolu, ni que tout le monde préfère la proposition.
Au contraire, le consensus implique que les parties sont prêtes à accepter la proposition malgré
leurs divergences. Une bonne question à poser aux parties prenantes pour évaluer leur niveau de
consensus est : pouvez­vous vivre avec ?
Nous acceptons qu'il existe des différences de point de vue et nous nous efforçons de les concilier
avec nos outils d'analyse. L'obtention d'un consensus nous permet d'aller de l'avant, de sorte que
les mérites de la proposition peuvent être prouvés par l'analyse des données.
Les alternatives au consensus, telles que le vote à la majorité, le lancer arbitraire d'une pièce de
monnaie ou l'échange de votes contre des votes réciproques (troc), compromettent les résultats
éventuels de l'équipe et doivent être évitées.
La règle de base la plus évidente est peut­être la communication respectueuse et invitante,
pour permettre à tous les membres de participer. À cette fin, les membres doivent « laisser leur
badge à la porte », ce qui signifie qu'il n'y a pas d'ancienneté dans une réunion d'équipe. Le chef
d'équipe n'est pas supérieur à quelqu'un d'autre dans l'équipe, et ce n'est pas non plus son projet
personnel. Au contraire, le projet appartient au sponsor et tous les membres de l'équipe servent à
la demande du sponsor.

Enfin, les membres de l'équipe doivent accepter la responsabilité des éléments d'action et être
prompts à assurer le suivi de ces éléments. Les chefs d'équipe doivent s'assurer que le temps des
membres de l'équipe est utilisé de manière responsable. En règle générale, il est préférable de ne
se réunir que lorsque cela est nécessaire, bien que des heures par défaut puissent être établies
pour les réunions afin d'aider les membres à allouer du temps. L'équipe fournit essentiellement
son expertise en matière de processus, et l'équipe ne devrait être convoquée que lorsque ces compétences
sont nécessaires.

Gestion de la dynamique d'équipe, y compris la résolution des conflits Le conflit est


une partie naturelle du processus créatif, et le chef d'équipe doit s'assurer que le conflit créatif n'est
pas réprimé, mais encouragé. Le chef d'équipe efficace explorera les raisons sous­jacentes du
conflit. Si des conflits de personnalité menacent de perturber la réunion d'équipe, organisez des
réunions individuelles entre les parties et assistez aux réunions pour aider à la médiation.

La première étape dans l'établissement d'un groupe efficace consiste à créer une règle de
décision consensuelle pour le groupe. Par exemple:

Aucun jugement ne peut être incorporé dans la décision du groupe tant qu'il n'a pas reçu l'approbation
au moins tacite de chaque membre du groupe.
Machine Translated by Google

288 Amélioration continue

Cette condition minimale de mouvement de groupe peut être facilitée lorsque


le chef d'équipe adopte les comportements suivants :

• Évitez de défendre votre propre position. Présentez­le aussi lucidement et


logiquement que possible, mais soyez sensible et considérez sérieusement les
réactions du groupe dans toute présentation ultérieure du même point. • Évitez
les impasses « gagnant­perdant » dans la discussion des opinions. Abandonnez
l'idée que quelqu'un doit gagner et que quelqu'un doit perdre dans la discussion ;
lorsque des impasses surviennent, recherchez la prochaine alternative la plus
acceptable pour toutes les parties concernées.
• Évitez de changer d'avis uniquement pour éviter les conflits et parvenir à un accord
et à l'harmonie. Résistez aux pressions de rendement qui n'ont aucun fondement
objectif ou logiquement solide. Efforcez­vous d'une flexibilité éclairée, mais évitez
la capitulation pure et simple. •
Évitez les techniques de réduction des conflits telles que le vote majoritaire, la
moyenne, la négociation, le tirage au sort, l'échange, etc. Traitez les différences
d'opinion comme le signe d'un partage incomplet d'informations pertinentes de la
part de quelqu'un, que ce soit sur des problèmes de tâche, des données
émotionnelles ou des
intuitions au niveau de l'intestin. • Considérez les différences d'opinion comme étant
à la fois naturelles et utiles plutôt que comme un obstacle à la prise de décision.
En règle générale, plus il y a d'idées exprimées, plus la probabilité de conflit sera
grande, mais plus l'éventail de ressources sera également riche.

• Considérez l'entente initiale comme suspecte. Explorer les raisons qui sous­tendent
les accords apparents ; assurez­vous que les gens sont arrivés aux mêmes
conclusions pour les mêmes raisons fondamentales ou pour des raisons
complémentaires avant d'incorporer ces opinions dans la décision du groupe.

• Évitez les formes subtiles d'influence et de modification des décisions. Par exemple,
lorsqu'un membre dissident est finalement d'accord, ne pensez pas qu'il doit être
récompensé en suivant sa propre voie sur un point ultérieur. • Soyez prêt à
envisager la possibilité que votre groupe puisse réaliser tout ce qui précède et exceller
dans sa tâche. Évitez les prédictions catastrophiques et négatives sur le potentiel
du groupe.

Collectivement, les étapes ci­dessus sont parfois connues sous le nom de « technique
du consensus ». Lors de tests, il a été constaté que 75 % des groupes qui ont été formés à
cette approche ont nettement surpassé leurs meilleures ressources individuelles.

Étapes du développement de groupe


Les groupes de nombreux types différents ont tendance à évoluer de manière similaire. Il
est souvent utile de savoir que le processus de construction d'un groupe efficace se poursuit
Machine Translated by Google

D éfinir l'étape 289

normalement. Bruce W. Tuckman a identifié quatre étapes dans le développement d'un


groupe : former, prendre d'assaut, normaliser et jouer.
Au cours de la phase de formation , un groupe a tendance à mettre l'accent sur les
questions de procédure. L'interaction de groupe est très timide et polie. Le leader domine
le processus de prise de décision et joue un rôle très important dans la progression du
groupe.
L' étape de prise d'assaut suit la formation. Les conflits entre les membres, et entre
les membres et le leader, sont caractéristiques de cette étape. Les membres remettent en
question l'autorité en ce qui concerne les objectifs, la structure ou les procédures du
groupe. Il est courant que le groupe résiste aux tentatives de son chef de le faire avancer
vers l'indépendance. Les membres essaient de définir leur rôle dans le groupe.

Il est important que le leader traite le conflit de manière constructive.


Il existe plusieurs façons de procéder :

•Ne serrez pas le contrôle ou n'essayez pas de forcer les membres à se conformer
aux procédures ou aux règles établies lors de l'étape de formation. Si des
différends sur les procédures surviennent, orientez le groupe vers de nouvelles
procédures basées sur un consensus de groupe.
• Sondez les véritables raisons du conflit et négociez une solution plus acceptable.
• Servir de médiateur
entre les membres du groupe. • Affrontez directement les
comportements contre­productifs. •Poursuivre l'évolution
du groupe vers l'indépendance vis­à­vis de son leader.

Au cours de la phase de normalisation , le groupe commence à assumer la


responsabilité ou la propriété de ses objectifs, procédures et comportements. L'accent est
mis sur une collaboration efficace. Les normes du groupe sont appliquées au groupe par le groupe
lui­même.

La dernière étape est performante. Les membres ont développé un sentiment de


fierté envers le groupe, ses réalisations et leur rôle dans le groupe. Les membres sont
confiants dans leur capacité à contribuer au groupe et se sentent libres de demander ou
de donner de l'aide.

Problèmes courants en équipe


Le tableau 13.8 énumère certains problèmes courants en équipe, ainsi que les mesures
correctives recommandées (Scholtes, 1988).

Rôles de groupe productifs Il


existe deux types de rôles de base assumés par les membres d'un groupe : les rôles de
tâche et les rôles de maintenance de groupe. Les rôles de tâche de groupe sont les
fonctions concernées par la facilitation et la coordination des efforts du groupe pour
sélectionner, définir et résoudre un problème particulier. Les rôles des tâches de groupe
indiqués dans le tableau 13.9 sont généralement reconnus.
Machine Translated by Google

290 Amélioration continue

Problème Action

patauger • Examiner le plan •

Élaborer un plan de déplacement

L'expert • Parlez à la partie incriminée en privé • Laissez

les données parler


• Insister sur les décisions consensuelles

Participants dominants • Structurer la participation •

Équilibrer la participation • Agir

en tant que gardien

Participants réticents • Structurer la participation •

Équilibrer la participation • Agir

en tant que gardien

Utiliser des opinions plutôt que des faits • Insister sur les données

• Utiliser une méthode scientifique

Précipiter les choses • Fournir des commentaires constructifs

• Insister sur les données

• Utiliser une méthode scientifique

Attribution (c'est­à­dire attribuer des motifs à des personnes • Ne devinez pas les motivations •
avec lesquelles nous ne sommes pas d'accord) Utilisez une méthode scientifique

• Fournir des commentaires constructifs

Ignorer certains commentaires • Écouter activement •

Former l'équipe aux techniques d'écoute • Parler à

la partie fautive en privé

Esprit d'aventure • Suivre un ordre du jour écrit •

Reformuler le sujet en cours de discussion

Querelles • Parlez aux parties fautives en privé • Élaborez ou

reformulez des règles de base

Tableau 13.8 Problèmes d'équipe courants et mesures correctives

Un autre type de rôle joué dans de petits groupes est les rôles de maintenance de groupe. Les
rôles de maintenance de groupe visent à créer une cohésion de groupe et un comportement centré
sur le groupe. Ils incluent les comportements indiqués dans le tableau 13.10.

Le développement des tâches et des rôles de maintenance est un élément essentiel du


processus de constitution d'une équipe. La constitution d'une équipe est définie comme le processus
par lequel un groupe apprend à fonctionner comme une unité plutôt que comme une collection d'individus.

Rôles de groupe contre­productifs En plus de


développer un comportement de groupe productif, il est également important de reconnaître et de
gérer les rôles individuels qui peuvent bloquer la construction d'une équipe cohésive et efficace.
Ces rôles sont présentés dans le tableau 13.11.
Machine Translated by Google

D éfinir l'étape 291

Rôle Description
Initiateur Propose de nouvelles idées, tâches ou objectifs ; suggère des procédures ou
des idées pour résoudre un problème ou pour organiser le groupe

Demandeur d'informations Demande des faits pertinents liés au problème


discuté

Cherche à clarifier les valeurs liées au problème ou à la suggestion


Chercheur d'opinion

Donneur d'informations Fournit des informations utiles sur le sujet en discussion

Donneur d'avis Donne son avis sur les suggestions faites ; l'accent est mis sur les valeurs
plutôt que sur les faits

Élaborateur Donne des exemples


Coordinateur Montre la relation entre les suggestions ; signale les problèmes et les
alternatives

Orienteur Relie la direction du groupe aux objectifs convenus


Évaluateur Remet en question la logique derrière les idées, l'utilité des idées ou les
suggestions

Énergisant Tente de faire avancer le groupe vers une action Empêche le groupe
Procédure d'être distrait par l'exécution de tâches telles que la distribution de matériel, la
technicien vérification des sièges, etc.
Enregistreur Sert de mémoire de groupe

Tableau 13.9 Rôles des tâches de groupe

Rôle Description

Encourageant Félicitations aux autres membres ; accepte les contributions


des autres

Harmoniseur Réduit les tensions en apportant de l'humour ou en favorisant la


réconciliation ; amène les gens à explorer leurs différences d'une
manière qui profite à l'ensemble du groupe

Compromis Ce rôle peut être assumé lorsque l'idée d'un membre du groupe est
contestée; admet des erreurs, propose de modifier sa position

Portier Encourage la participation, suggère des procédures pour maintenir


les canaux de communication ouverts
Normalisateur Exprime les normes que le groupe doit atteindre ; évalue les progrès
du groupe au regard de ces standards

Observateur/ Enregistre les aspects du processus de groupe ; aide le groupe


commentateur à évaluer son fonctionnement

Disciple Accepte passivement les idées des autres ; sert de public dans les
discussions de groupe

Tableau 13.10 Rôles de maintenance de groupe


Machine Translated by Google

292 Amélioration continue

Rôle Description

Agresseur Exprime sa désapprobation en attaquant les valeurs, les idées ou les


sentiments des autres ; montre de la jalousie ou de l'envie
Bloqueur Empêche les progrès en persistant sur les problèmes qui ont été
résolus ; résiste aux tentatives de consensus; s'oppose sans raison

Chercheur de reconnaissance Attire l'attention sur lui­même en se vantant, en relatant ses réalisations
personnelles, etc.
Confesseur Utilise le cadre de groupe comme un forum pour diffuser des idéologies
personnelles qui ont peu à voir avec les valeurs ou les

Playboy objectifs du groupe.

Dominateur Affirme son autorité en interrompant les autres, en utilisant la flatterie


pour manipuler, en revendiquant un statut

Demandeur d'aide supérieur Tente d'évoquer la sympathie et/ou l'aide des autres
membres par une attitude « pauvre de moi » Affirme les

Plaideur d'intérêt intérêts d'un groupe particulier ; l'intérêt de ce groupe correspond à son
spécial intérêt personnel

Tableau 13.11 Rôles de groupe contre­productifs

Le rôle du leader comprend celui d'observateur du processus. A ce titre, le leader


surveille l'ambiance lors des réunions de groupe et le comportement des individus. Le
but est d'identifier les comportements contre­productifs. Bien sûr, une fois qu'un
comportement contre­productif a été identifié, le leader doit faire preuve de tact et de
diplomatie pour fournir une rétroaction au groupe et à ses membres.

Rôle de la direction
Comme indiqué au Chap. 12 et plus haut dans ce chapitre, la direction joue un rôle clé
dans la réussite des efforts de changement. Dans les projets d'amélioration, ils jouent
un rôle essentiel en tant que parrain du projet, garantissant que les équipes disposent
de l'autorité nécessaire pour étudier et mettre en œuvre les changements, et que les
ressources sont allouées en temps opportun.
En plus de ces responsabilités critiques, la chose la plus importante que la direction
puisse faire pour un groupe est peut­être de lui donner le temps de devenir efficace.
Cela exige, entre autres, que la direction s'efforce de maintenir une appartenance
cohérente au groupe. Les membres du groupe ne doivent pas être déplacés hors du
groupe sans très bonne raison. Il ne devrait pas non plus y avoir un flux constant de
nouvelles personnes temporairement affectées au groupe. Si un groupe doit progresser
à travers les quatre étapes décrites précédemment dans ce chapitre, jusqu'à l'étape
cruciale de la performance, cela exigera beaucoup de discipline de la part du groupe et
de la direction.
Machine Translated by Google

CHAPITRE 14
Étape de mesure
Machine Translated by Google
Machine Translated by Google

Les objectifs de l'étape de mesure comprennent (Keller, 2011a) :

• Définition du processus. Définissez le processus à un niveau détaillé, y compris les points


de décision et les fonctions. • Définition

métrique. Définir des métriques pour établir de manière fiable des estimations de processus.
• Ligne de base du processus. Utilisez les métriques définies pour établir l'état actuel du
processus, qui doit vérifier les hypothèses de l'étape Définir. Déterminer si le processus
est sous contrôle statistique. • Analyse des systèmes de mesure. Quantifier les erreurs

associées à la
métrique.

Définition de processus Un

organigramme de processus est simplement un outil qui montre graphiquement les entrées, les
actions et les sorties d'un système donné. Ces termes sont définis comme suit :

Contributions. Les facteurs de production ou de service : la terre, les matériaux, la main­


d'œuvre, l'équipement et la gestion.

Actions. La manière dont les intrants sont combinés et manipulés afin d'ajouter de la valeur.
Les actions comprennent les procédures, la manutention, le stockage, le transport et le
traitement.

Les sorties. Les produits ou services créés en agissant sur les intrants.
Les sorties sont livrées au client ou à un autre utilisateur. Les extrants incluent également les
résultats imprévus et indésirables , tels que les rebuts, les retouches, la pollution, etc. Les
organigrammes doivent également contenir ces extrants.

L'organigramme est une activité si utile que les symboles ont été normalisés par diverses
normes ANSI. Il existe des symboles spéciaux pour les processus spéciaux, tels que l'électronique
ou les systèmes d'information. Cependant, dans la plupart des cas, les activités sont contenues
dans de simples rectangles ; points de décision dans les losanges, avec une entrée et seulement
deux sorties potentielles (un chemin oui/non).

Les organigrammes peuvent être rendus plus complexes ou moins complexes. En règle
générale, pour paraphraser Albert Einstein, "les organigrammes devraient être aussi

295
Machine Translated by Google

296 Amélioration continue

Figure 14.1 Exemple de schéma de processus (Pyzdek et Keller, 2010).

aussi simple que possible, mais pas plus simple. Le but de l'organigramme est d'aider les gens à comprendre
le processus, et cela n'est pas accompli avec des organigrammes trop simples ou trop complexes.

Lorsque les organigrammes indiquent un plus grand nombre de points de décision, c'est souvent le signe
d'un processus trop compliqué qui a un potentiel d'erreur. Heureusement, les points de décision sont aussi un
axe potentiel d'amélioration.
Les cartes de processus sont des organigrammes qui montrent également, via des couloirs de nage, comment le
les éléments de processus se déplacent entre les domaines fonctionnels, comme illustré à la Fig. 14.1.

Définition des paramètres La

définition du projet comprend un énoncé des paramètres qui seront utilisés pour évaluer le processus. Il est
important de choisir des mesures qui garantiront que vous améliorez réellement la qualité, les performances
commerciales et la satisfaction client. La mesure des bénéfices et de la croissance n'est pas recommandée à
cette fin car ils sont généralement lents à réagir à l'insatisfaction des clients et peuvent indiquer des
améliorations à court terme au détriment de la viabilité à long terme. Des mesures correctement choisies
fourniront des informations pour la prise de décision basée sur les données et deviendront le langage utilisé
pour communiquer le statut et le bien­être de l'entreprise ou du processus.
Machine Translated by Google

Étape de mesure 297

Une fois établies, ces mesures peuvent être utilisées pour déterminer l'importance relative
de divers facteurs affectant les processus et les unités commerciales, ainsi que pour comparer
les contributions des différents processus, unités commerciales et concurrents au succès
global de l'entreprise. Ils fournissent également une base de référence pour évaluer les
résultats des efforts d'amélioration Six Sigma.
En bref, les métriques nous fournissent un énoncé de ce qui est essentiel à la qualité, au
coût et/ou à la planification ; comment ceux­ci seront mesurés et rapportés ; et comment ces
mesures critiques pour la qualité (CTQ), critiques pour les coûts (CTC) et critiques pour le
calendrier (CTS) sont corrélées avec les variables et contrôles de processus clés pour obtenir
des améliorations à l'échelle du système.
Au niveau du processus, vous pouvez établir une ligne de base en mesurant la capacité
actuelle du processus. D'autres mesures courantes dans Six Sigma sont le rendement de
bout en bout, le rendement normalisé et le niveau Sigma pour les étapes de processus
individuelles, et le rendement de débit roulé pour les processus complets.

Établissement des lignes de base du processus


La performance du processus existant doit être établie via une ligne de base pour déterminer
dans quelle mesure le processus actuel répond aux exigences du client et valider la justification
du projet notée à l'étape Définir. Lorsque le processus est dans un état de contrôle statistique,
son indice de capacité de processus peut être calculé, comme indiqué au Chap. 9. L'indice de
capabilité compare la variation de procédé calculée avec les exigences client déclarées.

La variation du procédé ne peut être estimée qu'après que la stabilité du procédé a été établie
à l'aide d'une carte de contrôle. Seuls les processus stables peuvent être prédits ; les
processus instables sont la combinaison de plusieurs processus, chacun se produisant à des
intervalles de temps distincts.
Lorsque le processus est instable ou n'est pas sous contrôle statistique, un indice de
performance du processus peut être utilisé comme estimation approximative pour comparer la
variation observée au sein d'un échantillon donné avec les exigences du client.
Une carte de contrôle est essentielle à ce stade afin que les résultats d'amélioration
obtenus plus tard dans le projet puissent être estimés de manière fiable. Lorsque des efforts
d'amélioration sont effectués sans l'utilisation d'une carte de contrôle, il est difficile de prouver
que l'amélioration a eu un effort réel, car toute amélioration du résultat peut avoir simplement
coïncidé avec la nature sporadique de la cause spéciale.

Lorsque des cartes de contrôle sont utilisées pour référencer le processus et que le
processus est hors de contrôle, l'équipe peut découvrir rapidement la cause. Si cette cause
particulière est de l'ordre de grandeur qui a justifié le projet, le projet est en voie de conclusion
rapide. Dans tous les cas, il s'agit d'informations nécessaires pour l'étape d'analyse, car la
variation de cause commune doit être traitée très différemment de la variation de cause
spéciale.
Au niveau de l'entreprise, nous cherchons souvent à mesurer les perceptions du client
sur l'état actuel du produit, la livraison du produit et/ou le service
Machine Translated by Google

298 Amélioration continue

expérience. L'obtention de commentaires crédibles des clients est un élément important de


cette définition. Les enquêtes auprès des clients, les groupes de discussion, les entretiens et
l'analyse comparative sont tous utilisés, généralement conjointement les uns avec les autres,
pour mieux comprendre les besoins et les désirs des clients et les éléments connus dans le
modèle Kano comme des excitateurs . Ces sujets ont été abordés dans la partie 2.

Analyse des systèmes de mesure Un argument


peut être avancé pour affirmer que la qualité commence par la mesure. Ce n'est que lorsque
la qualité est quantifiée qu'une discussion significative sur l'amélioration peut commencer.
Conceptuellement, la mesure est assez simple : la mesure est l'attribution de nombres aux
phénomènes observés selon certaines règles. La mesure est une condition sine qua non de
toute science, y compris la science de la gestion.

Niveaux de mesure Une mesure

est simplement une affectation numérique à quelque chose, généralement un élément non
numérique. Les mesures transmettent certaines informations sur la relation entre l'élément et
d'autres éléments. La mesure implique un domaine théorique, un domaine de préoccupation de
fond représenté comme un système relationnel empirique et un domaine représenté par un
système relationnel numérique particulier sélectionné. Il y a une fonction de cartographie qui
nous fait passer du système empirique au système numérique. Le système numérique est
manipulé et les résultats de la manipulation sont étudiés pour aider le gestionnaire à mieux
comprendre le système empirique.

En réalité, la mesure est problématique : le gestionnaire ne peut jamais connaître la « vraie


» valeur de l'élément mesuré. Les nombres fournissent des informations sur une certaine
échelle et représentent des mesures d'une variable d'intérêt non observable. Certaines mesures
sont plus riches que d'autres ; c'est­à­dire que certaines mesures fournissent plus d'informations
que d'autres. Le contenu informatif d'un nombre dépend de l'échelle de mesure utilisée. Cette
échelle détermine les types d'analyses statistiques qui peuvent être correctement utilisées pour
étudier les nombres. Tant qu'on n'a pas déterminé l'échelle de mesure, on ne peut pas savoir
si une méthode d'analyse donnée est valide.

Les quatre échelles de mesure sont : nominale, ordinale, intervalle et rapport.


Harrington (1992) résume les propriétés de chaque échelle dans le tableau 14.1.
Les nombres sur une échelle nominale ne sont pas du tout des mesures, ce sont
simplement des étiquettes de catégorie sous forme numérique. Les mensurations nominales
peuvent indiquer l'appartenance à un groupe (1 = homme, 2 = femme) ou simplement
représenter une désignation (John Doe est le 43e de l'équipe). Les échelles nominales
représentent la forme de mesure la plus simple et la plus faible. Les variables nominales sont
peut­être mieux considérées comme une forme de classification plutôt que comme une échelle de mesure.
Idéalement, les catégories de l'échelle nominale sont construites de telle sorte que
Machine Translated by Google

Étape de mesure 299

Escalader Définition Exemple Statistiques

Nominal Uniquement la présence/absence d'un attribut ; Va ne va pas; Pour cent;


ne peut compter que les éléments succès/échec ; proportion;
accepter/rejeter tests du chi carré

Ordinal Peut dire qu'un élément a plus ou moins un Goût; Ordre de classement

attribut attraction corrélation


qu'un autre article ; peut commander un
ensemble d'articles

Intervalle La différence entre deux points Heure calendaire ; Corrélations ;


successifs est égale ; souvent traité température tests t ; tests F ;
comme une échelle de rapport régression
même si l'hypothèse d'intervalles multiple
égaux est incorrecte ; peut ajouter,
soustraire, ordonner des objets

Rapport Le vrai point zéro indique l'absence Temps écoulé; test t ; test F ;
d'un attribut ; peut additionner, distance; corrélations ;
soustraire, multiplier et diviser lester régression
multiple

(Manuel d'ingénierie de la qualité ASQ, 1992)

Tableau 14.1 Types d'échelles de mesure et statistiques autorisées

tous les objets de l'univers sont membres d'une et d'une seule classe. Les données
collectées sur une échelle nominale sont appelées données d'attributs. Les seules
opérations mathématiques autorisées sur les échelles nominales sont = (ce qui
montre qu'un objet possède l'attribut concerné) ou ≠.
Une variable ordinale est une variable qui a un ordre naturel de ses valeurs
possibles, mais pour laquelle les distances entre les valeurs ne sont pas définies. Un
exemple est les classements de préférence de produit tels que bon, meilleur, meilleur.
Les données ordinales peuvent être analysées avec les opérateurs mathématiques =
(égalité), ≠ (inégalité), > (supérieur à) et < (inférieur à). Il existe une grande variété de
techniques statistiques qui peuvent être appliquées aux données ordinales, y compris
la corrélation de Pearson. D'autres modèles ordinaux incluent des mesures de rapport
de cotes, des modèles log­linéaires et des modèles logit. Dans la gestion de la qualité,
les données ordinales sont généralement converties en données nominales et
analysées à l'aide de modèles binomiaux ou de Poisson. Par exemple, si les pièces
ont été classées en utilisant un ordre médiocre bon­excellent, l'ingénieur qualité peut
tracer un graphique p de la proportion d'articles dans la catégorie médiocre.
Les échelles d'intervalle consistent en des mesures où les rapports de
différences sont invariants. Par exemple, 90°C = 194°F, 180°C = 356°F, 270°C =
518°F, 360°C = 680°F. Maintenant, 194°F/90°C ≠ 356°F/180°C mais
° °
356° −F194° F 180 CC− 90
° − ° = ° − °
680 F 518 F 360 °C 270 °C
Machine Translated by Google

300 Amélioration continue

La conversion entre deux échelles d'intervalle est accomplie par la transformation

y = ax + b, a > 0

Par exemple,

° 9 °
F 32
+ ×=5 C

où a = 9/5 et b = 32. Comme pour les échelles de rapport, lorsque les transformations
admissibles sont rendues statistiques, les résultats ne sont pas affectés par l'échelle
d'intervalle utilisée. De plus, 0° (sur l'une ou l'autre échelle) est arbitraire. Dans cet exemple,
zéro n'indique pas une absence de chaleur.
Les mesures d'échelle de rapport sont ainsi appelées parce que les mesures d'un
objet dans deux métriques différentes sont liés l'un à l'autre par un rapport invariant. Par
exemple, si la masse d'un objet était mesurée en livres (x) et en kilogrammes (y), alors x/y
= 2,2 pour toutes les valeurs de x et y. Cela implique qu'un passage d'une échelle de
mesure de rapport à une autre s'effectue par une transformation de la forme y = ax, a > 0 ;
par exemple, livres = 2,2 × kilogrammes.
Lorsque des transformations autorisées sont utilisées, les résultats statistiques basés sur
les données sont identiques quelle que soit l'échelle de rapport utilisée. Zéro a une
signification inhérente : dans cet exemple, il signifie une absence de masse.

La fiabilité et la validité
Fondamentalement, toute mesure d'item doit répondre à deux tests :

L'item mesure ce qu'il est censé mesurer (c'est­à­dire qu'il est valide). Une nouvelle
mesure ordonnerait les réponses individuelles de la même manière (c'est­à­dire qu'elle
est fiable).

Le reste de cette section décrit les techniques et les procédures conçues pour s'assurer
que les systèmes de mesure produisent des nombres avec ces propriétés. Un bon système
de mesure possède certaines propriétés. Tout d'abord, il doit produire un nombre « proche
» de la propriété réelle mesurée ; c'est­à­dire qu'il doit être exact. Deuxièmement, si le
système de mesure est appliqué à plusieurs reprises au même objet, les mesures produites
doivent être proches les unes des autres ; c'est­à­dire qu'il doit être répétable.
Troisièmement, le système de mesure doit être capable de produire des résultats précis et
cohérents sur l'ensemble de la plage concernée ; c'est­à­dire qu'il doit être linéaire.

Quatrièmement, le système de mesure doit produire les mêmes résultats lorsqu'il est utilisé
par toute personne correctement formée ; c'est­à­dire que les résultats doivent être
reproductibles. Enfin, appliqué aux mêmes éléments, le système de mesure devrait
produire à l'avenir les mêmes résultats que par le passé; c'est­à­dire qu'il doit être stable.
Le reste de cette section est consacré à la discussion des moyens de vérifier ces propriétés
pour des systèmes de mesure particuliers. En général, les méthodes et les définitions
présentées ici sont conformes à celles décrites par l'Automotive Industry Action Group
(AIAG).
Machine Translated by Google

Étape de mesure 301

Définitions
Biais. La différence entre la valeur mesurée moyenne et une valeur de référence
est appelée biais. La valeur de référence est une norme convenue, telle qu'une
norme traçable à un organisme national de normalisation. Lorsqu'il est appliqué
à l'inspection des attributs, le biais fait référence à la capacité du système
d'inspection des attributs à produire un accord sur les normes d'inspection. Le
biais est contrôlé par l'étalonnage, qui est le processus de comparaison des
mesures avec les normes. Le concept de biais est illustré à la Fig. 14.2.

Répétabilité. L'AIAG définit la répétabilité comme la variation des mesures


obtenues avec un instrument de mesure lorsqu'il est utilisé plusieurs fois
par un évaluateur, tout en mesurant la même caractéristique sur la même
pièce. La variation obtenue lorsque le système de mesure est appliqué à
plusieurs reprises dans les mêmes conditions est généralement causée par
des conditions inhérentes au système de mesure. L'ASQ définit la précision
comme "l'étroitesse de l'accord entre des mesures individuelles ou des
résultats de test sélectionnés au hasard. REMARQUE : L'écart type de
l'erreur de mesure est parfois appelé « imprécision ». « C'est similaire à ce
que nous appelons la répétabilité. La répétabilité est illustrée à la Fig. 14.3.
Reproductibilité. La reproductibilité est la variation de la moyenne des
mesures effectuées par différents évaluateurs utilisant le même instrument
de mesure lors de la mesure d'une caractéristique identique sur la même
pièce. La reproductibilité est illustrée à la Fig. 14.4.
La stabilité. La stabilité est la variation totale des mesures obtenues avec
un système de mesure sur le même maître ou les mêmes pièces lorsque

Figure 14.2 Biais illustré. Biais

Valeur de Mesure
référence moyenne
Machine Translated by Google

302 Amélioration continue

Figure 14.3
Répétabilité
illustrée.

Répétabilité

Figure 14.4 Franc

Reproductibilité
illustrée.

Queue

Jeanne

Reproductibilité

mesure d'une caractéristique unique sur une période de temps prolongée.


Un système est dit stable si les résultats sont les mêmes à différents
moments. La stabilité est illustrée à la Fig. 14.5.
Linéarité. La différence dans les valeurs de biais à travers la plage de
fonctionnement attendue de la jauge. La linéarité est illustrée à la Fig. 14.6.
Machine Translated by Google

Vendredi
Figure 14.5 Stabilité
illustrée.

Mercredi

Lundi

La stabilité

Biais plus petit


près du haut Valeur de
de gamme référence

Taille de
pièce proche
du haut de gamme

Taille de la
pièce proche du

milieu de gamme

Mesures de
une pièce vérifiée à
plusieurs reprises

Taille de la

pièce proche de la

petite extrémité de la plage

Biais plus important


près de la petite

extrémité de la plage

Figure 14.6 Linéarité illustrée.

303
Machine Translated by Google
Machine Translated by Google

CHAPITRE 15

Étape d'analyse
Machine Translated by Google
Machine Translated by Google

Les objectifs de l'étape d'analyse comprennent (Keller, 2011a) :

• Analyse de la chaîne de valeur pour déterminer les activités productrices de valeur

• Analyser les sources de variation de processus •

Déterminer les moteurs de processus

Analyse de la chaîne de valeur


L'analyse de la chaîne de valeur commence par définir la valeur du produit ou du service aux
yeux du client. La valeur est alternativement définie comme :

• Quelque chose que le client est prêt à payer • Une activité

qui change de forme, d'adaptation ou de fonction • Une activité

qui convertit une entrée en une sortie

La valeur n'est pertinente qu'à un prix et à un moment précis. Un problème courant dans la
spécification de la valeur est que les organisations ont tendance à se concentrer sur ce qu'elles
sont capables de fournir, plutôt que sur ce que les clients veulent vraiment, le sophisme de "nous
connaissons leurs besoins mieux qu'eux". Bien sûr, lorsqu'ils essaient ensuite d'améliorer le
processus de conception ou de livraison, le résultat peut être un muda plus efficace, mais le
muda n'est pas le même. L'utilisation des hubs par l'industrie du transport aérien en est un
excellent exemple, fréquemment cité par Womack et Jones. Les hubs répondent au besoin des
compagnies aériennes de bien utiliser leurs ressources existantes, mais ne fournissent pas ce
que le client veut vraiment : un voyage sans tracas directement d'un point A à un point B.

Une fois les vrais besoins du client définis, un coût cible est déterminé, qui est le coût de
livraison une fois tous les déchets éliminés.
Si des produits ou services concurrents existent sur le marché, le coût cible peut être déterminé
en étudiant les besoins du client, en déterminant les déchets qui existent dans le produit/service
actuel et en calculant le coût de livraison une fois les déchets éliminés. La réduction des coûts de
livraison peut entraîner une baisse des prix pour le client ou une augmentation des marges pour
le
entreprise.

307
Machine Translated by Google

308 Amélioration continue

De nombreuses entreprises utilisent le déploiement de la fonction qualité (QFD), ou des


diagrammes matriciels plus simples, comme un outil utile pour définir cette voix et s'assurer
que le flux de valeur est conçu pour répondre à ces besoins.
Une fois que la valeur a été déterminée pour un produit ou un service donné, sa chaîne
de valeur peut être identifiée. Le flux de valeur représente les mesures prises pour fournir le
produit ou service spécifique. (En ce sens, elle est différente d'une chaîne de valeur, qui est
généralement définie sur de vastes domaines fonctionnels plutôt que sur un produit spécifique.)
Les flux de valeur peuvent être générés de plusieurs façons. Une carte de processus est un
outil utile pour afficher les flux de valeur, en particulier lorsque le mouvement dans les
départements fonctionnels est affiché via des couloirs. Une fois les processus cartographiés,
chaque étape du processus appartiendra à l'une des catégories suivantes :

1. Des étapes qui créent de la valeur pour le client.

2. Étapes qui ne créent aucune valeur pour le client, mais qui sont requises par une ou
plusieurs activités requises (y compris la conception, le traitement des commandes,
la production et la livraison). Celles­ci sont appelées muda de type 1 (ou plus
communément activités commerciales à valeur ajoutée).

3. Des étapes qui ne créent aucune valeur client. Ceux­ci sont appelés muda de type 2
et représentent le proverbial fruit à portée de main. Ils doivent et peuvent être
éliminés immédiatement.

Les temps de cycle doivent également être inclus pour faciliter l'analyse. Mesurez le
temps « pratique » pour terminer l'étape du processus, qui est mieux estimé à l'aide d'un
tableau de contrôle pour le temps de la tâche. Le « temps d'arrêt » de l'activité est également
intéressant : la durée pendant laquelle les éléments restent en file d'attente.

• Si nous avons une ligne de processus dédiée, de sorte que l'entrée de chaque étape
du processus ne provienne que des étapes qui la précèdent immédiatement dans
cette analyse de la chaîne de valeur, calculez alors le nombre d'éléments en file
d'attente, tel que déterminé par la carte de contrôle. • Si l'étape
de processus reçoit des entrées de plusieurs sources et est multitâche, de sorte que
l'article doit attendre que la ressource soit à nouveau disponible, mesurez le temps
pendant lequel l'article ou le client attend dans la file d'attente pour cette étape de
processus. Ceci est mieux déterminé à l'aide d'une carte de contrôle pour le temps
d'attente.

Après avoir additionné les temps moyens, nous pouvons calculer le délai et la vitesse
moyens du processus. Le délai de livraison est le temps nécessaire pour traiter tous les
travaux en cours, avant que de nouvelles commandes puissent être lancées. La vélocité,
parfois appelée flux, fait référence à la vitesse de livraison du processus. La vitesse offre une
flexibilité et une meilleure réactivité aux demandes des clients. En réduisant les délais de
traitement, nous pouvons répondre rapidement aux nouvelles commandes ou aux modifications
requises par le client.
Le délai d'exécution est réduit et la vitesse accrue lorsque le travail en cours est réduit.
(Travaux en cours, alias travaux en cours, ou plus simplement WIP, fait référence
Machine Translated by Google

A nalyze S tag e 309

pour commander des articles qui ont été partiellement traités, mais qui ne sont pas encore prêts
à être remis au client.) La raison est simple : les nouvelles commandes des clients ne peuvent
pas être lancées tant que le travail (ou les articles) en cours n'est pas terminé. Ainsi, l'activité
sur les nouveautés est au point mort. Un exemple d'un processus de service est la salle d'attente
d'un médecin. Les patients sont en cours de traitement. Les nouveaux patients ne sont pas pris
en charge par le médecin tant que ceux qui sont arrivés plus tôt ne sont pas terminés.
Lorsqu'une étape de processus reçoit des éléments d'une seule étape qui la précède, la loi
de Little est utilisée pour calculer le délai de traitement en multipliant le nombre d'éléments en
cours (en file d'attente) par le temps nécessaire pour terminer chaque élément.
Par exemple, s'il faut en moyenne 2 heures pour terminer chaque bon de commande et qu'il y a
10 bons de commande en file d'attente, alors nous avons besoin de 10 fois 2 équivaut à 20
heures de délai pour le processus. En d'autres termes, nous ne pouvons pas traiter de nouvelles
commandes tant que le délai de 20 heures n'a pas permis de terminer les travaux en cours
existants.
Lorsque le temps nécessaire pour terminer est excessif, les sources potentielles de retard
incluent :

•Étapes de processus inutiles •Erreurs

nécessitant une reprise •Paramètres

de processus non optimaux •Mouvement

excessif de matériel ou de personnel •Temps d'attente et/ou

de configuration excessifs

La réduction ou l'élimination des temps de cycle sans valeur ajoutée fournit souvent les
méthodes les plus claires et les plus directes pour réduire le temps de cycle et les délais
d'exécution pour une meilleure vitesse. Il n'est pas rare que plus de 50 % de la durée d'un cycle
de processus consiste en des activités sans valeur ajoutée.
L'une des premières étapes de tout projet de réduction du temps de cycle devrait être
d'identifier et d'éliminer les déchets de type 2 ; les étapes du processus qui ne sont tout
simplement pas nécessaires. Celles­ci peuvent inclure des activités telles que des autorisations
ou des approbations de routine, ou la collecte d'informations et de données qui ne sont pas nécessaires.
Nous pouvons forcer une réduction du temps de cycle grâce à une réduction des erreurs
nécessitant une reprise. Les pratiques pour y parvenir comprennent la standardisation des
procédures, la prévention des erreurs et l'amélioration de la capacité des processus. Chacun
d'eux est traité au Chap. 16. À mesure que les erreurs nécessitant une reprise sont éliminées,
les inspections et les approbations à valeur ajoutée actuellement nécessaires peuvent également
être réduites ou éliminées.
Plutôt que de simplement réduire les erreurs, les outils d'optimisation permettent au
processus de fonctionner à un niveau amélioré par rapport aux exigences des clients. Par
exemple, le temps de cycle peut être réduit à un point qui va au­delà de l'élimination des
réclamations jusqu'au niveau de satisfaction des clients. Ces outils, évoqués au Chap. 16,
comprennent des expériences conçues, une analyse de surface de réponse et des simulations
de processus. Par exemple, dans un processus de service, nous pourrions utiliser ces outils
pour optimiser le nombre de personnel formé à chaque station du processus, en fonction du
mélange de clients arrivant à un moment donné.
Machine Translated by Google

310 Amélioration continue

Un mouvement excessif de matériel et/ou de personnel entre les étapes du processus est sans
valeur ajoutée, tel qu'identifié dans la quatrième définition des déchets.
Une conception efficace de la disposition des processus réduit les mouvements physiques sans
valeur ajoutée. Par exemple, un échantillon de laboratoire passe du procédé à un laboratoire situé
de l'autre côté de l'usine. Une fois l'échantillon analysé, les résultats sont transmis au service qualité,
puis renvoyés au processus où ils sont nécessaires au traitement de la commande.

Un diagramme spaghetti est utile pour mettre en évidence la mauvaise disposition physique.
Les outils 5S seront utilisés dans l'étape Améliorer pour créer les conditions d'un mouvement
physique réduit.
L'attente augmente le délai en augmentant à la fois le temps d'exécution et le nombre d' éléments
en file d'attente. À cet égard, son impact sur l'équation du délai d'approvisionnement est amplifié.

Les éléments de processus subiront une attente lorsque le personnel de processus n'est pas
disponible pour travailler sur les éléments de processus. Cela peut se produire pour diverses raisons,
notamment :

• Multitâche • Étapes

de processus non équilibrées • Temps

de configuration longs

Le cas du multitâche au sein des départements, ou des départements qui sont spécialisés et
reçoivent des éléments de processus de plusieurs sources, doit être identifié. Ces problèmes peuvent
être résolus à l'étape d'amélioration grâce à une politique de priorisation appropriée ou à un personnel
dédié.
Le chargement de niveau est utilisé pour équilibrer ou faire correspondre les taux de production
des étapes du processus. Lorsque nous avons atteint le chargement de niveau de nos processus,
tous les travaux en cours (éléments en file d'attente) sont supprimés : il n'y a pas d'attente car les
éléments passent d'une activité de processus à la suivante. Cette réduction des stocks physiques
améliore les flux de trésorerie et, en fin de compte, les coûts. L'argent dépensé pour des travaux
partiels ou achevés ne génère aucun revenu pour l'organisation tant que l'article n'est pas vendu.

Les stocks cachent des problèmes, tels que des rendements de processus imprévisibles ou
faibles, des pannes d'équipement ou des niveaux de production inégaux. Lorsque le stock existe en
tant que travail en cours, il empêche le traitement de nouvelles commandes jusqu'à ce que le WIP
soit terminé. Bien que ces concepts soient plus clairement identifiés aux processus de fabrication, ils
persistent dans les processus de service, où l'inventaire peut faire référence à des patients en soins
de santé, à des hamburgers au fast­food ou à une piscine inachevée en construction.

Le flux chargé par niveau est sans lot, avec un temps de cycle plus court par unité (délai
d'exécution plus court), une flexibilité accrue, un temps de réponse réduit et une augmentation du
pourcentage d'activités à valeur ajoutée.
Pour équilibrer les étapes du processus, nous calculons d'abord le takt time en divisant la
ressource disponible (en unités de temps) par la demande de production
Machine Translated by Google

A nalyze S tag e 311

(en articles). Takt est un mot allemand signifiant métronome et est utilisé pour indiquer le rythme
souhaité du processus. Le takt time est affiché au niveau de la cellule et les ressources (machines,
personnel) à chaque étape du processus sont équilibrées de manière à ce que son temps de
cycle soit égal au takt time. Ce chargement de niveau garantit que les biens produits à chaque
étape sont utilisés immédiatement par l'étape suivante, assurant un flux constant d'articles (ou de
services) à travers le flux de valeur. Si une augmentation temporaire des commandes est reçue,
le rythme reste le même, mais les ressources sont déplacées pour répondre à la demande. De
cette manière, les étapes du processus sont dotées de ressources pour s'adapter à un système
de gestion par tirage, dans lequel les éléments ne sont traités que lorsque l'opération suivante en
a besoin.
Le concept lean de transparence, ou contrôle visuel, rend chacun conscient de l'état actuel
du processus et s'est avéré réduire le temps de réaction au gaspillage, favoriser la responsabilité
et aider à la résolution de problèmes.
Bien que nous puissions généralement concevoir le processus et allouer des ressources
standard pour que tout processus respecte son temps de takt standard, nous reconnaissons
qu'un changement de la demande modifiera les exigences de temps de takt. Une façon de
s'adapter à l'ajustement du temps takt est de déplacer les ressources.
Une fois que le personnel et l'équipement ont été réorganisés en cellules de produits,
l'allocation des ressources à ces cellules devient critique. Nous calculons le takt time en divisant
le nombre d'heures de disponibilité de la ressource par la demande totale. Par exemple, si le
produit a une demande moyenne de 60 unités par jour et que la cellule fonctionne 15 heures par
jour (deux équipes, moins les pauses), le takt time est calculé sur 15 minutes (c'est­à­dire 0,25
heure par unité).
Les lots sont difficiles à faire correspondre au takt time, car ils perturbent le flux continu du
processus. Par exemple, une procédure de laboratoire passe 16 échantillons à la fois dans une
centrifugeuse. Le premier échantillon à atteindre cette étape attend la réception du 16e échantillon.
Si vous êtes le patient qui attend les résultats de ce premier échantillon, vous n'êtes pas servi
efficacement (de votre point de vue).
Le processus reste inactif en attendant les 16 échantillons complets. De plus, l'étape suivante du
processus reçoit les 16 échantillons en même temps, ce qui crée une forte augmentation de la
demande. Une meilleure utilisation des ressources dans l'ensemble du système consiste à niveler
la charge à un flux constant tout au long du processus.
Le problème avec les lots est qu'ils ne sont pas aussi efficaces, du point de vue des systèmes
et du point de vue du client, qu'ils le paraissent.
Aussi ironique que cela puisse paraître, l'une des principales raisons pour lesquelles nos
processus contiennent des déchets est due à nos tentatives historiques pour les rendre plus
efficaces. Une erreur que nous avons acceptée est que nous pouvons rendre les processus plus
efficaces en créant des départements spécialisés qui traitent le travail par lots. Ces départements
deviennent efficaces dans ce qu'ils font du point de vue des processus, avec des quantités de
lots économiques conçues pour minimiser le temps de configuration ou les coûts de livraison des
matériaux, mais ils manquent d'efficacité par rapport aux flux de valeur de produits spécifiques.
Des déchets sont créés en attendant que le lot commence son traitement départemental, et des
déchets sont en outre créés lorsque des unités particulières de
Machine Translated by Google

312 Amélioration continue

produit, pour lequel les clients attendent, doit attendre que le reste du lot soit traité.

Les tentatives d'amélioration de l'efficacité du service peuvent créer un gaspillage


supplémentaire dans le flux de valeur du produit si l'efficacité du service produit des résultats
qui ne répondent pas aux besoins du client ou nécessite des intrants qui augmentent les
coûts pour les fournisseurs sans ajouter de valeur. Alors que la standardisation des
composants du produit rend les processus individuels plus efficaces, cette efficacité peut se
faire au détriment de la valeur client. Pensez à l'expérience habituelle d'achat d'une nouvelle
voiture. Vous achetez « le forfait », qui comprend les choses que vous payez mais dont vous
n'avez pas besoin, car il est plus efficace pour les processus de production et de livraison.

Ce gaspillage imposé par les lots est aggravé si des changements se produisent dans la
conception ou les besoins des clients, car les travaux en cours (WIP) ou les inventaires de
produits finaux nécessitent une reprise ou deviennent des rebuts. Notez que ces concepts ne
se limitent pas à la fabrication ; les entreprises du secteur des services peuvent également
générer des déchets. Pensez aux hamburgers préparés à l'avance, à l'attente d'une
commande ou à la vérification des relevés de compte qui arrivent à la fin du mois, longtemps
après que vous pourriez éventuellement éviter un découvert.
Trois raisons courantes pour lesquelles nous sommes « forcés » de considérer les lots sont :

1. Lorsque le coût de déplacement des matériaux est important 2.

Lorsque le temps de configuration domine le temps de cycle par article 3.

Lorsque le processus est conçu pour plusieurs articles

Un exemple du premier cas est l'expédition d'un lot d'articles, alors que le client ne veut
vraiment qu'un ou quelques articles. Le client doit accepter l'inventaire dont il ne veut pas ou
peut attendre d'avoir besoin de plusieurs articles avant de passer une commande. En lean,
nous essayons de réduire l'espace entre le fournisseur et le client pour réduire les coûts de
déplacement. L'efficacité de la production offshore peut être inférieure à ce que l'on perçoit si
l'on tient compte des coûts réels des expéditions des consommateurs, des consommateurs
détenant des stocks inutilisés et des consommateurs attendant des expéditions retardées.

Lorsque les processus sont conçus pour produire plusieurs articles, ils peuvent être
inefficaces pour les petits lots. La plupart des fours de cuisine modernes sont conçus avec
une grande capacité pour cuire la dinde, la farce et les pommes de terre en même temps à
Thanksgiving. Et si nous voulions faire des cookies ?
Les boîtes de mélanges préparés sont destinées à des dizaines de biscuits, tout comme les
fours, même si nous préférons souvent ne manger que quelques biscuits fraîchement cuits
ce soir, puis quelques biscuits fraîchement cuits demain, et ainsi de suite.
Dans les opérations de fabrication, le terme monument fait référence à l'équipement acheté
qui a été conçu pour une grande capacité et limite notre capacité à fabriquer de petits lots
maigres.
Lorsque le temps de configuration domine, il est naturel de traiter autant d'éléments que
possible pour répartir les coûts de configuration sur l'ensemble du lot. C'était courant dans les
Machine Translated by Google

A nalyze S tag e 313

l'industrie automobile avant les années 1980, avant qu'ils ne fassent des efforts concertés pour
réduire les temps d'installation. À cette même époque, les presses à imprimer nécessitaient des
procédures de configuration élaborées. Les éditeurs étaient économiquement contraints de
commander de grandes quantités pour maintenir le prix unitaire bas. Cela a entraîné de grands
inventaires, une dissuasion pour réviser un livre avec du nouveau matériel. Si le temps d'installation
est réduit, des tailles de lots plus petites seraient abordables, comme c'est maintenant couramment
pratiqué dans l'industrie de l'impression.
Le temps de réglage est défini comme le temps nécessaire pour passer du dernier article de la
commande précédente au premier bon article de la commande suivante. Lors de l'analyse des
activités de configuration, notez si l'activité est interne ou externe. Les activités de configuration
internes nécessitent un processus inactif (fermé), ce qui signifie qu'aucune commande ne peut être
exécutée pendant l'activité de configuration. Des activités de configuration externes peuvent être
effectuées pendant que le processus est opérationnel. Ce sont des activités hors ligne. Convertissez
les activités internes en activités externes dans la mesure du possible.
La configuration comprend la préparation, le remplacement, l'emplacement et le réglage
activités:

• La préparation fait référence aux tâches associées à l'obtention ou au stockage des outils ou
WIP nécessaires au processus. Par exemple, récupérer du papier d'imprimante dans le
placard, télécharger les instructions de processus sur l'ordinateur, déplacer les éléments
terminés vers l'étape suivante du processus, démarrer le logiciel dont nous avons besoin
pour traiter la commande, etc. Certaines actions appropriées pour réduire le temps associé
à la préparation comprennent : • Convertir des départements en cellules de travail
pour minimiser le temps nécessaire pour déplacer le produit fini vers l'étape suivante du
processus. •Stocker les outils et matériaux localement, tel que préconisé par les
principes 5S. • Convertir en Toujours prêt à partir. Rendez le logiciel ou les instructions
instantanément
accessibles.

• Le remplacement fait référence aux tâches associées à l'ajout ou au retrait d'éléments ou


d'outils, par exemple, le déplacement des montages de test, le chargement de nouveau
matériel dans la trémie et le chargement de papier dans la photocopieuse. Les actions pour
réduire les temps de remplacement incluent : • Simplifier les configurations.
Réduisez le nombre d'étapes requises, par exemple par une refonte des luminaires. •
Établir une communauté de configurations
pour les familles de produits. Lorsque nous établissons les mêmes procédures de
configuration pour plusieurs éléments, nous avons naturellement moins de cas de
changement requis, ce qui réduit le temps de configuration. C'est l'outil 5S de
standardisation, qui sera abordé dans l'étape Améliorer, au Chap. 16. Le processus
est simplifié en réduisant le nombre d'"articles spéciaux" qui sont traités : plus la
complexité du processus est élevée, plus le temps de cycle est long. Henry Ford, en
offrant la première automobile abordable, a réalisé les avantages d'efficacité offerts par
la normalisation.
Machine Translated by Google

314 Amélioration continue

Sa devise, « n'importe quelle couleur que vous voulez, tant que c'est noir », illustre
la notion de standardisation. L'approche moderne de la normalisation n'est pas que
nous devons limiter les options, mais plutôt que nous devons reconnaître les
avantages des processus simplifiés et chercher à supprimer les «cas particuliers» où
ils offrent peu de valeur au prix de temps de cycle accrus. Les points de décision et
les chemins parallèles ultérieurs sur les organigrammes fournissent une indication
des complexités du processus qui peuvent parfois être évitées. En regroupant les
pièces ou les services en familles, nous pouvons reconnaître qu'il existe des
méthodes communes qui peuvent être appliquées, simplifiant ainsi les processus et
réduisant les temps de cycle globaux. •Les outils 5S de tri et de redressement
contribuent également à réduire les déplacements
et les temps d'attente.

• Les tâches de localisation sont celles associées au positionnement ou au placement lors


de la configuration. Les exemples incluent la définition de profils de température pour le
chauffage, l'ajustement de la longueur de coupure pour un produit spécifique et le
placement du morceau de charcuterie dans la trancheuse. Les actions visant à réduire
le temps associé à la localisation comprennent :
•Poka yoke (anti­erreur du processus), comme indiqué au Chap. 16 •Communauté des
configurations comme mentionné précédemment (l'outil 5S de normalisation) •
L'ajustement fait référence aux

tâches associées à la garantie de paramètres de processus corrects. Les exemples incluent


la surveillance de la température d'un four, la vérification de la longueur de coupure et
l'épreuvage avant l'impression. Une action appropriée pour réduire le temps de réglage
est le contrôle de processus.
Si nous pouvons améliorer la répétabilité du processus, les ajustements ne seront pas
nécessaires. Ceci est souvent réalisé grâce à des méthodes de conception robustes,
comme indiqué au Chap. 16.

Bien que cela puisse être votre tendance initiale, ne limitez pas votre flux de valeur aux murs
de votre organisation. Des sommes d'argent fantastiques ont été économisées en évaluant les flux
de valeur lorsqu'ils passent du fournisseur au client, souvent en raison de la découverte de
concepts de valeur erronés ou de tentatives de réaliser des économies opérationnelles qui
diminuent la valeur client.

Analyser les sources de variation de processus Les cartes


de contrôle des sources de variation de processus (SPC) de l'étape Mesure fournissent la preuve
d'un processus stable (c'est­à­dire maîtrisé) ou instable (c'est­à­dire hors contrôle). Il est essentiel
de différencier d'abord ces deux types de variation, car les stratégies d'amélioration sont
nécessairement différentes pour chacun. Pour les processus stables, la variation de cause
commune intégrée au processus ne peut être réduite que par une modification fondamentale du
système. Lorsque le processus est hors de contrôle, la cause spéciale créant
Machine Translated by Google

A nalyze S tag e 315

la condition instable pendant une période de temps spécifique doit être traitée et supprimée
pour atteindre un processus stable, qui peut ensuite être amélioré (si nécessaire) comme
indiqué ci­dessus.
Au niveau de l'entreprise, les données client peuvent être analysées pour établir des
relations entre la satisfaction client et les processus internes utilisés pour offrir l'expérience
client. Un outil couramment utilisé pour cette analyse est le déploiement de la fonction
qualité (QFD). Dans de nombreux cas, des versions simplifiées de ces outils sont utilisées
avec des résultats comparables. Cette identification des processus internes clés et des
métriques alimente les opérations et les projets au niveau des processus dans une stratégie
de déploiement descendante. Cette rétroaction des projets au niveau de l'entreprise dans
la définition des projets au niveau des opérations et des processus est essentielle pour
exploiter avec succès la puissance de Six Sigma.

Déploiement de la fonction qualité Une


fois les informations sur les attentes des clients obtenues, des techniques telles que QFD
peuvent être utilisées pour relier directement la voix du client aux processus internes.

La planification tactique de la qualité consiste à élaborer une approche pour mettre en


œuvre le plan stratégique de la qualité. L'un des développements les plus prometteurs
dans ce domaine a été le déploiement de politiques. Sheridan (1993) décrit le déploiement
de politiques comme le développement d'un système basé sur la mesure comme moyen de
planifier l'amélioration continue de la qualité à tous les niveaux d'une organisation. Bien qu'il
ait été développé à l'origine par les Japonais, les entreprises américaines utilisent également
le déploiement de politiques car il définit clairement la direction à long terme du
développement de l'entreprise, par opposition
à court terme.
QFD est un processus axé sur le client pour la planification des produits et des
services. Cela commence par la voix du client, qui devient la base de la définition des
exigences. Les matrices QFD, parfois appelées « la maison de la qualité », sont des
représentations graphiques du résultat du processus de planification.
Les matrices QFD varient considérablement et peuvent indiquer des éléments tels que des
objectifs concurrentiels et des priorités de processus. Les matrices sont créées par des
équipes interministérielles, surmontant ainsi certains des obstacles qui existent dans les
systèmes organisés de manière fonctionnelle.
QFD est également un système de conception d'un produit ou d'un service basé sur les
demandes des clients, un système qui passe méthodiquement des exigences des clients
aux spécifications du produit ou du service. QFD implique l'ensemble de l'entreprise dans
l'activité de conception et de contrôle. Enfin, QFD fournit une documentation pour le
processus de prise de décision. L'approche QFD comporte quatre phases distinctes (King,
1987):

• Phase d'organisation. La direction sélectionne le produit ou le service à améliorer,


nomme l'équipe interdépartementale appropriée et définit l'orientation de l'étude
QFD.
Machine Translated by Google

316 Amélioration continue

• Phase descriptive. L'équipe définit le produit ou le service à partir de plusieurs


directions différentes telles que les demandes des clients, les fonctions, les
pièces, la fiabilité, le coût, etc. • Phase
de percée. L'équipe sélectionne les domaines à améliorer et trouve des moyens
de les améliorer grâce à de nouvelles technologies, de nouveaux concepts,
une meilleure fiabilité, une réduction des coûts, etc., et surveille le processus
de goulot
d'étranglement. • Phase de mise en œuvre. L'équipe définit le nouveau produit et comment il
seront fabriqués.

QFD est mis en œuvre par le développement d'une série de matrices.


Dans sa forme la plus simple, QFD implique une matrice qui présente les exigences
des clients sous forme de lignes et les caractéristiques du produit ou du service sous
forme de colonnes. La cellule, où la ligne et la colonne se croisent, montre la
corrélation entre l'exigence du client individuel et l'exigence du produit ou du service.
Cette matrice est parfois appelée « matrice des exigences ». Lorsque la matrice des
exigences est améliorée en montrant la corrélation des colonnes les unes avec les
autres, le résultat est appelé la « maison de la qualité ». La figure 15.1 montre une
disposition de maison de qualité couramment utilisée.

Matrice de
corrélation

Comment (colonnes)

Matrice de
Quoi Évaluation
relation l'importance
Pondération
de

(lignes) compétitive
(intersection de la ligne et de la colonne)

Valeurs cibles

Évaluation compétitive

Pondération de l'importance

Figure 15.1 La maison de la qualité.


Machine Translated by Google

A nalyze S tag e 317

La maison de la qualité relate, dans un format graphique simple, les exigences des
clients, les caractéristiques des produits et l'analyse concurrentielle. Il est crucial que
cette matrice soit développée avec soin car elle devient la base de l'ensemble du
processus QFD. En utilisant l'approche QFD, les demandes du client sont « déployées »
dans le processus final et les exigences du produit.
Une interprétation de QFD, appelée l'approche Macabe, procède en développant
une série de quatre matrices connexes (King, 1987) : matrice de planification de produit,
matrice de déploiement de pièces, matrice de planification de processus et matrice de
planification de production. Chaque matrice est liée à la matrice précédente, comme le
montre la Fig. 15.2.

Figure 15.2 Matrice QFD pour une entreprise aérospatiale (Wahl et Bersbach, 1991).
Machine Translated by Google

318 Amélioration continue

Collecte de données et examen des attentes, des besoins, des exigences


et des spécifications des clients Une
autre approche du QFD est basée sur le travail effectué par Yoji Akao. Akao (1990, pp. 7–
8) présente le plan en 11 étapes suivant pour développer le plan qualité et la conception
qualité, en utilisant QFD.

1. Tout d'abord, étudiez les exigences de qualité exprimées et latentes des


consommateurs sur votre marché cible. Ensuite, décidez quels types de "choses"
faire.
2. Étudiez les autres caractéristiques importantes de votre marché cible et créez un
tableau de déploiement de la fonction de qualité exigée qui reflète à la fois les
demandes et les caractéristiques de ce marché.

3. Effectuer une analyse des produits concurrents sur le marché, que nous appelons
une analyse concurrentielle. Élaborer un plan qualité et déterminer les
caractéristiques de vente (points de vente).
4. Déterminer le degré d'importance de chaque qualité demandée.
5. Lister les éléments de qualité et faire un déploiement des éléments de qualité
graphique.

6. Faites une charte de qualité en combinant la charte de déploiement de la qualité


demandée et la charte de déploiement des éléments de qualité.
7. Effectuez une analyse des produits concurrents pour voir comment les autres
entreprises se comportent par rapport à chacun de ces éléments de qualité.
8. Analyser les plaintes des clients.
9. Déterminez les éléments de qualité les plus importants comme indiqué par les
demandes de qualité et les plaintes des clients.
10. Déterminez la qualité de conception spécifique en étudiant les caractéristiques
de qualité et en les convertissant en éléments de qualité.
11. Déterminer la méthode d'assurance qualité et les méthodes d'essai.

Diagrammes de cause à effet


L'amélioration des processus consiste à agir sur les causes de la variation.
Avec la plupart des applications pratiques, le nombre de causes possibles pour un
problème donné peut être énorme. Le Dr Kaoru Ishikawa a mis au point une méthode
simple d'affichage graphique des causes d'un problème de qualité donné. Sa méthode
est connue sous plusieurs noms : le diagramme d'Ishikawa, le diagramme en arête de
poisson et le diagramme de cause à effet.
Les diagrammes de cause à effet sont des outils qui sont utilisés pour organiser et
afficher graphiquement toutes les connaissances qu'un groupe a recueillies sur un
problème particulier. Les idées du brainstorming sont classées en catégories et sous­
catégories rationnelles. Le diagramme de cause à effet est dessiné pour décrire les
relations entre les données dans chaque catégorie et chacune de ses sous­catégories.
Machine Translated by Google

A nalyze S tag e 319

Un bon diagramme de cause à effet aura de nombreux "os". Si votre diagramme


cause­effet n'a pas beaucoup de branches plus petites, alors la compréhension du
problème est quelque peu superficielle.
Les diagrammes de cause à effet sont de plusieurs types de base. Le type d'analyse
de dispersion est créé en demandant à plusieurs reprises « Pourquoi cette dispersion
se produit­elle ? Par exemple, nous pourrions vouloir savoir pourquoi toutes nos pêches
fraîches n'ont pas la même couleur.
Le diagramme de cause à effet de la classe de processus de production utilise les
processus de production comme principales catégories, ou branches, du diagramme.
Les processus sont représentés joints. D'autres thèmes communs dans les diagrammes
de cause à effet incluent ceux dont les branches principales sont désignées à l'aide des
5M et E (machine, méthode, main­d'œuvre, matériel, mesure et environnement) et des
4P (personnes, politique, procédure, usine).
Un exemple est illustré à la Fig. 15.3.
Le diagramme cause­effet de l'énumération des causes affiche simplement toutes
les causes possibles d'un problème donné regroupées selon des catégories rationnelles.
Ce type de diagramme de cause à effet se prête facilement à l'approche du remue­
méninges.
Les diagrammes de cause à effet ont plusieurs utilisations. Créer le diagramme est
une éducation en soi. L'organisation des connaissances du groupe sert de guide pour la
discussion et inspire souvent plus d'idées. Le diagramme de cause à effet, une fois créé,
agit comme un enregistrement de votre recherche.
Enregistrez simplement vos tests et vos résultats au fur et à mesure. Si la véritable cause
s'avère être quelque chose qui ne figurait pas sur le schéma d'origine, elle doit être
ajoutée. Enfin, le diagramme de cause à effet est un affichage de votre niveau de
compréhension actuel. C'est une bonne idée d'afficher le diagramme de cause à effet
dans un endroit bien en vue pour référence pratique à l'avenir.
Une variante du diagramme de cause à effet de base, développé par le Dr Ryuji
Fukuda du Japon, est les diagrammes de cause à effet avec l'ajout de cartes, ou CEDAC.
La principale différence est que le groupe rassemble des idées en dehors de la salle de
réunion sur de petites cartes, ainsi que lors de réunions de groupe.
Les cartes servent également de véhicule pour recueillir les commentaires des personnes
qui ne font pas partie du groupe ; ils peuvent être distribués à toute personne impliquée
dans le processus. Souvent, les cartes fournissent plus d'informations que les brèves
entrées d'un diagramme de cause à effet standard. Le diagramme de cause à effet est
construit en plaçant réellement les cartes sur les branches.

Diagrammes de
dispersion Un diagramme de dispersion est un tracé d'une variable par rapport à une
autre : la variable indépendante est affichée sur l'axe horizontal (inférieur) ; la variable
dépendante est indiquée sur l'axe vertical (latéral).
Les diagrammes de dispersion sont utilisés pour évaluer la corrélation d'une variable
avec l'autre. La prémisse est que la variable indépendante provoque un changement
dans la variable dépendante, bien que la cause et l'effet à proprement parler ne puissent
pas être prouvés avec les seules statistiques. Les nuages de points sont utilisés pour
320
Figure
15.3
Diagramme
cause­
effet
de
la
classe
de
production
processus.
Réglage
excessif Souder
vague
Vague
inégale
Contam.
État
du
déflecteur
Convoyeur
vitesse
Localisation
en
multi
Fixation
appareil
de
scène
Hauteur
basse
Circuits
incohérents
aussi
Processus
Conseil
Haut
Contaminé près
de
la
lèvre
Flotteur
de
planche
sur
la
vague
Temp.
de
préchauffage
température
variable.
haut .
Oxydé
Fabrication Contaminé
Excessif
souffler
Voilé
pas
actif
Tête
inégale
Frottis
de
forage
Intervalle
de
remplacement
Sens
d'orientation
de
la
rainure
de
clavette
à
travers
la
vague Tête
basse
Erreur
d'enregistrement
Inconsistant
Flux
Placage
Conseil
Trou/
patin
Contamination
des
cartes
Masques
Manutention
Masque
Stockage
Sélection
de
l'installation
la
prise
de
Application
bande
Assemblée
Conseil La
répartition
du
poids
Emplacement
de
montage
Forme
de
prise
Dissipateur
de
chaleur
Plante
au
sol
Contaminé
Forme
Conception
installation
Plomb
coupé
et
clinch
Soudabilité
Emplacement Composants
Rapport
de
taille
Trou/
plomb
soudure
dans
le
trou
Pas
de
Machine Translated by Google
Machine Translated by Google

A nalyze S tag e 321

répondez à des questions telles que "La machine à matériaux du fournisseur A est­elle meilleure
que celle du fournisseur B ?" "Est­ce que la durée de la formation a quelque chose à voir avec
la quantité de ferraille qu'un opérateur fait ?" et ainsi de suite.

Comment construire un diagramme de dispersion

1. Rassemblez plusieurs séries d'observations appariées, de préférence 20 ou plus. Un


ensemble apparié est un ensemble où la variable dépendante peut être directement
liée à la variable indépendante.

2. Trouvez la plus grande et la plus petite variable indépendante et la plus grande et la


plus petite variable dépendante.
3. Construisez les axes vertical et horizontal de sorte que les valeurs les plus petites et
les plus grandes puissent être tracées.

4. Tracez les données en plaçant une marque au point correspondant à chaque paire X–
Y . Si plus d'une classification est utilisée, vous pouvez utiliser différents symboles
pour représenter chaque groupe.

Exemple de diagramme de dispersion. Le responsable du verger surveille au jour le jour le poids des pêches.
Les données sont collectées par paires comme indiqué dans le tableau 15.1, de sorte que pour chaque pêche
son poids et le nombre de jours sur l'arbre ont été enregistrés.

La variable indépendante, X, est le nombre de jours pendant lesquels le fruit a été sur
l'arbre. La variable dépendante, Y, est le poids de la pêche. Le diagramme de dispersion est
illustré à la Fig. 15.4.

Pointeurs pour l'utilisation des diagrammes de dispersion

•Les diagrammes de dispersion affichent différents modèles qui doivent être interprétés ;
La Fig. 15.5 fournit un guide d'interprétation du diagramme de dispersion.

•Assurez­vous que la variable indépendante, X, varie sur une plage suffisamment large.
Lorsque X n'est modifié que d'une petite quantité, vous pouvez ne pas voir de
corrélation avec Y même si la corrélation existe réellement.

• Si vous faites une prédiction pour Y pour une valeur X qui se situe en dehors de la
plage que vous avez testée, sachez que la prédiction est très discutable et doit être
testée de manière approfondie. La prédiction d'une valeur Y au­delà de la plage X
réellement testée s'appelle une extrapolation. •Gardez un œil

sur l'effet des variables non incluses dans l'analyse. Souvent, une variable non contrôlée
annulera l'effet de votre variable X. Il est également possible qu'une variable non
contrôlée soit à l'origine de l'effet et que vous confondiez la variable X que vous
contrôlez avec la véritable cause. Ce problème est beaucoup moins susceptible de
se produire si vous choisissez X niveaux au hasard. Nos pêches en sont un exemple.
Il est possible que n'importe quel nombre de variables ait changé
Machine Translated by Google

322 Amélioration continue

ID de données Jours sur l'arbre Poids (onces)


1 75 4.5
2 76 4.5
3 77 4.4
4 78 4.6
5 79 5.0
6 80 4.8
7 80 4.9
8 81 5.1
9 82 5.2
dix 82 5.2
11 83 5.5
12 84 5.4
13 85 5.5
14 85 5.5
15 86 5.6
16 87 5.7
17 88 5.8
18 89 5.8
19 90 6.0
20 90 6.1

(Pyzdek, 1990)

Tableau 15.1 Données brutes pour le diagramme de dispersion

Les jours passés sur les arbres sont­ils liés au poids


6.2

5.6

Lester

5.0

4.4
75 78 81 84 87 90
Jours sur les arbres

*
Fonction de régression : y = –3,847 + 0,110 X Régression : 1 (df) 4,907 (SS) 4,907 (MS)
Coefficient de corrélation : 0,980 Résiduel : 18 (df) 0,202 (SS) 0,011 (MS)
La fonction explique 96,038 % de la variation F : 436,296
Prob F : 0,000

Figure 15.4 Exemple de diagramme de dispersion.


Machine Translated by Google

A nalyze S tag e 323

Figure 15.5 Guide d'interprétation du diagramme de dispersion (Pyzdek, 1990).

régulièrement au cours de la période étudiée. Il est possible que ces variables, et


non la variable indépendante, soient responsables du gain de poids (par exemple,
des engrais ont­ils été ajoutés périodiquement au cours de la période étudiée ?). •
Méfiez­vous des données «
fortuites » ! Les données d'occurrence sont des données qui ont été collectées dans le
passé dans un but autre que la construction d'un diagramme de dispersion. Étant
donné que peu ou pas de contrôle a été exercé sur des variables importantes, vous
pouvez trouver presque n'importe quoi. Les données d'occurrence ne doivent être
utilisées que pour obtenir des idées pour une enquête plus approfondie, jamais
pour parvenir à des conclusions finales. Un problème courant avec les données de
hasard est que la variable qui est vraiment importante n'est pas enregistrée. Par
exemple, les enregistrements peuvent montrer une corrélation entre le taux de
défauts et le décalage. Cependant, la véritable cause des défauts est peut­être la
température ambiante, qui change également avec le changement.

•S'il existe plus d'une source possible pour la variable dépendante, essayez d'utiliser
différents symboles de traçage pour chaque source. Par exemple, si le gestionnaire
du verger savait que certaines pêches ont été prélevées sur des arbres situés à
proximité d'une autoroute très fréquentée, il pourrait utiliser un symbole différent
pour ces pêches. Il pourrait trouver une interaction; c'est­à­dire que les pêchers des
arbres situés près de l'autoroute ont peut­être un taux de croissance différent de
ceux des arbres situés au plus profond du verger. Cette technique est connue sous
le nom de stratification.
Machine Translated by Google

324 Amélioration continue

Bien qu'il soit possible de faire une analyse avancée sans tracer le diagramme de
dispersion, c'est généralement une mauvaise pratique. Cela passe à côté de l'énorme
opportunité d'apprentissage offerte par l'analyse graphique des données.

Déterminer les pilotes de processus


Les moteurs de processus font référence aux facteurs qui ont la plus grande influence sur
le processus. Pour tout processus métier, il y a probablement de nombreux facteurs qui
contribuent à la variation du processus. L'amélioration du processus nécessitera soit une
réduction de la variation du processus, soit un déplacement de la ligne médiane du
processus vers un réglage plus favorable. Dans les deux cas, se concentrer sur les moteurs
de processus clés facilitera cette amélioration.

Analyse de corrélation et de régression


L'analyse de corrélation (l'étude de la force des relations linéaires entre plusieurs variables)
et l'analyse de régression (modélisation de la relation entre une ou plusieurs variables
indépendantes et une variable dépendante) sont étroitement liées au diagramme de
dispersion. Un problème de régression considère les distributions de fréquence d'une
variable lorsqu'une autre est maintenue fixe à chacun de plusieurs niveaux. Un problème
de corrélation considère la variation conjointe de deux variables, dont aucune n'est limitée
par l'expérimentateur. Les analyses de corrélation et de régression sont conçues pour
aider l'ingénieur à étudier les causes et les effets. Ils peuvent être employés à toutes les
étapes du processus de résolution de problèmes et de planification. Bien sûr, les statistiques
ne peuvent pas à elles seules établir la cause et l'effet. Prouver la cause et l'effet nécessite
une solide compréhension scientifique de la situation actuelle.

Les méthodes statistiques décrites dans cette section aident à effectuer cette analyse.

Modèles linéaires. Un modèle linéaire simple est une expression mathématique de


l'association entre deux variables, x et y. Une relation linéaire signifie simplement
qu'un changement d'une taille donnée en x produit un changement proportionnel
en y. Les modèles linéaires ont la forme :

y = a + bx

où a et b sont des constantes. L'équation dit simplement que lorsque x change d'une unité,
y changera de b unités. Cette relation peut être représentée graphiquement.

Dans le diagramme de dispersion illustré à la Fig. 15.4, a = 3,847 et b = 0,110. Le


terme a est appelé l' ordonnée à l'origine et b est appelé la pente. Lorsque x = 0, y est égal
à l'ordonnée à l'origine.
De nombreux types d'associations ne sont pas linéaires. Par exemple, sur une plage
donnée de valeurs x , y peut augmenter, et pour d'autres valeurs x , y peut diminuer. Cette
relation curviligne est illustrée à la Fig. 15.6.
Machine Translated by Google

A nalyze S tag e 325

12

dix

Oui 6

0
0 1 2 3 4
X

Figure 15.6 Diagramme de dispersion d'une relation curviligne.

Dans ce cas, y augmente lorsque x est inférieur à 1 et diminue pour des valeurs
supérieures de x. Une grande variété de processus produisent de telles relations.
Une méthode courante pour analyser les réponses non linéaires consiste à diviser la
réponse en segments linéaires par morceaux, puis à analyser chaque élément
séparément. Par exemple, sur la Fig. 15.6, y est grossièrement linéaire et croissant sur
la plage 0 < x < 1 et grossièrement linéaire et décroissant sur la plage x > 1. Bien sûr, si
vous avez accès à un puissant logiciel statistique, non les formes linéaires peuvent être
analysées directement.
Lors de la réalisation d'une analyse de régression et de corrélation, nous pouvons
distinguer deux principaux types de variables. Un type que nous appelons variables
prédictives ou variables indépendantes ; l'autre, des variables de réponse ou des
variables dépendantes. Un prédicteur ou une variable indépendante peut soit être réglé
sur une variable souhaitée (par exemple, la température du four), soit prendre des
valeurs qui peuvent être observées mais non contrôlées (par exemple, l'humidité
ambiante extérieure). À la suite de modifications délibérément apportées ou simplement
apportées aux variables prédictives, un effet est transmis aux variables de réponse (par
exemple, la taille des grains d'un matériau composite). Nous sommes généralement
intéressés à découvrir comment les changements dans les variables prédictives
affectent les valeurs des variables de réponse. Idéalement, nous espérons qu'un petit
nombre de variables prédictives « expliqueront » presque toute la variation des variables de réponse.
En pratique, il est parfois difficile d'établir une distinction claire entre les variables
indépendantes et dépendantes. Dans de nombreux cas, cela dépend de l'objectif de
l'enquêteur. Par exemple, un ingénieur qualité peut traiter la température ambiante
comme une variable prédictive dans l'étude de la qualité de la peinture et comme la
variable de réponse dans une étude des particules de salle blanche. Cependant, les
définitions ci­dessus sont utiles pour planifier des études d'amélioration de la qualité.
Machine Translated by Google

326 Amélioration continue

12 dix

je II

dix 8

8 6

6 4

3 2
3 6 9 12 15 3 6 9 12 15

15 15

III IV

12 12

9 9

6 6

3 3
3 6 9 12 15 5 dix 15 20

Figure 15.7 Illustration de la valeur des diagrammes de dispersion (Tufte, 1983).

Bien que l'analyse numérique des données fournisse des informations précieuses,
elle doit toujours être complétée par une analyse graphique. Les diagrammes de
dispersion sont un complément très utile à l'analyse de régression et de corrélation. Les
quatre diagrammes de dispersion assez différents de la Fig. 15.7 illustrent l'intérêt de
compléter l'analyse numérique avec des diagrammes de dispersion, car les diagrammes
de dispersion ont des paramètres statistiques communs.
En d'autres termes, bien que les diagrammes de dispersion montrent clairement
quatre processus distincts, l'analyse statistique ne le fait pas. Dans un travail de qualité,
l'analyse numérique seule ne suffit pas.

Ajustement des
moindres carrés Si toutes les données tombaient sur une ligne parfaitement droite, il
serait facile de calculer la pente et l'ordonnée à partir de deux points. Cependant, la
situation se complique lorsqu'il y a « éparpillement » autour de la ligne. Autrement dit,
pour une valeur donnée de x, plusieurs valeurs de y apparaissent. Lorsque cela se
produit, nous avons une erreur dans le modèle. La figure 15.8 illustre le concept d'erreur.
Machine Translated by Google

A nalyze S tag e 327

25

Doubler

La ligne des moindres carrés est trouvée de sorte


que la somme des carrés de tous les lots les
20
écarts verticaux par rapport à la ligne soit
aussi petite que possible

15

Oui

Etc.
dix

Déviation #2
Déviation #3
5

Déviation #1

0
0 2 4 6 8 dix
X

Figure 15.8 Erreur dans le modèle linéaire.

Le modèle d'une régression linéaire simple avec erreur est :

y = a + bx + e

où e représente l'erreur. Généralement, en supposant que le modèle s'adapte de manière


adéquate aux données, les erreurs sont supposées suivre une distribution normale avec
une moyenne de 0 et un écart type constant. L'écart type des erreurs est appelé erreur
standard. Nous discutons des moyens de vérifier nos hypothèses sur l'erreur ci­dessous.

Lorsqu'une erreur se produit, comme c'est le cas dans presque toutes les situations du
"monde réel", il existe de nombreuses lignes possibles qui pourraient être utilisées pour
modéliser les données. Il faut trouver une méthode qui fournisse, dans un certain sens, une
équation « la mieux adaptée » à ces situations quotidiennes. Les statisticiens ont développé
un grand nombre de ces méthodes. La méthode la plus couramment utilisée trouve la ligne
droite qui minimise la somme des carrés des erreurs pour tous les points de données. Cette
méthode est connue sous le nom de droite de meilleur ajustement des «moindres carrés».
'
En d'autres termes, l'équation de droite la mieux ajustée des moindres carrés est yi = a +
bx, où a et b sont trouvés de sorte que la somme des écarts au carré par rapport à la droite
soit minimisée. La plupart des feuilles de calcul et des calculatrices scientifiques ont une
capacité intégrée pour calculer a et b.
Cette discussion montre comment une seule variable indépendante est utilisée pour
modéliser la réponse d'une variable dépendante. C'est ce qu'on appelle la régression
linéaire simple. Il est également possible de modéliser la variable dépendante en termes de
deux variables indépendantes ou plus ; c'est ce qu'on appelle la régression linéaire multiple.
Machine Translated by Google

328 Amélioration continue

Le modèle mathématique de la régression linéaire multiple comporte des termes supplémentaires


pour les variables indépendantes supplémentaires, par exemple :

y = b0 + b1 x1 + b2 x2 + e

où y est la variable dépendante, x1 et x2 sont des variables indépendantes, b0 est l'ordonnée à


l'origine, b1 est le coefficient pour x1 , b2 est le coefficient pour x2 et e est l'erreur. D'autres
variables peuvent être ajoutées au modèle si nécessaire.

Exemple. Un restaurant a mené des enquêtes auprès de 42 clients, obtenant des


évaluations des clients sur le service du personnel, la qualité de la nourriture et la
satisfaction globale de leur visite au restaurant. La figure 15.9 montre le résultat de
l'analyse de régression d'une fonction de régression de feuille de calcul.
Les données se composent de deux variables indépendantes, la qualité du personnel et de
la nourriture, et d'une seule variable dépendante, la satisfaction globale. La prémisse de base
est que la qualité du service du personnel et de la nourriture sont des causes et que le score
global de satisfaction est un effet.

Interprétation de la sortie informatique pour l'analyse de régression


La sortie de la régression est interprétée comme suit :

Multiple R. Le coefficient de corrélation multiple. C'est la corrélation entre y (satisfaction


réelle) et y' (satisfaction estimée à partir du modèle). Pour l'exemple, multiple R = 0,847, ce
qui indique que y et y' sont fortement corrélés, ce qui implique qu'il existe une association
entre la satisfaction globale et la qualité de la nourriture et du service.

Figure 15.9 Sortie de l'analyse de régression Microsoft Excel.


Machine Translated by Google

A nalyze S tag e 329

R Carré. Le carré du multiple R, il mesure la proportion de variation totale autour de la


moyenne expliquée par la régression. Pour l'exemple, R2 = 0,717, ce qui indique que
l'équation ajustée explique 71,7 % de la variation totale du niveau de satisfaction moyen.

Carré R ajusté. Une mesure de R2 "ajustée pour les degrés de liberté", qui est
nécessaire lorsqu'il y a plus d'une variable indépendante.
Erreur standard. L'écart type des résidus. Le résidu est la différence entre la valeur
observée de y et la valeur prédite y' basée sur l'équation de régression.

Observations. Reportez­vous au nombre de cas dans l'analyse de régression, ou n.


ANOVA, ou analyse de la variance. Un tableau examinant l'hypothèse selon laquelle la
variation expliquée par l'ensemble de la régression est nulle. Si tel est le cas, alors
l'association observée pourrait s'expliquer par le seul hasard. Les lignes et les colonnes
sont celles d'un tableau standard d'ANOVA à un facteur.
Pour cet exemple, l'élément important est la colonne intitulée « Signification F ». La
valeur indiquée, 0,00, indique que la probabilité d'obtenir ces résultats uniquement par
hasard est inférieure à 0,01 ; c'est­à­dire que l'association n'est probablement pas due
au seul hasard. Notez que l'ANOVA s'applique à l'ensemble du modèle, et non aux
variables individuelles. En d'autres termes, l'ANOVA teste l'hypothèse selon laquelle le
pouvoir explicatif de toutes les variables indépendantes combinées est nul.

Le tableau suivant de la sortie examine chacun des termes du modèle linéaire


séparément. L' interception est telle que décrite ci­dessus ; il correspond à notre terme a
dans l'équation linéaire. Notre modèle utilise deux variables indépendantes.
Dans notre terminologie, staff = b1 , food = b2 . Ainsi, en lisant la colonne des coefficients ,
le modèle linéaire est :

Satisfaction = –1,188 + 0,902 * personnel + 0,379 * nourriture + erreur

Les colonnes restantes testent les hypothèses selon lesquelles chaque coefficient du
modèle est en fait égal à zéro.

Colonne d'erreur standard. Donne les écarts types de chaque terme, c'est­à­dire l'écart
type de l'ordonnée à l'origine = 0,565, etc. t Colonne Stat. Le
coefficient divisé par la statistique t ; c'est­à­dire qu'il montre de combien d'écarts types
le coefficient observé est à partir de zéro.
Valeur P. Affiche la zone dans la queue d'une distribution t au­delà de la valeur t
calculée . Pour la plupart des travaux expérimentaux, une valeur P inférieure à 0,05 est
acceptée comme une indication que le coefficient est significativement différent
à partir de zéro.

Colonnes inférieure 95 % et supérieure 95 %. Un intervalle de confiance de 95 % sur le


coefficient. Si l'intervalle de confiance ne comprend pas zéro, nous rejetterons
l'hypothèse que le coefficient est nul.
Machine Translated by Google

330 Amélioration continue

Analyse des résidus


L'expérimentateur doit examiner attentivement les résidus. Les résidus représentent
la variation « restante » après soustraction de la variation expliquée par le modèle.
L'examen des résidus est fait pour répondre à la question « Qu'est­ce qui pourrait
expliquer le reste de la variation ? Des indices potentiels de la réponse pourraient
survenir si un modèle peut être détecté. Par exemple, l'expérimentateur peut
remarquer que les résidus ont tendance à être associés à certaines conditions
expérimentales, ou ils peuvent augmenter ou diminuer avec le temps. D'autres
indices pourraient être obtenus si certains résidus sont des valeurs aberrantes, c'est­
à­dire des erreurs beaucoup plus importantes que ce à quoi on s'attendrait du seul
hasard. Les résidus qui présentent des modèles ou qui contiennent des valeurs
aberrantes sont la preuve que le modèle linéaire est incorrect. Il y a plusieurs raisons pour lesquelles c
La réponse peut être non linéaire. Le modèle peut omettre des variables importantes.
Ou, nos hypothèses peuvent ne pas être valides.
Il existe quatre façons courantes de tracer les résidus :

1. Dans l'ensemble

2. Dans l'ordre du temps (si l'ordre est connu)


3. Par rapport aux valeurs prédites
4. Par rapport aux variables indépendantes

Parcelle globale des résidus. Lorsque les hypothèses sont correctes, nous
nous attendons à voir des résidus qui suivent une distribution
approximativement normale avec une moyenne nulle. Un tracé global des
résidus, tel qu'un histogramme, peut être utilisé pour évaluer cela. Il est
souvent utile de tracer des résidus standardisés plutôt que des résidus réels.
Les résidus standardisés sont obtenus en divisant chaque résidu par l'erreur
type ; le résultat est le résidu exprimé en écarts types. Les résidus
standardisés doivent ensuite être tracés sur un graphique de probabilité normale pour vérifier
Lors de l'exécution des trois autres types d'analyse de la liste, l'expérimentateur
doit rechercher tout caractère non aléatoire dans les modèles. La figure 15.10 illustre
certains modèles courants de comportement des résidus.
Le modèle #1 est l'impression générale qui sera transmise lorsque le modèle
s'adapte de manière satisfaisante. Le motif #2 indique que la taille du résidu augmente
en fonction du temps ou de la valeur de la variable indépendante.
Cela suggère la nécessité d'effectuer une transformation des valeurs de y avant
d'effectuer l'analyse de régression. Le modèle #3 indique que l'effet linéaire de la
variable indépendante n'a pas été supprimé, peut­être en raison d'une erreur de
calcul. Le motif #4 apparaît lorsqu'un modèle linéaire est ajusté à des données
curvilignes. La solution consiste à effectuer une transformation linéarisante des y ou
à ajuster le modèle non linéaire approprié.
En plus de ce qui précède, l'analyste doit toujours apporter sa connaissance du
processus pour résoudre le problème. Les motifs peuvent devenir
Machine Translated by Google

A nalyze S tag e 331

Figure 15.10 Motifs résiduels.

évident lorsque les résidus sont liés à des lois scientifiques connues, même s'ils ne sont
pas évidents en utilisant uniquement des règles statistiques. Cela est particulièrement vrai
lors de l'analyse des valeurs aberrantes, c'est­à­dire des résidus standardisés supérieurs
à 2,5 environ.

Expériences conçues Bien


que l'exploration de données puisse être utilisée à diverses fins, notamment pour
comprendre les habitudes d'achat et identifier les principaux facteurs influençant les coûts
et la rentabilité, elle ne peut pas correctement confirmer les causes et les effets.
L'exploration de données fournit une vue des relations apparemment complexes entre les
nombreux facteurs qui peuvent affecter les résultats, mais ces modèles ne sont que de
simples soupçons qui peuvent devenir la base d'une activité de projet supplémentaire.
En soi, une analyse d'exploration de données est constituée des données de hasard mentionnées
précédemment (dans la discussion sur le diagramme de dispersion).
L'outil approprié pour collecter des données utiles pour l'analyse de corrélation et de
régression est l'expérience conçue. Une équipe de projet réfléchit pour produire une liste
des facteurs de processus potentiels. À partir de cette longue liste, l'équipe sélectionne
cinq à sept facteurs à inclure dans l'expérience. S'il s'avère qu'un facteur important n'a pas
été inclus, la régression inclura un grand terme d'erreur dans le modèle et la valeur R­
carré sera faible.
Une fois les facteurs déterminés, l'équipe mènera une expérience en faisant varier
chacun des facteurs (c'est­à­dire les variables indépendantes), en déplaçant plusieurs à la
fois, sur une large plage et en mesurant la réponse (ou les réponses, c'est­à­dire les
variables dépendantes ) du processus. En manipulant les facteurs sur une large plage, ils
ont les meilleures chances de détecter un changement dans la réponse qui pourrait être
autrement trop subtil pour être détecté.
Ils utilisent ensuite les techniques de régression multiple pour estimer l'effet de chaque
facteur, ainsi que les interactions entre les facteurs sélectionnés.
Une expérience conçue diffère de l'expérience traditionnelle que beaucoup d'entre
nous ont apprise à l'école primaire. Dans l'expérience traditionnelle, un facteur est
Machine Translated by Google

332 Amélioration continue

Procès Temps d'un cycle Taper Méthode Score

1 Faible Générique E­mail 35

2 Haut Générique E­mail 21

3 Faible Personnel E­mail 28

4 Faible Générique Téléphone 27

Tableau 15.2 Schéma de collecte de données un facteur à la fois

varié à la fois pour estimer son effet. Le tableau 15.2 répertorie trois facteurs, avec deux
paramètres possibles pour chacun :

• Temps de cycle de réponse [faible, élevé]


• Type de réponse personnalisée [générique ou personnelle] •
Méthode de réponse [e­mail ou téléphone] •
Une condition de référence initiale est prise en mesurant la réponse [score de
satisfaction client] lorsque chacun des facteurs est défini sur son faible niveau. Un
second essai est ensuite exécuté pour estimer l'effet du premier facteur : le temps
de cycle de réponse. La différence entre la réponse de l'essai 2 et la ligne de base
(essai 1) est supposée être l'effet du facteur varié. Dans ce cas, il apparaît que
l'augmentation du temps de cycle de réponse de faible à élevé entraîne une
diminution de la satisfaction client de 14 unités.

De même, l'effet d'un type de réponse personnalisé peut être estimé en comparant
l'essai 3 à l'essai 1 ; l'effet de la méthode de réponse est estimé en comparant l'essai 4 à
l'essai 1. De cette façon, l'effet de la réponse personnalisée est estimé comme une
diminution de la satisfaction client de 7 unités, et l'effet du téléphone par rapport à l'email
comme une diminution de 8 unités dans le score de satisfaction client.

Sur la base de ces observations, la satisfaction client peut être maximisée en fixant les
facteurs suivants : temps de cycle : faible ; réponse personnalisée : générique ; type de
réponse : e­mail.
Le problème avec cette expérience traditionnelle d'un facteur à la fois est qu'elle ignore
l'effet des interactions. La figure 15.11 affiche les résultats d'une expérience conçue du
même processus. Vous pouvez voir qu'au paramètre de temps de cycle élevé (indiqué par
la ligne intitulée 330 000), le score de satisfaction de 21,0 a été observé lorsque le type de
réponse est défini sur la condition générique (pas de réponse personnelle). C'est l'essai 2 ci­
dessus, et il est encerclé sur le graphique. L'essai 3 est indiqué sur la ligne étiquetée 210
000 à la condition de réponse personnelle oui .

Sur la ligne de temps du cycle de réponse 210.000, passant de pas de réponse


personnalisée à oui réponse personnalisée (de gauche à droite le long de la ligne), il y a
très peu de changement dans le score de satisfaction client. Autrement dit, il y avait
Machine Translated by Google

A nalyze S tag e 333

Scores de satisfaction client Réponse


personnelle par rapport à la durée du cycle d'interaction

Temps de
37,0 cycle 330.000

33,0

satisfaction
signifie
score
de
Le
29,0 210.000

25,0

21.0

Non Oui

Réponse personnelle

Figure 15.11 Résultats d'une expérience conçue pour estimer l'interaction entre la réponse
personnelle et les facteurs de temps de cycle.

aucune différence observée entre la réponse personnalisée et la réponse générique à ce


niveau de temps de cycle de réponse.
Sur la ligne de temps du cycle de réponse 330 000, passant de pas de réponse
personnalisée à oui réponse personnalisée (de gauche à droite le long de la ligne), il y a
un très grand changement dans le score de satisfaction client. Cela implique que la
réponse personnalisée contribue de manière significative à la variation du score de
satisfaction client, mais apparemment uniquement au niveau le plus bas (210) du temps de cycle de réponse
L'implication est que l'estimation de l'effet de la réponse personnalisée change selon
que les effets sont mesurés à faible temps de cycle ou à temps de cycle élevé. Cela met
en évidence une interaction entre la réponse personnalisée et le temps de cycle.

Lorsque les interactions sont ignorées, des résultats aléatoires peuvent être obtenus
à partir d'efforts d'amélioration :

•Un facteur peut sembler sans importance si les facteurs en interaction ne sont pas
modifiés en même temps, comme le montre l'exemple.
• Un effort d'amélioration de processus peut n'atteindre les résultats souhaités que
pendant un certain temps (tant que les facteurs en interaction restent constants).
Si nous ne modifions pas les bons facteurs, il semble qu'une amélioration ait été
apportée, mais elle disparaît ensuite. Cela peut se produire lorsqu'il y a un autre
facteur présent qui n'a pas été inclus dans l'expérience. •L'effet d'un facteur
peut être minimisé en réduisant la variation d'un autre. Il s'agit de l'approche Taguchi
de la conception robuste, et peut être vue en regardant l'exemple précédent d'une
manière légèrement différente. Étant donné que l'effet de la réponse personnalisée
était négligeable à des temps de cycle de réponse faibles, si le temps de cycle
de réponse est maintenu près de son réglage bas, les modifications de la réponse
personnalisée ne feraient pas beaucoup de différence.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 16

Étape d'amélioration/de conception


Machine Translated by Google
Machine Translated by Google

Les objectifs de l'étape Améliorer/Concevoir comprennent (Keller, 2011a) :

•Proposer une ou plusieurs solutions à sponsoriser ; quantifier les avantages de chacun ; parvenir à
un consensus sur la solution et la mettre en œuvre. • Définir

et atténuer les modes de défaillance pour les nouveaux processus/conception ; définir


nouvelles conditions d'exploitation/de conception.

L'étape Améliorer implique le déploiement de méthodes pour combler l'écart entre l'état actuel du
processus et l'état souhaité. Les méthodes mises en œuvre doivent également être vérifiées à cette étape
pour s'assurer que les effets souhaités sont atteints et peuvent être maintenus.

Cette étape est celle où le caoutchouc rencontre la route, car elle définit les améliorations et les
réductions de coûts qui soutiennent le programme. En tant que tel, c'est généralement le point de départ
ou d'arrêt, obligeant l'équipe à considérer l'inconsidérable et à devenir de véritables agents de changement.
Le soutien de la direction à ce stade est essentiel.
Au niveau de l'entreprise, des changements à l'échelle du système en résultent. Cela pourrait inclure
des changements de politique, le déploiement de mécanismes de rétroaction des clients, des modifications
des systèmes comptables pour suivre les coûts de qualité et les avantages des améliorations, la mise en
œuvre de systèmes informatisés pour gérer les commandes, et même l'élimination de systèmes compliqués
qui promettaient une amélioration mais offraient des temps de cycle accrus et/ ou des frais.

Au niveau du processus, des expériences conçues sont menées pour déterminer les réglages des
facteurs de processus qui améliorent la capacité du processus, entraînant une réduction des défauts et
des rendements accrus. Les processus sont repensés, parfois même supprimés, à la recherche
d'améliorations des performances en termes de qualité, de coût et de planification.

À tous les niveaux, les améliorations les meilleures et les plus durables sont obtenues lorsque des
facteurs sont identifiés qui prédisent les résultats futurs. Ces facteurs critiques peuvent alors être contrôlés
pour prévenir les problèmes avant qu'ils ne surviennent.

Définir de nouvelles conditions d'exploitation/de conception


Les organigrammes et les cartes de processus introduits dans l'étape Définir sont utiles maintenant pour
développer le flux et les responsabilités du nouveau processus. Des conceptions expérimentales
supplémentaires peuvent également être réalisées pour déterminer les conditions de fonctionnement
optimales qui maximisent ou minimisent la réponse (selon ce qui est souhaitable). 337
Machine Translated by Google

338 Amélioration continue


Les outils Lean pour réduire ou éliminer les activités sans valeur ajoutée, y compris les
mouvements inutiles de personnel ou de matériel, sont également déployés à ce moment.

Les temps de cycle peuvent être améliorés en réduisant les mouvements de personnel
ou de matériel, affectant l'espace physique dans lequel le processus se déroule : les bureaux
peuvent être repensés, les départements déplacés ou réaffectés, voire des usines entières
rapprochées de leurs clients. L'analyse des mouvements est facilitée par l'utilisation de
diagrammes spaghetti. L'application des outils 5S crée les conditions nécessaires pour
réduire les mouvements de matériel et de personnel. Les résultats de la réduction de l'espace
incluent :

• Diminution de la distance entre le « fournisseur » et le « client ». Les fournisseurs et


les clients internes et externes sont touchés. Cette relocalisation réduit les pertes de
mouvement inutile de matériel et le temps d'attente pour le matériel.

• Moins de départementalisation, plus de cellules de travail multifonctions. Dans les


murs de l'entreprise, vous pouvez réaffecter des individus afin qu'ils travaillent dans
des cellules de travail multifonctionnelles, plutôt que dans des départements fonctionnels.
Cela améliore le déroulement du processus, de sorte que le travail n'est pas regroupé
dans chaque département. L'approche de la cellule de travail, dans laquelle chaque
étape du processus est proche de sa prochaine étape, augmente également la
visibilité des problèmes lorsque l'élément passe d'une étape du processus à la
suivante.

• Réduction des frais généraux et réduction du besoin de nouvelles installations. Comme l'espace
est utilisé plus efficacement, les frais généraux sont réduits, tout comme le besoin de nouvelles
installations à mesure que de nouveaux équipements sont mis en place.

La réduction des mouvements inutiles intègre un concept Lean connu sous le nom de 5S,
qui vient des mots japonais utilisés pour créer l'organisation et la propreté sur le lieu de travail
[Seiri (organisation), Sieton (propreté), Seiso (pureté), Seiketsu (propreté), Shitsuke
(discipline )]. Les 5S traditionnels ont été traduits dans les 5S suivants, qui sont peut­être de
meilleures définitions pour les organisations anglophones (ReVelle, 2000) :

• Trier. Éliminer tout ce qui n'est pas nécessaire.

• Redressez. Organisez ce qui reste. • Brillance.


Nettoyez la zone de travail.

• Normaliser. Planifiez un nettoyage et un entretien réguliers. • Maintenir.


Faire du 5S un mode de vie.

Les méthodes Lean pour la réduction de configuration et le chargement de niveau sont


utiles pour améliorer les délais et les temps de cycle. Analyse des temps de mise en place,
et catégorisation des activités en interne ou externe, et en préparation, remplacement,
Machine Translated by Google

A méliorer / S tag e de conception 339

l'emplacement ou l'ajustement (tel que discuté dans l'étape d'analyse, chap. 15) fournira une contribution
précieuse aux activités de l'étape d'amélioration. Les conditions préalables pour que le chargement de
niveau soit complètement réussi incluent :

• Normalisation des instructions de travail et formation polyvalente, afin que les employés puissent
être déplacés pour répondre à une demande accrue ou résoudre des problèmes de processus.
Une stratégie clé pour éliminer les barrières et créer un flux continu consiste à reconcevoir le
flux de processus dans les cellules de travail des produits. Dans les cellules de travail produit,
toutes les fonctions travaillent ensemble dans une seule cellule soudée, plutôt que dans
différents départements. Ces cellules peuvent être définies par produit ou par familles de
produits similaires.
Les cellules de produit diminuent le mouvement physique des marchandises (qu'il s'agisse d'un
produit physique, de documents ou même d'idées). Cela réduit non seulement le gaspillage
d'attente, mais permet également aux personnes effectuant chacune des tâches d'avoir une
visibilité sur les tâches, ainsi que sur les ralentissements, les obstacles ou les inefficacités qui
se produisent dans les étapes précédentes ou suivantes. Des instructions de travail
standardisées, avec des coûts de processus et des indicateurs de mesure, sont affichées bien
en vue. Des indicateurs d'état sont utilisés pour que tous les travailleurs puissent facilement voir
si des ralentissements se produisent. Les instructions de travail sont standardisées afin que des
collègues puissent remplacer un travailleur absent un jour donné. Poka yoke (anti­erreur) est

utilisé pour minimiser les erreurs.

• Transparence. Les travailleurs doivent être informés dès que possible des changements dans la
demande ou des problèmes de processus. Créer une visibilité des travaux en cours (WIP).
Lorsque nous voyons où cela se produit principalement, nous avons identifié des goulots
d'étranglement dans le processus. En forçant l'élimination de cet inventaire, nous pouvons
déterminer et résoudre les causes profondes de l'accumulation des stocks.

Enfin, le WIP est réduit lorsque nous pouvons passer de processus par lots à un flux continu d'unités
de produit ou de service individuelles. "Commencer un élément, terminer un élément" est le mantra. Nous
allons maintenant examiner certains des problèmes associés aux lots et les raisons pour lesquelles nous
traitons par lots, afin que nous puissions comprendre comment s'éloigner de cette pratique.

Une approche en quatre étapes est recommandée pour réduire les temps de configuration (George,
2002) :

1. Classez chaque étape de configuration comme interne ou externe. Les étapes internes sont
celles effectuées pendant que le processus est inactif. Les étapes externes sont effectuées
pendant que le processus est en cours d'exécution.

2. Convertissez les étapes internes en étapes externes. Nous voulons réduire le temps pendant
lequel le processus est non opérationnel, nous devons donc réduire le temps associé aux
étapes internes. Le moyen le plus rapide de le faire est de suivre autant de ces étapes que
possible pendant que le processus est opérationnel.
Machine Translated by Google

340 Amélioration continue

Par exemple, si nous pouvons collecter l'argent des clients pendant la cuisson de leurs
hamburgers, le temps de cycle total est réduit.

3. Réduisez le temps pour les étapes internes restantes. Certaines étapes internes ne
peuvent pas être effectuées pendant que le processus est opérationnel. Nous voulons
maintenant nous concentrer sur la réduction du temps requis pour terminer les étapes
qui nécessitent de retarder le processus. Par exemple, étant donné que les hamburgers
ne peuvent pas être cuits tant que nous ne savons pas ce que le client veut commander,
nous essaierons de réduire le temps nécessaire pour passer la commande du client.

4. Éliminez les ajustements. Les ajustements, comme indiqué dans l'étape d'analyse,
peuvent être réduits grâce à un contrôle efficace du processus. Des expériences
conçues peuvent être utilisées pour comprendre les causes de la variation du processus
qui précèdent l'ajustement.

Définir et atténuer les modes de défaillance Une fois le


flux de processus établi, il peut être évalué pour ses modes de défaillance. La compréhension des
modes de défaillance des processus nous permet de définir des stratégies d'atténuation pour
minimiser l'impact ou l'occurrence des défaillances. Ces stratégies d'atténuation peuvent entraîner
de nouvelles étapes de processus, des paramètres de processus optimaux ou des stratégies de
contrôle de processus pour éviter les défaillances. Dans certains cas, où la défaillance ne peut pas
être économiquement évitée, une stratégie peut être développée pour minimiser l'occurrence de
la défaillance et contenir les dommages.
Les diagrammes de cause à effet discutés dans l'étape d'analyse sont à nouveau utiles pour
réfléchir aux causes potentielles des échecs. Cette activité de remue­méninges fournira les
données nécessaires pour traiter les diagrammes de programme de décision et l'analyse des
modes de défaillance et des effets.

Diagramme de programme de décision de


processus Le diagramme de programme de décision de processus (PDPC) est une technique
pour préparer des plans d'urgence. Il s'agit d'une version simplifiée des méthodes d'ingénierie de
la fiabilité du mode de défaillance, des effets et de l'analyse de la criticité (FMECA) et de l'analyse
de l'arbre de défaillance (discutées plus loin dans ce chapitre). PDPC cherche à décrire les actions
spécifiques à prendre pour empêcher les problèmes de se produire et pour atténuer l'impact des
problèmes s'ils se produisent. Une amélioration du PDPC classique consiste à attribuer des
probabilités subjectives aux divers problèmes et à les utiliser pour faciliter l'attribution des priorités.
Chiffre. 16.1 montre un PDPC.

Prévention des pannes De


nombreuses pannes sont dues à une erreur humaine, en particulier dans les processus de service.
Bien que l'échec puisse résulter d'une erreur humaine, cela n'implique pas nécessairement que les
solutions au niveau du processus ou du système n'aient pas pu empêcher son apparition. En
d'autres termes, se concentrer sur la performance (ou le manque de performance) des individus
ne produira pas d'amélioration.
Machine Translated by Google

A méliorer / S tag e de conception 341

Figure 16.1 Exemple de PDPC (Pyzdek et Keller, 2010).

Il existe trois grandes catégories d'erreurs humaines : les erreurs par inadvertance,
erreurs techniques et erreurs volontaires.

Erreurs involontaires De

nombreuses erreurs humaines se produisent en raison d'un manque d'attention. Les gens sont connus
pour leur propension à commettre ce type d'erreur. Les erreurs involontaires ont certaines caractéristiques :

•Il n'y a généralement aucune connaissance préalable qu'une erreur est imminente. •L'incidence

des erreurs est relativement faible. C'est­à­dire que la tâche est


normalement effectuée sans erreur.

•La survenue d'erreurs est aléatoire, au sens statistique.

Des exemples d'erreurs involontaires ne sont pas difficiles à trouver. C'est le type d'erreur que nous
commettons tous dans la vie de tous les jours lorsque nous constatons une erreur dans l'équilibrage du
chéquier, ratons un virage sur un itinéraire fréquemment parcouru, composons un mauvais numéro au
téléphone ou oublions de payer une facture. À la maison, ces choses peuvent être négligées, mais dans
les affaires, elles peuvent avoir des coûts importants et contribuer au gaspillage des ressources.

Prévenir les erreurs involontaires peut sembler une tâche impossible. En effet, ces erreurs sont parmi
les plus difficiles à éliminer. À mesure que le taux d'erreur devient petit, l'effort d'amélioration devient plus
difficile. Pourtant, dans la plupart des cas, il est possible d'apporter des améliorations substantielles de
manière économique. Parfois, il est même possible d'éliminer complètement les erreurs.

Une façon de traiter les erreurs par inadvertance est le détrompage, également connu sous le nom
de poka yoke. Le détrompage consiste à modifier la conception d'un processus ou d'un produit pour
rendre la commission d'une erreur humaine particulière
Machine Translated by Google

342 Amélioration continue

impossible. Par exemple, une entreprise rencontrait un problème sporadique (remarque :


les mots « problème sporadique » devraient vous signaler qu'une erreur humaine
involontaire est probable !) avec des défauts sur les circuits imprimés. Il semble que
parfois des commandes entières aient été perdues parce que les circuits imprimés étaient
mal percés. Une étude a révélé que ce problème survenait parce que les circuits imprimés
pouvaient être montés à l'envers sur une perceuse automatique à moins que la procédure
de fabrication ne soit suivie attentivement. La plupart du temps, il n'y avait pas de
problème, mais à mesure que les gens devenaient plus expérimentés avec les exercices,
ils devenaient parfois négligents. Le problème a été résolu en ajoutant un trou
supplémentaire dans une zone inutilisée du panneau de circuit imprimé, puis en ajoutant
une goupille au dispositif de perçage. Si la carte était mal montée, la goupille ne passerait
pas par le trou. Résultat : plus de commandes perdues. Cela ne se reproduirait jamais car
cela ne pourrait plus jamais se reproduire.
Une autre méthode de réduction des erreurs humaines est l'automatisation. Les gens
ont tendance à commettre plus d'erreurs lorsqu'ils travaillent sur des tâches ennuyeuses
et répétitives ou lorsqu'ils travaillent dans des environnements désagréables (par exemple,
en raison de la chaleur, des odeurs, du bruit, des fumées, etc.). L'automatisation est très
bien adaptée à ce type de travail. Une tâche très compliquée pour une machine normale
devient une simple tâche répétitive pour un robot. L'élimination des erreurs est l'une des
justifications d'un investissement dans les robots. À un niveau plus banal, des types
d'automatisation plus simples tels que les centres d'usinage à commande numérique
produisent souvent une réduction des erreurs humaines.
Une autre approche du problème de l'erreur humaine est l'ergonomie ou l'ingénierie
des facteurs humains. De nombreuses erreurs peuvent être évitées grâce à l'application
de principes d'ingénierie à la conception de produits, de processus et de lieux de travail.
En évaluant des éléments tels que les sièges, l'éclairage, les niveaux sonores, les
changements de température, la disposition des postes de travail, etc., l'environnement
peut souvent être amélioré et les erreurs réduites. Parfois, l'ingénierie des facteurs
humains peut être combinée avec l'automatisation pour réduire les erreurs. Cela implique
une inspection automatique et l'utilisation d'alarmes (lumières, buzzers, etc.) qui avertissent
l'employé lorsqu'il commet une erreur. Cette approche est souvent considérablement
moins coûteuse que l'automatisation complète.

Erreurs techniques
Comme exemple d'erreurs techniques, considérez le problème réel suivant avec les
carters de boîte de vitesses. Les boîtiers étaient des pièces moulées en fonte grise et le
problème était des fissures. Le fournisseur a été mis au courant du problème et son équipe
de métallurgistes et d'ingénieurs a travaillé longuement et durement sur le problème, mais
en vain. Finalement, en désespoir de cause, le client s'est assis avec le fournisseur pour
mettre sur pied un plan « de dernière minute ». Si le plan échouait, le client serait obligé
d'essayer une source alternative pour le casting.
Comme on pouvait s'y attendre, le plan était grandiose. L'équipe a identifié de
nombreuses variables importantes dans le produit, le processus et les matières premières.
Chaque variable a été classée comme une « variable de contrôle », qui serait
Machine Translated by Google

A méliorer / S tag e de conception 343

maintenue constante, ou une "variable expérimentale", qui serait modifiée d'une manière
prescrite. Les résultats de l'expérience devaient être analysés en utilisant tout le muscle d'un
important progiciel d'analyse statistique sur ordinateur central. Tous les membres de l'équipe
étaient convaincus que rien n'avait été laissé au hasard.

Peu de temps après le début du programme, le superviseur de l'ingénierie qualité du


client a reçu un appel de son représentant de l'ingénierie qualité à la fonderie du fournisseur.
"Nous pouvons continuer l'expérience si vous le voulez vraiment", a­t­il dit, "mais je pense
que nous avons identifié le problème et qu'il ne figure pas sur notre liste de variables." Il
semble que l'ingénieur était dans la salle d'inspection en train d'inspecter les pièces moulées
pour notre projet et il a remarqué un fort "bruit de cliquetis" dans la pièce voisine. Le cliquetis
ne se produisait que quelques fois par jour, mais l'ingénieur a vite remarqué que les
moulages fissurés venaient peu de temps après le début du cliquetis. Finalement, il a
enquêté et a découvert que le bruit sourd provenait d'un employé de relève martelant le
moulage avec un marteau pour enlever le noyau de sable. Effectivement, les pièces moulées
fissurées avaient toutes reçu le « traitement au marteau » !

Cet exemple illustre une catégorie d'erreur humaine différente des erreurs par
inadvertance décrites précédemment. Les erreurs techniques partagent certaines
caractéristiques communes :

•Ils ne sont pas intentionnels. •


Ils se limitent généralement à une seule caractéristique (par exemple, des fissures) ou
classe de caractéristiques.

•Ils sont souvent isolés de quelques travailleurs qui échouent constamment.

La résolution des erreurs techniques implique les mêmes approches de base que la
résolution des erreurs par inadvertance, à savoir l'automatisation, le détrompage et
l'ingénierie du facteur humain. En attendant, contrairement aux erreurs involontaires, les
erreurs techniques peuvent être causées par un simple manque de compréhension qui peut
être corrigé en développant de meilleures instructions et une meilleure formation.

Erreurs volontaires (sabotage)


Cette catégorie d'erreur ne ressemble à aucune des deux catégories précédentes. Les
erreurs volontaires sont souvent très difficiles à détecter ; cependant, ils portent certains
marques :

•Ils ne sont pas aléatoires. •Ils


n'ont pas « de sens » d'un point de vue technique. •Ils sont difficiles à détecter.
•En général, un seul travailleur est
impliqué. •Ils commencent immédiatement. •Ils ne se
produisent pas lorsqu'un
observateur est présent.
Machine Translated by Google

344 Amélioration continue

Un autre exemple concret peut être utile. Un ensemble électromécanique s'est soudainement
mis à tomber en panne sur du matériel agricole. L'examen des pannes a révélé que le fil avait été
rompu à l'intérieur de l'isolant. Cependant, la continuité des assemblages a été vérifiée à 100 % après
l'installation du fil et le circuit ouvert aurait dû être découvert par le test. Après une longue et difficile
enquête, aucune solution n'avait été trouvée. Cependant, le problème avait disparu et ne revenait
jamais.

Environ un an plus tard, l'ingénieur qualité se trouvait à une fête d'entreprise lorsqu'un travailleur
l'a approché. Le travailleur a déclaré qu'il connaissait la réponse au désormais tristement célèbre
«mystère du fil brisé», comme on l'appelait maintenant. Le problème a été causé, a­t­il dit, lorsqu'un
employé stagiaire nouvellement embauché a reçu son préavis de deux semaines. L'employé a décidé
de se venger en sabotant le produit. Il l'a fait en cassant soigneusement le fil, mais pas l'isolant, puis
en poussant les sections cassées ensemble pour que l'assemblage réussisse le test. Cependant, sur
le terrain, la rupture se séparerait même, entraînant un échec. Plus tard, l'ingénieur qualité a vérifié
les dates de fabrication et a constaté que chaque assemblage défectueux avait été effectué au
cours des deux semaines précédant la date de fin de contrat du saboteur.

Dans la plupart des cas, le spécialiste de la sécurité est bien mieux équipé et formé pour traiter
ce type d'erreur que le personnel de contrôle qualité ou d'ingénierie. Dans les cas graves, des
accusations criminelles peuvent être portées à la suite du sabotage. Si le produit est fabriqué dans le
cadre d'un contrat gouvernemental, des agences fédérales peuvent être appelées. Heureusement,
les erreurs délibérées sont extrêmement rares.
Ils ne doivent être considérés comme une possibilité qu'après que toutes les autres explications ont
été étudiées et exclues.

Analyse des modes de défaillance et des effets L'


analyse des modes de défaillance et des effets (FMEA), également connue sous le nom d'analyse
des modes de défaillance, des effets et de la criticité, est utilisée pour déterminer les fonctions à haut
risque ou les caractéristiques du produit en fonction de l'impact d'une défaillance et de la probabilité
qu'une défaillance pourrait se produire sans détection.

La méthodologie peut être appliquée aux produits (AMDEC de conception) ou pro


processus (process FMEA) comme suit (Pyzdek et Keller, 2010) :

1. Définir le système à analyser, y compris un examen de toutes les fonctions ou processus,


les niveaux de performance actuels pour chacun et une définition de l'échec de chaque
processus. Le processus et ses modes de défaillance ont été spécifiés dans l'étape Définir,
et le niveau de performance actuel documenté dans l'étape Mesurer ; cependant, au cours
de l'étape d'amélioration, le processus a été redéfini, il est donc possible que le nouveau
processus ait différents modes de défaillance. Les niveaux de performance seront
certainement différents, représentant les fruits de l'effort d'amélioration.

2. La carte de processus est utilisée pour définir les étapes et les relations fonctionnelles pour
le nouveau processus.
Machine Translated by Google

A méliorer / S tag e de conception 345

3. Une analyse SIPOC appropriée (telle que discutée dans l'étape Définir, Chap. 13) garantit une
compréhension approfondie du processus et des sous­processus.

4. L'étape 4 est peut­être le véritable début du processus AMDE dans les projets Six Sigma DMAIC,
puisque les trois étapes précédentes ont déjà été accomplies et servent d'"intrants" à l'étape
Améliorer. Dans cette étape, nous définissons la fonction du processus. La fonction fournit le
but de l'étape. Chaque étape doit avoir une ou plusieurs fonctions, étant donné que l'étape est
nécessaire pour satisfaire une exigence interne ou externe. Pour identifier les fonctions de
l'étape du processus, il peut être utile de considérer les ramifications de la suppression de
l'étape. Par exemple, dans un processus de vente, l'étape de processus "Saisir le numéro
d'identification du produit pour chaque article acheté" fournit la fonction "Identifier les numéros
d'articles qui appartiennent aux produits achetés afin qu'ils soient tous inclus dans la livraison".

5. Pour chaque fonction, identifiez le mode de défaillance et son effet : qu'est­ce qui pourrait mal
tourner ? Qu'est­ce que le client pourrait ne pas aimer ? Par exemple, pour la fonction "Identifier
les numéros d'articles qui appartiennent aux produits achetés afin qu'ils soient tous inclus dans
la livraison", les modes d'échec peuvent être "ID de produit mal saisi" et "Numéros d'articles
mal définis pour les lots de produits". ” Le deuxième mode de défaillance fait référence aux
produits vendus sous forme d'ensembles. Un numéro d'article unique est utilisé pour l'ensemble
afin que les frais appropriés soient appliqués pour l'ensemble (réduits des prix par article), mais
les étapes de processus suivantes (et les processus suivants) nécessitent les numéros d'article
corrects pour chaque pièce (comme pour vérifier niveaux d'inventaire ou remplir la commande
à partir de l'inventaire).

6. Définissez la gravité de chacun des modes de défaillance. Le tableau 16.1 fournit un bon moyen
d'identifier la gravité d'un effet de défaillance donné. Dans l'exemple donné, le mode d'échec
de la saisie erronée de l'ID de produit, avec pour effet d'expédier le mauvais produit, se voit
attribuer une gravité de 6. Dans le tableau 16.1, la gravité 6 est décrite comme « Le client se
plaindra. Réparation ou retour probable. Augmentation des coûts internes. Certes, la définition
d'un niveau de gravité est subjective. Une sévérité de 5 ou 7 peut sembler raisonnable dans
cet exemple. Il n'y a pas de « bonne » réponse ; cependant, la cohérence entre les analyses
est importante pour établir des priorités significatives.

7. Définir la vraisemblance (ou la probabilité) d'occurrence. Le tableau 16.1 fournit des descriptions
utiles des niveaux d'occurrence de 1 à 10.
Le tableau 16.2 fournit une définition un peu meilleure, telle que développée par l'Automotive
Industry Action Group (AIAG) sur la base de la capacité des processus et des taux de défauts.
Dans l'exemple, le mode d'échec de la saisie erronée de l'ID de produit, avec pour effet
d'expédier le mauvais produit, se voit attribuer un niveau d'occurrence de 5.
Machine Translated by Google

346 Amélioration continue

Évaluation de la gravité (SEV) Occurrence (OCC) Détectabilité (DET)


Évaluation Quelle est l'importance de Quelle est la probabilité Quelle est la probabilité que le système
l'effet de cette défaillance sur de la cause de cet échec existant détecte la cause, si elle se produit ?
client? arriver?

Remarque : p est la probabilité estimée de


défaillance non détectée
1 Mineure. Client Pas probable Détection presque certaine avant
ne remarquera pas l'effet d'atteindre le client (p ≈ 0)
ou le considérera
insignifiant
2 Le client remarquera Faible documenté Probabilité extrêmement faible d'atteindre le
l'effet taux d'échec client sans être détecté

(0 < p ≤ 0,01)
3 Le client deviendra Faible sans papiers Faible probabilité d'atteindre le client
irrité à réduit taux d'échec sans être détecté
performance (0,01 < p ≤ 0,05)
4 Marginale. Insatisfaction Les pannes surviennent à partir de Susceptible d'être détecté avant
des clients en raison de de temps en temps d'atteindre le client (0,05 < p
performances réduites ≤ 0,20)
5 Clients Documenté Peut être détecté avant d'atteindre le client
la productivité est réduite échec modéré
taux (0,20 < p ≤ 0,50)
6 Le client va Sans papiers Peu susceptible d'être détecté avant
se plaindre. Réparation échec modéré d'atteindre le client (0,50 < p
ou retour probable. taux ≤ 0,70)
Augmentation des coûts
internes (rebut, reprise, etc.)
7 Critique. Réduit Taux d'échec élevé Très peu susceptible d'être détecté avant
fidélité du consommateur. documenté d'atteindre le client (0,70 < p
Opérations internes ≤ 0,90)
impactées Perte totale
8 du goodwill clients. Taux d'échec élevé non Faible chance de détection
documenté (0,90 < p ≤ 0,95)
Opérations internes
perturbées
9 Sécurité des clients ou des Défaillances courantes Chance de détection extrêmement faible (0,95
employés compromise. < p ≤ 0,99)
Conformité réglementaire
douteuse
dix Catastrophique. Les échecs se Presque certain que la panne ne sera pas
Client ou employé mis en produisent presque toujours détectée
danger sans (p ≈ 1)
avertissement. Violation
de la loi ou de la réglementation

Tableau 16.1 Niveaux de gravité, d'occurrence et de détectabilité


Machine Translated by Google

A méliorer / S tag e de conception 347

Probabilité d'échec Taux d'échec Cpk Occup.

Très haut > 1/2 < 0,33 dix

1/3 0,33 9

Élevé (souvent) 1/8 0,51 8


1/20 0,67 7

Modéré; occasionnel 1/80 .83 6


1/400 1,00 5
1/2 000 1.17 4

Faible 1/15 000 1.33 3

Très lent 1/150 000 1,50 2

Télécommande
< 1/150 000 > 1,67 1

(AIAG, 1995)

Tableau 16.2 Niveaux d'occurrence AIAG

8. Définir la méthode de détection et la probabilité de détection. Le tableau 16.1 fournit des

descriptions utiles des niveaux de détection de 1 à 10. Dans l'exemple, le mode d'échec de la
saisie erronée de l'ID de produit, avec pour effet d'expédier le mauvais produit, se voit attribuer
un niveau de détectabilité de 4, une détection probable avant d'atteindre le client . Ceci est
basé sur la méthode de détection qui a été mise en œuvre à partir des améliorations de
processus passées : le comptable compare le bon de commande avec le bon de commande au
fur et à mesure que la facture est créée pour l'expédition.

9. Calculez le numéro de priorité du risque (RPN) en multipliant les niveaux de gravité, d'occurrence
et de détectabilité. Dans l'exemple, le numéro de priorité du risque est calculé en multipliant 6
(la gravité) par 5 (le niveau d'occurrence) par 4 (le niveau de détection), ce qui donne un RPN
de 120.

10. Hiérarchisez les modes de défaillance en fonction du RPN.

Le numéro de priorité du risque ira de 1 à 1000, les nombres plus grands représentant des risques
plus élevés. Les modes de défaillance avec un RPN plus élevé doivent être prioritaires pour l'étape
d'amélioration du DMAIC.
Certaines organisations utilisent des valeurs seuils au­dessus desquelles des actions préventives
doivent être entreprises. Par exemple, l'organisation peut exiger une amélioration pour tout RPN supérieur
à 120. La réduction du RPN nécessite une réduction des niveaux de gravité, d'occurrence et/ou de
détectabilité associés au mode de défaillance. En règle générale:

• La réduction de la gravité nécessite une modification de la conception du produit ou du processus.


Par exemple, si le processus implique une pièce fabriquée, il peut être possible de modifier la
conception de la pièce afin que le mode de défaillance indiqué ne soit plus un problème sérieux
pour le client.
Machine Translated by Google

348 Amélioration continue

• La réduction du niveau de détectabilité augmente les coûts sans amélioration de


la qualité. Afin de réduire le niveau de détectabilité, nous devons améliorer le
taux de détection. Nous pouvons ajouter des étapes de processus pour
inspecter le produit, approuver le produit ou (comme dans l'exemple) pour
revérifier une étape de processus précédente. Aucune de ces activités n'ajoute
de valeur au client et sont des sources cachées de déchets
d'usine pour l'organisation. • Réduire le niveau d'occurrence est souvent la
meilleure approche, car la réduction de la gravité peut être coûteuse (voire
impossible) et la réduction de la détectabilité n'est qu'une solution coûteuse à
court terme. La réduction du niveau d'occurrence nécessite une réduction des
défauts de processus, ce qui réduit les coûts.

La dernière étape de l'AMDE consiste à réévaluer le RPN après l'amélioration


ments ont été mis en œuvre.
Machine Translated by Google

CHAPITRE 17
Étape de contrôle/vérification
Machine Translated by Google
Machine Translated by Google

Les objectifs de l'étape de contrôle/vérification comprennent (Keller, 2011a) :

• Normaliser les nouvelles procédures/éléments de conception de


produits. •Vérifier en permanence les livrables du
projet. • Documenter les leçons apprises.

Une fois le processus ou le système amélioré, nous nous appliquons à le contrôler


afin que les améliorations soient maintenues. Sans cette étape critique, les vieilles
habitudes reviennent et les gains sont rapidement perdus. Nous devons standardiser les
nouvelles méthodologies pour pérenniser les améliorations.
Les méthodes décrites dans la partie II sont utilisées pour contrôler le processus, y
compris le contrôle statistique du processus ainsi que les instructions de travail contrôlées
par un système de contrôle des documents.
Le contrôle au niveau de l'entreprise peut consister à « faire passer le mot ». La
formation devient un aspect clé du maintien des améliorations déployées, qu'il s'agisse
d'un changement de politique ou d'un nouveau système informatisé de traitement des
commandes.
Passer le mot au niveau du processus implique de modifier les procédures de
processus, les spécifications et/ou les limites des graphiques de contrôle statistique.
Comme pour les autres niveaux de l'organisation, ces changements nécessitent une
formation pour le personnel concerné. Lorsque ce personnel comprend non seulement
comment le processus a changé, mais aussi pourquoi, d'autres améliorations peuvent
être trouvées plus tard. Ces aspects de la formation sont abordés plus loin dans ce
chapitre.
Au fur et à mesure que l'équipe du projet termine ses activités, il est important que la
documentation du projet soit finalisée et conservée. Un aspect clé de ceci est la
documentation des leçons apprises : qu'auriez­vous pu faire différemment pour obtenir
des résultats plus rapides ou meilleurs ? Ces informations seraient­elles utiles à d'autres
équipes de l'organisation ?
Communiquer ces réussites à d'autres parties de l'entreprise s'est avéré être un
moyen efficace d'atteindre des niveaux de performance de plus en plus élevés dans toute
l'organisation. GE Capital a appris de la division aéronautique, et vice versa, aussi
divergentes que soient leurs activités.

351
Machine Translated by Google

352 Amélioration continue

Le succès engendre le succès. Les sites Web internes, les bulletins d'information de l'entreprise et les
forums Black Belt sont des moyens efficaces de partager ces informations.
Une autre partie importante de la synthèse de l'équipe est la reconnaissance de leurs efforts.

Évaluation de la performance L'évaluation

de la performance d'une équipe implique les mêmes principes que l'évaluation de la performance en
général. Souvent, la performance de l'équipe dans l'atteinte des buts et objectifs du projet est un aspect
critique de l'évaluation.
Cependant, si l'atteinte de l'objectif est le seul critère de succès, la direction peut avoir du mal à recruter
des membres de l'équipe pour autre chose que les projets slam dunk de l'avenir. Au contraire, les
équipes doivent être félicitées pour leurs efforts, en supposant que leurs efforts étaient louables, même
lorsque ces efforts ne parviennent pas à atteindre les objectifs énoncés.

Les mesures de performance se concentrent généralement sur les tâches du groupe, plutôt que sur
les problèmes internes du groupe. En règle générale, les mesures de performance financière montrent
un taux de récupération compris entre 2:1 et 8:1 sur les projets d'équipe. Voici quelques exemples de
mesures de rendement tangibles :

• Productivité •

Qualité •

Temps de cycle •
Griefs

• Utilisation médicale (par exemple, jours de


maladie) • Absentéisme

•Service

•Chiffre d'affaires

• Licenciements

• Utilisation des conseils

De nombreux actifs incorporels peuvent également être mesurés. Voici quelques exemples
d'intangibles touchés par les équipes :

• Attitudes des employés •


Attitudes des clients

• Compliments des clients •

Réclamations des clients

La performance du processus d'équipe doit également être mesurée. Les taux d'échec des projets
doivent faire l'objet d'un suivi attentif. Le tableau Ap peut être utilisé pour évaluer les causes de variation
dans la proportion de projets d'équipe qui réussissent.
L'analyse des défaillances doit être rigoureusement menée.
Machine Translated by Google

Contrôler / V érifier l'étape 353

Aubrey et Felkins (1988) énumèrent les mesures d'efficacité suivantes :

• Dirigeants formés

•Nombre de bénévoles potentiels •Nombre de


bénévoles réels

•Pourcentage de bénévolat

•Projets lancés •Projets

abandonnés •Projets

terminés/approuvés •Projets terminés/rejetés

•Amélioration de la productivité

•Amélioration de l'environnement

de travail •Nombre d'équipes

• Équipes inactives

• Amélioration de la qualité du

travail • Amélioration du

service • Économies annuelles nettes

Reconnaissance et récompense La
reconnaissance est une forme de motivation des employés dans laquelle l'entreprise identifie et
remercie les employés qui ont apporté une contribution positive au succès de l'entreprise. Dans une
entreprise idéale, la motivation découle de la fierté du travail des employés. Lorsque les employés
sont habilités par la direction à faire leur travail et à produire un produit ou un service d'excellente
qualité, ils seront motivés.

La raison pour laquelle les systèmes de reconnaissance sont importants n'est pas qu'ils
améliorent le travail en fournissant des incitations à la réussite. Au contraire, ils font une déclaration
sur ce qui est important pour l'entreprise. L'analyse du système de reconnaissance des employés
d'une entreprise fournit un aperçu puissant des valeurs de l'entreprise en action. Ce sont ces
valeurs qui déterminent réellement le comportement des employés. Elles ne correspondent pas
nécessairement aux valeurs déclarées par la direction. Par exemple, une entreprise qui prétend
valoriser la satisfaction client mais ne reconnaît que les réalisations commerciales n'a probablement
pas la satisfaction client comme l'une de ses valeurs en action.

La reconnaissance publique est souvent meilleure pour deux raisons :

1.Certaines personnes (mais pas toutes) aiment être reconnues devant leur
collègues.

2. La reconnaissance publique communique un message à tous les employés sur les priorités
et la fonction de l'organisation.
Machine Translated by Google

354 Amélioration continue

La forme de reconnaissance peut aller d'une tape dans le dos à un petit cadeau en passant par une
somme d'argent substantielle. Cependant, lorsque des récompenses en espèces substantielles

deviennent un modèle établi, cela signale deux problèmes potentiels :

1. Cela suggère que plusieurs priorités majeures se disputent l'attention de l'employé, de sorte
qu'une importante somme d'argent est nécessaire pour contrôler le choix de l'employé.

2.Les récipiendaires ont tendance à considérer les récompenses en espèces importantes et


régulières comme faisant partie de la structure de rémunération plutôt que comme un
mécanisme de reconnaissance du soutien aux valeurs clés de l'entreprise.

Carder et Clark (1992) énumèrent les lignes directrices et observations suivantes concernant la
reconnaissance :

• La reconnaissance n'est pas une méthode par laquelle la direction peut manipuler les employés.
Si les travailleurs n'effectuent pas certains types de tâches, il peut être inapproprié d'établir
un programme de reconnaissance pour augmenter la priorité de ces tâches. La reconnaissance
ne doit pas être utilisée pour amener les travailleurs à faire quelque chose qu'ils ne font pas
actuellement en raison de messages contradictoires de la direction. Une approche plus
efficace consiste pour la direction à examiner d'abord le système actuel de priorités. Ce n'est
qu'en travaillant sur le système que la direction peut aider à résoudre le conflit.

• La reconnaissance n'est pas une rémunération. Dans ce cas, la récompense doit représenter
une partie importante de la rémunération régulière de l'employé pour avoir un impact
significatif. La reconnaissance et la rémunération diffèrent de diverses manières : •Les
niveaux de
rémunération doivent être basés sur des considérations à long terme telles que l'ancienneté
de service, l'éducation, les compétences et le niveau de responsabilité de l'employé. La
reconnaissance est fondée sur les réalisations particulières d'individus ou de groupes. •
La reconnaissance est flexible. Il est pratiquement
impossible de réduire les niveaux de rémunération une fois qu'ils sont fixés, et il est difficile
et coûteux de modifier les régimes de rémunération. •La reconnaissance est plus
immédiate. Il peut être donné en temps
opportun et donc se rapporter à des réalisations spécifiques. •La reconnaissance est
personnelle. Il représente un contact direct et personnel entre
l'employé et le gestionnaire.

• La reconnaissance doit être personnelle. La reconnaissance ne devrait pas être effectuée d'une
manière qui implique que les personnes les plus importantes (les managers) donnent quelque
chose aux personnes les moins importantes (les travailleurs).

• Le renforcement positif n'est pas toujours un bon modèle de reconnaissance. Ce n'est pas
parce que le gestionnaire utilise un certain critère comportemental pour
Machine Translated by Google

Contrôler / V érifier l'étape 355

fournir une reconnaissance, cela ne signifie pas que le destinataire percevra la même
relation entre le comportement et la reconnaissance. • Les employés ne doivent pas

croire que la reconnaissance repose principalement sur la chance.


Un des premiers signes de cela est le cynisme. Les employés vous diront que la direction
dit une chose mais en fait une autre.

• La reconnaissance répond à un besoin humain fondamental. La reconnaissance,


notamment publique, répond aux besoins d'appartenance et d'estime de soi. De cette
façon, la reconnaissance peut jouer un rôle important sur le lieu de travail.
Selon la théorie de Maslow, tant que ces besoins d'appartenance et d'estime de soi ne
seront pas satisfaits, les besoins d'auto­actualisation tels que la fierté du travail, le
sentiment d'accomplissement, la croissance personnelle et l'apprentissage de nouvelles
compétences n'entreront pas en jeu.

• Les programmes de reconnaissance ne doivent pas créer de gagnants et de perdants. Les


programmes de reconnaissance ne devraient pas reconnaître un groupe d'individus à
chaque fois sans jamais reconnaître un autre groupe. Cela crée un système de
classement statique, avec tous les problèmes évoqués précédemment. • La

reconnaissance doit être accordée pour les efforts, pas seulement pour l'atteinte des objectifs.
Selon Imai, un gestionnaire qui comprend qu'une grande variété de comportements sont
essentiels à l'entreprise s'intéressera aux critères de discipline, de gestion du temps, de
développement des compétences, de participation, de moral et de communication, ainsi
qu'à la production de revenus directs.
Pour être en mesure d'utiliser efficacement la reconnaissance pour atteindre les objectifs
commerciaux, les gestionnaires doivent développer la capacité de mesurer et de
reconnaître ces réalisations de processus.

• La participation des employés est essentielle à la planification et à l'exécution d'un


programme de reconnaissance. Il est essentiel de s'engager dans une planification
approfondie avant d'instaurer un programme de reconnaissance ou avant d'en modifier
un mauvais. Les perceptions et les attentes des employés doivent être sondées.

Principes des systèmes de récompense efficaces


Kohn (1993) pense que presque tous les systèmes de récompense existants partagent les
caractéristiques suivantes :

1.Ils punissent les destinataires.

2. Ils rompent les relations.

3.Ils ignorent les raisons de leur comportement.

4.Ils découragent la prise de risque.

La plupart des systèmes de récompense existants (y compris de nombreux systèmes de


rémunération) sont une tentative de la direction de manipuler les comportements des employés.
Kohn démontre de manière convaincante, grâce à de solides recherches universitaires sur
Machine Translated by Google

356 Amélioration continue

les effets des récompenses, que les personnes qui reçoivent les récompenses ainsi que celles qui
les distribuent souffrent d'une perte d'incitation ­ ce n'est pas le but de la
exercer!
Plutôt que de fournir des solutions de livre de cuisine au problème des récompenses et des
incitations, Kohn propose quelques lignes directrices simples à prendre en compte lors de la
conception de systèmes de récompense.

1. Abolir la rémunération au rendement (ce que Deming a également préconisé). La théorie


de l'hygiène de Hertzberg nous dit que l'argent n'est pas un facteur de motivation, mais
qu'il peut être un facteur de démotivation. Payer les gens généreusement et
équitablement ; puis faites tout ce qui est en votre pouvoir pour chasser l'argent de l'esprit de l'employé.

2. Réévaluer l'évaluation. Réviser Chap. 20 pour plus d'informations sur par


évaluations de la performance et alternatives.

3. Créer les conditions d'une motivation authentique. L'argent ne remplace pas la vraie chose
­ un travail intéressant. Voici quelques principes à utiliser pour rendre le travail plus
intéressant : a. Concevoir des emplois
intéressants. Donnez aux équipes des projets qui sont intrinsèquement motivants, par
exemple, des projets significatifs, stimulants et réalisables.

b. Encouragez la collaboration. Aidez les employés à travailler ensemble, puis fournissez


le soutien nécessaire pour permettre aux équipes d'atteindre leurs objectifs.

c. Offrir la liberté. Faites confiance aux gens pour faire les bons choix. Encourager
eux quand ils font des erreurs.

Formation
Lorsque des plans d'amélioration de la qualité sont mis en œuvre, la nature du travail effectué change.
Les personnes impliquées ou impactées par la nouvelle approche doivent recevoir deux types de
formation différents : conceptuel et basé sur les tâches.

La formation conceptuelle implique l'explication des principes à l'origine du changement et le


passage d'une perspective interne basée sur le produit à une approche client et processus. Plutôt
que de considérer leur travail isolément, les employés doivent apprendre à voir tout le travail
comme un processus, connecté à d'autres processus dans un système. Plutôt que de poursuivre
un objectif de « contrôle », où les activités sont effectuées de la même manière indéfiniment, les
employés apprennent que l'amélioration continue doit être la norme, les processus étant
constamment modifiés pour le mieux. Le cycle PDCA discuté au Chap. 12 est utile. De telles idées
sont radicalement différentes et difficiles à assimiler. La répétition par le patient et « suivre la parole
» sont des éléments essentiels d'une telle formation.

La formation conceptuelle consiste également à enseigner aux employés les bases de la


résolution de problèmes. L'amélioration des processus basée sur les données exige une
compréhension des principes fondamentaux de la collecte et de l'analyse des données. Dans Six Sigma
Machine Translated by Google

Contrôler / V érifier l'étape 357

Dans le jargon, les employés opérationnels sont formés en tant que ceintures vertes aux outils
de base de la qualité, y compris (le plus important) le SPC, qui fournit un moyen de comprendre
la nature systématique de la variation des processus.
Lors de la réintégration des emplois, les fonctions attendues de chaque salarié changent,
souvent radicalement. La formation axée sur les tâches est nécessaire pour aider les employés
à acquérir et à maintenir de nouvelles compétences et compétences. Les employés se voient
confier de nouvelles responsabilités en matière d'autocontrôle de la qualité des processus. Pour
gérer efficacement ces nouvelles responsabilités, les employés doivent apprendre à utiliser
l'information comme ils ne l'ont jamais fait auparavant. Souvent, les employés sont appelés à
participer à la conception de nouveaux systèmes d'information, à saisir des données, à utiliser
des terminaux informatiques pour accéder à des informations, à lire des sorties informatiques,
à faire des présentations de gestion, etc. Ces compétences doivent être acquises par la formation et l'expérience.
Les plans qualité qui n'incluent pas une formation adéquate des employés sont monnaie
courante et constituent l'une des principales causes du taux élevé d'échec des plans qualité.

Formation
professionnelle La formation professionnelle est le véhicule par lequel se déroule la grande
majorité de la formation. La formation professionnelle consiste à affecter les apprenants à
travailler avec un employé plus expérimenté, soit un superviseur, un pair ou un chef d'équipe,
pour apprendre des tâches spécifiques sur le lieu de travail réel. L'apprenant est généralement
un nouvel employé qui a été récemment embauché, muté ou promu au poste et qui n'a pas les
connaissances et les compétences nécessaires pour exécuter certaines composantes de son
travail. L'employé expérimenté démontre et discute normalement de nouveaux domaines de
connaissances et de compétences, puis offre des opportunités de pratique et de rétroaction. Il
existe trois méthodes courantes utilisées dans la formation professionnelle (Nolan, 1996):

1. Formation structurée en cours d'emploi (OJT). La FCE structurée permet à l'apprenant


d'acquérir les compétences et les connaissances nécessaires pour effectuer le travail
grâce à une série d'activités structurées ou planifiées sur le lieu de travail. Toutes les
activités sont réalisées sous l'observation attentive et la supervision de l'instructeur
OJT. Le processus structuré est basé sur une analyse approfondie du poste et de
l'apprenant. L'instructeur OJT présente systématiquement à l'apprenant ce qu'il ou elle
doit savoir pour exécuter avec compétence et répondre aux normes et attentes de
performance.

2. FCE non structurée. OJT non structuré signifie souvent couler ou nager.
La plupart des activités de la FCE non structurée n'ont pas été réfléchies et sont
réalisées de manière désordonnée. Une méthode courante de FCE non structurée
consiste à demander à l'apprenant de « s'asseoir » avec un autre employé ou de
« suivre l'employé » pendant quelques jours pour voir ce que l'employé fait et comment
il le fait. Cette technique de « sit­and­see » conduit souvent l'apprenant à apprendre
autant par essais et erreurs que par n'importe quelle instruction donnée par les plus
expérimentés.
Machine Translated by Google

358 Amélioration continue

employé. L'apprenant est généralement inondé de devoirs de lecture concernant les


politiques, les procédures et d'autres documents assortis qui, lorsqu'ils ne sont pas
placés dans le bon contexte, peuvent causer plus de confusion que d'assistance.

3. L'apprenant est souvent imposé à l'employé expérimenté sans préavis et est considéré
comme un obstacle, car ce temps de formation interrompt la charge de travail normale
et les performances de l'employé expérimenté. Le principal inconvénient de l'approche
non structurée est que les objectifs, les attentes et les résultats ne sont pas définis à
l'avance et, par conséquent, les résultats sont imprévisibles.

4. Formation à l'instruction professionnelle. La formation à l'instruction professionnelle a


été initialement développée pour être utilisée avec les travailleurs de la production de
la Seconde Guerre mondiale et est basée sur une procédure d'étape mécanique
obligeant l'instructeur à présenter le matériel de manière ordonnée et disciplinée. Il
est le plus souvent utilisé pour enseigner les habiletés motrices. Puisqu'il s'agit d'une
approche systématique, ses composantes se retrouvent souvent dans la FCE
structurée d'aujourd'hui.

Élaboration d'un programme structuré de FCE La


FCE structurée s'est révélée être un moyen efficient et efficace d'enseigner aux employés les
compétences requises pour faire leur travail. L'élaboration de programmes OJT structurés est
un processus qui comprend les étapes suivantes :

1. Analyse des besoins. Le besoin est établi au cours du cycle DMAIC du projet
d'amélioration, y compris l'évaluation des connaissances, des compétences et des
capacités (KSA) du personnel de processus, ainsi que des attitudes.

2. Analyse de l'emploi. L'analyse des tâches fait partie des processus de conception des
tâches et de sélection des employés. Les exigences du poste sont adaptées aux
connaissances, compétences et capacités de l'employé au cours du processus de
sélection. Lors de la conception de programmes structurés de FCE, les caractéristiques
des stagiaires doivent être examinées afin de cibler la FCE avec précision et de
développer du matériel pédagogique efficace ; par exemple, ce qui fonctionne pour
les nouveaux employés peut ne pas être le meilleur pour les transferts. Les stagiaires
doivent remplir des sondages sur le profil des employés afin de fournir au concepteur
pédagogique les informations nécessaires pour personnaliser la formation en fonction
des besoins de chaque employé.

3. Conception du cours. Cette étape produira un plan de formation de cours qui servira
de modèle à utiliser pour construire des supports de formation. Le plan de formation
du cours doit inclure : ,

• Tests critères •
Présentation
Machine Translated by Google

Contrôler / V érifier l'étape 359

•Méthodes d'application et de rétroaction


•Aperçu du contenu du cours
•Plan de leçon
•Calendrier de la
formation 4. Préparation du matériel.
5. Validation. Une fois que le matériel de formation a été élaboré pour le
programme OJT, il doit être testé pour s'assurer qu'il remplit son mandat de
former l'individu pour effectuer le travail. Cela implique des études pilotes
avec des personnes sélectionnées pour « secouer » les matériaux. La
validation finale ne peut avoir lieu qu'en surveillant l'efficacité du programme
auprès des stagiaires réels.

6. Présentation. Les présentations pédagogiques efficaces intègrent un


processus d'apprentissage systématique de présentation, d'application et de
rétroaction (PAF) (Nolan, 1996, p. 764). Avant la prestation proprement dite,
l'instructeur de la FCE doit revoir le processus et les méthodes structurés,
rassembler tous les matériaux et outils nécessaires et élaborer un calendrier
de formation. Trois éléments sont nécessaires :
Présentation. L'instructeur OJT
•Enonce l'objectif •Motive
le stagiaire •Passe en revue
les étapes clés •Présente
les tâches (dire et montrer) •Tests de
compréhension Application.
Le stagiaire applique de nouvelles connaissances et compétences par le
biais de
•Pratique dirigée
•Pratique non dirigée, mais supervisée
Rétroaction. Le formateur OJT observe et communique au stagiaire

•Ce qui a été bien fait •Ce


qui doit être amélioré •Comment
s'améliorer 7.
Évaluation. L'étape finale d'un programme OJT structuré consiste à l'évaluer. La
méthode d'évaluation est le même processus à cinq niveaux que celui décrit
ci­dessus pour évaluer la formation en général : réaction, apprentissage,
comportement, résultats et retour sur investissement.

Jeux pédagogiques, simulations et jeux de rôle Ces techniques


reposent sur deux prémisses : (1) les gens apprennent mieux par l'expérience active
que par l'écoute passive et (2) les gens apprennent mieux en interagissant les uns
avec les autres qu'en travaillant seuls.
Machine Translated by Google

360 Amélioration continue

Jeux pédagogiques. Un jeu pédagogique est une activité délibérément conçue pour
produire certains résultats d'apprentissage. Les jeux pédagogiques incorporent cinq
caractéristiques (Thiagarajan, 1996) :

1. Conflit. Les jeux spécifient un objectif à atteindre et jettent des obstacles à sa


réalisation. Un jeu peut impliquer une compétition entre les joueurs, ou il peut
impliquer la coopération des joueurs pour atteindre un objectif de groupe.

2. Contrôle. Les jeux sont régis par des règles qui précisent comment jouer les
jeu.
3. Fermeture. Les jeux ont une règle de fin, qui peut être une limite de temps,
l'achèvement d'un ensemble de tâches, l'élimination de joueurs du jeu, etc. Les
jeux éducatifs les plus efficaces utilisent plusieurs critères de clôture et permettent
à différents joueurs ou équipes de gagner selon différentes dimensions.

4. artifice. Les jeux contiennent des éléments, tels que le hasard, pour s'assurer que
le jeu conserve un caractère ludique et n'est pas pris trop au sérieux.

5. Base de compétence. Le jeu est conçu pour aider les joueurs à améliorer leurs
compétences dans des domaines spécifiques. Les objectifs d'apprentissage vont
du rappel par cœur à la résolution de problèmes complexes et peuvent concerner
des aspects moteurs, informationnels, conceptuels, interpersonnels et affectifs.
domaines.

Jeux de simulation. Un jeu de simulation contient les cinq caractéristiques des jeux
éducatifs, mais en plus il inclut une correspondance entre certains aspects du jeu et la
réalité. Voici quelques exemples de jeux de simulation qui ont été utilisés dans
l'enseignement des concepts de qualité :

• « Beer Game » de Senge dans The Fifth Discipline (Senge, 1990, pp. 26–53).
Le jeu de la bière est conçu pour enseigner la pensée systémique.
• L'expérience de l'entonnoir de Deming. Boardman et Boardman (1990) fournissent
une description détaillée de la façon de mettre en place et de mener l'expérience
de l'entonnoir. L'expérience de l'entonnoir illustre la pensée statistique et la prise
de décision.
• « Le magasin de dépôt de cartes ». Le dépôt de cartes est une petite entreprise qui
compte des clients, un président, un superviseur, un inspecteur, un opérateur de
reprise, plusieurs opérateurs de ligne et un comptable. Il n'y a qu'un seul
processus : déposer des cartes à jouer sur une cible au sol. Idéalement, le client
veut toutes les cartes sur la cible mais acceptera le produit à condition que l'écart
total par rapport à la cible ne soit «pas trop mauvais». Le client précise également
que chaque carte doit être tenue par son centre et déposée individuellement.
Comme l'expérience de l'entonnoir,
Machine Translated by Google

Contrôler / V érifier l'étape 361

le magasin de dépôt de cartes illustre les effets de la falsification d'un processus


stable. Cependant, il le fait en utilisant des outils et des matériaux plus simples
(Alloway, 1994). •

Simulation de dimensionnement géométrique et de tolérancement (usure et


Karl, 1995).

• Des applications supplémentaires de la simulation à la qualité sont décrites dans


Simon et Bruce (1992).

En plus des jeux de simulation, des outils de simulation tels que les quinconces et les
boîtes à billes d'échantillonnage sont couramment utilisés dans une formation de qualité. Des
simulations simples créent un lien concret avec des concepts abstraits, facilitant ainsi la
compréhension du concept.
Jeux de rôle. Dans un jeu de rôle, les joueurs incarnent spontanément les personnages
qui leur sont assignés dans un scénario. Les jeux de rôle prennent diverses formes, par
exemple :

• Médias. Le scénario d'un jeu de rôle peut être présenté à travers un


document imprimé, une bande audio, une bande vidéo, etc.

• Personnages. Les personnages d'un jeu de rôle peuvent être identifiés en termes de
fonctions professionnelles, de variables de personnalité ou d'attitudes. Certains jeux
de rôle demandent aux gens de jouer leur propre rôle dans une situation différente
(comme dans un exercice de survie dans

le désert). • Réponses. La plupart des jeux de rôle impliquent une communication face à
face entre les personnages, mais la communication écrite ou téléphonique est
également utilisée.

• Mode d'utilisation. Les groupes peuvent être divisés en petits groupes ou en paires, ou
un groupe peut regarder les autres participer. Les acteurs peuvent être remplacés au
fur et à mesure que le jeu de rôle progresse. Des entraîneurs peuvent être désignés
pour aider les acteurs.

• Nombre de joueurs. La plupart des jeux de rôle impliquent deux personnages, mais il
n'y a pas de limite fixe au nombre de joueurs pouvant être impliqués. • Rejouer.

L'efficacité de certains jeux de rôle peut être améliorée par la répétition. La répétition
peut avoir lieu après une présentation de nouveau matériel par l'instructeur, ou après
avoir changé certains aspects du jeu.

Un excellent exemple de jeu de rôle est « l'expérience de la perle rouge » de Deming


(Deming, 1986, p. 346ff). L'expérience de la perle rouge est conçue pour enseigner la pensée
statistique et l'utilisation d'outils statistiques simples.
Machine Translated by Google
Machine Translated by Google

PARTV

Gestion de l'humain
chapitre 18

Ressources
Théories de la motivation et
Principes
chapitre 19
Styles de gestion chapitre
20

M
les décisions de gestion sont souvent classées comme étant
Besoins en ressources pour
jugement, fondé sur des données ou scientifique (Weaver, gérer la qualité
1995, p. 223­231). Les styles de gestion sont souvent Fonction
considérés d'un point de vue psychologique. Pourtant, avant de
discuter des styles de gestion spécifiques, il est juste de réfléchir au
rôle approprié d'un gestionnaire.
Dr. W. Edwards Deming (1993) offre la perspective suivante : C'est le nouveau
rôle d'un gestionnaire de personnes après la transformation :

1. Un manager comprend et transmet à son peuple le sens d'un système. Il explique les
objectifs du système. Il enseigne à son peuple à comprendre comment le travail du
groupe soutient ces objectifs.
2. Il aide son peuple à se voir comme des composants d'un système, à travailler en
coopération avec les étapes précédentes et avec les étapes suivantes vers
l'optimisation des efforts de toutes les étapes vers la réalisation du but.

3. Un gestionnaire de personnes comprend que les gens sont différents les uns des
autres. Il essaie de créer pour tout le monde de l'intérêt, du défi et de la joie au travail.
Il essaie d'optimiser les antécédents familiaux, l'éducation, les compétences, les
espoirs et les capacités de chacun. Il ne s'agit pas de classer les gens. C'est plutôt la
reconnaissance des différences entre les gens et une tentative de mettre tout le
monde en position de développement.
4. Il est un apprenant incessant. Il encourage son peuple à étudier. Il offre, lorsque cela
est possible et faisable, des séminaires et des cours pour l'avancement de
l'apprentissage. Il encourage la formation continue au collège ou à l'université pour
les personnes qui le souhaitent.
5. Il est coach et avocat, pas juge.
6. Il comprend un système stable. Il comprend l'interaction entre les gens et les
circonstances dans lesquelles ils travaillent. Il comprend que la performance de
quiconque peut apprendre une compétence arrivera à un état stable, sur lequel
d'autres leçons n'apporteront pas d'amélioration de la performance. Un gestionnaire
de personnes sait que dans cet état stable, il est distrayant de dire au travailleur une
erreur.
Machine Translated by Google

364 Gestion des ressources humaines

7. Il a trois sources de pouvoir : l'autorité du bureau ; connaissance; personnalité et


pouvoir de persuasion; tact. Un bon gestionnaire de personnes développe les
points 2 (connaissance) et 3 (personnalité et pouvoir de persuasion); il ne s'appuie
pas sur le n° 1 (autorité du bureau). Il a néanmoins l'obligation d'utiliser le n° 1,
car cette source d'énergie lui permet de modifier le processus — équipement,
matériaux, méthodes — pour apporter une amélioration, telle qu'une réduction
des variations de rendement. (Dr Robert Klekamp). Il est en autorité, mais
dépourvu de connaissance ou de personnalité (n° 2 ou 3), doit dépendre de son
pouvoir formel (n° 1). Il comble inconsciemment un vide dans ses qualifications
en faisant comprendre à tout le monde qu'il est en position d'autorité. Sa volonté
sera faite.

8. Il étudiera les résultats dans le but d'améliorer ses performances en tant que
gestionnaire de personnes.
9. Il essaiera de découvrir qui, si quelqu'un est en dehors du système, a besoin d'une
aide spéciale. Cela peut être accompli avec des calculs simples, s'il existe des
chiffres individuels sur la production ou sur les pannes. L'aide spéciale peut n'être
qu'un simple réaménagement du travail. C'est peut­être plus compliqué.
Celui qui a besoin d'une aide spéciale n'est pas dans les 5% inférieurs de la distribution
des autres : il est propre en dehors de cette distribution. (Voir Fig. V.1.)
10. Il crée la confiance. Il crée un environnement qui encourage la liberté et l'innovation.

11. Il ne s'attend pas à la perfection.


12. Il écoute et apprend sans porter de jugement sur lui qu'il
écoute.

Figure V.1 Les chiffres sur la production ou sur les défaillances, s'ils existent, peuvent être tracés.
L'étude des chiffres montrera le système et les valeurs aberrantes s'il y en a.
Machine Translated by Google

Gestion des ressources humaines 365

13. Il tiendra une conversation informelle et sans hâte avec chacun des siens au
moins une fois par an, non pas pour juger, simplement pour écouter. Le but
serait de développer la compréhension de son peuple, ses objectifs, ses
espoirs et ses peurs. La rencontre sera spontanée et non planifiée à l'avance.

14. Ils comprennent les avantages de la coopération et les pertes de la concurrence


entre les personnes et entre les groupes (Kohn, 1986).

La perspective de Deming est importante en ce qu'elle représente une rupture


radicale avec la vision traditionnelle du rôle du manager. Au moment d'écrire ces lignes,
il représente un ensemble de directives normatives que peu d'organisations intègrent
complètement, et intègre une grande partie de la compréhension moderne de la
psychologie motivationnelle.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 18

Théories et principes

de la motivation
Machine Translated by Google
Machine Translated by Google

La science de la psychologie, bien qu'encore à ses balbutiements, a beaucoup à offrir à


quiconque souhaite motiver les gens à faire un meilleur travail.

La hiérarchie des besoins de Maslow


Le professeur AS Maslow de l'Université Brandeis a développé une théorie de la motivation
humaine élaborée par Douglas McGregor. La théorie décrit une « hiérarchie des besoins ».
La figure 18.1 illustre ce concept.
Maslow a postulé que les besoins inférieurs doivent être satisfaits avant que l'on puisse
être motivé à des niveaux supérieurs. De plus, à mesure qu'un individu monte dans la
hiérarchie, la stratégie motivationnelle doit être modifiée car un besoin satisfait n'est plus un
facteur de motivation ; par exemple, combien paieriez­vous pour une bouffée d'air en ce
moment ? Bien sûr, la réponse est rien car il y a une abondante réserve d'air libre.
Cependant, si l'air était rare, vous seriez prêt à payer beaucoup.

La hiérarchie commence par les besoins physiologiques. À ce niveau, une personne


recherche les nécessités physiques simples de la vie, telles que la nourriture, le logement
et les vêtements. Une personne dont les besoins physiologiques de base ne sont pas
satisfaits ne sera pas motivée par des appels à la fierté personnelle. Si vous souhaitez
motiver le personnel à ce niveau, offrez des récompenses monétaires telles que des primes
de bonne qualité. D'autres stratégies de motivation incluent des opportunités de travail
supplémentaire, des promotions ou de simples augmentations de salaire. À mesure que les
entreprises continueront à faire plus d'affaires dans les régions sous­développées du monde,
cette catégorie de travailleurs deviendra plus courante.
Une fois les besoins physiologiques simples satisfaits, la motivation tend à se fonder
sur la sécurité. À ce stade, des questions telles que la sécurité de l'emploi deviennent
importantes. La motivation de qualité des travailleurs à ce stade était autrefois difficile.
Cependant, depuis la perte de millions d'emplois au profit de concurrents étrangers qui
offrent des produits de meilleure qualité, il est facile pour les gens de voir la relation entre la
qualité, les ventes et les emplois.
Les besoins sociaux impliquent le besoin de se considérer comme un membre accepté
d'un groupe. Les personnes qui se situent à ce niveau de la hiérarchie réagiront aux
situations de groupe et travailleront bien dans les cercles de qualité, les groupes de
participation des employés ou les équipes d'amélioration de la qualité.

369
Machine Translated by Google

370 Gestiondesressourceshumaines

Besoins de réalisation de
soi

Besoins de l'ego

Besoins sociaux

Besoins de sécurité

Besoins psycologiques

Figure 18.1 Hiérarchie des besoins de Maslow.

Le niveau suivant, les besoins de l'ego, implique un besoin de respect de soi et du


respect des autres. Les personnes à ce niveau sont motivées par leur propre savoir­
faire artisanal, ainsi que par la reconnaissance de leurs réalisations par les autres.
Le niveau le plus élevé est celui de la réalisation de soi. Les gens à ce niveau sont
motivés. Ce type de personne se caractérise par une expression de soi créative. Tout
ce que vous avez à faire pour « motiver » les membres de ce groupe est de leur
donner l'occasion d'apporter leur contribution.

Théorie de l'hygiène de Herzberg


Frederick Herzberg est généralement crédité d'une théorie de la motivation connue
sous le nom de théorie de l'hygiène. L'hypothèse sous­jacente de base de la théorie de
l'hygiène est que la satisfaction au travail et l'insatisfaction au travail ne sont pas
opposées. La satisfaction peut être augmentée en prêtant attention aux « satisfaisants »
et l'insatisfaction peut être réduite en traitant les « insatisfaits ». La théorie est illustrée
à la Fig. 18.2.

Théories X, Y et Z Les gens


semblent rechercher un ensemble cohérent de croyances qui expliquent le monde
qu'ils voient. Les systèmes de croyances des managers ont été classés par McGregor
en deux catégories, qu'il a appelées Théorie X et Théorie Y.
Selon la Théorie X, les travailleurs n'ont aucun intérêt pour le travail en général, y
compris la qualité de leur travail. Parce que la civilisation a atténué les défis de la
nature, l'homme moderne est devenu paresseux et mou. Le travail des managers est
de gérer cela en utilisant « des carottes et des bâtons ». La carotte est une incitation
monétaire, comme le salaire à la pièce. Le bâton est amarré pour payer la mauvaise
qualité ou les objectifs de production manqués. Seul l'argent peut motiver le travailleur
paresseux et désintéressé.
Les partisans de la théorie Y croient que les travailleurs sont motivés en interne.
Ils sont satisfaits de leur travail et aimeraient performer à leur
Machine Translated by Google

Théories et principes de la motivation 371

Non
Satisfaction Satisfaction

Satisfaits (liés à l'emploi)


Le travail lui­même
Responsabilité
Avancement
Réalisation
Reconnaissance

(Motivateurs)

Non
Insatisfaction Insatisfaction

Insatisfaits (liés à la situation)


Politique d'entreprise
Surveillance
Salaire
Les relations interpersonnelles
Les conditions de travail

(Facteurs d'hygiène)

Figure 18.2 Théorie de l'hygiène de Herzberg.

meilleur. Les symptômes d'indifférence sont le résultat du lieu de travail moderne, qui
limite ce que les travailleurs peuvent faire et les sépare des résultats finaux de leurs
efforts. C'est le travail de la direction de changer le milieu de travail afin que les travailleurs
puissent, une fois de plus, retrouver la fierté de leur travail.
Des éléments de la théorie Y sont évidents dans la discussion de Deming sur le rôle d'un
gestionnaire de personnes, présentée dans l'introduction de la partie V.
Les théories X et Y existent depuis des décennies. Bien plus tard, dans les années
1980, la théorie Z est devenue à la mode. Les organisations Z ont des cultures
cohérentes dans lesquelles les relations sont holistiques, égalitaires et basées sur la confiance.
Étant donné que les objectifs de l'organisation sont évidents pour tous et intégrés dans
le système de croyances de chacun, l'auto­direction est prédominante. Dans l'organisation
Z, les théories X et Y deviennent sans objet. Les travailleurs n'ont pas besoin de la
direction de la direction de la Théorie X, et la direction n'a pas non plus besoin de
travailler à l'élimination des obstacles puisqu'il n'y en a pas.
Machine Translated by Google
Machine Translated by Google

CHAPITRE 19

Styles de gestion
Machine Translated by Google
Machine Translated by Google

Style de gestion critique Si la hiérarchie


organisationnelle traditionnelle est considérée comme une « chaîne de commandement
», l'autorité ultime réside dans la position la plus élevée de l'organigramme. La personne
occupant ce poste délègue des pouvoirs à des subordonnés qui peuvent, à leur tour,
déléguer des pouvoirs à des employés plus bas dans la hiérarchie. Dans ce système,
les managers sont censés utiliser leur autorité pour faire le travail via le commandement
et le contrôle.
L'action est basée sur le jugement du manager. Ce système exige effectivement que les
managers possèdent une connaissance complète du travail effectué par leurs
subordonnés – comment le manager pourrait­il autrement « commander et contrôler »
le travail ? Bien sûr, cette omniscience n'existe pas. Ainsi, les managers qui tentent de
suivre cette métaphore de trop près se retrouvent à prendre des décisions plus ou
moins basées sur des conjectures.
Il en résulte des erreurs dont les managers sont tenus responsables.
Les managers qui commettent trop d'erreurs peuvent être licenciés, rétrogradés ou
sanctionnés. Une réponse naturelle à cette menace est la peur, qui peut amener les
managers à blâmer leurs subordonnés pour leurs « échecs ». En raison de l'état d'esprit
autoritaire, les problèmes sont attribués aux individus et non aux systèmes.
Cela produit l'approche classique de l'évaluation des performances, y compris le
classement des employés, la rémunération au mérite, etc. Un autre résultat est d'agir
uniquement lorsque cela est absolument nécessaire. Puisque les actions sont basées
sur des jugements, les jugements peuvent conduire à des erreurs, et les erreurs sont
punies ; les gestionnaires qui peuvent minimiser l'action minimiseront le risque que des
erreurs se produisent qui peuvent leur être imputées. Bien sûr, cette tendance est
partiellement compensée par la menace d'être blâmé pour ne pas atteindre les objectifs
fixés par les autorités supérieures.

Style de gestion basé sur les données Une


réaction aux lacunes évidentes du style de gestion axée sur le jugement a été d'essayer
d'améliorer les jugements en s'appuyant sur des « faits ». Les gestionnaires sollicitent
les commentaires des employés et examinent les données dans les rapports avant de
prendre une décision. Apparemment, cette « approche basée sur les données » modifie la

375
Machine Translated by Google

376 Gestiondesressourceshumaines

base d'action du jugement du gestionnaire aux données. Les résultats sont


légèrement meilleurs qu'avec l'approche purement subjective. Cependant, les
données sont toujours incomplètes et l'élément de jugement ne peut jamais être
complètement supprimé. Dans la mesure où les managers abdiquent leur
responsabilité de porter un jugement, la qualité des décisions en souffrira. Un autre
problème est le temps nécessaire à la collecte des données. Le temps (et les
dépenses) nécessaires augmentent de manière exponentielle dans la mesure où les
managers souhaitent retirer tout jugement de la décision et insistent sur des données « complètes ».

Style de gestion basé sur les données/jugement combiné


La plupart des experts en gestion préconisent de prendre des décisions de gestion
basées sur une combinaison du jugement du gestionnaire et de quantités raisonnables
d'analyse de données. Les gestionnaires, en collaboration avec toutes les parties
concernées, formulent un modèle cohérent du système. Le modèle (ou la théorie) est
utilisé pour prédire le résultat qui résulterait de l'exploitation du système d'une certaine
manière. Le système est exploité et des données sont recueillies sur les résultats
obtenus. Les résultats sont comparés aux résultats prédits par le modèle, et la théorie
et les systèmes sont mis à jour en conséquence. Il s'agit du cycle classique Shewhart
Plan­Do­Check­Act (PDCA) ou du cycle Deming Plan­Do Study­Act (PDSA). Il
ressemble étroitement à la méthode scientifique, analyse d'hypothèse­expérience­
test. Il est largement utilisé dans les organisations qui ont adopté l'approche Six
Sigma DMAIC pour la résolution de problèmes, où la direction utilise des projets Six
Sigma ciblés pour exécuter une prise de décision basée sur les données.

Avec ce style de gestion, les systèmes sont évalués plutôt que les personnes.
Le changement d'orientation est fondamental et profond. Ici, le jugement est une
source de génération d'hypothèses sur des systèmes ou des problèmes, et les
données sont utilisées pour évaluer la qualité des hypothèses. On demande aux gens
de travailler pour stabiliser, puis améliorer, les systèmes et l'organisation dans son ensemble.

Style de gestion participative La prémisse du


style de gestion participative est la conviction que les travailleurs peuvent apporter
une contribution à la conception de leur propre travail, sur la base de la théorie Y de
McGregor.
Les gestionnaires qui pratiquent le style de gestion participatif ont tendance à
adopter certains types de comportement. Pour engager les travailleurs qu'ils
établissent et communiquer le but et la direction de l'organisation. Ceci est utilisé pour
aider à développer une vision partagée de ce que l'organisation devrait être, qui est
utilisée pour développer un ensemble de plans partagés pour réaliser la vision.
Le rôle des managers est celui d'un leader. Par leurs actions et leurs paroles, ils
montrent la voie à leurs employés. Ils sont également des entraîneurs, évaluant les
résultats des efforts de leurs employés et les aidant à utiliser les résultats pour s'améliorer.
Machine Translated by Google

S tyles de gestion 377

leurs processus. Ils travaillent avec les leaders au­dessus d'eux dans l'organisation pour
améliorer les systèmes de l'organisation et l'organisation dans son ensemble.

Style de gestion autocratique


La prémisse du style de gestion autocratique est la théorie X de McGregor : la croyance
que dans la plupart des cas, les travailleurs ne peuvent pas contribuer à leur propre travail
et que même s'ils le pouvaient, ils ne le feraient pas. Les praticiens de la Théorie X
favoriseraient le style de gestion autocratique. Les gestionnaires autocratiques tentent de
contrôler le travail dans la mesure du possible. Une menace majeure pour le contrôle est
la complexité; les métiers complexes sont plus difficiles à apprendre et les travailleurs qui
maîtrisent ces métiers sont rares et possèdent un certain contrôle sur la façon dont le
travail est fait. Ainsi, les managers autocratiques tentent de simplifier le travail pour
obtenir un contrôle maximum. La planification des travaux, y compris la planification de la
qualité, est centralisée. Une approche descendante stricte de la chaîne de commandement
est pratiquée. Les procédures sont maintenues dans les moindres détails et appliquées
par des audits fréquents. Les exigences relatives aux produits et aux processus sont
enregistrées avec des détails tout aussi fins et des inspections en cours de fabrication et
finales sont utilisées pour contrôler la qualité.

Management by Wandering Around Peters et Austin


(1985, p. 8) appellent Management by Wandering Around (MBWA) « la technologie de
l'évidence ». MBWA répond à un problème majeur des managers modernes : le manque
de contact direct avec la réalité. Beaucoup, peut­être la plupart, des managers n'ont pas
assez de contacts directs avec leurs employés, leurs fournisseurs ou, surtout, leurs
clients. Ils maintiennent un contact superficiel avec le monde par le biais de réunions, de
présentations, de rapports, d'appels téléphoniques, d'e­mails et de cent autres moyens
qui n'engagent pas tous leurs sens. Ce n'est pas assez. Sans un contact plus intense, les
managers ne peuvent tout simplement pas intérioriser pleinement l'expérience de l'autre
personne. Ils doivent donner à la réalité une chance de leur faire vraiment découvrir le
monde. La différence entre la réalité et la perception qu'ont de nombreux managers de la
réalité est aussi grande que la différence entre un souffle glacial d'air arctique transperçant
de minces vêtements d'intérieur et regarder un bulletin météo d'un blizzard depuis une
plage ensoleillée des Bahamas.

MBWA est une autre façon, plus personnelle, de collecter des données. Les puristes
de la statistique dédaignent et rejettent souvent les données obtenues à partir de
rencontres opportunistes ou d'observations non structurées. Mais les informations
obtenues en écoutant les employés ou les clients s'épanouir ne sont pas moins
«scientifiquement valables» qu'une impression informatique des résultats d'enquêtes
auprès des clients. Et les données MBWA sont d'un type différent. La science n'a pas
encore développé d'instruments fiables pour capturer l'information contenue dans des personnes en colère o
Machine Translated by Google

378 Gestiondesressourceshumaines

la hauteur de la voix, les expressions faciales, le gros soupir, mais les humains n'ont aucun mal
à comprendre le sens que ceux­ci véhiculent dans le contexte d'une rencontre en face à face. Il
se peut que la nature nous ait câblés pour recevoir et comprendre ces signaux à travers des
éternités d'évolution.
Les techniques employées par les managers qui pratiquent MBWA sont aussi variées que
les personnes elles­mêmes. Le point important est d'établir un contact direct avec le client,
l'employé ou le fournisseur, de près et personnellement.
Cela peut impliquer de rendre visite aux clients sur leur lieu de travail ou de les amener au vôtre,
de gérer le bureau de commande ou la ligne de réclamation tous les mois, de s'asseoir
spontanément avec les employés à la cafétéria, en tête­à­tête ou en groupe, ou d'inviter le
camion du fournisseur chauffeur à votre bureau pour prendre un café. Utilise ton imagination. Un
conseil : assurez­vous de planifier une heure MBWA régulière. Si ce n'est pas sur votre calendrier,
vous ne le ferez probablement pas.

Fourth Generation Management Dans son livre


Fourth Generation Management, Brian Joiner développe quatre catégories de styles de
management, qu'il appelle « générations » (Joiner, 1994, pp. 8­9) :

• 1ère génération—gestion par la pratique. Nous faisons simplement la tâche nous­mêmes.


En supposant que nous possédons les connaissances, les compétences, les capacités
et la technologie nécessaires, il s'agit d'un moyen efficace de s'assurer que les tâches
sont effectuées selon nos besoins personnels. Son principal problème est, bien sûr, sa
capacité limitée. En tant qu'individus, nous n'avons pas les prérequis nécessaires pour
faire tout sauf une gamme limitée de tâches, ainsi que le temps de faire plus que
quelques choses. Bien sûr, il y aura toujours des tâches effectuées en utilisant cette
approche. •2e

génération—gestion par la direction (microgestion). Les gens ont découvert qu'ils pouvaient
étendre leur capacité en disant aux autres exactement quoi faire et comment le faire :
un maître artisan donnant des instructions détaillées aux apprentis. Cette approche
permet aux experts de tirer parti de leur temps en demandant à d'autres de faire une
partie du travail, et elle maintient une stricte conformité aux normes des experts. Bien
que la capacité de cette approche soit meilleure que la gestion de 1ère génération, la
microgestion a encore une capacité limitée.

•3ème Génération—gestion par les résultats. Les gens en ont marre que vous leur disiez
tous les détails sur la façon de faire leur travail et que vous leur disiez : "Dites­moi
simplement ce que vous voulez pour quand, et laissez­moi le soin de trouver comment
le faire." Alors, vous dites : « D'accord. Réduire les stocks de 20 % cette année. Je vous
récompenserai ou vous punirai en fonction de la façon dont vous le faites. Bonne
chance." C'est l'approche actuelle de la gestion pratiquée par la plupart des organisations
modernes, avec tous les problèmes de sous­optimisation évoqués précédemment. Sous­
optimisation
Machine Translated by Google

S tyles de gestion 379

Qualité

Approche Toute une équipe


scientifique

Figure 19.1 Le triangle de Joiner (Joiner, 1994, avec permission).

un seul département, division ou autre unité est le problème le plus fréquemment


observé avec cette approche.
• 4e génération—approche systémique. Les éléments de base de la gestion de 4e
génération sont illustrés à la Fig. 19.1. Le coin qualité du triangle représente une
obsession de la qualité perçue par le client.
L'organisation cherche à ravir ses clients, pas seulement à les satisfaire. Le coin
de l'approche scientifique indique apprendre à gérer l'organisation comme un
système, développer une réflexion sur les processus, fonder les décisions sur les
données et comprendre les données. « Toute une équipe » signifie croire en les
gens ; traiter chacun avec dignité, confiance et respect; et travailler vers une
situation gagnant­gagnant pour les clients, les employés, les actionnaires, les
fournisseurs et les communautés dans lesquelles nous vivons.

La Cinquième Discipline
Senge (1990) définit cinq disciplines clés pour le succès organisationnel :

1. Pensée systémique. La capacité de reconnaître les interrelations entre les


nombreuses actions qui se produisent au sein des systèmes, plutôt que de se
concentrer sur des instantanés linéaires de simples relations de cause à effet.
2. Maîtrise personnelle. La capacité des individus à rechercher continuellement des
niveaux plus élevés de compétence et d'excellence, tout comme le plus haut
niveau d'actualisation de soi de Maslow.
3. Modèles mentaux. Les individus ont souvent des idées préconçues, peut­être
inconnues d'eux­mêmes, qui influencent leurs perceptions et leurs perspectives.
La pensée critique ne peut se produire que lorsque les organisations encouragent
les discussions pour découvrir et influencer les modèles mentaux.

4. Construire une vision partagée. Même les visions organisationnelles bien


articulées échoueront si elles ne sont pas partagées par les membres de
l'organisation. La création et l'exécution d'une vision partagée nécessitent des
Machine Translated by Google

380 Gestion des ressources humaines

engagement envers la vision et le développement du personnel et des systèmes


pour soutenir la vision.
5. Apprentissage en équipe. Senge décrit les équipes comme «l'unité d'apprentissage
fondamentale» dans une organisation. L'apprentissage résulte d'un dialogue
efficace, un mot qui, selon Senge, a ses origines dans le libre échange d'idées,
ainsi que la reconnaissance et le remède de la communication contre­productive
(par exemple, la défensive).

Un aspect essentiel de l'approche de Senge est l'intégration des systèmes du


Cinq éléments; individuellement, ils ne suffiront pas.
Le lecteur doit reconnaître que l'approche au niveau des systèmes préconisée par
Senge et Joiner est tissée tout au long de ce livre dans une variété de contextes.
Deming a fortement préconisé la pensée systémique dans la résolution et la gestion des
problèmes et a spécifiquement mis en garde contre les dangers de l'optimisation des
processus localisés au détriment des améliorations à l'échelle du système. Womack et
Jones (1996) recommandent la mise en œuvre des principes Lean sur l'ensemble de la
chaîne d'approvisionnement, de la matière première à l'utilisation par le client final. Les
programmes Six Sigma sont conçus au niveau organisationnel, mettant en œuvre des
projets interfonctionnels, s'attaquant aux problèmes critiques de coût, de qualité et de
calendrier, impactant les principaux groupes de parties prenantes, notamment les clients,
les fournisseurs, les employés et les actionnaires.
Il devrait être clair que tous les aspects de la gestion de la qualité, y compris
l'assurance, la planification et l'amélioration, nécessitent une approche systémique.
Tout ce qui est inférieur à cela, comme les activités d'amélioration des processus "à la
base" au niveau départemental, risque de sous­optimiser le système au détriment de
l'optimisation des processus locaux. Il incombe à la direction d'exploiter efficacement
l'inertie organisationnelle pour l'amélioration et de la guider vers une solution systématique
des problèmes. Rien de moins est un échec de la gestion.
Machine Translated by Google

CHAPITRE 20

Besoins en ressources pour


Gérer la fonction qualité
Machine Translated by Google
Machine Translated by Google

ressources dans l'ensemble de l'organisation ­ pour de nombreuses personnes,


L'approche moderne
le prix de la qualité
est d'environ 10 pournécessite
cent deun investissement
leur temps (Juranenettemps et 1993, p.
Gryna,
129). À terme, cet investissement génère des gains de temps qui deviennent
disponibles pour des activités de qualité et d'autres activités. À court terme,
cependant, ces ressources sont détournées d'autres priorités organisationnelles urgentes.
La haute direction a le rôle clé de fournir des ressources pour des activités de qualité.
Ceci est accompli à travers les conseils de qualité mentionnés plus haut, ainsi qu'en
finançant régulièrement les activités du département de qualité. Une alternative
consiste à ajouter des ressources, mais cela est rarement faisable dans un
environnement hautement concurrentiel. Plus généralement, les priorités sont ajustées
pour détourner les ressources existantes vers la planification, le contrôle et
l'amélioration de la qualité. Cela signifie que d'autres travaux doivent être éliminés
ou reportés jusqu'à ce que le retour sur investissement des efforts de qualité permette leur achèvement
Avant de pouvoir demander des ressources, leur utilisation doit être déterminée.
Cela devrait être fait en utilisant un processus rationnel qui peut être expliqué
aux autres. L'exercice fournira également une base pour la budgétisation. La
figure 20.1 illustre l'approche utilisée par un grand organisme de santé intégré
pour déterminer ses besoins en ressources de qualité. L'approche est utilisée
par l'ensemble de l'organisation, pas seulement par le service qualité. En effet,
l'organisation ne dispose pas d'un « service qualité » au sens traditionnel d'une
activité centralisée de contrôle qualité.
Les personnes affectées aux équipes de qualité doivent être conscientes du temps qui
sera nécessaire pendant qu'elles font partie d'une équipe. Si le temps est un problème, ils
devraient être encouragés à proposer des changements dans leurs autres priorités avant le
début de l'activité d'équipe. Les ressources pour les équipes de projet ne seront mises à
disposition que si les équipes pilotes démontrent des avantages en obtenant des résultats
tangibles. Au fur et à mesure que les équipes compilent des dossiers de réussite, il deviendra
plus facile de sécuriser les ressources pour la fonction qualité. Idéalement, le financement
de l'amélioration de la qualité deviendra une partie courante du processus budgétaire, tout
comme la R&D.
Les rapports sur les coûts de la qualité constituent une source précieuse
d'informations pour garantir les ressources nécessaires à l'amélioration de la qualité.
Les coûts de qualité indiquent l'impact total de la non­conformité sur le résultat net de l'entreprise. Si la

383
Machine Translated by Google

384 Gestiondesressourceshumaines

Les questions suivantes ont été décrites dans le but de fournir une recette permettant à chaque région de HealthPartners
of Southern Arizona d'identifier, d'illustrer et de détailler les exigences de service et les coûts de prestation de services et/
ou de produits à nos clients. Veuillez répondre à chacune des questions suivantes avec autant de détails que nécessaire.

I. Client/exigences du client

A. Quels sont les principaux produits ou services que vous proposez à vos clients ?
B. Qui sont vos clients ? (Qui reçoit le résultat de vos produits ou services ?)
C. Quelles sont les attentes de vos clients vis­à­vis des produits ou services que vous fournissez à
eux?
D. Quels attributs de ces services ou produits sont les plus importants pour vos clients (par exemple,
opportun, confortable, rentable) ?
E. Quelles techniques de mesure utilisez­vous pour confirmer les exigences de vos clients ?
F. Quels sont les principaux facteurs qui rendent vos produits ou services nécessaires ?

II. Structure et processus

A. Créez un organigramme descendant ou détaillé de vos processus clés. (Les processus clés sont définis
comme les processus qui fournissent des services ou des produits directement à vos clients.)
B. Identifiez les niveaux de compétence requis pour chaque étape de votre processus. (Par exemple, une IA commence
une intraveineuse ou un analyste des dossiers de santé termine le processus de codage du dossier.)

1. Identifiez le nombre de niveaux de compétence requis à chaque étape. (Les étapes peuvent impliquer plus d'un
niveau de compétence et/ou des multiples d'un niveau de compétence.)
2. Combien de temps faut­il à chaque niveau de compétence pour terminer chaque étape du processus ?
3. Quelle est la durée moyenne pour terminer un cycle du processus ? Existe­t­il un délai standard dans
l'industrie pour terminer ce processus ? Comment votre processus se compare­t­il aux normes de
l'industrie ? S'il n'y a pas de norme comparable, combien de temps ce processus devrait­il prendre
par rapport au temps réel nécessaire pour terminer le processus ?
(Astuce : si vous deviez mesurer ce processus en supposant qu'il n'y avait pas de retards, de goulots d'étranglement,
de pénurie de ressources, etc., combien de temps cela prendrait­il ?)
4. Identifiez toutes les autres ressources nécessaires pour soutenir l'ensemble du processus (par
exemple, équipement réutilisable, fournitures jetables, services achetés).

III. Affectation des coûts

A. Quels sont les coûts totaux chaque fois que le processus est terminé et que le produit ou le service est
livré ? (C'est­à­dire, quels sont les coûts totaux par unité de service ?)
B. Quels sont les coûts de temps de cycle pour chaque étape du processus ?

IV. Améliorations des processus

A. Quelles sont les causes, les retards ou les obstacles dans votre processus qui créent de la non­valeur
coût supplémentaire ?

B. Quel niveau de variation et de complexité existe­t­il dans votre processus ? Comment mesurez­vous la
variation et la complexité de votre processus ? (Astuce : Que vous dit une carte de contrôle sur la
variabilité du processus ?)
C. Si vous pouviez faire une ou deux choses pour réduire les délais, le gaspillage ou la complexité, quelle
ferais tu?
D. Si vous réussissiez à réduire les délais, le gaspillage, les erreurs et la complexité, comment cela
améliorerait­il le produit ou le service aux yeux de votre client ? (Quel niveau de satisfaction amélioré en
résulterait ?)

Figure 20.1 Processus d'identification des besoins en ressources de qualité. HealthPartners du sud de
l'Arizona ; Dossier de décision. Avec l'aimable autorisation de HealthPartners du sud de l'Arizona. Utilisé
avec autorisation.
Machine Translated by Google

Besoins en ressources pour gérer la fonction qualité 385

l'allocation pour la prévention de ces coûts est faible par rapport aux coûts totaux de la qualité, la
direction peut voir par elle­même l'impact potentiel des dépenses dans le domaine de la réduction
des coûts de la qualité. De même, si les coûts de défaillance externes sont élevés par rapport aux
coûts d'évaluation, des dépenses d'évaluation supplémentaires peuvent être justifiées.

L'un des inconvénients de l'utilisation des coûts de la qualité pour déterminer les besoins en
ressources de la fonction qualité est que les coûts les plus élevés sont difficiles à déterminer avec
un degré élevé de précision. Quel est le coût si quelqu'un n'achète pas votre produit ? Aussi difficile
qu'il soit de mesurer la valeur de la fidélisation d'un client existant, il est plus difficile de savoir
quand un client potentiel n'a pas considéré votre produit en raison d'une mauvaise réputation de
qualité. Il est également difficile d'estimer le coût des défaillances futures avec de nouveaux
produits ou procédés. Par exemple, une entreprise a décidé de commencer à fabriquer ses propres
boîtes de vitesses. La demande du service qualité pour un vérificateur de matériel coûteux a été
refusée car ils ne pouvaient pas quantifier avec précision les avantages de l'équipement (le coût
était facile à déterminer, 50 000 $).

Deux ans plus tard, un problème sur le terrain avec les engrenages a conduit à un programme de
réparation sur le terrain de 1,5 million de dollars. Par la suite, l'achat du gear­checker a été
rapidement approuvé.
Un autre problème avec les coûts de qualité est qu'ils mesurent les aspects négatifs plutôt
que le manque de points positifs. La qualité n'est pas seulement l'absence de points négatifs (par
exemple, des défauts) ; c'est la présence de caractéristiques souhaitables. Les coûts de qualité ne
mesurent que le coût de la première. Bien qu'il existe des techniques pour estimer le coût des
affaires perdues en raison d'un manque de fonctionnalités souhaitables, elles ne sont pas aussi
bien définies ou standardisées que les coûts de qualité. Ainsi, il est difficile de faire une déclaration
générale concernant leur utilisation dans la sécurisation des ressources pour la fonction qualité.

Évaluation du rendement Peu de sujets

soulèvent autant de colère que les évaluations du rendement. Il y a des sentiments forts des deux
côtés de la question. Nous discuterons du processus traditionnel d'évaluation des employés, de
certaines critiques de l'approche et de certaines alternatives.

Évaluations de performance traditionnelles


Les systèmes d'évaluation des performances comprennent généralement :

•Normes de performance. Les normes sont généralement à la fois qualitatives et quantitatives.


Le superviseur et l'employé doivent tous deux connaître les normes et, généralement,
tous deux acceptent les normes à l'avance. Souvent, les employés et les superviseurs
travaillent ensemble pour développer les normes de performance.

•Période d'évaluation. Habituellement, la période d'évaluation correspond au cycle budgétaire,


c'est­à­dire 1 an. C'est parce que les évaluations du rendement
Machine Translated by Google

386 Gestion des ressources humaines

sont souvent utilisés pour déterminer qui obtient quelle part du « gâteau » budgétaire
alloué aux augmentations salariales. De plus, une année est considérée comme une
période suffisamment longue pour atteindre les objectifs de performance définis lors
de l'élaboration des normes. •L'évaluation.
Traditionnellement, l'évaluation est à sens unique : le superviseur évalue l'employé. Les
employés sont parfois invités à fournir leurs propres observations.

• Réunion. Une rencontre privée en personne a lieu entre le superviseur et l'employé


pour discuter de l'évaluation.

Les entreprises qui utilisent l'approche traditionnelle ont le sentiment qu'elle offre une telle
avantages en tant que :

• Donner des commentaires aux employés


• Donner des directives aux employés •
Identifier les besoins de formation •
Favoriser la communication entre le gestionnaire et l'employé • Fournir des
preuves pour les décisions de promotion • Fournir une base
pour les décisions de rémunération • Servir de défense dans
les affaires juridiques associées aux promotions ou
résiliations

Le « livrable » de l'évaluation du rendement est souvent un classement des employés,


c'est­à­dire l'employé n° 1, n° 2, etc. Un autre livrable connexe est la « note de l'employé ».
Des labels tels que « excellent », « satisfaisant » ou « faible » sont appliqués à chaque
employé. Certaines entreprises placent les personnes dans des groupes définis par d'autres
moyens. Les classements, les notes et les regroupements sont ensuite utilisés pour
déterminer les promotions, les augmentations de salaire ou même les mesures disciplinaires et les licenciements.

Critiques des évaluations traditionnelles des employés


Permettez­moi de préfacer cette section en déclarant que la littérature critiquant les évaluations
des employés est si vaste que nous ne pouvons en fournir qu'un bref résumé ici. Benneyan
(1994) fournit une bibliographie d'articles essentiels à l'évaluation des performances qui
contient près de 300 références remontant à 1932. Deming classe les évaluations des
performances comme la « troisième maladie mortelle » du management occidental :

Système d'examen personnel, ou évaluation de la performance, notation au mérite, examen


annuel, ou appréciation annuelle, quel que soit le nom, pour les personnes en gestion, les
effets… sont dévastateurs. La notation annuelle au mérite est destructrice pour la planification à
long terme, nourrit les performances à court terme, anéantit le travail d'équipe et démoralise les
employés. La gestion par objectif, sur une base go­no­go, sans méthode d'accomplissement de
l'objectif, c'est la même chose sous un autre nom. La gestion par la peur serait encore meilleure.
Machine Translated by Google

Besoins en ressources pour gérer la fonction qualité 387

Joiner (1994) appelle la notation, le classement et le regroupement des employés


« les trois grands démoralisateurs » et recommande :

Abolissez­les demain ! Ces trois­là font beaucoup de mal et pas de bien ; le remède est simple et
rapide.

La principale critique des évaluations du rendement est que la pratique est


incompatible avec, voire contradictoire, avec le rôle du gestionnaire dans le milieu de
travail moderne. La philosophie de qualité de Deming soutient que les conséquences
négatives des systèmes d'examen annuel du mérite sont absolument dévastatrices
pour toute organisation et qu'elles restent un obstacle infranchissable à l'amélioration
significative des processus. Benneyan résume les arguments contre l'examen annuel
au mérite comme suit :

Contrairement aux souhaits d'une organisation axée sur la qualité, ces processus de gestion
inefficaces encouragent une performance « sûre » à court terme au détriment d'une planification
à long terme. De plus ils

• Anéantir le travail d'équipe et la confiance

• Démoraliser les employés et détruire la satisfaction du personnel •


Instiller la peur

• Décourager la prise de risques et la recherche


• Favoriser la médiocrité
• Augmenter la variabilité des
processus • Encourager la rivalité, la concurrence et la politique

Le résultat net est de décourager l'amélioration significative et maximale des processus. Les
effets négatifs l'emportent de loin sur toute valeur perçue car, sans leur suppression, les niveaux
de qualité souhaités pourraient ne jamais être réalisables.

De nombreux arguments supplémentaires existent pour piloter rigoureusement de telles


pratiques auprès de toutes les organisations de qualité. Par exemple, il est essentiellement
impossible de concevoir un système dans lequel les personnes sont évaluées uniquement sur
des événements sous leur contrôle. L'idée même que tous les managers, ou d'ailleurs certains,
possèdent, ou pourraient jamais posséder, les compétences nécessaires pour juger de la valeur
d'un employé est à la fois quelque peu absurde et insultant. Au contraire, ce qui est considéré
comme une évaluation de l'employé est plutôt le reflet du système de gestion de cet employé !

Les cotes de mérite récompensent les personnes qui réussissent bien dans le système actuel.
Contrairement aux philosophies de qualité modernes, l'accent est mis principalement sur des
objectifs mesurables . En fin de compte, de telles tactiques de motivation ne récompensent pas
les tentatives d'amélioration du système, et l'organisation est perdante. De plus, la tentative
sincère d'évaluer la performance d'un individu sur la base de l'observation personnelle d'un autre
et de l'apport d'autrui introduit des biais inévitables qui compromettent même les meilleures
intentions.
388 Management of Human Resources

Other criticisms that have been leveled against traditional performance


appraisal include:

• Traditional performance appraisal focuses on the individual,


despite solid evidence that the variance in performance is
predominantly due to the system.
• It ignores, or at best, devalues, cooperative efforts.
• The goals it sets tend to be static.
• The nature of the appraisal (boss evaluating employee) emphasizes
the hierarchical status, at the expense of a process-and-customer
orientation.
• It reinforces command and control behavior and de-emphasizes
initiative.
• The multiple ratings/rankings/groupings are not statistically
valid.
• Few people are ever classified as “average.”
• It causes “high” performers to slack off, and “average” or “poor”
performers to brood.
• Appraisals are a detection-oriented technique.
• It leads to tampering with the system.

Alternatives to Traditional Appraisals


One alternative has already been mentioned: stop it now. This is the action
recommended by Deming, Joiner, Scholtes, and many others. It’s a way to
stop the damage while you explore the options described below, or invent
your own alternative.

Alternative #1: Fix What’s Broken


Prince (1994) believes that the above criticisms of traditional perfor-
mance appraisals can be summarized as arguing that “performance
appraisal systems cannot accomplish what they are designed to achieve
and inevitably do more harm than good.” He believes that this argu-
ment is simply saying that bad sys­tems are worse than no system at all.
As a middle ground, Prince offers the fol­lowing broad guidelines to firms
who wish to design reward and appraisal systems compatible with a
quality improvement strategy:

1. Rating scales used should have few, not many, rating categories.
Most performers should be in the middle category. (Your author
suggests three categories: below the system, within the system,
and above the system. Unless extremely strong evidence is
available, performers should be rated as within the system.)

20_Pyzdek_Ch20_p381-398.indd 388 11/9/12 5:31 PM


Resource Requirements to Manage the Quality Function 389

2. Integrate subordinate, peer, customer, and self-evaluations with


supervisory ratings into the process. This approach is sometimes
called a 360-degree appraisal process.
3. Use continuous improvement, quality, and customer satisfaction
as key evaluative criteria as well as traditional outcome or
behavioral criteria.
4. Require work team or group evaluations that are at least equal in
emphasis to individual-focused evaluations.
5. Use review procedures, particularly the appraisal meeting, that
include the supervisor, focal employee or team, peer and/or work
team representatives, and possibly customers.
6. Require more frequent performance reviews that have a dominant
emphasis on future performance planning and problem solving.
7. Promotion decisions should be made by an independent
administrative process that draws on performance-in-current-job
data from the indi­vidual appraisal system where appropriate but
also independently addresses employee’s performance potential
for the new job.
8. Adjustments to individual base salary should be skill based
rather than performance based.
9. Include performance-based rewards with a mix of individual
and team (or plant) bonuses, with the latter generally being the
larger of the two.
10. Require supervisors to have primary responsibility for addressing
work system constraints on performance uncovered in the
performance review session.

Alternative #2: Customer-Supplier Appraisals


Eckes (1994) also believes that performance appraisals are a necessary
part of business. He points out that customers constantly conduct perfor-
mance appraisals. When a customer doesn’t like a hotel’s service, the
result of his or her appraisal of that establishment is to not stay there
again. More businesses are now obtaining performance evaluations
through customer satisfaction surveys. Thus, as more companies are rec-
ognizing their internal and external customers, it is logical that the
appraisal function should take into account how well employees satisfy
the customers’ requirements. Eckes describes a six-step process for
customer-supplier appraisals:

• Identify the customers. This includes external customers, inter­


departmental internal customers, and intradepartmental internal
customers (department employees, department manager, and
technical advisors).

20_Pyzdek_Ch20_p381-398.indd 389 11/9/12 5:31 PM


390 Management of Human Resources

• Identify customer requirements. Meet with the customers to


determine what they expect.
• Determine metrics for current performance. Metrics should be
determined for each requirement.
• Identify areas for improvement.
• Form teams to develop improvement plans.
• Develop tools (surveys, interviews, etc.) for measuring customer-
perceived performance improvement.

Alternative #3: Process Appraisals


In a process appraisal the focus is not on outcomes, where the employee’s
level of control is debatable. Rather, the appraiser focuses on key process
behaviors that are under the employee’s direct control. For example, sup-
pose the output of a process is successful supplier projects. Rather than
concen­trating on this factor in the performance appraisal, the focus would
be on key success factors associated with individuals who consistently
produce success­ful supplier projects (e.g., communication skills). These
factors can not only form the developmental plans for each employee but
can also improve per­sonnel practices: candidates who already exhibit
these traits can be hired.

Alternative #4: Managing Personal Growth


In response to the criticisms of traditional performance appraisals, Dow
adopted a process called Managing Personal Growth (MPG) to help
employees and managers clarify what each manager expects from his or
her employ­ees and what the employees’ personal strengths and develop-
ment needs are. It is used by managers and their direct reports at all levels
and in all functions. The MPG process has four steps:

• Pre-workshop assignment. Each participant and his or her manager


independently define the participant’s job responsibilities, important
skills, and personal capabilities. Employees are asked to consider
and rate their personal and professional values. They are encouraged
to think of their career growth and accept responsibility for their
success or failure.
• Workshop. Participants attend a 1½- or 2-day workshop at which
they clarify their values and personal motivators and develop
ideas for increasing job satisfaction. They also compare their
priorities and skills with their managers’ assessments of the same.
Then they outline specific actions to increase job satisfaction and
improve performance.
• Development discussion. The participant and manager review the
employee’s development plan and agree on job priorities, areas for

20_Pyzdek_Ch20_p381-398.indd 390 11/9/12 5:31 PM


Resource Requirements to Manage the Quality Function 391

development, and the best ways to use the employee’s strengths.


The open discussion (typically 60 to 90 minutes) creates a
partnership that helps promote individual and organizational
success. It differs from a performance appraisal by focusing on
future development and encour­aging two-way communication.
• Continuing feedback. The manager and employee continue to meet
two or three times annually to talk about progress and plan for
contin­uing development.

Alternative #5: The Boss-less Performance Review


Fitzsimmons (1996) describes a performance review process developed
by a clerical organization for clerics in Baltimore, Maryland. The process
used is applicable to any professional and management position.
The organization was concerned with gathering systematic and reli-
able information about its ministers’ performance that could be used to
provide feedback and make future assignments. The director of the Pasto-
ral Personnel Services Staff in the Baltimore archdiocese, along with three
ministers, identi­fied the key roles of the parish minister along with associ-
ated behaviors that are central to fulfilling each role. Based on these roles,
a preliminary assess­ment instrument was field tested for validity. The
responses and discussions from the field test led to collapsing the four
roles into three. At the same time, two versions of the assessment instru-
ment evolved: one for pastors and one for associates. Further field tests of
the revised document were conducted until the staff and pastors were
satisfied that the instrument was valid and reliable.
Two members of the Pastoral Personnel Services Staff were made part
of the committee to bring their experiences and insights from the develop-
ment of the assessment instrument. The committee, with the assistance of
an outside consultant, then began to focus its attention on a process for
performance assessment. After brainstorming some ideas, hopes, and
preferences, it devel­oped a sequence of activities that would make up the
assessment process:

• Identify who is to be assessed. (Each minister would be evaluated


once every 5 years.)
• Prepare survey forms and letters.
• Develop a plan for administering the survey to the assessee’s
constituents.
• Conduct the survey. The survey instrument is used to collect
assessments from parish constituencies, such as a sampling of the
total congregation, church support staff, and the leadership of
various committees and special groups within the parish. This is
akin to conducting a survey of customers, suppliers, supervisors,
and colleagues.

20_Pyzdek_Ch20_p381-398.indd 391 11/9/12 5:31 PM


392 Management of Human Resources

• Review responses.
• Summarize the data into a printout.
• Discuss the summary with the assessee during a feedback session.
• With the assessee, write a memo of understanding (a joint agreement
on the significant points made by respondents) and a summary for
the personnel office.
• With the assessee, create an individual growth and development
plan.
• Conduct a follow-up 1 year later.

The person who fills the role traditionally filled by the “boss” in this
boss-less process is the confidant. The confidant is the person who con-
ducts the survey, reviews the responses, and helps create the memo, sum-
mary, and development plan. This individual, a respected peer of the
assessee, attends a 2-day certification program. The training focuses on
the process, the administrative activities associated with each step, the
skills of objectivity and joint decision making, and the format and guide-
lines for creating a development plan. Affirmation and mutual respect
are stressed throughout the training, as well as the need to protect the
anonymity of the survey respondents.

Use of the Boss-less Review in Any Organization Fitzsimmons offers the


following guidelines for using this peer review process for performance
evaluations with any professional:

• Create a process that will enable each professional to learn how his
or her behaviors are viewed by customers.
• Focus on professional behaviors exhibited by top performers that
are validated through testing.
• Gather information, as rated by the customers or constituents of the
profes­sional’s work, on that person’s behavior through a general
sampling method­ology that assures respondents’ anonymity.
• Use a peer, trained in coaching skills and the administrative
procedures, to oversee the process, conduct the assessment review,
help create a growth and development plan, and conduct the
follow-up session.
• Ensure confidentiality throughout the process by storing the
information in a special file and limiting access to only certain
individuals. This helps build trust and confidence in the process.
• Involve professionals in the decisions that affect them. Allow
them to validate the behaviors on which they will be assessed,
to review the sampling process for respondents, to participate

20_Pyzdek_Ch20_p381-398.indd 392 11/9/12 5:31 PM


Resource Requirements to Manage the Quality Function 393

in identifying peer confidants and selecting their own peer


reviewer, and to be part of build­ing a support system of resources
that will help them learn and grow toward professional mastery.

Professional Development
Professional development is the set of activities associated with obtaining
and maintaining professional credentials and of expanding one’s knowl-
edge in one’s chosen field. Here are a few examples of how some compa-
nies encourage their employ­ees to continue their professional development:
Granite Rock, 1992 Baldrige Award winner, conducts annual profession­al
develop­ment reviews with every employee.
Virginia Beach Ambulatory Surgery Center (outpatient surgery) gives cash
awards and newsletter recognition to people who pass certification exams.
Grumman and IBM both have “Quality Colleges” that offer employees the
equiva­lent of a college degree program in quality-related subjects.

Credentials
A credential is that which entitles one to a claim of authority or expertise in
a certain area. More concretely, a credential provides evidence that one has
a right to such a claim.
One class of credentials is compliance credentials. Compliance creden-
tials include licenses required by regulatory agencies for jobs that
involve public health and/or safety. In addition to legally required cre-
dentials, employers or customers may require credentials for such jobs
as a condition of the contract. Credentials are sometimes required to per-
mit one to perform certain tasks that require a level of skill that can’t be
easily determined by after-the-fact inspec­tion of the work, for example,
welding or reading of X-ray images. Such credentials are often highly
task-specific, for example, certified to perform a particular surgical pro­
cedure or to weld nuclear reactors. Since skills can deteriorate, periodic
recer­tification is usually required to maintain the credential. Examples
of jobs requiring compliance credentials are surgeons, certain engineer-
ing professions (including, in some states, quality engineering), nurses,
midwifes, radiology technicians, food and drug workers, nuclear inspec-
tors, nuclear welders, etc.

Professional Certification
It is possible to obtain certification in many of the broad categories of jobs
in the quality field. Certification is formal recognition by one’s peers
(ASQ) that an individual has demonstrated a proficiency within and a
comprehension of a specified body of knowledge at a point in time. Peer
recognition is not registration or licensing.

20_Pyzdek_Ch20_p381-398.indd 393 11/9/12 5:31 PM


394 Management of Human Resources

Professional Development Courses


Ongoing professional development can be obtained through in-house or
public seminars. In-house training is typically conducted by staff person-
nel, or by purchasing the service from outside sources. In-house courses
can be scheduled at the company’s con­venience and can be tailored to the
company’s specific needs. Because all of the attendees of in-house training
programs are from the same organization, discussions can focus on issues
that are relevant to the company. Also, the par­ticipants bring a common
background to the sessions that reduces the amount of time spent explain-
ing the examples to “outsiders.” In-house courses can be significantly
lower in terms of per-person registration fees, and the savings in travel
expenses can be considerable. To be cost effective, a minimum attend­ance
is usually necessary.
In-house training also has some disadvantages. If it is conducted on-
site, participants may be interrupted. The fact that all participants are from
the same company limits the opportunity to share ideas and experiences
with oth­ers from different backgrounds. Unless there are a significant
number of atten­dees, it may be less cost-effective than public seminars.

Goals and Objectives


Performance goal setting is an important activity that is closely related to
quality improvement. Goals set for departments, teams, or individuals
should be linked to the organization’s mission, purpose, and strategic
plans. Goals should not be set in a vacuum. The test of the value of a par-
ticular goal is that it moves the entire organization toward its mission. A
goal that, if met by one area of the organization, causes difficulty in another
area, is not valid, for example, a purchasing department that sets a goal of
reducing the cost of pur­chased material without regard to its impact on
quality, production schedules, etc. One way to safeguard against inadver-
tently setting such goals is to involve the customer in the goal-setting pro-
cess. Goal setting is also integral to performance evaluation. To be useful,
goals should conform to certain guidelines (Johnson, 1993b):

• Goals should be specific and measurable. Vague goals mean different


things to different people. “Improve customer satisfaction” is a
vague goal. “Improve customer satisfaction as indicated by a
significant improvement in item #30 on the monthly customer
survey” is better.
• Goals should be challenging, yet realistic. All parties should agree that the
goal is attain­able, and that they would derive personal satisfaction
from having attained it.
• Goals should be written. Goals should be consistent—goals should
not contradict other goals. It should be possible to attain the entire
set of goals simultaneously.

20_Pyzdek_Ch20_p381-398.indd 394 11/9/12 5:31 PM


Resource Requirements to Manage the Quality Function 395

• Goals should be accepted. The best goal is one set by oneself, even
though the supervisor provides guidance and assistance in the
goal-setting process.

Achieving the Goals


Goals should be accompanied by a detailed plan of how each goal will be
achieved. Goals without plans are little more than wishes. The plan will
detail the steps that will be taken to reach the goal: who will be responsi-
ble for each step, resources that will be required, a timetable. The supervi-
sor should assist the employee(s) with the planning process, and he
should agree to the plan. If the plan is carried out and the goals not
reached, the problem is in the plan, not in the employee. Remember, Plan-
Do-Check-Act is a process of continuous improvement. If the plan doesn’t
achieve the result, improve the plan and try it again. Since progress will
be monitored on an ongoing basis, and the plan will include a timetable,
lack of progress should be evident well before the time the goal is to be
accomplished. The lack of progress is a signal to revise the plan.
The responsibility of achieving the goals belongs to both the supervi-
sor and the employee, as well as everyone on the staff. It’s a team effort.
It’s a compa­nywide effort. The supervisor should work with the employee
and the staff to identify ways that the supervisor can assist them in meet-
ing their goals. Progress toward the goals should be monitored constantly.

Coaching
In modern, quality-focused organizations supervisors may spend up to
60 percent of their time coaching. On a one-on-one basis, coaching refers
to the process of helping a single employee improve some aspect of his or
her performance. On a group level, coaching is a process of developing
effective teams and work groups. The successful coach needs the follow-
ing skills:

• Communication skills
• Listening skills
• Analysis skills
• Negotiation skills
• Conflict resolution skills

The coach must also possess sufficient subject matter knowledge to


assist the employee in achieving results. Expert knowledge of the task
enables the coach to describe and demonstrate the desired behavior and
to observe the employee performing the task and give feedback. Just as an
NBA coach must be an expert in basketball, business coaches must be
experts on the subjects they are coaching.

20_Pyzdek_Ch20_p381-398.indd 395 11/9/12 5:31 PM


396 Management of Human Resources

Coaches must also understand how adults learn and grow. Brookfield
(1986) identified six factors that influence adult learning:

1. More learning takes place if learning is seen as voluntary, self-


initiated activity.
2. More learning takes place in a climate of mutual respect.
3. The best learning takes place in an environment characterized by
a spirit of collaboration.
4. Learning involves a balance between action and self-reflection.
5. People learn best when their learning is self-directed.

Coaches should be aware of the essentials of motivation theory, such


as Maslow’s needs hierarchy, McGregor’s theory X and theory Y models
of man­agement, and Herzberg’s hygiene theory, as discussed in Chap. 18.
There are many variations on the coaching process, but all involve
similar steps (Finnerty, 1996):

• Define performance goals.


• Identify necessary resources for success.
• Observe and analyze current performance.
• Set expectations for performance improvement.
• Plan a coaching schedule.
• Meet with the individual or team to get commitment to goals,
demon­strate the desired behavior, and establish boundaries.
• Give feedback on practice and performance.
• Follow up to maintain goals.

Situations That Require Coaching to Improve Performance


Coaching discussions may be initiated as a result of an administrative situ-
ation or because the manager has become aware of an event or incident of
concern in relation to a task or project. In their publication, Coaching Skills,
The Center for Management and Organization Effectiveness lists the
follow­ing situations in which coaching may be required:
Administrative situations

• Setting objectives
• Performance reviews
• Salary discussions
• Career planning-development discussions
• Job posting and bidding discussions

20_Pyzdek_Ch20_p381-398.indd 396 11/9/12 5:31 PM


Resource Requirements to Manage the Quality Function 397

Project or task situations

• A specific project or assignment problem: for instance, delays,


quality problems, quantity problems, lack of follow-through on
commitments
• Absenteeism and/or tardiness
• Deficiency in effort or motivation
• Behavior that causes problems, for example, aggressiveness
• Training: opportunity or assignment
• When someone new joins your group or team
• Conflicts between employees or within groups
• Communication problems or breakdowns
• When your own supervisor makes you aware that one of your
employees has a problem

Forms of Coaching
Coaching can take on a variety of forms. The traditional form is, as
described above, a supervisor coaching a subordinate or a sponsor coach-
ing a team. However, other forms do occur on occasion and should prob-
ably occur more often than they do. A number of the more common
alternative forms of coaching are described here (Finnerty, 1996):

• Mentoring. Mentoring involves a relationship between a senior


manager and a less-experienced employee. The mentor is a trusted
friend as well as a source of feedback. Mentors provide employees
with information and feedback they may not otherwise receive. It
was stated earlier that coaches must be subject-matter experts in the
area they are coaching. Mentors are experts on the organization itself.
Because of their superi­or knowledge of the written and unwritten
rules of the organization, the mentor can help the employee traverse
the often perplexing maze that must be negotiated to achieve
success. Knowledge of the organi­zation’s informal leadership,
norms, values, and culture can usually only be acquired from either
a mentor, or by experience. “Experience is a stern school, ’tis a fool that
will learn in no other.”
• Peer coaching. Traditional, vertically structured organizations have
been the model for mentoring. Typically, the mentors or coaches
are above the employees in the organizational hierarchy and have
formal command authority over them. Peer coaching relationships
are those where all parties are approximately the same level within
the organization or, at least, where no party in the relationship has

20_Pyzdek_Ch20_p381-398.indd 397 11/9/12 5:31 PM


398 Management of Human Resources

command authority over any other party. For all the talk of formal
training, policy, and proce­dure manuals, etc., the truth is that in
the real world, most “training” takes the form of a co-worker
telling the employee “the way it’s really done around here . . .” Peer
coaching recognizes that this approach has tremendous value.
Among the advantages is that there is less hesitan­cy in asking a
peer for help for fear of revealing ignorance or bother­ing one’s
superior with a minor problem. Peer coaching can be facilitated by
putting people together for the purpose of learning from one
another. Peer coaches are provided with training in the skills of
coaching.
• Executive coaching. By its nature a command hierarchy discourages
upward communication of “bad news.” The result of this is that the
higher one’s position in the hierarchy, the less feedback one obtains
on their performance. This is especially true for negative feedback.
Employees quickly learn that it is not in their best interest to criticize
the boss. While these problems are partially alleviated by such
innovations as anonymous 360-degree performance assessments, it
may also be useful for the executive to have a coach. The executive
coach is usually a consultant hired from outside of the firm. The
coaching role is typically to act as coach to the executive team, rather
than to a particular executive.

20_Pyzdek_Ch20_p381-398.indd 398 11/9/12 5:31 PM


APPENDIX A
Control Chart Constants

21_Pyzdek_AppA_Ch21_p399-402.indd 399 11/9/12 5:32 PM


21_Pyzdek_AppA_Ch21_p399-402.indd 400 11/9/12 5:32 PM
Chart for Average Chart for Standard Deviations
Factors for Control Limits Factors for Central Line Factors for Control Limits
Observations in
Sample, n A A2 A3 c4 1/c4 B3 B4 B5 B6

21_Pyzdek_AppA_Ch21_p399-402.indd 401
2 2.121 1.880 2.659 0.7979 1.2533 0 3.267 0 2.606
3 1.732 1.023 1.954 0.8862 1.1284 0 2.568 0 2.276
4 1.500 0.729 1.628 0.9213 1.0854 0 2.266 0 2.088
5 1.342 0.577 1.427 0.9400 1.0638 0 2.089 0 1.964
6 1.225 0.483 1.287 0.9515 1.0510 0.030 1.970 0.029 1.874
7 1.134 0.419 1.182 0.9594 1.0423 0.118 1.882 0.113 1.806
8 1.061 0.373 1.099 0.9650 1.0363 0.185 1.815 0.179 1.751
9 1.000 0.337 1.032 0.9693 1.0317 0.239 1.761 0.232 1.707
10 0.949 0.308 0.975 0.9727 1.0281 0.284 1.716 0.276 1.669
11 0.905 0.285 0.927 0.9754 1.0252 0.321 1.679 0.313 1.637
12 0.866 0.266 0.886 0.9776 1.0229 0.354 1.646 0.346 1.610
13 0.832 0.249 0.850 0.9794 1.0210 0.382 1.618 0.374 1.585
14 0.802 0.235 0.817 0.9810 1.0194 0.406 1.594 0.399 1.563
15 0.775 0.223 0.789 0.9823 1.0180 0.428 1.572 0.421 1.544
16 0.750 0.212 0.763 0.9835 1.0168 0.448 1.552 0.440 1.526
17 0.728 0.203 0.739 0.9845 1.0157 0.466 1.534 0.458 1.511
18 0.707 0.194 0.718 0.9854 1.0148 0.482 1.518 0.475 1.496
19 0.688 0.187 0.698 0.9862 1.0140 0.497 1.503 0.490 1.483
20 0.671 0.180 0.680 0.9869 1.0133 0.510 1.490 0.504 1.470
21 0.655 0.173 0.663 0.9876 1.0126 0.523 1.477 0.516 1.459
22 0.640 0.167 0.647 0.9882 1.0119 0.534 1.466 0.528 1.448
23 0.626 0.162 0.633 0.9887 1.0114 0.545 1.455 0.539 1.438
24 0.612 0.157 0.619 0.9892 1.0109 0.555 1.445 0.549 1.429
25 0.600 0.153 0.606 0.9896 1.0105 0.565 1.435 0.559 1.420

401

11/9/12 5:32 PM
402 Appendix A

Chart for Ranges

Observations Factors for Central Line Factors for Control Limits


in Sample, n d2 1/d2 d3 D1 D2 D3 D4
2 1.128 0.8865 0.853 0 3.686 0 3.267
3 1.693 0.5907 0.888 0 4.358 0 2.574
4 2.059 0.4857 0.880 0 4.698 0 2.282
5 2.326 0.4299 0.864 0 4.918 0 2.114
6 2.534 0.3946 0.848 0 5.078 0 2.004
7 2.704 0.3698 0.833 0.204 5.204 0.076 1.924
8 2.847 0.3512 0.820 0.388 5.306 0.136 1.864
9 2.970 0.3367 0.808 0.547 5.393 0.184 1.816
10 3.078 0.3249 0.797 0.687 5.469 0.223 1.777
11 3.173 0.3152 0.787 0.811 5.535 0.256 1.744
12 3.258 0.3069 0.778 0.922 5.594 0.283 1.717
13 3.336 0.2998 0.770 1.025 5.647 0.307 1.693
14 3.407 0.2935 0.763 1.118 5.696 0.328 1.672
15 3.472 0.2880 0.756 1.203 5.741 0.347 1.653
16 3.532 0.2831 0.750 1.282 5.782 0.363 1.637
17 3.588 0.2787 0.744 1.356 5.820 0.378 1.622
18 3.640 0.2747 0.739 1.424 5.856 0.391 1.608
19 3.689 0.2711 0.734 1.487 5.891 0.403 1.597
20 3.735 0.2677 0.729 1.549 5.921 0.415 1.585
21 3.778 0.2647 0.724 1.605 5.951 0.425 1.575
22 3.819 0.2618 0.720 1.659 5.979 0.434 1.566
23 3.858 0.2592 0.716 1.710 6.006 0.443 1.557
24 3.895 0.2567 0.712 1.759 6.031 0.451 1.548
25 3.931 0.2544 0.708 1.806 6.056 0.459 1.541

21_Pyzdek_AppA_Ch21_p399-402.indd 402 11/9/12 5:32 PM


APPENDIX B
Control Chart Equations

21_Pyzdek_AppB_Ch21_p403-406.indd 403 11/9/12 5:32 PM


21_Pyzdek_AppB_Ch21_p403-406.indd 404 11/9/12 5:32 PM
np Chart p Chart

LCL = np − 3 np (1 − p ) p (1 − p )
LCL = p − 3
LCL

n
Or 0 if LCL is negative Or 0 if LCL is negative
Center

sum of subgroup defective counts sum of subgroup defective counts


np = p=
Line

number off subgroups bgroup sizes


sum of sub

UCL = np + 3 np (1 − p ) p (1 − p )
UCL = p + 3
UCL

n
or n if UCL is greater than n or 1 if UCL is greater than 1

c Chart u Chart

LCL = c − 3 c u
LCL = u − 3
LCL

n
Or 0 if LCL is negative Or 0 if LCL is negative
Center

sum of subgroup occurrences sum of subgroup occurrences


c= u=
Line

number of subgrroups number of units


s in all subgroups

UCL = c + 3 c u
UCL

UCL = u + 3
n

X Chart
LCL

LCL = X − 2 . 66 × R

sum of measurements
Center

X=
Line

number of measurements

UCL = X + 2 . 66 × R
UCL

405

21_Pyzdek_AppB_Ch21_p403-406.indd 405 11/9/12 5:32 PM


406 Appendix B

R Chart X- bar Chart

LCL = D3R LCL = X − A2R


Center LCL Or 0 if LCL is negative

sum of subgroup ranges sum of subgroup averages


R= X=
Line

number of subgroups number of subgroupps

UCL = D4R
UCL

UCL = X + A2R

S Chart X- bar Chart

LCL = B3 S LCL = X − A3S


LCL

Or 0 if LCL is negative
Center

sum of subgroup sigmas sum of subgroup averages


S= X=
Line

number of subgroups number of subgroupps

UCL = B4 S
UCL

UCL = X + A3S

21_Pyzdek_AppB_Ch21_p403-406.indd 406 11/9/12 5:32 PM


APPENDIX C
Area under the Standard
Normal Curve

21_Pyzdek_AppC_Ch21_p407-412.indd 407 11/9/12 5:33 PM


21_Pyzdek_AppC_Ch21_p407-412.indd 408 11/9/12 5:33 PM
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
-3.4 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002
-3.3 0.0005 0.0005 0.0005 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003
-3.2 0.0007 0.0007 0.0006 0.0006 0.0006 0.0006 0.0006 0.0005 0.0005 0.0005

21_Pyzdek_AppC_Ch21_p407-412.indd 409
-3.1 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007
-3.0 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011 0.0011 0.0010 0.0010
-2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
-2.3 0.0107 0.0104 0.0102 0.0090 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
-1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379

409
(Continued)

11/9/12 5:33 PM
410

21_Pyzdek_AppC_Ch21_p407-412.indd 410
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
-0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
-0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830

11/9/12 5:33 PM
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441

21_Pyzdek_AppC_Ch21_p407-412.indd 411
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998

411

11/9/12 5:33 PM
21_Pyzdek_AppC_Ch21_p407-412.indd 412 11/9/12 5:33 PM
APPENDIX D
Simulated Certification
Exam Questions

21_Pyzdek_AppD_Ch21_p413-454.indd 413 11/9/12 5:33 PM


21_Pyzdek_AppD_Ch21_p413-454.indd 414 11/9/12 5:33 PM
T
his handbook is designed for quality professionals wishing to
improve their understanding of the quality management body of
knowledge that they can apply in their day-to-day work.
Readers should note that questions that appear on any given certifica-
tion exam can come from any source. No single book can hope to specifi-
cally deal with every possible question. Furthermore, it is our belief that
preparing for the exam by focusing on questions is a flawed strategy.
Frankly, the student who is only interested in passing an exam deserves to
fail. The goal should be mastery of the subject matter, not a passing score
on an exam. Quality management is a serious business and it should be
practiced by people who have in-depth knowledge of the subject. The cus-
tomer’s safety and the organization’s viability may depend on the exper-
tise of the quality manager. There is no room for a quality manager whose
sole objective is to know enough about quality management to answer
some questions correctly on a given day.
By mastering the quality management body of knowledge, you will be
ready for whatever problems come your way. The problems may be in the
form of questions on a certification exam, or decisions you will make on
the job. Mastery implies understanding, not memorization of a few facts.
When you understand the subject, you will have grasped the principles of
quality management. The fundamental principles will be your guiding
light in times of confusion. Such wisdom can never be attained by focusing
on exam questions that ask, for example, whether Ishikawa referred to his
system of management as “total quality control” or “company-wide qual-
ity control.” Knowing such trivia may make you seem erudite at a cocktail
party, but it will not help you make better decisions regarding quality.
What is involved in “mastery?” Mastery involves a firm grasp of fun-
damental principles not as floating abstractions, but as a means of under-
standing reality. The principle “reducing variation results in improved
quality” is understood if it immediately creates in your mind the image of
a customer who knows that she can depend on the quality of your prod-
ucts. This book presents fundamental principles, along with numerous
examples of the principles in practice. Of course, you will also need to
provide your own examples from your own experience. The point is that

415

21_Pyzdek_AppD_Ch21_p413-454.indd 415 11/9/12 5:33 PM


416 Appendix D

the focus is on fundamental principles of quality management, not memo-


rizing answers to potential exam questions.
This handbook was originally written with chapter headings and sub-
headings matching those of the ASQ Body of Knowledge. Frankly, this
resulted in a flawed product. The body of knowledge was not written, nor
intended, as a rational flow of concepts and ideas that build in a readable
fashion to develop the reader’s skills. This second edition handbook was
reformatted to group like topics that will build on the concepts discussed.
While you may find it useful to “weight” your study time toward the
more prevalent test topics, consider the earlier advice: It is nearly impos-
sible to “master” the Body of Knowledge by studying test questions.
When you review the material covered in a given section, note that some
sections cover a broad Body of Knowledge, sometimes at an advanced
(Evaluation, Analysis) cognitive level. As a result, many questions are
needed to adequately test these Body of Knowledge topics, even though a
given exam may ask only a few questions requiring less breadth or depth
of understanding.
Regardless, we feel the materials presented, if properly reviewed, will
offer you great opportunity in passing a certification exam and (more
importantly) help you to develop exceptional skills in quality management.
Best wishes on your success!
Answers may be downloaded at www.mhprofessional.com/HQM2

1. Under the Kano model, which of the following is most likely to occur
as a result of competitive pressure?
a. A basic quality feature will become an expected quality feature.
b. An exciting quality feature will become an expected quality feature.
c. An expected quality feature will become a basic quality feature.
d. Choices b and c.

2. The graph shown is interpreted as follows:

Satisfaction
Competitive
Exciting pressure
Wow! quality

Satisfaction
region Expected
quality
Quality

Dissatisfaction
region Basic
quality Must have!

21_Pyzdek_AppD_Ch21_p413-454.indd 416 11/9/12 5:33 PM


Simulated Certification Exam Questions 417

a. Customer satisfaction is determined solely by the quantity of the


product or service delivered.
b. Customer wants can be determined once and for all and used to
design high-quality products and services.
c. Customer wants, needs, and expectations are dynamic and must be
monitored continually. Providing products or services that match
the customers’ expectations is not enough to ensure customer
satisfaction.
d. Customers will be satisfied if you supply them with products and
services that meet their needs at a fair price.

3. The primary reason for evaluating and maintaining surveillance over a


supplier’s quality program is to:
a. perform product inspection at source.
b. eliminate incoming inspection cost.
c. motivate suppliers to improve quality.
d. make sure the supplier’s quality program is functioning effectively.

4. Incoming-material inspection is based most


directly on:
a. design requirements.
b. purchase order requirements.
c. manufacturing requirements.
d. customer use of the end product.

5. The most important step in vendor certification is to:


a. obtain copies of the vendor’s handbook.
b. familiarize the vendor with quality requirements.
c. analyze the vendor’s first shipment.
d. visit the vendor’s plant.

6. The advantage of a written procedure is:


a. it provides flexibility in dealing with problems.
b. unusual conditions are handled better.
c. it is a perpetual coordination device.
d. coordination with other departments is not required.

7. A vendor quality control plan has been adopted. Which of the


following provisions would you advise top management to be the
least effective?
a. Product audits
b. Source inspection
c. Certificate of analysis
d. Certificate of compliance
e. Pre-award surveys

21_Pyzdek_AppD_Ch21_p413-454.indd 417 11/9/12 5:33 PM


418 Appendix D

8. The most desirable method of evaluating a supplier is:


a. history evaluation.
b. survey evaluation.
c. questionnaire.
d. discussing with quality manager on phone.
e. all of the above
9. When purchasing materials from vendors, it is sometimes
advantageous to choose vendors whose prices are higher because:
a. materials that cost more can be expected to be better, and “you get
what you pay for.”
b. such vendors may become obligated to bestow special favors.
c. such a statement is basically incorrect. Always buy at lowest bid
price.
d. the true cost of purchased materials, which should include items
such as sorting, inspection, contacting vendors, and production
delays, may be lower.

10. A quality audit program should begin with:


a. a study of the quality documentation system.
b. an evaluation of the work being performed.
c. a report listing findings, the action taken, and recommendations.
d. a charter of policy, objectives, and procedures.
e. a follow-up check on the manager’s response to recommendations.

11. Auditing of a quality program is most effective on a:


a. quarterly basis, auditing all characteristics on the checklist.
b. periodic unscheduled basis, auditing some of the procedures.
c. monthly basis, auditing selected procedures.
d. continuing basis, auditing randomly selected procedures.
e. continually specified time period basis, frequency adjustable,
auditing randomly selected procedures.

12. An inspection performance audit is made of eight inspectors in an area


of complex assembly, all doing similar work. Seven inspectors have an
average monthly acceptance rate of 86 to 92 percent; one inspector has
an average rate of 72 percent with approximately four times the daily
variation as the others. As inspection supervisor you should, based on
this audit,
a. promote the 72 percent inspector, as he is very conscientious.
b. discipline the 72 percent inspector, as he is creating needless rework
and wasted time.
c. initiate a special investigation of inspection and manufacturing
performance.
d. discipline the other seven inspectors as they are not “cracking down.”

21_Pyzdek_AppD_Ch21_p413-454.indd 418 11/9/12 5:33 PM


Simulated Certification Exam Questions 419

13. The quality audit could be used to judge all of the following except:
a. a prospective vendor’s capability for meeting quality standards.
b. the adequacy of a current vendor’s system for controlling quality.
c. the application of a specification to a unique situation.
d. the adequacy of a company’s own system for controlling quality.

14. Audit inspectors should report to someone who is independent from:


a. middle management.
b. marketing.
c. inspection supervision.
d. production staff.

15. The term “quality audit” can refer to the appraisal of the quality
system of:
a. an entire plant or company.
b. one product.
c. one major quality activity.
d. any of the above
16. You would normally not include data from which of the following
investigations in quality auditing?
a. Examination of all items produced
b. Examination of customer needs and the adequacy of design
specifications in reflecting these needs
c. Examination of vendor product specifications and monitoring
procedures
d. Examination of customer quality complaints and adequacy of
corrective action
17. In order to be effective, the quality audit function should ideally be:
a. an independent organizational segment in the quality control
function.
b. an independent organizational segment in the production control
function.
c. an independent organizational segment in manufacturing operations
function.
d. all of the above

18. The following are reasons why an independent audit of actual practice
versus procedures should be performed periodically:
1. Pressures may force the supervisor to deviate from approved
procedures.
2. The supervisor may not have time for organized follow-up or
adherence to procedures.
3. Supervisors are not responsible for implementing procedures.

21_Pyzdek_AppD_Ch21_p413-454.indd 419 11/9/12 5:33 PM


420 Appendix D

a. 1 and 2 only
b. 1 and 3 only
c. 2 and 3 only
d. 1, 2, and 3

19. A vendor quality survey:


a. is used to predict whether a potential vendor can meet quality
requirements.
b. is an audit of a vendor’s product for a designated period of time.
c. is always conducted by quality control personnel only.
d. reduces cost by eliminating the need for receiving inspection of the
surveyed vendor’s product.

20. A quality control program is considered to be:


a. a collection of quality control procedures and guidelines.
b. a step-by-step list of all quality control checkpoints.
c. a summary of company quality control policies.
d. a system of activities to provide quality of products and service.

21. A technique whereby various product features are graded as to


relative importance is called:
a. classification of defects.
b. quality engineering.
c. classification of characteristics.
d. feature grading.

22. Much managerial decision making is based on comparing actual


performance with:
a. personnel ratio.
b. cost of operations.
c. number of complaints.
d. standards of performance.

23. Which of the following is not a legitimate audit function?


a. Identify function responsible for primary control and corrective
action.
b. Provide no surprises.
c. Provide data on worker performance to supervision for punitive
action.
d. Contribute to a reduction in quality cost.
e. None of the above.

24. In many programs, what is generally the weakest link in the quality
auditing program?
a. Lack of adequate audit check lists
b. Scheduling of audits (frequency)

21_Pyzdek_AppD_Ch21_p413-454.indd 420 11/9/12 5:33 PM


Simulated Certification Exam Questions 421

c. Audit reporting
d. Follow-up of corrective action implementation

25. What item(s) should be included by management when establishing a


quality audit function within their organization?
a. Proper positioning of the audit function within the quality
organization
b. A planned audit approach, efficient and timely audit reporting, and
a method for obtaining effective corrective action
c. Selection of capable audit personnel
d. Management objectivity toward the quality program audit concept
e. All of the above

26. Which of the following best describes the “specific activity” type of
audit?
a. Customer-oriented sampling of finished goods
b. Evaluation for contractual compliance of quality system
c. Assessment or survey of potential vendor
d. An inspection performance audit
e. None of the above

27. Which of the following techniques would not be used in a quality


audit?
a. Select samples only from completed lots.
b. Examine samples from the viewpoint of a critical customer.
c. Audit only those items that have caused customer complaints.
d. Use audit information in future design planning.
e. Use economic and quality requirements to determine frequency of
audit.

28. During the pre-award survey at a potential key supplier, you discover
the existence of a quality control manual. This means:
a. that a quality system has been developed.
b. that a quality system has been implemented.
c. that the firm is quality conscious.
d. that the firm has a quality manager.
e. all of the above
29. Which of the following quality system provisions is of the least
concern when preparing an audit checklist for the upcoming branch
operation quality system audit?
a. Drawing and print control
b. Makeup of the MRB (material review board)
c. Engineering design change control
d. Control of special processes
e. Calibration of test equipment

21_Pyzdek_AppD_Ch21_p413-454.indd 421 11/9/12 5:33 PM


422 Appendix D

30. An audit will be viewed as a constructive service to the function that is


audited when it:
a. is conducted by non-technical auditors.
b. proposes corrective action for each item uncovered.
c. furnishes enough detailed facts to determine the necessary action.
d. is general enough to permit managerial intervention.

31. Which of the following is not a responsibility of the auditor?


a. Prepare a plan and checklist.
b. Report results to those responsible.
c. Investigate deficiencies for cause and define the corrective action
that must be taken.
d. Follow up to see if the corrective action was taken.

32. To ensure success of a quality audit program, the most important


activity for a quality supervisor is:
a. setting up audit frequency.
b. maintenance of a checking procedure to see that all required audits
are performed.
c. getting corrective action as a result of audit findings.
d. checking that the audit procedure is adequate and complete.

33. It is generally considered desirable that quality audit reports be:


a. stated in terms different from those of the function being audited.
b. simple but complete.
c. sent to the general manager in all cases.
d. quantitative in all cases.

34. Classification of defects is most essential as a prior step to a valid


establishment of:
a. design characteristics to be inspected.
b. vendor specifications of critical parts.
c. process control points.
d. economical sampling inspection.
e. a product audit checklist.

35. Classification of characteristics:


a. is the same as classification of defects.
b. can only be performed after product is produced.
c. must have tolerances associated with it.
d. is independent of defects.

36. Characteristics are often classified (critical, major, etc.) so that:


a. equal emphasis can be placed on each characteristic.
b. punitive action against the responsible individuals can be equitably
distributed.

21_Pyzdek_AppD_Ch21_p413-454.indd 422 11/9/12 5:33 PM


Simulated Certification Exam Questions 423

c. an assessment of quality can be made.


d. a quality audit is compatible with management desires.

37. A classification of characteristics makes it possible to:


a. separate the “vital few” from the “trivial many” kinds of defects.
b. direct the greatest inspection effort to the most important quality
characteristics.
c. establish inspection tolerances.
d. allow the inspector to choose what to inspect and what not to
inspect.

38. One defective is:


a. an item that is unacceptable to the inspector.
b. the same as one defect.
c. a characteristic that may be unacceptable for more than one
reason.
d. an item that fails to meet quality standards and specifications.

39. In recent months, several quality problems have resulted from


apparent change in design specifications by engineering, including
material substitutions. This has only come to light through quality
engineering’s failure analysis system. You recommend which of the
following quality system provisions as the best corrective action?
a. Establishing a formal procedure for initial design review
b. Establishing a formal procedure for process control
c. Establishing a formal procedure for specification change control
(sometimes called an ECO or SCO system)
d. Establishing a formal system for drawing and print control
e. Establishing a formal material review (MRB) system

40. When giving instructions to those who will perform a task, the
communication process is completed:
a. when the worker goes to his work station to do the task.
b. when the person giving the instruction has finished talking.
c. when the worker acknowledges these instructions by describing
how he will perform the task.
d. when the worker says that he understands the instructions.

41. Studies have shown that the most effective communications method
for transferring information is:
a. oral only.
b. written only.
c. combined written and oral.
d. bulletin board.

21_Pyzdek_AppD_Ch21_p413-454.indd 423 11/9/12 5:33 PM


424 Appendix D

42. The most important reason for a checklist in a process control audit
is to:
a. ensure that the auditor is qualified.
b. minimize the time required for audit.
c. obtain relatively uniform audits.
d. notify the audited function prior to audit.

43. Effective supervisors:


a. see their role primarily as one of making people happy.
b. sometimes do a job themselves because they can do it better than
others.
c. have objectives of growth and increased profit by working through
other people.
d. assume the functions of planning, decision-making, and monitoring
performance, but leave personnel development to the personnel
department.

44. Essential to the success of any quality control organization is the


receipt of:
a. adequate and stable resources.
b. clear and concise project statements.
c. delegation of authority to accomplish the objective.
d. all of the above

45. The “quality function” of a company is best described as:


a. the degree to which the company product conforms to a design or
specification.
b. that collection of activities through which “fitness for use” is
achieved.
c. the degree to which a class or category of product possesses
satisfaction for people generally.
d. all of the above

46. The quality assurance function is comparable to which of the


following other business functions in concept?
a. General accounting
b. Cost accounting
c. Audit accounting
d. All of the above

47. The prime use of a control chart is to:


a. detect assignable causes of variation in the process.
b. detect nonconforming product.
c. measure the performance of all quality characteristics of a process.
d. detect the presence of random variation in the process.

21_Pyzdek_AppD_Ch21_p413-454.indd 424 11/9/12 5:33 PM


Simulated Certification Exam Questions 425

48. In preparing a product quality policy for your company, you should
do all of the following except:
a. specify the means by which quality performance is measured.
b. develop criteria for identifying risk situations and specify whose
approval is required when there are known risks.
c. include procedural matters and functional responsibilities.
d. state quality goals.

49. The first and most important step in establishing a good corporate
quality plan is:
a. determining customer requirements.
b. determining manufacturing process capabilities.
c. evaluating vendor quality system.
d. ensuring quality participation in design review.
50. The most important measure of outgoing quality needed by managers
is product performance as viewed by:
a. the customer.
b. the final inspector.
c. production.
d. marketing.

51. In planning for quality, an important consideration at the start is:


a. the relation of the total cost of quality to the net sales.
b. the establishment of a company quality policy or objective.
c. deciding precisely how much money is to be spent.
d. the selling of the quality program to top management.

52. A useful tool to determine when to investigate excessive variation in a


process is:
a. MIL-STD-105E.
b. a control chart.
c. Dodge-Romig AOQL sampling table.
d. process capability study.

53. Shewhart X-bar control charts are designed with which one of the
following objectives?
a. Reduce sample size.
b. Fix the risk of accepting poor product.
c. Decide when to hunt for causes of variation.
d. Establish an acceptable quality level.

54. A quality program has the best foundation for success when it is
initiated by:
a. a certified quality engineer.
b. contractual requirements.

21_Pyzdek_AppD_Ch21_p413-454.indd 425 11/9/12 5:33 PM


426 Appendix D

c. the chief executive of company.


d. production management.
e. an experienced quality manager.
55. There are two basic aspects of product quality:
a. in-process and finished product quality.
b. appraisal costs and failure costs.
c. quality of design and quality of conformance.
d. impact of machines and impact of men.
56. Establishing the quality policy for the company is typically the
responsibility of:
a. the marketing department.
b. top management.
c. quality control.
d. the customer.
57. Complaint indices should:
a. recognize the degree of dissatisfaction as viewed by the customer.
b. provide a direct input to corrective action.
c. not necessarily be based on field complaints or dollar values of
claims paid or on service calls.
d. ignore life cycle costs.

58. For a typical month, 900D Manufacturing Company identified and


reported the following quality costs:
• Inspection wages $12,000
• Quality planning $4000
• Source inspection $2000
• In-plant scrap and rework $88,000
• Final product test $110,000
• Retest and troubleshooting $39,000
• Field warranty cost $205,000
• Evaluation and processing of deviation requests $6000
What is the total failure cost for this month?

a. $244,000
b. $151,000
c. $261,000
d. $205,000
e. $332,000

59. If prevention costs are increased to pay for engineering work in quality
control, and this results in a reduction in the number of product
defects, this yields a reduction in:
a. appraisal costs.
b. operating costs.

21_Pyzdek_AppD_Ch21_p413-454.indd 426 11/9/12 5:33 PM


Simulated Certification Exam Questions 427

c. quality costs.
d. failure costs.
e. manufacturing costs.

60. The cost of writing instructions and operating procedures for


inspection and testing should be charged to:
a. prevention costs.
b. appraisal costs.
c. internal failure costs.
d. external failure costs.

61. Which of the following activities is not normally charged as a


preventive cost?
a. Quality training
b. Design and development of quality measurement equipment
c. Quality planning
d. Laboratory acceptance testing

62. In selecting a base for measuring quality costs, which of the following
should be considered?
a. Is it sensitive to increases and decreases in production schedules?
b. Is it affected by mechanization and the resulting lower direct labor
costs?
c. Is it affected by seasonal product sales?
d. Is it oversensitive to material price fluctuations?
e. All of the above.

63. Which of the following quality cost indices is likely to have the
greatest appeal to top management as an indicator of relative cost?
a. Quality cost per unit of product
b. Quality cost per hour of direct production labor
c. Quality cost per unit of processing cost
d. Quality cost per unit of sales
e. Quality cost per dollar of direct production labor

64. Review of purchase orders for quality requirements falls into which
one of the following quality cost segments?
a. Prevention
b. Appraisal
c. Internal failures
d. External failures

65. Failure costs include costs due to:


a. quality control engineering.
b. inspection setup for tests.
c. certification of special-process suppliers.
d. supplier analysis of nonconforming hardware.

21_Pyzdek_AppD_Ch21_p413-454.indd 427 11/9/12 5:33 PM


428 Appendix D

66. The basic objective of a quality cost program is to:


a. identify the source of quality failures.
b. interface with the accounting department.
c. improve the profit of your company.
d. identify quality control department costs.

67. Cost of calibrating test and inspection equipment would be


included in:
a. prevention cost.
b. appraisal cost.
c. failure cost.
d. material-procurement cost.

68. In some instances, the ordinary cost-balance formula is not valid and
cannot be applied because of the presence of vital intangibles. Such an
intangible involves:
a. safety of human beings.
b. compliance with legislation.
c. apparatus for collection of revenue.
d. credit to marketing as new sales for warranty replacements.
e. none of the above

69. What is the standard deviation of the following sample 3.2, 3.1, 3.3, 3.3,
3.1?
a. 3.2
b. 0.0894
c. 0.1
d. 0.0498
e. 0.2

70. Which of the following is most important when calibrating a piece of


equipment?
a. Calibration sticker
b. Maintenance history card
c. Standard used
d. Calibration interval

71. Which one of the following best describes machine capability?


a. The total variation of all cavities of a mold, cavities of a die cast
machine, or spindles of an automatic assembly machine
b. The inherent variation of the machine
c. The total variation over a shift
d. The variation in a short run of consecutively produced parts

21_Pyzdek_AppD_Ch21_p413-454.indd 428 11/9/12 5:33 PM


Simulated Certification Exam Questions 429

72. Machine capability studies on four machines yielded the following


information:
Machine Average (X) Capability (6s)
#1 1.495 .004″
#2 1.502 .006″
#3 1.500 .012″
#4 1.498 .012″

The tolerance on the particular dimension is 1.500 ± .005”. If the


average value can be readily shifted by adjustment to the machine,
then the best machine to use is:
a. Machine #1.
b. Machine #2.
c. Machine #3.
d. Machine #4.

73. How should measurement standards be controlled?


1. Develop a listing of measurement standards with nomenclature and
number for control.
2. Determine calibration intervals and calibration sources for
measurement standards.
3. Maintain proper environmental conditions and traceability of
accuracy to National Bureau of Standards.
a. 1 and 2 only
b. 1 and 3 only
c. 2 and 3 only
d. 1, 2, and 3

74. When making measurements with test instruments, precision and


accuracy mean:
a. the same.
b. the opposite.
c. consistency and correctness, respectively.
d. exactness and traceability, respectively.
e. none of the above

75. Calibration intervals should be adjusted when:


a. no defective product is reported as acceptable due to measurement
errors.
b. few instruments are scrapped during calibration.
c. the results of previous calibrations reflect few “out of tolerance”
conditions during calibration.
d. a particular characteristic on the gauge is consistently found out of
tolerance.

21_Pyzdek_AppD_Ch21_p413-454.indd 429 11/9/12 5:33 PM


430 Appendix D

76. Random selection of a sample:


a. theoretically means that each item in the lot had an equal chance to
be selected in the sample.
b. ensures that the sample average will equal the population average.
c. means that a table of random numbers was used to dictate the
selection.
d. is a meaningless theoretical requirement.
77. An X-bar and R chart was prepared for an operation using 20 samples
with five pieces in each sample. X was found to be 33.6 and R was
6.2. During production a sample of five was taken and the pieces
measured 36, 43, 37, 34, and 38. At the time this sample was taken:
a. both average and range were within control limits.
b. neither average nor range was within control limits.
c. only the average was outside control limits.
d. only the range was outside control limits.
e. The information given is not sufficient to construct an X-bar and R
chart using tables usually available.

78. A chart for number of defects is called:


a. np chart.
b. p chart.
c. X chart.
d. c chart.

79. A process is checked at random by inspection of samples of four shafts


after a polishing operation, and X and R charts are maintained. A
person making a spot check measures two shafts accurately, and plots
their range on the R chart. The point falls just outside the control limit.
He advises the department foreman to stop the process. This decision
indicates that:
a. the process level is out of control.
b. the process level is out of control but not the dispersion.
c. the person is misusing the chart.
d. the process dispersion is out of control.

80. A process is in control with p = 0.10 and n = 100. The three-sigma limits
of the np-control chart are:
a. 1 and 19.
b. 9.1 and 10.9.
c. 0.01 and 0.19.
d. 0.07 and 0.13.

81. A p char:
a. can be used for only one type of defect per chart.
b. plots the number of defects in a sample.

21_Pyzdek_AppD_Ch21_p413-454.indd 430 11/9/12 5:33 PM


Simulated Certification Exam Questions 431

c. plots either the fraction or percent detective in order of time.


d. plots variations in dimensions.

82. The control chart that is most sensitive to variations in a measurement is:
a. p chart.
b. np chart.
c. c chart.
d. X-bar and R chart.

83. A p chart is a type of control chart for:


a. plotting bar-stock lengths from receiving inspection samples.
b. plotting fraction defective results from shipping inspection samples.
c. plotting defects per unit from in-process inspection samples.
d. answers a, b, and c above.
e. answers a and c only.
84. When subgroups are outside of the control limits and we wish to set
up a control chart for future production:
a. more data are needed.
b. discard those points falling outside the control limits for which you
can identify an assignable cause, and revise the limits.
c. check with production to determine the true process capability.
d. discard those points falling outside the control limits and revise
the limits.
85. You have just returned from a 2-week vacation. You and your QC
manager are going over the control charts that have been maintained
during your absence. He calls your attention to the fact that one of
the X charts shows the last 50 points to be very near the centerline.
In fact, they all seem to be within about one sigma of the centerline.
What explanation would you offer him?
a. Somebody “goofed” in the original calculation of the control limits.
b. The process standard deviation has decreased during the time the last
50 samples were taken and nobody thought to re-compute the control
limits.
c. This is a terrible situation. I’ll get on it right away and see what the
trouble is. I hope we haven’t produced too much scrap.
d. This is fine. The closer the points are to the centerline, the better our
control.

86. In which one of the following is the use of an X and R chart liable to be
helpful as a tool to control a process?
a. The machine capability is wider than the specification.
b. The machine capability is equal to the specification.
c. The machine capability is somewhat smaller than the specification.
d. The machine capability is very small compared to the specification.

21_Pyzdek_AppD_Ch21_p413-454.indd 431 11/9/12 5:33 PM


432 Appendix D

87. Quality cost trend analysis is facilitated by comparing quality costs


with:
a. manufacturing costs over the same time period.
b. appropriate measurement bases.
c. cash flow reports.
d. the QC department budget.

88. Of the following, which are typically appraisal costs?


a. Vendor surveys and vendor faults
b. Quality planning and quality reports
c. Drawing control centers and material dispositions
d. Quality audits and final inspection
e. None of the above

89. Which of the following cost elements is normally a prevention cost?


a. Receiving inspection
b. Outside endorsements or approvals
c. Design of quality measurement equipment
d. All of the above

90. When analyzing quality cost data gathered during the initial stages of a
new management emphasis on quality control and corrective action as
part of a product improvement program, one normally expects to see:
a. increased prevention costs and decreased appraisal costs.
b. increased appraisal costs with little change in prevention costs.
c. decreased internal failure costs.
d. decreased total quality costs.
e. all of these
91. Quality costs are best classified as:
a. cost of inspection and test, cost of quality engineering, cost of
quality administration, and cost of quality equipment.
b. direct, indirect, and overhead.
c. cost of prevention, cost of appraisal, and cost of failure.
d. unnecessary.
e. none of the above

92. Which of the following bases of performance measurement


(denominators), when related to operating quality costs (numerator),
would provide reliable indicator(s) to quality management for overall
evaluation of the effectiveness of the company’s quality program?
Quality costs per:
a. total manufacturing costs
b. unit produced
c. total direct labor dollars
d. only one of the above
e. any two of the above

21_Pyzdek_AppD_Ch21_p413-454.indd 432 11/9/12 5:33 PM


Simulated Certification Exam Questions 433

93. Quality cost data:


a. must be maintained when the end product is for the government.
b. must be mailed to the contracting officer on request.
c. is often an effective means of identifying quality problem areas.
d. all of the above

94. Operating quality costs can be related to different volume bases. An


example of volume base that could be used would be:
a. direct labor cost.
b. standard manufacturing cost.
c. processing cost.
d. sales.
e. all of the above

95. When operating a quality cost system, excessive costs can be identified
when:
a. appraisal costs exceed failure costs.
b. total quality costs exceed 10 percent of sales.
c. appraisal and failure costs are equal.
d. total quality costs exceed 4 percent of manufacturing costs.
e. There is no fixed rule; management experience must be used.

96. Quality cost systems provide for defect prevention. Which of the
following elements is primary to defect prevention?
a. Corrective action
b. Data collection
c. Cost analysis
d. Training
97. Quality cost analysis has shown that appraisal costs are apparently
too high in relation to sales. Which of the following actions probably
would not be considered in pursuing this problem?
a. Work sampling in inspection and test areas
b. Adding inspectors to reduce scrap costs
c. Pareto analysis of quality costs
d. Considering elimination of some test operations
e. Comparing appraisal costs with bases other than sales—for
example direct labor, value added, etc.

98. Analyze the cost data below:


• $10,000—equipment design
• $150,000—scrap
• $180,000—re-inspection and retest
• $45,000—loss or disposition of surplus stock
• $4000—vendor quality surveys
• $40,000—repair

21_Pyzdek_AppD_Ch21_p413-454.indd 433 11/9/12 5:33 PM


434 Appendix D

Considering only the quality costs shown above, we might conclude that:

a. prevention costs should be decreased.


b. internal failure costs can be decreased.
c. prevention costs are too low a proportion of the quality costs shown.
d. appraisal costs should be increased.
e. nothing can be concluded.

99. This month’s quality cost data collection shows the following:
• Returned material processing $1800
• Adjustment of customer complaints $4500
• Rework and repair $10,700
• Quality management salaries $25,000
• Warranty replacement $54,500
• Calibration and maintenance of test equipment $2500
• Inspection and testing $28,000
For your “action” report to top management, you select which one of
the following as the percentage of “External Failure” to “Total Quality
Costs” to show the true impact of field problems?
a. 20 percent
b. 55 percent
c. 48 percent
d. 24 percent
e. 8 percent

100. You have been assigned as a quality manager to a small company.


The quality control manager desires some cost data and the
accounting department reported that the following information
is available. Cost accounts are production inspection, $14,185;
test inspection, $4264; procurement inspection, $2198; shop labor,
$141,698; shop rework, $1402; first article, $675; engineering analysis
(rework), $845; repair service (warrantee), $298; quality engineering,
$2175; design engineering salaries, $241,451; quality equipment,
$18,745; training, $275; receiving laboratories, $385; underwriters
laboratories, $1200; installation service cost, $9000: scrap, $1182; and
calibration service, $794. What are the preventive costs?
a. $3727
b. $23,701
c. $23,026
d. $3295
e. $2450

101. The percentages of total quality cost are distributed as follows:


• Prevention: 12 percent
• Appraisal: 28 percent

21_Pyzdek_AppD_Ch21_p413-454.indd 434 11/9/12 5:33 PM


Simulated Certification Exam Questions 435

• Internal failure: 40 percent


• External failure: 20 percent
We conclude:

a. we should invest more money in prevention.


b. expenditures for failures are excessive.
c. the amount spent for appraisal seems about right.
d. nothing.

102. One of the following is not a factor to consider in establishing quality


information equipment cost:
a. debugging cost
b. amortization period
c. design cost
d. replacement parts and spares
e. book cost

103. One method to control inspection costs even without a budget is


by comparing as a ratio to productive machine time to produce
the product.
a. Product cost
b. Company profit
c. Inspection hours
d. Scrap material

104. A complete Quality Cost Reporting System would include which of


the following as part of the quality cost?
a. Test time costs associated with installing the product at the
customer’s facility prior to turning the product over to the customer
b. The salary of a product designer preparing a deviation
authorization for material produced outside of design
specifications
c. Cost of scrap
d. All of the above
e. None of the above

105. When prevention costs are increased to pay for the right kind
of engineering work in quality control, a reduction in the number
of product defects occurs. This defect reduction means a substantial
reduction in:
a. appraisal costs.
b. operating costs.
c. prevention costs.
d. failure costs.
e. manufacturing costs.

21_Pyzdek_AppD_Ch21_p413-454.indd 435 11/9/12 5:33 PM


436 Appendix D

106. The quality cost of writing instructions and operating procedures for
inspection and testing should be charged to:
a. appraisal costs.
b. internal failure costs.
c. prevention costs.
d. external failure costs.

107. When analyzing quality costs, a helpful method for singling out the
highest cost contributors is:
a. a series of interviews with the line foreman.
b. the application of the Pareto theory.
c. an audit of budget variances.
d. the application of break-even and profit volume analysis.

108. Included as a “prevention quality cost” would be:


a. salaries of personnel engaged in the design of measurement and
control equipment that is to be purchased.
b. capital equipment purchased.
c. training costs of instructing plant personnel to achieve production
standards.
d. sorting of nonconforming material that will delay or stop production.

109. The modern concept of budgeting quality costs is to:


a. budget each of the four segments: prevention, appraisal, internal
failure, and external failure.
b. concentrate on external failures; they are important to the business
since they represent customer acceptance.
c. establish a budget for reducing the total of the quality costs.
d. reduce expenditures on each segment.

110. The percentages of total quality cost are distributed as follows:


• Prevention: 2 percent
• Appraisal: 33 percent
• Internal failure: 35 percent
• External failure: 30 percent
We can conclude:

a. expenditures for failures are excessive.


b. nothing.
c. we should invest more money in prevention.
d. the amount spent for appraisal seems about right.
111. Assume that the cost data available to you for a certain period are
limited to the following:
• $20,000—Final test
• $350,000—Field warranty costs

21_Pyzdek_AppD_Ch21_p413-454.indd 436 11/9/12 5:33 PM


Simulated Certification Exam Questions 437

• $170,000—Re-inspection and retest


• $45,000—Loss on disposition of surplus stock
• $4000—Vendor quality surveys
• $30,000—Rework
The total of the quality costs is:
a. $619,000
b. $574,000
c. $615,000
d. $570,000

112. Assume that the cost data available to you for a certain period are
limited to the following:
• $20,000—Final test
• $350,000—Field warranty costs
• $170,000—Re-inspection and retest
• $45,000—Loss on disposition of surplus stock
• $4000—Vendor quality surveys
• $30,000—Rework
The total failure cost is:
a. $550,000
b. $30,000
c. $350,000
d. $380,000
113. A goal of a quality cost report should be to:
a. get the best product quality possible.
b. be able to satisfy MIL-Q-9858A.
c. integrate two financial reporting techniques.
d. indicate areas of excessive costs.

114. The concept of quality cost budgeting:


a. involves budgeting the individual elements.
b. replaces the traditional profit and loss statement.
c. does not consider total quality costs.
d. considers the four categories of quality costs and their general
trends.
115. Sources of quality cost data do not normally include:
a. scrap reports.
b. labor reports.
c. salary budget reports.
d. capital expenditure reports.

21_Pyzdek_AppD_Ch21_p413-454.indd 437 11/9/12 5:33 PM


438 Appendix D

116. When one first analyzes quality cost data, he might expect to find that,
relative to total quality costs:
a. costs of prevention are high.
b. costs of appraisal are high.
c. costs of failure are high.
d. all of the above

117. Quality costs should not be reported against which one of following
measurement bases:
a. direct labor.
b. sales.
c. net profit.
d. unit volume of production.

118. The basic objective of a quality cost program is to:


a. identify the source of quality failures.
b. determine quality control department responsibilities.
c. utilize accounting department reports.
d. improve the profit posture of your company.

119. Accuracy is:


a. getting consistent results repeatedly.
b. reading to four decimals.
c. using the best measuring device available.
d. getting an unbiased true value.

120. Measurement error:


a. is the fault of the inspector.
b. can be determined.
c. is usually of no consequence.
d. can be eliminated by frequent calibrations of the measuring device.

121. Precision is:


a. getting consistent results repeatedly.
b. reading to four or more decimals.
c. distinguishing small deviations from the standard value.
d. extreme care in the analysis of data.

122. If a distribution is skewed to the left, the median will always be:
a. less than the mean.
b. between the mean and the mode.
c. greater than the mode.
d. equal to the mean.
e. equal to the mode.

21_Pyzdek_AppD_Ch21_p413-454.indd 438 11/9/12 5:33 PM


Simulated Certification Exam Questions 439

123. Consumer risk is defined as:


a. accepting an unsatisfactory lot as satisfactory.
b. passing a satisfactory lot as satisfactory.
c. an alpha risk.
d. a 5 percent risk of accepting an unsatisfactory lot.

124. When an initial study is made of a repetitive industrial process for the
purpose of setting up a Shewhart control chart, information on the
following process characteristic is sought.
a. Process capability
b. Process performance
c. Process reliability
d. Process conformance

125. Which one of the following would most closely describe machine
process capability?
a. The process variation
b. The total variation over a shift
c. The total variation of all cavities of a mold, cavities of a die cast
machine, or spindles of an automatic assembly machine
d. The variation in a very short run of consecutively produced parts

126. Recognizing the nature of process variability, the process capability


target is usually:
a. looser than product specifications.
b. the same as product specifications.
c. tighter than product specifications.
d. not related to product specifications.
127. A variable measurement of a dimension should include:
a. an estimate of the accuracy of the measurement process.
b. a controlled measurement procedure.
c. a numerical value for the parameter being measured.
d. an estimate of the precision of the measurement process.
e. all of the above

128. When specifying the “10:1 calibration principle” we are referring to


what?
a. The ratio of operators to inspectors
b. The ratio of quality engineers to metrology personnel
c. The ratio of main scale to vernier scale calibration
d. The ratio of calibration standard accuracy to calibrated
instrument accuracy
e. None of the above

21_Pyzdek_AppD_Ch21_p413-454.indd 439 11/9/12 5:33 PM


440 Appendix D

129. Measuring and test equipment are calibrated to:


a. comply with federal regulations.
b. ensure their precision.
c. determine and/or ensure their accuracy.
d. check the validity of reference standards.
e. accomplish all of the above.
130. A basic requirement of most gage calibration system specifications is:
a. all inspection equipment must be calibrated with master gage
blocks.
b. gages must be color coded for identification.
c. equipment shall be labeled or coded to indicate date calibrated by
whom, and date due for next calibration.
d. gages must be identified with a tool number.
e. all of the above

131. What four functions are necessary to have an acceptable calibration


system covering measuring and test equipment in a written
procedure?
a. Calibration sources, calibration intervals, environmental conditions,
and sensitivity required for use
b. Calibration sources, calibration intervals, humidity control, and
utilization of published standards
c. Calibration sources, calibration intervals, environmental conditions
under which equipment is calibrated, controls for unsuitable
equipment
d. List of standards, identification report, certificate number, and recall
records

132. Select the non-hygienic motivator, as defined by Maslow.


a. Salary increases
b. Longer vacations
c. Improved medical plan
d. Sales bonuses
e. Performance recognition
133. Which one of these human management approaches has led to the
practice of job enrichment?
a. Skinner
b. Maslow
c. Herzberg’s “Hygiene Theory”
d. McGregor
134. Which of the following is not a management-initiated error?
a. The imposition of conflicting priorities
b. The lack of operator capacity

21_Pyzdek_AppD_Ch21_p413-454.indd 440 11/9/12 5:33 PM


Simulated Certification Exam Questions 441

c. Management indifference or apathy


d. Conflicting quality specifications
e. Work space, equipment, and environment
135. Which of the following does not generate product-quality
characteristics?
a. Designer
b. Inspector
c. Machinist
d. Equipment engineer
136. Extensive research into the results of quality motivation has shown
that:
a. the supervisor’s attitude toward his or her people is of little long
term consequence.
b. motivation is too nebulous to be correlated with results.
c. motivation is increased when employees set their own goals.
d. motivation is increased when management sets challenging goals
slightly beyond the attainment of the better employees.
137. McGregor’s theory X manager is typified as one who operates from
the following basic assumption about people working for him or her.
(Select the one best answer.)
a. Performance can be improved through tolerance and trust.
b. People have a basic need to produce.
c. Status is more important than money.
d. Self-actualization is the highest order of human need.
e. People are lazy and are motivated by reward and punishment.
138. Quality motivation in industry should be directed at:
a. manufacturing management.
b. procurement and engineering.
c. the quality assurance staff.
d. the working force.
e. all the above.

139. Who has the initial responsibility for manufactured product quality?
a. The inspector
b. The vice president
c. The operator
d. The quality manager

140. A fully developed position description for a quality engineer must


contain clarification of:
a. responsibility.
b. accountability.
c. authority.

21_Pyzdek_AppD_Ch21_p413-454.indd 441 11/9/12 5:33 PM


442 Appendix D

d. answers a and c above.


e. answers a, b, and c above.

141. One of the most important techniques in making a training program


effective is to:
a. give people meaningful measures of performance.
b. transmit all of the information that is even remotely related to the
function.
c. set individual goals instead of group goals.
d. concentrate only on developing knowledge and skills needed to do a
good job.

142. In order to instill the quality control employee with the desire to
perform to his or her utmost and optimum ability, which of the
following recognition for sustaining motivation has been found
effective for most people?
a. Recognition by issuance of monetary award
b. Public verbal recognition
c. Private verbal recognition
d. Public recognition, plus non-monetary award
e. No recognition; salary he or she obtains is sufficient motivation
143. Which of the following methods used to improve employee efficiency
and promote an atmosphere conducive to quality and profit is the
most effective in the long run?
a. Offering incentives such as bonus, praise, profit sharing, etc.
b. Strict discipline to reduce mistakes, idleness, and sloppiness
c. Combination of incentive and discipline to provide both reward for
excellence and punishment for inferior performance
d. Building constructive attitudes through development of realistic
quality goals relating to both company and employee success
e. All of the above provided emphasis is placed on attitude
motivation, with incentive and discipline used with utmost caution
144. An essential technique in making training programs effective is to:
a. set group goals.
b. have training classes that teach skills and knowledge required.
c. feed back to the employee meaningful measures of his performance.
d. post results of performance before and after the training program.
e. set individual goals instead of group goals.

145. In the pre-production phase of quality planning, an appropriate


activity would be to:
a. determine responsibility for process control.
b. determine the technical depth of available manpower.
c. establish compatible approaches for accumulation of process data.
d. conduct process capability studies to measure process expectations.

21_Pyzdek_AppD_Ch21_p413-454.indd 442 11/9/12 5:33 PM


Simulated Certification Exam Questions 443

146. Systems are improved:


a. by improving each of the processes within the system to its best
level of performance.
b. by improving the process that is most important to the customer.
c. by considering how the processes work within the system.
d. sometimes at the expense of processes that operate within the system.
In other words, the performance of some processes may improve,
and others degrade, to achieve maximum system performance.
e. choices c and d
f. choices a and b

147. Deming says that the responsibility for optimizing a system rests with:
a. the team leaders assigned to that project.
b. the process workers who know the system the best.
c. management.
d. none of the above

148. How are the number of constraints in a system determined?


a. Since they know the problems in the system, the personnel working
in the system are generally able to identify the constraints in a
brainstorming exercise.
b. Each task on the critical path is a constraint, so sum the number of
tasks on the critical path.
c. Sum the number of critical tasks on the critical path.
d. There is only one system constraint at a time (in each
independent chain).

149. Constraint management is:


a. a descriptive theory.
b. a prescriptive theory.
c. a hygiene theory.
d. none of the above

150. Constraint management theory:


a. explains how a constraint impacts a system.
b. provides a definition for a constraint.
c. provides management direction for dealing with a constraint.
d. all of the above
e. choices a and b

151. Constraints may be described as:


a. anything that limits a system in reaching its goal.
b. the weak link in a chain.
c. the poorest performing process in a system.
d. all of the above
e. choices a and b

21_Pyzdek_AppD_Ch21_p413-454.indd 443 11/9/12 5:33 PM


444 Appendix D

152. Examples of constraints include:


a. insufficient demand for your product.
b. an internal policy that slows response time to customer demand.
c. a process operation that acts as a bottleneck, slowing the delivery of
product to the customer.
d. insufficient training resources, preventing adequate job skills.
e. all of the above

153. Which of the following is NOT a basic assumption related to


Constraint Management?
a. Systems have goals and corresponding necessary conditions
required to achieve the goals. We must identify these to effectively
improve the system.
b. We must maximize the performance of each link in the chain to
improve the system.
c. The performance of the system is dictated by the “weakest link” in the
system.
d. None of the above.

154. Constraint Management’s focusing steps, in order, are:


a. Identify, Elevate, Subordinate, Exploit, Repeat
b. Plan, Do, Check, Act
c. Identify, Exploit, Subordinate, Elevate, Repeat
d. Identify, Elevate, Subordinate, Exploit

155. Once we have identified the constraint, and taken actions to make the
most of its resources, we should:
a. define parameters for other system elements to complement the
constraint’s needs.
b. improve the capacity of downstream processes.
c. regularly verify that the constraint has not moved.
d. all of the above
e. choices a and c

156. Buffers are used to:


a. increase capacity.
b. decrease cycle time of a constraint.
c. ensure that the constraint is not waiting for materials.
d. increase the system cycle time.

157. Buffers should:


a. be used at each stage of the process.
b. be used at the constraint, to protect against upstream cycle time
variation.
c. never be used in Constraint Management.
d. protect the constraint from being overworked.

21_Pyzdek_AppD_Ch21_p413-454.indd 444 11/9/12 5:33 PM


Simulated Certification Exam Questions 445

158. In constraint management, buffers:


a. are specified in units of time, such as requiring delivery of material
24 hours before it is needed.
b. are specified in production units, such as requiring that 10 percent
more product be delivered to the process step than is necessary for
the customer order.
c. are not recommended, since they produce inefficiencies.
d. none of the above

159. In Goldratt’s Drum-Buffer-Rope, the rope:


a. causes backlogs at various stages, in order to improve the efficiency
of the constraint.
b. prevents resources from being allocated faster than they can be
used by the constraint.
c. acts to pull material through the system, in contrast to push
production systems.
d. prevents a critical resource from being without material.

160. Critical chain refers to constraint management applied to:


a. critical processes.
b. repetitive production.
c. projects.
d. choices a and b
e. none of the above
f. all of the above

161. The critical chain approach accounts for which of the following behaviors?
a. Estimating task time longer than necessary to avoid late completion
b. Starting the task just prior to the scheduled completion date
c. Using all of allotted task time, regardless of how long it really takes
d. Assigning a given person multiple tasks with deadlines
e. All of the above
162. Critical chain management:
a. ensures on-time project completion by maintaining on-time
completion of each activity on the critical chain.
b. replaces time estimate padding for activities with time buffers at
key points on the critical chain.
c. should be used with caution if a resource has more than one task
assigned to it.
d. should not be applied to managing multiple projects at once.

163. A key difference between critical chain management and PERT/CPM


critical path is:
a. the critical path will always be shorter.
b. tasks feeding the critical path have buffers imposed.

21_Pyzdek_AppD_Ch21_p413-454.indd 445 11/9/12 5:33 PM


446 Appendix D

c. the critical chain considers dependent activities in series, as well


conflicting resource needs.
d. there is no fundamental difference between the two.

164. Throughput may be expressed:


a. as the rate at which a system generates money.
b. as the marginal contribution of sales to profit.
c. for an entire company.
d. as sales revenue minus variable cost.
e. all of the above

165. In constraint management, operating expense:


a. is the amount of money spent converting inventory into throughput.
b. includes labor costs.
c. includes fixed costs and overhead.
d. all of the above
e. choices a and c

166. According to constraint management theory, as inventory costs


increase:
a. Net profit decreases.
b. Return on investment decreases.
c. Net profit remains the same.
d. choices a and b
e. choices b and c

167. Six Sigma methodologies:


a. can only be applied to companies that produce goods with large
volume.
b. concentrate on cost savings rather than customer needs.
c. have not been successfully applied to service companies.
d. all of the above
e. none of the above

168. A Six Sigma level of quality:


a. implies 99.73 percent of the output will meet customer requirement.
b. equates to a capability index of 1.33.
c. represents 3.4 defects per million opportunities.
d. provides half the defects of a 3 Sigma level of quality.
e. all of the above

169. As an organization’s sigma level increases:


a. the cost of quality increases.
b. the cost of quality decreases.
c. the cost of quality is not affected.
d. none of the above

21_Pyzdek_AppD_Ch21_p413-454.indd 446 11/9/12 5:33 PM


Simulated Certification Exam Questions 447

170. As a company moves from 3 Sigma level of quality to 4 and 5 Sigma


levels of quality, they tend to:
a. spend more money on prevention costs.
b. spend less money on appraisal costs.
c. spend less money on failure costs.
d. improve customer satisfaction, which can lead to increased sales.
e. all of the above

171. Companies that successfully implement Six Sigma are likely to:
a. initially spend a lot of money on training, but receive benefits that
might be hard to quantify over the course of time.
b. realize decreased quality costs and improved quality.
c. see a reduction in critical defects and cycle times.
d. all of the above
e. choices b and c only

172. Project sponsors:


a. ensure that the Six Sigma projects are defined with clear
deliverables.
b. help clear roadblocks encountered by the project team.
c. are generally members of management.
d. all of the above
173. In a typical deployment, Green Belts:
a. are full-time change agents.
b. maintain their regular role in the company, and work Six Sigma
projects as needed.
c. receive extensive training in advanced statistical methods.
d. all of the above

174. Examples of Six Sigma projects might include:


a. reducing cost of product shipments.
b. reducing customs delays for international shipments.
c. reducing the design cycle for a new product.
d. increasing the market share of a particular product through
improved marketing.
e. all of the above

175. In the Six Sigma project methodology acronym DMAIC, the “I” stands
for:
a. Integrate.
b. Investigate.
c. Improve.
d. Ignore.

21_Pyzdek_AppD_Ch21_p413-454.indd 447 11/9/12 5:33 PM


448 Appendix D

176. The Define stage of DMAIC:


a. is linked with the project charter and provides input to the
Measure stage.
b. stands alone in the methodology, but is always necessary.
c. is not necessary when the project is mandated by top management.
d. none of the above

177. The Control stage of DMAIC:


a. is only used when you need to define control chart parameters.
b. allows the improvements to be maintained and institutionalized.
c. is only needed if you have ISO 9000 certification.
d. none of the above

178. A top-down deployment of Six Sigma projects:


a. is discouraged because projects get delayed by other management
commitments.
b. undermines the project sponsors.
c. emphasizes projects that line workers feel are important.
d. ensures that projects are aligned with the top-level business strategy.

179. Which of the following are NOT parts of Deming’s system of profound
knowledge?
a. Constantly evaluate all employees
b. Appreciation for a system
c. Knowledge about variation
d. Theory of knowledge
180. Which of the following are NOT one of Deming’s 14 points?
a. Institute a vigorous program of education and self-improvement.
b. Put everybody in the company to work to accomplish the
transformation. The transformation is everybody’s job.
c. Eliminate slogans, exhortations, and targets asking for zero defects
or new levels of productivity.
d. None of the above.
181. Examples of hidden factory losses include all of the following except:
a. capacity losses due to reworks and scrap.
b. stockpiling of raw material to accommodate poor yield.
c. rush deliveries.
d. All of the above are examples of hidden factory losses.
182. An invoicing process generates only ten to fifteen orders per month.
In establishing the statistical control of the invoice process:
a. use a subgroup size of one.
b. use a subgroup size of five, which is generally the best size.
c. use a subgroup size of ten.
d. use a subgroup size of fifteen.

21_Pyzdek_AppD_Ch21_p413-454.indd 448 11/9/12 5:33 PM


Simulated Certification Exam Questions 449

183. Effective leaders:


a. share many of the same traits and responsibilities as effective
managers.
b. have a vision for the organization.
c. are best suited for designing the processes and systems for daily
operations.
d. all of the above

184. Effective managers:


a. share many of the same traits and responsibilities as effective leaders.
b. have a vision for the organization.
c. are best suited for designing the processes and systems for daily
operations.
d. all of the above
185. Management training should include:
a. coaching skills.
b. theory and practice of organizational systems.
c. conflict resolution skills.
d. all of the above

186. Which of the following is NOT one of Deming’s 14 points?


a. Drive out fear.
b. Create constancy of purpose.
c. Hold management accountable for meeting the business’s
numerical goals.
d. Improve constantly and forever each process for planning,
production, and service.

187. The management team has decided that there are three criteria for
choosing projects, with their relative importance weighting shown in
parenthesis:
• Financial benefit/cost ratio (0.3)
• Perceived customer benefit (0.5)
• Safety benefit (0.2)
Four projects have been reviewed relative to these criteria, with the
scores for each criterion shown in the following table.

Project Fin. Benefit/Cost Ratio Customer Benefit Safety


Benefit
A 120 140 30
B   80 200 25
C 100 100 45
D 140   70 65

21_Pyzdek_AppD_Ch21_p413-454.indd 449 11/9/12 5:33 PM


450 Appendix D

Which project should be selected?

a. Project A
b. Project B
c. Project C
d. Project D

188. Joe’s project seemed to be going along well until the project team
started to implement the solution. At that point, a department that
hadn’t been involved, but will be affected, starting raising objections
and pointing out problems with the proposed solution. This indicates:
a. the team should immediately get the sponsor involved to settle the
disagreements.
b. the department is afraid of change and needs to be told to accept
the team’s findings.
c. the department should have been identified as stakeholders early
on and included in the project team or the team’s problem
solving sessions.
d. choices a and b

189. Bob, a team leader, is having trouble getting buy-in from various
members of the team. In one particular problem-solving meeting,
these team members didn’t seem to listen to any of Bob’s ideas,
and were insistent that their ideas were more credible. Some
reasonable advice to Bob would be:
a. Replace the team members with those more willing to work as team
players.
b. Work on his communication skills, display interest for others’ ideas,
and use data to determine which ideas have the most merit.
c. Ask their managers or the project sponsor to persuade them to get
on board.
d. choices a and c

190. A particular project has many stakeholder groups. In an attempt


to keep the team size at a reasonable level, some of the non-key
stakeholder groups were not included in the team. As a result:
a. the team leader can boost buy-in from these groups by bringing
credible group members into the problem-solving as ad hoc team
members.
b. the team leader should also restrict the distributed progress reports
to only the key groups represented in the team to prevent confusion
and interference on the part of the non-key groups.
c. the sponsor should ensure that the concerns of the non-key groups
are met by the team recommendations.
d. all of the above

21_Pyzdek_AppD_Ch21_p413-454.indd 450 11/9/12 5:33 PM


Simulated Certification Exam Questions 451

191. Bill’s team is having a hard time agreeing on a plan for data gathering.
There are three general suggestions that have been offered: one by a
process expert and two by other team members. To decide which plan
to deploy, the team should:
a. accept the idea offered by the process expert. Doing otherwise is an
insult to his or her expertise.
b. vote on the different proposals, with the plan receiving the highest
vote being deployed.
c. develop new plans that take the best parts of the proposed plans
with compromises on the conflicting aspects of the various plans.
Vote on the resulting plans.
d. try to reach a compromise on the various plans, with a resulting
plan that everyone can live with, even if it’s not perfect to any of the
parties.

192. Jill is the team leader for a project aimed at reducing the cycle time for
invoices. The team has reached an impasse on generating potential
root causes of process failure; only a few ideas have been offered by
only a few of the team members. As team leader, Jill should:
a. request that the current team be dissolved, and a new team formed
with process experts.
b. report the impasse to the sponsor, and suggest the team meet again
in a month or two when they have a fresh perspective.
c. use brainstorming tools.
d. end the meeting, and work on developing the list herself.

193. Joan is a Black Belt and project team leader. Her team includes, amongst
other members, a manager and a clerk from different departments.
Early in today’s team meeting, after the clerk had offered an idea during
the brainstorming session, the manager made a joke about the feasibility
of the idea. Just now, the manager has stifled the clerk’s comments by
asserting the clerk lacked the experience to suggest potential causes of
the problem under investigation. Joan should:
a. wait until the end of the meeting and discuss the issue separately
with the clerk and the manager.
b. immediately remind the manager of the team ground rule
of “respectful communication” and the general rules for
brainstorming.
c. give it some time and allow personalities to gel. Perhaps the
manager is having a bad day and will be more agreeable in future
meetings.
d. do nothing. The manager should be given respect for his or her
position in the company, and the point is well taken on the clerk’s
experience. Furthermore, the earlier joke really gave the team
something to chuckle about, easing tension.

21_Pyzdek_AppD_Ch21_p413-454.indd 451 11/9/12 5:33 PM


452 Appendix D

194. In an initial team meeting, the team should:


a. establish ground rules and review member responsibilities.
b. agree on project purpose, scope, plan, and timeline.
c. establish workable meeting times and locations.
d. all of the above

195. With regard to team dynamics,


a. initial meetings are generally friendly, with the team leader
exercising control.
b. conflict is common, and can indicate that team members are
becoming involved.
c. the team leader should move the members toward thinking
independently.
d. all of the above
196. A conflict has developed among team members regarding a proposed
solution. Joan, the team leader, should:
a. insist that the team members behave and stop disagreeing.
b. allow each member to explain his or her point of view, then take a
vote to see which proposal wins.
c. use problem solving tools to determine the true causes of
dissension, then use that information to guide their solution.
d. all of the above

197. At the team’s third meeting, its leader, John, is starting to feel a bit
uncomfortable. He had established ground rules for the team, and
some of its members are starting to question those rules. John should:
a. exercise his authority as team leader and insist that the team follow
the rules.
b. lead the team to establish its own rules.
c. defer to the team sponsor.
d. none of the above

198. In team meetings, Jane seems to listen to whoever is speaking, but then
has questions for the speaker. John, the team leader, senses that a few
team members are frustrated with Jane, thinking she takes up too much
time. John should:
a. politely ask Jane, after the meeting, to try to keep her questions to a
minimum.
b. politely ask Jane during the meeting to try to keep her questions to
a minimum.
c. thank Jane publicly for asking relevant questions of team members,
so that issues and opinions are clearly understood.
d. ignore the frustrations. Personalities don’t always mesh.

21_Pyzdek_AppD_Ch21_p413-454.indd 452 11/9/12 5:33 PM


Simulated Certification Exam Questions 453

199. Jim is assembling a team to improve quality of a process with two


stakeholder groups that have a history of fixing blame on one another.
Jim would like to avoid getting “stuck in the middle” of these two
factions. Jim can reduce the likelihood of this by:
a. asking only one group (the one providing the most value to the
team) to be part of the team on a full-time basis, with the other
group represented only as needed for input.
b. asking the sponsor, who oversees both groups, to attend meetings
so that she can settle the disagreements.
c. discussing team ground rules at the first team meeting, and firmly
enforcing these rules throughout. These ground rules would
include respectful communication between team members and
decisions on basis of data (rather than opinion).
d. asking the two groups to each recommend someone who can co-
lead the team.

200. Project charters help to prevent the occurrence of which of the


following reducers to stakeholder buy-in?
a. Unclear goals
b. No accountability
c. Insufficient resources
d. All of the above

21_Pyzdek_AppD_Ch21_p413-454.indd 453 11/9/12 5:33 PM


21_Pyzdek_AppD_Ch21_p413-454.indd 454 11/9/12 5:33 PM
References

22_Pyzdek_Ref_Ch22_p455-460.indd 455 11/9/12 5:34 PM


22_Pyzdek_Ref_Ch22_p455-460.indd 456 11/9/12 5:34 PM
AIAG (1995). Potential Failure Modes and Effects Analysis Reference Guide.
Automotive Industry Action Group.
——— (1995). MSA Reference Manual. Automotive Industry Action Group.
Akao, Y. editor (1990). Quality Function Deployment: Integrating Customer
Requirements into Product Design. Cambridge, MA: Productivity Press.
Alloway, J.A., Jr. (1994). “The card drop shop,” Quality Progress, July.
ASQ (1981). Product Recall Planning Guide. Milwaukee: ASQ Press.
ASQ (1992). Quality Engineering Handbook. Milwaukee: ASQ Press.
Athey, T.H. (1982). The Systematic Systems Approach. Englewood Cliffs:
Prentice-Hall, Inc.
Aubrey, C.A. and Felkins, P.K. (1988). Teamwork: Involving People in Quality
and Productivity Improvement. Milwaukee, WI: ASQ Quality Press.
Benneyan, J.C. (1994). “The merits of merit review...?: Bibliography of
recommended study and summary of arguments against annual
merit review,” Amherst, MA: University of Massachusetts, Industrial
Engineering/Operations Research. benneyan@ecs.umass.edu.
Blanchard, K. and Johnson, S. (1982). The One-Minute Manager. New York:
William Morrow & Co.
Boardman, T.J. and Boardman, E.C. (1990). “Don’t touch that funnel!”
Quality Progress, December.
Brainard, E.H. (1966). “Just how good are vendor surveys?” Quality
Assurance, August, pp. 22–26.
Brassard, M. (1989). The Memory Jogger Plus+. Methuen, MA: GOAL/QPC.
Brookfield, D. (1986). Understanding and Facilitating Adult Learning. San
Francisco, CA: Jossey-Bass.
Burt, D.N. and Doyle, M.F. (1993). The American Keiretsu: A Strategic Weapon
for Global Competitiveness. Homewood, IL: Times Mirror Books, Business
One Irwin.
Buzzell, R.D. and Gale, B.L. (1987). The PIMS Principles: Linking Strategy to
Performance. New York: The Free Press.
Camp, R.C. (1989). Benchmarking: The Search for Industry Best Practices that
Lead to Superior Performance. Milwaukee, WI: ASQ Quality Press and
White Plains, NY: Quality Resources.

457

22_Pyzdek_Ref_Ch22_p455-460.indd 457 11/9/12 5:34 PM


458 References

Campanella, J. editor (1990). Principles of Quality Costs, 2nd edition.


Milwaukee, WI: ASQ Quality Press.
Carder, B. and Clark, J.D. (1992). “The theory and practice of employee
recognition,” Quality Progress, December.
Carlzon, J. (1987). Moments of Truth. New York: Harper and Row.
Coase, R. (1937). “The nature of the firm,” Economica, 4, pp. 386–405.
Corbett, T. (1998). Throughput Accounting. Great Barrington, MA: North
River Press.
Crain, Nicole V. and Crain, W. Mark. (2010). “The impact of regulatory costs
on small firms,” Washington, DC: U.S. Small Business Administration,
Office of Advocacy. (http://www.sba.gov/advo/).
Deming, W.E. (1975). “On probability as a basis for action,” The American
Statistician, 29(4), pp. 146–152.
Deming, W.E. (1986). Out of the Crisis. Cambridge, MA: MIT Center for
Advanced Engineering Study.
Deming, W.E. (1993). The New Economics for Industry, Government, Education.
Cambridge, MA: MIT Center for Advanced Engineering Study.
DeToro, I. (1995). “The 10 pitfalls of benchmarking,” Quality Progress,
January, pp. 61–63.
Dettmer, H.W. (1997). Goldratt’s Theory of Constraints: A Systems Approach to
Continuous Improvement. Milwaukee, WI: ASQ Quality Press.
Dettmer, H.W. (1998). Breaking the Constraints to World-Class Performance.
Milwaukee, WI: ASQ Quality Press.
Dillman, D.A. (1983). “Mail and other self-administered questionnaires,”
in Handbook of Survey Research. Rossi, P., Wright, J. and Anderson,
A. editors. New York: Academic Press, Inc., pp. 359–377.
Drucker, P.F. (1974). Management: Tasks, Responsibilities, Practices. New York:
Harper and Row.
Eckes, G. (1994). “Practical alternatives to performance appraisals,” Quality
Progress, November, pp. 57–60.
Edosomwan, J.A. (1993). Customer and Market-Driven Quality Management.
Milwaukee, WI: ASQ Quality Press.
Feigenbaum, A.J. (1951, 1983). Total Quality Control, 3rd edition. New York:
McGraw-Hill.
Finnerty, M.F. (1996). “Coaching for growth and development,” The
ASTD Training & Development Handbook: A Guide to Human Resources
Development, in Craig, R.L. editor-in-chief. New York: McGraw-Hill,
pp. 415–436.
Fitzsimmons, C.F. (1996). “The bossless performance review,” Quality
Progress, June, pp. 77–81.
Fivars, G. (1980). “The Critical Incident Technique: A Bibliography,”
Research and Publication Service, American Institutes for Research
ED 195 681.
Flanagan, J.C. (1954). “The critical incident technique,” Psychological
Bulletin, 51(4), July, pp. 327–358.

22_Pyzdek_Ref_Ch22_p455-460.indd 458 11/9/12 5:34 PM


References 459

Forum Corporation (1996). Annual Report. Available at: www.forum.com/


publications/esub_archive/sales.html.
Forsha, H.I. (1992). The Pursuit of Quality Through Personal Change.
Milwaukee, WI: ASQ Quality Press.
Galloway, D. (1994). Mapping Work Processes. Milwaukee, WI: ASQ Quality
Press.
GAO (1986). “Developing and Using Questionnaires—Transfer Paper 7,”
Washington, D.C.: United States General Accounting Office.
George, M.L. (2002). Lean Six Sigma. New York: McGraw-Hill.
GOAL/QPC (1990). “Cross-Functional Management: Research Report #90-
12-01,” Methuen, MA.
Goldratt, E.M. (1986). The Goal. Croton-on-Hudson, New York: The North
River Press.
Goldratt, E.M. (1990). The Haystack Syndrome: Sifting Information Out of
the Data Ocean. Croton-on-Hudson, New York: The North River Press,
p. 53.
Goldratt, E.M. (1997). Critical Chain. Great Barrington, MA: The North
River Press.
Goldratt, E.M. and Fox, R.E. (1986). The Race. Croton-on-Hudson,
New York: The North River Press.
Hagan, John T. , editor (1990). Principles of Quality Costs. Milwaukee: ASQ
Quality Press.
Hammer, M. and Champy, J. (1993). Reengineering the Corporation: A
Manifesto for Business Revolution. New York: HarperCollins Publishers.
Harrington, H.J. (1992). “Probability and statistics,” Quality Engineering
Handbook, in Pyzdek, T. and Berger, R.W. editors, Milwaukee, WI: ASQ
Quality Press, pp. 513–577.
Harry, M. and Schroeder, R. (2000). Six Sigma. New York: Doubleday.
Hayes, Bob E. (1992). Measuring Customer Satisfaction: Development and Use
of Questionnaires. Milwaukee, WI: ASQ Quality Press.
Hillier, F.S. and Lieberman, G.J. (1980). Introduction to Operations Research,
3rd edition. San Francisco, CA: Holden-Day, Inc.
Hutton, D.W. (1994). The Change Agent’s Handbook: A Survival Guide for
Quality Improvement Champions. Milwaukee, WI: ASQ Quality Press.
Imai, M. (1986). Kaizen. New York: Random House.
Ishikawa, K. (1985). What Is Total Quality Control the Japanese Way?
Englewood Cliffs, NJ: Prentice-Hall.
Johnson, R.S. (1993a). TQM: Leadership for the Quality Transformation.
Milwaukee, WI: ASQ Quality Press.
Johnson, R.S. (1993b). TQM: Management Processes for Quality Operations.
Milwaukee, WI: ASQ Quality Press.
Joiner, B.L. (1994). Fourth Generation Management: The New Business
Consciousness. New York: McGraw-Hill.
Juran, J.M. (1994). The Upcoming Century of Quality. Wilton, CT: Juran
Institute, Inc.

22_Pyzdek_Ref_Ch22_p455-460.indd 459 11/9/12 5:34 PM


460 References

Juran, J.M. (1995). A History of Managing for Quality. Milwaukee: ASQC


Quality Press.
Juran, J.M. and DeFeo, J.A. (2010). Juran’s Quality Handbook, 6th edition.
New York: McGraw-Hill.
Juran, J.M. and Gryna, F.M. (1988). Juran’s Quality Control Handbook,
4th edition. New York: McGraw-Hill.
Juran, J.M. and Gryna, F.M. (1993). Quality Planning and Analysis,
3rd edition. New York: McGraw-Hill.
Kano, N. (1993). “A perspective on quality activities in American firms,”
California Management Review, 35(3), Spring 1993, pp. 12–31.
Kaplan, R.S. and Norton, D.P. (1992). “The balanced scorecard—measures
that drive performance,” Harvard Business Review, January-February,
pp. 71–79.
Keller, P. (2011a). Six Sigma Demystified, 2nd edition, New York:
McGraw Hill.
Keller, P. (2011b). Statistical Process Control Demystified. New York:
McGraw Hill.
Keeney, K.A. (1995). The Audit Kit. Milwaukee, WI: ASQ Quality Press.
Kendrick, J.J. (1992). “How to spot total quality leaders and predict success
of quality programs,” Quality, April, p. 13.
King, B. (1987). Better Designs in Half the Time: Implementing QFD in America.
Methuen, MA: Goal/QPC.
Kohn, A (1986). No Contest: The Case against Competition. New York:
Houghton Mifflin Company.
Kohn, A. (1993). Punished by Rewards: The Trouble with Gold Stars, Incentive
Plans, A’s, Praise and Other Bribes. New York: Houghton Mifflin
Company.
Kotler, P. (1991). Marketing Management: Analysis, Planning, Implementation,
and Control, 7th edition. Englewood Cliffs, NJ: Prentice-Hall.
Lafley, A.G., Martin, R.L., Rivkin, J.W., and Siggelkow, N. (2012). “Bringing
Science to the Art of Strategy,” Harvard Business Review (September)
pp. 57–66.
Leach, L.P. (2000). Critical Chain Project Management. Boston, MA: Artech
House, Inc.
Levitt, T. (1983). “After the sale is over,” Harvard Business Review,
September/October, pp. 87–93.
Lewis, C.I. (1929). Mind and the World Order. New York: Scribners.
Maslow, A.H. (1943). “A theory of human motivation,” Psychological
Review, 50, pp. 370–396.
McGregor, D. (1960). The Human Side of Enterprise. New York: McGraw-Hill.
Mendelowitz, A.I. (1991). “Management Practices: U.S. Companies
Improve Performance Through Quality Effort,” GAO/NSIAD-91-190,
Washington, D.C.: Superintendent of Documents.

22_Pyzdek_Ref_Ch22_p455-460.indd 460 11/9/12 5:34 PM


References 461

Mintzberg, H. (1989). “The structuring of organizations,” in Mintzberg, H.


and Quinn, J.B. (1991). The Strategy Process—Concepts, Contexts, Cases,
2nd edition. Englewood Cliffs, NJ: Prentice-Hall, Inc.
Mintzberg, H. (1994). The Rise and Fall of Strategic Planning. New York: The
Free Press.
Mintzberg, H. and Quinn, J.B. (1991). The Strategy Process—Concepts,
Contexts, Cases, 2nd edition. Englewood Cliffs, NJ: Prentice-Hall, Inc.
Nelson, Lloyd S. (1984). “The Shewhart control chart-tests for special
causes,” Journal of Quality Technology 16(4), pp. 237–239.
Nelson, Lloyd S. (1988). “Control charts: rational subgroups and effective
applications,” Journal of Quality Technology 20(1), pp. 73–75.
Newbold, R.C. (1998). Project Management in the Fast Lane: Applying the
Theory of Constraints. Boca Raton, FL: St. Lucie Press.
Nolan, M. (1996). “Job training,” The ASTD Training & Development
Handbook: A Guide to Human Resources Development in Craig, R.L. editor-­
in-chief, New York: McGraw-Hill, pp. 747–775.
Noreen, E., Smith, D., and Mackey, J.T. (1995). The Theory of Constraints
and Its Implications for Management Accounting. Great Barrington, MA:
North River Press.
Paton, S.M. (1995). “An interview with A. Blanton Godfrey,” Quality Digest,
November, pp. 56–58.
Peters, T. (1990). “The new building blocks,” Industry Week, Jan 8,
pp. 101–102.
Peters, T. and Austin, N. (1985). A Passion for Excellence: The Leadership
Difference. New York: Random House.
Prince, J.B. (1994). “Performance appraisal and reward practices for
total quality organizations,” Quality Management Journal, January,
pp. 36–46.
Provost, L.P. (1988). “Interpretation of Results of Analytic Studies,” paper
presented at 1989 NYU Deming Seminar for Statisticians, March 13,
New York: New York University.
Pyzdek, T. (1985). “A ten-step plan for statistical process control studies,”
Quality Progress, April, pp. 77–81, and July, pp. 18–20.
Pyzdek, T. (1990). Pyzdek’s Guide to SPC Volume One: Fundamentals. Tucson,
AZ: Quality Publishing, Inc.
Pyzdek, T. and Keller, P. (2010). The Six Sigma Handbook. New York:
McGraw Hill.
Reeves, M., Love, C., Tillmanns, P. (2012). “Your strategy needs a strategy,”
Harvard Business Review, September, pp. 76–83.
Reimann, C.W. and Hertz, H.S. (1993). “The Malcolm Baldrige National
Quality Award and ISO 9000 Registration: Understanding Their Many
Important Differences,” National Institute of Standards and Technology.
ReVelle, J. (2000). What Your Quality Guru Never Told You. Tucson, AZ: QA
Publishing.

22_Pyzdek_Ref_Ch22_p455-460.indd 461 11/9/12 5:34 PM


462 References

Rose, K.H. (1995). “A performance measurement model,” Quality Progress,


February, pp. 63–66.
Saaty, T.L. (1988). Decision Making for Leaders: The Analytic Hierarch Process
for Decisions in a Complex World. Pittsburgh, PA: RWS Publications.
Scholtes, P.R. (1988). The Team Handbook. Madison, WI: Joiner Associates.
Schragenheim, E. and Dettmer, H.W. (2000). Manufacturing at Warp Speed.
Boca Raton, FL: St. Lucie Press.
Senge, P.M. (1990). The Fifth Discipline: The Art and Practice of the Learning
Organization. New York: Doubleday.
Sheridan, B.M. (1993). Policy Deployment: The TQM Approach to Long-Range
Planning. Milwaukee, WI: ASQ Quality Press.
Shewhart, W. (1931, 1980). Economic Control of Quality of Manufacturing.
Milwaukee, WI: ASQ Quality Press.
Shewhart, W. (1939, 1986). Statistical Method from the Viewpoint of Quality
Control. New York: Dover Publications.
Simon, J. and Bruce, P. (1992). “Using computer simulation in quality con-
trol,” Quality Progress, Statistics Corner Column.
Slater, R. (1999). Jack Welch and the GW Way. New York: McGraw-Hill.
Smith, D. (2000). The Measurement Nightmare: How the Theory of Constraints
Can Resolve Conflicting Strategies, Policies, and Measures. Boca Raton, FL:
The St. Lucie Press.
Stapp, Eric H. (2001). ISO 9001:2000 An Essential Guide to the New Standard.
Tucson: QA Publishing, LLC.
Taguchi, G. (1986). Introduction to Quality Engineering: Designing Quality into
Products and Processes. White Plains, NY: Quality Resources.
Taylor, F.W. (1947). Scientific Management. New York: Harper & Brothers.
The Economist (1992). “The cracks in quality,” April 18, p. 67.
Thiagarajan, S. (1996). “Instructional games, simulations, and role-plays,”
The ASTD Training and Development Handbook: A Guide to Human Resources
Development, in Craig, R.L. editor-in-chief, New York: McGraw-Hill,
pp. 517–533.
Thorpe, J.F. and Middendorf, W.H. (1979). What Every Engineer Should Know
About Product Liability. New York: Marcel-Dekker.
Tuckman, B.W. (1965). “Developmental sequence in small groups,”
Psychological Bulletin 63(6), pp. 384–399.
Tufte, E.R. (1983). The Visual Display of Quantitative Information. Cheshire,
CT: Graphics Press.
Tukey, J. (1977). Exploratory Data Analysis, New York: Addison-Wesley.
Vaziri, H.K. (1992). “Using competitive benchmarking to set goals,” Quality
Progress, November.
Wearring, C. and Karl, D.P. (1995). “The importance of following GD&T
specifications,” Quality Progress, February.
Weaver, C.N. (1995). Managing the Four Stages of TQM. Milwaukee, WI:
ASQ Quality Press.

22_Pyzdek_Ref_Ch22_p455-460.indd 462 11/9/12 5:34 PM


References 463

Webster’s New Universal Unabridged Dictionary. (1989). New York: Barnes


and Noble Books.
Wendel, P. (1996). “The European quality award: and how Texas Instruments
Europe took the trophy home,” The Quality Observer, January.
Willborn, W. (1993). Audit Standards: A Comparative Analysis, 2nd edition.
Milwaukee, WI: ASQ Quality Press.
Wilson, P.F., Dell, L.D., and Anderson, G.F. (1993). Root Cause Analysis: A
Tool for Total Quality Management. Milwaukee, WI: ASQ Quality Press.
Womack, J.P. and Jones, D.T. (1996). Lean Thinking: Banish Waste and Create
Wealth in Your Corporation. New York: Simon and Schuster.
Zaremba, A.J. (1989). Management in a New Key: Communication in the Modern
Organization. Norcross, GA: The Institute of Industrial Engineers.

22_Pyzdek_Ref_Ch22_p455-460.indd 463 11/9/12 5:34 PM


22_Pyzdek_Ref_Ch22_p455-460.indd 464 11/9/12 5:34 PM
Index
Note: Indexed terms within figures and tables are denoted by f and t after the
page number.

A American Society for Quality (ASQ),


Abuse, 28 47, 217, 301
Academic research, 133 Body of Knowledge, 416
Acceptance, 253 Analysis, 45
sampling, 158–159 benchmarking and, 132
Accounting department, 145 competitive, 131
Actions, 132, 295 correlation, 324–326
CARS, 218 DMADV, 54, 55t, 262–263, 285
corrective systems, 233 DMAIC, 54, 55t, 70, 252, 262–263,
management, 78 285, 376
preventive, 42 effect, 340
Activities: FMEA, 344–348
dummy, 274 GIGO, 146
parallel, 275f measurement system, 295,
post-audit, 220–221 298–303
quality, 12f, 13f movement, 338
value added, 308 Pareto, 146, 269, 270f, 270t
Adaptable processes, 59 of processes, 158, 162
Adaptive style, of strategic planning, 71 regression, 324–326
Adhocracy organization, 13 statistical, 202–204
Adjusted R Square, 329 value stream, 307–314
Adjustments, 314 ANalysis Of Variance (ANOVA), 329
eliminating, 340 Analytic studies, 155–158, 158t
Adult learning, 396 Analyze stage:
Advocates, 246 process drivers, 324–333
AIAG. See Automotive Industry Action sources of process variation,
group 314–324
Aircraft Engines, GE, 53 value stream analysis, 307–314
Alliances, 237–239 ANOVA. See ANalysis Of Variance
Allied Signal, 52, 262 ANSI/ASQ Z1.4, 159

465

23-Pyzdek_Index_p465-486.indd 465 11/16/12 5:15 PM


466 Index

Appraisals: Awards:
costs, 143f Best Plant’s Award, 133
customer-supplier, 389–390 Deming Prize, 48–49, 133
performance, 383–384 European Foundation for Quality Manage-
alternatives to, 388–393 ment Award, 133
criticisms of, 386–388 European Quality Award, 49–51
process, 390 Malcolm Baldrige National Quality Award,
Area under standard normal curve, 407–411 37t, 45–48, 46f, 51, 52, 133
Arrow diagrams, 273–275 post-award surveillance, 234–235
ASQ. See American Society for Quality pre-award audit, 217
Assessment, organizational, 139–149 pre-award survey, 231
Assignable causes, 163 Quality Cup Award, 133
Association, 194
ATE. See Automated test equipment B
Athey, Thomas H., 77–78 Barriers:
Aubrey, C. A., 353 to change, 249–250
Audits, quality, 211–226 identifying, 72
auditor qualifications, 217–218 “Beer Game,” 360
book results, 213t Benchmarking:
characteristics and, 223–226 analysis and, 132
conducting, 216–221 benefits of, 131
desk, 216 competitive, 131
internal, 215 failed efforts of, 134–136
internal quality surveys and, 218 getting started with, 132–134
planning, 216–221 Benneyan, J. C., 386
post-audit activities, 220–221 Best Manufacturing Practices, 133
pre-award, 217 Best Plant’s Award, 133
process, 214, 236 Bias, 301, 301f
product, 212–213 selection, 114
process, and materials control, Big project approach, 38
221–223 Black Belts, 54, 263, 352
reporting process, 219–220 Blanchard, Ken, 78
surveillance, 217 Body of Knowledge, ASQ, 416
systems, 214 Bonsignore, Mike, 53
third-party, 215–216 Book audit results, 213t
two-party, 215 Boss-less performance review,
types of, 212–216 391–393
Auditor qualifications, 217–218 Bossidy, Larry, 53
Austin, N., 377 Bottleneck, 84
Autocratic management style, 377 Boundary positions, 114
Automated test equipment (ATE), Boy Scout analogy, 90
85–86 Brainard, E. H., 232
Automation, 342 Brassard, M., 256
Automotive Industry Action group (AIAG), Breach of warranty, 24
345, 347t Breakthrough phase, 316
Average control charts, 165–167, 166t Breakthrough strategy, 262
Average run length, 174 Brookfield, D., 396

23-Pyzdek_Index_p465-486.indd 466 11/16/12 5:15 PM


Index 467
Buffers, 91–92, 98 Causes:
Building buy-in, 248–249 assignable, 163
Bureaucratic model, of organization, 1, 5, chance, 161
37 root, 221
Burt, D. N., 239 special, 35, 163, 176, 186, 191, 202
Business: Cause and effect, 11, 35, 194
changing environment, 9t diagrams, 318–319, 340
core, 37 cause enumeration, 319
functions: process production class, 320f
product liability, 24–28 Cause-and-effect diagram with the addic-
regulatory issues, 24 tion of cards (CEDAC), 319
safety, 23–24 CCR. See Capacity Constrained Resource
model capabilities, 73 CCW. See Customer contact workers
results, 51 CEDAC. See Cause-and-effect diagram with
value added activities, 308 the addiction of cards
Business-integrated quality systems, 1 Center for Food Safety and Applied Nutri-
approaches to quality, 33–56 tion, 24
customer-focused organizations, Center for Management and Organization
59–64 Effectiveness, 396
organizational structures, 5–13 Certification, 236
quality function, 17–29 professional, 392
Business-level projects, 262–263 simulated, 416–454
Buy-in, 253 CF. See Cash flow
building, 248–249 Chain of command, 11, 375
Chance cause, 161
C Changes:
c charts, 186–189 barriers to, 249–250
Calibration, 301 personal, 250f
Camp, R. C., 132 planned, 193f
Capability: Change agents:
indexes, 204–207 informal, 247
studies, 200–207 mechanisms used by, 248–254
vendor quality, 230–233 official, 246
Capacity Constrained Resource (CCR), 91 Change management, effective, 245–263
Capital Mortgage Insurance, GE, 53 goals, 247
“The Card Drop Shop” (game), 360–361 mechanisms used by change agents,
Carder, B., 354 248–254
Carlzon, J., 114 project development, 254–263
Carrots and sticks, 370 roles, 246–247
CARs. See Corrective action requests Channel, 73
Cartels, 239 Characteristics, classifications of, 223–226
CASE. See Coordinated Aerospace Supplier Charts. See also Control charts
Evaluation c charts, 186–189
Case study, 113 of customer-focused organizations, 60f
survey development, 121–127 EWMA, 175
Cash flow (CF), 101 flowcharts, 295–296, 337
Category labels, 298 Gantt, 272–273, 272f

23-Pyzdek_Index_p465-486.indd 467 11/16/12 5:15 PM


468 Index

Charts (Cont.): Conditions, 80–82


moving range, 171–172 hierarchy of, 81f
network, 273–276 operating and design, 337–340
np charts, 180–181 specifying, 72
p charts, 176–180 Confidant, 392
PDPC, 281, 340, 341f Configuration control, 225–226
Charts. See also Control charts (Cont.) Conflict:
sigma, 167–170, 204 games and, 360
u charts, 181–186 resolution, 287–288
X charts, 171–176 Conformance quality, 22
Chemical processes, 164 Consensus, 287
Chimney stack model, 37 Constraints. See also Theory of constraints
CIT. See Critical Incident Technique definition of, 78
Clark, J. D., 354 elevation of, 84–85, 259
Classical style, of strategic planning, 71 exploitation of, 83, 259
Closure, games and, 360 identification of, 82, 258–259
Clustered preferences, 113 information, 260–262
Coaching, 395–398 management, 74, 258–259
Coaching Skills (Center for Management and basic principles and concepts,
Organization Effectiveness), 396 78–87
Coase, R., 8 Five Focusing Steps, 82–85
Code of Ethics for Members of the American measurements, 99–102
Society for Quality, 230 tools of, 87–98
Coefficients, 329 non-constraints, 83–84
Combination data-based/judgment man- physical, 74
agement style, 376 subordination of, 83–84, 259
Common cause, 35, 161, 241 of systems, 74, 82–84, 259
Communication: types of, 78–79
with customers, 43 Constraint theory. See Theory of constraints
effective, 59 Consumer orientation, 36
open channels of, 229, 238 Consumer Product Safety Commission
of organizational vision, 68 (CPSC), 24
Competence constraints, 79 Continuous improvement, 202,
Competency base, games and, 360 241–242
Competition, 245 analyze stage, 305–333
analysis, 131 control/verify stage, 349–361
benchmarking, 101 define stage, 267–292
pressure, 107 effective change management,
Competitiveness, 22, 48 245–263
Competitiveness Forum, 133 improve/design stage, 335–348
Competitors, 73 measure stage, 293–303
Complaints, 115 Contract, 24
Complaint and suggestion systems, 113–114 law, 24
Completion time, 310 privity of, 26
Compliance credentials, 393 renewal, 217
Conceptual training, 356–357 Contrivance, games and, 360

23-Pyzdek_Index_p465-486.indd 468 11/16/12 5:15 PM


Index 469
Control, 161. See also Process control; Qual- Coordinated Aerospace Supplier Evaluation
ity control (CASE), 233
configuration, 225–226 Corbett, T., 104
DMAIC, 54, 55t, 70, 252, 262–263, 285, 376 Core business, 37
games and, 360 Corrective action requests (CARs), 218
materials, 221–223 Corrective action systems, 233
plan, 201 Correlation, 194
product, 221–223 analysis, 324–326
stage, 349–361 samples, 232
performance evaluation, 352–353 Cost considerations, 281–284
recognition and reward, 353–356 Cost-time relationship, 282f
training, 356–361 Count of defectives, 180–181
Control charts: Counterproductive group roles, 290,
for attributes data, 176–189 292t
average, 165–167, 166t CPM. See Critical Path Method
for average occurrences-per-unit, 181–186 CPSC. See Consumer Product Safety
constants, 401–402 Commission
for count of defectives, 180–181 Craftsmen, 7
for counts of occurrences-per-unit, Credentials, 393
186–189 Criteria weighing matrix, 257f
equations, 405–406 Critical chain, 94–98
for individual measurements (X charts), Critical characteristics, 223
17–22 Critical components and items, 225
interpretation, 190–195 Critical Incident Technique (CIT), 122–123
out-of-control patterns, 196f Critical path, 96, 97f, 276–279
patterns, 190–194, 190f, 191f Critical Path Method (CPM), 273
process baseline and, 297 Cross-functional management, 37
process capability studies and, 202–204 Cross-functional organizational structure,
for proportion defective, 176–180 6–7, 9f
range, 165–167, 171–172, 204 Current Reality Tree (CRT), 88, 89f
retrospective evaluation of, 194 Curvilinear relationship, 324, 325f
selection, 189–190 Customers, 11
standard deviation, 167–170 benchmarking and, 133
statistical, 160–165 classifications of, 108–109
variable, 165–176 communication, 43
Control limits, 162, 163 concerns, 22
equations: confidence, 36
for average and range charts, 166–167 demands, 245
for average and sigma charts, 169–170 dissatisfaction, 142
for c charts, 187–189 expectations and needs of, 107–128
for individuals charts, 172–176 collecting data on, 113–128
for np charts, 180–181 external, 108
for p charts, 177–179 focus on, 44
for u charts, 182–186 identification of, 110–113
misleading, 176f internal, 108
moving, 179 maintenance, 109

23-Pyzdek_Index_p465-486.indd 469 11/16/12 5:15 PM


470 Index

Customers (Cont.): Decision-making:


needs of, 107–128 data-driven, 56
requirements, 44, 84, 167, 200, 297, 316 factual approach to, 45
satisfaction of, 23, 23f, 50, 80–81 hard data and, 43
segmentation of, 110–113 Decision tree, 189f
service and support for, 114–117 Decreasing returns of management, 5
supplier evaluation and, 141 Defects, 196
two-party audits and, 215 prevention of, 28
value and, 40 Defects per million opportunities (DPMO),
Customer contact workers (CCW), 114–115 267
Customer-focused organizations, 59–64 Defectives:
chart, 60f count of, 180–181
traditional organizations comparison, 61t proportion, 176–180
Customer-supplied materials, 224 Defense Nuclear Facilities Safety
Customer-supplier appraisals, 389–390 Board, 24
Customized marketing, 111 Define, Measure, Analyze, Design, and
Cycles, 191, 192f Verify (DMADV), 54, 55t, 262–263, 285
PDCA, 250 Define, Measure, Analyze, Improve, and
Cycle times, 308, 337 Control (DMAIC), 54, 55t, 70, 252,
reduction, 41, 310 262–263, 285, 376
response, 332–333 Define stage:
project definition, 267–284
D team formation, 285–292
Data: top-level process definition, 285
attributes, 176–189 Delay, sources of, 309
for average control charts, 166t Deming, W. Edwards, 11, 42, 48–49, 158–159,
classification, 124 161, 202, 237, 361
collection, 318 approach of, 34–36
on customer needs and expectations, on enumerative and analytic studies, 155
113–128 funnel experiment, 360
customer service and support, 114–117 on management, 363–365
focus groups, 127–128 management action and, 78
surveys, 117–127 on system optimization, 77
decision-making and, 56 on tampering, 199
discrete, 193f Deming Prize, 48–49, 133
happenstance, 323, 331 Department of Defense, U.S., 41
hard, 43 Departmental efficiency, 311–312
interpretation, 125 Dependent variable, 319
mining, 331 Descriptive phase, 316
for Pareto analysis, 270t Descriptive statistics, 155
for scatter diagrams, 322f common, 156t
statistical analysis of, 202–204 Descriptive theory, 78
Data-based management style, 375–376 Design stage:
Databases, 222 failure modes, 340–348
DBR. See “Drum-Buffer-Rope” new operating and design conditions,
De-skilled work, 7–8 337–340

23-Pyzdek_Index_p465-486.indd 470 11/16/12 5:15 PM


Index 471
Designed experiments, 332–333 E
Desk audits, 216 Earliest time of completion, 276–279, 277t
Desk surveys, 232 EC. See Evaporating Cloud
Detection, 145 Eckes, G., 389
Deviations, 191, 226 Economic Control of Quality Manufacturing
Diagrams: (Shewhart), 160
arrow, 273–275 Edosomwan, J. A., 59
cause-and-effect, 318–319, 320f, 340 Education, 248. See also Training
Pareto, 269–270 Effect analysis, 340
scatter, 319–324 Effective change management,
constructing, 321 245–263
of curvilinear relationship, 324 goals, 247
example of, 321, 322f mechanisms used by change agents,
interpretation guide, 323f 248–254
pointers for using, 321–324 project development, 254–263
raw data for, 322f roles, 194
regression and correlation analysis and, Effective communication, 59
324–326 Effective reward systems, 355–356
value of, 326f Effectiveness measures, 353
spaghetti, 310 EFQM. See European Foundation for
Diffused preferences, 112 Quality Management
Dillman, D. A., 126 Ego needs, 369
Direct costs, 283f Einstein, Albert, 78, 295–296
Dis-satisfiers, 370 Elevation:
Discrete data, 193f ineffective, 85–86
Dispersion, measures of, 156t of system’s constraint, 84–85, 259
Dissent, 253 Employees:
Diversified organization, 13 performance evaluation of, 385–393
DMADV. See Define, Measure, Analyze, rewarding, 62
Design, and Verify Empowerment, 115
DMAIC. See Define, Measure, Analyze, EMS. See Environmental management system
Improve, and Control Enabler criteria (EFQM), 50
Documentation, 216 End user, 108
Dodge-Romig Sampling tables, 159 Entrepreneurial organization, 12
Dow, 390 Enumerative studies, 155–158
Dow Jones Industrial Average, 36 Environment, changing, 9t
Doyle, M. F., 239 Environmental management system (EMS),
DPMO. See Defects per million opportuni- 28
ties Ergonomics, 342
Drift, 190–191, 191f Errors:
Drum, 91, 98 inadvertent, 341–342
“Drum-Buffer-Rope” (DBR), 90–94, 95f in linear model, 327f
Dummy activities, 274 reduction of, 309
Duration, 10 standard, 327, 329
Dysfunctional process symptoms and dis- technique, 342–343
eases, 255t willful, 343–344

23-Pyzdek_Index_p465-486.indd 471 11/16/12 5:15 PM


472 Index

European Foundation for Quality Manage- Fishbone diagram. See Cause-and-effect dia-
ment (EFQM), 49 gram
European Foundation for Quality Manage- Fitzsimmons, C. F., 391, 392
ment Award, 133 5S’s (Lean concept), 338–339
European Quality Award, 49–51 Five Focusing Steps, 82–85
Evaluation: Five key disciplines, 379–380
CASE, 233 Flattened hierarchies, 59
checklist, for vendors, 232f Flow, 308
performance, 352–353 Flowcharts, 295–296, 337
appraisals, 385–393 FMEA. See Failure mode and effects analysis
PERT, 273, 276 Focus, 10, 54
product, 234 Focus groups, 127–128
retrospective, of control charts, 194 Food and Drug Administration (FDA), 249
of supplier, 141 Fool-proofing, 341–342
Evaporating Cloud (EC), 88, 90f Football team analogy, 76
Events, 182 Ford, Henry, 7, 68
EWMA charts, 175 Ford Motor Company, 18
Exam questions, of simulated certification, Formal audit reports, 219–220
416–454 Forming stage, of group development, 289
Exciters, 298 Forsha, H. I., 250
Executive coaching, 398 Fortune 500, 12
Exploitation, of system’s constraint, Fortune magazine, 133
83, 259 4th generation management, 378–379
External customers, 108 14 points management theory, 34–36
External failure costs, 143f Fourth Generation Management (Joiner), 378
External roadblocks, 249 Fox, R. E., 90
External steps, 339–340 Freak patterns, 190, 190f
Extrapolation, 321 FRT. See Future Reality Tree
Functional/hierarchical structure, 6–8
F Fundamental learning unit, 380
Facebook, 71 Funnel experiment, 360
Factual approach, to decision-making, 45 Funnel rules, 199, 199f
Failure costs, 143f Future Reality Tree (FRT), 88, 91f
Failure modes, 340–348
Failure mode and effects analysis (FMEA), G
344–348 GAAP. See Generally accepted accounting
FDA. See Food and Drug Administration procedures
Federal Quality Institute, 133 Galvin, Bob, 52
Feigenbaum, A. J., 36 Games:
Felkins, P. K., 353 “Beer Game,” 360
Field experiment, 113 “Card Drop Shop,” 360–361
The Fifth Discipline (Senge), 76, 78 closure and, 360
Fill-in-the-blank questions, 120 competency base and, 360
Financial constraints, 79 conflict and, 360
Financial measures, 99–102 contrivance and, 360
Finished goods, 225 control and, 360
1st generation management, 378 instructional, 359–361

23-Pyzdek_Index_p465-486.indd 472 11/16/12 5:15 PM


Index 473
Gantt charts, 272–273, 272f Hierarchy of needs (Maslow), 369–370, 371f,
GAO. See General Accounting Office 396
Garbage-in, garbage-out (GIGO), 146 High technology industries, 10
GE. See General Electric Histograms, 158
GE Capital, 351 Homogenous preferences, 112
General Accounting Office (GAO), 51 Honeywell, 52
General Electric (GE), 53, 263 Horizontal organization structures, 10–12
Generally accepted accounting procedures Hostility, 253
(GAAP), 102 House of quality, 316, 316f
Generations, of management, 378–379 Human factors engineering, 342
Geometric dimensioning, 361 Human machinations, 96
GIDEP. See Government Industry Data Human resources, 43
Exchange Program management of, 363–365
GIGO. See Garbage-in, garbage-out motivation theories and principles,
Goals, 247, 394–395 367–371
achieving, 395 styles, 375–380
conditions, 80–82, 80f Humanity, 37
stretch, 267 Hygiene theory, 356, 370, 371f, 396
Goal, The (Goldratt), 75, 90
Godfrey, A. Blanton, 42 I
Goldratt, Eliyahu M., 75, 77, 80, 98, IBM, 393
104, 258 Identification:
Critical Chain and, 94–95 of barriers, 72
DBR and, 90 of customers, 110–113
logical thinking process and, 88–89 of materials, 224
Government Industry Data Exchange Pro- of needs, 384f
gram (GIDEP), 233 of status, 224
Granite Rock, 393 of system’s constraint, 82, 258–259
Green Belts, 56, 357 Ideology, 6
Greenman v. Yuba Power Products, Inc., 18 Impact on society, 50
Groups. See also Subgroups; Teams Implementation phase, 316
focus groups, 127–128 Improve stage:
maintenance roles, 290, 291t failure modes, 340–348
stages in development, 288–289 new operating and design conditions,
task roles, 289–290, 291t 337–340
Gryna, F. M., 11, 17, 139, 143 Improvement, 45. See also Continuous
Guidelines for Auditing Quality Systems, improvement
211 process, 76–77, 242
Guttman format, 120 quality, 20
In-process observation, 217
H Inadvertent errors, 341–342
Happenstance data, 323, 331 Incentive, 370
Hard data, 43 Incentive pay, 356
Harrington, H. J., 298 Incident Classification System, 124
Harry, M., 262 Incidental characteristics, 224
Headquarters, 10 Independent variable, 319
Herzberg, Frederick, 356, 370, 371f, 396 Individuals control charts, 171–176

23-Pyzdek_Index_p465-486.indd 473 11/16/12 5:15 PM


474 Index

Industrial Revolution, 1 Job satisfaction, 370


Industry structure and segmentation, 73 Job training, 357–358
Industry Week, 133 Johnson, R. S., 246
Ineffective elevation, 85–86 Joiner, Brian, 140, 378, 379f, 387
Inertia, 86–87 Joint technological plans (JTP), 238
Informal change agent, 247 Jones, D. T., 380
Infrastructure, 54 JTP. See Joint technological plans
Inputs, 295 Judgment calls, 229
Instructional games, 359–361 Judgmental management style, 375
Intangibles, 352 Juran, Joseph M., 11, 17, 62, 139, 143, 262
Integrated planning, 65 Juran trilogy, 17–23
benchmarking, 131–135 JUSE. See Union of Japanese Scientists and
customer expectations and needs, 107–128 Engineers
organizational assessment, 139–149 Just in Time (JIT), 41, 237
strategic planning, 63–104
Integration, 132 K
Intensity scales, 121 KAIZEN™, 38–39, 39f, 242
Intercept, 324, 329 hierarchy of involvement, 40t
Internal audits, 215 Kanban, 41
Internal customer, 108 Kano, Noritaki, 107
Internal failure costs, 143f Kano model, 107, 108f, 113
Internal motivation, 370–371 Kaoru Ishikawa, 36, 215, 318, 321, 415
Internal quality surveys, 218 Keeney, K. A., 218
Internal steps, 339–340 Keiretsu, 38, 239
International Organization for Standardiza- Keller, P., 175, 258
tion (ISO): Key Performance Indicators (KPI), 140–141
ISO 9000:2000, 44, 212 Knowledge constraints, 79
ISO 9000 series, 28, 41–45, 212, 214 Kohn, A., 356
ISO 14000, 28 Kotler, P., 117
ISO 14001, 43 KPI. See Key Performance Indicators
ISO 19011, 211 Kurtosis, 156t
Interval scales, 299–300 illustration of, 157f
Intranet, 133
Inventory, 99–102 L
Ishikawa diagram. See Cause-and-effect dia- Labor:
gram costs, 100
ISO. See International Organization for Stan- patient-focused, 7, 10f
dardization Lafley, A. G., 72, 73
Items in queue, 309 Latest time of completion, 276–279, 278t
LCL. See Lower control limit
J Lead time, 308
Japan: Leaders, organizational, 68
JUSE, 48 Leadership, 44, 50, 245
supply chains and, 238–239 behavior and, 62
total quality control in, 36–41 Lean concept of transparency, 311
JIT. See Just in Time Lean practices, 41

23-Pyzdek_Index_p465-486.indd 474 11/16/12 5:15 PM


Index 475
Lean tools, 338–339 Management (Cont.):
Learning organization, 76 14 points theory, 34–36
Least-squares fit, 326–327 generations of, 378–379
Legal theories: of human resources, 363–365
fundamental terminology, 25t–26t management styles, 375–380
product liability and, 24–28 motivation theories and principles,
Level loading, 311 367–371
Lewis, C. I., 35 micromanagement, 378
Likert, 121 participatory, 37, 376–377
Linear models, 325–326 of people, 50
error in, 327f of relationships, 117
Linear regression, 327 responsibility, 45
Linear relationship, 324 styles, 375–380
Linearity, 302, 303f support strategies:
LL Bean, 131 effective, 251–254
Location: ineffective, 251
measures of, 156t underlying assumptions of, 79–80
tasks, 314 Management by wandering around
Logical thinking process, 88–89 (MBWA), 215, 378
Lot traceability, 225 Managing Personal Growth (MPG), 390
Lower control limit (LCL), 162 Market:
constraints, 79
M influences, 33
Macabe approach, 317 niches, 111
Machine organization, 12 segmentation, 110–111
Machinists, 7 share, 21
Maintenance customers, 109 Marketing:
Maintenance roles, 290, 291t customized, 111
Major characteristics, 223 mass, 110
Malcolm Baldrige National Quality Award, Marketplace, changing pattern of, 11
39, 45–48, 51, 133 Maslow, A. S., 355, 369–370, 396
model of management, 47f Mass marketing, 111
scoring weights, 46t Mastery, 321, 415
Malcolm Baldrige National Quality personal, 379
Improvement Act of 1987, 45–48 Materials:
Manageable bites, 75 constraints, 79
Management, 292. See also Change manage- control, 221–223
ment; Supply chain management customer-supplied, 224
constraints, 74, 258–259 identification of, 224
basic principles and concepts, 78–87 purchased, 224
Five Focusing Steps, 82–85 segregation practices, 225
measurement, 99–102 Matrices:
tools of, 87–98 criteria weighing, 257f
cross-functional, 37 organizations, 9f
decreasing returns of, 5 cross-functional structure, 9–10
environmental system, 28 horizontal structures, 10–12

23-Pyzdek_Index_p465-486.indd 475 11/16/12 5:15 PM


476 Index

Matrices (Cont.): Mine Safety and Health Administration, 24


prioritization, 256–258 Minor characteristics, 224
requirement, 317 Mintzberg, H., 10
summary, 257f, 258 Mission statements, 67
Matsushita electric industrial company, Misuse, 28
67–68 Mixture, 194–195, 194f
Maturity, 132 Mobile power sources, 1
MBWA. See Management by wandering Mode, 156t
around illustration of, 157f
McGregor, Douglas, 369, 370–371, 377, 396 Monument, 312
Mean, 156t Motivation theories and principles:
illustration of, 157f hierarchy of needs, 369–370, 370f
Measure stage: hygiene theory, 370, 371f
definitions, 301–303 theories X, Y, and Z, 370–371
metric definition, 295, 296–297 Motorola, 52
process baseline, 295, 297–298 Movement analysis, 338
process definition, 295–296 Moving control limits, 179
Measurement, 45 Moving range charts, 171–172
of constraint management, 99–102 MPG. See Managing Personal Growth
of dispersion, 156t Muda (waste), 39
DMADV, 54, 55t, 262–263, 285 Multiple linear regression, 327
DMAIC, 54, 55t, 70, 252, 262–263, 285, 376 Multiple R, 327
effectiveness, 353 Multitasking, 96, 310
financial, 99–102 Mutually beneficial supplier relationships,
individual, control charts for, 17–22 45
levels of, 298–300 MySpace, 71
of location, 156t
performance methodology, 284 N
reliability and validity, 300 National Institute of Standards and Technol-
of results, 62 ogy (NIST), 46, 133
scales, 299f Natural tolerance, 205
of shape, 156t Navy, U.S., 133
systems analysis, 295, 298–303 NB. See Negative Branch
Median, 156t Necessary conditions, 80–82
illustration of, 157f hierarchy of, 80f
Medical Systems, GE, 53 Needs:
Membership, 10 of customers, 107–128
Mental models, 379 hierarchy of, 369–370, 370f, 371f, 396
Mentoring, 252, 398 identifying, 384f
Methodology, 54–55 Negative Branch (NB), 88, 91f
Metrics: Negligence, 24, 27
definition, 295, 296–297 Net profit (NP), 101
organizational, 140–142 Net sales, 147
Metronome, 311 Network charts, 273–276
Micromanagement, 378 The New Economics for Industry, Government,
MIL-STD 105, 33 Education (Deming), 77

23-Pyzdek_Index_p465-486.indd 476 11/16/12 5:15 PM


Index 477
New operating and design conditions, 337–340 Organization (Cont.):
Newton, Isaac, 78 leaders, 68
Nietzsche, Friedrich, 80 learning, 76
NIST. See National Institute of Standards metrics, 140–142
and Technology phase, 315
Nominal scale, 298 structures, 5–13, 248–249
Non-conformance, 383 cross-functional, 9–10, 9f
Non-constraints, 83–84 functional/hierarchical, 9–10
Nordstrom, 69 general theory of, 5–6
Noreen, E., 104 horizontal, 10–12
Normal distribution, 195f matrix, 9f
zone lines, 196f six basic parts of, 6f
Norming stage, of group development, 289 support, 54
NP. See Net profit surveys, 72
np charts, 180–181 vision, 67–69
OSHA. See Occupational Safety and Health
O Administration
Objectives, 394–395 Outliers, 330
Observations, 164, 329 Outputs, 295
Occupational Safety and Health Administra-
tion (OSHA), 24, 133 P
Occurrences-per-unit: p charts, 176–180
average, 181–186 Pain signals, 255
counts of, 186–189 Parallel activities, 275f
OE. See Operating Expense Parent companies, 38
Office of System Safety, 24 Pareto analysis, 146, 269
Official change agent, 246 example, 270f
OJT. See On-the-job training raw data for, 270t
Olay, 73 Pareto diagrams, 269–270
On-the-job training (OJT), 357, 358–359 Pareto principle, 78, 254
One-Minute Manager (Blanchard), 78 Pareto Prioritization Index (PPI), 255–256,
Open-ended questions, 119 256t
Operating Expense (OE), 100–104 Parkinson’s Law, 95
Operations-level projects, 263 Part manufacturing, discrete, 164
Opportunities, 69–70 Participatory management, 37
Ordinal variables, 299 style, 376–377
Organization. See also Traditional Partnerships, 237–239
organizations Pastoral Personnel Services Staff, 391
assessment, 139–149 Patient-focused labor, 10, 10f
bureaucratic model of, 1, 5, 37 Patton, George, 222
forms, 12–13 PDCA. See Plan-Do-Check-Act
adhocracy, 13 PDPC. See Process decision program charts
diversified, 13 PDSA. See Plan-Do-Study-Act
entrepreneurial, 12 Peer coaching, 397–398
machine, 12 People management, 50
professional, 12–13 People satisfaction, 50

23-Pyzdek_Index_p465-486.indd 477 11/16/12 5:15 PM


478 Index

Perceived quality, 22 Pre-award audit, 217


Performance: Pre-award survey, 231
KPI, 140 Precedence relationship, 276
measurement methodology, 284 Prediction, 35
quality, 230 Preferences, 112–113
suboptimal, 11 Preparation, 313
Performance evaluation, 352–353 Prerequisite Tree (PRT), 88, 94f
appraisals, 385–386 Prescriptive theory, 78
alternatives to, 388–393 Prestige, 73
criticisms of, 386–388 Prevention costs, 143f
Performing stage, of group development, 289 Preventive action, 42
Personal change, 250f Prince, J. B., 388
Personal mastery, 379 Prioritization matrices, 256–258
Personalized response type, 332–333 Privity of contract, 26
PERT. See Program Evaluation and Review Problem resolution, 217
Techniques Processes, 50
Peters, Tom, 215, 377 adaptable, 59
Physical constraints, 74 analysis of, 158, 162
Physiological needs, 365 appraisals, 390
PIMS. See Profit Impact of Market Strategy approach, 44
Plan-Do-Check-Act (PDCA), 82, 250, 356, audits, 214, 236
376, 395 baseline, 295, 297–298
Plan-Do-Study-Act (PDSA), 35, 55, 70, 82, capability studies, 200–207
376 how to perform, 200–202
Planned changes, 193f indexes, 204–207
Planning. See also Integrated planning; statistical analysis of data, 202–204
Strategic planning chemical, 164
quality, 11 definition, 295–296
tactical, 315 top-level, 285
vendor, 233–234 drivers, 324–333
of quality audits, 216–221 correlation analysis, 324–326
Plastics, GE, 53 designed experiments, 332–333
Poka yoke. See Fool-proofing least-squares fit, 326–327
Policies, 74 regressional analysis, 324–326
constraints, 79 residuals, 330–331
deployment, 315 dysfunctional symptoms and diseases,
strategy and, 50 255t
Population, 155 improvement, 76–77
mean, 156t teams, 238, 242
Possibilities-based strategic planning, lead time, 308
72–74 logical thinking, 88–89
Post-audit activities, 220–221 map, 296f, 308, 337
Post-award surveillance, 234–235 scrap rates, 260t
Power sources: service, 164
of manager, 364 special, 236–237
mobile, 1 tampering, 198–199, 198f
PPI. See Pareto Prioritization Index WIP, 207, 224, 308–309

23-Pyzdek_Index_p465-486.indd 478 11/16/12 5:15 PM


Index 479
Process-based organization structures, 10–12 Projects:
Process control: big approach, 38
capability studies, 200–207 buffers, 98
quality audits, 211–226 business-level, 262–263
statistical, 234 charters, 270–281
supply chain management, 230–239 critical path, 276–279
using specifications of, 196–200 network charts, 273–276
Process decision program charts (PDPC), sample, 271f
281, 340, 341f schedule slippage, 279–281
Process-level projects, 263 scheduling, 272–281
Process production cause-and-effect dia- definition, 267–284
gram, 320f charters, 270–281
Process variation: cost considerations, 281–284
acceptance sampling, 158–159 Pareto diagrams, 269
descriptive statistics, 155, 156t resources, 281
enumerative and analytic studies, 155–158 work breakdown structure, 268
process capability studies, 200–207 development, 254–263
sources of, 314–324 selecting projects, 254–255
specifications for process control, operations-level, 263
196–200 process-level, 263
statistical control charts, 160–165 Proportion defective, 176–180
Procter & Gamble, 73 PRT. See Prerequisite Tree
Product: Psychology, 36
audits, 212–213 Purchased materials, 224
control, 221–223 Pyzdek, T., 258
descriptions, 229
evaluation, 234 Q
liability, 24–28 QC. See Quality control
realization, 45 QFD. See Quality function deployment
Product-based organization structures, Quality. See also Business-integrated quality
10–12 systems
Production: activities, 12f, 13f
mechanization, 7 approaches to, 33–56
process production class, 320f audits, 211–226
scheduling, 90–94 auditor qualifications, 217–218
Productivity, 99 book results, 213t
Professional certification, 392 characteristics and, 223–226
Professional development, 393–395 conducting, 216–221
Professional organization, 12–13 desk, 216
Profits, 67–68 internal, 215
net, 101 internal quality surveys and, 218
Profit Impact of Market Strategy (PIMS), planning, 216–221
22–23 post-audit activities, 220–221
Profitability, 80 pre-award, 217
Profound knowledge, 35 process, 214, 236
Program Evaluation and Review Techniques product, 212–213
(PERT), 273, 276 process, and materials control, 221–223

23-Pyzdek_Index_p465-486.indd 479 11/16/12 5:15 PM


480 Index

Quality, audits (Cont.): Range, 156t


reporting process, 219–220 Range control charts, 165–167, 204
steps in conducting, 218–219 moving, 171–172
surveillance, 217 Ranking questions, 120
systems, 214 Rating:
third-party, 215–216 questions, 120
two-party, 215 scales, 388
types of, 212–216 schemes, 235–236
capability, vendor, 230–233 Ratio scales, 299–300
conformance, 22 Rational subgroup, 163–164
costs, 142–149, 383–385 Reasonable risk, 27
councils, 21 Recognition, 353–356
culture, 139–149 Red Bead experiment, 161–162, 162f, 361
cost of quality, 142–149 Reengineering, 39
organizational metrics, 140–142 Reeves, M., 71
curve line, 107 Regression analysis, 324–326
evolving view of role, 60f interpretation of computer output for,
first, 36 328–329
function, 17–29 Regulatory issues, 24
environmental issues relating to, 28–29 Relationship management, 117
resource requirements and, 381–398 Relative strengths and weaknesses, 83
improvement, 20 Reliability, 300
internal surveys, 218 Repeatability, 301, 302f
ISO 9000 series and, 41–45 Repeating patterns, 192f
management system, 43 Replacement, 313–314
perceived, 22 Reporting, 5, 11
performance, 230 for quality audits, 219–220
planning, 17 Reproducibility, 301, 302f
tactical, 315 Requirement matrix, 317
within traditional organization, 20f Research, academic, 133
work elements, 21t Residuals, 330–331
Quality control (QC), 20, 215 Resources, 50, 281
total, 36–41, 415 constraints, 79
vendor, 230 human, 43, 373–380
wheel of, 18–19f management, 45
Quality Cup Award, 133 professional development, 393–395
Quality function deployment (QFD), 132, requirements:
308, 315–317 coaching, 395–398
Quality Handbook (Juran), 20 identifying needs, 384f
Quality Management Principles, 44 to manage quality function, 381–398
performance evaluations, 385–393
R Response cycle time, 332–333
R square, 329 Results criteria (EFQM), 50–51
The Race (Goldratt and Fox), 90 Return on investment (ROI), 86, 101
Random looking, 192 Reward, 353–356
Random sampling, 164 Rewarding employees, 62

23-Pyzdek_Index_p465-486.indd 480 11/16/12 5:15 PM


Index 481
Risk priority number (RPN), 347 Secretary of Commerce, 33–34
Rochester Institute of Technology, 133 Sectionalism, 36
ROI. See Return on investment Segmentation:
Roles, 246–247 concepts, 111f
counterproductive, 292, 292t of customers, 110–113
maintenance roles, 290, 291t industry, 73
productive, 289–290 of market, 110–111
of quality, 60f preference patterns, 112–113
task roles, 289–290, 291t Selection bias, 114
Role-plays, 359–361 Self-actualization, 355, 370
Root cause, 221 Semantic differentials, 121
Rope, 91, 93 Senge, Peter, 76, 78, 360, 378–379, 380
Rose, K. H., 140 Service processes, 164
RPN. See Risk priority number Setup time, 312–313, 339–340
Rules and regulations, 245 Shape, measures of, 156t
Running tests, 195–196 Shaping style, of strategic planning, 71
Ryuji Fukuda, 319 Shared vision, 379–380
Sheridan, B. M., 315
S Shewhart, Walter A., 11, 33, 55, 70, 82, 160,
Saaty, T. L., 203 162, 376
Sabotage, 343–344 Sigma. See also Six Sigma
Safety, 23–24 charts, 167–170, 202
needs, 365 illustration of, 157f
OSHA, 24, 133 Silos, 248
Sample mean, 156t Silo mentality, 8, 21
Sample surveys, 113 Simple linear regression, 328
Sampling plans, 159 Simulated certification, exam questions,
Satisfaction: 416–454
of customers, 23, 23f, 50, 80–81 Simulations, 359–361
job, 370 SIPOC. See Supplier-Inputs-Process-Out-
people, 50 puts-Customer
Satisfiers, 370 Six Sigma, 20, 52–56, 75, 297, 356–357, 376, 380
Scatter diagrams, 319–324 constraint information and, 260–262
constructing, 321 Skewness, 156t
of curvilinear relationship, 324 illustration of, 157f
example of, 321, 322f Slack times, 278, 278t, 279t
interpretation guide, 323f Slippage, of schedule, 279–281
pointers for using, 321–324 Slope, 324
raw data for, 322f Small Business Administration, U.S., 24
regression and correlation analysis and, Smith, D., 104
324–326 Smoke stacks, 248
value of, 326f Social needs, 369
Schedule slippage, 279–281 SOPs. See Standard operating procedures
Schroeder, R., 262 Sources of process variation (SPC), 314–324
Scope, 10 data collection, 318
2nd generation management, 378 QFD, 315–317

23-Pyzdek_Index_p465-486.indd 481 11/16/12 5:15 PM


482 Index

Space reduction, 338 Strengths and Weaknesses to External


Spaghetti diagram, 310 Opportunities and Threats (SWOT),
Sparrows Point plant, 94 69–70, 70f
SPC. See Sources of process variation Stretch goals, 267
Special causes, 35, 163, 176, 186, Strict liability, 26–27
190, 191 Strict liability in tort, 27
removing, 202 Student syndrome, 95
Special processes, 236–237 Subgroups:
Specifications, 196–200 equations, 165, 166–167
Spiral of progress in quality, 12–13f expected number of, 174
Sponsors, 246, 247f, 253, 270 rational, 163–164
Stability, 301–302, 303f sizes, 165, 173–174
Stakeholder buy-in, 252–253 Suboptimal performance, 11
Standard deviation, 156t Subordination, of system’s constraint, 83–84,
control charts, 167–170 259
Standard error, 327, 329 Summary matrices, 257f, 258
Standard normal curve, area under, Suppliers:
407–411 constraints, 79
Standard operating procedures (SOPs), 38, customer-supplier appraisals, 389–390
248–249 evaluation, 141
Standardization, of work instructions, relationships, mutually beneficial, 45
339 two-party audits and, 215
Standardized residuals, 330 Supplier-Inputs-Process-Outputs-Customer
Stapp, Eric H., 42 (SIPOC), 285, 286f
Starvation, 91 Supply chain management, 230–239
Statistics: partnership and alliances, 237–239
analysis, 202–204 post-award surveillance, 234–235
descriptive, 155, 156t special processes, 236–237
process control, 234 vendor control quality, 230
Statistical control charts, 160–165 vendor quality planning,
Statistical methods, 36 233–234
Status, identification of, 224 vendor rating schemes, 235–236
Steering committees, 21 Support, 253
Stories, 69 Surveillance audit, 217
Storming stage, of group development, Surveys, 117–127
289 desk, 232
Strategy, 50 developing questions, 119
Strategic planning, 67–104 development case study, 121–127
organizational vision, 67–69 internal quality, 218
possibilities-based strategic decisions, organizations, 72
72–74 pre-award, 231
strategic development using constraint response types, 119–121
theory, 74–104 sample, 113
strategic styles, 71–72 Suspected differences, 194f
strategy development, 69–71 SWOT. See Strengths and Weaknesses to
Stratification, 323 External Opportunities and Threats

23-Pyzdek_Index_p465-486.indd 482 11/16/12 5:15 PM


Index 483
Systems. See also Business-integrated quality Tests:
systems ATE, 85–86
analysis, 295, 298–303 conducting, 73
audits, 214 designing, 72–73
as chains, 77–78 running, 195–196
complaint and suggestion, 113–114 Theories X, Y, and Z, 370–371, 396
constraints, 74, 83–84, 259 Theory of constraints (TOC), 74–104, 258
corrective action, 233 project selection using, 258–262
EMS, 28 systems approach, 75–76
Incident Classification System, 124 3rd generation management, 378–379
management, 74, 75–76 Third-party audits, 215–216
optimization, 76–77 Thought revolution in management, 36
process improvement and, 76–77 Threats, 69–70
quality management, 43 Throughput, 100–104
of reward, 353–356 TOC. See Theory of constraints
thinking, 76, 379 Tolerancing simulation, 361
undocumented, 211 Top-level process definition, 285
Systems-focused approach, 45 Tort, 27
law, 27
T Total costs, 284f
Tactical quality planning, 315 Total design method (TDM), 126
Taguchi, G., 200, 333 Total quality control (TQC), 35–41, 415
Taiichi Ohno, 39 Total quality costs, 143f
Takt, 311 Total quality management (TQM),
Tampering, 198–199 51–52
Task-based training, 356–357 Toyota Production System, 39
Task roles, 289–290, 291t TQC. See Total quality control
Taylor, Frederick, 6, 11, 33, 75, 77 TQM. See Total quality management
TDM. See Total design method Traditional organizations, 6, 10. See also
Teams: Functional/hierarchical structure
formation, 285–292 bureaucratic model of, 37
common problems, 290t chain of command and, 11
counterproductive group roles, 292, customer-focused organizations compari-
292t son, 61t
dynamics management, 287–288 quality within, 20f
management, 292 Train-the-trainer method, 200
productive roles, 289–290 Training, 55–56, 248, 356–361
stages in group development, 288–289 requirements, 245
learning, 380 Transaction-cost theory, 5
process improvement, 238, 242 Transfer agents, 108–109
Technical assistance, 230 Transition Tree (TT), 88, 94f
Technique errors, 342–343 Transparency, 339
Technology: TT. See Transition Tree
advances, 245 Tuckman, Bruce W., 289
high, 10 “20 Quality Elements,” 43
transaction-cost theory and, 5 Two-party audits, 215

23-Pyzdek_Index_p465-486.indd 483 11/16/12 5:15 PM


484 Index

U Virginia Beach Ambulatory Surgery Center,


u charts, 181–186 393
UCL. See Upper control limit Visionary style, of strategic planning, 71
Uncaused variation, 193
Undocumented quality systems, 211 W
Union of Japanese Scientists and Engineers Waivers, 226
(JUSE), 48 Waste, 39
Universal, 63 Welch, Jack, 53, 254
Upper control limit (UCL), 162 Wheel of quality control, 12–13f
UPS, 71 Willborn, 212, 217
Willful errors, 343–344
V Wilson, P. F., 221
Values, 40 WIP. See Work-in-process
abstract, 69 Womack, J. P., 380
customers and, 40 Work:
of organization, 69 breakdown structure, 268
of scatter diagrams, 326f de-skilled, 7–8
statements, 67 flow, 11
stream analysis, 307–314 instructions, 221–223
Variability, 300 standardization of, 339
Variable control charts, 165–176 Work-in-process (WIP), 224, 261, 308–309
Variation, 35, 162. See also Process variation World War II, 33
uncaused, 193
Velocity, 308 X
Vendors: X charts, 171–176
constraints, 79 Xerox, 131
evaluation checklist, 232f XM satellite radio, 71
quality:
capability, 230–233 Y
control, 230 Yes/no questions, 120
planning, 233–234 Yoji Akao, 318
rating schemes, 235–236
Verify stage: Z
performance evaluation, 352–353 Zero-or-one situation, 81
recognition and reward, 353–356 Zones, 195–196
training, 356–361 lines, 196f

Uploaded by [StormRG]

23-Pyzdek_Index_p465-486.indd 484 11/16/12 5:15 PM

Vous aimerez peut-être aussi